http://indi.langzeitarchivierung.de.php.d-nb.de:8880/newsletter
nestor Newsletter 09/2006 [30. Juni 2006]
Begrüßung
Wir freuen uns, Ihnen heute den neunten nestor Newsletter präsentieren zu können. Wir möchten Sie damit über Entwicklungen im Projekt nestor informieren.
Auf der Homepage des Projektes können Sie sich laufend über aktuelle Entwicklungen informieren.


Aktuelle Entwicklungen des Projektes

Den Fortschritt bewahren - 3 Jahre nestor
Unter diesem Motto stand die nestor-Veranstaltung am 19. Juni 2006 in der Deutschen Nationalbibliothek Frankfurt am Main. Auf der mit 130 Teilnehmerinnen und Teilnehmern sehr gut besuchten Veranstaltung haben die Projektpartner von nestor wichtige Ergebnisse ihrer Arbeit vorgestellt und einen Ausblick auf die zukünftige Arbeit gegeben. Als Gäste haben drei Projekte zur Langzeitarchivierung aus der Schweiz und Deutschland berichtet. Weiterhin haben mit Herrn Prof. Dr. Oßwald und Frau Prof. Scheffel zwei Vertreterinnen und Vertreter von Ausbildungsinstitutionen zu den Perspektiven des Themas Langzeiterhaltung in den Curricula vorgetragen und mit Prof. Dr.-Ing. Hemmje hat ein Vertreter der Wissenschaft zum Thema "e-Science und Langzeitarchivierung" referiert.
Das im Mai 2006 von nestor veröffentlichte "Memorandum zur Langzeitverfügbarkeit digitaler Informationen in Deutschland" wurde von Heike Neuroth (SUB Göttingen) vorgestellt. Die Entwicklung von Grundsätzen einer gemeinsamen Strategie auf nationaler Ebene war eine wichtige Zielsetzung des Projekts, die in einem interdisziplinären und kooperativen Ansatz erreicht wurde.
Ein weiterer Schwerpunkt der Arbeit von nestor wurde durch die Arbeitsgruppe "Vertrauenswürdige Archive - Zertifizierung" geleistet. Die Kriterien für die Vertrauenswürdigkeit digitaler Langzeitarchive wurden unter Berücksichtigung von Vorarbeiten im internationalen Umfeld mit dem Ziel erarbeitet, einen Leitfaden für Gedächtnisorganisationen und eine Orientierungshilfe für alle anderen archivierenden Einrichtungen bereit zu stellen.
Die Aufnahme internationaler Entwicklungen bei der Entwicklung von Metadaten in die praktische Anwendung von Archiven war das Thema des nestor-Partners Bundesarchiv. Es wurde gezeigt, dass Metadatenstrukturen, die im bibliothekarischen Kontext und mit Schwerpunkt im angloamerikanischen Raum entwickelt wurden, durchaus auch für die praktische Nachnutzung in Deutschland Bedeutung haben.
Ergebnisse der Forschung in Museen bestehen zunehmend aus digitalen Datensammlungen, die zur Interpretation und Erschließung der musealen Objekte langfristig bewahrt werden müssen. Die Kolleginnen und Kollegen vom Institut für Museumskunde haben anschaulich dargestellt, dass zusammen mit erzeugten digitalen Surrogaten für Sammlungsobjekte und genuin digitalen Artefakten in Museumsbeständen eine Vielfalt digitaler Ressourcen langfristig verfügbar gehalten werden muss.
Alle Präsentationen der Veranstaltung sind online auf der Homepage einsehbar (Homepage -> Veranstaltungen -> Konferenzen).

Die Zukunft von nestor
Die Projektpartner von nestor haben in den letzen Monaten intensive Gespräche mit dem Projektträger für das BMBF im DLR (PT-NMB+F) geführt. Es wurde Einvernehmen darüber erzielt, dass die Arbeit von nestor in Form eines Anschlussprojekts "nestor II" fortgeführt werden soll.
nestor II wird derzeit beantragt als Verbundprojekt der Partner Deutsche Nationalbibliothek, SUB Göttingen, BSB München, HUB Berlin, Bundesarchiv, Institut für Museumskunde und FernUniversität Hagen. Ein zentrales inhaltliches Anliegen des Projekts wird es sein, die Bereiche e-Science, Grid-Computing und Langzeitarchivierung digitaler Ressourcen zu vernetzen.
Eine wesentliche Aufgabe der zweiten Projektphase liegt aber auch darin, die notwendigen organisatorischen, politischen und finanziellen Voraussetzungen für das Kompetenznetzwerk zu schaffen, um eine dauerhafte Verankerung des Themas und der damit verbundenen Aktivitäten in Deutschland zu erreichen. Da diese Aufgabe in gleichem Maße auch für die Erhaltung des schriftlichen (trägergebundenen) Kulturguts in Deutschland gilt, ist eine gemeinsame Initiative von nestor und der ‚Allianz zur Erhaltung des schriftlichen Kulturgutes' in Vorbereitung.

nestor-Memorandum zur Langzeitverfügbarkeit veröffentlicht
Das nestor-Projekt hat im Mai 2006 in einem "Memorandum zur Langzeitverfügbarkeit digitaler Informationen in Deutschland" Empfehlungen veröffentlicht. Das Memorandum beschreibt wie Rahmenbedingungen für die zukunftsorientierte und Erfolg versprechende Erhaltung des digitalen Erbes in Deutschland geschaffen werden können.
Dieses Memorandum basiert auf den Arbeiten und Erfahrungen der nestor-Projektpartner, auf Beiträgen aus der Wissenschaft, einer Umfrage unter deutschen Archiven, Bibliotheken und Museen und den Anregungen einer öffentlichen Diskussionsveranstaltung im Bundesarchiv Koblenz im Februar 2006. In 18 Grundsätzen fixiert das Memorandum eine deutsche "Langzeitarchivierungs-Policy" in den Themenbereichen "Verantwortung für die Langzeiterhaltung digitaler Informationen", "Auswahl, Verfügbarkeit und Zugriff", "Technische Vorkehrungen" und "Vernetzung und Professionalisierung". Durch eine breit angelegte Öffentlichkeitsarbeit in diesem Zusammenhang wollen die nestor-Partner erreichen, dass das Bewusstsein für die Notwendigkeit von Investitionen in die Langzeitverfügbarkeit digitaler Ressourcen weiter wächst.
Im Einzelnen hält das Memorandum nach einer Einführung in die Thematik der digitalen Langzeitarchivierung unter der Überschrift "Verantwortung für die Langzeiterhaltung digitaler Informationen" fest, dass die Erhaltung und langfristige Verfügbarkeit digitaler Objekte eine Aufgabe von nationaler Bedeutung ist, die auch entsprechende Berücksichtigung in allen relevanten Bereichen der Gesetzgebung finden muß. Darüber hinaus wird explizit betont, dass die nationale Herausforderung nur gemeinsam durch verteilte und arbeitsteilige Kooperation bewältigt werden kann. Die Entwicklung einer nachhaltigen Organisationsstruktur verbunden mit einer Koordinationsstruktur soll dabei sicherstellen, dass diese Aufgaben dauerhaft und langfristig bewältigt werden können. Eine der wesentlichen Herausforderungen besteht zum Beispiel auch darin, die Integrität, Authentizität und Verfügbarkeit des digitalen kulturellen Erbes zu gewährleisten. Der Begriff der Verfügbarkeit beinhaltet explizit die Vorkehrung organisatorischer und technischer Maßnahmen gegen den Verlust des digitalen Erbes.
Unter der Überschrift "Auswahl, Verfügbarkeit und Zugriff" werden Aspekte betont, die zum Beispiel auf das gesamte heterogene Spektrum des digitalen Kulturerbes hinweisen wie Verwaltungsschriftgut, digitales Museumsgut oder digitale Objekte aus Film oder Musik. Instrumentarien zu entwickeln, die in verantwortlicher Weise eine Auswahl unter der großen Bandbreite digitaler Sammlungen treffen und diese Entscheidungskriterien transparent dokumentieren, gehört sicherlich zu einer der größten Herausforderungen im digitalen Informationszeitalter. Alle Beteiligten sind sich nur zu sehr darüber bewusst, dass "keiner alles langfristig archivieren kann". Neben der dauerhaften Archivierung des digitalen Kulturguts spielt der langfristige Zugriff auf die digitalen Sammlungen eine bedeutende Rolle und wird in dem Memorandum auch ausdrücklich betont. Dieser Zugriff kann natürlich auch dadurch gewährleistet werden, dass Informationen auf nicht-digitalen Medien wie Papier oder Mikrofilm durch geeignete Digitalisierungsmaßnahmen einer breiteren Öffentlichkeit dauerhaft zugänglich gemacht werden. Alles in allem wird in dem nestor Memorandum betont, dass es wünschenswert wäre, eine Transparenz von Informationen im Sinne einer "Wissenskartierung" zu fördern.
Unter der Rubrik "Technische Vorkehrungen" wird als notwendige technische Innovation die Entwicklung digitaler Langzeit-Archive gefordert, die den vollständigen Erhalt von Inhalt und Funktionalität digitaler Informationen sicherstellen. Ausdrücklich wird die Nutzung nichtproprietärer, offener und gut dokumentierter Formate und Standards gewünscht.
Das letzte Kapitel "Vernetzung und Professionalisierung" stellt die Bedürfnisse und Interessen der (zukünftigen) Nutzer in den Vordergrund und betont, dass diese in die Gedanken, Strategien und Entwicklungen einbezogen werden sollen. Auch eine Vernetzung in Richtung europäischer und internationaler Diskussionen wird explizit als sinnvoll erachtet, um den Anschluß an und die Kompatibilität mit anderen Gedächtnisorganisationen zu sichern. Ein letzter, als ebenfalls sehr wichtig erachteter Aspekt gilt der Aus- und Fortbildung im gesamten Bereich der digitalen Langzeitarchivierung, um professionell geschultes Personal mit diesen verantwortungsvollen Aufgaben betrauen zu können.

Das nestor "Memorandum zur Langzeitverfügbarkeit digitaler Informationen in Deutschland" wird zurzeit an relevante institutionelle wie politische Entscheidungsträger versandt und einer breiteren Öffentlichkeit bekannt gemacht.

Kriterienkatalog vertrauenswürdige digitale Langzeitarchive veröffentlicht
Der Kriterienkatalog Vertrauenswürdige digitale Langzeitarchive ist nun als Entwurf zur öffentlichen Kommentierung verfügbar.
Die nestor-AG "Vertrauenswürdige Archive - Zertifizierung" hat Kriterien identifiziert, die die Bewertung der Vertrauenswürdigkeit eines digitalen Langzeitarchivs sowohl in organisatorischer als auch in technischer Hinsicht ermöglichen. Die Definition der Kriterien geschieht in engem Kontakt mit unterschiedlichsten Gedächtnisorganisationen und Produzenten von Information sowie weiteren Betroffenen und Experten. Der nun vorliegende Kriterienkatalog zur öffentlichen Kommentierung bildet einen wichtigen Meilenstein bei der Erreichung der Ziele der AG.
Einerseits soll ein fundiertes, abgestimmtes und praxisgerechtes Hilfsmittel zur Erlangung und Darstellung von Vertrauenswürdigkeit bereitgestellt werden. Andererseits soll auch die Option eröffnet werden, die Vertrauenswürdigkeit durch eine Zertifizierung im Rahmen eines national bzw. international standardisierten Verfahrens nachzuweisen. Der nun fertig gestellte Entwurf unterstützt auch die aktive Teilnahme an bereits laufenden internationalen Standardisierungsarbeiten.
Der Katalog richtet sich in erster Linie an Gedächtnisorganisationen (Archive, Bibliotheken, Museen) und dient als Leitfaden, um ein vertrauenswürdiges digitales Langzeitarchiv zu konzipieren, zu planen und umzusetzen. Ferner kann er auf allen Stufen der Entwicklung zur Selbstkontrolle und Darstellung eingesetzt werden. Darüber hinaus soll dieser Katalog allen Institutionen, die selbst archivieren, sowie Dienstleistern aus dem kommerziellen und nichtkommerziellen Bereich und Drittanbietern von Produkten als Orientierungshilfe dienen.
Um einen breit akzeptierten Kriterienkatalog zu entwickeln, benötigt die nestor-AG Beiträge und Kommentare der betroffenen und interessierten Institutionen. Daher hat die AG von Anfang an ein offenes Verfahren gewählt, um gemeinsam an dieser Problematik zu arbeiten und frühzeitig alle Interessensgruppen einzubeziehen. Zusätzlich zu einer Umfrage, einem öffentlichen Workshop und einem Expertengespräch soll nun allen Interessierten eine weitere Möglichkeit zur Beteiligung gegeben werden:

Die AG ruft hiermit auf, den vorliegenden Entwurf des Kriterienkataloges bis zum 31. Oktober 2006 zu kommentieren.
Bitte senden Sie Ihre Kommentare, Anregungen, Fragen per e-Mail an Frau Dobratz (dobratz@cms.hu-berlin.de) und Frau Dr. Schoger (schoger@bsb-muenchen.de).


JCDL 2006 Workshop: Digital Curation and Trusted Repositories
Im Rahmen der diesjährigen Joint Conference on Digital Libraries (11.-15. Juni 2006 - Chapel Hill, NC, USA) hat ein Workshop zu vertrauenswürdigen Archiven stattgefunden. Der Workshop war mit 57 Teilnehmern sehr gut besucht.
Die sehr umfangreiche Tagesordnung bot eine Reihe von interessanten Beiträgen zu den Themen Institutional Repository und Trusted Digital Repositories.
Im Themenblock Vertrauenswürdige Archive hat die RLG/NARA - Certification task force (Robin Dale & Bruce Ambacher) von ihren Erfahrungen mit den ersten drei Testevaluationen und über den Stand der Überarbeitung der RLG Audit Checklist for the Certification of Trusted Digital Repositories berichtet. Eine in wesentlichen Punkten überarbeitete Version der Audit Checklist ist für den Spätsommer zu erwarten.
Die nestor-AG "Vertrauenswürdige Archive – Zertifizierung" (vertreten durch Stefan Strathmann, SUB) hat den Kriterienkatalog vertrauenswürdige digitale Langzeitarchive der internationalen Öffentlichkeit vorgestellt und zur Beteiligung an der Kommentierung aufgerufen.
Reagan W. Moore und MacKenzie Smith berichteten von Erfahrungen bei der Implementierung von Teilen der RLG-Audit Checklist als Regeln in eine DSpace Umgebung.
Andrew McHugh (DCC) hat zum Ende der Veranstaltung die Kommentierung der beiden Ansätze zur Evaluation von vertrauenswürdigen Archiven mit der Vorstellung eines Papiers zu Fragen der Evidence aufgegriffen bzw. eröffnet.


Informationen zu verwandten Projekten
Gastbeiträge geben die Meinung der jeweiligen Autorin bzw. des jeweiligen Autors wieder. Die Verantwortung für den Inhalt des Beitrags trägt die Autorin / der Autor.

kopal
Für die Aufnahme des Produktionsbetriebs hat das Projekt kopal in den letzten Wochen einige Grundlagen geschaffen. Hierzu zählen folgende Aktivitäten:
  • Technische Infrastruktur: Bereitstellung, Installation und Test der Server für den Produktionsbetrieb durch die Gesellschaft für wissenschaftliche Datenverarbeitung mbH Göttingen (GWDG) und IBM
  • Ingest: Beginn des Einspielens von Daten für den dauerhaften Verbleib im Langzeitarchiv, Auswertung der Einspielergebnisse und Verbesserungen an Workflow und Software
  • Erste Vorbereitungen zum künftigen kopal-Service für weitere Nutzer des Archivsystems
Bei der GWDG sind nun die Server mit einer Installation der Archivsoftware DIAS der IBM für den Produktionsbetrieb bereitgestellt. Nach einer kurzen Testphase sowohl von Seiten des Betreibers GWDG wie von Seiten der Nutzer Deutsche Nationalbibliothek (DNB) und Niedersächsische Staats- und Universitätsbibliothek (SUB) Göttingen, ist nun damit begonnen worden, digitale Bestände, die zum Verbleib im Archiv bestimmt sind, in das System einzuspielen. Einzuspielende Daten umfassen elektronische Dissertationen, Netzpublikationen und Digitalisate sowie auf CD-ROM vorliegende Quellen und zukünftig auch Filme, Multimedia-Anwendungen etc.
Die Projektpartner DNB und SUB entwickeln gemeinsam eine unter einer Open-Source-Lizenz stehende Software, die "kopal Library for Retrieval and Ingest" (koLibRI). Mit ihrer Hilfe werden die jeweiligen Workflows der Institutionen modelliert. Die einzelnen Module der Softwarebibliothek koLibRI finden, bezogen auf das Einspielen von Daten, insbesondere folgende Anwendungen:
  • Optionales Einsammeln von deskriptiven Metadaten aus den Informationssystemen, z. B. dem Bibliothekskatalog
  • Extraktion von technischen Metadaten aus den einzuspielenden digitalen Objekten wie etwa Format und Größenangaben etc.
  • Erstellung und Überprüfung von Archivpaketen
  • Übergabe der Archivpakete an den sog. "Loader" des Archivsystems
Die ersten eingespielten Bestände werden auf mögliche Fehlerquellen überprüft, um den Bedarf an etwaigen Zusatzmodulen für die Qualitätskontrolle zu ermitteln.
In Entwicklung ist außerdem ein Serviceangebot für weitere Interessenten am kopal-Archivsystem. Ziel des Angebotes wird es zunächst sein, den Interessenten die Möglichkeit zu bieten, die Langzeitarchivierung des kopal-Projekts für die eigenen Belange intensiv zu testen und zu evaluieren. Ein entsprechendes Servicemodell mit unterliegendem Betriebskonzept befindet sich derzeit in Entwicklung.
Autor: Birgit Schmidt bschmidt@sub.uni-goettingen.de

Content Addressed Storage an der HAAB Weimar
Seit dem 23. Mai 2006 sind rund 160 Bände der Weimarer Herzogin Anna Amalia Bibliothek im Internet einsehbar. Weitere 20.000 der wertvollsten Bücher sollen in den kommenden Jahren digitalisiert werden. Während das Projekt selbst in den Medien hinreichend (hier und hier) vorgestellt wurde, sind die folgenden Details eher für die Fachwelt interessant.
Die Scans stammen aus verschiedenen Digitalisierungsprojekten, überwiegend aus dem Projekt "Sicherungsverfilmung" (hier und hier). Allerdings sind nicht die Original-Scandaten (bis zu 145 MB große TIFF-Dateien), sondern nur datenreduzierte Derivate (1600 x 2400 Pixel) im JPEG-Format online verfügbar. Obwohl JPEG wegen seiner Blockartefakte für Text und Strichdaten suboptimal ist, entschied man sich für dieses eigentlich für Halbtonbilder (Fotos) konzipierte Format. "Gerade in vielen Bibliotheken und Archiven sind noch Rechner im Einsatz, die modernere Kompressionsformate (JPEG2000, PNG) nicht ohne weiteres unterstützen", begründet Olaf Mokansky, Referatsleiter Fotothek/Digitalisierungszentrum der Klassik-Stiftung, diese Vorgabe. Aus demselben Grund werden auch keine serverseitigen Zoom-Oberflächen genutzt, obwohl sie bandbreitenschonender, eleganter und schneller wären, als die hier gewählte clientseitige Lösung, bei der mit etwas Geschick auch das komplette Werk herunterladbar ist. Bei einer serverseitigen Lösung sind dagegen immer nur die gerade sichtbaren Bildschirmdaten am Client verfügbar. Skalierung und Komprimierung der Rohscans erfolgen an der HAAB im Batchbetrieb, wodurch allerdings unterschiedlich große Vorlagen in unterschiedlicher Bildqualität angezeigt werden.

Content Addressed Storage für Kulturgüter
Für die Speicherung der Originaldaten hat der US-Hersteller EMC zwei Centera-Speichermodule mit einer Kapazität von zus. 28 TeraByte kostenlos zur Verfügung gestellt, die mit ihrer verzeichnislosen Adressierungstechnik CAS (Content Addressed Storage) für die hochsichere Langzeitspeicherung von Fixed Content in einem virtuellen Filesystem entwickelt wurden.
Unter Fixed Content versteht man Inhalte, die über lange Zeiträume ihre Gültigkeit beibehalten und, einmal erzeugt, nicht mehr verändert werden dürfen. Alte Zeitungen gehören ebenso dazu, wie Videos, Filme, Tonaufnahmen und natürlich Bücher. Diese Inhalte repräsentieren einen großen Teil des kulturellen Erbes einer Gesellschaft. Fixed Content macht mittlerweile etwa 50 Prozent des weltweit neu anfallenden Datenvolumens aus. Dazu zählen neben den erwähnten Kulturgütern auch E-Mails, Verträge, Röntgenbilder, Patientenakten, Satellitenfotos und zahllose andere elektronisch erzeugte Dokumente. Der Speicherbedarf für Fixed Content ist gigantisch: So lagern etwa in den Archiven der NASA Satellitenbilder der Erde in der Größenordnung von etwa 10 PetaByte (10.000 TeraByte).

"Hash mich, ich bin der Content"
Das Content Addressed Storage (CAS) wurde 2002 vom Speicherhersteller EMC speziell für Content-Objekte entwickelt, die nicht mehr verändert werden dürfen. Adressiert werden diese Objekte über einen automatisch generierten contentspezifischen Objektnamen, einem digitalen Fingerabdruck ("Hash") mit 128 bit. Mit diesem eindeutigen, 27 Zeichen langen Identifier lässt sich eine versehentliche Mehrfachspeicherung derselben Daten unter verschiedenem Namen vermeiden, anders als bei den herkömmlichen hierarchischen (verzeichnisbasierten) Speicherarchitekturen. Auffindbar sind die Objekte in einem CAS-System über das sogen. C-Clip Descriptor File CDF, das neben der Objektadresse auch einen Zeitstempel und die anwendungsspezifischen Metadaten enthält. Die Anwendung adressiert plattformunabhängig also immer dieses CDF, nicht das eigentliche Content-Objekt. Verschiedene Clients können dabei auch über unterschiedliche CDFs auf dasselbe Content-Objekt zugreifen. Umgekehrt kann ein einzelnes CDF auch mehre Assets oder ganze Sammlungen adressieren.
CAS-Systeme reduzieren das Filevolumen durchschnittlich im Verhältnis 10:1 und verteilen die Daten redundant in einem beliebig großen, auch standortübergreifenden Netz. Von jeder archivierten Datei wird automatisch und sofort auf einer zweiten Speichereinheit eine Kopie erstellt und die logische Datenintegrität permanent überwacht. Wird ein fehlerhaftes Datenobjekt erkannt, erzeugt das System selbstständig eine neue Kopie. Dies garantiert zusätzlich die Authentizität der Daten und spart Kapazitäten. Das System kann so konfiguriert werden, dass Kopien des Fixed Contents an einem zweiten, räumlich getrennten Standort vorgehalten werden: ein entscheidender Faktor in einer Katastrophenvorsorge. Zudem schützt die CAS-Technologie das System vor unerlaubten Zugriffen.

"Non-disruptive upgrade" bei laufendem Betrieb
Der physikalische Speicherort spielt für die Adressierung keine Rolle: ein Netz mit beliebig vielen Knoten tritt an die Stelle des Speicherorts. In Anlehnung an die RAID-Technologie spricht man daher von RAIN: Redundant Array of Independent Nodes. Ein Knoten ist im Prinzip ein eigener Rechner mit mehreren großen Festplatten und Netzwerkverbindungen; bis zu 32 Knoten stecken in einem 19-Zoll-Schrank für 10 TB gespiegelte Daten. Sechzehn Schränke bilden (bei der EMC-Lösung) ein Cluster zu 160 TeraByte, max. sieben Cluster ergeben eine Domain mit einem PetaByte. Da jederzeit, sogar im laufenden Betrieb, neue Knoten hinzugefügt werden können, sind CAS-Systeme beliebig bis in den Petabyte-Bereich skalierbar und finden ein Objekt auch in extrem großen Beständen in Bruchteilen von Sekunden, selbst wenn sich der physikalische Speicherort zwischenzeitlich geändert hat. Solche Zugriffszeiten sind für Offline- und Nearline-Speicher natürlich unerreichbar.
Wenn sich irgendeine Katastrophe ereignet oder gar ein kompletter Netzknoten ausfällt, repariert sich das CAS-Netzwerk selbsttätig: der Techniker kann in aller Ruhe, etwa im vierteljährlichen Wartungsintervall, das defekte Teil ersetzen, das dann sofort und automatisch wieder in den CAS-Organismus integriert wird. Während man bei herkömmlichen Offline-Archivmedien nie ganz sicher sein kann, ob sie nicht schon längst unlesbar geworden sind, "leben" die Daten in einem CAS-System: der physikalische Ausfall einer Speichereinheit wird sofort bemerkt und verlustfrei abgefangen (Selbstheilung). CAS reduziert die Kosten und den Managementaufwand für die Dateiorganisation dramatisch gegenüber herkömmlichen Lösungen. Die Kosten der CAS-Lösung Centera sind klar kalkulierbar und beginnen bei 185.000 US-Dollar für 5 TeraByte redundant gesicherter Nutzkapazität (10 TB brutto). In Schritten von 2,5 TB ist ein Ausbau bis in den PetaByte-Bereich möglich. Ein einziger Administrator kann 160 TB managen.

Fazit:
Ein nationaler Kulturgutspeicher auf der Basis eines Content Addressed Storage Systems könnte eine praktikable Ergänzung, wenn nicht gar eine Alternative zur Mikrofilmeinlagerung im Zentralen Bergungsstollen des Bundes sein, bei der sich Zugriffszeit, Verwertbarkeit und Datenqualität doch in ganz anderen Dimensionen bewegen.
Autor: Roland Dreyer dreyer@contentmanagement.de

Die ARCHE ist im Wasser
Rund 100 Experten trafen sich am 27. Juni 2006 zur Ergebnispräsentation des gemeinsamen InnoNet-Projekts Arche des Landesarchivs BaWü, der Universitätsbibliothek Stuttgart und des Freiburger Fraunhofer-Instituts für Physikalische Messtechnik IPM in Zusammenarbeit mit dem Bundesamt für Bevölkerungsschutz und Katastrophenhilfe und fünf weiteren Partnern aus der Wirtschaft. Mit dem farbtüchtigen digitalen Laserbelichter für unperforierten 35 mm Mikrorollfilm steht der Archivwelt eines neuartiges Konversionsinstrument zur Bestandserhaltung und Langzeitarchivierung analoger und digitaler Daten zur Verfügung; über das technologische Prinzip berichteten wir bereits im letzten nestor-Newsletter. Eine Variante des Arche-Lasers, die den Mikrofilm als optisches Datenband für Binärdaten nutzt, ist in der Entwicklung.
Das 32 x 45 mm große Bildfenster des Arche-Lasers kann in 40 Sekunden mit 10.666 x 15.000 RGB-Pixel beschrieben werden. Ein Filmmagazin fasst Rollen bis 600 m Länge und kann unbeaufsichtigt belichtet werden. Die farbgemanagten Bilddaten sollen trotz prinzipieller Schwächen des Ilfochrome-Materials so hochwertig ausbelichtet werden, dass ein Rückdigitalisat vom Mikrofilm weitestgehend mit den digitalen Quelldaten identisch sei, erklärte Physiker Wolfgang Riedel vom IPM. Als noch nicht ausreichend diskutiert empfindet der Berichterstatter indessen Riedels Aussage, dass die Notwendigkeit eines digitalen Langzeitarchivs damit entfalle. Angesichts der Kosten und der Manpower für die Gewinnung der digitalen Daten wäre es zumindest bei Objekten von allgemeinem Interesse fatal, sie nach Ausbelichtung einfach zu verwerfen, anstatt sie auch digital vorzuhalten. Zumal sich die Qualität und Praktikabilität der Rückdigitalisierung erst noch beweisen muss, denn abgesehen von dem noch gar nicht verfügbaren Rollfilm-Scanner und der Farbdatenqualität können auch Staub und Kratzer auf dem Mikrofilm die Güte des Redigitalisats erheblich beeinträchtigen.

Workflow für die Metadaten
Den Workflow für die Aufbringung und Rückgewinnung der Bild- und Metadaten beschrieb Klaus Wendel von der UB Stuttgart. Bisher wurden 6000 Bilder verschiedenester Art mit einem Datenvolumen von 1,2 TeraByte erfolgreich ausbelichtet. Die Ergebnisse können sich im Wortsinne allesamt sehen lassen, aber eine quantitative Gütebewertung steht noch aus. Die spannendste Frage richtet sich wohl an die Wirtschaftlichkeit des Systems. David Gubler, Geschäftsführer der für die Vermarktung zuständigen Microarchive Systems GmbH Frankfurt, stellte eine Nutzung auf Dienstleistungsbasis im direkten sowie im indirekten Vertrieb durch Bilddienstleister vor. Besonders aufmerksam nahm das Auditorium die ersten Preisvorgaben für die ab sofort erhältliche Auftragsbelichtung zur Kenntnis: für ein Frame seien in s/w, 2,- und in Farbe 3,60 EUR zu veranschlagen. Bei ausgeprägtem Nesting, also dem Bündeln von max. 64 Einzelbildern pro Frame, seinen so marktübliche Kosten von 3 Cent (s/w) bzw. 6 Cent (RGB) pro Bild erzielbar.

Fazit:
Der Arche-Laser ist fraglos ein sehr bedeutender Meilenstein für die Langzeitsicherung analoger und digitaler Daten. Seine Belichtungsqualität steht zumindest so lange außer Frage, so lange die Digitalisierung der Originale noch als qualitativer Flaschenhals gesehen werden muss. Schuld daran hat vor allem die mäßige spektrale Qualität der Lichtquellen, um die sich bis heute anscheinend keiner der maßgeblichen Scannerhersteller so richtig kümmern will. Mit Standard-Leuchtstoffröhren oder gar Excimer-Lampen entstehen irreparable Farbverfälschungen beim Scan, die kein Colormanagement der Welt wieder ausbügeln kann. Bleibt nur noch zu wünschen, dass die Website www.microarchive.com alsbald in die Gänge kommt und der Fachwelt umfassende Informationen zu diesem System zur Verfügung stellt.
Roland Dreyer dreyer@contentmanagement.de


Öffentlichkeitsarbeit / Präsentationen

Veranstaltungen, auf denen nestor vorgestellt wurde:



nestor Email-Listen

Möchten Sie an der Diskussion um digitale Langzeitarchivierung teilnehmen? Dann subskribieren Sie sich bitte für die folgende Email-Liste:
nestor@langzeitarchivierung.de,
indem Sie eine Mail mit dem Betreff subscribe langzeitarchivierung-nestor an die Adresse lists@langzeitarchivierung.de schicken.
Hier werden wir Ergebnisse zum Beispiel der nestor Workshops mit Ihnen gemeinsam diskutieren.

Haben Sie Fragen an das Projektteam? Dann senden Sie bitte eine Email an die folgende Adresse: info@langzeitarchivierung.de


Newsletter

Der Newsletter wird von den nestor Partnern kooperativ erstellt. Bei inhaltlichen Fragen, Anregungen, Kommentaren zu dem Newsletter schreiben Sie bitte eine Email an:
neuroth@sub.uni-goettingen.de
Bei technischen Problemen schreiben Sie bitte an:
bwendland@cms.hu-berlin.de

Bestellen/Abbestellen des nestor Newsletters
Zum Bestellen des Newsletters schicken Sie bitte eine Mail an die Adresse
lists@langzeitarchivierung.de mit dem Betreff subscribe langzeitarchivierung-newsletter.
Zum Abmelden schicken Sie bitte eine Mail an die Adresse
lists@langzeitarchivierung.de mit dem Betreff unsubscribe langzeitarchivierung-newsletter.

Archiv
Die nestor Newsletter werden auch auf folgender Seite archiviert: http://indi.langzeitarchivierung.de/newsletter/

1. Newsletter vom 18.12.2003
2. Newsletter vom 18.03.2004
3. Newsletter vom 24.08.2004
4. Newsletter vom 18.12.2004
5. Newsletter vom 20.04.2005
6. Newsletter vom 12.08.2005
7. Newsletter vom 15.12.2005
8. Newsletter vom 21.03.2006
[Seite drucken]
[Fenster schlieen]
© 2004 nestor-Informationsdatenbank, SUB Gttingen