Walther Umstaetter schrieb:
Wenn bisher ein durchschnittliches gedrucktes Buch in etwa hundert Bibliotheken der Welt aufbewahrt wurde, (so dass auch geringe Verluste durch Brand, Wasser Raub, etc. verkraftet werden konnten)sollte man eigentlich annehmen, dass digitale Dokumente, von denen immer behauptet wird, sie seien bei weitem nicht so sicher, dass diese in noch viel hoeherer Redundanz gesichert werden muessten.
Ich glaube nicht, dass man mehr Redundanz braucht. Die "Bedrohungen" für digitale Objekte sind ja weniger die genannten physischen Gewalten, gegen die eine räumliche Verteilung helfen mag (diese Bedrohung gibt es bei digitalen Objekten natürlich auch, da sie üblicherweise an einen physischen Datenträger gebunden sind; sie ist aber nicht zwangsläufig größer als bei Büchern). Interessanter Ansatz zur "verteilten Speicherung" von digitalen Objekten wäre vielleicht auch ein eher "chaotisches" Peer-to-Peer-Prinzip? Die "Bedrohung" digitaler Objekte besteht doch eher in der Weiterentwicklung der Technik selbst: BTX und Gopher sind weg, praktisch nichts davon erhalten (und da gab es durchaus schon erhaltenswertes, zumindest bei Gopher bin ich da absolut sicher :-). Die technischen Plattformen zur "Wiedergabe" der Inhalte existieren schlicht nicht mehr (ok, Gopher-Server gibt es noch und könnte man auch ohne Probleme wieder einrichten, aber BTX?!?). Was würde es nutzen, wenn ich wichtige Inhalte in einem Format millionenfach redundant hätte, wenn ich dennoch keine technische Plattform zur Nutzung dieser Inhalte mehr hätte? Dann genügen ebensogut 3 oder 100 sicher aufbewahrte, redundante Abbilder des originalen Bitmusters, damit ich nichts sinnvolles mehr damit anfangen kann. Mal sehen, ob und wie man in 100 Jahren einen derzeit aktuellen Atlas wie z.B. Google Earth benutzen kann...
Viele Grüße, Till Kinstler -- Till Kinstler Verbundzentrale des Gemeinsamen Bibliotheksverbundes (VZG) Platz der Göttinger Sieben 1, D 37073 Göttingen kinstler@xxxxxx, +49 (0) 551 39-13431, http://www.gbv.de