[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: [InetBib] Langzeiterhalt von AV-Inhalten ungeloest
- Date: Thu, 23 Nov 2006 10:27:03 +0100
- From: "Walther Umstaetter" <h0228kdm@xxxxxxxxxxxxxxx>
- Subject: Re: [InetBib] Langzeiterhalt von AV-Inhalten ungeloest
Dass wissenschaftliche Publikationen grundsätzlich archiviert werden müssen,
sollte eigentlich außer Zweifel stehen, da man anderenfalls keine
Urheberrechte
(Copyrights) schützen, keine Analysen über die Entstehung von Wissenschaft
betreiben,
keine wissenschaftlichen Fehlentwicklungen aufdecken, keine Zitationen
nachprüfen
und keine genialen Entdeckungen, die nicht auf Anhieb als solche erkannt
werden,
mehr nutzen kann.
Nur durch möglichst vollständige Archivierung in Digitalen Bibliotheken ist
die Integrität und das
Qualitätsmanagement der Wissenschaft rationell zu gewährleisten.
Gerade in der "Wissenschaftsgesellschaft", die immer stärker von
Wissenschaft lebt,
und bei der Wissenschaft immer teurer wird, ist das unverzichtbar.
Dass eine grundsätzliche Archivierungspflicht publizierter Information von
Bibliotheken
wahrgenommen werden muss, ist in den USA schon vor einiger Zeit bekräftigt
worden,
da viele Publikationen schon verloren gegangen sind, weil sie mit dem
Untergang der
Verlage elektronischer Medien (oder auch mit dem Tod eines Autors)
ebenfalls unauffindbar wurden.
Dass viele Rechenzentren die Lücke schließen, die von Bibliotheken offen
gelassen wurden,
weil einige Bibliothekare die Notwendigkeit digitaler Archivierung nicht
erkannten,
weil die Geldgeber oft die Bedeutung der Bibliotheken unterschätzen oder
weil
sie durch das GATS (General Agreement on Trade in Sevices) den Bibliotheken
absichtlich das
Geld dafür verweigerten, ist fast zwangsläufig.
Das wohl größte Archiv dürfte da wohl der "Cache" von Google sein, bei dem
die Frage auftaucht,
wer an die dort aufgezeichneten Altbestände heute noch heran kommt.
Dass insbesondere die USA wiederholt Versuche unternommen haben, die
Informationen des Internets weitgehend
zu archivieren ist ja bekannt. Sie stehen aber immer weniger der
Allgemeinheit zur Verfügung, und dass das
Wissen derer, die dazu Zugang haben, ein kaum zu überschätzender Machtfaktor
ist,
sollte sicher nicht vergessen werden.
Ansonsten gibt es schon seit etlichen Jahren längst keine wirkliche
Alternative zur digitalen Archivierung.
Das hat das amerikanische Militär schon vor etwa zwanzig Jahren mit der
Einführung von SGML klar
erkannt.
Wer zu spät digital archiviert, den bestraft das Leben ;-)
Die digitale Archivierung hat bereits 1963 mit dem Weinberg Report begonnen.
Diese Daten sind bis heute noch lesbar, weil es ASCII-Daten waren, und SGML
(XML)
auf der selben Basis aufbaut - im Gegensatz zu der oft wiederholten Kritik,
viele Medien des letzten Jahrhunderts und auch viele Computerdateien seien
schon nach wenigen
Jahren nicht mehr lesbar.
Da wird insbesondere von Laien oft vieles durcheinander gebracht, was nur
wenig miteinander zu tun hat
(analog / digital, Betriebssystem / Text / Layout, publizierte / geheime /
verschlüsselte Daten,
Magnetspeicher / Optische Speicher etc.).
So lange bei einem elektronischen Dokument nicht gesichert ist, dass es
durch eine offizielle Einrichtung
(bei publizierter Information - Bibliothek) verfügbar gehalten wird, ist
eine Zitation immer ein Vabanquespiel.
Insofern ist es ja schon seit Jahren höchst zweifelhaft Internetquellen zu
zitieren, und höchste Zeit geworden,
dass sich die "Digitale Bibliothek" darum kümmert.
Ich entsinne mich noch recht gut, wie lange einige Mitstreiter geglaubt
haben, Disseration Online,
brauche noch keinen Archivierungscharakter, da Die Deutsche Bibliothek
ja noch immer ein gedrucktes Exemplar archiviert.
Im Klartext hätte das bedeutet, dass man eine Dissertation im Netz findet,
feststellt dass man sie zitieren muss,
um dann nach Leipzig zu fahren, um sie auch authentisch zitieren zu dürfen.
Wichtig wäre es aber, auch publizierte digitale Dokumente nicht nur in
einer,
sondern in mehreren Digitalen Bibliotheken der Welt
zu archivieren. Wenn ein durchschnittliches Buch auf etwa hundert
Bibliotheken verteilt ist,
sollte ein durchschnittliches digitales
Dokument (je nach Bedarf und Bedeutung) in mindestens zehn Digitalen
Bibliotheken
(mit unabhängigen Servern) verfügbar gemacht werden.
Die Zahl kann so viel geringer sein, weil die Erzeugung von authentischen
Kopien so sehr viel einfacher ist.
Fälschungsversuche ließen sich leicht erkennen, und der hohe Aufwand an
Authentizitätskontrollen,
wie man ihn bei privaten und geheimen digitalen Dokumenten kennt,
ist hier bei ausreichender Redundanz (da publiziert) überflüssig.
MfG
W. Umstätter
----- Original Message -----
From: "Juergen Fenn" <juergen.fenn@xxxxxx>
To: <inetbib@xxxxxxxxxxxxxxxxxx>
Sent: Thursday, November 23, 2006 12:08 AM
Subject: Re: [InetBib] Langzeiterhalt von AV-Inhalten ungeloest
"Eberhard R. Hilf" <hilf@xxxxxxxxxxxxxxxx> writes:
Und auch für die Physik wäre ich skeptisch, denn der Original-Aufsatz
von Einstein ist auch heute noch von wissenschaftlichem Interesse.
Irgendwelche Lehrbücher können solche Quellen nicht ersetzen.
Das ist eben das Missverstaendnis:
- in der Physik und fuer die aktuelle physikalische Forschung sind die
Einstein Gleichungen von Interess,- moeglichst in der aktuell fuer
sinnvoll gehaltenen mathematischen Darstellung.
Wer die Gleichungen gefunden hat, wann, wo, wie sprachlich und textuell
wann wo wie erlaeutert, niedergelegt, pp. spielt ueberhaupt keine Rolle.
(Ich kenne nur wenige Physiker, die die Originalarbeiten ihrer
aktuellen Forschung gelesen haben,- man zitiert sie aus Fairness und
Respekt, ok.).
Mir ging es auch weniger darum, wer was zitiert, als vielmehr, welche
Quellen archiviert gehören, um überhaupt wissenschaftliches Arbeiten
über ein bestimmtest Thema (hier: Relativitätstheorie) zu ermöglichen,
und die ...
- anders sieht es in den Fachgebieten Geschichte der Physik,
Wissenschaftsgeschichte etc. aus. Diese Kollegen haben die
Originalarbeiten als Forschungsgegenstand, man will lernen, wer hat wann
wo wie.
... "Geschichte der Physik" gehört doch ganz klar zum Fach "Physik"
dazu. Auf die Originalarbeiten kann man deshalb im Bestand nicht
verzichten.
Das ist nicht der Punkt: gemeint ist: Texte, die in LaTeX,html
geschrieben wurden, und in ASCII niedergelegt, sind immer
rekonstruierbar.
Alle! (wirklich alle der 395.265) Dokumente in www.ArXiv.org werden
zweimal im Jahr geprueft und nur dynamisch in das jeweils aktuelle pdf
verwandelt. Der Trick ist, das ArXiv nur Ascii nimmt, also einen
strengen
Eingangsfilter hat.
Bis hierher d'accord.
Ich würde nicht darauf wetten, daß zB die vielen Dissertationen, die
heute digital oder jedenfalls nicht in Buchform veröffentlicht werden,
in 30 Jahren noch greifbar sind, während das Typoskript einer Diss aus
den frühen 70ern auch dann noch lesbar sein wird. Es verschwindet also
ganz sicherlich schon mittelfristig sehr viel Wissen durch die
Digitalisierung.
Genau das ist der Punkt. Die Expertise erlaeutert eben, dass sowas nur
verhindert werden kann, - und es kann verhindert werden, wenn es
eine strenge nationale Langzeitarchivierungspolicy gibt fuer die
verteilten LZA-Archive, die auch festlegt, dass die Eingangsfilter
fuer die Aufnahme entsprechend streng sind.
Viele der pdf-Dissertationen werden natuerlich nicht mehr lesbar sein.
Man muss eben den Quellcode mit archivieren.
Und hierzu muß man sagen, daß in vielen Bereichen eben nicht mit
reinem Text gearbeitet wird. Unter Juristen und
Wirtschaftswissenschaftlern zB ist Winword üblich. Als LaTeX-Anwender
bin ich der absolute Außenseiter, alle Zeitschriften verlangen
Einreichungen im DOC-Format, und auch der Verlag, in dem meine diss
erschienen ist, war mit LaTeX völlig überfordert.
Solange das so ist, müßten die Bibliotheken vor allem Einfluß auf die
Universitäten ausüben und bestimmte Formate durchsetzen, die
zukunftssicherer sind als die proprietären Formate, mit denen heute
gearbeitet wird. Unsere UB etwa nimmt PDF-Dateien an und bittet darum,
den Quellcode ebenfalls einzureichen, macht das aber nicht zur
Bedingung. Auch müßten die Anwender (Studenten, Professoren) davon
überzeugt werden. Das wird sehr schwer werden. Ich kann mir nicht
vorstellen, daß Jura und Wiwi auf LaTeX umsteigen. Und "HTML" kann man
zwar aus einer Textverarbeitung exportieren, aber dabei kommt ein
Quellcode heraus, bei dem es einem grausen kann, was die zukünftige
Verarbeitung zudem weiter erschwert.
Ausserdem: Gedruckte Dissertationen sind zwar (z.T. sehr muehsam)
im Prinzip erhaeltlich, aber nicht digital nachnutzbar.
Digitale Dokumente sind weltweit muehelos einsehbar, auffindbar,
nachnutzbar. Vergleichen Sie doch z.B. die Zitationsraten
Ausleihzahlen/downloadzahlen von digitalen vs. gedruckten
Dissertationen.
Das kann man aber nicht verallgemeinern. In den Rechtswissenschaften
werden elektronische Quellen in der Regel nicht zitiert. Nur hier und
da mal eine Urteilsanmerkung, die in Juris erschienen ist, obwohl es
dieses Angebot nun schon länger gibt. Der Grund hierfür ist
sicherlich, daß die URLs später kaum noch nachprüfbar sind, weil
Online-Quellen eben sehr flüchtig sind.
Zu Recht sind daher an vielen amerikanischen Universitaeten das
Einreichen
von gedruckten Dissertationen verboten...
Vielen Dank für diesen Hinweis, das wußte ich noch nicht. Sehr
interessant. Ich fürchte aber, daß damit eher das Vergessen
organisiert wird, als daß es sich auf die Verbreitung der Arbeiten
auswirkt. Außerdem werden wir zumindest im deutschen Bildungssystem
kaum die notwendigen Mittel haben, um so einen Service langfristig
auch nur pflegen zu können. Die Kosten werden exponentiell steigen,
gerade wenn wir soweit sein werden, alte Sourcen rekonstruieren zu
müssen, damit sie überhaupt noch zu nutzen sind. Dagegen ist das, was
die Rundfunksender und die Plattenfirmen in ihren Archiven machen, um
die Bestände zu erhalten, ein Kindergeburtstag, denn der
wissenschaftliche Output hat natürlich eine ganz andere
Größenordnung, auch was die Entwicklung angeht.
Deshalb bleibe ich skeptisch. ;-)
Grüße,
Jürgen Fenn.
Listeninformationen unter http://www.inetbib.de.