[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
Re: [InetBib] Bedeutung von XML (war bibliojobs ... VAB)
- Date: Mon, 03 Sep 2012 10:19:40 +0200
- From: Heidrun Wiesenmüller <wiesenmueller@xxxxxxxxxxxxxxxx>
- Subject: Re: [InetBib] Bedeutung von XML (war bibliojobs ... VAB)
Liebe Frau Payer, liebe Kolleginnen und Kollegen,
mir geht es in der Tat nicht darum, eine theoretische Abhandlung über
RDA zu schreiben, sondern eine ganz praktische Einführung zum
Katalogisieren mit RDA - sozusagen ein Pendant zum Haller/Popst (wenn
auch deutlich anders aufgezogen). Entsprechend geht es in erster Linie
um die Erläuterung wichtiger RDA-Regeln anhand konkreter Beispiele. Es
wird natürlich auch allgemeinere Kapitel geben, und da kommt dann auch
mal das Semantic Web vor.
Die Formatfreiheit von RDA ist ein wichtiger Punkt: RDA definiert
Elemente und deren Inhalte, gibt aber kein Erfassungsformat vor.
Entsprechend wird auch das Lehrbuch in seinem Hauptteil "formatfrei"
sein; beispielhafte Umsetzungen in konkrete Erfassungsformate sind dann
eher was für einen Anhang.
Insgesamt darf man sich den Umstieg auf RDA m.E. nicht als
"revolutionär" vorstellen: Zumindest in der ersten Umsetzung werden für
RDA dieselben Formate verwendet werden wie bisher. D.h. die
angloamerikanische Welt wird weiter in MARC 21 katalogisieren (trotz der
bekannten Schwierigkeiten) und wir entsprechend mit vorhandenen
Internformaten wie z.B. Pica. Sicher werden bei uns ein paar neue
Felder, Codes etc. eingeführt werden, aber die Datensätze werden
trotzdem recht ähnlich aussehen wie bisher. Denn es gilt ja auch die
Vorgabe, dass RDA in Deutschland im Szenario 2 implementiert wird, d.h.
die Ebenen Werk, Expression und Manifestation werden nicht auseinander
gezogen, sondern liegen weiterhin in "vermischten" Titeldatensätzen vor.
Längerfristig kann sich daran natürlich schon manches ändern. So bin ich
gespannt, was bei der Bibframe-Initiative
herauskommen wird. Es wurde ja vor einiger Zeit verkündet, dass die
Firma Zepheira damit beauftragt wurde, "to translate the MARC 21 format
to a Linked Data (LD) model while retaining as much as possible the
robust and beneficial aspects of the historical format".
http://www.loc.gov/marc/transition/news/modeling-052212.html
Erste Strategien sind offenbar im Juni auf der ALA Conference
präsentiert worden:
http://zepheira.com/2012/06/zepheira-to-present-on-linked-data-marc21-modeling-at-ala-annual/
Leider habe ich nichts darüber herausfinden können, was Eric Miller bei
dieser Gelegenheit verkündet hat (hat vielleicht jemand einen
einschlägigen Link?).
Ich halte es für gut möglich, dass irgendwann einmal die _primäre_ Form
von Katalogdaten wirklich nicht mehr Datensätze sind, wie wir sie heute
kennen, sondern einzelne Aussage-Tripel. Bei der Erfassung wird man
allerdings, nehme ich an, weiterhin immer eine größere Zahl solcher
Aussagen gleichzeitig erfassen. Denn wenn man ein konkretes Medium
katalogisiert, hat man zwangsläufig ein ganzes Bündel von Aussagen vor
sich, die man sinnvollerweise gleichzeitig festhält (sofern sie nicht
schon von anderswoher geliefert werden). Beim Recherchierenden kommt
dann aber wahrscheinlich nicht mehr ein vorher genau festgelegtes Paket
von Informationen an, sondern je nach Fragestellung nur bestimmte
Aussagen, die u.U. auch aus mehreren Quellen stammen. So reime ich mir
das zumindest zusammen...
Mir vorzustellen, mit welchen Werkzeugen dann gearbeitet werden könnte,
fällt mir noch sehr schwer. Braucht man weiterhin Datenbanken (aber eben
eine andere Form davon - wenn ich's recht verstehe, ist auch ein
Triplestore eine Datenbank), oder kann man die Daten irgendwie noch
unmittelbarer im Semantic Web erfassen und halten? Zumindest stelle ich
mir vor, dass die verteilten Daten (wo auch immer sie dann tatsächlich
physisch liegen) in anderer Weise miteinander interagieren, so dass man
nicht mehr sagen kann: "Ich suche jetzt im Datenpool X und nachher
probiere ich es noch im Datenpool Y".
Viele Grüße
Heidrun Wiesenmüller
P.S.: Ja, ich weiß, ich hatte gesagt, dass ich nix mehr sage und jetzt
habe ich's doch gemacht. Aber man beachte, dass "XML" in diesem Beitrag
nicht vorkam ;-)
Am 02.09.2012 17:24, schrieb Margarete Payer:
Lieber Herr Umstätter,
wenn Frau Wiesenmüller Ihrem Wunsch nachkäme, müsste sie ein Lehrbuch zu
den Möglichkeiten des Semantic Web schreiben. Die RDA will ja ein
Regelwerk sein, das in jeglicher neuen Datenbanktechnologie angewendet
werden kann.
Einen Hinweis, dass das heutige MARC-Format die RDA nicht voll abbilden
kann, wird sich wohl nicht umgehen lassen.
Schöne Grüße
Margarete Payer
Liebe Frau Wiesenmüller,
es gibt verschiedene Gründe sich hier nicht mehr äußern zu wollen (bzw.
können)
und so respektiere ich die ihren.
Für das RDA-Lehrbuch kann man ja nur viel Erfolg wünschen!
Da wir im Prinzip schon bei dem Thema waren, würde ich, wie Sie sich
denken können, RDA nicht ohne Blick auf XML behandeln.
Daher hier nur die Anregung:
http://tsig.wikispaces.com/file/view/Future+of+cataloguing+for+wiki.ppt
“Future of Cataloguing: how RDA positions us for the future”
“RDA = content standard can be used with web-friendly encoding schema,
based on XML."
bzw.
http://unllib.unl.edu/LPP/PNLA%20Quarterly/moehrle76-4.pdf
“Sally McCallum of the Library of Congress defined 9 format
characteristics of MARC in her lecture titled "MARC Forward": "XML;
Granularity; Versatility; Extensibility; Hierarchy support; Crosswalks;
Tools; Cooperative management; Pervasive" (2007, p. 3). It's clear any
replacement for MARC 21 will need these characteristics, and more.”
Dazu auch die Einschätzung der Bibliotheksberaterin Karen Coyle.
“There is sometimes the assumption that the future data carrier for
library data will be XML. I think this assumption may be misleading and
I'm going to attempt to clarify how XML may fit into the library data
future.”
http://kcoyle.blogspot.de/2011/09/xml-and-library-data-future.html
bzw. "RDA in XML - why not give it a shot?"
http://kcoyle.blogspot.de/2011/07/rda-in-xml-why-not-give-it-shot.html
Es wird also bezüglich XML auf drei Probleme ankommen:
1. Mit welcher DTD kann man RDA am besten ausschöpfen (Verhältnis zu
JATS NISO Z39.96-2012
http://www.niso.org/apps/group_public/download.php/8975/z39.96-2012.pdf
)?
2. Wie leistungsfähig werden XML-Native-Datenbanken (oder auch Google)
diese DTD recherchieren können,
wenn wir in diesem Bereich endlich die Ebene der relationalen
Datenbanken überwunden haben.
3. Wird es noch vor dieser XML-Nutzung eine Abzweigung der Entwicklung
z.B zu Turtle (Terse RDF Triple Language) geben.
Dass es verschiedene Philosophien in der Wissensverarbeitung und den
Ontologien (für die ja die Semantik Voraussetzung ist) gibt, ist
bekannt.
Als dokumentarisch denkender Mensch, war mir das Konzept der Dokumente
mit Frames und Slots immer näher als die Triple languages, da sich mit
struktirierten Dokumenten ein Objekt beschreiben lässt (aus
archivarischen und historischen Gründen am besten in reiner ASCII bzw.
UNICODE-Form, wie bei SGML), bei dem dann Interferenzmaschinen sich in
einer Art Datamining das an Information herausfiltern können, was sie
für ihre Entscheidungen brauchen. Also beispielsweise welche Rechte ein
Fragesteller bei einem Dokument hat, was er sehen oder hören darf, was
er dafür zahlen muss oder wie weit er es weiter verwenden darf, um nur
ein Beispiel zu nennen.
"In etlichen Bibliotheken gibt es dazu Dateien, beispielsweise mit
Ampelanzeigen, die mit rot (ohne Bibliothekszugang), gelb (einige
Aufsätze zugänglich) und grün (Bibliothekszugang) den Zugang für jeden
Benutzer signalisieren. Dahinter stehen Dateien, auch Knowledge Bases
genannt, die jeweils prüfen, welche Zugriffsrechte das jeweilige
Terminal zur Zeit hat. Da diese Rechte immer wieder verändert sein
können und über unterschiedliche Kanäle erworben werden (so verkaufen
große Verlage ihre Zugriffsrechte auf Publikationen gern im Paket), sind
die Ampelangaben nicht immer korrekt, da die Benutzer über verschiedene
Verträge der Bibliothek unterschiedliche Zugangsberechtigungen beim
Linkresolver SFX bekommen. Damit ist der Zugang bzw. die Zugangsprozedur
von verschieden Terminals nicht immer identisch. Im Prinzip vergleicht
SFX die Zugangsrechte bei einer URL mit den Lizenzrechten der Bibliothek
und deren Benutzerkennungen." (Lehrb. Bibliotheksmanagement S. 81) Schon
heute hat jede Bibliothek das Problem herauszufinden, welche Rechte ihre
Benutzer welchen digitalen Dokumenten gegenüber haben. Dabei geht es um
viel Geld.
Die Bevorzugung von Tripeln in Ontologien ist ähnlich der bei
relationalen Datenbanken. Sie sind einfacher und bekannter, aber damit
nicht unbedingt besser als Frames und Slots. Das gilt insbesondere für
den Bibliotheksbereich.
Frames und Slots hat die NLM schon beim Unified Medical Language System
(UMLS) benutzt. (
http://pubmedcentralcanada.ca/pmcc/articles/PMC2245463/pdf/procascamc00016-0196.pdf
), obwohl damals H. Warner noch kein XML zur Verfügung stand.
Mit freundlichen Grüßen
Walther Umstätter
--
---------------------
Prof. Heidrun Wiesenmüller M.A.
Hochschule der Medien
Fakultät Information und Kommunikation
Wolframstr. 32, 70191 Stuttgart
Tel. dienstl.: 0711/25706-188
Tel. Home Office: 0711/36565868
Fax. 0711/25706-300
www.hdm-stuttgart.de/bi
--
http://www.inetbib.de
Listeninformationen unter http://www.inetbib.de.