[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
[InetBib] Call for Papers LIBREAS #23: Forschungsdatenmanagement
- Date: Wed, 12 Dec 2012 23:59:50 +0100
- From: Karsten.Schuldt@xxxxxxx
- Subject: [InetBib] Call for Papers LIBREAS #23: Forschungsdatenmanagement
Werte Damen und Herren,
werte Kolleginnen und Kollegen,
gerne möchte ich Sie hiermit auf den Call for Papers für die Ausgabe #23 der
LIBREAS zum Thema Forschungsdatenmanagement hinweisen. Dieser findet sich unter
http://libreas.wordpress.com/2012/12/12/call-for-papers-forschungsdaten-metadaten-noch-mehr-daten-forschungsdatenmanagement/
und im Wortlaut auch in dieser Mail.
(Der aktuelle CfP für die Ausgabe #22
http://libreas.wordpress.com/2012/10/24/call-for-papers-ausgabe-22-recht-und-gesetz/
läuft weiterhin bis zum 31.01.2013).
für die LIBREAS-Redaktion
Karsten Schuldt
************************************************************
Call for Papers: Forschungsdaten, Metadaten, noch mehr Daten.
Forschungsdatenmanagement
„Eine Forschung, die zunehmend durch die kooperative Tätigkeit weltweit
vernetzter Communities und durch den Einsatz Computerbasierter Verfahren
bestimmt ist, erfordert nun einmal die kontinuierliche und vor allem
langfristige Verfügbarkeit von Publikationen und Forschungsdaten über das
Internet. Nicht nur die Notwendigkeit, Forschungsergebnisse durch den Rückgriff
auf die diesen Ergebnissen zugrunde liegenden Daten verifizieren zu können,
sondern auch die produktive Nachnutzung von Forschungsdaten in anderen
Kontexten setzt voraus, dass digital kodierte Information über Jahrzehnte
hinweg authentisch verfügbar bleibt.“ (Matthias Kleiner. Vorwort. In: Heike
Neuroth et al. (2012), S. 9)
„Die Basis einer gesunden Ordnung ist ein großer Papierkorb.“ (Kurt Tucholsky.
In: Neue Leipziger Zeitung, 19.08.1930)
Wissenschaft produziert heute neben Erkenntnis vor allem immense Datenmengen.
Die enorme Steigerung beruht in erster Linie auf der Entwicklung und
Verfügbarkeit von Technologien zur Datenproduktion und -verarbeitung.
leistungsstärkere Rechner und Messgeräte produzieren und vernetzen immer mehr
Daten. Wo viele Daten sind, kommen fast naturgesetzlich immer noch mehr hinzu.
Die Datenmengen, eines Large Hadron Collider (LHC) in Genf sind derart
umfangreich, dass sie nicht einmal mehr an einer zentralen Stelle gespeichert
werden können, sondern auf das LHC Computing Grid verteilt werden müssen. Aber
auch im Alltag entstehen immer mehr Daten „nebenher“, beim Surfen im Netz, beim
Chatten, beim Taggen von Dateien usw. Nahezu jeder Klick erzeugt auch neue
Daten.
Die Entwicklung führt zu umfassenden Änderungen der Wissenschaft, ihrer
Methoden und besonders den Anforderungen an ihre Werkzeuge sowie an die
Wissenschaftsinfrastrukturen. Datenintensive Forschung braucht angemessene
Hilfsmittel. Physikerinnen und Physiker, die mit Daten aus LHC-Experimenten
arbeiten wollen, müssen lernen, Daten aus dem Grid zusammensammeln und
auszugeben. Sozialwissenschaftlerinnen und -wissenschaftler, die theoretische
Modelle zum Zusammenhang von Hochschulsystem und Städteplanung über mehrere
Staaten hinweg testen wollen, können dafür auf eine umfassende Datenlage
zurückgreifen. Sie müssen aber diese kennen, finden und weiterverarbeiten
können.
Angesichts dieser empirischen Wende könnte das Testen theoretischer Modelle
bald der Vergangenheit angehören. Jim Gray formulierte die These, dass wir in
die Zeit des vierten Forschungsparadigmas eintreten würden. (Hey, Tansley &
Tolle, 2009) Die Forschungsdatenbestände würden zu groß werden, um überhaupt
noch anders als mit explorativer Statistik, also einer Art Datenhermeneutik,
auswertbar zu sein. Ob dies für alle Wissenschaften zutrifft, ist offen.
Folgerichtig wird die Bedeutung von langfristig und offen verfügbaren
Forschungsdaten für den Forschungsprozess immer stärker betont. Man entwirft
Systeme, die die Reputation einer Forscherin, eines Forschers an die erstellten
Daten binden sollen. Diese Diskussion überdeckt eine andere Wahrheit: Immer
noch sitzen die Theologinnen und Theologen an ihren Schreibtischen und
produzieren nicht viel mehr Daten als in den Jahrhunderten zuvor. Sie benutzen
aber möglicherweise zunehmend digital vorliegende Quellen. So geht es vielen
Disziplinen: Einige, wie die Physik oder die Klimaforschung, erzeugen permanent
riesige Datenmengen. Bei anderen ist vielleicht nicht das Wachstum der eigens
produzierten Datenmengen überwältigend. Wohl aber die Zahl der durch die
Digitalisierung direkt abrufbaren Datenbestände. Um diese ordentlich zu nutzen,
sind adäquate Erschließungs- und Vermittlungsverfahren sowie Werkzeuge
notwendig.
Wie soll Forschungsdatenmanagement funktionieren?
Abgesehen von den Auswirkungen auf die Wissenschaftspraxis selber, wirft das
Wachstum der Forschungsdaten und die Anforderung ihrer langfristigen Sicherung
(Deutsche Forschungsgemeinschaft, 2009) wichtige Fragen für Bibliotheken und
Bibliothekswissenschaft auf:
- Werden Daten ein neues/das neue Arbeitsfeld für Bibliotheken?
- Sind Daten im 21. Jahrhundert das, was Zeitschriften für das Bibliothekswesen
im 20. waren?
Viele wissenschaftliche Bibliotheken adoptierten die Aufgabe, Forschungsdaten
zu managen, persistent und abrufbar vorzuhalten. Aber braucht die Wissenschaft
diese Dienste der Bibliotheken überhaupt? Die Physik kann darauf verweisen,
solche Systeme selbst längst entwickelt zu haben. In der Klimaforschung gibt es
das System der Weltdatenzentren seit den 1950er Jahren. In den
Geisteswissenschaften werden riesige Infrastrukturen aufgebaut (vgl.
www.clarin.eu, www.dariah.eu, www.textgrid.de) und die Theologie kann fragen,
ob sie so etwas überhaupt benötigt oder ob nicht einfach das WWW reicht.
Natürlich finden sich zahlreiche funktionierende Projekte.
Im Handbuch Forschungsdatenmanagement (Büttner, Hobohm & Müller, 2011) und dem
Nestor-Handbuch zur Langzeitarchivierung von Forschungsdaten (Neuroth et al.,
2012) spiegelt sich das Verständnis der beteiligten Bibliotheken wieder: Sie
wollen die Einrichtung zum Managen von Forschungsdaten sein, auch wenn sie
wissen, dass Forschungsdaten in unterschiedlichen Wissenschaftsfeldern
Unterschiedliches bedeuten und sich damit in jedem Wissenschaftsfeld beim
Organisieren von Forschungsdaten andere Fragen stellen und weitere Akteure des
Informationsinfrastrukturbereichs an den Prozessen von Datenproduktion und
Datenspeicherung beteiligt sein müssen. Die Bibliothekare wollen als Data
Librarian oder Data Curator bereits bei der Entstehung von Forschungsdaten
beteiligt sein. Sie wollen Standards definieren und durchsetzen.
Aber mit welchem Recht? Welche Rolle könn(t)en und soll(t)en Bibliotheken dabei
spielen und an welcher Stelle des Forschungsprozesses müssen sie dazu verankert
werden? Wie können sie ihr Rollenverständnis den Forschenden vermitteln? Wie
soll die Ausbildung solcher Data Librarians aussehen? (Vgl. für ein Schema zu
dieser Frage Harris-Pierce & Liu, 2012)
Die Ausgabe #23 der LIBREAS. Library Ideas möchte den gesamten Bereich von
Forschungsdaten und Forschungsdatenmanagements betrachten.
- Wie werden und wie sollten Forschungsdaten gemanagt werden?
- Wo funktioniert es? Wo nicht? Wie verändert sich Wissenschaft tatsächlich?
- Was will die Wissenschaft und was erwarten einzelne Forschende in Bezug auf
Forschungsdaten genau?
- Reden wir eigentlich noch von Bibliotheken oder von anderen, neu zu
benennenden Einrichtungen?
- Gilt das vierte Paradigma oder gilt es nicht? Ist das alles ein Hype oder
-wird es zum Kontinuum?
- Wie bildet man Forschungsdaten in FRBR ab?
- Welche Daten müssen bewahrt werden?
- Welche können – wann? – gelöscht werden?
- Wie nehmen die Forschenden die Bibliotheken wahr, wenn diese von
Forschungsdatenmanagement sprechen? Clair (2012) zeigte, dass sie den
Bibliotheken zumeist noch nicht einmal zutrauen, die Metadaten der
institutionseigenen Homepages zu pflegen. Wieso sollten Wissenschaftlerinnen
und Wissenschaftler dann begeistert davon sein, wenn Bibliotheken
Forschungsdaten managen wollen?
- Was passiert mit den Wissenschaftsfeldern, die weiterhin wenige Daten
produzieren? Geht es, wie zum Beispiel Daniel Kaplan (2012) fragt, eigentlich
noch um Wissen oder nur noch um grosse Datenmengen?
- Was passiert mit den Daten, die nie jemand nutzt? Ist das ein eigener
Wissensraum?
- Was ist mit den Forschungsdaten unserer eigenen Wissenschaft?
- Wer soll das alles bezahlen, insbesondere, wenn es weltweit zugänglich
gemacht wird?
- Und nicht zuletzt: Was sind eigentlich Forschungsdaten?
Wir suchen Beiträge, die Fragen im Zusammenhang mit dem
Forschungsdatenmanagement und der Wissenschaftsentwicklung reflektieren oder
die Praxis über Einzelfälle hinaus darstellen. Einsendeschluss für die
LIBREAS-Ausgabe #23 ist der 31.05.2013. Für Fragen steht die Redaktion gern zur
Verfügung. Willkommen sind selbstverständlich weiterhin auch Beiträge, die
andere Themenbereiche der Bibliotheks- und Informationswissenschaft sowie des
Bibliothekswesens bearbeiten.
Dezember 2012, Redaktion LIBREAS
Berlin, Bielefeld, Chur, Mannheim, Potsdam
Literatur
- Büttner, Stephan; Hobohm, Hans-Christoph; Müller, Lars (Hrsg.) (2011).
Handbuch Forschungsdatenmanagement. Bad Honnef: Bock + Herchen, 2011.
- Clair, Kevin M. (2012). Metadata Best Practices in Web Content Management
Systems. In: Journal of Library Metadata 12 (2012) 4, 362-371.
- Deutsche Forschungsgemeinschaft (2009) Empfehlungen zur gesicherten
Aufbewahrung und Bereitstellung digitaler Forschungsprimärdaten
- Harris-Pierce, Rebecca L.; Liu, Yan Quan (2012). Is data curation education
at library and information science schools in North America adequate?. In: New
Library World 113 (2012) 11/12, 598-613.
- Hey, Tony; Tansley, Stewart; Tolle, Kristin (edit.) (2009). The fourth
paradigm: data-intensive scientific discovery. Redmond: Microsoft Research,
2009.
- Kaplan, Daniel (2012). Big data, grande illusion?. In: Documentaliste –
Sciences de l’information 49 (2012) 3, 10-11.
- Neuroth, Heike; Strathmann, Stefan; Oßwald, Achim; Scheffel, Regine; Klump,
Jens; Ludwig, Jens (2012). Langzeitarchivierung von Forschungsdaten: Eine
Bestandsaufnahme. Boizenburg: vwh Verlag, 2012.
--
http://www.inetbib.de
Listeninformationen unter http://www.inetbib.de.