[Date Prev][Date Next][Thread Prev][Thread Next][Date Index][Thread Index]
[InetBib] Von Daten zu Wissen: Workshop zu ausgewählten DH-Tools, 29.-30.9.2022
- Date: Mon, 22 Aug 2022 15:31:24 +0200
- From: Martin de la Iglesia via InetBib <inetbib@xxxxxxxxxx>
- Subject: [InetBib] Von Daten zu Wissen: Workshop zu ausgewählten DH-Tools, 29.-30.9.2022
Von Daten zu Wissen: Workshop zu ausgewählten DH-Tools
veranstaltet durch das DFG-Langfristvorhaben „Kommentierte digitale Edition der
Reise- und Sammlungsbeschreibungen Philipp Hainhofers (1578–1647)“
(<https://hainhofer.hab.de/>) an der Herzog August Bibliothek
Wolfenbüttel, Herzog August Bibliothek, 29.–30. September 2022
Ort: Seminarraum im Meißnerhaus
Organisation: Martin de la Iglesia (HAB), Timo Steyer (TU Braunschweig) und
Michael Wenzel (HAB)
Der eineinhalbtägige Workshop soll eine Einführung in das Arbeiten mit
ausgewählten Technologien bieten, die hochrelevant für eine Vielzahl
verschiedener geisteswissenschaftlicher Forschungsfelder sind. In
praxisorientierten Sessions erlernen die Teilnehmerinnen und Teilnehmer die
Anwendung einiger Tools und wie diese in ihrem wissenschaftlichen Arbeitsalltag
eingesetzt werden können. Zugleich soll die kritische Reflexion und Evaluierung
dieser Arbeitsmittel angeregt werden. Verbindendes Element dieser
Software-Lösungen ist ihre Unterstützung der geisteswissenschaftlich
Forschenden in der Kette der Aktivitäten aus Datenerhebung, Datenverarbeitung
und Datenauswertung, an deren Ende schließlich die Gewinnung neuen Wissens
steht.
Ursprünglich für 2020 vorgesehen, musste die Veranstaltung damals aufgrund der
Pandemie ausfallen und kann nun mit leicht verändertem Programm nachgeholt
werden.
Die Teilnahme am Workshop ist kostenlos; um Anmeldung per Mail an
iglesia@xxxxxx oder t.steyer@xxxxxxxxxxxxxxxxxx wird gebeten.
Programm
Donnerstag, 29.9.2022
17.00 Uhr
Begrüßung
Prof. Dr. Peter Burschel (Direktor der Herzog August Bibliothek)
17.15 Uhr
Keynote: Digitale Tools in geisteswissenschaftlicher Forschung – Textanalyse,
Interpretation und Visualisierung
Jan Horstmann (Münster)
Viele Tools in den Digital Humanities setzen entweder eine umfangreiche
Einarbeitung in technische Abläufe und Befehle voraus, sodass sie nur von
Personen mit entsprechender IT-Expertise bedient werden können, oder sie bieten
eine Bedienoberfläche an, welche einen tieferen Einblick in die zugrunde
liegenden Prozesse und Datenstrukturen – und damit eine Kritik derselben –
nicht ermöglicht. Zudem orientieren sich Tools häufig nicht an genuin
geisteswissenschaftlichen Arbeits- und Erkenntnisprozessen und werfen somit in
der Regel neue Fragestellungen auf – und führen damit zu durchaus
interessanten, in der Regel methodologisch oder technologisch ausgerichteten
Diskussionen –, statt die ursprünglichen (geisteswissenschaftlichen)
Fragestellungen zu beantworten. Im Vortrag soll beispielhaft demonstriert
werden, wie bereits die Konzeption von DH-Tools vor dem Horizont einer
geisteswissenschaftlichen Nutzung und unter Rückbezug auf theoretische
Grundlagen geisteswissenschaftlicher Erkenntnisprozesse ablaufen kann, sodass
Nutzende in die Lage versetzt werden, sowohl ihre ursprüngliche Fragestellung
mithilfe digitaler Verfahren zu bearbeiten, als auch einen tiefergehenden
digital-methodologischen Diskurs zu führen.
18.00 Uhr
Keynote: Toolkritik und Rezensionen geisteswissenschaftlicher
Forschungssoftware am Beispiel NTEE
Ulrike Henny-Krahmer (Rostock)
DH-Tools ermöglichen, erleichtern und beschleunigen den Umgang mit digitalen
Forschungsdaten und können ein wesentliches methodologisches Element im
Forschungsprozess sein. Die durch sie ausgelöste zunehmende Formalisierung,
Automatisierung und auch Effektivität geisteswissenschaftlicher
Forschungsaktivitäten erfordert auf der anderen Seite aber auch eine kritische
Einordnung und Auseinandersetzung mit den Werkzeugen, damit die Forschung
transparent und nachvollziehbar bleibt und ihre Wissenschaftlichkeit gesichert
werden kann. Erfolgt eine solche Kritik digitaler Tools in einem
wissenschaftlichen Rahmen, trägt sie außerdem dazu bei, Tool-Entwicklung als
Teil des wissenschaftlichen Arbeitens zu verstehen, zu würdigen und in den
wissenschaftlichen Diskurs einzubinden. Der Vortrag greift Rezensionen von
geisteswissenschaftlicher Forschungssoftware, wie sie z.B. in der Zeitschrift
RIDE und künftig in dem Journal CKIT publiziert werden, als eine solche
mögliche Form der Toolkritik auf. Am Beispiel des Tools NEISS TEI Entity
Enricher (NTEE), einem Werkzeug zur automatischen Erkennung von Entitäten in
TEI-Dokumenten mithilfe von Machine Learning-Verfahren, wird illustriert, in
welcher Weise Software-Rezensionen zum wissenschaftlichen Einsatz von DH-Tools
beitragen können.
Freitag, 30.9.2022
9.30–11.00 Uhr
Einführung in OpenRefine mit praktischer Übung
Hanna Varachkina (Göttingen)
Teilnehmende bekommen einen Einblick in OpenRefine, ein leistungsstarkes
Werkzeug für die Arbeit mit unordentlichen Daten. Sie lernen einige Funktionen
von OpenRefine kennen, die sie zur Bearbeitung eines Datensatzes verwenden
werden. Die Lektion basiert auf dem Lehrmaterial von Library Carpentry.
11.00–11.30 Uhr: Kaffeepause
11.30–13.00 Uhr
ResearchSpace und CIDOC-CRM: Knowledge Graph als Datenbank
Robert Casties (Berlin)
ResearchSpace ist ein Baukasten mit dem sich flexible Oberflächen für die
Bearbeitung von semantisch strukturierten Daten schaffen lassen. In der
Präsentation wird eine sehr kurze Einführung in RDF und CIDOC-CRM als
Basistechnologien von Knowledge-Graphs und Linked-Data im
Geisteswissenschaftlichen Bereich gegeben und dann anhand des Beispiels der
ISMI Manuskript-Datenbank einen Überblick über die Vorteile und
Herausforderungen dieser Technik. Für die Teilnehmer*innen wird ein
online-Zugang zu einer Test-Datenbank zum Ausprobieren bereitgestellt.
13.00–14.00 Uhr: Mittagspause
14.00–15.30 Uhr
Einführung in Structure from Motion
Astrid Schmölzer (Bamberg)
Structure from Motion (SfM) ist eine Technik der photogrammetrischen
Entfernungsbildgebung. Aus zweidimensionalen Bildsequenzen werden
dreidimensionale Modelle erstellt. Diese 3D-Modelle erlauben besonders in der
Epigraphik das genaue Studieren eines Objektes, dessen Verfügbarkeit stark
eingeschränkt ist. Als virtuelles Modell kann es verschiedenen Personen
zugänglich gemacht werden und erlaubt anhand der existierenden Möglichkeiten
eine eingehende Analyse der Inschrift aber auch der übrigen Oberfläche. So
können z.B. Neulesungen und -interpretationen von Inschriften festgestellt
werden. In der kurzen Einführung soll ein einfacher Arbeitsablauf unter der
Verwendung des Programmes Agisoft Photoscan/Metashape vorgestellt werden. Diese
Software ist kostenpflichtig; eine kostenlose 30-Tage-Testversion ist unter
https://www.agisoft.com/downloads/request-trial/ erhältlich. Diese sollte vor
Beginn des Workshops bereits installiert werden. Testdaten werden zum Download
bereitgestellt.
15.30–16.00 Uhr: Kaffeepause
16.00–17.30 Uhr
Klassifikationsschema vom Entwurf bis zum Einsatz
Andreas Wagner (Frankfurt)
Die Session thematisiert, wie Klassifikationsschemata als Linked Data im
Projektkontext entwickelt und eingesetzt werden können. Um beim Data Cleaning
und in Annotationsprozessen ein dem Projektbedarf entsprechendes kontrolliertes
Vokabular verwenden zu können, muss dieses nicht nur konzeptuell entwickelt
werden, sondern es muss auch formal kodiert, in einer technischen Infrastruktur
vorgehalten und in Arbeitswerkzeuge integriert werden. Mit SKOS, der
Reconciliation API, GitHub, SkoHub, TEI Publisher und OpenRefine werden
Standards, Plattformen, Tools und ein Workflow vorgestellt, in denen diese
Anforderungen umgesetzt und das Vokabular zugleich als Ressource eigenen Rechts
publizert und nutzbar gemacht werden kann.
—
Martin de la Iglesia
Kommentierte digitale Edition der Reise- und Sammlungsbeschreibungen Philipp
Hainhofers (1578-1647) | Zeitschrift für digitale Geisteswissenschaften
Herzog August Bibliothek Wolfenbüttel
Listeninformationen unter http://www.inetbib.de.