Bilddaten in den Digitalen Geistes- und Kulturwissenschaften – Interoperabilität und Retrieval
DARIAH-DE Cluster 6 Expertenworkshop und DARIAH-Methodenworkshop des Sonderforschungsbereichs 980 „Episteme in Bewegung“ am 05. und 06.10.2017
Bericht von Marc Adler
Im Rahmen des Workshops „Bilddaten in den Digitalen Geistes- und Kulturwissenschaften – Interoperabilität und Retrieval“ kamen am 05. und 06.10.2017 Expertinnen und Experten verschiedener Fachrichtungen am Institut für Sprach- und Literaturwissenschaft der TU Darmstadt zusammen. Aus unterschiedlichen fachlichen Perspektiven tauschte man sich hier in drei Themenblöcken über die Gewinnung, Verarbeitung und Nachnutzung von Bilddaten aus, um etwaige Herausforderungen zu identifizieren und Lösungsansätze zu formulieren.
Im ersten Themenblock, der fachwissenschaftliche Anforderungen definieren sollte, berichteten Mark Fichtner (Germanisches Nationalmuseum Nürnberg) und Canan Hastik (Technische Universität Darmstadt) über die Anforderungen und Möglichkeiten von WissKI sowie die Anknüpfungspunkte zu DARIAH-DE. Andreas Henrich (Universität Bamberg) stellte Ansätze und Problemfelder der inhaltsbasierten Bildsuche und Bilderschließung vor, während Torsten Schrade (Akademie der Wissenschaften und der Literatur | Mainz) einen Einblick in das interoperable Management von Bildmetadaten mittels XMP und Exiftool am Beispiel des Akademieprojekts „Corpus Vitrearum Medii Aevi“ gab. Philipp Hegel (Technische Universität Darmstadt) präsentierte Layoutanalysen und philosophiegeschichtliche Annotationen, und Svenja Gülden (Johannes Gutenberg-Universität Mainz) beschloss diesen Themenblock mit ihren Ausführungen zu den Problemen bei der Überführung von altägyptischen Kursivschriften in Datenbanken.
Der zweite Themenblock – Schnittstellen und Interoperabilität – wurde von Thorsten Wübbena (Deutsches Forum für Kunstgeschichte Paris) mit seinem Vortrag zu ConedaKOR in der kunsthistorischen Forschung eröffnet. Anschließend gab Harald Kosch (Universität Passau) eine Einführung in die Interoperabilität der Metadatenformate von Bilddaten. Markus Brantl und Johannes Baiter (beide Bayerische Staatsbibliothek München) stellten neue Möglichkeiten der Bildähnlichkeitssuche vor und wie der IIIF-Standard für interoperable Bildrepositorien an der BSB genutzt wird; der Themenblock endete mit einem Vortrag von Erik Radisch (Universität Passau) zu Distant Watching und einer Methode zur automatischen Inhaltsextraktion aus großen Korpora von Videos und Bildern mittels Objekterkennung.
Daniel Kaltenthaler und Johannes Lohrer (beide Ludwig-Maximilians-Universität München) begannen den dritten Themenblock zu Retrieval, Annotation und Objekterkennung mit der Darstellung des Information Management Systems ReMIS Cloud, das genutzt wird, um verteilte interdisziplinäre Daten zu verknüpfen und erschließbar zu machen. Es folgte Stefan Conrad (Heinrich-Heine-Universität Düsseldorf) mit einem Beitrag zu Automated Landmark Recognition in Images am Beispiel der Objekterkennung von Bergen und Gebirgen in Landschaftsaufnahmen. Schließlich referierten Simon Donig, Maria Christoforaki, Bernhard Bermeitinger und Siegfried Handschuh (alle Universität Passau) zu Interieurszenen des Klassizismus und gaben einen Einblick in die Erkennung von Objekten – diversen Möbelstücken – in eben diesen Szenen.
An die einzelnen Vorträge und zum Ende jedes Themenblocks schlossen sich Diskussionen an, in denen schnell deutlich wurde, dass viele der vorgestellten Projekte und Ansätze mit ähnlichen Problemen konfrontiert sind. So sind zwar teils große Datenmengen vorhanden, stellenweise werden diese aber nicht genutzt oder liegen in nicht oder nur schwer miteinander kompatiblen Formaten vor. Zudem werden Arbeit und Nachnutzung durch den individuellen und projektbezogenen Charakter vieler Modelle erschwert. Daten sind auf viele Datenbanken verteilt, die jeweils eigene Zugänge und Formate voraussetzen. Gerade bei der automatischen Objekterkennung zeigt sich, dass je nach Fragestellung aber immer wieder neue Datenmengen benötigt werden – vor allem, um sie als Trainingsdaten für das jeweilige Forschungsziel zu nutzen. Eine Bereitschaft zur ständigen Anpassung muss also in Zukunft vorausgesetzt werden. Dabei steht die Objekterkennung unter anderem vor dem Problem, so genannte false positives ausfindig zu machen. Es kann also noch nicht von rein automatischen Verfahren die Rede sein, da im Regelfall der Mensch interaktiv in diversen Feedback-Schleifen Fehler identifizieren und den Erkennungsprozess optimieren muss. Die komplexen Abläufe müssen also in teils automatische, semi-automatische und manuelle Prozesse getrennt werden, damit zuverlässige Ergebnisse generiert werden können.
Gleichfalls stellte sich in der Diskussion auch heraus, dass zwischen den einzelnen Projekten teilweise große Überschneidungen vorhanden sind und Synergieeffekte genutzt werden können. Die Methoden der Objekterkennung können sich beispielsweise dafür eignen, in semi-automatischen Verfahren zur Identifikation von Symbolen – etwa von Zeichen der altägyptischen Kursivschriften – genutzt zu werden, um hier bessere Ergebnisse zu erzielen. Ebenso sehen sich die unterschiedlichen Projekte, die sich mit der Objekterkennung bei verschiedensten Forschungsgegenständen befassen, mit ähnlichen technischen Problemen konfrontiert; eine gegenseitige Unterstützung erscheint also möglich und wünschenswert, das Vertrauen in andere Forschende und das Teilen von eigenen Inhalten müssen intensiviert werden.
Dies ist für einige Fachtraditionen eine größere Veränderung als für andere. Aber es zeigte sich auch, dass Erfolg beim Einsatz digitaler Methoden in geistes- und kulturwissenschaftlichen Projekten einen offenen und fächerübergreifenden Austausch voraussetzt, wie ihn dieser Workshop erlebbar machte.
Kommentar schreiben