Ein Bericht über das 4CultureBarcamp2023 am Mittwoch, den 05. Juli (10-16 Uhr)
Das NFDI4Culture – Konsortium für Forschungsdaten zu materiellen und immateriellen Kulturgütern koordinierte einen Online-Workshop zum Thema 3D Forschungsdaten für das materielle Kulturerbe.
Nach einem intensiven und spannenden Tag beim 4CultureBarcamp2023 zum Thema „3D-Forschungsdaten für das materielle Kulturerbe“ wird deutlich, dass die Bedeutung von 3D-Daten in Museen und Sammlungen immer weiter zunimmt. Während digitale 3D-Objekte bereits erfolgreich in der Vermittlung eingesetzt werden, gibt es aber auch noch viel ungenutztes Potential im Bereich der 3D-Forschungsdaten.
Der Tag begann mit einer Einführung durch Kristin Narr (https://kristin-narr.de/ Bildungspraktikerin) und der Vorstellung des NFDI4Culture Teams. Anschließend wurden Kernfragen rund um die Erfassung, Verarbeitung und Bereitstellung von 3D-Daten präsentiert.
Experten wie Reinhard Altenhöner (Staatsbibliothek-Berlin) und Till Sonemann (Wissenschaftlicher Mitarbeiter des Centers für digitale Geisteswissenschaften in Bonn) diskutierten mit knapp 100 weiteren Teilnehmern über die verschiedenen Aspekte und Herausforderungen.
Impulsvortrag
Der einleitende Impulsvortrag von Prof. Dr. Kai-Christian Bruhn thematisierte das Forschungsdatenmanagement und die Erfassung kulturellen Erbes in digitalen 3D-Daten. „Jedes Objekt des Kulturerbes ist dreidimensional, es kann sonst nicht existieren.“ Alle Objekte haben eine materielle Struktur und können somit digital als 3D-Abbild erfasst werden.
Doch wie werden 3D-Daten qualitativ und quantitativ in entsprechenden Infrastrukturen und darüber hinaus klassifiziert und strukturiert? „Welches Potential müssen die Daten haben?“
Das National (3D) Data Repository ist ein sicherer Ort, um die erfassten digitalen Daten des Objektes, die in einem Geistes- und Sozialwissenschaften Rahmen öffentlich finanziertem Projekt erstellt wurden, zu speichern, offenzulegen und zu veröffentlichen. Jedes 3D-Modell wird dort durch einen DIGITAL OBJECT IDENTIFIER (DOI) referenziert: https://www.re3data.org/repository/r3d100014088.
Das Buch: „Leitfaden zur optischen Messtechnik“ beschreibt den Workflow, wie 3D Daten erfasst werden können.
Die CS3DP Community Standard for 3D Preservation https://cs3dp.org/ ist der Versuch einer globalen Zusammenarbeit und Standardisierung für die Analyse von 3D-Daten.
Bruhn präsentierte verschiedene Techniken der 3D-Erfassung und Verarbeitung und stellte sie qualitativ gegenüber. Er zeigte Versuche, die Scherben einer kaputten Glühbirne per 3D-Scan zu erfassen und verdeutlichte so die Problematik und Schwierigkeiten beim 3-dimensionalen Erfassen, aber auch beim Rekonstruieren von zerstörten Objekten.
Zum Workflow zur Erfassung von 3D-Daten gehören nicht nur spezielle Ansprüche an die Technik, sondern auch die Nutzer (das Personal) müssen die Technik verstehen und anwenden können. Daher muss schon von Beginn an eine detaillierte Beschreibung der Objekte erstellt werden. Darüber hinaus ist es auch wichtig, die Zielgruppe (können auch alle sein) und die Infrastruktur vom Erfassen der Daten bis hin zum Bereitstellen der Daten zu kennen. Messgeräte müssen immer wieder neu kalibriert werden und Daten wie Geometry, Struktur, Muster und vieles mehr verglichen, korrigiert und ergänzt werden.
Breakouts
Die knapp 100 Teilnehmer verteilten sich anschließend auf Breakout-Sessions zu verschiedenen Themen über 3D-Forschungsdaten für das materielle Kulturerbe, wie die 3D-Rekonstruktion von nicht mehr existierenden Objekten, die Verwendung von 3D-Daten in der Wissensvermittlung, die Standardisierung von Daten, das Datenbankmanagement von 3D-Objekten und vieles mehr. Die Sessions wurden in drei Blöcke von jeweils 45 Minuten eingeteilt. Es wurde deutlich, dass es an Standardisierung und klaren Leitfäden fehlt, um eine einheitliche Erfassung und Aufbereitung von 3D-Daten zu gewährleisten.
Die Diskussionen drehten sich auch um die Herausforderungen bei der Wahl der richtigen Software und den Umgang mit großen Datenmengen. Es wurde betont, dass eine große Community und eine langfristige Nutzungsmöglichkeit wichtige Faktoren bei der Auswahl von Software sind. Metadaten spielen ebenfalls eine wichtige Rolle, da sie die Informationen über die 3D-Objekte strukturieren und bereitstellen.
Vorgeschlagen wurden die Themen (https://padlet.com/KristinNarr/4culture-barcamp-2023-yve15rpq5gfyt0x3):
- Wie können 3D Daten in der Wissensvermittlung eingesetzt werden
- Wie gehe ich mit extrem großen Daten um?
- Wie bekomme ich 3D-Daten in einen Zustand, dass ich sie weiterverwenden kann?
- 3D-Rekonstruktion von nicht mehr existierenden Objekten?
- Algorithmische Analyse von 3D-Daten
- 3D-Daten anderer Spektren: wie archivieren, standardisieren, visualisieren?
- Datenbank-Management für 3D-Scanner/Dateien
- Wie kann ich RTI-Daten persistent publizieren
- Offene Dateiformate bei 3D – Wie ist der Stand?
- Open Source 3D-Viewer
- -Interdisziplinäres Annotieren in 3D
In der Übersicht wird deutlich, dass unter den Teilnehmern besondere Interesse an der Wissensvermittlung mit 3D Techniken und in Quelloffene, Open Source Lösungen besteht.
Meine Interesse lag bei den 3 Themen:
- 3D-Rekonstruktion von nicht mehr existierenden
- Open source 3d Viewer
- Wie bekomme ich 3D Daten in einen Zustand, dass ich sie weiter verwenden kann?
Das Thema 3D-Rekonstruktion von nicht mehr existierenden Objekten wurde von Dr. Heike Messemer, die sich an der Universität Würzburg mit dem Thema 3D-Rekonstruktion beschäftigt, vorgeschlagen.
Die Baukoodinatorin Elke Drzymalla (https://museumsdorf.de/ueber-uns/ansprechpartner/) (https://www.om-online.de/om/das-museumsdorf-geht-mit-neuem-personal-ins-neue-jahr-148214) koordiniert die Bauerhaltung im Museumsdorf Cloppenburg und beschrieb die Schwierigkeit alte (digitale) Daten wieder zu sichten und aufzubereiten. In einem Studentenprojekt wurden im Dorf schon vor zehn Jahren Häuser 3D gescannt. Die Schwierigkeit besteht darin, die Daten und ihre Entstehungsgeschichte wieder aufzubereiten und weiter zu verwenden. Es stellt sich nun die Frage, wie solche Daten behandelt werden können.
Es wird deutlich, dass es zur Orientierung an Standardisierung fehlt. Dieses Thema prägte auch den Rest des Tages immer wieder die Diskussionsrunden. Momentan ist es meistens schwierig, sich durch Datensätze, die andere erstellt, haben wiederzufinden.
Einige Teilnehmer erwähnten Beispiele und Versuche für Leitfäden und Workflows zur Erfassung, Verarbeitung und Bereitstellung von wissenschaftlichen 3D-Daten.
Das „ianus-Projekt“ gibt hierzu Empfehlungen, Hintergrundinformationen und Praxistipps, die vor allem den Austausch, die Langzeitarchivierung und die Nachnutzbarkeit von digitalen Forschungsdaten adressieren. https://ianus-fdz.de/it-empfehlungen/
Die Londoner Charta strebt danach, Grundsätze für den Gebrauch von computergestützten Visualisierungsmethoden und -ergebnissen in der Erforschung und Vermittlung von Kulturgut zu etablieren. (https://londoncharter.org/fileadmin/templates/main/docs/london_charter_2_1_de.pdf
Heike Messemer stellte jedoch immer wieder bei Umfragen fest, dass Standards wie die London Carta nicht sehr bekannt sind und daher auch keine regelmäßige Anwendung finden.
Thomas Wilke erforscht Herrenhäuser im Ostseeraum. Diese werden unter anderem digital rekonstruiert, um als wissenschaftliche Ressource bereit gestellt zu werden. Er sichtet die Daten und erwägt, wie diese rekonstruiert und auf einer interaktiven Webplattform zur Verfügung gestellt werden können.
Beim Projekt der Erforschung der Herrenhäuser im Ostseeraum liegen zusätzliche Metadatensätze vor, wobei aber die Basis Informationen direkt am 3D Objekt annotiert werden.
Die Frage, wie Informationen in oder an der 3D Konstruktion annotiert oder als Metadatensatz zur Verfügung gestellt werden können, rückt immer wieder in den Mittelpunkt der Gesprächsrunden.
Bei der Technik zur Erfassung der Metadaten rund um ein 3D Objekt geht es nicht nur um Informationen über das Objekt, sondern auch um die Techniken und Werkzeuge der Erfassung der digitalen Daten des Objektes.
Zuletzt wurde noch über die „Graustufen der Information“ gesprochen. Für Thomas Wilke und vermutlich auch allen anderen Teilnehmern stellte sich immer wieder die wichtige Frage: „Wie gehe ich damit um, wenn nur ein bestimmter Bereich des Objektes mit Hilfe eines 3D Scans erfasst wurde und wie genau entsprechen diese Daten dem Original?“ Er erwähnte, dass Bilder ein „unheimlich“ wirkmächtiges Mittel zur Informationsübermittlung sind und daher eindeutig markiert werden muss, wie die Daten digitalisiert wurden und werden müssen, um keine Falschinformationen zu verbreiten. Es sollte also unbedingt deutlich werden, welcher Bereich noch wirklich existieren und welcher Bereich rekonstruiert wurde. Auch der Unterschied zwischen original 3D-Scan und Rekonstruktion muss belegt sein, um wissenschaftlich genau betrachtet werden zu können.
Auch Informationen z.B. über umliegende Vegetationen sollten erfasst werden. Die Eigenschaften des Objektes können sich im Laufe der Zeit durch äußere Einflüsse verändern oder bestimmte Teile eines Objektes dürfen aus datenschutztechnischen Gründen nicht gezeigt werden, was unbedingt mit im Datensatz markiert werden muss, um weiterhin als wissenschaftliches Mittel eingesetzt werden zu können.
In der nächsten Session ging es um Open source 3d Viewer
Dennis Hoffmann, ein Mitarbeiter des Deutschen Schifffahrtsmuseums, eröffnete das Thema und präsentierte die Überlegungen zur Digitalisierung im Museum. Sich selbst als Pioniere in Sachen Digitalisierung im Museum präsentiert (https://www.dsm.museum/pressebereich/pioniere-in-sachen-digitalisierung-im-museum), wird auch hier immer wieder nach geeigneter Software gesucht, die allen Ansprüchen entgegen kommt. Durch eine sehr große Datenvielfalt ist es oft zweckmäßig eine Software zu finden, die mit jeglicher Art an Dateien umgehen kann. Dabei geht es nicht nur um das bloße Darstellen der Daten, sondern auch um das Einlesen, Verarbeiten und Auswerten der Daten aus allen Perspektiven. Doch auch eine Garantie, die Software mindestens für die nächsten zehn Jahre nutzen zu können, sollte vorhanden sein.
Zoe Schubert (NFDI4Culture) gehört zum Team von Kompakt.de. Die Software, die dort entwickelt wird, ist für den Endnutzer webbasiert und legt besonders auch den Fokus auf Annotation am 3D-Objekt. Nicht nur Textfenster, sondern auch Animation lassen sich direkt an gewünschten Stellen des 3D-Objekts darstellen.
Auch die Kosten und der Arbeitsaufwand sind Ansprüche an das Werkzeug (Software) zur Visualisierung der Daten. Eine große Datenvielfalt erschwert es dem gerecht zu werden.
Proprietäre Software bietet meistens einen guten Support, der aber auch mit höheren Kosten verbunden ist. Freie Software kann individueller als lizenzbasierte Software vom Benutzer angepasst werden. Jedoch liegt das Beheben von Fehlern auch in der Eigenverantwortung der Nutzer.
Um eine möglichst große Langlebigkeit der Softwarenutzung zu garantieren, ist es von großem Vorteil, eine große Community rund um das Softwareprojekt zu haben. Eine eindeutige Garantie, ein Programm auch noch in zehn Jahren nutzen zu können, gibt es aber vermutlich nicht.
Wie bekomme ich 3D Daten in einen Zustand, dass ich sie weiterverwenden kann?
Karolin Randhahn, Expertin für Ostasiatische Kunstgeschichte (https://forschung.skd.museum/wissenschaftler/detail/karolin-randhahn) und Anna Greger, Digitalisierungstechnikerin und Archivangestellte, präsentierten interne Checklisten für die Metadaten Erfassung der 3D-Daten. Doch der Versuch, Daten für den wissenschaftlichen Gebrauch aufzubereiten, stellt sich bei den Teilnehmern der Session als unbefriedigend heraus.
Weitere Versuche Checklisten oder Leitfäden zu erstellen, wie es die Fraunhofer-Gesellschaft versucht (https://www.fraunhofer.de/de/forschung/leistungsangebot/forschung-entwicklung/digitalisierung.html), sind kaum bekannt und durch die schnelle Entwicklung der Systeme auch morgen schon wieder obsolet.
Matthias Lang, Leiter des Centers für digitale Geisteswissenschaften an der Universität Bonn und Mitglied des NF4DCulture Teams, bemängelt, dass die wichtigsten Informationen in vielen Checklisten fehlen.
Wirft man einen Blick auf die beta-Version des 3D Repository (https://3d-repository.hs-mainz.de/) findet man den Versuch ein Webbasiertes Werkzeug, erfasste und rekonstruierte 3D-Daten mit allen Metainformationen verlustfrei für die Forschung zur verfügung zu stellen. Die Daten sind referenzierbar und sollen langfristig bereitstehen. Gefördert durch die Deutsche Forschungsgemeinschaft, arbeiten die Hochschule Mainz, die Friedrich-Schiller-Universität Jena und die Sächsische Landesbibliothek-Staats- und Universitätsbibliothek Dresden an dem browserbasierten Viewer. Der Fokus liegt auch auf einer einfachen Verwaltung sowie einer interdisziplinären Nutzung, die national anerkannt werden soll. 120 Modelle stehen bereits zur Verfügung. Betrachten wir als Beispiel die Synagoge in Volpa(https://3d-repository.hs-mainz.de/wisski/navigate/4091/view). Hier sehen wir nicht nur direkt einen 3D-Querschnitt des Gebäudes sondern auch viele wichtige und nützliche Metadaten, wie Dateitypen, Auflösung Qualität (Vertices und Faces), Autoren, Bearbeiter, Historischer Kontext, Datum des Erfassens und Entstehung des Gebäudes. Für Forschende ergibt sich hier also die Möglichkeit, mit den Daten zu arbeiten und die Informationen in eigene Projekte einfließen zu lassen.
Setzt sich der 3D Viewer also über seine Beta-Phase hinaus, haben wir es hier mit einem Werkzeug für die Forschung zu tun, mit der anerkannt, ational und allgemeingültig gearbeitet werden kann.
Abschluss
Am Ende des Barcamps hatten die Teilnehmer die Möglichkeit, an einer Umfrage teilzunehmen und drei Wörter zu notieren, die sie von diesem Tag mitgenommen haben. Begriffe wie Digitalisierung, Erfassung, Konstruktion, Rekonstruktion, Metadaten, Annotation, Standardisierung, Software, Datenvielfalt, Langlebigkeit, Forschungsdatensatz, Community, Workflow, Checkliste, Leitfaden, Speicherplatz Budget, Datenschutz wurden dabei oft genannt.
Insgesamt war das 4CultureBarcamp2023 eine inspirierende und informative Veranstaltung, die gezeigt hat, dass die Erfassung und Verarbeitung von 3D-Forschungsdaten für das materielle Kulturerbe noch viele offene Fragen und Herausforderungen mit sich bringen. Es besteht ein Bedarf an Standardisierung, klaren Leitfäden und einer starken Community, um die Potentiale der 3D-Daten voll auszuschöpfen und einen nachhaltigen Umgang mit ihnen zu gewährleisten.
Kommentar schreiben