ECHO

1. Berliner Kolloquium für Digital Humanities

Am Mittwoch, 15.02.2011 trafen sich um die 60 Interessierte – einige extra angereist – im Konferenzsaal des Max-Planck-Institues für Wissenschaftsgeschichte in der Dahlemer Boltzmannstraße.

Der Direktor des Institutes, Prof. Jürgen Renn, eröffnete die Veranstaltung, die jetzt etwa alle 6 Wochen stattfinden soll, mit einem Vortrag unter dem Titel „Digital Publication and Open Access“, freundlicherweise auf deutsch.

Er stellte vor allem 2 Projekte seines Institutes vor:
1. ECHO – European Cultural Heritage Online.
2. Eine Open-Access-Quellenreihe, die Edition Open Access.

ECHO ist ein ein internationales Projekt, das digitale Quellen zu allen wissenschaftsgeschichtlichen Disziplinen, die mit europäischem Kulturerbe zu tun haben, zusammenführt. Aus Deutschland tragen ca. 40 Institutionen Ihre Schätze bei, darunter auch die berühmten Forschungsbibliotheken wie die Anna Amalia Bibliothek in Weimar oder die Wolfenbüttler. Aus den USA kommen 17 Institute dazu, eines immerhin aus der Mongolei, zusammen sind es derzeit 24 Länder. Die Inhalte wie auch die zugrunde liegende Software stehen unter Open-Access-Lizenzen.

Die Erschließung ist dabei erheblich anspruchsvoller als etwa bei dem verwandten Projekt der Europeana: Die Quellen werden nicht nur als Faksimile abgebildet und über Bildbrowser gut zugänglich gemacht, sie sind meist auch als maschinenlesbare Texte vorhanden und sie sind oft sogar morphologisch erschlossen und auf Wörterbücher verlinkt, so dass auch danach gesucht werden kann. Die zugrundeliegende XML-Instanz lässt sich ebenfalls ansehen. Seit dem Projektstart 2002 sind erstaunliche Mengen zusammengetragen worden. Verknüpf werden die Quellen dann z.T. mit Visualisierungstools wie ChinaGIS, um etwa den Verlauf von Forschungsreisen abzubilden.

Die nächste Herausforderung sei ein digital scrapbook, mit dem sich Diskussionen und Gedankenschnipsel zu Quelleninterpretationen festhalten und verknüpfen lassen sollen.

Außer dieser rein digitalen Quellendarstellung hat das MPI-WG noch die Buchreihe Edition Open Access gegründet, um preisgünstige Quellenausgaben in Buchform herzustellen. Der erste Band ist elektronisch mit OpenAccess-Lizenz online einsehbar und herunterladbar als PDF und E-Book im epub-Format. Die gedruckte Ausgabe ist beim Berliner book-on-demand-Verlag epubli für unter 20 Euro zu erstehen. Gerade vor ein paar Tagen ist auch ein zweiter Band erschienen.

Wie bei ECHO ist die bei dieser Produktion verwendete Software und die Workflows ebenfalls Open Access oder besser Open Source. (Ob nun TeX als Satzsystem mit seiner eingeschränkten Unicode-Fähigkeit allerdings ein zeitgemäßes Werkzeug ist?)

Ein großes internationales Editorial Board sichert die Qualität; die zu veröffentlichenden Bände müssen von diesen Wissenschaftlern vorgeschlagen werden.

Annett Gries von kunsttexte.de stellte in der Diskussion die spannende Frage, was der erste Band denn nun gekostet habe. Jörg Kantel, der Leiter des MPI-WG-EDV-Service und maßgeblicher EDV-Spezialist für dieses Projekt, schätzte ungefähr 23 Mannwochen. (3 Wochen × 5 Personen für das Buch + 4 Wochen × 2 Personen für Webseite). Bei 1000 € pro Personenwoche also mindestens 23.000 €. Das sei durchaus günstig, wenn man die Publikationskosten einer Open-Access-Monografie eines angesehenen Verlages damit vergleiche, die bei immerhin 30.000 € angesetzt seien, wie ein anderer Diskutant ergänzte – und die meiste Arbeit an den Workflows ja wiederverwendbar sei.

Pantheon RomDen zweiten Vortrag des Abend hielt einer der Sprecher des Excellenzclusters TOPOI, Gerd Graßhoff, Professor für Wissenschaftsgeschichte der Antike an der Humboldt-Universität zu Berlin). Er betitelte seine Ausführungen mit „Digital Data in a scholarly world“ und berichtete über die Rezeption einer ganz anderen Art von Quellen, nämlich den 3D-Daten einer gründlichen Laservermessung des römischen Pantheon: www.digitalpantheon.ch/.

Auch muss die „Zitierbarkeit“ der Datenmenge gewährleistet bleiben, und es kann nicht im Laufe der Zeit das Koordinatensystem umgestellt werden.

Ähnliche Hürden der Fremdnutzung von Forschungsdaten haben sich bei der radiologischen Nutzung z.B. des Mechanismus von Antkythera ergeben. Trotz riesiger Bildmengen kann aus diesen nicht einmal einfach erschlossen werden, aus wie vielen Zahnrädern der Mechanismus denn bestehe.

Auch hier zeigte sich leise Enttäuschung über die Rezeption dieser frei zugänglichen unglaublichen Datenmengen (mehrere Gigabyte) und es wird deutlich, wie viel mehr Aufwand noch getrieben werden muss, damit diese Daten für verschiedenste Anwendungsfälle, etwa Bauwerksvergleiche, überhaupt handhabbar werden. Hier fehlen letztlich Tools zum Messen des Abstandes oder des Umfanges von Säulen, um die Rezeptionsgeschichte des Bauwerkes besser zu erfassen.

Auch seien die Ergebnisse oft mit kostenpflichtiger Software wie Mathematica etc. aufgearbeitet, für dies es mitunter keinen freien Browser geben – die Ergebnisse also nur mit Investition in die entsprechende Software weiterverarbeitbar sind.

Insgesamt beklagte beide Referenten eine mangelnde Rezeption Ihrer Quellen und auch eine mangelnde Verlinkung der Sekundärliteratur mit den Quellen, haben aber auch die Ursachen erkannt und arbeiten daran, dies zu ändern. Ein Beitrag in der anschließenden Diskussion fand allgemeinen Beifall: Bei der Bibliotheksführung zu Beginn des Studiums müssten vor allem auch die digitalen Quellen eingeschlossen werden – und die Studierenden gezwungen werden, ihre Quellenangaben zu verlinken.

Es gibt also bei der Wiederverwertbarkeit dieser nun endlich freien Quellen (Forschungsdaten) noch eine Menge zu tun.

Insgesamt ein aufschlussreicher Abend über die praktischen Fragestellungen zum aktuellen Hype-Thema „offene Forschungsdaten“ (Data sharing). Ich bin gespannt auf die Fortsetzung der Veranstaltungsreihe.

Share This Story!

About Author

You may also like