Forschergeist
Horizonte für Bildung und Forschung
https://forschergeist.de


FG044 Digitalisierung der Bibliotheken

Aufgaben, Wandel und Zukunft des Bibliothekswesens

Bibliotheken sind die etablierten Spieler im Bereich der Wissenssammlung und -katalogisierung und sehen sich im digitalen Zeitalter einer Reihe von Herausforderungen gegenüber. Während Bücher weiterhin eine Rolle spielen steht der Zugriff auf wissenschaftliche Forschung vor einem Wandel. Aber vor allem die umfangreiche Digitalisierung der Werke, seiner Metadaten und Inhalte steht jetzt im Mittelpunkt der bibliothekarischen Arbeit.

Wir sprechen mit Ralf Stockmann, Referatsleiter „Innovations-Management - Online-Bibliotheksdienstleistungen“ bei der Staatsbibliothek zu Berlin über traditionelle und zukünftige Rolle von Bibliotheken beim Zugang zu Wissen und Forschung, der Erschließung und Katalogisierung von Quellen, dem Aufbereiten und Verfügbarmachen der Daten, der Bewahrung und Archivierung der gewonnenen Informationen, dem Verhältnis der Bibliotheken zu Wissensprojekten wie Wikipedia und Suchmaschinen, den Möglichkeiten der Analyse von Big Data und der Anwendung neuer Methoden des maschinellen Lernens und künstlicher Intelligenz.

https://forschergeist.de/podcast/fg044-digitalisierung-der-bibliotheken/
Veröffentlicht am: 19. Mai 2017
Dauer: 2:16:51


Kapitel

  1. Intro 00:00:00.000
  2. Begrüßung 00:00:43.502
  3. Innovationsmanagement 00:01:59.993
  4. Staatsbibliothek zu Berlin 00:04:23.385
  5. Aufgaben einer Bibliothek 00:11:29.949
  6. Katalogisierung und Standardisierung 00:30:53.111
  7. Qualität und Aufwand beim Digitalisieren 00:42:28.254
  8. Technische Entwicklung der Standards 00:47:54.437
  9. Bibliotheken und das Wikipedia-Projekt 00:56:54.019
  10. Neue Formate zur Archivierung und Vermittlung 01:12:24.482
  11. Inhalte zugänglich machen 01:25:08.643
  12. Künstliche Intelligenz und Neue Medien 01:38:10.445
  13. Bibliotheken als Lernort 01:59:18.962
  14. Spezielle Datenauswertungen 02:03:31.935
  15. Ausklang 02:13:03.000

Transkript

Tim Pritlove
0:00:44
Ralf Stockmann
0:01:31
Tim Pritlove
0:01:32
Ralf Stockmann
0:01:50
Tim Pritlove
0:01:53
Ralf Stockmann
0:02:06
Tim Pritlove
0:02:11
Ralf Stockmann
0:02:20

Ja.

Tim Pritlove
0:02:21
Ralf Stockmann
0:02:36
Tim Pritlove
0:03:45
Ralf Stockmann
0:03:55
Tim Pritlove
0:04:23
Ralf Stockmann
0:04:41
Tim Pritlove
0:05:38
Ralf Stockmann
0:05:41
Tim Pritlove
0:06:07
Ralf Stockmann
0:06:15
Tim Pritlove
0:06:58
Ralf Stockmann
0:06:58
Tim Pritlove
0:07:36
Ralf Stockmann
0:07:39
Tim Pritlove
0:08:55
Ralf Stockmann
0:08:58
Tim Pritlove
0:09:00
Ralf Stockmann
0:09:17

Das deutsche Bibliothekswesen ist ja durchaus kompliziert. Und als totaler Quereinsteiger, ich bin eigentlich Sozialwissenschaftler, fehlt mir da sicherlich auch in der Tiefe da nochmal was das angeht ein bisschen das Verständnis. Aber alles was du gerade gesagt hast ist gleichzeitig richtig. Das heißt also die Staatsbibliothek selber ist erst mal eine Bundesbehörde, also eine Bundeseinrichtung, gehört also nicht zur Stadt Berlin beispielsweise, sondern ist am Bund angesiedelt und wiederum Teil halt dieser Stiftung preußischer Kulturbesitz, wo beispielsweise auch viele bekannte Berliner Museen drin sind, wie irgendwie Pergamon-Museum beispielsweise. Und in dem Kontext spielt die Staatsbibliothek dann schon eine spezielle Rolle, aber die deutsche Nationalbibliothek beispielsweise die DNB mit ihren Standorten in Frankfurt und – wo ist jetzt der zweite – Leipzig, ich hoffe, ich sage jetzt nichts peinlichen, die spielt eigentlich diese Rolle als die zentrale zumindest Bibliothek der Neuzeit. Wo auch wirklich jedes Werk, was in Deutschland erscheint muss halt sein Belegexemplar an die DNB in Frankfurt abliefern und jetzt nicht an die Staatsbibliothek Berlin. Es gibt beispielsweise auch eine Staatsbibliothek in München, die bayrische Staatsbibliothek BSB. Also es gibt mehrere Staatsbibliotheken. Selbst die SUB Göttingen, wo ich angefangen habe, in die Bibliothekswelt reinzuschnuppern, Staats- und Universitätsbibliothek Göttingen, kommt dann wiederum vom Staat Hannover wird das wieder abgeleitet. Also das Staat selber sagt da erst mal nicht allzu viel aus.

Tim Pritlove
0:10:45
Ralf Stockmann
0:10:49
Tim Pritlove
0:11:08
Ralf Stockmann
0:11:29
Tim Pritlove
0:11:31
Ralf Stockmann
0:12:59

Genau, also ob diese Unterscheidung im Detail immer so Sinn macht oder nicht zwischen quasi einer Stadtbibliothek und einer wissenschaftlichen Bibliothek, darüber könnte man jetzt ziemlich lange streiten. Ich finde die Unterscheidung jetzt gar nicht so zentral, weil die Grundaufgaben sind eigentlich immer dieselben von einer Bibliothek. Das ist am Anfang das Sammeln. Das heißt also man möchte irgendwie Bestände erwerben oder sie fallen einem zu und man hält sie fest und baut halt eine Sammlung auf, die man dann zugänglich macht. Der zweite klassische Schritt ist dann der der Erschließung oder Katalogisierung. Das heißt wenn ich da jetzt ein Buch stehen habe, dann möchte ich auch etwas darüber aussagen, was dieses Buch eigentlich ist. Also wie heißt es und wer ist der Autor und was ist der Verlag und wann wurde es publiziert und vielleicht möchte ich auch schon ein bisschen eine Sacherschließung machen, um was für Themen geht es eigentlich in diesem Buch. Und Ziel dieser Erschließung, also entsprechend mit Metadaten-Versehung von diesem Werk, ist dann eben das Verfügbarmachen, das ist dann die dritte große Säule. Indem man auch meistens so was wie eine Benutzungsabteilung mit dranhängt. Das heißt also wie bekomme ich dann dieses Wissen wieder in die Welt hinaus, wie kann ich transparent machen, was haben wir in unserem Bestand, woraus baut sich unsere Sammlung auf, wie kann ich suchen nach etwas, wer kann mir Informationen geben? Also früher war ja eine der Hauptaufgaben von Bibliothekaren eben auch dieses Auskunftgeben über das was da ist. Also dass es einen Katalog gibt, in dem ich suchen kann, das ist eigentlich auch noch ein relativ neues Konzept. Gerade natürlich Digitalsuche ist noch wirklich jung. Also ich habe noch angefangen zu studieren, da hatten wir noch Zettelkästen, da gab es noch kein OPAC, in dem man irgendwie digital suchen konnte. Und da kommt auch so ein bisschen das klassische Selbstverständnis von Bibliothekaren eigentlich her, die lassen sich eigentlich immer einer dieser beiden Kategorien zuordnen, entweder sie Katalogisieren und Erschließen oder sie geben Auskunft über das was da ist. Und jeder zumindest von denen, die es selber studiert habe, haben gesagt, früher oder später muss sich jeder eigentlich immer entscheiden, möchte ich eigentlich so in diese Richtung oder möchte ich in jene Richtung. Was liegt mir da mehr am Herzen. Das alleine bei mir am Schreibtisch mich mit einem Objekt beschäftigen und Aussagen darüber treffen oder quasi am Kunden, am Menschen arbeiten und dort Gedanken machen. Das ist so ein bisschen so das Grundset eigentlich, wie jede Bibliothek eigentlich funktioniert mehr oder weniger.

Tim Pritlove
0:15:23
Ralf Stockmann
0:15:28

Nein das trifft es nicht so ganz. Also Suchmaschine ja. Also die Bibliothekare sind schon menschliche Suchmaschinen, da könnte man jetzt auch lustige Döneken erzählen, was man da so für Skills braucht, um irgendwie mit Menschen umgehen zu können. Weil Menschen, das merkt man dann, wenn man wirklich an der Auskunft mal ist, sind absurd schlecht darin, zu formulieren, was sie eigentlich suchen. Vielleicht ein klassisches Beispiel, da war ich selber mit dabei. Es kommt also ein Kunde zum Tresen und sagt, er möchte jetzt was wissen über Prozessrecht. Was hätten wir denn an Büchern im Jurabereich zum Prozessrecht? Und dann fragt man halt ein bisschen weiter nach so, warum denn eigentlich genau und was will er denn? Und weil wir halt einen Schwerpunkt im Bereich Rechtswissenschaften haben, denkt man, er ist ein Wissenschaftler, der sich halt jetzt mit Jura auseinandersetzt. Aber je länger man dann so ein Auskunftsgespräch führt, hinterher war die Story die, er möchte also seinen Richter verklagen und möchte dem also Befangenheit unterstellen und ähnliches und es ist auch schon der dritte Richter. Und wenn man ihn dann fragt, was denn mit seinen Anwälten ist, ja er hätte schon sechs Anwälte entlassen. Da merkt man, okay der will überhaupt gar nicht wissenschaftlich arbeiten, sondern das ist ein Querulant, der jetzt also irgendwie in die Stabi läuft, um von uns irgendwie juristische Beratung zu haben. Und das passiert halt erschütternd regelmäßig. Und so was können Menschen aber dann doch ganz gut. Gerade halt wenn sie dafür trainiert sind, so was rauszubekommen und nicht sofort dem ersten Instinkt hinterher zu laufen. Anderes schönes Beispiel, da war ich allerdings nicht selber dabei. Jemand fragt, was haben Sie denn an Büchern über Tattoos So dann denkt man natürlich zuerst, naja gut Indonesien und da sind sie irgendwie entstanden und was gibt es für verschiedene Motive und so was. Und zehn Minuten später kommt raus, er sucht ein medizinisches Werk, wie man Tattoos entfernt, weil er wollte seine Tattoos los werden. Also die Annahmen, die man immer macht, über das, was jemand anderes glaubt wissen zu wollen, die sind immer schwer zu hinterfragen.

Tim Pritlove
0:17:21
Ralf Stockmann
0:17:58
Tim Pritlove
0:18:48
Ralf Stockmann
0:19:06

Schon eher letzteres. Also letztendlich hat jede Bibliothek schon so etwas wie ein eigenes Erwerbungsprofil. Da ist es auch ganz interessant, sich das historisch anzugucken. Da bin ich nun wieder gar kein Experte, aber beispielsweise wie dort Konfessionsgrenzen eine Rolle spielen. Wo ich halt eigentlich herkomme ist SUB Göttingen, das war eine sehr protestantisch geprägte Bibliothek und die hatte da eine ganz andere Erwerbungsphilosophie als beispielsweise die bayrische Staatsbibliothek als katholisch geprägte Bibliothek. So dass also als beispielsweise die Google Books Digitalisierung losging und alle gesagt haben, oh mein Gott die Bayern digitalisieren jetzt so viel mit Google, da bleibt für uns gar nichts mehr da. Wenn man da mal wirklich in die Bestandslisten reinguckt, merkt man, mh die ganze Erwerbungsstrategie der Protestanten war doch ganz anders, die waren einfach an anderer Wissenschaft interessiert als die Katholiken. Bis hin zu wieder Beispiel Göttingen der Mathematikbereich. Da hat halt Gauß gearbeitet und gelehrt. Und alleine jetzt also aus dem Gauß-Nachlass ist also jetzt eine gewisse Verpflichtung quasi von Göttingen entstanden, wir wollen einfach so alles im Bereich der Mathematik sammeln, was nicht bei 3 auf den Bäumen ist. Und irgendwie eine gewisse Qualität hat. Das heißt also, jede Bibliothek definiert für sich schon so gewisse Grundlinien, wo sie sich drauf spezialisiert und wo dann andere Bibliotheken dann auch nicht noch das 5. und 6. ähnliche Exemplar machen müssen, weil es natürlich dann auch entsprechende Austauschmechanismen zwischen Bibliotheken gibt, also Fernleihe ist da das Stichwort. Natürlich jetzt nicht von Rara und Unika und den ganzen wertvollen Sachen, sondern dann also wirklich halt von Feld-Wald-und-Wiesen-Objekten, die werden dann auch einfach durch die Republik versandt. Ich glaube da fängt es halt an. Man hat irgendwo so ein gewisses Portfolio als Bibliothek, was man eigentlich wie sammeln möchte und dann beispielsweise Fachreferenten sind dann diejenigen, die sich darum kümmern, das sind eigentlich ganz normale Akademiker und Wissenschaftler, die irgendwann in den Bereich der Bibliothek gewechselt sind und aber mit dem Hintergrund aus ihrer Fachrichtung wissen, das sind die relevanten Journals, das sind die relevanten Verlage, dort die Publikationslisten durchgehen. Was erscheint da neues? Sich dann auch durchaus absprechen im Verbund von mehreren Bibliotheken, wer erwirbt jetzt was? Dass nicht alle dasselbe irgendwie erwerben müssen.

Tim Pritlove
0:21:13
Ralf Stockmann
0:21:21
Tim Pritlove
0:21:23
Ralf Stockmann
0:21:25
Tim Pritlove
0:21:50
Ralf Stockmann
0:21:53
Tim Pritlove
0:22:30
Ralf Stockmann
0:22:36
Tim Pritlove
0:23:32
Ralf Stockmann
0:23:38
Tim Pritlove
0:24:20
Ralf Stockmann
0:24:26
Tim Pritlove
0:25:10
Ralf Stockmann
0:25:58

Ich würde sogar sagen, wir sind einer der Hauptmotoren dieses Prozesses. Also OpenAccess, unter dem das ja dann auch ein bisschen läuft und OpenAccess-Publikation vielmehr, also OpenAccess würde ja erst mal nur sagen, der Zugang ist frei zu wissen. Aber der Weg des OpenAccess-Publizierens, der wurde schon in den letzten Jahren und auch viele Jahre schon relativ maßgeblich von den Bibliotheken mit vorangetrieben, eben aus dieser totalen Unzufriedenheit, dass jetzt plötzlich Verlage wie Elsevier mit irgendwelchen astronomischen Steigerungsraten ihre Abogebühren dazukommen. Auf der anderen Seite einem selber eigentlich nichts mehr gehört. Sondern man eben nur noch den Zugriff bekommt. Und ja also das ist auch innerhalb des deutschen Bibliothekswesens also völlig Common Sense, dass also OpenAccess-Publikationen definitiv das ist, was unterstützenswert ist. Inklusive auch, dass wir Repositories anbieten. Also wenn man sich beispielsweise mal BASE aus Bielefeld anguckt, das ist also glaube ich doch Deutschlands größtes OpenAccess-Repository, da ist auch schon ganz gut was vorhanden. Die Crux an der ganzen Konstruktion, aber jetzt müssen wir nicht eure alte Folge nochmal wiederholen, ist eben genau wieder dieser Faktor oder dieser Aspekt des Impact Faktors. Das heißt also die Wissenschaft muss natürlich auch auf der anderen Seite mitziehen und muss ihre Gratifikationsanreize und Gratifikationssysteme anpassen. Und sagen, okay Nature ist nicht OpenAccess und damit sinkt dann da jetzt mal der Impact Faktor und stattdessen wird es wichtiger in einer OpenAccess-Journal zu publizieren. Davon sind wir noch sehr sehr weit entfernt.

Tim Pritlove
0:27:32
Ralf Stockmann
0:27:35
Tim Pritlove
0:28:43
Ralf Stockmann
0:28:46
Tim Pritlove
0:28:49
Ralf Stockmann
0:29:08
Tim Pritlove
0:29:15
Ralf Stockmann
0:29:19

Ich wollte mein Leben lang Arzt werden. Und ich kann das natürlich schon nachvollziehen. Also mir sind auch drei Promotionsthemen irgendwie quasi weggeschossen worden so, wo dann irgendjemand anders dann schon wieder schneller und effizienter war und das ist auch einer der Gründe, warum ich es dann nie mit der Promotion durchgezogen habe. Dieses klandestine Moment in der Wissenschaft, das ist erst mal nicht wegzudiskutieren. Das ist eine gute Überlebensstrategie, so zu verfahren. Aber auf der anderen Seite ist es gesamtgesellschaftlich natürlich schon ein bisschen problematisch. Also wir hatten jetzt selbst bei unserer größten Erwerbung in der Stabi in den letzten Jahren, das waren die Tagebücher Alexander von Humboldt, gab es also auch dort durchaus Bestrebungen innerhalb des Projektteams auf Seiten der Wissenschaft, naja also wenn Sie die online stellen, dann doch bitte erst mal nicht in so einer guten Auflösung. Gerade bei Humboldt, der hat halt super klein und fein gekrickelt, können wir vielleicht mal ein Link zu unseren Scans mal mit in die Shownotes einbauen, das ist schon spektakulär, was der für ein Wissensmanagementsystem auf einer DIN A4-Seite quasi entwickelt hat. Wo er das wo wie in welchem Winkel noch dazu notiert hat und mit Draufklebzetteln und ähnliches. Aber selbst da, das war jetzt gerade mal vor zwei Jahren, gab es also durchaus Druck auf die Stabi, mal nicht so schnell und nicht so in guter Qualität. Aber darüber haben wir uns dann auch einfach mal hinweggesetzt und haben es dann trotzdem gemacht. Aber es gibt da durchaus einen Konflikt zwischen dem was Bibliotheken wollen, nämlich alles Wissen frei für alle und dem was Wissenschaftler dort wollen. Wo wie gesagt diese Klandestinität durchaus ein bisschen eingebaut ist.

Tim Pritlove
0:30:53
Ralf Stockmann
0:31:42
Tim Pritlove
0:31:46
Ralf Stockmann
0:31:49
Tim Pritlove
0:32:22
Ralf Stockmann
0:32:27
Tim Pritlove
0:32:36
Ralf Stockmann
0:33:07
Tim Pritlove
0:33:23
Ralf Stockmann
0:33:35

Aber man kommt halt auch relativ schnell dazu, dass halt bestehende Standards dann auch einfach nicht das abdecken, was man gerade irgendwie braucht. Und was aber auch wirklich dann so an Wissenschaftlerinnen und Wissenschaftler hinten nützlich ist. Mal ein Beispiel von einem Standard, den wir selber mit entwickelt haben, ist der zur Beschreibung von einfach digitalisierten alten Büchern. Also wir haben ja damals im Digitalisierungszentrum in Göttingen, was ich ja dann eine Zeit lang auch geleitet habe, haben wir halt eben wirklich in großem Maßstab Massendigitalisierung betrieben und haben also dann gemeinfreie Bücher, das heißt also Werke, wo der Autor 70 Jahre verstorben ist. Es zählt ja immer nicht das Datum des Werks an sich, sondern Tod des Autors für das Urheberrecht hier. Das haben wir genommen, unter einen teuren wirklich sehr sehr guten Buchscanner gelegt und dann halt digitalisiert online gestellt. Und nur die Scans selber sind dann aber von der Usability her, wenn ich dann als Wissenschaftler mit diesem Dokument arbeiten möchte, eben schon ein bisschen eingeschränkt. Weil ich habe dann erst mal nur so eine Bildsequenz halt, die auch relativ wenig aussagt. Und aus unserem Katalogsystem, aus dem OPAC, bekomme ich halt nur die bibliografischen Metadaten. Das heißt also Titel, Autor, Jahr und so weiter. Aber über die eigentliche Struktur des Bandes, beispielsweise das Inhaltsverzeichnis, sagt mir das nichts aus. Und dann hat also damals in meiner Abteilung Markus Enders, der ist jetzt in der British Library, hat das ganz entscheidend mit der Library of Congress mit geprägt, einen neuen Metadatenstandard aufgesetzt, nämlich METS/MODS. Also im Wesentlichen METS, Mets ist da der entscheidende Standard, der nämlich das Problem gelöst hat, wie man eine logische Struktur und eine physische Struktur von einem Buchobjekt zusammenbringt. So was meint man damit? Mn hat also zum einen seine Image-Sequenz. Sagen wir mal, ein Buch hat jetzt 100 Seiten, dann habe ich also Scans, die von 00 bis 100 quasi irgendwie hochzählen, mehr oder weniger. Dann habe ich als die eigentliche physische Sequenz ist aber das was drauf gedruckt ist an Seitenzahlen. So und da sieht man nämlich, die ersten fünf Scans, die haben beispielsweise lateinische Nummerierungen, dann sind drei Seiten, die sind überhaupt nicht nummeriert und danach geht es dann mit arabischer Zählung weiter, 1, 2, 3, 4, 5.

Tim Pritlove
0:35:52
Ralf Stockmann
0:35:53
Tim Pritlove
0:36:25
Ralf Stockmann
0:36:25
Tim Pritlove
0:36:30
Ralf Stockmann
0:36:34
Tim Pritlove
0:37:02
Ralf Stockmann
0:37:07
Tim Pritlove
0:37:43
Ralf Stockmann
0:37:46
Tim Pritlove
0:38:07
Ralf Stockmann
0:38:12
Tim Pritlove
0:38:15
Ralf Stockmann
0:38:18

So und dann hat die DFG gesagt, ich weiß gar nicht wann das war, ich würde auch sagen so vor acht Jahren oder ähnlichem, die haben gesagt, sie finden es irgendwie gar nicht mal so töfte, dass jetzt jedes Digitalisierungszentrum jeder Bibliothek eine andere Nutzeroberfläche für ihre Scans hat. Und die Wissenschaftler denen ist das relativ egal, ob jetzt irgendwas in München oder in Berlin oder in Halle digitalisiert worden ist und die müssen jedes mal, wo sie irgendwie das Objekt dann jeweils finden, müssen sie sich wieder auf eine andere Nutzung einstellen und dann hat die DFG gesagt, so wo wir doch jetzt ohnehin schon alle mit einem einheitlichen Metadatenmodell unterwegs sind, bieten wir doch alternativ zu den ganzen lokalen Implementierungen noch einen zentralen Viewer an, den sogenannten DFG-Viewer, was man sich so als quasi PDF-Viewer vorstellen kann. Der also immer gleich aussieht. Und in den kann man dann rein laden seine Scans von den ganz unterschiedlichen Bibliotheken und hat dann eine einheitliche Bedienung. Und solche Konzepte werden dann plötzlich möglich, dadurch dass man sich einfach mal auf einheitliche Metadatenstandards einigt. Das war eine total prima Herangehensweise. Man kann jetzt darüber streiten, ob dieser DFG-Viewer selber nun das Maß aller Dinge in Sachen Usability ist. Also wir nutzen beispielsweise oder entwickeln in Berlin auch mit großem Aufwand einen eigenen Viewer, weil wir denken, dass da viele Funktionalitäten noch anders umgesetzt werden sollten. Aber was das so an Vereinheitlichung von Prozessen dann an Bibliotheken bewirkt, das alleine war die Initiative schon wert. Also alle machen mal so in etwa, also alle wollen sowieso meistens dasselbe im Bibliothekswesen, das ist das schöne, darum mag ich das auch so. Da gibt es relativ wenig Hidden Genders so, sondern man will halt einfach so Wissen rausbringen in die Welt und erschließbar machen und jetzt hat man auch einheitliche Verfahren dazu, das ist gut. Und so könnte man das jetzt noch auf zehn andere Metadatenstandars irgendwie durch iterieren, also TEI beispielsweise, wenn man dann zu Volltexten kommt, wie man das also dann entsprechend beschreibt. Weil nun wiederum die Image-Digitalisate nur so eine Brückentechnologie sind, hin zu eigentlich will man das was geschrieben steht auf der Seite erfassen. Zwar dann auch computerlesbar und durchsuchbar und in seine eigene Wissenschaftsumgebung kopierbar. Da hätte man dann solche Standards wie TEI und dann kann man die wieder mit METS/MODS kombinieren.

Tim Pritlove
0:40:29
Ralf Stockmann
0:40:49
Tim Pritlove
0:40:53
Ralf Stockmann
0:41:06
Tim Pritlove
0:41:52
Ralf Stockmann
0:42:06
Tim Pritlove
0:42:21
Ralf Stockmann
0:42:27
Tim Pritlove
0:43:08
Ralf Stockmann
0:43:15
Tim Pritlove
0:43:58
Ralf Stockmann
0:44:02
Tim Pritlove
0:44:25
Ralf Stockmann
0:44:27
Tim Pritlove
0:44:29
Ralf Stockmann
0:44:34
Tim Pritlove
0:44:49
Ralf Stockmann
0:44:54

Von Scannertechnologie? Das war so Anfang 2000er, also 2003. Ich habe am GDZ angefangen und dann die Leitung übernommen 2005 so, und da war das schon gut abgehangen die Technologie. So und der Clou ist jetzt aber folgender. Du hast jetzt also dieses alte Buch, auf dem jetzt schon eigentlich die eigentliche Information in schwarzer Druckertinte drauf gedruckt ist und scannst das sauber bitonal in 600 dpi. Dann hast du die Möglichkeit, daraus, wenn du es einfach gar nicht weiter modifizierst, mit dem sogenannten Fax G4 Standard, der wirklich von den Faxgeräten kommt, ein TIFF abzuspeichern, was irre klein ist, weil es einfach sehr sehr gut komprimieren kann, weil es halt wirklich nur 0 und 1 hat, das ist halt bitonal. Und die kannst du dann wiederum in ein sehr sehr kleines PDF binden. Das heißt du kannst als Wissenschaftler, das kann man beim GDZ die alten bitonalen Sachen wirklich sind ja alle noch da, da kann man sich ein PDF runterladen, wo du also 100 Seiten sind da kein MB groß und du hast das ganze Buch. Und jetzt guckst du dir das am Bildschirm an und es ist so okayish und jetzt druckst du das auf deinem Laserdrucker aus. Dein Laserdrucker hat 600 dpi, das heißt Scanauflösung ist exakt gleich Printauflösung. Und dann hast du dieses Papier vor dir, und du hast quasi ein Reprint des Originals vor der Nase. Auf dem du dann sowieso irgendwie Papier, dann wunderbar noch rummalen kannst und im rechten Winkel deine Korrekturen dazu verfassen kannst. Das heißt also, hier hast du plötzlich jetzt einen Workflow, wo gerade das Wegwerfen von Informationen, nämlich von Farbinformation, bei gleichzeitig einem Anheben von anderen Informationen, nämlich die Auflösung, und quasi ein Mapping auf das, wie die Leute hinterher wissenschaftlich damit praktikabel arbeiten können, nämlich ihren 600 dpi Laserdrucker schwarz-weiß natürlich – also bei Farbdruckern klappt das dann wiederum nicht – plötzlich dann eine Produktionskette hast, wo du für lau den Leuten Reprints anbieten kannst, die sie selber zu Hause herstellen für ihre ganz spezifischen Szenarien. Also von daher, diese ganz einfache Formel so, man macht immer so viel und so gut wie irgendwie möglich, manchmal lohnt es sich auch, einen Schritt zur Seite zu gehen und das Problem nochmal aus einer ganz anderen Perspektive sich anzuschauen. Da kann auch Gold am Wegesrand liegen.

Tim Pritlove
0:47:11
Ralf Stockmann
0:47:17
Tim Pritlove
0:47:23
Ralf Stockmann
0:47:24
Tim Pritlove
0:47:55
Ralf Stockmann
0:48:18
Tim Pritlove
0:48:24
Ralf Stockmann
0:49:05

Auch hier würde ich sagen, beides ist der Fall. Also wir können auf jeden Fall schon mal festhalten, dass Bibliotheken generell eine sehr sehr gesunde Einstellung zu Kooperation und zu Standardisierung haben. Das heißt also sowohl auf internationaler Ebene findet da viel statt, als auch gerade jetzt hier national. Also beispielsweise die ganze Erschließung ist eigentlich auf wenige Verbünde in Deutschland konzentriert. Ich glaube fünf sind es jetzt derzeit. Wir gehören hier in Berlin mit zum Göttinger Bibliotheksverbund GBV und dort sind es dann also ich glaube im GBV 12 Bibliotheken, wo dann irgendwie so was, die also gemeinsam katalogisieren und erschließen. Das heißt also, wenn irgendwo ein neues Werk angeschafft wird, dann erschließt eine Bibliothek macht die Tiefenerschließung und alle anderen nutzen das dann einfach nach für ihre Exemplare, so sie das Werk dann auch haben. Und das passiert seit ewigen Jahren schon so. Und es gibt jetzt gerade eine Initiative noch die Anzahl von Verbünden in Deutschland zu reduzieren, aber schon wieder hier relativ nebensächlich. Das heißt also auf der Ebene der bibliothekarischen Kernstandards sagen wir mal sind wir schon seit vielen vielen Jahren extrem gut aufgestellt und da gilt auch immer dieses Grundmissionstatement, so das ist das auch gut und richtig und das will man weiter so machen. Wenn du jetzt fragst, wie zukunftssicher ist das Ganze? Da fällt die Antwort dann ein bisschen schwieriger aus. Also beispielsweise wenn man sich jetzt mal anguckt, ich sagte ja eben schon, diese Scans sind eigentlich eine Brückentechnologie hin zum Volltext, und viele ganz ganz spannende Zukuntsthemen werden auf Volltext passieren. Stichwort BigData und ähnliches. Und da ist es beispielsweise jetzt unser PICA-System, das wir jetzt an der Stabi im Einsatz haben, von unserem Katalog. Wo also unser ganzer Hauptbestand drin erfasst ist, der kann halt beispielsweise nicht mit Volltext umgehen. Das heißt also, da kann ich zwar die bibliografischen Metadaten reingeben, das was wir eben schon so auch mit Dublin-Core und MODS beschrieben hatten, das kriege ich da ziemlich gut rein.

Tim Pritlove
0:50:55
Ralf Stockmann
0:50:58
Tim Pritlove
0:51:31
Ralf Stockmann
0:51:38

Ja.

Tim Pritlove
0:51:39
Ralf Stockmann
0:52:03

Genau, also dafür gibt es dann natürlich jetzt auch schon Verfahren und Beschreibungssprachen, also TEI haben wir ja gerade eben schon genannt. Das heißt also man müsste jetzt eigentlich dann mal schauen, wie bekomme ich beispielsweise jetzt TEI-Dateien entsprechend eigentlich jetzt in die Kataloge mit rein, dass ich die dann auch im Vollzugriff habe, das probieren wir jetzt auch gerade bei unseren eigenen digitalisierten Sammlungen, das vernünftig zu verknüpfen und diese Welten da zu verheiraten. Was aber auch wiederum nur ein Zwischenschritt ist, weil selbst die Volltexte sind dann eigentlich nur Brückentechnologie, würde ich sagen. Weil also dann habe ich zwar irgendwie Buchstaben und Zeichen, aber was bedeutet die denn eigentlich und was steht da eigentlich drin? Und das ist die Ebene, wo jetzt in den nächsten Jahren wirklich die Musik spielen wird. Das heißt also es fängt an mit der sogenannten Named-Entity-Recognition, NER. Was für Personen tauchen eigentlich in diesem Text auf oder was für Orte tauchen dort auf oder was für Institutionen oder was für Inhaltskonzepte werden dort diskutiert. Wenn man sich das mal so ein bisschen in Aktion angucken möchte, wir haben eins unserer Portale ZEFYS, das ist unser Zeitungsportal, wo wir also Zeitungsartikel digitalisieren, und dort gibt es eine Unterdepandents über DDR-Zeitungen. Und die haben wir sowohl im Volltext durchsuchbar, also die drei großen Tageszeitungen der DDR im gesamten Erscheinungsverlauf, im Volltext durchsuchbar und durch Kooperation mit Externen, ich glaube Fraunhofer war es an der Stelle, auch zumindest teilweise schon mit Normdaten erschlossen. Das heißt also Personen, Themen, Institutionen und so weiter. Und dann hast du plötzlich die Möglichkeit zu gucken, okay ich muss nicht mehr im Vorhinein wissen, gerade bei Tageszeitungen, das ist ja ein riesiges Konvolut, wann, muss die nicht mehr irgendwie Tag für Tag durchblättern, wann wurde über Honeckers Rede XY eigentlich was geschrieben, sondern ich kann dann einfach mal danach suchen. Nämlich dann so ein Konzept wie, zeig mir alle Reden von Honecker raus. Das klappt jetzt auch in dem Portal noch nicht so wirklich perfekt, aber es ist ein Schritt, der definitiv als nächstes kommen wird. Und das dann wiederum noch in einem klassischen OPAC abzubilden, würde ich sagen, das ist eigentlich ein Ding der Unmöglichkeit.

Tim Pritlove
0:54:06
Ralf Stockmann
0:54:09
Tim Pritlove
0:54:18
Ralf Stockmann
0:54:25
Tim Pritlove
0:54:26
Ralf Stockmann
0:54:41
Tim Pritlove
0:54:50
Ralf Stockmann
0:55:50
Tim Pritlove
0:56:53
Ralf Stockmann
0:57:47
Tim Pritlove
0:58:29
Ralf Stockmann
0:58:31
Tim Pritlove
0:58:52
Ralf Stockmann
0:59:02
Tim Pritlove
0:59:22
Ralf Stockmann
0:59:25
Tim Pritlove
0:59:58
Ralf Stockmann
1:00:00

An der SOB Göttingen wirklich selber arbeiten in Frank Schulenburg, der sitzt jetzt also in Kalifornien drüben und das war so lange bevor es so dieses Konzept irgendwie Residenz in Librarys gab von Wikipedia. So der war also wirklich gut und super vernetzt in der deutschen Wikipedia-Szene und war da glaube ich auch im Vorstand schon zu dem Zeitpunkt und er hat einen Arbeitsvertrag an der SOB Göttingen gehabt, und das hatte quasi auf die Restbibliothek null Impact. Da hätte man also eigentlich sonst was machen können. Das würde ich mir auch selber als persönliches Scheitern jederzeit ankreiden, dass ich mit dem zu dem Zeitpunkt nicht irgendwie viel mehr gemacht habe. Man war halt immer in seinem eigenen Trott und das war halt irgendwie was neues und was anderes und klar nachher ist man irgendwie immer schlauer. Aber ich sage, eigentlich müssen wir auch so was zumindest dann mal lernen. Also wenn wir uns jetzt solche Prozesse anschauen und sehen, okay hier wurde eine völlig neue Art erfunden, eigentlich Informationen zu sammeln und wie eigentlich Information strukturiert wird, und wie man damit umgeht. Und gerade Wikidata ist dann da wirklich die nächste sehr konsequente und tolle Entwicklung. So was müssen doch Bibliotheken ganz zentral irgendwie mit gestalten und mitdenken, weil das machen wir seid tausenden von Jahren so. Wenn wir nicht irgendwie in der Bedeutungslosigkeit verschwinden wollen, weil wie gesagt Bestand selber wird uns nicht über die nächsten 20 Jahre bringen, auf gar keinen Fall, sondern wird eigentlich nur das Mitmachen und Mitdenken an solchen Strukturen, das wird uns retten. Warum programmieren wir keine Suchmaschinen? Wenn ich jetzt mir so Suchmaschinentechnologie angucke, Solar oder Elastic Search, was so die großen OpenSource-Entwicklungen im Bereich der Suchmaschinen sind, die müssen doch von Bibliotheken erfunden werden und eben nicht von entweder motivierten Einzelpersonen oder Firmen oder Google oder dem militärisch-industriellen Komplex, sondern das müssen Bibliotheken eigentlich machen. So und davon sind wir aber leider noch ziemlich entfernt.

Tim Pritlove
1:01:51

Was heißt denn das? Also ich meine, heißt das, dass die beiden Projekte sich nach wie vor komplett getrennt entwickeln oder ist da nicht einfach … mehr Potential? Also man muss ja dazu sagen für die Leute, denen auch Wikidata als Projekt jetzt noch nicht so bekannt ist, im Prinzip ist es ja so eine Auskopplung aus den normalen Wikipedia-Dingern. Und so ein bisschen wie die Formate, die du vorhin gerade beschrieben hast, so dieses METS, wo du sagst, naja es gibt so Bücher, die haben so Seiten und wir haben das jetzt mal mit der Nummerierung und mit dem Umfang und so weiter und vielleicht auch noch mit dem Titel und dem Autor irgendwie umfasst. Wir beschreiben sozusagen das was da ist. Und genauso ist es so ein bisschen auch bei Wikidata gewesen, dass man einfach gesagt hat, wir haben jetzt diese Artikelflut, das heißt wir haben überhaupt erst mal eine Basis von „wir wissen, welche Dinge überhaupt beschreibenswürdig sind“ und das macht sie quasi dann auch unterscheidungswürdig und mit diesem Metadaten-System wird quasi erst mal eine Struktur, also ein Gerüst geschaffen, wo man sagt, jetzt können wir die Dinger auch auseinanderhalten. Jetzt wissen wir irgendwie, das eine Berlin und das andere Berlin hat nichts miteinander zu tun, vielleicht hat es was miteinander zu tun auf einer weiteren Ebene und sogar das kriegen wir dann irgendwann nochmal abgebildet. Und jetzt hat sich aus diesem Prozess in den letzten Jahren sagen wir mal ein System entwickelt, was jetzt eben anfängt, so seinen eigenen Datenrausch zu erleben. So wie am Anfang mit der Wikipedia diesen enormen Zuwachs an Artikeln hatten, irgendwann war dann, nicht alles, aber so viel beschrieben, dass jetzt die interne Dynamik sich dort ändert. Sehr viel mehr ist Pflege, Änderung, Updates, etc. Klar es kommen neue Sachen dazu, aber die Zahl der neuen Sachen, die dazukommen ist nicht so groß. Im Wikidata-Bereich wiederum ist es irgendwie genau andersrum. Nachdem man sich da erst mal sanft vor sich hin initialisiert hat, bricht das Ganze jetzt erst in so einen richtigen Wahnsinn aus.

Ralf Stockmann
1:04:18
Tim Pritlove
1:05:04
Ralf Stockmann
1:05:08

Sehr gut, hervorgegangen damals aus zwei unterschiedlichen Quellen, nämlich der SWS war das, Schlagwort-Normdatei und den PND, der Personen-Normdatei, also Personen und Institutionen waren in der einen Domäne definiert und Schlagworte in der anderen. Und das hat man dann vor, ach Gott das ist auch schon alles viele viele Jahre her, 8-10 Jahre her, zusammengeführt in der GND. Und das ist jetzt auch eine gut computerlesbare Datenquelle, um quasi sämtliche in Deutschland bekannten Normdaten im Bereich des Bibliothekswesens, was jetzt so diese einfache Publikationsebene angeht zumindest, beschreiben und darauf zugreifen zu können. Die grundsätzliche Spielregel ist hier schonmal, jeder, der in Deutschland irgendwas publiziert hat und dann auch irgendwie Objekt mit einer eigenen ISBN-, ISSN-Nummer hat und sein Exemplardatensatz bei der GND abgelegt hat, der kommt als Person in diese Normdatendatei auch rein. Also ich beispielsweise habe ja auch ein paar Publikationen, für mich gibt es da einen Eintrag und dann kann man nachgucken, was hat der eigentlich publiziert? Das heißt also, wenn man sich natürlich jetzt das anguckt, da sind jetzt also viele viele viele hunderttausende wichtige Personen drin modelliert. Aber die Grundvoraussetzung ist halt, sie muss was publiziert haben irgendwann mal. Es gibt noch andere Wege, wie man da reinkommt, aber das ist erst mal so der Preset. Und das ist natürlich jetzt ein wichtiger Bestandteil von dem, was Wikipedia interessiert, aber natürlich interessiert die auch noch andere Dinge. Also sprich jetzt irgendwie ein Popmusiker was weiß ich, der jetzt also irgendwo natürlich nie irgendwie wissenschaftlich gearbeitet hat, muss ja trotzdem in der Wikipedia beschrieben werden, dann habe ich eventuell keinen GND-Eintrag. Und dann ist immer die Frage, legt man dafür jetzt trotzdem einen GND-Eintrag an, weil es letztendlich auch gleichzeitig ein Schlagwort ist. Weil da wird dann über Udo Lindenberg publiziert und dann möchte ich Udo Lindenberg schon als Entität drin haben, auch wenn er selber nicht publiziert hat. Und solche Prozesse werden dann dort abgehandelt. Aber das findet alles statt und das passiert. Das heißt also, du findest bei vielen vielen Wikipedia-Artikeln ganz unten auf der Seite dann einen direkten Link in die GND rein. So wo du dann auch gucken kannst, okay wie sieht es dort in dieser Ebene aus. Das wird auch bei Wikidata weitergenutzt. Dann ist natürlich noch die Frage, jetzt kommt der zweite Teil der Antwort, ist es dann schon kompliziert, weil natürlich so die Arbeitsweisen dieser beiden Welten schon doch sehr unterschiedlich sind. Das heißt also, im Bibliothekswesen geht es eigentlich immer darum, Dinge zu standardisieren und irgendwie in einen vernünftigen Geschäftsgang zu transformieren. Du willst als Bibliothek eigentlich immer nie Sonderfälle bearbeiten, sondern immer, wenn ein Sonderfall kommt, möchtest du deine Grundregeln so erweitern, dass der mit abgedeckt ist und wenn doch mal was ähnliches kommt, dass es dann wieder standardisiert durchlaufen kann. Das ist so eine Grunddenke von Bibliotheken. Das heißt also du hast immer irgendwie eine Betriebsanleitung, eine Anweisung und nach der läuft etwas ab. Ein Geschäftsgang halt, ein klassischer. So und bei Wikidata ist es schon ein bisschen anders, das kommt ja eben wirklich aus dieser Wikipedia-Philosophie, da macht man halt, wenn man gerade Zeit hat und wenn man gerade Lust hat und so wie man es gerade irgendwie vernünftig findet und dann diskutiert man darüber. Diskutieren willst du in Bibliotheken eigentlich nicht, sondern da willst du nachgucken, wie ist es im Regelwerk hinterlegt und dann machst du es so. Dann kann man noch drüber diskutieren, ob das Regelwerk richtig ausgelegt wurde oder nicht. Und das führt dann schon zu durchaus kulturell interessanten Situationen, um es mal so zu sagen. Wir hatten beispielsweise mal …

Tim Pritlove
1:08:40
Ralf Stockmann
1:08:44
Tim Pritlove
1:08:51
Ralf Stockmann
1:08:55

Ja schon, aber so der Grundmindset ist da schon ein bisschen ein anderer. Also das konkrete Beispiele, was ich bringen würde, war, wir haben auch noch zur Göttinger Zeit, also ich noch in Göttingen war, versucht, mal unsere wissenschaftlichen Sammlungen nach Wikidata reinzubringen. Das heißt also wissenschaftliche Sammlungen, da ging es um Objekte, was weiß ich, also irgendwie ein medizinisches kriminal-medizinische Sammlung, wo also irgendwie die Gehirne von Mördern in Formaldehyd irgendwo in Regalen drin standen. Oder Meteoriten waren es glaube ich dann auch, hatten wir da viel in Göttingen, was irgendwer gesammelt hatte. Und da ging es einfach nur darum, nicht die einzelnen Objekte in Wikidata reinzubringen, also nicht das einzelne Mörderhirn oder den einzelnen Meteoriten, sondern nur die grundsätzliche Information darüber, es gibt an der Universität Göttingen eine Sammlung, die im medizinischen Bereich angesiedelt ist, mit einem Schwerpunkt irgendwie Kriminalhistorie, was auch immer. Da gibt es eine Sammlung und da gibt es einen Kustos, den kann man irgendwie ansprechen und da ist die Adresse und da erfahrt ihr mehr. Und da ist vielleicht noch eine Homepage. Diese auch sehr Metainformation wollten wir in Wikidata reinbringen. Dann hatten wir Kooperationen und das dann aber halt zu hunderten oder tausenden von Sammlungen, damit man irgendwo mal einen Ort hat, an dem man nachgucken kann, welche Sammlung gibt es überhaupt? Und wir hatten dann glaube ich drei Treffen mit den Leuten von Wikidata und die liefen alle irgendwie ein bisschen sperrig. Weil die also – wir hatten natürlich ein Interesse daran, so das ist jetzt diese Liste von 400 Sammlungen, die wollen wir da reinbringen. Wir haben selber die Leute, nämlich Bibliothekare, die das machen können, wir stellen auch die Manpower. Wir wissen, wie es geht, ist das okay für euch? Und dann fingen die schon an, irgendwie sehr rumzulavieren, nach dem Motto, naja könnt ihr schon machen, jetzt etwas zugespitzt, aber es kann halt auch passieren, dass es fünf Minuten später wieder gelöscht wird. Ganz so extrem haben sie es nicht gesagt, aber eigentlich schon. Weil ist halt …

Tim Pritlove
1:11:01
Ralf Stockmann
1:11:01
Tim Pritlove
1:11:42
Ralf Stockmann
1:11:43
Tim Pritlove
1:12:23
Ralf Stockmann
1:13:54
Tim Pritlove
1:14:38
Ralf Stockmann
1:14:41

Ja was soweit erst mal vielleicht auch okay wäre. Schlimmer wäre, wenn er da halt anfängt drin rumzuschreiben und Eselsohren reinmacht und Wasser drüber schüttet, wenn es denn nur Wasser ist. Im Digitalen ist die Sache halt alles ein bisschen schwieriger. So das heißt also, was immerhin schon mal völlig unstrittig ist, etwa anders als bei Museen, ist, dass schon mal alle Metadaten frei sind in Bibliotheken. Das ist ganz ganz breiter Konsens. All das, was wir im Bereich eben der Erschließung mit den ganzen Normdaten und den ganzen sonstigen Metadaten beschrieben haben, die geben wir immer und ausschließlich frei und umsonst zu jeglicher Nachnutzung nach draußen. Das heißt also public domain. Jetzt noch nicht mal creative commons oder so was und irgendwie nennt uns, wenn ihr die nutzt, sondern Bibliotheksmetadaten sind per Definition immer frei. Das ist schon mal ein ganz wichtiges Statement, das ist anders als bei Museen. Die beispielsweise argumentieren, in unseren Museumsmetadaten da stehen beispielsweise wirklich wissenschaftliche Erkenntnisse über Provinienzforschung drin. Wann ist dieses Objekt von wem, wo bei einer Auktion erworben worden und dann restauriert und so weiter, da hat ein Wissenschaftler ein halbes Jahr dran gearbeitet, das steht jetzt in den Metadaten drin, darum können wir diese Metadaten nicht rausgeben, denn das ist irgendwie quasi wissenschaftlich schützenswert. Das ist bei Bibliotheken nicht so. Bei den Inhalten ist es halt wirklich dann schwieriger. Hatte ich gerade eben gesagt, unproblematisch 70 Jahre nach Tod des Autors, das heißt also die Sachen sind dann eigentlich per Definition public domain, auch der Vorgang des Digitalisierens schafft dort meiner Meinung nach kein neues Urheberrecht irgendwo, also keinen neuen Schutzbereich. Darüber wird viel diskutiert in der Bibliotheksszene, ich habe da eine sehr klare, vielleicht auch radikale, Meinung. Aber es wird halt immer gesagt, naja wir können jetzt nicht Beethovens 9. in voller Qualität ins Netz stellen, weil dann kommen irgendwelche Verlage und machen einen Reprint und irgendjemand druckt da Poster draus oder sonst was, Da würde ich sagen, super. Das ist doch prima.

Tim Pritlove
1:16:45
Ralf Stockmann
1:16:49
Tim Pritlove
1:17:04
Ralf Stockmann
1:17:04
Tim Pritlove
1:17:14
Ralf Stockmann
1:17:20
Tim Pritlove
1:17:45
Ralf Stockmann
1:17:47

An diesem einen Bild. Und bei Bibliotheken ist es aber eigentlich juristisch, das habe ich auch mit Armin Talke, der hat da einen sehr schönen Aufsatz zu geschrieben, das ist quasi mein Haus- und Hofjurist an der Stabi. Für den Bibliotheksbereich muss man eigentlich nur eine ganz einfache Frage klären. Nämlich wenn man in einer perfekten Welt leben würde und den perfekten Buchscanner hat, wenn ich dasselbe Buch dann zweimal durch diese Maschine durchlaufen lasse, kommen dann identische Bilder raus oder sind die Bilder unterschiedlich. Und man würde sagen, in einer perfekten Welt kommt immer dasselbe Bild raus, das nämlich perfekt quasi den Inhalt reproduziert. Das bedeutet aber im Umkehrschluss, dass ich eigentlich jede Art von Kreativität oder von irgendwie künstlerischem Anspruch eliminieren möchte aus dieser Scankette. Ich möchte eben gerade, dass es immer gleich aussieht, dass es möglichst dicht am Original ist. Ich möchte da keine Interpretation haben des Objektes. Und damit hat man eigentlich schon sehr schnell die Antwort gefunden, ob durch ein Scan neues Urheberrecht entsteht oder nicht. Wenn man eigentlich möchte, dass es immer gleich aussieht und dass es immer perfekt aussieht, kann kein Urheberrecht daran entstanden. Und darum bin ich also der Meinung, was immer 70 Jahre nach Tod des Autors digitalisiert wird in Form von Flachwaren und Buchscannern ist natürlich public domain und da können wir noch nicht mal creative commons dransetzen. Weil noch nicht mal dafür haben wir die Rechte. Aber das ist sicherlich nicht unbedingt die Mehrheitsmeinung innerhalb des deutschen Bibliothekswesens, die ich hier vertrete.

Tim Pritlove
1:19:13
Ralf Stockmann
1:19:20
Tim Pritlove
1:20:22
Ralf Stockmann
1:20:35
Tim Pritlove
1:20:44
Ralf Stockmann
1:20:47
Tim Pritlove
1:21:02
Ralf Stockmann
1:21:03
Tim Pritlove
1:21:47
Ralf Stockmann
1:21:51
Tim Pritlove
1:22:37
Ralf Stockmann
1:22:49
Tim Pritlove
1:22:50
Ralf Stockmann
1:23:07

Ja.

Tim Pritlove
1:23:08
Ralf Stockmann
1:23:59
Tim Pritlove
1:24:08
Ralf Stockmann
1:24:23
Tim Pritlove
1:24:45
Ralf Stockmann
1:24:46
Tim Pritlove
1:25:09
Ralf Stockmann
1:25:35
Tim Pritlove
1:25:48
Ralf Stockmann
1:25:53
Tim Pritlove
1:26:38
Ralf Stockmann
1:26:50
Tim Pritlove
1:27:07
Ralf Stockmann
1:27:09
Tim Pritlove
1:27:29
Ralf Stockmann
1:27:34
Tim Pritlove
1:27:47
Ralf Stockmann
1:27:54
Tim Pritlove
1:28:18
Ralf Stockmann
1:28:22
Tim Pritlove
1:29:11
Ralf Stockmann
1:29:12
Tim Pritlove
1:29:58
Ralf Stockmann
1:30:02
Tim Pritlove
1:30:17
Ralf Stockmann
1:30:25
Tim Pritlove
1:31:07
Ralf Stockmann
1:31:11
Tim Pritlove
1:32:09
Ralf Stockmann
1:32:14
Tim Pritlove
1:33:04
Ralf Stockmann
1:33:11
Tim Pritlove
1:33:12
Ralf Stockmann
1:34:29
Tim Pritlove
1:34:37
Ralf Stockmann
1:35:50
Tim Pritlove
1:36:59
Ralf Stockmann
1:37:03
Tim Pritlove
1:37:41
Ralf Stockmann
1:37:45

Sie können auch nochmal irgendwie mit normalen Menschen irgendwie versuchen, das zu übersetzen. Das ist zum Beispiel so eine der Varianten, die wir versuchen. Und wo ich persönlich, aber das ist jetzt sicherlich ein bisschen Zukunftsleserei, ein riesiges Potenzial eigentlich für Bibliothekare sehe, ist KI-Training. Weil dieser ganze Bereich der Erschließung, was wir eben gesagt hatten, mit dem Metadaten auf Objekten, das ist natürlich eigentlich auch eine richtig fies langweilig dröge doofe Arbeit. Also diese Pagenierungssequenz beispielsweise bei den Scans, die wir da hatten, wo geht es jetzt rum von arabisch zu römisch, ich meine das ist elendig zu erfassen für ein Werk. Genauso jetzt irgendwie Inhaltsverzeichnisse abtippen und zu sagen, auf welcher physischen Seite stehen die, das macht echt keinen Spaß. Und da jetzt irgendwie Normdaten raussuchen, da käme man gar nicht mehr auf den Gedanken, das noch händisch zu machen, zu gucken, welche Orte und welche Personen tauchen jetzt auf welcher Seite auf, das geht schon überhaupt nur maschinell. Ich habe ja wirklich, weißt du ja auch schon, haben wir schon drüber gesprochen, ganz ganz rote Ohren bekommen bei deiner CRE-Folge über Machine-Learning und Deep-Learning Algorithmen. Wenn ich denn was zu sagen hätte, ich würde jetzt in Berlin mir 3-4 Koryphäen im Bereich Machine-Learning einkaufen, würde mich mit denen gerne ein Jahr einschließen und mal gucken, welche der klassischen Bibliothekserschließungsmechanismen man eigentlich hier und heute schon mit Deep-Learning Algorithmen schon relativ gut in den Griff bekommen könnte. Und dann wird man nämlich dazu kommen, dass man so, wie es immer so ist, 70-80% des Materials kriegt man gut abgefrühstückt und dann fängt das Grauen an, bei den fehlenden 20%. Und Bibliotheken haben dann eben schon, und ich denke auch zurecht, den Anspruch, naja man will schon an die 100% rankommen, weil das ist unser Missionstatement, exakt sein. Und dann eben nicht irgendwie Pi mal Daumen und Unschärfe drin haben. Und hier kommen dann glaube ich diese besonderen Skills von Bibliothekaren rein, zu sagen, quasi auf die Ergebnisse der Deep-Learning Algorithmen zu gucken und zu sagen, ja ich verstehe schon, warum ihr das da reinklassifiziert habt, aber es ist falsch aus dem und dem Grund. Das heißt also ich glaube, es könnten perfekte Trainer sein für KIs. Und da müsste man vielleicht mal ein bisschen Geld drauf werfen. Aber man hat auch immer so viel anderes zu tun. Aber ich glaube nicht, perspektivisch werden wir die, gerade wenn man so in Begriffen wie BigData rechnet, die ganze Erschließungsebene, das werden wir nicht mehr händisch weitermachen können. Das wird sich irgendwann überlebt haben dieses Modell. Und das soll auf gar keinen Fall die Arbeit entwerten, die die tausenden Kolleginnen und Kollege all die letzen Jahrhunderte gemacht haben. Aber in Zukunft glaube ich sind das Aufgaben, die doch eher durch KIs zu lösen sind. Aber die müssen wir trainieren, denen müssen wir das Richtige beibringen, denen müssen wir auch die richtigen Grundsätze beibringen, die kann man nicht einfach machen lassen. Und das ist glaube ich so eine der zukünftigen Kernaufgaben von Bibliothekarinnen und Bibliotheken. Damit müssen wir jetzt anfangen, denn ansonsten werden die ganzen Algorithmen wieder von denen entwickelt, die eine ganz andere Agenda haben.

Tim Pritlove
1:40:45
Ralf Stockmann
1:41:44
Tim Pritlove
1:41:46
Ralf Stockmann
1:42:05
Tim Pritlove
1:42:07
Ralf Stockmann
1:42:43
Tim Pritlove
1:42:50
Ralf Stockmann
1:42:52

Das ist einer der bekanntesten und renommiertesten deutschen Musikverlage. Die also über viele viele Jahrzehnte, nicht ganz Jahrhunderte, aber ich glaube, ich weiß nicht, wann der gegründet worden ist, ich denke schon so 19. Jahrhundert, das komplette Verlagsarchiv. Die Hälfte davon ist nach München gegangen von dem Archiv, die andere Hälfte zu uns an die Staatsbibliothek und noch ein paar Spezialbestände noch an andere Archive, aber die können wir jetzt mal ignorieren. Und in diesem Verlagsarchiv sind dann jetzt also zum einen wirklich Noten. Also der Verlag hat im Kern mit Notenpartituren gehandelt. Wenn du also ein Konzert hast, muss jeder der Musiker irgendwie sein Notenblatt vor sich haben und die kauft man bei einem Musikverlag und einer davon ist beispielsweise Schott. Und es also so, dass dann die Komponisten Exklusivverträge haben in der Regel mit einzelnen Verlagen und der beispielsweise mit Wagner. Das heißt also, also alle Wagner-Noten gibt es also vom Schott-Verlag. Und dieses ganze Archiv hat jetzt aber eben nicht nur Wagner, sondern auch noch tausende von anderen Komponisten bei sich mit drin. Und zwar nicht nur die Noten, sowohl handschriftlich als auch hinterher die gestochenen Fassungen, die dann hinterher gedruckt worden sind, sondern in diesem Archiv ist auch die ganze Geschäftskorrespondenz des Verlages enthalten, nämlich wie es eigentlich zum Vertragsabschluss zwischen Verlag und Komponist kam. Und das ist schon ganz spannend, da mal reinzugucken, wie lief das denn eigentlich wirklich ab? Der Leiter der Musikabteilung der BSB München, Herr Dr. Nägele, hat das wirklich schön letzte Woche mal zusammengefasst. Man kommt jetzt hin in der Wissenschaft weg von Fragestellungen so, sich immer nur die Großkupferten anzugucken und so was hat Wagner dann noch irgendwo gemacht? Sondern ein solcher Bestand ermöglicht es plötzlich mal drauf zu gucken, wie funktioniert eigentlich das Musikgeschäft insgesamt? Und zwar mit Schwerpunkt auf Geschäft. Und dann sieht man, dass da ganz viel triviales und banales passiert. Da sieht man dann plötzlich den Brief der Mutter an den Verlag, ihr Bub sei wirklich ein ganz ganz talentierter und er bräuchte doch wirklich ein neues Bett und darum müssten sie ihm doch bitte mal das Libretto abkaufen. Und dann siehst du plötzlich auch Komponisten, die Sachen einreichen, die dann wirklich ganz frei hinschreiben, so war letzte Woche wieder in Paris bei der Aufführung von Oper XY, hier habe ich mal die fünf relevanten Melodien als Klavierpartitur. Und ich setze mich noch hin und mache noch die restlichen drei und dann ist diese Oper aber auch abgearbeitet. Das heißt also Copyfraud haben die da betrieben. Und es gab also offensichtlich eine vitale Industrie oder Gewerbe, dass also Komponisten, die es selber so ein bisschen einfacher haben wollten, sich irgendwo international in Opern gesetzt haben und dann darauf abgeleitet mit leichten Variationen Partituren … Und das muss man jetzt gar nicht musiktheoretisch erschließen, sondern das schreiben die selber rein in diese Geschäftskorrespondenz.

Tim Pritlove
1:45:56
Ralf Stockmann
1:45:58
Tim Pritlove
1:46:33
Ralf Stockmann
1:46:38
Tim Pritlove
1:47:44
Ralf Stockmann
1:48:02
Tim Pritlove
1:48:24
Ralf Stockmann
1:48:28
Tim Pritlove
1:48:38
Ralf Stockmann
1:48:40
Tim Pritlove
1:48:41
Ralf Stockmann
1:49:24
Tim Pritlove
1:50:03
Ralf Stockmann
1:50:09

Ja.

Tim Pritlove
1:50:10
Ralf Stockmann
1:50:11
Tim Pritlove
1:50:36
Ralf Stockmann
1:50:42
Tim Pritlove
1:50:58

Aber ich meine gerade bei Filmen wäre genau dieser Ansatz der künstlichen Intelligenz des Machine-Learning noch sehr viel interessanter. Weil ich meine das Analysieren von Videomaterial ist ja in gewisser Hinsicht noch schwieriger, als das Analysieren von Buchtexten. Also so gescannte Wörter etc., also da weiß man ja sofort, worum es geht. Oder man weiß zumindest was da gesagt wird. Man muss halt die Sprache können, man muss irgendwie die Semantik der Sprache haben, aber das sind ja zumindest ansatzweise gelöste Probleme. Während dieses reine, ich schau mir jetzt mal mit einer Maschine einen Film an und danach weiß die Maschine worum es in diesem Film ging und was in welcher Sekunde an welcher Stelle zu sehen war, das sind ja Dinge, die wir jetzt auch langsam sehen. Da gibt es ja dieses schöne Beispiel der Katzenvideos. Dass man sich halt einfach mal so YouTube durchgenudelt hat und dann gab es danach eine Datei, wo drin stand, ja in diesem YouTube-Film an Minute 1:37 rechts oben Katze. Und wenn man halt genauso herangeht, dann kann man natürlich Schauspielererkennung etc. bis hin vielleicht eben auch zu Handlungselementen irgendwann erkennen. Ja und dann hätte man ja Dual-use. Ich meine hätte man die Entwicklung, die man da reinsteckt, dann eben auch wunderbar schon mal geschaffen, um sie auch auf andere Ziele anzusetzen. Also ich würde jetzt mal sagen, das ist vielleicht gar nicht so schlecht, dass man sich jetzt auf Video konzentriert und man könnte ja doch hier mit dem selben Argument kommen. Weil wer hat schon die Zeit, sich alle Filme anzuschauen. Aber sich mal wirklich alle Filme mal anzuschauen mit dem Computer, das wird ja ein richtiger Spaß.

Ralf Stockmann
1:52:34
Tim Pritlove
1:52:48
Ralf Stockmann
1:53:06
Tim Pritlove
1:53:07
Ralf Stockmann
1:53:31
Tim Pritlove
1:53:58
Ralf Stockmann
1:55:11
Tim Pritlove
1:55:38
Ralf Stockmann
1:55:40
Tim Pritlove
1:55:43
Ralf Stockmann
1:55:47
Tim Pritlove
1:56:06

Na beide haben so ein bisschen das Problem, dass sie natürlich auch in ihrem Datenwald zwar irgendwie Dinge, auf die viel gezeigt wird, herausgebracht haben. Das war ja sagen wir mal die Stärke von Google, dass man einfach gesagt hat, Wahrheit bildet sich dadurch ab, dass viele drauf zeigen. Der Page Rank, das Relevanzkriterium. Nur diese Metrik greift offenbar nicht mehr. Weil auf einmal Leute Wege finden, wie man auch viel zeigen kann. Das war ja schon vorher immer ein endemisches Problem, hat sich jetzt aber in dieser Nachrichtenlage nochmal doppelt verschärft, weil man eben auch so dieses Überlagern von Information. Also ich möchte gerne, dass eine Information nicht wahrgenommen wird. Klar da kann man mit Zensur und Blockieren irgendwie rangehen. Hat sich aber gezeigt, ist viel billiger, einfach genug Alternativwahrheit daneben zu stellen und schon ist die Verwirrung groß. Und es fehlt halt an der Stelle eben wieder an dieser Orientierung. Und das ist ja auch ein Problem, was die Wissenschaft als solche auch hat und eigentlich auch immer zu lösen vorgegeben hat. Weil nicht wahr, wie stelle ich denn fest, was quasi die etablierte Meinung über ein bestimmtes Thema ist? Wie kann ich denn darlegen, dass der Klimawandel sozusagen relevant ist? Ja viele Wissenschaftler sagen das. Aber in dem Moment, wo man diesen Wissenschaftlern auch wieder misstraut, sind wir denn in der Lage, aus unseren Daten, die wir gewonnen haben, auch ein belastbares Wahrheitsgerüst herzustellen, was auch vielleicht im Idealfall für Jedermann nachvollziehbar ist? Das würde ja helfen. Und ich glaube, das sind auch so die Überlegungen, die bei Google und Facebook gerade eine Rolle spielen.

Ralf Stockmann
1:57:41

Hier schließt sich jetzt halt ein bisschen der Kreis. Bibliotheken haben ja einfach jetzt mal ein Skalierungsproblem. Das heißt also bei dem was ich ganz am Anfang sagte, so diese Auswahl einer Sammlungsstrategie einer Bibliothek. Was bewahren wir, was sammeln wir und was lassen wir aber auch links und rechts liegen, weil es einfach mal nicht relevant ist. Also Bibliotheken waren ja auch immer ein Relevanzfilter. Weil die haben ja auch nicht wild einfach alles gemacht, sondern nur eine klare Auswahl getroffen. Im digitalen Bereich ist das halt einfach durch unsere klassischen Mechanismen, die wir in der Bibliothek haben, eigentlich de facto nicht mehr zu lösen. Also wir können jetzt nicht halt die – man kennt ja diese Charts, in wie vielen Tagen sich die Informationen des Internets verdoppeln. Da kommt kein Bibliothekar mehr durch. Da irgendwie eine Orientierung noch zu bringen. Das heißt also, hier würde ich dann wirklich eher wieder so eine Schleife sehen, okay wenn man so was dann auch irgendwie über KIs lösen möchte, dann wiederum Bibliothekare quasi als Trainer einsetzen dafür, was sind jetzt irgendwie Relevanz- und Selektionskriterien, die irgendwie einigermaßen funktionieren. Das wäre dann also schon wieder eher so ein Ansatz. Ich sehe im Moment nicht ehrlich gesagt, dass das in der Bibliotheksszene hinreichend ernsthaft diskutiert wird. Und das sehe ich schon als ein strategisches Problem unserer Häuser an. Weil wie gesagt, ich glaube Bestand wird für Exotenthemen und Orchideen immer noch eine Rolle spielen, aber perspektivisch mittelfristig eigentlich nicht, sondern da wird es darum gehen, wie wir im digitalen Raum, dieser Informationsexplosion Herr werden und gerade eben dort dann auch Untrieben irgendwie uns entgegenstellen und dafür überzeugende Konzepte zu finden, das wird nicht einfach. Und eigentlich könnten Bibliotheken da eine gute Rolle spielen.

Tim Pritlove
1:59:20
Ralf Stockmann
1:59:26
Tim Pritlove
1:59:27
Ralf Stockmann
1:59:28

Also was zum Beispiel gut funktioniert ist wirklich, dass Bibliotheken auch als Lernort – das heißt also dieses Konzept, ich bin als Mensch leicht ablenkbar, die Prokrastination liegt überall am Wegesrand und vielleicht mach ich besser noch den Abwasch, anstatt irgendwie meine Hausarbeit zu Ende zu schreiben. Da merkt man in den letzten Jahren, es wird eigentlich immer weniger Bestand ausgeliehen in den Bibliotheken, aber die Lesesäle sind trotzdem konstant voll oder werden immer voller. Das heißt also, wir Menschen leben dann eben doch nicht im Digitalraum, zumindest noch nicht, sondern sind noch irgendwie so physisch real im dreidimensionalen unterwegs. Und da einen Ort zu haben, der mich zu einer gewissen Konzentration animiert, das ist schon mal eine gute Sache. Also als solches haben Bibliotheken auf jeden Fall schon mal einen dank ihrer schönen Lesesäle eben auch auf jeden Fall eine sehr robuste Zukunft. Denn es gibt hier auch angestoßen durch den angloamerikanischen Bereich, aber mittlerweile auch auf breiter Ebene in Deutschland viele Debatte, wie man jetzt auch baulich darauf reagiert. Das heißt also grundsätzlich gibt es schon einen Trend im Bibliothekswesen zu sagen, okay weniger Regalmeter, die noch irgendwo in den Lesesälen stehen, das allermeiste steht sowieso im Magazin und wird hocheffizient binnen weniger Stunden irgendwie an die Theken gebracht und stattdessen gucken, wie ich diesen Lehr-/Lernraum Bibliothek noch dichter an die neuen Nutzungsgewohnheiten dran bringe. Das fängt natürlich mit gutem performantem W-Lan an. Dass Leute überhaupt erst mal schönes schnelles Netz haben. Geht aber auch zu solchen Sachen, dass man sagt, okay man definiert Gruppenarbeitsplätze, wo sich also eben nicht mehr so das klassisches „pssst“ einer Bibliothek, was also der Grundpreset eigentlich ist, gilt, sondern wo man auch mit akustischen Trennern so gearbeitet hat, dass sich mal eine Gruppe von 5-6 Leuten irgendwie hinsetzen kann und an irgendwie einem Board was entwickeln oder einen Beamer hat, wo sich alle draufschalten können und so was.

Tim Pritlove
2:01:27
Ralf Stockmann
2:01:29
Tim Pritlove
2:02:14
Ralf Stockmann
2:02:23
Tim Pritlove
2:03:12
Ralf Stockmann
2:03:15
Tim Pritlove
2:03:32
Ralf Stockmann
2:03:52
Tim Pritlove
2:04:01
Ralf Stockmann
2:04:03
Tim Pritlove
2:04:49
Ralf Stockmann
2:04:52
Tim Pritlove
2:05:32
Ralf Stockmann
2:05:43

Also im besten Fall auch zweiteres. Es kommt ein bisschen darauf an, wenn wir jetzt irgendwie eine neue Oberfläche oder eine neue Suchmaschine für ein spezielles Nachweissystem für eine Sondersammlung der Staatsbibliothek machen, dann wird das schon relativ spezialisiert sein. Weil es dann vielleicht auch wirklich auf einem spezifischen Datenmodell irgendwie basiert. Aber es gibt auch durchaus Dinge, die wir von Vornherein so generisch planen, dass man sie eigentlich auch völlig abseits vom Bibliothekskontext nutzen kann. Vielleicht ein ganz passendes Beispiel dazu, eine Sache, die ich in Göttingen erfunden habe, das waren Raum-Zeit-Visualisierungen von Daten. Da gräme ich mich immer noch ein bisschen drum, dass ich das nicht konsequent genug irgendwie durchgezogen habe so. Das hätte finde ich etwas mehr Weltruhm verdient gehabt. Das lief damals unter dem Label Europeana4D. Europeana die europäische digitale Bibliothek. Und die hatten diverse Unterprojekte und eines davon waren halt wir in Göttingen in Kooperation mit der visuellen Informatik in Leipzig. Und unser Grundgedanke war, wir wollen Daten gleichzeitig in Zeit und Raum mappen. Das war so vor sieben Jahren und da gab es eigentlich in der Richtung nichts. Es gab Google Maps und es gab Open Street Map und da konnte man eine Information auf eine Karte mappen, auch mit Informationsebenen schon. Und es gab so was wie die SIMILE-Timeline, wo man Daten innerhalb einer Zeitebene irgendwie ganz vernünftig visualisieren konnte. Und wir hatten ein Konzept erfunden, haben das dann auch publiziert, können wir mal in die Shownotes packen den Artikel, wie man beides interaktiv miteinander verbinden kann. Das heißt also, ich habe Information, sagen wir mal ein Beispieldatenset was wir hatten war Opfer rechtsradikaler Gewalt. Hatten wir aus der DBpedia sogar gezogen die Information. Und der einzelne Datenpunkt bezeichnete also den Tathergang, wo das passiert ist und wann es passiert ist. Genau die drei Informationen, die wir dafür brauchten. Und jetzt hattest du also auf einen Blick oben deine Karte, wo du schon eine räumliche Verteilung hattest. Eine unserer Fragen war nämlich, wie verhält es sich Westdeutschland vs. die neuen Bundesländer. Und unten drunter hattest du eine Zeitleiste, wo du sehen konntest, wie haben sich eigentlich jetzt diese rechtsradikalen Anschläge irgendwie über die Zeit verändert. Und jetzt soweit so noch bekannt und der Clou war dann aber die Interaktion. Das heißt du konntest beispielsweise jetzt so eine Timerange von einem Jahr unten auf der Zeitleiste markieren und hast dann direkt gesehen, wo jetzt in diesem ausgewählten Jahr oben auf der Karte die entsprechenden Anschläge waren und dann konntest du hingehen und diese Timerange verschieben auf der Zeitleiste und dann hast du oben gesehen, wie geografisch sich Schwerpunkte gebildet oder wieder aufgelöst haben. Und umgekehrt funktioniert das genauso. Das heißt also du konntest beispielsweise dann den kompletten Osten markieren und den kompletten Westen markieren und konntest dann unten auf der Zeitleiste sehen, wann waren quasi die Peaks im Osten und wann waren die Peaks im Westen. Und gab es eigentlich irgendwelche Abhängigkeiten oder Unterschiede? Also Korrelationen konnte man damit beispielsweise ganz gut rauskriegen in Zeit und Ort. Und das konnte man auf sehr sehr viele verschiedene Fragestellungen mappen, weil das Datenmodell dahinter, das waren einfach Triple, Datentriple halt, Zeit, Ort und halt irgendwie Event. Und wir hatten ein paar wirklich clevere Sachen, beispielsweise eine Schnittstelle an Flickr, Bilddatenbank. Bevor Yahoo das gekauft hat, war das so die relevante Bilddatenbank. Und da haben wir beispielsweise mal als Datenset eingeladen von Flickr, die hatten auch ein ganz gutes API, von der Tsunami-Katastrophe in Japan Fukushima, was dort die Leute an Bildern dazu in Flickr hochgeladen haben. Dann konntest du auf der Karte sehen, indem du unten auf dem Zeitstrahl gewandert bist, wie die Welle über Japan gegangen ist, anhand der Bilder, die die Leute dazu hochgeladen haben mit Timestamp und Ortsinformation versehen. Das war einigermaßen gruselig.

Tim Pritlove
2:09:38
Ralf Stockmann
2:09:38

Wie auch die Bilder selber ja. Aber es funktionierte. Und das war eigentlich ein sehr sehr schöner, sehr generischer Ansatz. Wir haben es dann auch mit Bibliotheksdaten gefüttert natürlich. Da kam es ja eigentlich her. Also beispielsweise alle Publikationen, die wir an der SUB hatten, über Goethe vs. Schiller. Du konntest auch mehrere Datensets reinladen, bis zu vier, die dann in unterschiedlichen Farben jeweils miteinander gleichzeitig abgebildet worden sind. Und dann konntest du sehen, wann also Schiller besonders populär war und in welchen Bereichen und wann Goethe dann also irgendwo on the long Run den viel größere Longtale hätte, wo zu Lebzeiten eigentlich Schiller durchaus vom Publikationsvolumen her populärer war, zumindest phasenweise. Alle solche Abhängigkeiten hattest du da plötzlich drin. Und das haben wir noch wirklich als OpenSource veröffentlicht und es haben sich auch noch etliche dran drauf gesetzt. Also Fraunhofer hat das adaptiert für die deutsche digitale Bibliothek. Ist dann allerdings da nie so richtig dann irgendwie zur Reife gekommen. Dann hat sich hier das MPI für Wissenschaftsgeschichte hat sich das genommen und hat da eine Visualisierung draus gebaut. Dann im DARIAH-Kontext, ein anderes Forschungsprojekt hat das weiterentwickelt. Also ich hatte dann wiedermal anderes zu tun, wie das dann immer so ist, und eigentlich hätte man das nochmal komplett wieder wegwerfen und neu implementieren müssen auf noch aktuellerer Webtechnik, damit das von der Usability her wirklich endnutzertauglich war. Das war schon ein Wissenschaftswerkzeug, so wie wir es gebaut hatten und du brauchtest eigentlich schon – du musst dir erst mal ein 30 Minuten Trainingsvideo angucken, damit du wirklich verstehst, wie funktioniert das Ganze eigentlich. Und wenn man nochmal so ein Vierteljahr investiert hätte, hätte man es wirklich so machen können, dass es auf Spiegel Online gut funktioniert hätte, sagen wir mal. Mittlerweile gibt es solche Sachen.

Tim Pritlove
2:11:18
Ralf Stockmann
2:11:40
Tim Pritlove
2:12:58
Ralf Stockmann
2:13:02

Ja.

Tim Pritlove
2:13:02
Ralf Stockmann
2:13:09
Tim Pritlove
2:13:13
Ralf Stockmann
2:13:29
Tim Pritlove
2:14:26
Ralf Stockmann
2:14:30
Tim Pritlove
2:15:14
Ralf Stockmann
2:15:14
Tim Pritlove
2:15:34
Ralf Stockmann
2:15:37
Tim Pritlove
2:15:57
Ralf Stockmann
2:16:01
Tim Pritlove
2:16:02