Forschergeist
Horizonte für Bildung und Forschung
https://forschergeist.de
Auf dem Weg zu einem neuen Modell wissenschaftlichen Publizierens und Forschens
Das klassische Modell des wissenschaftlichen Publikationsprozesses ist in die Jahre gekommen. Die Rahmenbedingungen, die die heutige Struktur hervorgebracht haben, verlieren immer mehr an Bedeutung oder sind bereits komplett weggefallen. Zudem schicken sich mit Open Access und Open Science Konzepte an, neue Blaupausen für die Wissenschaft in der Zukunft zu liefern.
Wir sprechen mit Nikolaus Kriegeskorte, der sich im Rahmen seiner Forschertätigkeit am Forschungsstandort der "Brain and Cognition Unit" des MRC in Cambridge, England, nicht nur mit dem Verständnis von Lernen und künstlicher Intelligenz auseinandersetzt, sondern auch die Widersprüchlichkeiten des geltenden Publikationssystems in Frage stellt und neue Methoden der Publikationspraxis fordert und fördert. Wir sprechen über die Zwänge etablierter Kommunikationskanäle und die Möglichkeiten, ein neues System für Peer Review und Reputation aufzubauen, das den Anforderungen des 21. Jahrhunderts und den Chancen der digitalen Vernetzung gerecht wird.
https://forschergeist.de/podcast/fg016-open-science/
Veröffentlicht am: 10. August 2015
Dauer: 1:52:53
Ja das ist das, was mich fasziniert. Und das ist auch das schwere Problem der künstlichen Intelligenz. Die künstliche Intelligenz hat in den 60er Jahren angefangen, so klassische Aufgaben, die wir mit hoher Intelligenz assoziiert haben, um zu erforschen, wie zum Beispiel mathematische Theoreme beweisen oder Schachspielen. Und hat dann aber festgestellt, dass diese Probleme eigentlich nicht die schweren Probleme sind, diese Probleme sind eigentlich ganz gut gelöst, weil wir sie ja auf einer abstrakten Ebene ziemlich gut verstehen. Und so ist zum Beispiel Schach ein Spiel, wo Menschen nicht mehr wirklich mit Computern konkurrieren können. Aber der Prozess, den ich gerade beschrieben habe, der fällt in eine andere Klasse. Und ist viel schwerer mit Computern zu replizieren. Und wir leben in einer Zeit, wo sich gerade eine sehr spannende Wende vollzieht in der künstlichen Intelligenz, wo Computermodelle, die direkt inspiriert sind vom Gehirn, nämlich neuronale Netzwerke, langsam erfolgreich werden in diesen basalen Wahrnehmungsfähigkeiten, wie der Objekterkennung, mit der ich mich beschäftige.
Die haben eine lange Geschichte. Die Geschichte der neuronalen Netze ist so lang, wie die Geschichte der modernen Computertechnologie. Also Alan Turing und John von Neumann, die Väter der modernen Computertechnologie, die hatten alle Ideen dazu, die vom Gehirn inspiriert waren. Die haben Diagramme gezeichnet mit künstlichen Neuronen und sich überlegt, wie die interagieren können. Und dann in den 40er Jahren gab es die Binary Threshold Unit von McCulloch and Pitts. Das war ein abstraktes mathematisches Modell eines Neurons, wo eine solche Unit, die kriegt ganz viele Eingabewerte. Das ist ein Muster von Eingabewerten. Das könnte ein Bild sein oder das könnte eine andere Sinneswahrnehmung sein. Und dann vergleicht sie diese Muster mit einem Referenzmuster und wenn die Ähnlichkeit groß genug ist, gibt sie eine 1 aus und sonst eine 0. Und das war eine riesige Inspiration für die Neurowissenschaft. Weil dieses Muster der vielen einlaufenden Signale und des einen auslaufenden Signals dem Funktionsprinzip eines Neurons ähnelt, wo man den Dendriten-Baum hat, kriegt ganz viele Eingaben und das Neuron feuert dann entweder oder feuert nicht und gleichzeitig ist dieses abstrakte mathematische Modell eine Annäherung an Kategorisierung und das ist so ein hoher kognitiver Prozess. Und die Tatsache, dass dieses Modell, diese Bücke baut zwischen dem Neuron, dem basalen Baustein des Gehirns und diesem hohen kognitiven Prozess der Kategorisierung das war eine wahnsinnige Inspiration für das Feld. Und dann haben Leute mit diesen Modellen gespielt und in den 60er Jahren haben sie gelernt, wie man komplexere Modelle mit vielen Neuronen und mit mehreren Lagen trainieren kann und das hat die Kognitionswissenschaft in den 80er Jahren revolutioniert. Allerdings funktionierten diese Modelle nicht wirklich als Wahrnehmungssysteme für die künstliche Intelligenz. Die waren nicht wirklich erfolgreich. Also wenn man denen dann reale Bilder zeigte und die sollen dann da die Objekte aufzählen, so wie wir in unserem Beispiel eben, wo der Doktorand hier rein guckt. Wenn man ein Foto machen würde von uns, und man würde jetzt aufzählen, zwei Menschen männlich, Laptop, Computer, Tisch, Kaffeetasse. Das war nicht möglich mit diesen Systemen. Und das hatte komplizierte Gründe und hat einige KI-Forscher und Informatiker dazu geführt, anzunehmen, dass das ganze Prinzip der gehirninspirierten künstlichen Intelligenz fehlgeleitet ist. Ich erinnere mich, als ich Informatikvorlesungen besucht habe in Köln, der Professor war überhaupt nicht überzeugt von neuronalen Netzen. Er hat das Thema behandelt, aber ziemlich abfällig. Also es war ganz klar, dass er nicht glaubt, dass das der richtige Weg ist. Und er hatte da gute Gründe für. Aber es gab in der Zwischenzeit eine kleinere Gruppe, also während die Informatik und die KI den neuronalen Netzen dann in den 90ern und Anfang des neuen Jahrhunderts den Rücken zugewandt hat, gab es eine kleinere Gruppe von Forschern, die da weitergemacht haben und seit 2006 sind die langsam erfolgreich geworden und im Moment vollzieht sich da gerade eine große Revolution, wo tiefe neuronale Netze mit neuen Lernalgorithmen verschiedene Bereiche der künstlichen Intelligenz revolutionieren. Und einer dieser Bereiche ist das Computersehen und das ist halt auch relevant für meinen Bereich. Weil wir wollen ja Computermodelle des biologischen visuellen Systems bauen und das heißt, wir brauchen dieselbe Technologie. Unsere Ziele sind andere Ziele. Wir wollen Systeme, die sowohl sehen können als auch Aktivitätsmuster in Gehirnen vorhersagen. Die also als Modelle für den Prozess im menschlichen Gehirn fungieren können.
Ich finde das sehr interessant, hier auch nochmal ein bisschen in die Arbeit hier am MRC einzusteigen. Schwerpunkt dieser Sendung soll ja eigentlich noch ein anderes Feld sein, nämlich mehr dieses, was ist die Konsequenz aus dem ganzen Forschen? Wie publiziert man seine Ideen? Und wie vernetzen sich halt die Wissenschaftler auch untereinander? Das ist ja so ein Prozess, der hat man so den Eindruck, ich zumindest, der stark in die Kritik geraten ist in den letzten Jahren. Mit dem Aufkommen des Internets wirkt das traditionelle System auf einmal sehr alt. Das hatten wir ja schon ein paar mal im Netz, dass Dinge auf einmal unglaublich alt wirken und man so ein bisschen anfängt, so alles anzuzählen und bei manchen Sachen geht es dann auch relativ schnell, andere Sachen halten sich hartnäckig. Vielleicht mal vorweg, bei deiner Arbeit jetzt hier und in diesem Themenfeld, welche Rolle spielt das Publizieren von Ergebnissen in der wissenschaftlichen Arbeit an sich?
Das ist ganz entscheidend. Einerseits wenn man die Wissenschaft idealistisch betrachtet als einen kollektiven Kognitionsprozess, dann ist es natürlich nicht genug, eine Einsicht zu haben oder einen wichtigen Schluss zu ziehen aus einem Experiment. Sondern man muss diesen Schluss dem kollektiven kognitiven Prozess zuführen. Man muss den teilen mit anderen, sonst hat der keinen Einfluss auf die Welt und auf den Gang der Wissenschaft. Und deshalb ist das Publizieren natürlich ein ganz integraler Bestandteil der wissenschaftlichen Arbeit. Und konkreter für den einzelnen Wissenschaftler, der jetzt im gegenwärtigen System arbeitet, ist es entscheidend für seine Karriere, Publikationen zu haben und vor allem prestigereiche Publikationen. Weil das Prestige des Journals, in dem die Arbeit publiziert wird, darüber entscheidet, wie viel Aufmerksamkeit die Arbeit bekommt und auch einen Einfluss darauf hat, wie oft die Arbeit dann zitiert wird.
Druck, dass man halt, es ist glaube ich in jedem Bereich so, man bewegt sich in einem System, dass einen belohnt für bestimmte Verhaltensweisen. Und gleichzeitig hat man seine eigenen Ideale und seine eigenen Interessen, die man gerne umsetzen möchte und in diesem Spannungsbereich muss man seinen eigenen Weg finden. Und ich glaube, das ist die Herausforderung für uns alle und was mich besonders interessiert ist, wie man das System verändern kann, so dass die idealistischen Werte, die man eigentlich für sich angenommen hat konsistenter sind mit den Verhaltensweisen für die das System den einzelnen belohnt. Und im Ganzen ist es jetzt ein bisschen abstrakt. Also konkreter jetzt. Man macht Experimente und man analysiert die Daten und dann muss man einen Artikel darüber schreiben, wo man zusammenfasst, was man da gefunden hat. Und dann hängt davon ab, welche Behauptungen man da aufstellen kann, wie sichtbar der Artikel dann veröffentlicht wird. Und das ist dann unter Umständen entscheidend dafür, ob man eine Postdocstelle kriegt und auf der nächsten Ebene als Postdoc geht das Spiel dann weiter und man machte das gleiche wieder und ob man dann langfristig eine stelle kriegt in der Wissenschaft hängt davon ab, wie erfolgreich man da ist.
Ja natürlich, man will schon, dass die Motivation für die Arbeit kommuniziert wird an eine breitere Öffentlichkeit. Also einerseits in der Wissenschaft, dass es nicht nur begrenzt ist auf ein ganz spezielles Resultat. Weil normalerweise die Motivation für ein Experiment ist allgemeiner als die Schlüsse, die dann die Ergebnisse tatsächlich erlauben und es ist wichtig, diese Motivation in diesem größeren rahmen zu verstehen und es ist wichtig auch, dass der einzelne Wissenschaftler da eine Entscheidung trifft, wie viel er sich traut zu behaupten. Das ist glaube ich im Prinzip ein gesunder Prozess. Und aber die Rahmenbedingungen für diesen Prozess die sind aus meiner Sicht nicht ideal und das hängt mit dem Veröffentlichungssystem zusammen.
Das Dokument wird eingereicht bei einem Journal und bei welchem Journal das hängt davon ab, wie man sich da die Chancen ausrechnet. Also wenn man glaubt, dass das eine Chance hat bei einem sehr guten Journal, Nature Science, Nature New Science in meinem Bereich, Neuron, Proceedings of the National Academy of Sciences, das sind Prestigejournals. Und wenn man sich da eine Chance ausrechnet, selbst wenn die Chance relativ klein ist, wenn die Chance deutlich größer ist als 0, dann versucht man es wahrscheinlich erst einmal bei einem Prestigejournal und dann würde es da zuerst mal von den Herausgebern, den Editoren beurteilt, und wenn die das interessant genug finden, dann schicken sie es zu anderen Wissenschaftlern für den Peer-Review-Prozess. Und dieser Peer-Review-Prozess, der spielt sich dann hinter geschlossen Türen ab. Also die wählen dann 2-4 andere Wissenschaftler aus, schicken denen den Artikel, die lesen den Artikel und schreiben gutachten über den Artikel und bewerten den Artikel. Und dann entscheiden die Herausgeber des Journals, ob der Artikel veröffentlicht wird oder nicht.
Ja das kann also passieren, vielleicht wird es beim ersten Journal von den Herausgebern abgelehnt, das geht dann relativ schnell, das dauert dann vielleicht nur ein paar Wochen oder einen Monat. Das ist also nicht so schmerzhaft. Schmerzhafter ist es, wenn die Herausgeber sagen, das ist interessant genug, aber jetzt wollen wir wissen, ob das auch verlässliche Ergebnisse sind, wir schicken es raus zu den Gutachtern. Dann kommen die Gutachter, aber die Gutachter sind kritisch, zu kritisch auf dieser sehr hohen ebene, da müssen die schon wahnsinnig enthusiastisch sein, und zwar normalerweise alle, damit das angenommen wird und wenn es dann abgelehnt wird, dann hat die ganze Sache mehrere Monate gedauert. Es kann auch sein, dass die Gutachter gespalten sind und die Herausgeber eine Revision einladen und dann arbeitet man nochmal dran. Dann muss man normalerweise zusätzliche Analysen machen. Unter Umständen zusätzliche Experimente machen. Also das kann auch schon nochmal sechs Monate dauern unter Umständen. Normalerweise vielleicht eher drei oder vier Monate und dann reicht man es wieder ein. Und wenn es dann abgelehnt wird, dann hat man sehr viel Zeit verloren und so normalerweise für ein ambitioniertes Projekt in meinem Bereich dauert es etwa ein Jahr bis es tatsächlich rauskommt. Das heißt das gegenwärtige System verzögert die tatsächliche Publikation von Ergebnissen um etwa ein Jahr.
Traditionell nicht. Und in den meisten Journals nicht. Manche neuen Journals experimentieren damit, die Gutachter zu nennen oder die Gutachten zu veröffentlichen. Aber ein Problem mit dem gegenwärtigen System ist, dass das Hauptsignal für die Qualität eines neuen Artikels ist das Prestige des Journals. Und die ganzen detaillierten Informationen, die im Prozess der Bewertung des Peer-Reviews produziert werden, zum Beispiel die gutachten, das sind ja Expertengutachten, wo sehr viel Zeit und Arbeit rein fließt, die bleiben alle geheim. Und das System führt zu so einer geheimniskrämerischen Kultur, wo die Wissenschaftler sich hinter ihrem rücken anonym gegenseitig abschießen unter Umständen häufig. Oder unterstützen, vielleicht banden bilden manchmal. Und gleichzeitig versuchen natürlich die meisten Wissenschaftler, da objektiv zu bleiben, aber der Anreiz ist ganz klar, je weniger objektiv und je eigennütziger man da handelt, desto größer ist der eigene Einfluss und desto weniger Zeit verschwendet man auf diesen Evaluationsprozess. Und das ist ein sehr ungesunder Anreiz. Das bedeutet für den einzelnen jetzt, dass er da ständig in so einem, also entweder hat er da gar kein Problem mit und hat das System sozusagen für sich angenommen oder wenn er idealistischer ist, dann leidet er darunter in der einen oder anderen Form. Also für mich bedeutet es zum Beispiel wenn ich einen Artikel für Nature oder Science beurteilen muss, dass ist eine Herausforderung, weil das ist sozusagen eine Entscheidung, die ist sehr wichtig für die Karriere dieses Menschen. Und gleichzeitig eine unmögliche Entscheidung, notwendigerweise subjektive Entscheidung, weil es praktisch drum geht, ob der Artikel nicht nur sehr gut ist, sondern ob er erderschütternde Konsequenzen hat für die Zukunft dieses Feldes. und das zu beurteilen erfordert eine Abschätzung der Richtung, in die das Feld sich bewegen wird und ist deshalb notwendigerweise subjektiv. Das heißt ich habe da eine Macht, die ich einfach nicht haben sollte eigentlich.
Ja, normalerweise es gibt Journals, die damit experimentieren, die Autoren zu anonymisieren, aber die meisten Journals tun das nicht. Also normalerweise weiß man das. Das ist praktisch nicht leicht, die Autoren zu anonymisieren. Weil wenn die Autoren bekannt sein wollen, dann können sie das natürlich ganz leicht, in dem sie zum Beispiel von ihrer Arbeit sprechen zum Beispiel auf Konferenzen, was normalerweise der normale gang der dinge ist, dass eine Studie auf einer Konferenz vorgestellt wird und dann weiß das Feld eh, wer daran beteiligt ist. Außerdem ist die Anonymisierung der Autoren aus meiner Sicht keine gute Strategie, um den Prozess objektiver zu machen, weil es normalerweise nicht persönliche Animositäten sind, sondern Animositäten gegen Theorien. Ich hasse das Paper nicht, weil ich den Autor hasse, sondern ich hasse das Paper, weil die Theorie nicht meiner Sicht der dinge entspricht.
Ja natürlich, also dieser Prozess der Bewertung der Wissenschaft ist extrem verrauscht, wie wir sagen, da ist ein großes Zufallselement dabei und das hängt damit zusammen, dass das Durchschnittsurteil von 2-4 Gutachtern einfach nicht ausreicht, um den wert eines Artikels zu bestimmen. Und das ist also auch Problem mit dem gegenwärtigen System, wir schicken den Artikel an 2-3 Experten und auf dieser Basis, wenn das dann ein sehr hohes Journal ist, entscheiden wir, ob wir die ganze Welt informieren. Da gibt es dann halt immer wieder die Fälle, wo die Medien in der ganzen Welt berichten über Ergebnisse und dann stellt sich heraus, dass diese Ergebnisse nicht verlässlich waren, wie in der Stammzellenaffäre zum Beispiel. Und dann wundern sich alle und dann gibt es diese aus der Perspektive eines Wissenschaftlers -
Die Obokata Geschichte, ein Artikel in Nature erschien und dann kurz danach klar wurde, dass das keine verlässlichen Ergebnisse waren. Und dann wundern sich alle, weil die Grundannahme ist, dass ein wissenschaftlicher Artikel, der durch den Peer-review gegangen ist, die Wahrheit ist. Und das ist aus der Sicht jedes Wissenschaftlers eine vollkommen naive Annahme und das Problem besteht darin, dass wir nicht aufgrund der Urteile von 2-4 Leuten entscheiden können, die ganze Welt zu benachrichtigen. Sondern der Artikel muss zuerst erscheinen und dann muss er innerhalb des Feldes diskutiert werden und dann müssen da ganz viele Wissenschaftler da ihre Meinung zu sagen und wenn dieser Prozess konvergiert und wenn dieser Prozess konvergiert in die Richtung, dass das tatsächlich eine sehr wichtige Sache war, dann vielleicht ein Jahr später kann man dann die ganze Welt benachrichtigen. Und dafür haben wir jetzt im Moment zwar die Technologie und wir haben die Ideen, also wir sammeln da Ideen zu, wie so ein System funktionieren könnte, aber wir haben dazu noch nicht die wissenschaftliche Kultur und wir haben das gegenwärtige Publikationssystem, was solche Prozesse nicht unterstützt. Und auch aktiv natürlich zu verhindern versucht, weil da starke finanzielle Interessen im Spiel sind.
Mich hat das angefangen zu interessieren, als ich Postdoc war in den national Institutes of Health in Bethesda in Amerika und obwohl ich sehr beschäftigt war wurde mir plötzlich klar, dass das System anders funktionieren muss und ich war dann davon besessen ein paar Monate, habe darüber nachgedacht und meine andere Arbeit schleifen lassen und habe in der Zeit ein Blog angefangen zu diesen Themen und seitdem hat mich dieses Thema weiter beschäftigt. Und nachdem ich dann nach Cambridge gezogen bin, habe ich eine Sammlung von Artikeln herausgegeben mit Visionen für die Zukunft des wissenschaftlichen Publikationssystems und im besonderen dazu, wie wir über Open Access, über den freien zugriff auf Artikel, der natürlich eine wichtige Voraussetzung ist, hinausgehen können und eine Open Evaluation Bewegung starten. Wo es so um die offene Evaluation, um die Öffnung des Peer-review-Prozesses geht. Wo es darum geht, die gutachten alle zu Publikationen zu machen. So dass sobald ein gutachten eingereicht wird, alle auch das gutachten auch begutachten können und idealerweise die gutachten auch, die Autoren der gutachten auch offen angegeben werden.
Gutachten, die gutachten in der Länge können die von einem abschnitt über eine Seite bis zu zehn Seiten lang sein. Also typische Länge wäre vielleicht 1-2 Seiten und das ist schon detailliertes Argument normalerweise über das Paper und normalerweise konstruktiv. Das fängt oft mit einer allgemeinen Einschätzung an und geht dann in die Details dessen, was verbessert werden soll. Und als junger Reviewer war das für mich, habe ich da versucht, die Argumente für und wider zu betonen, um diesem binären Urteil, was mir subjektiv und unter Umständen nicht gerechtfertigt erschien aus dem Weg zu gehen. Allerdings lernt man in diesem Prozess, dass das dazu führt, dass selbst Artikel, wo die Probleme sehr groß sind, tatsächlich nicht abgelehnt werden. Und dann kriegt man den Artikel wieder und dann haben die Autoren da nochmal sechs Monate dran gearbeitet und dann fällt es schwer, den in dieser Phase dann noch abzulehnen. Und wenn er wirklich nicht gut ist, wenn man wirklich nicht glaubt, dass sich da was retten lässt, dann lernt man als erfahrener Gutachter, doch zu diesem eher binären Urteil zu kommen. Es ist trotzdem ein detailliertes Argument und soll auch ein Argument sein, was konstruktiv ist und was den Autoren hilft, in der nächsten Phase, wenn sie es dann bei anderen Journals versuchen, dann da einen besseren Artikel einzureichen. Aber trotzdem ist oft gutachten auf dieser hohen ebene so ein binäres Urteil implizit und es geht schon darum, zu entscheiden, die Editoren, die entscheiden das natürlich, formell die Gutachter entscheiden das nicht, aber tatsächlich ist es oft sehr klar, was die Gutachter, ob die Gutachter finden, dass der Artikel in dieses Journal gehört oder nicht.
Ja genau, und das ist das Problem. Weil das ist tatsächlich kein gutes Signal für die Qualität eines Artikels. Also erst mal ist die Veröffentlichung zu stark verzögert um etwa ein Jahr sehr häufig bei ambitionierten Arbeiten. Zweitens ist das Qualitätssignal, was man dann hat nach einem Jahr, das Prestige des Journals, kein verlässliches Signal über die Qualität des Artikels. Und drittens ist der Prozess der Bewertung nicht transparent und schafft sehr ungesunde anreize für Wissenschaftler und perpetuiert eine geheimniskrämerische Wissenschaftskultur, die einfach lächerlich ist. Und deshalb ist die Herausforderung aus meiner Sicht für die Wissenschaft und die Wissenschaftler, eine neue Wissenschaftskultur zu erfinden. Und dazu brauchen wir ein neues System für die Bewertung wissenschaftlicher Artikel, was vollkommen transparent ist. Und das Internet gibt uns dafür schon die Technologie. Das heißt in gewisser Hinsicht kann man damit einfach sofort anfangen.
Ja. Also man muss halt Wege finden, mit den alten Gewohnheiten zu brechen und man muss darüber nachdenken. Man hat eh schon viel zu tun und jetzt soll man plötzlich alles ganz anders machen und wenn man dann damit anfängt, dann sind damit Kosten verbunden. Einfach mal ganz konkret aus meiner Sicht, ich sage zum Beispiel, alle gutachten sollen öffentlich sein. Ich schreibe ja selbst gutachten. Also ein schritt, den man tun kann ist, seine gutachten alle zu unterschreiben, das mache ich jetzt. Aber das ist natürlich mit einem gewissen Risiko verbunden, weil ich will ja nicht immer nur Positivgutachten und wenn ich dann Artikel ablehne und dann unterschreibe, dann sind die Autoren da ganz bestimmt nicht glücklich drüber. Und da besteht die Gefahr, dass man sich da Feinde macht. Das ist jetzt zum Beispiel eine unmittelbare Herausforderung da. Der zweite Aspekt ist, wir wollen die gutachten veröffentlichen. Jetzt gibt es die Internettechnologie. Ich habe ja ein Blog, da kann ich auf meinem Blog im Prinzip meine gutachten veröffentlichen und das ist mein plan. Aber das fällt mir sehr schwer, weil ich eh viel zu tun habe und jetzt im Moment meine gutachten ja noch in dem alten System schreibe. Also das Journal wendet sich an mich, ich schreibe das gutachten und das gutachten ist ja auch geheim und die Ergebnisse sind offiziell geheim, obwohl vielleicht schon bei Konferenzen vorgestellt. Und deshalb kann ich mein gutachten nicht in dem Moment veröffentlichen, wo ich das gutachten schreibe.
Ja das wäre schon problematisch. Ich weiß nicht, was die legale Lage da ist. Aber ich würde sozusagen die Ergebnisse verraten vorher. Obwohl das auch ein bisschen natürlich eine Farce ist, weil die meisten Journals akzeptieren, dass Autoren ihre Artikel auf sogenannten Preprintservers veröffentlichen, lange vor der Veröffentlichung in dem Journal. Also praktisch alle, die meisten Wissenschaftler wissen das überhaupt nicht, das ist erstaunlich. Praktisch alle Journals akzeptieren, dass man seinen Artikel tatsächlich veröffentlicht auf einem sogenannten Preprintserver, wo jeder den herunterladen kann und dann kann man ihn trotzdem noch im Journal einreichen und der kann dann später, nachdem er evaluiert worden ist, in dem Journal veröffentlicht werden. Das heißt der Artikel in dem Fall ist dann schon veröffentlicht, ein Jahr bevor er rauskommt oder dergleichen. Trotzdem gilt diese Information offiziell als geheim. Und wenn das dann ein sehr prestigereiches Journal ist, dann gibt es zum Beispiel ein Presseimbargo und dann in den sechs tagen vor der offiziellen Veröffentlichung darf dann keiner darüber sprechen, was die Ergebnisse sind oder Interviews dazu geben, obwohl die Ergebnisse alle schon seit über einem Jahr im Netz stehen.
Ja genau. Arxiv. Das ist ein sehr einflussreicher Preprintserver, wo Physiker und Mathematiker und Informatiker zunehmend und auch schon lange ihre Artikel veröffentlichen. Die sind da der biomedizinischen Forschung weit voraus in Bezug auf die Nutzung des Internets. Also im Prinzip haben wir die Technologie, um unsere Arbeiten sofort zu veröffentlichen, und zwar auf sogenannten Preprintservern, die heißen Preprint, weil die Sachen vor dem Print erscheinen. Und Preprintserver ist natürlich keine sehr gute Wahl für einen Namen, weil Print ist möglicherweise eh nicht erforderlich. Und Preprint lässt es so klingen als sei es keine richtige Veröffentlichung, aber ich würde argumentieren, dass das tatsächlich die Veröffentlichung ist, weil das ist der Punkt, wo der Artikel öffentlich zugreifbar ist. Und wenn er in einem Prestigejournal erscheint, ist er tatsächlich nicht öffentlich zugreifbar, weil man bezahlen muss dafür für den zugriff.
Genau, das ist genau der Punkt. Die Frage ist, was ist der Mehrwert, den die Verleger beisteuern? Was verkaufen die uns eigentlich? Das ist immer eine interessante Frage, ich erinnere mich an einen Dokumentarfilm, den ich in den 90er Jahren gesehen habe, der heißt Manufactoring Concent und da wurde Noam Chomsky interviewt und wenn ich mich richtig erinnere, sprach er darüber, was die New York Times verkauft und ich glaube sein Argument war, die New York Times verkauft nicht etwa Zeitungen, sondern die New York Times verkauft Leserschaften an Werber. Und das hängt einfach damit zusammen, wie viel Geld die halt durch Werbung kriegen und wie viel Geld durch den verkauf von Zeitschriften. Das ist natürlich sehr wichtig, zu wissen, um die Motivation zu verstehen. Und nachdem ich dann in Amerika gelebt habe und immer die New York Times gelesen habe, weil die ja eine wahnsinnig tolle Zeitung ist, wahnsinnig gut geschrieben und unterhaltsam. Aber gleichzeitig würde ich schon sagen, dass man das merkt, was die finanziellen Motivationen sind dahinter. Und was dabei rauskommt ist halt so eine Art Schlaflied für das Leben in Amerika, auf sehr hohem Niveau. Und bei den wissenschaftlichen Verlegern müssen wir auch fragen, was ist es eigentlich, was die uns verkaufen? Und was die uns jetzt noch verkaufen, wenn sie Open Access, wenn sie den zugriff nicht mehr verkaufen können, das wird immer schwieriger für sie, wegen der Open Access Bewegung, den zugriff auf wissenschaftliche Artikel zu verkaufen. Aber was sie uns weiterhin verkaufen ist ihr Evaluationsprozess. Die Prestigelabels der Journals, die wahnsinnig wichtig sind für die Wissenschaft, um die Literatur zu priorisieren und damit wir auswählen können, was wir lesen, und damit wir uns selbst profilieren können und das ist halt für unsere Karriere wichtig. Und das heißt was auch immer das Publikationssystem ist, es muss diese beiden Hauptfunktionen erfüllen, den zugriff und die Evaluation. Wir brauchen den zugriff, damit wir alles lesen können, was veröffentlicht wird und wir brauchen die Evaluation, damit wir nicht alles lesen müssen, damit wir die Spreu vom Weizen unterscheiden können und auswählen können, was wir lesen.
Dann ein neuer Artikel erscheint, dann wird der normalerweise, wenn er von einer wichtigen Gruppe ist oder wenn er als wichtig erscheint aufgrund seines Titels und des Abstracts, dann wird er diskutiert in Labs in der ganzen Welt. Also vielleicht erst mal in den Labs, die an sehr ähnlichen Fragen arbeiten. Also gibt es vielleicht dann 20-100 Labs über die Welt verteilt, die den Artikel lesen und diskutieren und da kommen ja sehr detaillierte Urteile bei raus und das Problem im Moment ist, dass diese Urteile dann in dem Raum bleiben und der Artikel hat schon seinen Stempel durch das Prestige des Journals, in dem er erschienen ist. Und ich stelle mir das so vor, dass in Zukunft wird der Artikel einfach ein Jahr früher erscheinen und zwar unbewertet. damit die ganze Gemeinschaft den Artikel lesen kann und damit die Wissenschaftler, die am meisten davon verstehen und sich deshalb auch am meisten dafür interessieren, dann sich die Details angucken können und den Artikel bewerten können. Und das würde dann daran bestehen, dass anstatt den einfach nur zu diskutieren in dem Lab, dass dann nachher ein gutachten drüber geschrieben wird und Bewertungen veröffentlicht werden.
Man kann sich vorstellen, dass es ein allgemeines System für die gesamte Wissenschaft geben könnte. Das wichtige ist, dass die Internettechnologie mit Blogs zum Beispiel, man kann seine Artikel nicht auf Blogs veröffentlichen, weil Blogs sind nicht zitierbar und man kann sich nicht darauf verlassen, dass die Artikel dann da für immer abrufbar sind. Das heißt ein wichtiger Aspekt, der sich unterscheidet von der Kultur im Internet ist, dass die Veröffentlichung ein Akt sein muss, den man nicht zurücknehmen kann. Man kann zwar Revisionen einreichen, die dann zuerst sichtbar sind, aber die ursprünglichen Versionen die müssen für immer abrufbar sein. So dass der Akt des Publizierens schon so ein wichtiger Schritt ist für einen Wissenschaftler, den man sich auch zweimal überlegt. Weil obwohl man es, natürlich kann man Fehler eingestehen und man kann Verbesserungen machen, aber man kann nichts zurücknehmen und alles muss für immer zitierbar und abrufbar sein.
Und dadurch, dass ich auch eine Methodik verwende in diesem Gutachtenprozess, der so eine definierte Quantifizierung verschiedener Aspekte hat, Relevanz, technisches was weiß ich, Fertigkeiten, die hier gezeigt wurde, deswegen fragte ich vorhin so nach Kriterien. Also man müsste wahrscheinlich so 4-6 verschiedene Grundkriterien mindestens betrachten und vielleicht noch ein paar optionale haben, die man je nach Thema vielleicht dann noch mit dazu nimmt. Die dann aber auch eine genormte Skala der Bewertung haben. Da sind wir jetzt wieder bei diesen Sternchen. Ich finde ja Sternchen. funktionieren nicht so gut im Internet, aber sagen wir mal, wenn man eben ganz klar abgegrenzte schritte hat, wo man sagt, von vollkommen irrelevant bis besser geht es nicht, aber nicht so ein gut, besser, sondern dass man eben immer so stufen hat, mit hier wurde genug nachgeschaut, hier wurde genug überprüft. Hier sind sagen wir mal die Anforderungen an die Überprüfbarkeit der Ergebnisse entsprechend einem bestimmten Standard etc., wenn man das halt so quantifiziert rein gibt, dann schafft man ja auch noch eine automatisierte Vergleichbarkeit von Papers.
Ja, eine ganz einfache Variante wäre, dass man diese Bewertungen vielleicht auf einer Skala von 0-99 und dann die erste Skala wäre vielleicht die Signifikanz oder Wichtigkeit des Artikels und die zweite Skala die Verlässlichkeit der Titelbehauptung. Wenn man einfach diese Bewertungen mittelt, dann hat man ein Profil der Bewertung, was schon sehr nützlich wäre und was, wenn mindestens ein dutzend Bewertungen da eingeflossen wären und wenn man diesen Bewertungen trauen kann, insofern als dass die Bewerter zu ihren Bewertungen stehen und unterschreiben, dann wäre das ein viel verlässlicheres Signal, als wie wir es bisher haben. Und zusätzlich zu dem Mittelwert hätte man dann auch die Verteilung der Bewertungen, also wie konsistent die Bewertungen sind über die verschiedenen Bewerter hinweg und das würde uns in die Lage versetzen halt statistische Inferenz zu betreiben und zu fragen, ob wenn ein Artikel eine höhere Bewertung hat als ein anderer Artikel, ob das tatsächlich ein signifikanter unterschied ist oder ob das im Bereich der Zufallsvariationen sich bewegt. Also das wäre sozusagen ein naives System dafür, diese Bewertungen zu kombinieren, um dann die gesamte Literatur zu priorisieren. Tatsächlich kann man sich natürlich ganz viele verschiedene Systeme vorstellen dafür. Wie man zum Beispiel die verschiedenen Skalen dann gewichtet, um dann eine einzige Rangfolge der Literatur zu erzeugen. Und da gibt es ganz viele Entscheidungen zu treffen, zum Beispiel soll es hauptsächlich drum gehen, wie interessant oder inspirierend der Artikel ist oder soll es darum gehen, wie verlässlich die Behauptungen sind. Wenn es nur das letztere ist, dann werden die erfolgreichsten Artikel vielleicht ganz langweilige Artikel, die extrem verlässlich sind. Tatsächlich brauchen wir all diese Skalen und es muss möglich sein, die ganze Literatur halt nach all diesen Kriterien zu ordnen oder auch die Urteile in verschiedener Weise miteinander zu kombinieren. Zum Beispiel mit verschiedenen Gewichtungen dieser Kriterien. Und aus meiner Sicht, was wir da brauchen ist eine Art Gewaltenteilung zwischen dem System, was diese Urteile sammelt, sowohl die gutachten und das ist Text und Argumente, die jeder lesen kann, wenn er will. Als auch die numerischen Bewertungen. Das ist die eine Gewalt. Das ist das System, das Open Evaluation System, was die Urteile sammelt. Und dann auf der anderen Seite brauchen wir Systeme, die diese Urteile kombinieren, um die Literatur zu priorisieren und den zugriff zu vereinfachen. Und das wäre dann zum Beispiel, es gäbe dann so Webportals, die würden die Funktion von Journals erfüllen. Die sich auf einen bestimmten Inhaltsbereich konzentrieren, um als Interface zu fungieren für eine bestimmte Gruppe, zum Beispiel Neurowissenschaftler.
Könnte, ja genau. Und so ein Webportal würde dann halt die neuen Artikel zeigen und die Artikel, die höhere Bewertungen haben, nach einer Formel, die dieses Webportal definiert, die werden dann sichtbarer auf der Website. Allerdings kann jeder seine eigene Formel erfinden und die Basis, die Evidenz, die Urteile auf den diese Formeln beruhen, sind alle öffentlich zugreifbar. Das heißt der gesamte Prozess ist total transparent und wenn man sagt zum Beispiel, mir gefällt die Auswahl nicht, die Society for Neuroscience zum Beispiel hat ihr Webportal, wo sie die Literatur priorisiert und mir gefällt das aber nicht, weil ich festgestellt habe, dass ich da häufig wichtige Artikel verpasse zum Beispiel. Dann kann ich auch meine eigene Formel definieren und kann zum Beispiel sagen, Bewertungen von etablierten Wissenschaftlern will ich nicht berücksichtigen, ich verlasse mich auf die Urteile von Doktoranden und Postdocs zum Beispiel oder umgekehrt, vielleicht finde ich, dass Doktoranden nicht erfahren genug sind und schließe die aus aus meinen Bewertungen für meine Rangfolge. Oder ich möchte Wissenschaftler, die in bestimmten Bereichen arbeiten, die relevanter sind für mich, deren Urteile höher gewichten. Man hätte da die Möglichkeit, halt jede beliebige Formel zu verwenden. Und die Tatsache, dass es so eine Pluralität gäbe von Bewertungsformeln würde auch dazu führen, dass es sehr schwer wird, das System zu gamen. Also irgendwie seine eigenen Artikel da zu pushen, weil es eben diese Pluralität gibt von Bewertungssystemen. Also zum Beispiel Bewertungen müssten möglich sein, die man unterschreibt, aber auch anonyme Bewertungen müssen möglich sein, das ist sehr wichtig, weil man Argumente abgreifen will aus der wissenschaftlichen Gemeinschaft, deren Autoren vielleicht soziale Folgen fürchten. Also stellt sich zum Beispiel vor, dass ein junger Doktorand ein Problem sieht in einem Artikel von einem sehr berühmten Lab und vielleicht ist das ein brillantes Argument, was nachweist, dass dieser Artikel vollkommen falsch ist, aber der Doktorand traut sich nicht, da seinen Namen drunter zu setzen. Dann muss er die Möglichkeit haben, das auch anonym zu dem Prozess beizutragen. Und so werden wir dann anonyme und unterschriebene Urteile und gutachten in dem System haben. Und wir werden einen Weg finden müssen, die zu gewichten und verschiedene Webportals mögen das verschieden lösen.
Da ich ja auch selber so einen Computerhintergrund habe, und sagen wir mal nicht identische, aber zumindest vergleichbare Prozesse ja auch sehe, in der Veröffentlichung von Computercode. So Phänomene wie Github, wo ja auch Unmengen an Sourcecode sichtbar ist und Bewertungen also nicht unbedingt eine primäre rolle spielen, weil Software und Wissenschaft ist dann schon nochmal zwei verschiedene Felder. Aber wo man auf jeden Fall gesehen hat, wie unglaublich positiv dieser öffentliche Umgang mit Code sich auf die komplette Szene ausgewirkt hat. Also welchen unheimlichen Schub das Softwareengineering an sich bekommen hat durch so eine öffentliche Plattform. Nicht nur Github, aber vor allem Github, also überhaupt das Veröffentlichen von Software und auch der Umgang mit Änderungen. Also dass man mit verteilten Versionssystemen explizit tracken kann, wurde dieser Code hat sich auf diese oder jene Art verwendet. Person XY hat zu dem Zeitpunkt die und die Änderung vorgenommen. Die einfach auch eine ganz andere Verlässlichkeit schafft. Auch ein ganz anderes Verständnis fördert für die Programmierleistung. Wenn ich mir das selbe jetzt eben vorstelle für ein Paper, was zu einem Zeitpunkt einfach mal veröffentlicht wurde. Nach dem Motto, ja wir haben jetzt hier mal 20 Testreihen gemacht lalala, das war jetzt der erste Zustand und dann sieht man in so einer Historie für dieses Paper, oh da wurde so ein interessanter Gong angeschlagen, da kamen sie dann gleich alle angelaufen und haben gesagt, das wollen wir uns aber mal genauer anschauen. Dann sieht man so 10-20 vielleicht auch schon bekannte Reviewer oder Gutachter, die halt sozusagen auch schon einen Namen haben als Reviewer. Vielleicht deren Hauptarbeit schon gar nicht mehr so darin liegt, selber die ganze Zeit Papers zu produzieren. Die aber irgendwie eine Gabe entwickeln, die Fehler in anderen Papers zu finden, die sich vielleicht viel mehr auf Methodiken und Fehlerfindungen usw. spezialisiert haben. Dadurch wird hier Interesse geschaffen. Dann sehe ich, oh jetzt sind die aber nochmal beigegangen, weil sie gesehen haben, ihre aussagen waren missverständlich oder hätte man nochmal beigehen können etc., dann wurde dieses Paper aktualisiert. Also über die Zeit sieht man ja dann nicht nur einen einzigen Zeitpunkt, zu dem mal irgendeine Erkenntnis geliefert wurde, sondern man sieht im Prinzip die vollständige Historie und vollständige wissenschaftliche Aktivität um dieses Thema herum, durch diese endlose Vergangenheit.
Ja, das ist wahnsinnig inspirierend, was da im Open Source Bereich passiert, also als Modell für Kollaboration. Und das öffnet noch eine größere Debatte, und zwar um Open Science. Das ist also noch eine Entwicklung, die über das hinausgeht, was wir vorher beschrieben haben, nämlich, dass nicht nur die Bewertung von Artikeln, nachdem sie im Prinzip fertig sind, sondern den ganzen Prozess der Wissenschaft. Und da gibt es halt auch eine Bewegung, die Open Science Bewegung, wo Wissenschaftler den ganzen Prozess öffnen wollen. Also alle Ergebnisse sofort veröffentlichen, zum Beispiel auf ihren Blogs, so dass es dann freie Zusammenarbeit geben kann. Und da gibt es ein Präzedenzfälle. Ich glaube in der Mathematik, ein Beweis eines Theorems, was da ganz wahnsinnig schnell kollaborativ im Netz zustande gekommen ist interaktiv, wo ganz viele Leute einfach über das selbe Problem nachgedacht haben und dann immer sofort ihre Teillösungen veröffentlicht haben und das ist im Moment, das ist sozusagen weit davon weg, Mainstream zu sein, aber das ist eine wahnsinnig inspirierende Vision für die Zukunft der Wissenschaft, wo der ganze Prozess transparent ist und das passt gut in diesen rahmen und geht noch weiter.
Ja Konferenzen sind sozusagen wie eine Abstufung von Veröffentlichungen. Sozusagen eine schwächere Form von Veröffentlichung. Und das hängt vom Bereich ab, wie sich das verhält zu den Journals. Also zum Beispiel im Bereich Machine-learning, in der Informatik gibt es viele Konferenzen, wo man tatsächlich ein kurzes Paper einreicht und das Paper ist zitierbar für immer. Also praktisch der Konferenzbeitrag ist ein echter zitierbarer Beitrag und möglicherweise gibt es keine andere Veröffentlichung zu diesem Konferenzpaper und das ist der Artikel praktisch. In meinem Bereich ist das nicht so, in meinem Bereich sind Konferenzen zwar Veröffentlichungen. für die eigene Gemeinschaft der anderen Wissenschaftler, die an der Konferenz teilnehmen, aber das einzige was da im Netz verfügbar ist ist ein Abstract, eine Kurzzusammenfassung und die gilt nicht als volle Veröffentlichung. Also wenn ich zum Beispiel was brillantes mache und ich habe die Ergebnisse und ich stelle das auf einer Konferenz dar und da gibt es ein Abstract und jeder sieht den Abstract und den Titel im Netz von der Konferenz, aber dann brauche ich noch ein Jahr, um das zu veröffentlichen und in der Zwischenzeit veröffentlicht jemand anderes etwas ähnliches, dann ist die historische Realität, dass die andere Gruppe das zuerst gemacht hat. Und das hängt damit zusammen, dass halt Artikel, da ist es halt wirklich, weil mit so einem Abstract kann man nicht beurteilen, behauptet der das nur oder ist da tatsächlich die Datenbasis gegeben?
Da sind wir gerade in einer ganz interessanten Phase, weil sich das gerade verändert. Also ich zitiere zum Beispiel in meinen Artikeln Preprints. Und das heißt ich zitiere Artikel, die tatsächlich noch nicht durch den Peer-review-Prozess gegangen sind und noch nicht in traditionellen Journals veröffentlicht worden sind. Das tue ich bei Artikeln, die ich trotzdem für wichtig halte, weil ich sie selbst evaluiert habe, ich habe sie selbst gelesen und das ist ein sehr interessanter Prozess. Wir hatten zum Beispiel so einen Fall mit meinem letzten Doktoranden, der jetzt Postdoc am MIT ist, wo wir zwei Artikel zitiert haben von einer Gruppe am MIT, die nur auf Preprintservern verfügbar waren und die so ähnliche Ergebnisse hatten, wie wir selbst auch. Und de facto haben wir unseren Artikel zuerst in einem offiziellen Journal, nämlich PLOS Public Library of Science Computational Biology veröffentlicht, aber wir zitieren zwei Artikeln, die nur auf Preprintservern sind und zwei Monate später kam dann ein Artikel raus in dem selben Journal, PLOS Computational Biology, der einem dieser früheren Artikeln entsprach, also das war die offizielle Version, der unseren Artikel nicht zitierte. Also das war ein interessanter Fall und mein Doktorand war dann ganz traurig und sagte, ja jetzt waren wir zuerst in dem klassischen System und wir zitieren die, weil wir großzügig sind, wir müssen sie nicht zitieren, weil das ist ja nur ein Preprintserver, das ist ja sozusagen nicht die Realität.
Also die größere Frage ist, wie wir unsere Urteile nicht nur in der Wissenschaft, sondern auch über die Wissenschaft hinaus, zum Beispiel im Journalismus und in anderen Bereichen der Gesellschaft unsere Urteile teilen und unsere Urteile zusammenfließen lassen zu einem kollektiven Kognitionsprozess. Und wenn wir da Computertechnologie und Internettechnologie. dazu verwenden, dann bedeutet das natürlich auch, dass dann künstliche Intelligenztechnologien da relevant werden für die Integration all dieser Urteile. Und ich finde das wahnsinnig spannend, darüber nachzudenken, einerseits wie man diese Interaktionen gestalten will durch Webtechnologie, so dass der kollektive Prozess so effizient wie möglich ist in Bezug auf die Destillierung der Wahrheit. Und wie man die KI da mit einbeziehen kann. Und ich stelle mir vor, dass in ein paar Jahren der Gebrauch des Internets. eine andere Qualität haben wird, insofern als wir da nicht passiv nur abrufen werden. Also es ist natürlich auch jetzt schon interaktiv, insofern als wir wählen, was wir sehen und wir klicken durch Hyperlinks. Aber insofern ist es aktiver als zum Beispiel fernsehen gucken, wo man vielleicht nur umschalten kann oder zwischen 30 Programmen wählen. Das ist einfach eine Auswahl, die sehr viel simpler ist. Aber in Zukunft im Internet wird die Information auch in die andere Richtung laufen stärker. Das heißt, in dem wir lesen, werden wir gleichzeitig urteilen. Und urteilen nicht, was wir jetzt schon tun ist, worauf wir klicken, das wird wahrgenommen vom Internet zum Beispiel von google und hilft dabei, die Suchergebnisse in die richtige Rangfolge zu bringen. Aber in Zukunft werden da explizite Kommentare und Bewertungen hinzukommen. Es gibt da Versuche, Technologie zu entwickeln, um das web zu annotieren. Also wenn man was liest im web, dann kann man eine Behauptung zum Beispiel in der New York Times oder in der deutschen Zeit, die könnte man dann da markieren und dann rechts klicken und dann eine Bewertung hinterlassen, dieser Behauptung. Und wenn wir eine solche Technologie hätten, das könnte dazu führen, wenn die Technologie richtig gestaltet ist und wenn die Kultur dieses Urteilens, dieser Interaktion im web mit solchen Systemen sich positiv entwickelt, dazu führen, dass die Behauptungen, die aufgestellt werden im Internet viel verlässlicher sind. Weil wenn man zum Beispiel was veröffentlicht, was tatsächlich keine Basis hat, dann würde das einfach sofort debunked, sofort.
Ja das ist wahnsinnig spannend. Also zum Beispiel die Algorithmen, die google verwendet, die kann man ja nicht einsehen. Also vielleicht wenn man darüber lesen würde, könnte man schon Sachen dazu finden, aber generell verstehen wir nicht genau, wie das funktioniert. Einerseits ist es unvermeidlich, wenn man in einer komplexen Kultur arbeitet, dann kann man nicht erwarten, alles zu verstehen, worauf sich andere spezialisiert haben und das muss man einfach akzeptieren und das ist ja auch nichts neues. Das hat nichts mit dem Internet zu tun, sondern mit komplexen Kulturen, wo es Arbeitsteilung gibt und wo sich Menschen spezialisieren. Aber eine große Herausforderung ist, diese Prozesse so transparent wie möglich zu gestalten und die Prozesse, die zu einem bestimmten Urteil führen, vollständig zu veröffentlichen. Also wenn ich zum Beispiel eine Aussage, eine Behauptung sehe, die eine hohe Bewertung hat in diesem System, dann muss es möglich sein, für mich das zu hinterfragen und den gesamten Strang von Urteilen, Argumenten und Diskussionen zu dieser Aussage zu sehen. So dass der gesamte Prozess, der zu dieser hohen Bewertung führt dann transparent ist für mich. Und es muss möglich sein, dass es da einen Pluralismus gibt von Systemen, die diese ganze Evidenz, diese ganze evaluative Evidenz, die ganzen Urteile von Menschen in einer anderen Weise integrieren und möglicherweise zu anderen Ergebnissen kommen. Und das finde ich wahnsinnig spannend. Ich stelle mir vor, dass das extrem gut funktionieren wird. So ähnlich wie wir, wenn wir von einem Ereignis in den Nachrichten hören, dann sind wir vielleicht skeptisch, was die Auswahl der Informationen angeht. Aber wenn da zum Beispiel berichtet wird, dass es eine große Explosion gab irgendwo, dann sind wir ziemlich sicher, dass das tatsächlich passiert ist. Und ich glaube, so ähnlich wird das dann auch mit dem Internet sein.
Ja ist ja jetzt schon mit dem Internet so, dass zum Beispiel Wikipedia sehr vertrauenswürdig ist, was Lehrbuchwissen angeht. Wo es schwieriger ist, ist wenn wir uns in Bereiche der Wissenschaft bewegen, wo die Ergebnisse ganz neu sind und wo es noch Debatten gibt, da ist es schwieriger und da brauchen wir diesen Prozess, der die Wahrheit destilliert und der unsere kollektiven, tiefsten Intuitionen explizit macht. So dass wir schon früher in dem Prozess, der wissenschaftliche Ergebnisse zu allgemein akzeptierten Lehrbuchwissen macht, mit größerer Sicherheit sagen können, was wir vertrauen können, welchen Ergebnissen wir vertrauen können. Und das lässt sich auch anwenden natürlich auf Nachrichten letztlich. Nachrichten, da gibt es das selbe Problem, da geht es um eine kleinere Zeitskala, nicht um Naturgesetze, sondern um Ereignisse in der Welt. Und da ist sehr viel Potenzial dafür, dass wir tatsächlich unsere eigenen Konfusionen überwinden und auf einer höheren ebene da agieren können als Gesellschaften.