Ulrich Dirnagl
Genau. Das ist nur ein Aspekt davon. Und insofern gleichzeitig … also die technischen Möglichkeiten, das hat auch was mit OpenData und so weiter zu tun, natürlich konnte ich in einem Journal alten Stils nicht meine Daten mit rein packen, aber heute, wenn ich eine Publikation auf dem Netz habe, dann sind die Daten, dass die da mit drinnen sind ist ja quasi nur ein Klick davon weg. Gleichzeitig haben wir aber Hinweise darauf, dass das Journalsystem was wir haben zumindest teilweise mit dafür verantwortlich ist, dass die vorher schon angesprochenen Probleme auch existieren. Also dass zum Beispiel darüber, dass eben Journale, die spektakuläres publizieren und dann auch den Impact-Factor, also diese Maßzahl für wie oft ein Journal zitiert wurde, quasi zur Karrierewährung wird in der Wissenschaft.
Dadurch entstehen Anreize in dem System, die manchen sogar zur Unredlichkeit, das sind die wenigsten, aber zu Unredlichkeit verführen, wenn Sie heute eine Nature-Arbeit und eine Cell???-Arbeit haben, dann können Sie im Grunde, wenn Sie ein junger Wissenschaftler sind, davon ausgehen, dass Sie in wenigen Jahren eine Professur haben. Gibt es eine schöne Website dazu, da können Sie – die heißt glaube ich PI-Predict, also Principle Investigator Predict, - da können Sie eingeben, was Sie für Publikationen haben und dann haben die mit einem statistischen Modell gerechnet, wie groß die Wahrscheinlichkeit ist, dass Sie innerhalb von fünf Jahren eine eigenständige Professur haben. Und wenn Sie das da eingeben und die ist sozusagen validiert und das funktioniert und ich kenne Kollegen, die selber sich sozusagen retrospektiv dort getestet haben, die haben gesagt, das stimmt genau. Das ist also von solchen Publikationen dann abhängig.
Wenn Sie wissen, dass das so ist, dass Sie also mit ein oder zwei Arbeiten eine Rente bis an Ihr Lebensende bekommen und nur noch 50% für die Krankenversicherung bezahlen, dann ist das für manchen schon zu viel der Versuchung. Aber das sind zum Glück nur wenige. Aber es führt natürlich bei mehreren dazu, dass man das Spektakuläre sucht und das was eigentlich auf dem Weg liegt, am Wegesrand lässt, weil in der Biologie ist nichts schwarz und weiß, aber solche Journale publizieren nur schwarz und weiß. Und das Graue geht verloren. Das ist jetzt die Kritik an den High-Impact-Journalen. Die Journale sind gar nicht zu kritisieren, aber dass das System das so bewertet. Und auf der anderen Seite gibt es natürlich das Predators???-Publishing und ich kriege am und jeder Wissenschaftler kriegt am Tag 1-2 Einladungen, in Journalen zu publizieren, deren Namen er noch nie gehört hat oder die Person noch nie gehört hat.
Und das sind also obskure Geldverdienmodelle, wo Sie also eine Publikation eigentlich nur dafür kriegen, dass Sie halt dann dafür bezahlen, dass es in eine richtige Review kriegt??? und so weiter, das ist auf der anderen Seite des Spektrums. Sie können heutzutage sozusagen auf Knopfdruck eine Publikation kriegen. Das zeigt an, dass dieses System üebrholungsbedürftig ist. Und Kriegeskorte hat in einer Arbeit mit ich glaube einer Menge Kollegen zusammen Modelle vorgestellt, auch so ein bisschen durchaus, lass uns mal ganz verrückte Sachen überlegen oder weniger verrückte Sachen. Ich persönlich favorisiere ein Modell und ich denke, dass hat er auch schön ausgearbeitet, indem wir einen offenen Review-Prozess haben, in dem der Review selber Teil des Artikels wird letztlich. Wir arbeiten ja in einem System, wo geheim da vor uns hinwurschteln.
Und als Editor eines Journals selber weiß ich, das ist schon wichtig und das ist auch gut und so manches Paper ist dadurch besser geworden. So manches Paper ist dadurch nicht in dem Journal publiziert worden, das wird dann in einem anderen publiziert, wo die Gutachten anders funktionieren. Aber durch relativ einfache Veränderungen, die elektronisch sogar so einfach sind wie nur irgendwas, könnte dieser Prozess des wissenschaftlichen Publizierens übers Nacht zu einem wirklichen wissenschaftlichen Ereignis gemacht werden. Ein wissenschaftliches Ereignis meine ich mit, Wissenschaftler treten sich mit offenem Visier gegenüber, sie diskutieren ihre Arbeiten. Diese Diskussion wird Teil der Community, weil sie offenlegt, Sie können jetzt nicht irgendwelche Kollegen einfach zur Schnecke machen, weil Sie wissen, das kriegen die nie raus, dass Sie ein Paper sozusagen unfair begutachten. Sie können es aber auch nicht über den grünen Klee loben, weil Sie von dem irgendwas anderes sich erwarten. Weil Sie ja das lesen, das würden andere auch lesen und sagen, jetzt ist er aber verrückt geworden der so und so, offensichtlich hat er es nicht richtig gelesen oder so was.
Also die Qualität der Reviews würde sich erhöhen. Das ganze Wissen und Knowhow, das in diesen Reviews steckt, würde in der Community mitgeteilt werden und die Community könnte dann an dem ganzen Prozess teilhaben durch weitere comments. Es gibt ja ganze Communities, in denen das mittlerweile heutzutage funktioniert. Irgendjemand hat mal den Vergleich gemacht zu Produktbewertungen bei Amazon. Und das witzige ist, dass wenn Sie Amazon hat dann geguckt, da gibt es irgendwie Super Mario oder so ein Spiel und da gibt es Produkte dazu und da gibt es 18.000 Produktbewertungen dazu, 18.000. Ob die gut oder schlecht sind will ich nicht bewerten, ich kenne ja nicht mal das Spiel. Aber da setzen sich Leute hin und sagen wie sie es finden und was sie gut finden und schlecht finden. Die wissenschaftliche Community, die aber sonst auf Kongresse geht und dort auch diskutiert und so, ist in einer Schockstarre diesem Medium gegenüber.
Wo ich mich doch jetzt hinstelle, die regen sich lieber bei einem Bier drüber auf oder grummeln vor sich hin und sagen, so einen Mist habe ich ja noch nie gelesen. Anstatt dass man sich hinsetzt und fünf Zeilen dazu schreibt und dann lesen das auch andere. Ich glaube, das könnte man auch relativ milde anfangen. Also für mich ist es ein schönes Beispiel ein Journal, das heißt F1000 Research, das hat all diese Momente, die ich gerade genannt habe, ohne es jetzt irgendwie ganz radikal zu betreiben, da ist auch der Qualitätsmaßstab absolut ausreichend. Da werden teilweise sogar vier Reviews eingefordert, normal sind zwei. Also dass das geht ist belegt, dass es nicht dazu führt, dass wir im Sumpf verschluckt werden ist glaube ich auch klar. Es ist halt noch nicht, Sie kriegen nichts dafür sozusagen.
Also ich fange jetzt an, in Berufungskommissionen, wo ich auch sitze, Leute zu fragen, na wie viele neutrale oder negative Publikationen habe Sie denn veröffentlicht? Bei wie vielen Ihrer Daten sind denn die Daten im Netz? Wie viele Ihrer Publikationen sind eigentlich OpenAccess? Das ist für mich nicht das absolute Kriterium. Einen Wissenschaftler kann man nicht nur daran messen, ob er qualitativ gut arbeitet, weil man kann auch wahnsinnig langweilig sein und irrsinnig tolle Qualität haben, das reicht nicht aus. Aber so ein zusätzliches Kriterium, wir könnten das ganz milde einführen. Wir könnten sagen, ja jetzt gehen wir doch mal 90% nach dem alten Modell und 10% führen wir neu ein. Wir müssen jetzt da keine Palastrevolution machen, sondern wir könnten eigentlich milde, geradezu experimentell vorgehen. Und man könnte sogar … ich habe sogar die Idee, die ist vielleicht wirklich verrückt … aber man könnte in manchen Bereichen sogar studienmäßig vorgehen.
Man könnte in einem gewissen Bereich sagen, dort machen wir das zum Standard und in dem anderen machen wir das Standard und drei Jahre später schauen wir doch mal, wo die angekommen sind. Klingt jetzt ein bisschen verblasen, aber ich könnte Beispiele nennen, wo das durchaus durchführbar und auch sinnvoll wäre. So was kann als Experiment gefahren werden und dann lernen wir aus den Dingen, wir sind ja Wissenschaftler. Aber die Wissenschaftler sind bei diesen Dingen so konservativ.
Meta-Analysen, die Alvan Feinstein als „statistische Alchemie für das 21. Jahrhundert“ bezeichnet, erscheinen mir als Antwort auf die Frage von Tim Pritlove, ob es eigene Wissenschaftszweige gibt, die die Forschung selbst untersuchen, nur bedingt geeignet. Es mag ja sein, dass Meta-Analysen in einigen Fällen einen Gewinn für die Naturwissenschaften bedeuten können – sofern sie gut gemacht sind, sie also z. B. nicht – wie so oft – mit erbsenzählerischer Akribie übersehen, dass sie Äpfel und Birnen vergleichen oder sie unter dem Garbage-in-Garbage-out-Problem leiden usw. Sie beantworten aber weniger die Frage nach dem Wie der Forschung, als vielmehr die nach dem Wieviel. Für Wissenschaften deren Gegenstände sich nur unter skurrilen Verrenkungen quantifizieren lassen, möchte ich den Nutzen dieser Analysen zudem einmal grundsätzlich anzweifeln. Dennoch gibt es gerade in diesen Disziplinen die m. E. einschlägigsten Arbeiten zu der Frage, wie Forschung und Wissenschaft funktionieren. Auf den Wissenschaftshistoriker Hans-Jörg Rheinberger wurde in dem Podcast diesbezüglich ja schon verwiesen. Etwas überrascht war ich, dass nicht auf den Immunologen und Erkenntnistheoretiker Ludwik Fleck verwiesen wurde, der mit seinem Werk „Entstehung und Entwicklung einer wissenschaftlichen Tatsache“ seiner Zeit (30er Jahre) extrem weit voraus war. Er zeigte auf, was heute in der Wissens- und Wissenschaftssoziologie als Gemeinplatz gilt: Wissenschaftliche Fakten sind in ihrer Konstitution nicht ohne das Soziale, die konkrete Praxis im Labor und den historischen sowie gesellschaftlichen Kontext zu verstehen. Fleck analysierte am Beispiel der Syphilis, wie Krankheiten und ihre Behandlungen sowie ihre medizinischen Beschreibungen durch soziale und gesellschaftliche Aspekte konstruiert werden (z. B. die Sicht der Gesellschaft auf Sexualität). Vor diesem Hintergrund ist zudem auf die Arbeiten von Thomas Kuhn zu verweisen, der eindrücklich die Simplifizierungen des Popperschen Falsifikationismus aufzeigte und dieser Normvorstellung von Wissenschaft empirisches Wissen zum Funktionieren der Wissenschaften gegenüberstellte. Die sozialen Facetten des Erkenntnisgewinns, die auch in den Naturwissenschaften gegenwärtig und – wie es scheint – für ihr Funktionieren mehr als relevant sind, wurden später (70er und 80er) mit den „Laborstudien“ empirisch weiter ausdifferenziert: Soziologen wie z. B. der Franzose Bruno Latour, die Österreicherin Karin-Knorr Cetina oder der Brite Stephen Woolgar entfalteten als Beobachter analytische Blicke auf die Alltagpraxis in naturwissenschaftlichen Laboren. Alle diese Arbeiten befassen sich mit dem Wie der Wissenschaften und leiteten für ihr modernes Verständnis wegweisende Beiträge.
Ich würde allerdings sagen, die medizinische Forschung und die Biowissenschaften sind hier insofern ein wichtigerer Kandidat als „Wissenschaften deren Gegenstände sich nur unter skurrilen Verrenkungen quantifizieren lassen“, weil die Kosten der Forschung, damit der Mitteleinsatz und auch die Folgekosten einer Ausnutzung des Systems viel höher sind. Es lohnt sich also auf deren besondere Bedürfnisse abzustellen, bevor man zur allgemeineren Betrachtung geht.
Ein Verständnis des sozialen Kontexts des Laborgeschehens oder Publikationsklimas ist für das Reformieren der wissenschaftlichen Prozesse eine notwendige Dimension. Wenn es aber darum geht Datenerhebungen und Ergebnisse der Vergangenheit zu bewerten, wird es im Allgemeinen nicht möglich sein, deren spezifische mikrosoziale Umgebung zu rekonstruieren. Und es geht ja nicht nur um soziale Prozesse, viele Fehlerquellen gehen schlicht auf kognitive Heuristiken zurück, die keine besondere soziale Komponente haben. Statistische Werkzeuge, auch Metaanalysen, sind das passendere Mittel, aber wenn man ehrlich ist läuft es bei den meisten Ergebnissen auf Wiederholung hinaus. Eine Praxis der Veröffentlichung von Negativergebnissen wäre dabei natürlich enorm hilfreich.
Pingback: Augenspiegel 17-16: Vergebung für lange unbeantwortete Emails - Augenspiegel