Forschergeist
Horizonte für Bildung und Forschung
https://forschergeist.de


FG027 Vertrauen und Kontrolle in der Wissenschaft

Über die Reproduzierbarkeit von Studien und Methoden zur Qualitätskontrolle

Die präklinische Biomedizin hat ein Qualitätsproblem, sagt unser Gesprächsgast Ulrich Dirnagl. Der renommierte Schlaganfall-Forscher von der Berliner Charité hat Hunderte Fachveröffentlichungen zu Schlaganfall und Krebs untersucht und ist zu alarmierenden Erkenntnissen gekommen: Die Studien-Ergebnisse sind oftmals nicht reproduzierbar, Protokolle sind lückenhaft, wichtige Daten nicht verfügbar. Hinzu kommen Mängel im Design und der Auswertung von experimentellen Studien, wie zum Beispiel das Fehlen von randomisierter (also zufallsgesteuerter) Versuchsgruppen-Zuordnung, fehlende oder fehlerhafte Anonymisierung ("Verblindung"). Es gibt eine starke Tendenz zur Veröffentlichung von nur scheinbar vielversprechenden Resultaten.

Wir sprechen darüber, was die Ursachen für eine solche Entwicklung sind: Wie groß muss der Erfolgsdruck bei Wissenschaftlern und wissenschaftlichen Einrichtungen sein, wenn permanente Verstöße gegen gutes wissenschaftliches Arbeiten zur Regel werden? Wie fehlgesteuert sind die Belohnungssysteme und Karrierewege in der akademischen Forschung? Neue Ansätze der Auditierung und des Monitoring, Veröffentlichung von Originaldaten, mehr Kontrolle durch Journale könnten aus der Misere herausführen.

https://forschergeist.de/podcast/fg027-vertrauen-und-kontrolle-in-der-wissenschaft/
Veröffentlicht am: 19. April 2016
Dauer: 1:28:14


Kapitel

  1. Intro 00:00:00.000
  2. Begrüßung 00:00:43.343
  3. Vorstellung 00:01:42.784
  4. Persönlicher Hintergrund 00:03:42.304
  5. Centrum für Schlaganfallforschung 00:07:49.870
  6. Medizinische Doktorarbeiten 00:15:02.762
  7. Verifikation medizinischer Studien 00:23:18.622
  8. Kontrolle und Vertrauen 00:39:22.283
  9. Reproduzierbarkeit von Studien 00:52:41.738
  10. Mittelplanung für Qualitätssicherung 01:03:02.392
  11. Journale und Open Science 01:05:50.088
  12. Meta-Research 01:16:17.390
  13. Ausklang 01:26:50.896

Transkript

Tim Pritlove
0:00:44
Ulrich Dirnagl
0:01:41
Tim Pritlove
0:01:43
Ulrich Dirnagl
0:01:50
Tim Pritlove
0:01:52
Ulrich Dirnagl
0:01:56
Tim Pritlove
0:02:00
Ulrich Dirnagl
0:02:07
Tim Pritlove
0:02:25
Ulrich Dirnagl
0:02:36
Tim Pritlove
0:03:40
Ulrich Dirnagl
0:03:56
Tim Pritlove
0:05:13
Ulrich Dirnagl
0:05:15

Naja also zum Beispiel hab ich dort meine eigenen Projekte gehabt, habe aber auch bei Projekten mitgemacht und einige der Projekte bestanden darin, dass wir das was er in seinem eigenen Labor gemacht hat von verschiedenen Leuten hat nochmal machen lassen. Und denen auch nicht erzählt, was er eigentlich machen will. Also das eigentlich unklar war, was die Studie eigentlich soll. Und uns war nur klar, wir machen etwas, was schon mal gemacht wurde und zwar im selben Labor. Das fand ich irgendwie kryptisch und eigentlich jetzt nicht so wahnsinnig spannend. Im Nachhinein ist mir aber klar geworden, was er eigentlich damit erreichen wollte und es war auch damals so, dass wir schon damals schon raus finden konnten, dass das was in der Literatur sehr großartig gefeiert wurde, selbst in dem eigenen Labor nicht 100%ig robust war und vielleicht auch vielen andern Gründen auch, aber dann letztlich auch klinisch gescheitert ist. Nicht von der Gruppe, sondern von anderen, die es dann gemacht haben. Also das war durchaus ein Aha-Erlebnis, das ich aber wie gesagt erst viel später wirklich verstanden habe. Der hat das damals nämlich nicht, der hat das nicht wirklich theoretisch betrieben, sondern der hat das aus so einem grundwissenschaftlichen Bedürfnis heraus, sich todsicher zu sein, indem was er da eigentlich macht, so gemacht und damals war das auch überhaupt kein Thema. Und manch einer in der Community wird wahrscheinlich gedacht haben, oh das ist ein bisschen ein Langweiler, obwohl der sehr berühmt war für das was er so publiziert hat. Aber das war in New York, ich bin dann zurück nach München, wieder an die neurologische Klinik und habe dort habilitiert und habe ich damals auch sehr stark eben mit nicht nur Schlaganfall, sondern auch wie das Hirn seinen Blutbedarf reguliert auseinandergesetzt und habe dort begonnen, meine eigene Arbeitsgruppe aufzubauen, war aber in dem Umfeld von einem Herrn Einhäupl, der war damals Oberarzt an dieser Klinik und der ist dann nach Berlin gegangen und zunächst als Chef der neurologischen Klinik neuberufen an die Charité und der hat mich eingeladen, ihm sozusagen auf der Spur zu folgen und dort ein Labor zu etablieren, was ich gerne gemacht habe. Herr Einhäupl ist jetzt der Chef der Charité. Aber das war sozusagen dann der Werdegang oder der Gang der Dinge über München, über New York nach Berlin.

Tim Pritlove
0:07:49
Ulrich Dirnagl
0:07:58

Naja zunächst ist es ein translationales Labor. Also das ist das was mir auch und allen, die dort arbeiten, natürlich sehr am Herzen liegt. Translational heißt an der Stelle, dass wir uns jetzt nicht auf einen ganz fipsigen Mechanismus nur konzentrieren, den wir tagaus, tagein rauf und runter beforschen, was an vielen Stellen auch gemacht wird, was auch meiner Meinung nach extrem wichtig ist, sondern wir haben sozusagen mehr eine Art Vogelperspektive auf vieles, weil wir eben wissen, dass es beim Patienten nicht nur ein Faktor sein kann, sondern viele. Insbesondere bei so einer komplexen Erkrankung wie dem Schlaganfall. Translational heißt auch, dass bei uns eben Ärzte arbeiten, die im Klinikbetrieb arbeiten, die Patienten behandeln, die aber auch Forschung machen wollen und glaube ich sehr gute Forschung machen können, weil sie wissen, was letztlich die Notwendigkeiten sind, die bestimmte Erkrankungen, jetzt in unserem Fall hier den Schlaganfall, was dafür eigentlich wichtig ist. Also als Einschub kann ich vielleicht eine überraschende Sache nennen, die uns auch sehr beschäftigt hat, nämlich was viele Leute, selbst mancher Neurologe nicht weiß ist, dass die Hauptursache beim Schlaganfall die Pneumonie ist. Also eigentlich keine Hirnerkrankung, sondern eine Lungenentzündung. Und da kann man sich natürlich dann die Frage stellen, woran liegt das eigentlich und ein Grundlagenforscher, der sich für den Schlaganfall und für das Hirn interessiert, der würde eigentlich nie auf die Frage kommen, sich mit einer Pneumonie und ihrem Zusammenhang mit dem Hirn zu befassen. Weil er gar nicht weiß, dass das ein Problem ist. Also solche Dinge interessieren uns sehr. Das Problem ist lehrbuchmäßig gesprochen einerseits, und das ist sicher ganz wichtig und deshalb haben sich viele Leute nicht weiter dafür interessiert, weil sie dachten, das ist gelöst, ist, dass Schlaganfallpatienten sehr häufig Schluckstörungen haben, dass sie imobilisiert sind, dass sie im Krankenhaus liegen, dass sie Katheder in allen möglichen Körperöffnungen haben und das prädestiniert sie natürlich einerseits für Infektionen, aber gleichzeitig war uns auch klar, dass eine reine Schluckstörung, also zum Beispiel wir sitzen hier zu zweit, einer von uns beiden theoretisch zumindest 50% aller Leute aspirieren in der Nacht, also verschlucken ihren eigenen Speichel, der gelangt in die Lunge, aber sie wachen nicht morgens mit einer Lungenentzündung auf. Da muss also was dazu kommen. Und dieses was dazu kommt ist eine Herunterregulation des Immunsystems durch den Schlaganfall. Das ist teilweise unspezifisch, der Stress oder sozusagen die Ausnahmesituation kennt jeder, dass das Immunsystem runtergeht, wenn eine Prüfungsarbeit schreibt, dann kriegt man Herpesausbruch. Das ist sicher ein allgemeines Stressphänomen, aber dazu kommen spezifische Faktoren, die wir auch untersuchen, weil eben gewisse Hirnregionen kaputtgehen beim Schlaganfall und dadurch, dass die kaputtgehen, gibt es spezifische Signale, die das Immunsystem herunter regulieren. Und so was zu untersuchen ist spannend, das ist interdisziplinär und ist etwas, wo sozusagen ein reiner Hirnforscher erst mal überhaupt nicht drauf kommen würde. Aber damit sind wir auch bei einer zweiten Besonderheit des Labors oder dieser Tätigkeit, die sich natürlich auch nicht nur bei uns ergibt, nämlich in so einem Bereich arbeiten also Ärzte, die häufig den ganzen Tag in der Patientenversorgung arbeiten, die müssen aber eine Atmosphäre und eine Umwelt im Labor vorfinden, in der sie qualitativ hochwertig arbeiten können. Die können sich aber nicht den ganzen Tag drum kümmern, wie so mancher Grundlagenforscher. Der in der Früh seine Stulle auspackt im Labor und nachts um 12 nach Hause geht, der ist immer vor Ort. Während der Arzt, der Forschung macht, ist das häufig oder meistens nicht und das bringt gewisse Probleme mit sich, die wir auch im Medizinbetrieb kennen. Also die Grundlagenforschung von Medizinern hat insbesondere bei Grundlagenforschern nicht den besten Ruf. Und die Doktorarbeit der Mediziner hat auch keinen besonders guten Ruf. Das hat unter anderem damit zu tun, dass das neben der ärztlichen Tätigkeit stattfindet. Und da ist es eben unser Ziel, und damit kommen wir zu einer echten Besonderheit, eine qualitätsgesicherte Atmosphäre zu schaffen. Das heißt sicherzustellen, dass dort gut betreut wird, dass dort Dinge immer so gemacht werden, wie sie gemacht werden sollen, dass das auch kontrolliert wird und so weiter. Ich denke, dass das nicht nur in dem Bereich relevant und spannend ist. Aber im Bereich der medizinischen Grundlagenforschung in einer Uniklinik halte ich das für besonders wichtig. Und da sind wir eben, wie soll ich sagen, das ist eine unserer Duftmarken, wir haben ein Qualitätsmanagementsystem, was ISO-zertifiziert ist. Ich glaube, es gibt auf der ganzen Welt kein anderes Labor, was das hat. Man könnte sagen, wir sind verrückt geworden.

Tim Pritlove
0:13:03
Ulrich Dirnagl
0:13:09
Tim Pritlove
0:13:17
Ulrich Dirnagl
0:13:26
Tim Pritlove
0:13:39
Ulrich Dirnagl
0:13:46
Tim Pritlove
0:14:17
Ulrich Dirnagl
0:14:22
Tim Pritlove
0:15:04
Ulrich Dirnagl
0:15:09

Ja das habe ich zwar jetzt gesagt, aber das ist vielleicht ein bisschen pauschal. Das ist natürlich Pauschalisierungen sind immer falsch, aber grundsätzlich glaube ich muss man sich jetzt nur mal angucken, wofür die medizinische Doktorarbeit gehalten wird und da hört man viel über Plagiate oder hört man über Dinge, die nicht nachgemacht werden können, teilweise sogar über Fälschungen. Es ist auch kein Geheimnis, dass Naturwissenschaftler im lebenswissenschaftlichen Bereich die Doktorarbeiten der Mediziner für nicht besonders lesenswert oder relevant halten. Und das liegt natürlich an vielem, aber untern anderem eben daran, dass zum einen die Mediziner eine Doktorarbeit haben, die sie während des Studiums machen können. Das ist bei den Naturwissenschaftlern nicht so, die schließen ihr Studium ab und dann gehen sie drei Jahre bis fünf Jahre fulltime in ein Labor. Häufig der Mediziner, nicht übrigens die Mediziner bei uns im Labor, werden fertig während ihres Studiums. Was entweder bedeutet, dass sie das Studium nicht ausfüllt oder dass das was sie dort machen im Labor nicht besonders fordernd ist. Das ist sicher eine strukturelle Sache, die damit zu tun, dass man glaubt als Mediziner, diesen Titel als Doktor haben zu müssen, sonst wird man nicht vom Patienten richtig akzeptiert und so. Aber das ist ein größerer Komplex, der letztlich wirklich dazu führt, dass die medizinische Doktorarbeit und auch letztlich die medizinische, da gibt es den Begriff der Feierabendforschung, auch den Begriff der Habilitationsforschung, dass also Mediziner möglicherweise und ich glaube, wer ehrlich ist, auch wenn man in dem Betrieb ist und ehrlich ist, würde man sagen, das ist auch teilweise so, Forschung machen, um zu .. also nicht, um was neues herauszufinden, sondern um einen akademischen Grad, häufig dann wenn man fertig ist mit der Promotion, den der Habilitation zu erwerben. Dafür muss einfach ein gewisses Portfolio an Arbeiten vorlegen und ich will jetzt keinem zu nahe treten, es gibt sehr sehr viele Kollegen, die da sehr ernsthaft und gut forschen, aber es hat schon ein bisschen einen Nebenaspekt, der tatsächlich in so, wie soll ich sagen, wir holen uns ein Abzeichen und brauchen dafür Forschung. Und der Begriff Feierabendforschung kommt natürlich daher, dass das eben Leute sind, die voll eingebunden sind in den medizinischen Versorgungsbetrieb. Leute, die auch noch Lehre machen nebenbei und die dann als drittes, das ist ja unser Motto „heilen, lehren, forschen“, dann auch noch Forschung machen müssen. Und im Grunde ist jeder dieser drei Bereiche würde einen vernünftigen Menschen ausfüllen, insbesondere die Krankenversorgung. Wo man jetzt ja auch nicht danach gehen kann sozusagen da gehe ich jetzt eine Stunde hin und dann bin ich fertig. Das ist sicherlich ein Problem und dann ist es halt 17 Uhr, wenn der Stationsbetrieb fertig ist oder 18 Uhr, manchmal 19 Uhr, und dann gehen diese Leute ins Labor und machen dort noch zwei Stunden Forschung. Und das kann ja so nur manchmal funktionieren.

Tim Pritlove
0:18:38
Ulrich Dirnagl
0:18:57

Ich glaube es ist wie so vieles in dem Bereich beides, es kommt von innen und von außen. Ich glaube, einerseits hat es sich so durchgesetzt, dass ein Medizinstudent, der heute Medizin studiert fast davon ausgeht, dass er parallel dazu einen Doktorgrad erwirbt. Ich habe jetzt die Zahl an der Charité nicht 100% im Kopf, aber ich glaube 80 oder 90% aller unserer Studenten haben dann auch eine Promotion damit. Das ist also absolut ungewöhnlich für jeden Studiengang, also für die Medizin. Das kommt von innen und es ist schön, einen Titel zu haben auf der Kreditkarte oder sonst wo. Aber es kommt auch von außen, wie wichtig und ernst es ist kann ich jetzt tatsächlich nicht einschätzen, es ist aber vermutlich wichtig. Das ist die Tatsache, dass sie halt, wenn sie einen weißen Kittel anhaben, sie werden als Herr Doktor angeredet und dann wollen sie auch ein Herr Doktor sozusagen sein. Es gibt Länder, die das ganz anders gelöst haben. Also in Amerika zum Beispiel gibt es das einfach nicht. In Amerika ist ein Arzt ein MD, ein Medical Doctor. Oder nehmen Sie Länder wie Österreich zum Beispiel, die vergeben einen Doktortitel für die Mediziner, der wird aber unter ganz anderen Auspizien vergeben als einem normalen Doktor und ist eigentlich mehr so eine Musterarbeit eigentlich, teilweise sogar weniger als eine Musterarbeit es bei uns wäre. Und das ist letztlich nur dazu angetan, diesen jungen Kollegen einen Titel zu geben. Das weiß dann auch jeder. Bei uns besteht nämlich das große Problem am Ende darin, dass es fantastische medizinische Doktorarbeiten gibt von jungen Studierenden und dann Ärzten, die da drei bis fünf Jahre tollste Forschung machen, auch nach dem Studium noch. Auch erst nach dem Studium abschließen. Und die haben am Schluss einen Titel, der lautet Dr. med. und der unterscheidet sich in nichts von einem Titel, den jemand – vielleicht übertreibe ich jetzt – an 20 Nächten irgendwie irgendwelche Röntgenbilder gegen das Licht gehalten hat und mit einem Maßband die Bandscheiben vermessen hat. Und nach drei Monaten war er fertig und hat noch ein bisschen Literatur dazu gelesen. Das können Sie dem Titel nicht ansehen und wahrscheinlich ist sogar der niedrig qualitative Bereich etwas stärker vertreten als der höchst qualitative. Aber deshalb kann man jetzt auch nicht eine Doktorarbeit eines Mediziners pauschal verurteilen. Da gibt es ganz tolle drunter. Und deshalb müsste man sich überlegen, es gibt natürlich große Überlegungen dazu und der Wissenschaftsrat ist für die Abschaffung des Dr. med. Zum Beispiel und für die Vergabe eines Titels im Sinne zum Beispiel wie es die Österreicher machen halte ich für eine vernünftige Lösung. Das ist halt im Grunde sehr schwierig, wie auch hier vieles in dem Bereich schwierig ist, weil es über Jahrhunderte kann man fast sagen so gemacht wurde und der Betrieb eine gewisse Inertia hat und sozusagen der der anfängt ist möglicherweise der, der ein Problem damit kriegt. Wenn wir an der Charité heute, solche Diskussionen gibt es an der Charité, solche wie soll ich sagen spätmittelalterlichen Erfindungen wie den Dr. med. und die Habilitation abschaffen würden, das wird ernsthaft bei uns diskutiert so was zu machen, halte ich auch für eine vernünftige Diskussion, die endet aber immer an dem Punkt, dass man sagt, aber als Charité kommen die Leute zu uns und erwarten, dass sie das an der Charité bekommen können, sonst kommt keiner mehr an die Charité und wahrscheinlich ist das sogar richtig. Weil die gehen halt dann nach Heidelberg oder nach Göttingen. Und die Universitäten haben in Deutschland eine sehr hohe Autonomie solche Ordnungen, solche Promotionsordnungen oder Habilitationsordnungen, die verfassen wir selbst, da können wir reinschreiben, morgen hören wir auf damit. Oder dar man bei uns nur noch nach dem Abschluss des letzten Staatsexamens machen. Das ist toll, dass die Fakultäten solche Freiheiten haben, aber das abringt natürlich gleichzeitig das Problem, wenn das nicht sozusagen im Konzert passiert, dann geht keiner vor, weil es einfach wahnsinnig riskant ist. Immerhin und das finde ich bemerkenswert und stimmt mich auch insgesamt positiv in manchem, ist, dass diese Diskussionen um solche Titel, um das wie wir ausbilden, um das wie wir Forschung machen, in letzter Zeit deutlich zugenommen haben und ehrwürdige Institutionen wie die Charité sich tatsächlich mit solchen Fragen auch beschäftigen.

Tim Pritlove
0:23:19
Ulrich Dirnagl
0:23:52

Ja also man kann ja mal ein Beispiel bringen, das ist allen Kollegen auch durchaus bewusst, in dem Feld, sogar über das Feld hinaus, dass es die Zahl mittlerweile haben alle aufgehört zu zählen, aber es gibt also 1000 möglicherweise mehr Substanzen und Studien, die in den experimentellen Modellen des Schlaganfalls sehr wirksam waren und eigentlich sehr vielversprechend waren und dann in der Klinik getestet wurden und davon hat letztlich, außer einer einzigen und auch da könnte man darüber diskutieren, ob das tatsächlich dann an diesen Grundlagenresultaten lag, dass man das gemacht hat, nur eine einzige ist tatsächlich erfolgreich gewesen. Das ist ein Ausgangspunkt, der einen schockieren sollte, der einen nachdenklich machen sollte, insbesondere wenn man in dem Gebiet forscht. Dafür gibt es viele Gründe, und wenn man sie kennt oder herausfindet, muss man versuchen sie abzustellen. Ein interessanter und möglicher Grund, der eigentlich auch nicht neu ist, ich habe es jetzt erst schon angedeutet, sogar mir mal 1988 in diesem amerikanischen Labor schon begegnet ist, ist die Tatsache, dass das was vielleicht ein Labor macht und sehr erfolgreich publiziert – erfolgreich im Sinne von das wirkt das Medikament in diesem Modell, wenn das jetzt ein anderer versucht nachzumachen, dann klappt es plötzlich nicht mehr – und das kennt jeder in dem Feld und dann sitzt man über einem Bier und lästert über andere Kollegen und sagt, wir haben versucht das nachzumachen, das ist ja eh alles nichts. Also ich kann zum Beispiel aus unserer eigenen Praxis sagen, und da sitz ich aber nicht überm Bier und lästere, sondern das sag ich Ihnen jetzt auch im Podcast, wir haben etwa zehn Studien versucht nachzumachen, die solche sehr vielversprechenden Medikamente gezeigt haben und davon würde ich sagen haben wir eine maximal zwei, allerdings auch nicht mit der Effektgröße, die dort publiziert war, wiederfinden können. Wiederfinden heißt denselben Effekt finden können und bei den anderen war gar nichts. Das heißt nicht, dass die anderen schlampig gearbeitet haben, das heißt ganz sicher nicht, dass es gefälscht war, aber es deutet auf ein Problem hin, dass wenn man ganz sachlich und vorsichtig argumentiert, zumindest darauf hindeutet, dass diese Befunde nicht robust sind. Robust heißt an der Stelle, naja wenn es in München funktioniert, aber in Berlin nicht oder umgekehrt oder in New York funktioniert oder in Göttingen nicht, dann würde ich zumindest nachdenklich werden in der Frage, ob ich einen Patienten in Frankfurt, Hamburg oder Düsseldorf damit behandeln kann, und warum sollte es dann bei denen wirken? Das ist sozusagen ein erster Merker, dass man da mal drüber nachdenken muss und eine gewisse Robustheit haben muss, damit so was tatsächlich zum Patienten gebracht werden kann. Und dieses war sozusagen auch für mich und ich glaube für etliche andere ein Ausgangspunkt, sich Gedanken zu machen, woran könnte das liegen? Und das hat zwei Verlaufsformen denke ich mindestens, die eine ist die sich metaanalytisch also durch die Untersuchung von Studien, die schon gemacht sind oder die Zusammenführung von Studien, die schon gemacht sind, sozusagen ein Gesamtbild über den Effekt einer Substanz zu machen und dabei auch gewisse Kriterien zu untersuchen, wie hoch war die Qualität in einer Arbeit und so weiter. Das ist sicher eine Sache, die man machen kann. Und die andere ist, sich mal ganz grundsätzlich Gedanken zu machen, was das überhaupt heißt Robustheit und wie wir uns auf dem Weg verbessern können.

Tim Pritlove
0:27:41
Ulrich Dirnagl
0:27:56

Ja ein schönes Beispiel, ich habe ja gerade angedeutet, dass es 1000 gibt, jetzt kann ich eins rausgreifen. Ein schönes Beispiel, weil durchaus dramatisch, auch sozusagen ökonomisch dramatisch ist ein Medikament, das getestet wurde in der größten Studie, die je auf dem Sektor gemacht wurde mit 3000 Patienten. Diese Studie war neutral. Neutral heißt es war weder schlecht noch gut das Medikament. So eine Studie und was so dazu gehört kostet einen Pharmafirma, das war die Firma AstraZeneca, kostet so was wie 300-400 Millionen. Das eigentlich Problem für die Firma war aber, dass man große Hoffnungen hatte bei den Aktionären, dass das ein tolles Medikament ist, weil die Grundlagenbefunde alle so toll waren. Und einige dieser Leute, die zu viel Geld haben, haben dann drauf gewettet und haben schon mal angefangen, AstraZeneca-Aktien zu kaufen. Daraufhin ist der Aktienkurs deutlich gestiegen vor der Bekanntgabe. Dann ist die Studie veröffentlicht worden und Sie können quasi am Aktienkurs ablesen, was aus der Studie wurde. Der Wert der Aktien ist um 10% gefallen und zwar nicht von dem Höchstwert, der durch die Spekulation entstanden ist, sondern von dem Mittelwert, der vorher bestanden hat. Das heißt die Firma hat 10% Marktkapitalisierung verloren, das waren 5 Milliarden. Jetzt rechnen sie 300 Millionen dazu und dann haben Sie 5,3 Milliarden verloren über so etwas. Das, können Sie sagen, ist mir egal, ich habe keine AstraZeneca-Aktien. Es gibt aber eine andere Seite, es könnte ja auch sein, dass bei so etwas Patienten geschädigt werden. Weil wenn Evidenz nicht robust ist, könnte ja auch sein, dass man irgendwelche Nebeneffekte übersehen hat.

Tim Pritlove
0:29:42
Ulrich Dirnagl
0:29:47
Tim Pritlove
0:31:11
Ulrich Dirnagl
0:31:15

Sie nehmen ein Zufallsprinzip und teilen die einzelnen Subjekte in einer Studie diesem Zufallsprinzip folgend entweder eine Kontrolle oder in die Behandlungsgruppe ein. Verblindung bezieht sich zum einen darauf, dass Sie als der der die Studie durchführt nicht weiß. Also der zum Beispiel, wenn es jetzt ein Schlaganfall ist, ein Schlaganfall auslöst in einem solchen Modell, ob das in der einen oder in der anderen Gruppe landen wird und natürlich auch auf die Frage, ob wenn Sie den später untersuchen, ob es geholfen hat oder nicht geholfen hat. Ob zum Beispiel Infarkte kleiner geworden sind durch das Medikament. Ob Sie wissen, in welcher Gruppe dieses Tier, was Sie jetzt gerade untersuchen oder diesen Hirnschnitt, den Sie sich gerade anschauen, aus welcher Gruppe der kommt. DAs macht man durch Verblindung und das verhindert ganz subkortikale, ganz schwer zu kontrollierende, bewusst zu kontrollierende Einflussgrößen. Man nennt es Bios. Also wir wünschen uns alle, dass was tolles passiert und das was tolles rauskommt und deshalb erscheinen dann eben manche Dinge rosiger als sie sind. Und interessanterweise war es so, es gab tatsächlich einige Arbeiten und die waren verblindet und die waren randomisiert und hatten auch etliche andere solche Qualitätskriterien und dann konnten wir hergehen und vergleichen, wie sich die Effektgrößen, die eben berichtet wurden, sich abhängig von der An- oder Abwesenheit eines solchen Kriteriums unterschieden haben. Und dabei stellt sich raus, und das ist jetzt an ganz vielen anderen Studien und auch anderen Feldern, das ist nicht nur beim Schlaganfall so, gezeigt worden, dass wenn nicht verblindet wird, wenn nicht randomisiert wird, dann finden Sie, allein das macht etwa 50% einer Effektgröße aus, die Sie finden. Da können Sie schon mal 50% von dem was man vorher gefunden hat im Grunde abziehen, wenn Sie so wollen. Wenn Sie dann noch dazu nehmen, auch das haben wir für die Substanz untersucht, dass negative Ergebnisse überhaupt nicht publiziert werden und es gibt relativ trickreiche Verfahren, um herauszufinden, ob das so ist und wie viel die eigentlich hätten zeigen müssen. Das kann man ungefähr abschätzen und dann kann man in dem Feld auch sagen, dass etwa 30-40% der Effektgrößen allein dadurch überschätzt werden, dass das was gefunden wurde, aber nicht publiziert wurde als negativ oder neutral uns nicht zur Verfügung steht. Und wenn Sie diese Faktoren alle aufaddieren, dann kommen Sie, weil Sie das Beispiel wollten, bei der Substanz drauf, dass eigentlich wenn man das vorher gemacht hätte, man die Studie hätte gar nicht machen dürfen. Ich hätte sie nicht gemacht zumindest, weil mich die Evidenz, die aus diesen Voruntersuchungen vorlag, überhaupt nicht überzeugt hätte. Auf den ersten Blick ist es sehr überzeugend, weil Sie eben sehen, oh toll das macht Infarkte um 40% kleiner. Aber dann ziehen Sie den Effekt ab, der durch die mangelnde Verblindung drinnen ist. Dann ziehen Sie den negativen Publikationsbios, dann ziehen Sie noch ein paar andere Sachen ab, die wir mittlerweile alle recht gut quantifiziert haben. Und dann kommt raus, die Evidenz war gar nicht da. Und jetzt kommt natürlich ein spannender Punkt rein, weil viele Leute haben dann gesagt, naja also in dem Feld und in vielen anderen, nehmen Sie Alzheimer zum Beispiel, da ist es ganz ähnlich, da ist ja keine Übertragung möglich und das was wir in den Modellen machen ist ja völlig irrelevant für das was beim Menschen passiert. Wenn Sie meiner Betrachtung folgen und dafür haben wir mittlerweile gute quantitative Evidenz, dass das so ist, dann ist die Übertragbarkeit exzellent. Weil wenn es vorher schon nicht hätte wirken sollen, dann wird es nachher auch nicht wirken.

Tim Pritlove
0:34:43
Ulrich Dirnagl
0:35:05

Und hätte, jetzt an der Stelle zum Glück nicht passiert, aber auch dafür gibt es Beispiele, und hat im Grunde potenzielles Risiko für die Patienten in Kauf genommen. Also sozusagen das komplette Paket, das Sie gerade geschildert haben, ist durchaus beeindruckend. Also das ist schon eine ziemlich großartige Ressourcenverschwendung, die dort teilweise stattfindet und daher gibt es diesen Begriff des Waste und der Begriff in Deutschland ist Forschungsmüll, klingt ja noch brutaler. Also weiß ich nicht, die Zahlen die dort kursieren, 80% ist Müll, das ist eine sehr spektakuläre Zahl und so. Die Zahl ist wahrscheinlich problematisch. Aber in der Tat da ist durchaus etwas, was sehr bedenklich ist im Bezug auf die Ressourcen, die wir dort verbraten. Und man muss sich natürlich noch eins vorstellen, in der Wissenschaft kommt es eigentlich erst mal, dort wo diese Evidenz herkommt, kommt das primär ja erst mal nicht vor. Die Publikationen gibt es ja. Leute machen tolle Publikationen mit diesen Dingen. Leute kriegen Professuren, Arbeitsgruppen werden gebildet. Es werden Forschungsgrants erteilt und so weiter. Und das ist vielleicht auch Teil des Problems, vor dem wir jetzt stehen, dass das System ja eigentlich funktioniert so gesehen. Also warum soll ich was ändern, wo ich doch meine Professur habe? Warum soll ich was ändern, wo ich doch gerade mein Naturepaper habe? Das macht es so schwierig, in dem System Dinge zu verändern. Und was natürlich die Sache auch noch schwierig macht, ist, dass vieles von dem was wir uns heute denken, was die Sache besser machen könnte, nicht getestet ist. Das heißt es ist ein gewisses Risiko. Wenn Sie heute anfangen, das System komplett umzustellen also sagen, naja also solche Publikationen wollen wir gar nicht mehr sehen, das haken wir alles ab, folgende Kriterien gelten ab morgen, dann ist erst mal schon die Diskussion, welche Kriterien sind das und die zweite ist die, vielleicht wird es noch schlechter. Also ich würde jetzt nicht so argumentieren, aber ich verstehe die Besorgnis etlicher Kollegen, zu sagen, naja also Vorsicht Vorsicht, vielleicht wird ja alles ganz ganz schlimm. Und vielleicht muss Wissenschaft so gehen, vielleicht ist das so, viele brixen??? rum und nicht alles ist gut und vieles lässt sich nicht wiederholen. Aber guck doch hin, die Medizin hat sich in den letzten 50 Jahren, das ist doch nicht die Medizin von vor 50 Jahren. Da ist Fortschritt und das ist sicher nicht zu bestreiten.

Tim Pritlove
0:37:37
Ulrich Dirnagl
0:37:45
Tim Pritlove
0:38:30
Ulrich Dirnagl
0:38:48
Tim Pritlove
0:39:25
Ulrich Dirnagl
0:39:38
Tim Pritlove
0:40:59
Ulrich Dirnagl
0:41:01

In Tierversuchen. Das klingt jetzt kryptisch oder irrelevant, ist aber sehr relevant, weil es natürlich sein kann, dass, und das konnten wir in einem anderen Teil der Untersuchung dann tatsächlich zeigen, dass durch eine selektive Auswahl der Tiere für die Endauswertung sich Ergebnisse massiv verändern können. Also stellen Sie sich vor, Sie haben ein Tier, was besonders schwer betroffen ist, das ist ausgerechnet in der Gruppe, in der Sie einen tollen Effekt zeigen wollen, weil Sie das Medikament gegeben haben und wenn Sie jetzt wissen, dass dieses Tier in dieser Gruppe war, kommen Sie vielleicht auf die Idee zu sagen, na vielleicht war da noch irgendwas anderes, warum wir das Tier besser nicht einschließen würden. Keine Ahnung, es hat geschnupft oder der Operateur hat an dem Tag eine Erkältung gehabt oder was auch immer und dann schließen Sie dieses Tier aus. Sie haben gute Gründe, die finden Sie aber im Nachhinein. Vielleicht waren das sogar gute Gründe, aber Sie haben sie im Nachhinein gefunden. Dieses Tier, weil es in der Gruppe war, auszuschließen. Also da gibt es viele solcher Faktoren. Und das wäre also ein Beispiel für einen anderen Faktor und ist ein Beispiel dafür, dass es sich letztlich dem Prinzip der Transparenz unterordnet. Und Sie müssten jetzt sagen, es kann ja Gründe dafür geben, wir haben ein Tier ausgeschlossen, das war in der und der Gruppe und dann kann ich mir ein Bild davon machen als Leser, was das möglicherweise bedeutet hätte. Noch besser ist, Sie haben vorher ein Kriterium und so müsste es eigentlich sein, Sie sagen, wir schließen nur die ein und die aus, die folgendes, so macht man es in klinischen Studien. Das sind alles Prinzipien, die sich in der Präklinik so noch nicht durchgesetzt haben. Die aber eigentlich gesunder Menschenverstand wären. Und insgesamt so eine Praxis des Reportings, also dessen was man so schreibt, das hat dazu geführt, dass es jetzt große Konsortien gegeben hat, die sich mit Standards beschäftigt haben. Und da gibt es also Guidelines, also so eine Art Checklisten, die auch zumindest die Journale, und da sind wir schon wieder an einem interessanten Punkt, mittlerweile um in einem substanziellen, guten Journal veröffentlichen zu können, müssen Sie den Guidelines, die heißen Arrive-Guidelines an der Stelle, entsprechen. Da stehen solche Sachen drinnen. Haben Sie verblindet, haben Sie nicht verblindet und so weiter. Nun ich bin selber Chief-Editor eines Journals und habe das bei mir eingeführt und dann stellte ich von einem auf den anderen Tag fest, dass alle Autoren – wir hatten nicht weniger Submissionen, nicht weniger Artikel, die eingereicht wurden – und alle haben diesen Knopf gedrückt und gesagt, wir entsprechen den Guidelines. Das kann ja gar nicht sein. Dann habe ich Fragen eingeführt und dann haben sie alle die Fragen mit ja beantwortet, haben Sie, haben Sie, haben Sie, und dann steht immer ja dahinter. Jetzt habe ich für dieses Journal zwei exzellent ausgebildete, die waren Studenten in diesem Projekt, was wir da veröffentlicht haben und haben gelernt, wie man so was aus Papers rausnimmt, angestellt, diese Papers zu untersuchen. Als sozusagen zusätzliche Reviewer und im Paper nachzuvollziehen, ob das was die getickt haben bei ihrer Einreichung auch stimmen. Dann stellt sich natürlich raus, kein großes Wunder, dass das nicht immer, aber sehr häufig, gar nicht stimmt. Und da haben wir jetzt schon das Problem, dass die Journale das jetzt mittlerweile erkannt haben und solche Guidelines einführen und sie auch verpflichtend machen und dann ticken alle eine Box und dann geht es so weiter wie bisher. Also da kommen wir in die Frage dessen, was muss eigentlich überprüft werden? Wo kann ich dem Wissenschaftler trauen und wo nicht? Und das bringt uns in ein sehr spannendes Gebiet und das ist die Frage des Vertrauens, Trust in der Wissenschaft. Die Wissenschaft ist auf Vertrauen gebaut einerseits und Wissenschaftler haben vor nichts mehr Angst oder sind gegen nichts mehr als Kontrolle, weil das angeblich die Wissenschaftsfreiheit gefährdet. Die bei uns grundgesetzlich gewährleistet ist. Aber es gibt keinen anderen Bereich in der Gesellschaft, wo Sie nur qua dessen, dass Sie Mitglied einer Profession sind, für sich reklamieren können, dass man ihnen trauen muss. Sie würden jetzt auch einem Banker nicht mehr trauen, sondern Sie würden sagen, da müssen wir mal lieber nachschauen.

Tim Pritlove
0:45:27
Ulrich Dirnagl
0:45:29
Tim Pritlove
0:46:05
Ulrich Dirnagl
0:46:08
Tim Pritlove
0:46:53
Ulrich Dirnagl
0:46:55
Tim Pritlove
0:47:33
Ulrich Dirnagl
0:48:16

Das ist sicher ein wichtiger Punkt. Ich denke es gibt einige Standards und die sind genannt, einige haben wir ja schon besprochen, Verblindung, Randomisierung und so weiter, da gibt es noch ein paar mehr, das sind Standards, die würden Sie ganz grundsätzlich fordern und dann auch gerne überprüfen und sehen, ob sie wirklich gemacht wurden. Dann gibt es eine Reihe von Dingen, da kommt es drauf an, was Sie für eine Studie machen, ob Sie konfirmatorisch arbeiten, ob Sie was nochmal zeigen wollen oder ob Sie explorativ arbeiten, ob Sie sozusagen, boldly go, where no man has gone before, sozusagen in diese Discovery hinein. Das ist ja immer eine Befürchtung, die zum Teil auch wahrscheinlich berechtigt ist, zu sagen, wenn wir uns in der Wissenschaft zu sehr einengen mit starren Regeln, dann finden wir nichts mehr neues, weil wir eben gebunden sind durch die Regeln. Ich denke aber das ist alles lösbar, unter anderem eben dadurch, dass wir Studien unterscheiden und die dann auch so labeln als das ist was discovery-mäßiges, das folgt anderen Bedingungen. Dann weiß ich aber auch, das ist so was. Dann nehme ich auch das, was die Studie mir sozusagen als Ergebnis liefert mit einer anderen Evidenz, mit einer anderen Gewichtung. Also eine Studie, die sagt, ich bin konfirmatorisch, ich will ganz sicher sein, dass es so ist, das ist die eine Schiene. Und die andere Schiene und die hat sich im Softwarebereich auch durchgesetzt mittlerweile, das ist die Frage des OpenData und der OpenScience. In dem Moment, wo ich meine Dinge, die ich rausfinde, und wie ich Dinge tue komplett zur Verfügung stelle, brauche ich vielleicht auch gar niemanden mehr, der bei mir vorbeikommt und „Polizei“ spielt. Das brauche ich dann gar nicht mehr. Weil ich ja als Leser, als Kollege die Gegebenheit habe, mir diese Daten selber anzuschauen. Und das hat natürlich noch den ganz tollen Nebeneffekt, den ich sogar fast noch wichtiger finde als den der Kontrolle, dass jetzt plötzlich das was ich raus gefunden habe auch anderen zur Verfügung steht und zwar in der Originalform. Und Leute damit Sachen machen können, an die ich überhaupt nicht gedacht habe. Und das für zusätzliche Discovery und für zusätzliche Dinge verwenden können. Also da gibt es einen Drive in Richtung, wir sollten alles was wir an Originaldaten haben, wenn es veröffentlicht ist, mit der Veröffentlichung ins Netz stellen. Die Möglichkeiten technologisch sind natürlich absolut da. Da muss man sicherlich noch an Metadaten und Ontologien und sonst was arbeiten, damit das dann auch gut gefunden werden kann und so. Damit es auch wirklich den anderen vollständig und ausreichend zur Verfügung steht. Aber heute ist es einfach und für jeden mit einem Mausklick zu haben, dass er, wenn er eine Studie hat, mit der Studie seine Originaldaten ins Netz stellt. Wenn Sie jetzt aber mal gucken, wie viele der Arbeiten das tun, dann finden Sie heraus, dass das kaum messbar ist. Also es ist im niedrigen Unterprozentbereich von Studien, die das tun. Ich denke, da werden wir in nächster Zeit die größten Veränderungen sehen. Die Kollegen werden herausfinden, dass es so was gibt wie das Internet und dass man das auch da für Wissenschaft nutzen kann. Und da denke ich, sind wiederum Journale gefragt, da sind wiederum Institutionen gefragt, so was dann auch durchzusetzen. Durchzusetzen heißt nicht, dass man jemanden rausschmeißt, der es nicht macht, aber man könnte ihn ja erst mal auffordern, es zu tun, und wenn er es nicht tut, müsste man schon mal nachdenklich werden, warum es jemand nicht tut. Man könnte es auch mit Anreizen, in einer Übergangsphase, mit Anreizen verbinden oder mit dem Wegfallen von Anreizen, wenn man es nicht macht. In Deutschland haben wir ja immer das Faktum der Forschungsfreiheit. Sie können ja als Uni einem Wissenschaftler sowieso nicht sagen, was und wie er es machen soll. Aber sie könnten jemanden, der seine Daten nicht ins Netz stellt, sagen, naja gut, dann wirst du eben bei der leistungsorientierten Mittelvergabe nächstes Jahr kriegst du 2% weniger oder 5% weniger irgendsowas. Oder ein Forschungsförderer, wie die DFG, könnte sagen, okay wenn ihr mein Geld nehmt und damit Forschung macht, dann müsst ihr die Daten innerhalb von einem Jahr oder von zwei Jahren ins Netz gestellt haben. Von dem was rauskam, was ihr veröffentlicht habt. Und wir halten mal 10% der Fördersumme zurück und wenn ihr uns nachgewiesen habt, dass ihr die veröffentlicht habt, dann kriegt ihr die restlichen 10%. Es wäre im Grunde relativ einfach.

Tim Pritlove
0:52:42
Ulrich Dirnagl
0:54:03

Das sehe ich auch absolut so und das ist natürlich, auch das ist wieder wie so vieles ein großes was und ein großes Thema. Sie haben es angedeutet, wir sind in einer Phase, wo wir erkennen, dass wir Probleme haben in der Reproduktion von Resultaten. Das wird in verschiedenen Feldern zur Zeit systematisch gemacht. Derzeit läuft im Krebsfeld eine systematische Reproduktionsinitiative von 100 Arbeiten oder war es sogar 200. Die Psychologen hatten gerade ihre mit 100 Arbeiten letztens in Science publiziert. Dabei kommen dann so Zahlen raus wie zwischen 60% lassen sich nicht reproduzieren und manchmal 80% lassen sich nicht reproduzieren. Und dann stellt sich natürlich die spannende Frage, was ist überhaupt das Kriterium für Reproduktion? Muss das genau so wiedergefunden werden, muss genau die Effektgröße wiedergefunden werden? Geht es sozusagen um striktes Replizieren oder geht es um konzeptuelles Replizieren. Also muss man im Prinzip nur sehen können, dass so was tatsächlich existiert oder wirkt? Das sind alles spannende Fragen, das ist auch eine hochrelevante Diskussion, die in der Wissenschaft witzigerweise jetzt erst beginnt, aber ich glaube das ist eine Urfrage der Wissenschaft. Und Wissenschaft, in Berlin gibt es einen berühmten Epistomologien, der Hans Jörg Rheinberger, der sich mit diesen Fragen beschäftigt. Und bei ihm gibt es einen Begriff der differentiellen Reproduktion von Experimentalsystemen und der sagt im Grunde, das ist der Kern von Wissenschaft, so geht Wissenschaft. Also dass es eine differentielle Reproduktion gibt. Also differentiell heißt, ja man schiebt sozusagen den Slider immer weiter und dabei wird manches gezeigt und manches nicht gezeigt und dann ist man auf der nächsten Stufe. Das heißt die Nichtreproduktion als solche, also ich bin da durchaus nicht ein Skeptiker, aber zumindest habe ich eine reflektierte Meinung zu dem Begriff der Reproduktionskrise. Ich denke, ein Teil dessen ist vernünftig, ist gut. Eine 100%ge Reproduzierbarkeit zeigt an, dass man irgendwie langweilige Dinge macht und das kann ja gar nicht sein, dass immer alle recht haben. Bzw. eine Nichtreproduktion heißt ja auch nicht, dass der nicht recht hatte, sondern das könnten heißen, dass der der nicht recht hat der nicht reproduzieren konnte. Oder könnte heißen, dass die Bedingungen anders waren und so weiter. Aber das ist eine spannende Diskussion, bei der für mich eins auf jeden Fall außer Frage ist, dass wir nicht genügend reproduzieren können. Also auch wenn wir versuchen, also es gibt Reproduktionsversuche, wo also Leute hergegangen sind und nicht nur einfach – es ist ja einfach, etwas nicht reproduzieren zu können. Sie können im Grunde brauchen Sie nur ein bisschen was verändern und dann finden Sie das nicht wieder, was die Anderen gefunden haben. Das ist also keine große Kunst. Aber es gibt in der Tat jetzt viele Reproduktionsversuche, wo man die Leute, die den Originalbefund hatten, mit in das Team nimmt und Material von denen nimmt. Sogar teilweise Personal, Substanzen und so weiter. Und selbst auf diesem Sektor, also selbst bei diesem sehr strikten Vorgehen zeigen sich große Probleme des nachmachen-Könnens. Und das ist einerseits durchaus finde ich schon alarmierend, auf der anderen Seite regt es uns durchaus darüber an, wie wir Wissenschaft machen sollen, wie reproduzierbar sie sein muss am Ende. Und das was Sie gesagt haben, dass nämlich der Ausgangspunkt dessen ist, dass ich andere in die Lage versetze, ob die das dann überhaupt machen, aber in die Lage versetzen, so was überhaupt zu tun. Indem ich in der Beschreibung meiner Methoden so explizit bin und indem ich in der Beschreibung meiner Resultate so explizit bin, das ist die Basis dafür. Insofern schließt sich da der Kreis. Also das hat alles miteinander zu tun, OpenData, Replikation. Jetzt gibt es eine Diskussion über die Frage, wie viel Replikation ist gesund, wie viel brauchen wir und so. Das ist eine nicht abgeschlossene Diskussion, die ich aber für spät kommt sie, doch sie kommt, und die führen wir eben zur Zeit und ich glaube, die kann nur dazu führen, dass wir die Dinge noch besser machen, als wir sie vielleicht schon gemacht haben.

Tim Pritlove
0:58:30
Ulrich Dirnagl
0:59:45

Ja auch das ist ein spannendes Thema. Ich meine viel der Wissenschaft ist natürlich so, also dieser Wissenschaft, ist schon auch so, dass Leute also ihre eigenen Geräte am Ende bauen und das Teil der Wissenschaft ist, dass sie da sozusagen die Wissenschaft vorantreiben, indem sie also ganz neue Sachen machen. Und dann baut einer sein eigenes Mikroskop und das ist dann halt sein eigenes und so. Das darf man nicht behindern, das ist völlig klar. Auf der anderen Seite gibt es, ich weiß nicht, wie hoch der Prozentsatz ist. Je höher Sie in Richtung einer Wissenschaft gehen, die an der Schwelle ist zur klinischen Translation, wo es also in klinische Studien geht, um so standardisierter müsste das meiner Meinung nach werden und deshalb komme ich zurück auf das was ich gesagt habe. Ich denke, wenn mir jemand sagt, ich bin der Mann für die Exploration, ich bin der Mann für die Discovery, dann darf er einige Sachen machen, die ich absolut okay finde. Denn der hat ein neues Mikroskop gebaut und dann kann er nicht sagen, das entspricht der und der Norm, ich würde aber trotzdem erwarten, dass er mir offenlegt, wie er das kalibriert hat, wie er das antreibt, wie er seine Daten analysiert hat. Damit sind wir wieder bei der OpenScience. Das ist ja eigentlich auch alles gar kein Problem, so was heute zu machen. Wenn aber jemand konfirmatorisch arbeitet und wir arbeiten zu wenig konfirmatorisch meiner Meinung nach in dem Medizinbereich. Also wir bauen Studien, die an den Menschen gehen auf zu geringe Evidenz auf. Wenn wir solche Konfirmationen machen würden mehr, dann wäre es absolut so und dann müsste mir jemand durchaus nachweisen, dass sein Spektrophotometer in der Tat kalibriert war oder nicht kalibriert war. Auch hier glaube ich stoßen wir durch die technischen Möglichkeiten jetzt in ganz andere und viel bessere Bereiche vor. Nehmen Sie das Beispiel elektronisches Laborbuch. Die meisten Labore heutzutage arbeiten mit einer Kladde, so wie man es vor 150 Jahren gemacht hat, kritzeln da irgendwelche Sachen rein. Ein elektronisches Laborbuch, so wie wir es im Labor haben, hat bereits und wird es immer mehr haben, Schnittstellen zu den Geräten, wo die Daten herkommen über APIs. Und liest ein, ob das Gerät kalibriert war oder nicht kalibriert war. Und dann steht neben ihrem – ist nicht nur in ihrem Laborbuch – nicht nur der gekritzelte Satz, die Daten finden sich auf dem Server so und so und Sie drucken irgendwie was aus und kleben es mit einem Pritstift ein, sondern die Daten sind im Laborbuch, sind dort auch sozusagen versionsnotiert, nicht mehr modifizierter, sonst irgendwas. Und gleichzeitig haben Sie ein Stempel daneben, der sagt, das Gerät war kalibriert oder es war nicht kalibriert oder das Laborbuch sagt Ihnen in der Früh, Sie müssen heute Ihr Gerät kalibrieren, sonst können Sie am Abend keinen Versuch machen. Ist für mich wieder ein schönes Beispiel dafür, dass wir die technologischen Möglichkeiten haben. Meiner Meinung nach würde ich sagen, zeitgemäß zu arbeiten. Aber aus einer Inertia heraus, die sich, weil der Betrieb das auch nicht honoriert, irgendwie im frühen 20. Jahrhundert technologisch uns befinden. In manchen Dingen im 18. Jahrhundert.

Tim Pritlove
1:03:03
Ulrich Dirnagl
1:03:16
Tim Pritlove
1:03:48
Ulrich Dirnagl
1:03:50
Tim Pritlove
1:04:33
Ulrich Dirnagl
1:04:36
Tim Pritlove
1:04:37
Ulrich Dirnagl
1:04:43
Tim Pritlove
1:05:51
Ulrich Dirnagl
1:06:00

Ja.

Tim Pritlove
1:06:02
Ulrich Dirnagl
1:06:37
Tim Pritlove
1:07:54
Ulrich Dirnagl
1:07:55

Genau. Das ist nur ein Aspekt davon. Und insofern gleichzeitig … also die technischen Möglichkeiten, das hat auch was mit OpenData und so weiter zu tun, natürlich konnte ich in einem Journal alten Stils nicht meine Daten mit rein packen, aber heute, wenn ich eine Publikation auf dem Netz habe, dann sind die Daten, dass die da mit drinnen sind ist ja quasi nur ein Klick davon weg. Gleichzeitig haben wir aber Hinweise darauf, dass das Journalsystem was wir haben zumindest teilweise mit dafür verantwortlich ist, dass die vorher schon angesprochenen Probleme auch existieren. Also dass zum Beispiel darüber, dass eben Journale, die spektakuläres publizieren und dann auch den Impact-Factor, also diese Maßzahl für wie oft ein Journal zitiert wurde, quasi zur Karrierewährung wird in der Wissenschaft. Dadurch entstehen Anreize in dem System, die manchen sogar zur Unredlichkeit, das sind die wenigsten, aber zu Unredlichkeit verführen, wenn Sie heute eine Nature-Arbeit und eine Cell???-Arbeit haben, dann können Sie im Grunde, wenn Sie ein junger Wissenschaftler sind, davon ausgehen, dass Sie in wenigen Jahren eine Professur haben. Gibt es eine schöne Website dazu, da können Sie – die heißt glaube ich PI-Predict, also Principle Investigator Predict, - da können Sie eingeben, was Sie für Publikationen haben und dann haben die mit einem statistischen Modell gerechnet, wie groß die Wahrscheinlichkeit ist, dass Sie innerhalb von fünf Jahren eine eigenständige Professur haben. Und wenn Sie das da eingeben und die ist sozusagen validiert und das funktioniert und ich kenne Kollegen, die selber sich sozusagen retrospektiv dort getestet haben, die haben gesagt, das stimmt genau. Das ist also von solchen Publikationen dann abhängig. Wenn Sie wissen, dass das so ist, dass Sie also mit ein oder zwei Arbeiten eine Rente bis an Ihr Lebensende bekommen und nur noch 50% für die Krankenversicherung bezahlen, dann ist das für manchen schon zu viel der Versuchung. Aber das sind zum Glück nur wenige. Aber es führt natürlich bei mehreren dazu, dass man das Spektakuläre sucht und das was eigentlich auf dem Weg liegt, am Wegesrand lässt, weil in der Biologie ist nichts schwarz und weiß, aber solche Journale publizieren nur schwarz und weiß. Und das Graue geht verloren. Das ist jetzt die Kritik an den High-Impact-Journalen. Die Journale sind gar nicht zu kritisieren, aber dass das System das so bewertet. Und auf der anderen Seite gibt es natürlich das Predators???-Publishing und ich kriege am und jeder Wissenschaftler kriegt am Tag 1-2 Einladungen, in Journalen zu publizieren, deren Namen er noch nie gehört hat oder die Person noch nie gehört hat. Und das sind also obskure Geldverdienmodelle, wo Sie also eine Publikation eigentlich nur dafür kriegen, dass Sie halt dann dafür bezahlen, dass es in eine richtige Review kriegt??? und so weiter, das ist auf der anderen Seite des Spektrums. Sie können heutzutage sozusagen auf Knopfdruck eine Publikation kriegen. Das zeigt an, dass dieses System üebrholungsbedürftig ist. Und Kriegeskorte hat in einer Arbeit mit ich glaube einer Menge Kollegen zusammen Modelle vorgestellt, auch so ein bisschen durchaus, lass uns mal ganz verrückte Sachen überlegen oder weniger verrückte Sachen. Ich persönlich favorisiere ein Modell und ich denke, dass hat er auch schön ausgearbeitet, indem wir einen offenen Review-Prozess haben, in dem der Review selber Teil des Artikels wird letztlich. Wir arbeiten ja in einem System, wo geheim da vor uns hinwurschteln. Und als Editor eines Journals selber weiß ich, das ist schon wichtig und das ist auch gut und so manches Paper ist dadurch besser geworden. So manches Paper ist dadurch nicht in dem Journal publiziert worden, das wird dann in einem anderen publiziert, wo die Gutachten anders funktionieren. Aber durch relativ einfache Veränderungen, die elektronisch sogar so einfach sind wie nur irgendwas, könnte dieser Prozess des wissenschaftlichen Publizierens übers Nacht zu einem wirklichen wissenschaftlichen Ereignis gemacht werden. Ein wissenschaftliches Ereignis meine ich mit, Wissenschaftler treten sich mit offenem Visier gegenüber, sie diskutieren ihre Arbeiten. Diese Diskussion wird Teil der Community, weil sie offenlegt, Sie können jetzt nicht irgendwelche Kollegen einfach zur Schnecke machen, weil Sie wissen, das kriegen die nie raus, dass Sie ein Paper sozusagen unfair begutachten. Sie können es aber auch nicht über den grünen Klee loben, weil Sie von dem irgendwas anderes sich erwarten. Weil Sie ja das lesen, das würden andere auch lesen und sagen, jetzt ist er aber verrückt geworden der so und so, offensichtlich hat er es nicht richtig gelesen oder so was. Also die Qualität der Reviews würde sich erhöhen. Das ganze Wissen und Knowhow, das in diesen Reviews steckt, würde in der Community mitgeteilt werden und die Community könnte dann an dem ganzen Prozess teilhaben durch weitere comments. Es gibt ja ganze Communities, in denen das mittlerweile heutzutage funktioniert. Irgendjemand hat mal den Vergleich gemacht zu Produktbewertungen bei Amazon. Und das witzige ist, dass wenn Sie Amazon hat dann geguckt, da gibt es irgendwie Super Mario oder so ein Spiel und da gibt es Produkte dazu und da gibt es 18.000 Produktbewertungen dazu, 18.000. Ob die gut oder schlecht sind will ich nicht bewerten, ich kenne ja nicht mal das Spiel. Aber da setzen sich Leute hin und sagen wie sie es finden und was sie gut finden und schlecht finden. Die wissenschaftliche Community, die aber sonst auf Kongresse geht und dort auch diskutiert und so, ist in einer Schockstarre diesem Medium gegenüber. Wo ich mich doch jetzt hinstelle, die regen sich lieber bei einem Bier drüber auf oder grummeln vor sich hin und sagen, so einen Mist habe ich ja noch nie gelesen. Anstatt dass man sich hinsetzt und fünf Zeilen dazu schreibt und dann lesen das auch andere. Ich glaube, das könnte man auch relativ milde anfangen. Also für mich ist es ein schönes Beispiel ein Journal, das heißt F1000 Research, das hat all diese Momente, die ich gerade genannt habe, ohne es jetzt irgendwie ganz radikal zu betreiben, da ist auch der Qualitätsmaßstab absolut ausreichend. Da werden teilweise sogar vier Reviews eingefordert, normal sind zwei. Also dass das geht ist belegt, dass es nicht dazu führt, dass wir im Sumpf verschluckt werden ist glaube ich auch klar. Es ist halt noch nicht, Sie kriegen nichts dafür sozusagen. Also ich fange jetzt an, in Berufungskommissionen, wo ich auch sitze, Leute zu fragen, na wie viele neutrale oder negative Publikationen habe Sie denn veröffentlicht? Bei wie vielen Ihrer Daten sind denn die Daten im Netz? Wie viele Ihrer Publikationen sind eigentlich OpenAccess? Das ist für mich nicht das absolute Kriterium. Einen Wissenschaftler kann man nicht nur daran messen, ob er qualitativ gut arbeitet, weil man kann auch wahnsinnig langweilig sein und irrsinnig tolle Qualität haben, das reicht nicht aus. Aber so ein zusätzliches Kriterium, wir könnten das ganz milde einführen. Wir könnten sagen, ja jetzt gehen wir doch mal 90% nach dem alten Modell und 10% führen wir neu ein. Wir müssen jetzt da keine Palastrevolution machen, sondern wir könnten eigentlich milde, geradezu experimentell vorgehen. Und man könnte sogar … ich habe sogar die Idee, die ist vielleicht wirklich verrückt … aber man könnte in manchen Bereichen sogar studienmäßig vorgehen. Man könnte in einem gewissen Bereich sagen, dort machen wir das zum Standard und in dem anderen machen wir das Standard und drei Jahre später schauen wir doch mal, wo die angekommen sind. Klingt jetzt ein bisschen verblasen, aber ich könnte Beispiele nennen, wo das durchaus durchführbar und auch sinnvoll wäre. So was kann als Experiment gefahren werden und dann lernen wir aus den Dingen, wir sind ja Wissenschaftler. Aber die Wissenschaftler sind bei diesen Dingen so konservativ.

Tim Pritlove
1:15:55
Ulrich Dirnagl
1:16:00
Tim Pritlove
1:16:17
Ulrich Dirnagl
1:16:24
Tim Pritlove
1:17:22
Ulrich Dirnagl
1:17:28
Tim Pritlove
1:18:16
Ulrich Dirnagl
1:18:18
Tim Pritlove
1:18:22
Ulrich Dirnagl
1:18:22
Tim Pritlove
1:18:24
Ulrich Dirnagl
1:18:28
Tim Pritlove
1:18:34
Ulrich Dirnagl
1:18:36

Die würde ich auch sagen, die fünf Jahre sind realistisch. Das könnte auch hier so sein. Das hat mit vielem zu tun, aber an der Stelle vielleicht auch viel mit dem deutschen Universitätswesen, was natürlich tatsächlich noch in vielen Dingen Züge des späten Mittelalters trägt. Und wenn man einem amerikanischen Kollegen erklären muss, was eine Habilitation ist und dergleichen, dann zunächst sind sie unverständlich, dann schmunzeln sie und dann sind sie erfreut, weil sie wissen, das beschäftigt uns mit Dingen, die sie in Amerika nach vorne bringt, weil sie sich mit anderem beschäftigen können. Also das hat auch was strukturelles bei uns. Aber irgendwann kommt es dann immer an. Und wie gesagt, ich habe das Berliner Institut für Gesundheitsforschung erwähnt, dort ist man durchaus glaube ich bereit zu radikalen Experimenten oder das voranzutreiben. Ich muss auch sagen, die Charité, insbesondere unser Dekan, denkt da sehr fortschrittlich und in diese Richtung. Und ich glaube die Institutionen, also das ist zwar irgendwie bisschen peinlich kann man fast sagen, dass der Wissenschaftler selber da sich nicht mehr proaktiv in der Szene bewegt. Aber es ist auch bis zu einem gewissen Grad verständlich, weil er eine abhängige Variable ist in seiner Karriere, in seinen Fördermitteln und so weiter. Und deshalb gucke ich sehr stark auf die Institutionen und hoffe, dass die sich hier bewegen. Und Institutionen heißt an der Stelle auch die Fördergeber, dass die eben gewisse Standards einführen, dass sie gewisse Anreize schaffen, dass sie gewisse Programme auflegen, passiert gerade. Ich habe ja den Stifterverband erwähnt. Auch bei der DFG gibt es solche Diskussionen, zu Replikation war erst vor kurzem eine Tagung, wo die DFG dazu eingeladen hat. Also das ist zumindest als Thema angekommen. Und dann gibt es eben Institutionen, die tatsächlich bereit sind, ihre eigene Forschung strukturell in gewisser Weise neu zu denken. Insofern vielleicht kann es kürzer sein, wenn es an manchen Stellen als die fünf Jahre.

Tim Pritlove
1:20:47
Ulrich Dirnagl
1:21:29
Tim Pritlove
1:22:26
Ulrich Dirnagl
1:22:32
Tim Pritlove
1:22:56
Ulrich Dirnagl
1:22:57

So ungefähr. Also das ist auch zu verbessern. Ich habe zuerst so eine Replikationsinitiative im Krebsbereich erwähnt, die Cancer-Reproducibility-Initiative???. Dort ist es meines Wissens so, dass ein Teil oder sogar der überwiegende Teil dieser Reproduktionen an Firmen übergeben wurde. Die aber vorher mit Qualitätsstandards getestet und auch sozusagen da laufen dann so Blindexperimente mit, so eine Round-Robin???, wo die nicht wissen was drin ist, um das sicherzustellen. Aber der Punkt, den Sie sagen, kann man da eine eigene Karriere oder ist das eine Nische, die für sich auch am Ende Wissenschaft sein kann? Glaube ich auch, dass das so ist, und zwar weil da nämlich sehr viel interessante Wissenschaft selber drinsteckt in dem Replizieren. Und zwar nicht nur in der Theorie des Ganzen, sondern auch in der Praxis, weil natürlich allein .. es geht ja nie nur drum zu zeigen, das ist so oder das ist nicht so. Sondern jetzt habe ich irgendwie ein Phänomen, ich will schauen, gibt es das nochmal. Das Phänomen könnte jetzt eine Substanz sein, könnte aber auch irgendein Mechanismus sein. Jetzt schaue ich, gibt es den nochmal? Bin ich der der repliziert? Wahrscheinlich werde ich erst mal herausfinden, dass ich es nicht replizieren kann, zumindest nicht und dem Maße. Jetzt kann ich sagen, abgehakt so geht das nicht. Aber da steckt ja wahnsinnig interessante Information drin. Jetzt kann ich ja versuchen herauszufinden, warum sich das nicht replizieren lässt. Wenn es daran liegt, dass der der den Originalbefund gemacht hat ein schlechter Wissenschaftler ist und das alles schlechte Qualität ist, ist das langweilig. Aber ich gehe mal davon aus, dass die meisten der Leute, die ihre Arbeit abliefern, eigentlich gute Arbeit abliefern und dann könnte dieser Replikationswissenschaftler herausfinden, es versuchen zumindest, woran das liegt, dass es nicht nochmal so geht. Und da steckt meiner Meinung nach wahnsinnig viel Musik drin. Weil nämlich dabei Bedingungen, damit sind wir wieder bei differentieller Replikation und wie Wissenschaft überhaupt geht, da werden sowohl sozusagen für das mechanistische neue Befunde erhoben. Weil plötzlich findet man raus, wenn die Temperatur hier ein halbes Grad anders ist, dann geht das schon nicht mehr. Dann überlege ich, was hat die Temperatur mit dem Phänomen eigentlich zu tun? Und ich bin in einer neuen Grundlagenüberlegung. Wenn ich in die klinische Richtung denke und ich sage, jetzt mache ich das mit einem anderen Mausstamm und dann finde ich das nicht und dann gehe ich vielleicht zurück und lass mir den Mausstamm von dem geben, dann finde ich es. Dann habe ich was durchaus neues und spannendes raus gefunden, nämlich dass das von einem Mausstamm abhängig ist oder von einer Haltungsbedingung. Vielleicht werden die anders ernährt, was auch immer. Und an der Schiene zu arbeiten kann meiner Meinung extrem fruchtvoll sein, sowohl in der klinischen Translation, weil plötzlich rauskommt, naja vielleicht funktioniert das nur bei Patienten, die den und den Bedingungen, die ich dort wo es funktioniert hat, weil schönes Beispiel ist zum Beispiel die Tatsache, dass sehr viele dieser Experimente nur in männlichen Mäusen und Ratten gemacht wird, aber unsere Patienten sind erfahrungsgemäß Männer und Frauen. Wenn ich jetzt raus finden würde, das wirkt nur in männlichen Versuchstieren, aber nicht in weiblichen, könnte ich natürlich auf die Idee kommen, vielleicht ist das die Population, die ich auch klinisch exklusiv untersuchen sollte und so weiter. Also ich denke, da steckt eine ganze echte Wissenschaft dann wiederum drin und das ist nicht nur jemand, der sagt, das ist ja eh nur jemand, der macht immer nur das nach und dann findet er auch noch das nicht was die anderen machen, das ist ja ein schlechter Wissenschaftler, weil der findet das nicht, was die anderen machen.

Tim Pritlove
1:26:37
Ulrich Dirnagl
1:27:17
Tim Pritlove
1:27:19