FG027 Vertrauen und Kontrolle in der Wissenschaft

Über die Reproduzierbarkeit von Studien und Methoden zur Qualitätskontrolle

Ulrich Dirnagl
Ulrich Dirnagl
Schlaganfall-Forscher, Charité Berlin
Website

Die präklinische Biomedizin hat ein Qualitätsproblem, sagt unser Gesprächsgast Ulrich Dirnagl. Der renommierte Schlaganfall-Forscher von der Berliner Charité hat Hunderte Fachveröffentlichungen zu Schlaganfall und Krebs untersucht und ist zu alarmierenden Erkenntnissen gekommen: Die Studien-Ergebnisse sind oftmals nicht reproduzierbar, Protokolle sind lückenhaft, wichtige Daten nicht verfügbar. Hinzu kommen Mängel im Design und der Auswertung von experimentellen Studien, wie zum Beispiel das Fehlen von randomisierter (also zufallsgesteuerter) Versuchsgruppen-Zuordnung, fehlende oder fehlerhafte Anonymisierung ("Verblindung"). Es gibt eine starke Tendenz zur Veröffentlichung von nur scheinbar vielversprechenden Resultaten.

Wir sprechen darüber, was die Ursachen für eine solche Entwicklung sind: Wie groß muss der Erfolgsdruck bei Wissenschaftlern und wissenschaftlichen Einrichtungen sein, wenn permanente Verstöße gegen gutes wissenschaftliches Arbeiten zur Regel werden? Wie fehlgesteuert sind die Belohnungssysteme und Karrierewege in der akademischen Forschung? Neue Ansätze der Auditierung und des Monitoring, Veröffentlichung von Originaldaten, mehr Kontrolle durch Journale könnten aus der Misere herausführen.

Verwandte Episoden

Dieser Eintrag wurde veröffentlicht in Allgemein von Tim Pritlove. Setze ein Lesezeichen zum Permalink.

3 Gedanken zu „FG027 Vertrauen und Kontrolle in der Wissenschaft

  1. Meta-Analysen, die Alvan Feinstein als „statistische Alchemie für das 21. Jahrhundert“ bezeichnet, erscheinen mir als Antwort auf die Frage von Tim Pritlove, ob es eigene Wissenschaftszweige gibt, die die Forschung selbst untersuchen, nur bedingt geeignet. Es mag ja sein, dass Meta-Analysen in einigen Fällen einen Gewinn für die Naturwissenschaften bedeuten können – sofern sie gut gemacht sind, sie also z. B. nicht – wie so oft – mit erbsenzählerischer Akribie übersehen, dass sie Äpfel und Birnen vergleichen oder sie unter dem Garbage-in-Garbage-out-Problem leiden usw. Sie beantworten aber weniger die Frage nach dem Wie der Forschung, als vielmehr die nach dem Wieviel. Für Wissenschaften deren Gegenstände sich nur unter skurrilen Verrenkungen quantifizieren lassen, möchte ich den Nutzen dieser Analysen zudem einmal grundsätzlich anzweifeln. Dennoch gibt es gerade in diesen Disziplinen die m. E. einschlägigsten Arbeiten zu der Frage, wie Forschung und Wissenschaft funktionieren. Auf den Wissenschaftshistoriker Hans-Jörg Rheinberger wurde in dem Podcast diesbezüglich ja schon verwiesen. Etwas überrascht war ich, dass nicht auf den  Immunologen und Erkenntnistheoretiker Ludwik Fleck verwiesen wurde, der mit seinem Werk „Entstehung und Entwicklung einer wissenschaftlichen Tatsache“ seiner Zeit (30er Jahre) extrem weit voraus war. Er zeigte auf, was heute in der Wissens- und Wissenschaftssoziologie als Gemeinplatz gilt: Wissenschaftliche Fakten sind in ihrer Konstitution nicht ohne das Soziale, die konkrete Praxis im Labor und den historischen sowie gesellschaftlichen Kontext zu verstehen. Fleck analysierte am Beispiel der Syphilis, wie Krankheiten und ihre Behandlungen sowie ihre medizinischen Beschreibungen durch soziale und gesellschaftliche Aspekte konstruiert werden (z. B. die Sicht der Gesellschaft auf Sexualität). Vor diesem Hintergrund ist zudem auf die Arbeiten von Thomas Kuhn zu verweisen, der eindrücklich die Simplifizierungen des Popperschen Falsifikationismus aufzeigte und dieser Normvorstellung von Wissenschaft empirisches Wissen zum Funktionieren der Wissenschaften gegenüberstellte. Die sozialen Facetten des Erkenntnisgewinns, die auch in den Naturwissenschaften gegenwärtig und – wie es scheint – für ihr Funktionieren mehr als relevant sind, wurden später (70er und 80er) mit den „Laborstudien“ empirisch weiter ausdifferenziert: Soziologen wie z. B. der Franzose Bruno Latour, die Österreicherin Karin-Knorr Cetina oder der Brite Stephen Woolgar entfalteten als Beobachter analytische Blicke auf die Alltagpraxis in naturwissenschaftlichen Laboren. Alle diese Arbeiten befassen sich mit dem Wie der Wissenschaften und leiteten für ihr modernes Verständnis wegweisende Beiträge.

    • Ich würde allerdings sagen, die medizinische Forschung und die Biowissenschaften sind hier insofern ein wichtigerer Kandidat als „Wissenschaften deren Gegenstände sich nur unter skurrilen Verrenkungen quantifizieren lassen“, weil die Kosten der Forschung, damit der Mitteleinsatz und auch die Folgekosten einer Ausnutzung des Systems viel höher sind. Es lohnt sich also auf deren besondere Bedürfnisse abzustellen, bevor man zur allgemeineren Betrachtung geht.

      Ein Verständnis des sozialen Kontexts des Laborgeschehens oder Publikationsklimas ist für das Reformieren der wissenschaftlichen Prozesse eine notwendige Dimension. Wenn es aber darum geht Datenerhebungen und Ergebnisse der Vergangenheit zu bewerten, wird es im Allgemeinen nicht möglich sein, deren spezifische mikrosoziale Umgebung zu rekonstruieren. Und es geht ja nicht nur um soziale Prozesse, viele Fehlerquellen gehen schlicht auf kognitive Heuristiken zurück, die keine besondere soziale Komponente haben. Statistische Werkzeuge, auch Metaanalysen, sind das passendere Mittel, aber wenn man ehrlich ist läuft es bei den meisten Ergebnissen auf Wiederholung hinaus. Eine Praxis der Veröffentlichung von Negativergebnissen wäre dabei natürlich enorm hilfreich.

  2. Pingback: Augenspiegel 17-16: Vergebung für lange unbeantwortete Emails - Augenspiegel

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.