Forschergeist
Horizonte für Bildung und Forschung
https://forschergeist.de
Die schrittweise Einführung der Empirie in der Medizin
Woher weiß man eigentlich, welche Therapie wirkt? Dafür gibt es klinische Studien, in denen zum Beispiel ein neues Medikament geprüft wird, ob es hilft und was für Nebenwirkungen auftreten. Doch ganz so simpel ist die Anlage einer solche Untersuchung eben nicht. Es gibt viele Fallstricke, die die Ergebnisse unbrauchbar machen – zum Beispiel wenn die Gruppe, die das Medikament bekommt, und die Kontrollgruppe, die nur ein Placebo erhält, unterschiedlich zusammengesetzt sind. Ohne sauberes wissenschaftliches Arbeiten gewinnt man zwar Daten, aber keine gesicherte Erkenntnis.
Fehler und Verzerrungen in wissenschaftlichen Studienergebnissen systematisch auszuschalten, ist der Kern des evidenzbasierten Ansatzes in der medizinischen Forschung. Gerd Antes (71) gilt als ihr Wegbereiter in Deutschland. Der Mathematiker und langjährige Direktor des Deutschen Cochrane Zentrums am Universitätsklinikum Freiburg hat sich während seines Berufslebens dafür stark gemacht, den empirischen Nachweis von Wirksamkeit in der Forschung ins Zentrum zu stellen und auch Ärzte in der Ausbildung das Know-how beizubringen, Studien kritisch zu lesen. Hier hat es tatsächlich gewaltige Fortschritte gegeben, aber: Qualität ist kein Selbstläufer, und gerade in Pandemie-Zeiten scheint in der Forschung Geschwindigkeit oft vor Gründlichkeit zu gehen. Und wenn man etwa die Wirkung einer Intervention zur Eindämmung des Infektionsgeschehens messen will, der Effekt sich aber in einem Knäuel von Maßnahmen nicht sauber herausfiltern lässt, wird die Untersuchung nicht viel taugen.
Auch Big Data und maschinelles Lernen sind da leider nicht die Lösung, denn was ein plausibler Zusammenhang zwischen zwei Faktoren ist, weiß eine künstliche Intelligenz eben nicht von sich aus, mangels eigener Lebenserfahrung. Nicht jede statistische Korrelation begründet eine Kausalität. Neben der verlässlichen Erhebung von Daten geht es bei evidenzbasierter Forschung eben auch um den Sinn.
Das Gespräch wurde am 28. Oktober 2020 aufgezeichnet.
https://forschergeist.de/podcast/fg084-evidenzbasierte-medizin/
Veröffentlicht am: 11. Dezember 2020
Dauer: 1:32:08
Hallo und herzlich willkommen zu Forschergeist dem Podcast des Stifterverbandes für die Deutsche Wissenschaft. Mein Name ist Tim Pritlove und ich begrüße alle hier zur 84. Ausgabe von Forschergeist, wo wir über Wissenschaft sprechen und oft auch darüber, wie denn Wissenschaft so am besten gemanagt, aber auch durchgeführt werden sollte und zu welchen Erkenntnissen weggekommen sind und welche neuen Erkenntnisse denn so am Horizont stehen, die vielleicht auch mal berücksichtigt werden sollen. Und heute wollen wir darüber einen relativ neuen Begriff sprechen, der der Wissenschaft erst jüngst zugeführt wurde, zumindest wenn man die Skala der Wissenschaftsgeschichte heranzieht, geradezu ein Newcomer, die evidenzbasierte Medizin. Und dazu spreche ich heute mit meinem Gesprächspartner Gerd Antes. Schönen guten Tag Herr Antes.
Ich bin ein halber Ingenieur, Elektrotechnik und habe dann irgendwann festgestellt, dass ich keine Lust habe, mein ganzes Berufsleben dann damit zu verbringen, technische Dinge zu gestalten und zu produzieren, ist zwar auch spannend, aber irgendwie habe ich sehr früh gemerkt, dass ich doch näher an - den Begriff gab es damals noch gar nicht – an die Lebenswissenschaften heran möchte.
Genau und das ganze passierte zu Zeiten, als es die heutige Begrifflichkeit überhaupt noch nicht gab. Also alles, was dort in diese Richtung ging, waren Quereinsteiger, sowohl in den Firmen wie auch in der akademischen Welt. Und ich kam dann als Student dann in diese Richtung. Habe nach dem Vordiplom in Elektrotechnik abgebrochen und hatte dann die Möglichkeit, entweder voll Medizin zu studieren, hatte einen Studienplatz in Kiel oder zum gleichen Zeitpunkt wurde die neue Universität in Bremen, damals als rote Kaderschmiede verschrien, geöffnet. Und da gab es dann ein Sammelbecken von wirklich überragend guten Professoren, die auch irgendwie eine Veränderung wollten und gerade im Bereich der Mathematik teilweise extrem theoretisch ausgerichtete Hochschullehrer, die aber genau Praxisbezug wollten. Und das erschien mir als so viel spannender als jetzt gerade in der klassischen Medizin, einer doch eher altmodischen Universität dort in den Normalbetrieb einzufädeln und deswegen habe ich mich für diesen alternativen Weg entschieden und muss nachträglich sagen, ich glaube, die Entscheidung war gut.
Genau, ich bin umgestiegen auf Mathematik. Konnte dann da die Ausbildung in Braunschweig … Braunschweig war, die technischen Universitäten hatten immer den Ehrgeiz, die härtesten zu sein. Also das hatte mit dem, was das normale Studentenleben so angeblich bietet, oft wenig zu tun. Ich glaube, ich hatte bis zum Vordiplom 25 über lebensnotwendige Klausuren zu schreiben. Und die Ausbildung war auch in der Zeit mit den echten Mathematikern zusammen, wobei wir teilweise mehr gelernt haben, weil wir immer alles auch anwenden mussten. Also ich habe eine überragend gute Ausbildung gehabt, eine Grundausbildung. Aber auch eben theoretische Physik, Teile davon oder auch Mechanik, Materialwissenschaften, also einmal das ganze Spektrum, was man sonst nie wieder hört und an viele Dinge erinnere ich mich heute noch, weil die Ausbildung sehr hart war, aber auch wirklich gut.
Das war eben, wie es genau passiert ist, weiß ich auch nicht, das ist dann irgendwann eine Neigungssache. Also ich bin damals eigentlich völlig blind ins Studium hineingestolpert, also ich hatte weder eine richtige Beratung, ich habe nicht akademische Eltern gehabt, die mir auch nicht helfen konnten, als ich habe geguckt, was könnte den Spaß machen und interessant sein und dann bin ich halt da gelandet. Aber richtig bewusst ist mir das erst geworden dann in den ersten ein zwei Jahren auf welchem Weg ich bin und dann habe ich irgendwann gemerkt, aber ich kann heute nicht mehr begründen, ob es da irgendwie einen besonderen Kick gab, warum ich dann diesen Richtungswechsel vorgenommen habe. Ich fand es einfach reizvoller.
Aber eben aufgrund der Struktur, also Bremen war wirklich auf der grünen Wiese, wirklich auf der grünen Wiese. Das heißt, es gab keine Studienordnung, es gab eigentlich gar nichts, es gab auch keine Inhalte. Aber Hochschullehrer, die jetzt Inhalte wollten und deswegen war ich dann im Mathematikstudium schon im deutschen Krebsforschungszentrum. Und das führte dann ziemlich direkt dazu, dass ich meine Diplomarbeit gemacht habe zu Dosis-Wirkungs-Beziehungen in Tierversuchen. Und das waren damals alles so Pionierarbeiten und deswegen war es auch so spannend. Weil heute wäre das eher normal, Lebenswissenschaften zu studieren, aber ich bin dann dauernd in Neuland, kann man auch so böse sagen, hinein getapst und musste überhaupt erst mal gucken, dass ich da die Füße richtig ansetze. Aber von der Sache her war das damals auch genau die Pionierzeit, wo die Methodik zum Beispiel in Tierversuchen und so langsam auf die Beine gestellt wurde. Also das war teilweise grauenhaft, was da an Qualität geliefert wurde. Und das waren so die ersten Schritte und da als Student dabei zu sein ist natürlich sowohl inhaltlich wie aber auch von der Methodik her sehr spannend.
Ja, wenn man das so krass trennen will. Aber es war nicht nur die Medizin, das war damals zum Beispiel auch, das hieß der Club of Rome. Es gab so in den 70er Jahren eine ganze Bewegung, die sich mit der Endlichkeit der Erde beschäftigt. Das heißt, das ist ja das Thema, was jetzt bei uns mit der ganzen Klimadebatte wieder hochgekommen ist, das gab es alles schon in den 70er Jahren.
Die Grenzen des Wachstums war das Oberthema. Und ich habe zum Beispiel Differenzialgleichungen, das ist ein sehr spezieller mathematischer Zweig, auch in der Physik sehr stark, den habe ich inhaltlich gelernt eben über die Grenzen des Wachstums. Und da wuschen dann auch noch andere Welten zusammen, also jetzt nicht reine Lebenswissenschaften, sondern eher, wie würde man es einordnen, Biowissenschaften im weiteren Sinne.
Also ich habe erst mal von der ersten Station ein Jahr angehängt in Edinburgh. Weil Großbritannien heute wie damals immer viele Jahre voraus war, was diese ganzen Arbeitsgebiete angeht. Also das hat tiefliegende Gründe. Die Empirie ist nicht Deutschlands Stärke. Da gibt es viele Versuche von Philosophen und auch Wissenschaftshistorikern, die das versuchen zu erklären, aber nicht richtig erfolgreich. Das geht zurück bis Jung??? zum Beispiel, ein Wissenschaftsphilosoph. Die Zahl hat in Großbritannien mehr Ansehen als bei uns. Und wir sind immer viel mehr grundlagenorientiert und ganz stark auf dem Bein. Und da liegen wirklich Welten dazwischen, was man von außen kaum sieht. Aber darüber, dass ich dann nach Edinburgh ging, und zudem der das damals gerade neue Buch geschrieben hatte zu diesen Dosis-Wirkungs-Beziehungen, wo ich meine Diplomarbeit gemacht habe, habe ich mich sozusagen wirklich an der Stelle so in die erste Reihe katapultiert, was das Wissen darum angeht. Und dann, als ich dann zurückkam, wäre eigentlich normal gewesen, wieder an die Uni zu gehen und eine universitäre Karriere anzustreben. Das habe ich nur auch untypischerweise nicht gemacht. In diesem Bewerbungskarussell, in dem ich dann da drin war, hat Schering, die Pharmafirma und Chemiefirma aus Berlin, die es damals noch gab, positiv geantwortet und dann habe ich dort Gespräche geführt und bin dann bei Schering gelandet und bin wieder in so einer Pionierphase aufgegangen. Also heute haben die, glaube ich, 80 Biostatistiker und Biometriker, also der Teil, der jetzt von Bayer übernommen worden ist und damals war ich der vierte. Das war auch da Stunde 0 und alle anderen waren Quereinsteiger. Der Leiter von dieser kleinen Einheit war ein Chemiker und dann gab es, glaube ich, einen Psychologen und ich kam jetzt mit der wirklich sehr sehr guten Zusatzausbildung aus Edinburgh zurück und auch darüber ging es dann wieder gewaltig vorwärts.
Die Stunde null für die systematische und wirklich an Qualität orientierte Auswertungsmethodik und auch die Planung von klinischen Studien oder Qualitätssicherung. Ich erinnere mich noch, dass ich damals Qualitätssicherung gemacht habe. Die hatten zum Beispiel als chemische Fabrik auch eine Galvanisiererei. Und da gab es eben auch so Stichprobenpläne, wenn ich 1000 Rohre vernickle oder verchrome, wie viel muss sich am Ende rausnehmen, um zu wissen, oder wie viel muss ich davon prüfen und wie viele von denen dürfen Fehler haben, um zu wissen, dass nicht die ganzen 1000 schlecht oder gut sind? Und das sind alles so, das lief alles damals an. Heute ist Zum Beispiel bekannt Toyota, dass sie die Qualitätssicherung integriert haben in die Produktion und nicht erst am Ende die großen Sammlungen raus ziehen. Aber diese Pläne, die es dazu gibt, die wurden damals gemacht und das war auch … Also diese ganze Systematisiererei war in Deutschland auch natürlich durch den Zweiten Weltkrieg bedingt in den Kinderschuhen in den fünfziger und sechziger Jahren und das kam dann langsam auf die Beine und heute, wenn man sieht, wie es heute gemacht wird und dann zurückschaut, dann staunt man, womit man damals zufrieden war.
Ja. Also eine der philosophischen Unterschiede zwischen Grundlagenwissenschaften und auch den späteren ist, dass in den Grundlagen oft die Idee reicht. Und ich das vielleicht sogar nur einmal zeigen kann, und zwei bis dreimal wiederholen im Labor und dann glaubt es erst mal die Community. Wenn ich aber jetzt hergehe und später zum Beispiel wissen will, ob ein Medikament Nebenwirkungen hat, dann weiß ich, wenn ich eine auf 1000 Nebenwirkungen als ernsthaft betrachtet, dass ich dann nicht mit einer Studie mit 200 Patienten auskomme. Sondern ich muss dann in der Größenordnung Anzahlen haben, dass ich auch diese eine Nebenwirkung zuverlässig erkennen kann. Das heißt, ich muss noch drüber hinausgehen. Das ist ein Denken, was Grundlagenwissenschaftlern völlig fremd ist.
Wir reden über das Ende der 70er und Anfang der 90er Jahre in Berlin und wenn ich gewusst hätte, dass ich nur sechs Jahre hätte warten müssen oder sieben Jahre und die Mauer fiel, dann wäre die Überlegung wahrscheinlich anders ausgegangen. Ja, ich habe mich dort nicht unwohl gefühlt, aber ich konnte mir nicht vorstellen, Jahrzehnte so weiter zu leben. Und immer anzustehen, wenn man in den Westen wollte und drei Stunden an der Grenze zu warten, bis man kontrolliert wurde. Also insofern, das war dann sozusagen die Gewalt der größeren Geschichte. Und dann bin ich wieder an die Uni zurückgegangen, ich habe noch einen kleinen Schlenker gemacht, weil ich immer davon, man kann schon sagen, genervt war von schlechten Vorträgen und schlechtem Unterricht und dann habe ich eine kleine Schleife gemacht, und habe das zweite Staatsexamen in Mathe und Physik gemacht. Das war damals mal wieder eine der großen Phasen von Lehrermangel. Und ich konnte praktisch alle Scheine aus dieser Elektrotechnikzeit einsammeln und war damit für die Physik völlig qualifiziert und für die Mathematik natürlich durch das Diplom sowieso und habe dann wirklich auf das zweite Staatsexamen gemacht und alle Klassen einmal durch unterrichtet, auch in Niedersachsen. Und dann habe ich aber gemerkt, dass das doch auch auf Dauer nicht mein Ding ist. Und bin dann wieder rein geschwenkt und dann wirklich in eine akademische Umgebung. Und habe dann ein paar Jahre in Bremen verbracht, das war dann eher in der mathematischen Statistik. Und dann kam irgendwann ein Anruf aus Freiburg und das war dort seinerzeit, ich würde sagen, in der Rangfolge der akademischen Anerkennung die Nummer 1 in Deutschland. Und hatte dann, nachdem der Vorgänger sozusagen im Amt gestorben ist, in Freiburg den Lehrstuhl übernommen und dann kam es zu einer Lebensentscheidung, wenn man angerufen wird und gefragt wird, ob man nicht kommen möchte, dann muss man entweder sagen, ja und hat sich dafür entschieden und wenn man aber nein sagt, dann ist man auch irgendwie draußen aus der Hierarchiestufe, weil sich das natürlich sofort rum spricht. Und dann hat man gezeigt, dass man irgendwie doch da nicht voll leistungsbereit ist und auch nicht irgendwie auf dem Weg nach oben.
Doch, es vielmehr extrem schwer, weil ich zu dem Zeitpunkt in Bremen war und ich habe dieses Bremen geliebt als Stadt. Und nachdem ich da abgeschlossen hatte das Studium und auch da geblieben bin, da kannte ich praktisch jeden. Das war jetzt Teil der Bremer Sozialisation. Ich war einer der ersten 400 Gründungsstudenten, es waren 400 Studenten über alle Fächer. Also ich glaube, wir waren da 15 Mathematiker oder so ähnlich. Das heißt, man könnte wirklich jeden und dann wuchs das so langsam, aber auch den Zuwachs lernte man natürlich kennen, also das war ein großes Dorf und es hat mir sehr gefallen. Aber Bremen hatte keine medizinische Fakultät. Und damit ist der ganze Apparat, den man braucht, man braucht dann auch Patienten, und den akademischen Zugang zu den Patienten gab es nicht. Und damit war für mich klar, dass ich dann irgendwann gehen muss, wenn ich nicht in der Rüstungsindustrie oder sonst wo landen will. Und das ist dann auch passiert.
Nein, auch wieder ganz untypisch. Ich war damals noch nicht mal promoviert. Ich bin ja auch praktisch ein Spätachtundsechziger, also ich habe auch immer gedacht, naja so eine formale Qualifikation brauche ich nicht, ich will Sinn produzieren. Und habe dann aber doch irgendwann promoviert, damit ich einfach aus formalen Gründen, man war bei gewissen Forschungsprojekte nicht antragsberechtigt ohne Promotion, das ist praktisch der Meisterbrief im normalen Leben. Aber da habe ich mich nie drum gekümmert, eine Professur zu kriegen, sondern habe fleißig publiziert und habe alles gemacht, was mir in den Weg kam. Und irgendwann, aber Jahre später, ich glaube, das war 2011, hat dann die Fakultät gemerkt, wenn sie nicht aufpasst, dann könnte es auch sein, dass ich nochmals einem anderen Ort gehe. Und das stand auch zweimal wirklich auf der Kippe, dass das nicht passiert ist. Und dann was ist das billigste, um jemanden zu halten, man gibt ihm eine Honorarprofessur. Nulltarif, kein Gehaltsaufschlag und gar nichts. Und insofern kam ich dann ganz spät zur akademischen Ehren, die ich natürlich nicht abgelehnt habe. Aber auch das war sehr untypisch. Also ich bin nicht auf einen Lehrstuhl berufen worden, sondern ich habe mich wirklich da hoch gedient. Und ein Teil dieser Entwicklung war eben die Gründung des Deutschen Cochrane-Zentrums. Und dann sind wir damit beim Thema evidenzbasierten Medizin, weil ich das, klingt ein bisschen hochmäßig, aber ich habe es eigentlich importiert, als der Begriff in Deutschland noch gar nicht bekannt war.
Gegründet worden oder begründet worden ist er konzeptionell, kann man sagen, 68, 1968 in einer mittelgroßen Stadt nördlich, nordwestlich von Toronto in Kanada, die zu dem Zeitpunkt und der Name ist eigentlich der Gründungsvater der evidenzbasierten Medizin, Dave Sackett, der hat es geschafft, die Universität dort zu überzeugen, dass sie ein neues Modell beginnen auf der Basis von problemorientiertem Lernen unter anderem. Mit Aufnahmeprüfungen, die nicht per Test geschahen, sondern im Gespräch. Also sehr sehr moderne Konzepte. Und der Hintergrund war der, er war US-amerikanischer Internist, der irgendwann gemerkt hat, so im mittleren Berufsalter, dass er nicht nur nicht mehr dazulernt, sondern dass seine Leistungsfähigkeit abnimmt, weil der Wissenszuwachs ihn überholt. Und als Oberarzt, der für Dienstpläne verantwortlich ist und 1000 organisatorische Sachen machen muss, hat er gemerkt, dass er abhängt. Gibt es so ganz berühmte Zitate von ihm. Und irgendwie ist er dann, das ist auch eine Glücksache, und das sind Momente von der Geschichte, dann hat er dann in Hamilton, so heißt diese Stadt, die Leute gefunden, die ihm zugehört haben, die er überzeugen konnte. Und das war die Geburtsstunde der evidenzbasierten Medizin, ohne dass sie zu dem Zeitpunkt schon so hieß. Das war dann erst mal sehr stark verbunden mit problemorientiertem Lernen, aber dann war das Schlagwort klinische Epidemiologie. Clinical Epidemiology. Das ist sozusagen zusammengebaut, die Epidemiologie hat eigentlich, die klassische, einen anderen Zusammenhang, die ist die Wissenschaft von Populationen, Public Health, also was mache ich eigentlich mit Bevölkerungen, das, was heute Thema ist, ist eigentlich ein ganz klassisches Thema der Epidemiologie. Seuchen, wie schütze ich ganze Bevölkerungen vor irgendwas oder auch Malaria, das ist die klassische Epidemiologie. Und die klinische Epidemiologie zieht die Verbindung zur Klinik. Also brachte die beiden Begriffe zusammen, das waren auch Kliniker, die es gegründet haben. Und die zogen dann ihre Bahnen, das war 68, zum gleichen Zeitpunkt. Das wird meistens zusammen geworfen, aber ist auch kulturell zwei völlig verschiedene Standpunkte und Standorte, Hat Archie Cochrane, der der Cochrane-Colaboration den Namen gegeben hat, in Oxford und damals aber vor allen Dingen auch in Bristol, die erste Station war Bristol in Großbritannien, ein Buch geschrieben über die Anforderungen sozusagen das, was der Arzt in der Medizin macht, sozusagen lückenlos in klinischen vergleichenden Studien zu prüfen. Dieses Buch ist weltberühmt, Anfang der 80er Jahre nachgedruckt worden und das war so das zweite Standbein. Deutschland ist von dieser ganzen Entwicklung völlig unbeleckt geblieben. Aus zwei Gründen, einmal hat Deutschland nicht hier geschrien, wir wollen auch mitmachen, aber die anderen haben auch nicht wichtig gefunden, Deutschland mit einzubeziehen. Und da kommt ein Aspekt rein, den man auch nicht gleich sieht, wenn man sich damit nicht beschäftigt. Es gibt eine Teilung der Welt in, ich sage mal eine Dreiteilung, die erste ist eben diese empirisch orientierte datenliebende Welt Großbritannien, Skandinavien, Holland, Australien, Neuseeland, dann auch Kanada.
Die USA nicht, die USA spielt eine völlig diffuse Rolle. Also im Prinzip mit Einzelwissenschaftlern und Universitäten auch, aber das Gesamtkonzept zum Beispiel hat Großbritannien, das dieses Thema unendlich befruchtet, ein National Health Service, NHS. In den USA hat man als armer Mensch überhaupt das riesige Problem, überhaupt eine ärztliche Versorgung zu kriegen, völlig undenkbar in Großbritannien. Also die Grundphilosophie, die das fördert, die könnte nicht verschiedener sein. Und Deutschland, wie sagt man salopp, flattert irgendwo in dieser Welt zwischen diesen Blöcken, ähnlich wie Frankreich und Italien Und früher wurde es immer genannt, das erste ist die, in der Entwicklung, evidenzbasierte Welt und die zweite, wo wir sind, ist die eminenzbasierte Welt. Übermächtige Klinikchefs und Platzhirsche, die auch ihre Sichtweise der Welt ihrer Umgebung aufdrücken. Und das war zu Anfang unglaublich verschieden. Ich erinnere mich noch, als ich in England mir noch zwei andere Studienorte angesehen habe, da war einer der ganz berühmten aus dieser Welt der Leiter von der London School of Hygiene und Tropcial Medicine, die ist heute dauernd im Gespräch im Zusammenhang mit der Pandemie. Und da ging ich rein und kam mir ein Herr entgegen, dann fragte ich, ob ich den leitenden Professor sprechen könnte. Ich wollte einfach abtesten, ob das für mich der Ort wäre statt Edinburgh. Und dann stellte ich zu meinem Erstaunen fest, dass er mir ganz bescheiden sagte, das bin ich. Ja, also das ist einfach symbolisch bei uns, klingt jetzt sehr böse, aber da geht kein Professor vor die Tür, um jemanden zu empfangen, da sitzt eine Dame, die das dann macht. Also da sind einfach die Welten völlig anders. Und das waren so die ersten Zeiten und das war die erste Phase, wo das personell, aber auch schon in den Grundkonzepten gemacht wurde. Und dann ist in Kanada diese klassische evidenzbasierten Medizin als Konzept entstanden, aber unter dem Namen clinical epidemiology. Und der Name, evidenzbasierte Medizin, der ist 91 entstanden und zwar auf ganz obskure Art und Weise. Es war klar, wenn man so was macht, dann muss man irgendwann einen neuen Namen kreieren, um die Wahrnehmung zu erhöhen und so weiter und so fort, das sind einfach so grundsätzliche Dinge, die man am Anfang machen muss. Und dann dachten die Schlauberger in Kanada, naja das nennen wir jetzt scienced based medicine. Und die Folge davon war, das haben sie auch versucht, dass sie fast zu Tode gekommen wären durch Grundlagenwissenschaftler. Ja, also das war eine dermaßener Aufstand von den Grundlagenwissenschaftlern, die jetzt irgendwie den Verrat sahen, dass ihnen da jemand irgendwas von ihrem Terrain abzwacken will. Und das war so mächtig, dass sie sofort eingesehen haben, dass sie das nicht durchstehen können, sowohl aus politischen Einflüssen, aber auch was die finanziellen Grundstrukturen angeht. Und dann haben sie rumgesonnen, was die denn jetzt für einen Namen sich überlegen könnten, und so ist diese evidenzbasierte Medizin entstanden. Und die Geschichte, da gibt es ein sehr sehr gutes Editorial, wirklich auch lesenswert, wo das einfach so ganz locker und spaßig beschrieben wird, aber das war eine extrem harte Auseinandersetzung und so wurde dieser Begriff dann 91 geboren. Und damit war der dann auf dem Tisch und drang auch so langsam nach Deutschland ein. Auch wieder gleichzeitig wurde 91 das UK Cochrane-Centre gegründet, nach - 71 bis 91 - 20 Jahren Entwicklungsarbeit, wie ich das in Studien vorhandene Wissen global identifiziere und zusammenfasse und wie ich die richtigen da reintue und die schlechten wegwerfe, diese Methodik. Und die ist untrennbar verbunden mit dem Namen Ean Charmers??? Das Ergebnis war, das war ein Geburtshelfer von der Fachrichtung her und Kinderarzt und das Ergebnis war, dass er 88 ca. zwei riesige Bücher, also wirklich kiloschwer geschaffen hatte mit Zusammenfassungen von Studien zu wirklich fast allen relevanten Fragen der Kinderheilkunde, der Pädiatrie und der Geburtshilfe. Und das war der Ast, von dem das stammt, mit riesiger Unterstützung von den wirklich dominierenden Wissenschaftlern in Großbritannien. Das Typische, sofort sprang er über der Funke, genau in die Länder, die ich vorhin genannt habe, Kopenhagen, Amsterdam, Adelaide und ich glaube seinerzeit war es Milan, aber das lag daran, dass da ein sehr sehr aktiver Rückkehrer aus den USA war, und ich glaube, den sechsten habe ich gerade vergessen, aber es war überhaupt nirgendwo auf dem Schirm, dass Deutschland dabei sein könnte. Und dann drang die Begrifflichkeit so langsam bei uns ein und dann gibt es jetzt eine Geschichte, die würde etwas mehr Zeit erfordern, wenn ich die erzählen würde, aber man ist irgendwann mal auf mich gestoßen in völlig anderen Zusammenhängen und als dann ein Projekt kam, Deutschland mit reinzukriegen in die Entwicklung der Evidenzbasierung, dann ist das wieder bei mir gelandet. Da war ich seinerzeit mit beim Aufbau einer Krebsklinik beteiligt und hat dann seinen Weg genommen, hat noch mal drei Jahre gedauert, bis es 98 zur Gründung vom Deutschen Cochrane-Zentrum kam.
Nein, die Cochrane-Stiftung ist die Fortführung davon, aber das ist eigentlich nur die Finanzierungsform. Also ich habe dann ca. 20 Jahre damit verbracht, mit zwei Händen 25 Bälle in der Luft zu halten und 18 Bälle davon waren letztlich Finanzierungsprobleme. Wenn man also bei null anfängt, das geht allen so und viele scheitern und verschwinden, weil insbesondere die Förderstruktur beim deutschen Ministerium für Bildung und Forschung so angelegt ist, dass man zweimal drei Jahre kriegt und dann steht schon vorne mit dabei, dann ist der Wissenschaftler verantwortlich dafür, das zu verstetigen, was natürlich von einem auch öffentlich bezahlten Wissenschaftler irgendwie ein völlig irrsinniges Anliegen ist.
Am Anfang war es erst mal überhaupt nur, die Basics, also die Grundstrukturen zu installieren. Und begonnen haben wir, also ich habe erst mal alleine begonnen und dann gab es eine Kollegin, die dann als sozusagen, hieß damals noch nicht so, aber als Geschäftsführerin mit einstieg. Und dann haben wir mit Studenten angefangen und alles immer auf einem ganz ganz niedrigem Niveau. Und ich habe das immer als Pionieraufgabe der Methodik gesehen. Also wir haben auch ganz früh dann schon sehr viele Artikel geschrieben dazu, weil und das kann man in wenigen Sätzen beschreiben, es eigentlich völliger Irrsinn war über viele Zeiten, wir hatten eine enorme Zunahme an klinischen Studien und wenn man wollte, konnte man eigentlich, da die natürlich aus statistischen Gründen auch bei gleichen Fragestellungen nicht das gleiche sagten, konnte man sich eigentlich immer aussuchen, was man sagen wollte, man musste dann nur die richtige Studie auswählen. Und je mehr Studien es gab, was ja eigentlich gut ist, desto kritischer wurde diese Lage und desto verworrener war auch dann in der Öffentlichkeit die Wahrnehmung von Studienergebnissen. Und deswegen war völlig logisch, also mir war es nach einmal drauf gucken völlig klar, dass das passieren muss, dass man auch schon um zu würdigen, wieviele Patienten in diesen vielen Studien eingeschlossen waren, dass man diese Studienergebnisse, letztlich damit dann eben auch pro Fragestellung, tausende Patienten zusammenfassen muss und das ist das, was letztlich das Rückgrat von Cochrane ist, systematische Übersichtsarbeiten der existierenden Evidenz. Das heißt der vorhandnen Studien.
Bleiben wir doch mal bei diesem Begriff und was das jetzt sozusagen auch konkret bedeutet. Also zunächst einmal haben wir ja so ein bisschen so diese kleine sprachliche Falle, dass, wenn wir was als evident bezeichnen im Deutschen, dann heißt es ja nicht selten, dass es irgendwie was ganz offensichtliches und ganz klares ist. Die Evidenz, die hier gemeint ist, ist natürlich eher die aus dem englischen Sprachgebrauch, wo es halt wirklich um Beweise, um eine Belegbarkeit geht. Jetzt würde man ja meinen, so ja gut, belegen lässt sich im Prinzip ja alles und man kann ja nicht davon ausgehen, dass jetzt vielleicht die klassische Grundlagenforschung jetzt komplett beweisfrei arbeitet. Also irgendwo muss ja hier auch eine Grenze gezogen werden, eine methodische Grenze gezogen werden, wo quasi dieses Feld beginnt oder wo andere Felder nicht reinreichen. Jetzt hatte das Ganze ja so ein bisschen, wenn ich es richtig verstanden habe, seinen Ursprung eben in dieser Epidemiologie, aus der klinischen Sicht, also was ja im Prinzip bedeutet, aus der konkreten Anwendung, aus dem konkreten Erfahrungsfeld dessen, was konkret passiert in Krankenhäusern, Kliniken aller Art und was in dem Zusammenhang dort an konkreten Zahlen erzeugt wird. Und das dann systematisch aufzuarbeiten, mehrere Studien auszuwerten und darauf neue Erkenntnisse zu generieren, das würde ich jetzt erst mal so mitnehmen, ist quasi die Grunddefinition dieser evidenzbasierten Medizin. Jetzt frage ich mich natürlich, was macht diese Quantifizierbarkeit aus? Also woran erkennt man, dass man hier quasi an einem Ziel angekommen ist? Welche Methodiken müssen denn hier zum Einsatz gebracht werden oder ist es einfach nur dieses Zusammenfassen von Studien, so der klassische Revue und Overview über bisher getätigte Felder? Wie würden Sie das definieren, wo fängt die evidenzbasierte Methodik an, was zeichnet sie aus?
Also einmal ein ganz rigides Umgehen mit der Verlässlichkeit dessen, was man da einschließt. Und da gibt es einen Begriff, der wirklich dominiert das ganze Thema, im Englischen oder im Englischsprachigen, Bias. Inzwischen auch eingedeutscht, viele Kollegen sagen inzwischen Bias. Und das ist die systematische Verzerrung. Und es gibt viele Ursachen, das ist völlig unabhängig auch von dem inhaltlichen Fachgebiet. Als wir sagen, evidenzbasierte Medizin, der modernere Begriff ist evidenzbasierte Gesundheitsversorgung, Evidence Based Health Care. Aber das Ganze hat sich inzwischen noch viel weiter entwickelt und eigentlich ist dieses Herangehen, Evidenzbasierung als Grundlage zu wählen, um Entscheidungen zu fällen, inzwischen auch in viele andere Gebiete eingedrungen. Es war immer schon, also zum Beispiel der technische Begriff ist die sogenannte Metaanalyse, wo ich etwas zusammenfasse, der kommt ursprünglich nicht aus der Medizin, sondern aus den Edukationswissenschaften. Aber die Medizin ist immer sehr geschickt und gierig und hat immer mehr Geld, wenn sie irgendwann glaubt, da ist was, was sinnvoll ist, dann greift sie sich das, das ist da auch passiert und viele neigen dann auch dazu, das als Eigenproduktion darzustellen. Also die Erziehungswissenschaften sind, kann man schon sagen, nicht nur tendenziell, sondern auch historisch immer arm. Das sind irgendwelche kleinen Lehrstühle, dann haben sie irgendwo die großen Kliniken daneben und dann wird sie eben eingemeindet, das Thema. Und das ist eigentlich ein einfaches Gerüst. Also bei den Studien, die man einschließen muss, hat sich auch so in den 80er Jahren schon herauskristallisiert, ist eine Grundbedingung, nicht ohne Kontrolle zu arbeiten und keine historischen Kontrollen zu akzeptieren. Das Naheliegende ist ja, ich behandle 1000 Patienten mit irgendwas und da kommt heraus, dass ich vielleicht bei 350 einen guten Verlauf sehe. Da ist ja die Frage, was sagt mir das? Und dann sagt einer hier, ah ja, wenn ich das aber nicht behandelt hätte, dann wären es wahrscheinlich nur 250 gewesen. Dann hätten wir 100 mehr. Und dann neigen viele Mediziner dazu, das als Erfolg zu verkünden und zu sagen, das ist eine gute Behandlung, die nehmen wir jetzt. Und da gibt es x Beispiele dafür, das sind sogenannte historische Kontrollen, die ich irgendwo aus der Schublade ziehe. Dass ich da, weil ich dann zu dem Zeitpunkt völlig andere Bedingungen hatte… Also plumpes Beispiel ist, ich will wissen, ob eine Grippeimpfung funktioniert und vergleiche das irgendwie mit gar nichts machen und das eine mache ich dann in der Grippesaison und das andere irgendwie im Spätsommer. Also Wetter, Ernährung und und und, Lebensumstände, da gibt es x Beispiele. Deswegen ist eines dieser Grundkonzepte, dass ich zeitgleiche Kontrollen brauche und das heißt, zeitgleich, könnte ich jetzt auch wieder auf die Nase fallen und sagen, ich nehme eine zeitgleiche Kontrolle und dann habe ich, wenn ich Pech habe, zum Beispiel wenn ich irgendwas um die Wechseljahre herum bei den Frauen untersuchen will, wenn ich Pech habe, habe ich dann in der einen Gruppe Frauen mit einem Durchschnittsalter von 55 und in der anderen Gruppe ein Durchschnittsalter von 42 und dann kann ich mit Medikamenten machen was ich will, der Hauptfaktor ist der Altersunterschied. Und deswegen muss man diese beiden Gruppen strukturell gleich gestalten und das ist das große Geheimnis dieser Randomisierung. Also ich habe dann da Frauen, die ich in die Studien reinnehmen kann und verteile die in die beiden Gruppen randomisiert und dann kriegt die eine Gruppe die Behandlung und die andere kriegt dann entweder einen Placebo oder keine Behandlung oder irgendwie eine allgemeine Betreuung und wenn man das so macht, dann hat man im Mittel die Bedingung geschaffen, dass der entscheidende Faktor, wo die beiden Gruppen sich unterscheiden, eben nur die Behandlung ist. Sonst habe ich alles andere drin. Da gibt es dann jede Menge Schlagworte, da ist zum Beispiel Confounding immer ein Schlachtwort.
Confounding ist die Vermengung von Einflussfaktoren. Da gibt es schöne Beispiele, das schönste ist, das hat es sogar mal auf den Stern auf die Titelseite gebracht, dass das Einkommen von der Fuß- oder Schuhgröße abhängt. Und das ist eine beliebte Frage, die man auch dann in Workshops und Kursen stellen kann, und man kommt dann relativ schnell drauf, dass Frauen weniger verdienen und aber auch kleinere Füße haben. Und so diese um die Ecke Verbindung von scheinbaren Einflussfaktoren, die ist weit verbreitet und das ist wirklich eine echte Wissenschaft, die Dinge auszuschalten. Weil sonst habe ich irgendwann zum Schluss irgendwie einen Einflussfaktor, der nicht nur unbedeutend ist, sondern auch noch falsch.
Gut, wenn ich mir das so anhöre, das klingt natürlich alles ganz richtig und wichtig und in gewisser Hinsicht würde ich jetzt fast sagen, den Anspruch habe ich dann doch eigentlich an jede Studie, dass die einfach so nachhaltig gearbeitet ist und all solche Störfaktoren mit einrechnet, die richtigen mathematischen, statistischen Prinzipien anwendet, um dann solche Randomisierungen und Vergleichsfaktoren zu machen, dass die Zahlenauswertung stimmt, das ist ja, sagen wir mal, an sich ja ein Qualitätsanspruch. Wenn man jetzt so einen Begriff wie evidenzbasiert ins Feld führt und sagt, naja entweder ist etwas evidenzbasiert oder nicht, es ist ja nicht so, dass jetzt irgendeine beliebige Studie keine Beweise für irgendetwas enthält. Wann, kann man sagen, entspricht eine solche Studienarbeit oder auch eine entsprechende Metaanalyse verschiedener Studie diesen von Ihnen genannten Kriterien? Woran kann ich das messen? Gibt es da eine Möglichkeit, eine Studienarbeit in irgendeiner Form zu zertifizieren, um zu sagen, okay hier erfüllt diese zehn konkret quantifizierbareren, nachweisbaren, messbaren Methodiken und dann ist es gut und dann ist es irgendwie evidenzbasiert und wenn nicht, dann ist es sozusagen Old School und dem traue ich nicht?
Ja, das gibt es, also es gibt kein evidenzbasiert ja oder nein, sondern es gibt eine Skala. Und da sind dann einige Faktoren, die sich über die Jahre, auch aus der methodischen Forschung heraus, ergeben haben. Den einen habe ich schon genannt, das ist der wichtigste, das ist die Fehleranfälligkeit, Bias, ganz systematisch und wenn ich das zu Beginn vermassele bei der Planung schon, dann ist es praktisch irreparabel. Und wir waren sozusagen dann die Polizisten, die gut darin waren, dass zu entdecken und die richtigen Fragen zu stellen. Und das drückt dann in alle Dinge rein. Das drückt dann, wenn ich eine Studie mache in der Medizin, muss ich zur Ethikkommission gehen, da haben wir ganz viele auch Schulungen für die Ethikkommission gemacht, damit die begreifen, worauf sie achten müssen. Also diese normale, wie Sie es gerade formuliert haben, die Ansicht, dass ich, wenn eine Studie gemacht wird, ist doch klar, dann muss ich alle diese Kriterien machen, da gibt es unglaubliche Arbeiten und eine davon ist wirklich, ich glaube, die ist die meistzitierte Arbeit der Welt inzwischen, „The scandale of poor medical research“. Es gibt noch eine andere Arbeit, die auch gegenwärtig sehr stark im Gespräch ist, von einem John Ioannidis, die lautet „Why Most Published Researches Are Wrong“. Und die andere Arbeit, diese „poor medical research“, die ist von Dough Altman geschrieben worden und unglaublich oft zitiert. Und die drückt genau aus, dass dieses, was man naiverweise sogar annehmen müsste, auch als Steuerzahler, dass die Leute, die mit meinen Steuern Forschung machen, auch Qualität liefern. Das ist leider überhaupt nicht so. Ein ganz schnell sichtbarer Parameter ist, wie viel von dem, was an Forschung gemacht wird, ist eigentlich publiziert? Und ich habe Jahre damit verbracht, ich habe Jahre auch bei der WHO mit verbracht, einzufädeln, dass Studien, bevor sie begonnen werden, registriert werden müssen. Und wir haben es auch in Freiburg einmal durchgezogen über die Ethikkommission. Das ist so weltweit, dass im Mittel von Studien, die gemacht werden, nur 50 Prozent publiziert werden. Und jetzt würde man wieder natürlich naiverweise sagen, naja okay, dann fehlt halt die Hälfte. Das Dumme ist nur, und das ist auch völlig klar, dass es so ist, dass natürlich die publiziert werden, wo mir das Ergebnis gefällt, und die, wo mir das Ergebnis nicht gefällt oder wo der Geldgeber sagt, das will ich auf keinen Fall in der Öffentlichkeit sehen, die verschwinden. Und ich habe Jahre damit verbracht, dieses Loch zu stopfen.
Das ist signifikant und dann gibt es 2014 gab es eine Arbeit vom Lancet über, der Titel war seinerzeit, „The avoidable waste in medical resarch“. Da sind dann mal Schätzungen gemacht worden, da gab es einen Sonderband im Lancet, da sind Schätzung gemacht worden, wie viel Geld weltweit in die klinische oder medizinische Forschung geht pro Jahr und die Zahlen die waren in der Größenordnung irgendwo zwischen 200 und 300 Milliarden und wie viel davon oder wie wenig beim Patienten ankommt und wirklich einen Nutzen hat und die Zahlen sind haarsträubend. Also jeder der sie sieht glaubt sie erstmal nicht und wenn er sich dann überzeugt, dass das schon so stimmt, weil da gut gearbeitet wurde, der hat blankes Entsetzen, schöner kann man es nicht sagen. Also insofern es gibt die Skala, es gibt diese Begriffe und Qualität ist kein Selbstläufer, was der Laie vielleicht denken möchte, sondern es ist ein permanenter Kampf und oft sogar Krieg im System.
Ja, genau. Aber es ist tatsächlich, und das ist kein Problem jetzt von der evidenzbasierten Medizin, also wir haben auch dann teilweise eine große Ausstrahlung gehabt in völlig andere Bereiche rein, weil der Publication Bias der ist überall, auch diese Bias-Gefahren sind überall und dann gibt es ein Tool, und das ist inzwischen völlig etabliert und muss angewendet werden bei anspruchsvollen Arbeiten, das heißt, das ist die „The risk of Bias“-Skala und das ist das Tool, das ich praktisch einschätze, sind die und die und die Abwehrmaßnahmen proaktiv gemacht worden, um diese Fehler von vornherein auch in der Planung schon zu vermeiden und nicht zu versuchen, das was früher normal war, hinterher die Scherben zusammenzukehren und zu sagen, oh blöd gelaufen, aber eigentlich müsste ich die Studie wegwerfen. Das Proaktive das hat ganz enorm zugenommen damit und ist auch inzwischen völlig akzeptiert.
Wenn ich es richtig raushöre, steckt da ja eine generelle Forderung von Messbarkeit von Qualität an und auch wenn wir jetzt über evidenzbasierte Medizin sprechen, ist ja eigentlich nichts, was jetzt ein medizinspezifisches Problem ist. Es mag sich dort vielleicht anders auswirken oder ein größeres Problem sein, aber grundsätzlich reden wir ja hier von Wissenschaft ganz im Allgemeinen.
Es gibt viele Gebiete, da sage ich okay, so what, weg damit. In der Medizin können Sie an vielen Stellen sofort weiter schauen und sagen, es kostet Tote, das ist ein riesiger Unterschied. Also gerade jetzt, also das ja sozusagen in dem ganzen Forschungsspektrum von Idee, Grundlagen, Tierversuch, dann hocharbeiten zu einer Therapie und dann anwenden, es ist immer die letzte Meile, wo wir arbeiten. Und auch wenn vorne alles richtig war, wenn wir es hinten falsch machen, bringen wir Menschen um und das ist so. Und das muss man ernst nehmen und deswegen gibt es ja hinten auch Ethikkommissionen und die ganzen Überwachungsmechanismen. Die Grundlagenforscher die können ja vorne erst mal rum spielen wie sie wollen, aber die Zeit des Spielens die ist hinten vorbei.
Wie kann man dem denn jetzt beikommen? Also in gewisser Hinsicht beklagen Sie ja sozusagen, also zumindest jetzt aus der deutschen Perspektive so einen Grundmangel, der sich wahrscheinlich schon in der Ausbildung, wie man wissenschaftliche Arbeiten anzufertigen, anzudenken und durchzuführen hat, sich an der Stelle quasi schon festmacht. Klingt für mich so ein bisschen wie, okay Wissenschaftsgeschichte sollte bei jedem dabei sein, aber eben sozusagen ein Wissen über, wie sichere ich die Qualität einer Studie ab, vollkommen egal in welchem Feld, dass das sozusagen auch so Art Grundausbildungselement sein sollte und es vielleicht noch nicht in ausreichendem Maß ist.
Ja, also ich selbst gehöre noch zu einer Generation, die, was weiß ich, statistische Tests an die Tafel geschrieben hat mit Kreide. Natürlich das ging dann irgendwann elektronisch, aber es war trotzdem völlig daneben, weil diese Herleitung von Formeln und so für einen Mediziner, das hört er einmal und dann denkt er, so what, vergiss es. Und dann haben wir irgendwann angefangen, eine komplette Reform dieser Ausbildung und haben angefangen, muss man natürlich kurz machen, aber dann so Blockausbildung zu machen und Studien zu lesen, kurze Studien, Phase 2 Studien, drei-vier Seiten über, zum Beispiel in der Onkologie über Chemotherapie, wie ist die aufgebaut, wie groß ist die und das zu lesen und dann auch exemplarisch zu entwickeln, worauf muss ich eigentlich achten und ist das und das gemacht worden? Das ist ja auch letztlich das, wo der Arzt dann später, wenn er nicht sich nur noch auf Dinge verlässt, wo er nicht so tief reinguckt, aber dann doch mal drauf schaut und dann Studien hat und sich überlegen muss, und das läuft ja auch in den Fortbildungen, muss ich das eigentlich ernst nehmen? Was hat das für eine Bedeutung für meine Praxis? Und dann kommen die Pfade zusammen und dann macht es auch den Leuten mehr Spaß, aber es ist ein langer Weg dahin, aber so wie es früher mal gemacht wurde, dass man da eine Vorlesung hat und dann in der Statistik irgendwas durchgerechnet und zum Schluss kommt 1,9 raus, das ist, glaube ich, zum großen Teil vertane Zeit.
Die Diskussion läuft ewig, brauchen wir zwei Arzttypen? Den behandelnden Arzt, niedergelassenen oder den forschenden Arzt? Also wenn ich jetzt genau auf diese Punkte, die wir besprochen haben, großen Wert lege, dann würde ich natürlich Ärzten, die das nie wieder anfassen, was Falsches beibringen, die müssen keine Studien mehr planen. Die sollten und das ist ein großes Anliegen der evidenzbasierten Medizin, die soll das, was da ist, richtig lesen. Deswegen es gibt zum Beispiel ein Buch, das war in der ersten Zeit der evidenzbasierten Medizin, „How to read a Paper“. Eins der Pionierbücher von einer Professorin aus Großbritannien natürlich wieder geschrieben. Was ich eigentlich richtig in meiner begrenzten Zeit die Dinge so zu lesen, dass ich die Behandlung meiner Patienten verbessere. Das ist eigentlich in einem Satz gesagt das Anliegen. Und das hat enorme Fortschritte gemacht in der letzten Zeit. Gegenwärtig, wenn man jetzt die Pandemie kurz anspricht, bricht das gerade wieder zusammen, weil der Zeitdruck irgendwie die Berechtigung zu geben scheint, die ganzen Qualitätsansprüche wieder einzustampfen. Also wir habe gerade gegenwärtigen ein völliges Planungs- und Durchführungschaos weltweit. Aber die Grundideen sind eigentlich sehr einfach und sie sind auch weit jetzt über die Medizin hinaus geschwappt. Es gibt ja die Cochrane-Collaboration, aber es gibt daneben und da gibt es jetzt eine Kooperation, Cochrane hatte die auf der Schulbank, die Campbell-Collaboration. Und die umschließt die Sozial- und Edukationswissenschaften. Und das Grundprinzip ist dann und das ist dann wirklich generell und kann man völlig verallgemeinern, ist, ist eine Intervention wirksam? Und diese Intervention ist in der Medizin das Medikament, völlig naheliegend. Schon in der Physiotherapie ist es ein bisschen weitergehend, dann gibt es auch so Beispiele und auch das ist zum Beispiel in Schottland gemacht worden, eine Bewährungshilfe. Also wenn ich jetzt einen entlassenen Sträfling oder wie nennt sich so was in politisch korrekter Form, jemand der ja im Gefängnis war, wenn der entlassen wird, bringt dem was ein Bewährungshelfer oder ein, ich weiß nicht wie die technisch heißen in den sozialen Zusammenhängen. Also jemand, der einem hilft und unterstützt, wieder ins Leben zurückzufinden. Wie heißen die Menschen?
Sozialarbeiter ja, diese Unterstützung, bringt das was? Und dann kann man das gleiche Prinzip anwenden, was ich vorhin beschrieben habe, wo aber jetzt nicht der Chirurg mit dem Messer arbeitet, sondern der Sozialarbeiter wirklich mithilft. Und dann würde man jetzt sozusagen bei der Entlassung von Leuten, die ihre Haftzeit verbüßt haben, randomisieren, wer einen kriegt und wer nicht. Und jetzt sehr verkürzt dargestellt messe ich die Zeit bis er wieder einsitzt, weil die Rückfallquote ja relativ hoch ist. Und wenn der Effekt richtig gut ist, dann müssten die einen deutlich sichtbar länger draußen bleiben oder vielleicht sogar für immer. Und das wäre so ein Beispiel. Die gibt es aber auch in allen anderen sozialen … Also zum Beispiel und wenn man genau hinguckt, weiß man, dass an vielen Stellen völlig unklar ist, ob man es richtig macht. Klassengröße in der Schule, ich bin noch groß geworden in Klassen, die waren mit knapp 40, jetzt sagt man, das muss 20 sein. Wenn man mal nachsucht, wo ist eigentlich die Begründung dafür, läuft man meist ins Leere. Deswegen gibt es auch eine evidenzbasierte Edukationswissenschaft. Und das kann man durchziehen durch alles, an vielen Stellen ist es völlig klar. Und gegenwärtig, und damit bin ich gerade heute auch beschäftigt, weil jetzt heute Morgen entschieden wird, Lockdown oder nicht. Und diese AHA-Regel die ist nicht evidenzbasierten. Die ist einmal extrem schwer auseinander zu kriegen, also wir haben vorhin kurz über das Confounding gesprochen, und jetzt haben Sei bei dem AHA heftige sozusagen komplexe Zusammenhänge, die sie nicht auseinander kriegen. Also was passiert jetzt eigentlich, wenn ich den Abstand nicht halten kann, dann müsste ich eigentlich mit der Maske sorgfältiger sein. Wenn der Abstand größer ist, dann kann ich sie mal so ein bisschen hier rumhängen lassen oder die Nase draußen haben. Und diese Effekte die sind nicht auseinander zu kriegen, aber trotzdem ist klar, dass sie beide allein irgendwie einen Effekt haben. Aber wie groß ist das jetzt, wie eng muss die da sein und bringt eigentlich jetzt, und das ist heute eine massive Frage, bringt eigentlich dieser Lockdown was oder sollte ich nicht die Einzelmaßnahmen eigentlich wieder viel intensiver anwenden? Und das ist alles eine Frage der Evidenzbasierung, hängt in dem Zusammenhang natürlich auch extrem mit der Medizin zusammen, aber ist zum Glück völlig raus aus dem, wie man mal die Evidenzbasierung gestartet hat, wo man einfach versucht hat, Medikamente richtig anzuwenden.
Gut, greifen wir doch mal das Beispiel auf, das ist ja nun jetzt gerade alles mal sehr naheliegend, Sie sagten schon, Oktober 2020 sitzen wir hier zusammen und Deutschland wird gerade von der zweiten Welle der Corona-Pandemie überschwappt und jetzt stellen sich wieder die Fragen, ja was sind denn jetzt die richtigen Maßnahmen? Und da stellt man sich natürlich vor allem erst mal die Frage, ja was haben wir denn bisher eigentlich gelernt? Die Pandemie ist jetzt, je nachdem wie man zählt, zehn Monate in der Welt und ungefähr seit sieben bis acht Monaten vielleicht auch in den Köpfen in Deutschland und Europa angekommen und wir haben ja sozusagen auch jetzt schon die ersten Phase einer Beruhigung oder zumindest einer gefühlten Beruhigung hinter uns gehabt und es ist seitdem doch auch so einiges wissenschaftliches diskutiert und sicherlich auch in Studien zusammengetragen worden. Wie blicken Sie da drauf, was jetzt hier an wissenschaftlichem Geschehen stattgefunden hat? Es ist ja vieles, also wenig ist jetzt an der Finanzierung gescheitert. Es wird halt allerlei wissenschaftlich untersucht in unterschiedlichsten Feldern. Wenn Sie da jetzt mit Ihrer evidenzbasierten Brille auf dieses Geschehen blicken, ist das alles Hühnerhaufen oder haben Sie da auch das Gefühl, dass Sachen gut gelaufen sind?
Hühnerhaufen. Also deswegen bin ich auch in den Medien sehr präsent, weil ich dauernd den Finger in die Wunde tue, dass wir die gesamte Zeit verschenkt haben, jetzt so aufgestellt zu sein, dass wir diese Intervention und das Schema ist genau das gleiche, wir können die Interventionen nicht sauber bewerten. Und das ist, je näher man an die Politik rankommt, desto mehr ist dieses schwarz-weiß-Denken da, auch jetzt. Wir können nur Lockdown ja oder nein und das ist eine der Todsünden in der Statistik, nicht zu quantifizieren. Also wir haben überall völlig versäumt zu gucken, zum Beispiel diese 14 Tage Quarantäne oder Isolierung, wie man es nennt, die ist ja und das haben die meisten Leute oder fast alle nicht begriffen, das sind natürlich immer Wahrscheinlichkeitsverteilungen. Das heißt, ich habe irgendwie was, wo es hinten, was die Ansteckung angeht, runtergeht, und die ist ja schon deutlich vor zehn Tagen, vom Maximum weit runter. Wenn man jeden Tag, den man hinten einspart bei den 14 Tagen, lässt ein paar Ansteckungen raus, also von der Kette, aber das sind wahrscheinlich Milliarden Auswirkungen in der Volkswirtschaft, indem ich nur die Zeiten verkürze. Und das muss man aber dann natürlich ganz gezielt und bewusst angehen, auch in Studien. Also ich muss zumindest erst mal die Daten sammeln, damit ich später daraus was rausziehen kann, auch wenn ich so schnell die Studie gar nicht planen kann. Und das ist von der ersten Minute komplett versagt worden.
Die kommt dann aus, ach so was die Studien angeht, das ist ein unglaubliches Gewirr, Sie haben es Hühnerhaufen genannt, von Studien und die Anzahlen sind jetzt weit über 20.000 nur bei dem einen Thema. Und das kann man gut nachlesen, auch da ist Deutschland wieder schwächelnd. Die Australier haben in Melbourne eine sehr sehr gute Übersicht darüber, die wahrscheinlich auch jede Menge Fehler enthält, aber sie haben das zumindest einmal so aufgestellt, einmal Leitlinien für die Behandlung von Covid, aber auch wieviele Studien gibt es, wie viele systematische Übersichtsarbeiten gibt es, das ist alles da, aber das sind alles dann Schätzungen. Man muss einfach sich klarmachen, dass die Zahlen, die da so entstehen, Schätzungen sind, die wir irgendwo herkriegen müssen und die sind alle deswegen so schwierig, weil wir den wahren Zeitpunkt der Infektion nicht kennen. Es gibt keinen Mittel, den echten Zeitpunkt zu bestimmen. Und deswegen ist alles, was hinten dran kommt, natürlich mit einem Fehler behaftet und eine Schätzung. Aber trotzdem ist es so und das wird dann über Viruslast und und und über die Test bestimmt, wie ansteckend ist der Mensch dann noch? Und da geht es halt runter und jetzt müsste man eigentlich in einer großangelegte Aktion und das läuft natürlich auch an vielen Stellen, hinten sehen, dass man diesen Zeitpunkt zurückfährt.
Aber was wäre denn jetzt dann Ihr Vorschlag für eine Methodik, wie solche Studien denn zu entwerfen sind? Also wenn sich jetzt in Australien so eine große Zahl von Studien allein nur um diesen Zeitraum der Infektion gekümmert haben, dann müsste ja bei so vielen Studien sich in irgendeiner Form da auch eine verlässliche Information draus generieren lassen.
Naja, es gibt erst mal ganz verschiedene Studientypen, zum Beispiel wissen wir ja immer noch nicht, wie groß die Dunkelziffer ist. Und die Zahlen schwanken unglaublich und es gibt eine teilweise bittere Diskussion in den Wissenschaftlerkreisen darum. Ich weiß noch, also ich glaube, vor einem halben Jahr gab es mal eine japanische Studie, die kam irgendwie auf den Faktor 800. 800. Aber das war klar, das war nicht ernst zu nehmen, aber was sehr ernst zu nehmen ist, hat man dann, was weiß ich, bei uns kursiert dann noch die Zahl 10 und wenn man noch ein bisschen weiter runtergeht 7, aber dann gibt es auch 20-40. Da gibt es eine ganz berühmte Studie in Santa Monica, die auch sofort zerlegt worden ist, die hat, glaube ich, das 20-fache festgestellt. Und das hat extreme Konsequenzen und da gehen zwei Tendenzen gegeneinander, was das so schwierig macht. Wenn ich eine größere Dunkelziffer habe, dann ist die Situation weniger gefährlich, weil ich habe ja viel mehr infizierte und damit habe ich eine geringere Todesrate und deswegen ist dieser Nenner so wichtig. Und an der Stelle kommen dann die ganzen methodischen Sachen rein. Aber jetzt zurück zur Evidenzbasierung, die Faktoren heißen NPIs, Non Pharmacological Interventions???. Und die Methodik dafür, das einzuschätzen, da muss man nichts neues machen, da nimmt man das Standardrepertoire und guckt, was kann ich eigentlich machen, wo kriege ich die Daten, um das anzuwenden her und kann das funktionieren? Und das ist eigentlich kein Hexenwerk.
Eine Maske ist ein NPI, die App ist eine NPI, Abstandhalten ist eine NPI, also alle diese AHA-Dinger, das sind so … Jetzt gibt es gerade eine neue Arbeit, so diese Primitive Low Level Tools???, nichts komplexes. Also da wird jetzt nicht irgendwie schon mal ein präventives Medikament gegeben oder so ähnlich, sondern das sind einfach so in den Alltag zu integrierende Dinge und was ist jetzt wirksam auch quantitativ? Zum Beispiel haben die Österreicher einen Mindestabstand von einem Meter, aber eins muss ja besser sein, 1 oder 1,5 oder der Abstand spielt keine Rolle. Also jetzt ist man auch in der Logik von den Sachen, aber ich sehe das extrem ernst die Situation, da ist nichts was lustig ist. Und deswegen ist auch um so erschütternder, wie wenig Anstrengung wir da reintun, die Dinge so zu erforschen, dass sie damit arbeiten können. Da haben wir auch wieder ein deutsches Beispiel, das BMBF hat im, ich glaube, im April 150 Millionen Euro als Budget für Corona-Forschung bereitgestellt. Da würde man ja denken, das ist jetzt die Forschung, die uns vielleicht im Herbst schon hilft, da über die Klippen zu kommen. Die wurden dann der Charité gegeben, damit sie das koordinieren inhaltlich. Diese 150 Millionen haben noch kein einziges Ergebnis gebracht, was uns irgendwie helfen würde, es hat aber auch darüber hinausgehend fast noch kein einziges Projekt begonnen. Wenn man dann anstatt irgendwie jetzt eine krisenangepasste Struktur zu schaffen die übliche Bürokratiekrake auf die Verwalter und Koordinierer losgelassen hat, die die weitgehend gelähmt hat.
Ja gut, ich meine, jetzt können wir natürlich viel klagen, was nicht so gut gelaufen ist, die eigentliche Frage ist ja, auf welche Art und Weise und auf welche systematische Art und Weise kann man jetzt die Situation verbessern? Also wenn Sie jetzt da alle Mittel und Möglichkeiten und Einflussnahmen auf Ihrer Seite gehabt hätten, wie hätte man denn sicherstellen können, welche NPI-Maßnahmen jetzt hier wirklich erfolgreich sind und in welchem Maße?
Ja, ich hätte sofort eine Taskforce zusammengestellt von Leuten die es können, die sich überlegt hätten, welche Daten muss ich wirklich sauber mittransportieren bei der Nachverfolgung von Infizierten, damit ich begreife, was ich daraus präventiv ableiten kann? Da ist einiges gemacht worden, aber einmal ist natürlich auf der logistischen Seite durch die Unterausstattung der naja kaputtgesparten Gesundheitsämter, ich meine, Gesundheitsämter waren immer sozusagen die auch von der Bezahlung der Angestellten war die unterste Klasse im Medizinsystem. Und das merkte man an vielen Stellen, zum Beispiel in der ständigen Impfkommission, wo die immer Vertreter hatten, das war immer so was besonderes, die Akademiker trugen die Nase da oben und die Leute vom Gesundheitsamt das waren eigentlich die, naja die die Hygiene in den Küchen von Restaurants überwachten.
Die Gesundheitswerker, die zum Beispiel natürlich immer für Tropenreisen die Impfungen machten und so und alles das hat ja auch gut funktioniert. Aber die sind natürlich jetzt, weil die überhaupt keine Reserven haben, sowohl von der Kompetenz her wie auch von der Kapazität her, weitgehend überfordert, deswegen hätte man denen ganz früh straff aufgestellte Assistenten, was auch wieder politisch wahrscheinlich schwierig geworden wäre, zur Seite stellen müssen, also auch teilweise mit Top-Down-Projekten, was Robert Koch ja eigentlich machen müsste, aber die auch völlig überfordert sind, was muss ich jetzt eigentlich mithaben, und das ist, soweit ich es von außen sehen kann, weitgehend schiefgegangen. Von dem Menschen, der jetzt infiziert ist, gefragt wird, wo ist es passiert, ist natürlich klar, dass die Daten, die man da dann rauszieht, von der Datenqualität nicht die besten sein können, aber da kommt man jetzt zurück auf den Bias und das ist gerade jetzt heute ein Mordsthema, wahrscheinlich ist das, was man in den Talkshows immer hört, dass das Ganze jetzt überall im privaten Bereich passiert, ein fundamentaler Fehlschluss, weil es so einfach ist, diese Daten zu haben. Und dann ist man genau da drin, was auch in der Evidenzbasierung, was wir vorhin besprochen haben. Ich habe es einmal miterlebt, dass hier in Freiburg eine Geburtstagsparty, 60. Geburtstag mit 60 Leuten, infiziert waren, ich glaube, 53. Und das war interessant, weil ich bin deswegen da rangekommen, weil das eins der ersten Interviews, was ich im Februar gemacht habe, das war mit einer Journalistin, die rief mich dann an und sagte, sie hat schlechte Nachrichten für mich, sie war zu dem Zeitpunkt, wo wir das Interview gemacht haben, infiziert. Und dann habe ich deswegen das alles mitverfolgen können, auch mit der Einladenden und das war extrem einfach. Die waren kooperationsbereit, die hat sofort eine Liste gemacht, das Gesundheitsamt hatte mehr oder weniger nach ein oder zwei Tagen eine komplette Liste mit denen, die da waren, also alles komplett. Wenn man jetzt hört, ist ja oft in den Medien, wie die da hinterher kämpfen müssen, dann ist das natürlich völlig anders, und wenn man jetzt die andere Seite sieht, ja, wenn ich einen Vergleich machen will, wenn ich die andere Seite sehe in Bars, falsche Angaben über die Identität oder die sind einfach verschwunden oder wovon man ausgehen kann, dieses Schlagwort, testen, testen, testen, ist ja auch nicht durchdacht, dann prescht noch jeder Landesfürst vor oder zurück oder in die andere Richtung. Aber dass es sehr naheliegend ist, dass die Rückkehrer aus dem ehemaligen Jugoslawien, die zuerst in Bayern dann in Deutschland eintreffen, die keine Lust haben auf eine Isolierung oder auf eine Quarantäne, dass die versuchen, die Tests zu vermeiden, ist auch völlig klar. Und dann kommen alle diese statistischen Riesenprobleme, die man kennt, zum Beispiel dass die Sichtbarmachung eines Ergebnisses vom Ergebnis abhängt. Also dann haben Sie genau diese ganzen Confounding-Strukturen, dann kommen die Leute rein. Und alles das spielt dann eine Rolle und mir ist nicht bekannt, dass über alles das, was ich gerade angesprochen habe, kompetent nachgedacht worden ist. Und das hätte man in der ersten Minute machen müssen, die Institute haben wir und dann hätte man auch, und dann wäre aber die ganze Entscheidungsstruktur umgedreht worden, dann wären die Vorgaben gekommen davon, was jetzt wirklich sinnvoll ist und was wir machen müssten und nicht zu glauben, auf einem extrem wissenschaftsfreien Niveau, testen, testen, testen. Und langsam begreifen wir, jetzt ist es ja auch überall in den Diskussionen, dass wir zum Beispiel uns die Ressourcen kaputt testen und die, die getestet werden müssten, dass die nicht getestet werden und das kann ich Ihnen so runter deklinieren. Und dann ist man mittendrin gegenwärtig und deswegen ist auch eigentlich diese Evidenzbasierung ein Topthema dafür, aber es gibt einen wunderbaren Artikel, weil gegenwärtig alles so daneben ist, dieser Artikel ist geschrieben worden von der Autorin des Buches, was ich vorhin erwähnt habe, „How to read a Paper“, „Will evidence based medicine survive Corona?“, weil das gerade gegenwärtig alles in die andere Richtung geht und das ist natürlich jetzt wieder rein akademisch gesehen sehr spannend, und im Moment rüttelt sich gerade so ein bisschen zurecht.
Ich meine, wenn man sich jetzt die Erfolge einzelner Länder anschaut auf diesem Planeten bei der Bekämpfung der Pandemie, gibt es ja dann auch Ausreißer in positiver Hinsicht, gibt es da irgendwelche Anzeichen, dass China oder Neuseeland in irgendeiner hier diesem Prinzip der Evidenz mehr Aufmerksamkeit geschenkt hat oder sind diese Erfolge auf anderen Umständen begründet?
Was die Evidenzbasierung angeht, die haben Weltklasse Epidemiologen. Und dann ist man an dem Punkt, dass man wirklich diese Evidenzbasierung ernst nehmen muss, was bei uns nicht gemacht wird. Neuseeland ist völlig verrückt. Die waren 105 Tage coronafrei. Waren wirklich in dem Bewusstsein, es ist frei und um den Preis, dass sie die Grenzen zugemacht haben. Also auch da ist völlig klar, sie müssen ihre Schafe verkaufen, sie können die Grenzen nicht zuhalten auf Dauer, sonst sind sie auch ruiniert. Deswegen greifen die ganzen Dinge so ineinander. Aber nach 105 Tagen ist das Viech wieder aufgetaucht. Und 105 Tage, wenn man zum Beispiel sagt, die durchschnittliche Übertragungszeit ist vier Tage, vier oder fünf Tage, dann sind das schon 20-30 Generationen von Zwischenträgern, dass die symptomfrei passiert ist, gegenwärtig sind wir bei einer symptomfreien Übertragung von ungefähr 19 Prozent, waren noch bis vor kurzem 40 Prozent, egal wie man es nimmt, die Wahrscheinlichkeit, dass so eine lange Kette symptomfrei geht, dass sich das sozusagen in neuseeländischen Körpern versteckt hat, ist fast unmöglich, ist nahe bei null. Das Ding hätte mal irgendwo symptomatisch hochkommen müssen. Ja und ich habe den Neuseeländer gefragt, habt ihr eine leiseste Idee, wo dieses verdammte Viech sich bei euch versteckt hat? Die sagen, nein. Also jetzt mal ins Unreine gesprochen, ich denke ja so banale Sachen, sie haben da auch jetzt Frachtschiffe, wo sie natürlich wollen, dass die Besatzungen an Bord bleiben, aber die Bars und die Damen locken ja trotzdem, wahrscheinlich ist mal nachts einer über den Zaun gesprungen und das war nicht sauber abgeriegelt und hat es dann reingeholt, aber irgendwie so muss es ja passiert sein. Also insofern, aber die Qualität des Umgangs damit, die haben ja dann, als das wieder auftauchte, Aukland sofort hart komplett zugemacht. Melbourne ist das australische Cochrane-Zentrum, wo auch diese riesige Übersicht ist, hat nach vier Wochen, glaube ich, heute Morgen wieder aufgemacht. Und die Bars wieder auf und gleich wieder Party und so und mit denen habe ich auch oft gesprochen. Und ich hatte vor vier Wochen mit der Kollegin da ein langes Telefonat und sie war so völlig entspannt, dass nichts ist und drei Tage später kam ein harter Lockdown und der Lockdown war, was ja auch bei uns gar nicht sichtbar ist, maximaler Bewegungsspielraum um die Wohnung fünf Kilometer. Kontrolliert auf der Straße mit der Polizei. Und dann macht man das vier Wochen und unverständlicherweise, wenn man jetzt mal so eine Landestabelle zeichnet, nur eine Tabelle macht mit den NPI und dann guckt, wie hart sind die Maßnahmen und wie sehen die Opferzahlen aus, dann ist schon zwischen Italien, Spanien, Frankreich, Deutschland, können wir noch Holland dazunehmen oder Dänemark und Schweden, dann ist es so verwirrend, dass wir irgendwas noch nicht ansatzweise begriffen haben. Und dann ist man genau mitten in der Evidenzbasierung.
Bzw. wir sind total in der Konfusion, weil ich glaube, ich habe in der Zeit, also wir nehmen heute auf am 28. Oktober, die Kanzlerin, die Länderfürsten sprechen gerade miteinander, wir wissen noch nicht so ganz genau, was bei rauskommt, aber es sieht jetzt sehr danach aus, dass eben in irgendeiner Form eine Einschränkung der Gesellschaft folgen muss, um die aktuelle Entwicklung zu brechen. Die Frage ist halt, auf welcher Basis wird diese Entscheidung gefällt?
Ja, diese Frage wird gerade in einem Interview, was jetzt gerade entsteht, noch eingeflochten und ich werde gleich noch irgendwie formulieren, dass die Basis mehr oder weniger Pi mal Daumen ist und auf Twitter laufen auch schon die Fragen rum, gibt es eigentlich überhaupt eine Begründung dafür, was da passieren soll, aber noch dramatischer, gibt es eigentlich eine Begründung dafür, warum Kneipen, Bars, Theater, Oper, also sozusagen alle, dieses ganze Spektrum, Sportstätten, Fitnessstudios gesperrt werden sollen? Und ich habe heute Morgen schon getwittert, ich wette eine hohe Summe, dass es dafür keine einzige Begründung gibt. Und es fehlt, und jetzt sind wir wieder bei den Daten, zum Beispiel die Quantifizierung dieser Risiken. Die wird natürlich an der Stelle, wo ich jetzt differenzieren wollte, von entscheidender Bedeutung. Zum Beispiel Raumhöhe oder gibt es ja auch Umluft, wo ich sechsmal in der Stunde die gesamte Luft umwälze und Filter habe, die die Aerosole festhalten und das alles wären ja Dinge. Und ich glaube, aber das ist bei mir eben auch zum großen Teil Glaube, wenn man das alles machen würde, dann wäre ein Abend in der Oper oder im Theater und abends in einem wirklich gut aufgestellten Restaurant tausendmal besser als alles zuzumachen und die Leute fangen zu Hause an vielleicht zu viel zu trinken und sich dann doch mit Leuten zu treffen. Und die Differenzierung ist an keiner Sekunde sauber angegangen worden.
Das bringt uns vielleicht auch noch mal zu so einem speziellen Thema, auch vielleicht nicht unbedingt getrennt jetzt von der Pandemie, weil auch hier hat das ja eine große Bedeutung, Daten. Wir haben ja nicht nur jetzt bei wissenschaftlichen Studien, sondern jetzt sozusagen auch, was so die Kontrolle dieser Pandemie und andere gesellschaftliche Dinge betrifft, immer mehr Datenquellen, auf die man zugreifen kann. Das RKI veröffentlicht derzeit ja auch sehr viele Informationen, nur halt unter Umständen nicht unbedingt so vollständig wie sie tatsächlich vorliegen und vielleicht auch nicht unbedingt immer so ohne weiteres, dass Dritte jetzt diese Daten aufnehmen könnten und ihre eigenen Analysen darauf machen. Wie würden Sie denn generell den Wert von Daten und Datenanalyse bewerten für evidenzbasierte Wissenschaft? BigData ist ja auch so ein Stichwort der letzten Zeit und neue mathematische Ansätze wie Machine Learning sind ja auch gerade so ein bisschen so der aktuelle Heilsversprecher. Ist das etwas, was generell als positiv zu bewerten ist oder schafft es eher noch neue Probleme aus Ihrer Perspektive?
Die Kernbotschaft, die ich immer wieder betont habe, ist, mehr Daten sind nicht prinzipiell besser. Und mehr Daten helfen mir, wenn ich alles falsch mache, Fehler präziser zu machen. Was schlimmer ist als alles andere, weil Fehler, die ich genau mache, sind nicht leicht erkennbar. Fehler, die ich genau mache, heißt, ich habe keine Varianzen und da gibt es schöne Beispiele. Wenn ich große Varianzen habe, bin ich irgendwo gewarnt, dass das mit Vorsicht zu genießen ist. Aber wenn ich zum Beispiel aus einer größeren Stichprobe was schätze und kriege in einer kleinen Varianz eine Zahl raus, aber der wahre Wert ist da, dann merke ich das nicht, dann muss ich ganz andere Mechanismen einbauen, damit ich es merke, wenn die Varianz so ist, dann denke ich, naja das kann drin sein oder auch nicht.
Ja und wenn ich, aber das ist jetzt eine völlig andere Baustelle, wenn ich jetzt riesige Datenmengen habe, dann bricht das gesamte System zusammen. Eine Grundregel ist, wenn ich die Stichproben größer mache bei Vergleichen, dann kriege ich praktisch jedes Signifikanzniveau hin. Also wenn ich zwei Gruppen habe und die haben eine gewisse Größe, dann habe ich eine Signifikanz, das kann ich alles bestimmen, wie groß es sein muss, damit es so oder so passiert. Oder in Konfidenzintervallen gedacht habe ich dann Konfidenzen, da weiß ich, die sind so.
Ja, das fiel mir auch gerade ein. Also dann habe ich sehr sehr große Konfidenzintervalle, wenn ich schlechte Datenqualität habe und viel Streuung oder ich kann das Ganze sozusagen ganz nah beieinander mit Daumen und Zeigefinger zeigen, ganz kleine Konfidenzintervalle. Und ich kann durch die Erhöhung des Stichprobenumfanges der Studie, das ist ja gerade die Studienplanung, mehr Personen oder was immer das ist, in die Studie reintun und kriege dann mehr Präzision, kleinere Varianzen. Damit kann man spielen. Wenn ich jetzt BigData habe zum Beispiel, dann habe ich ja letztlich keine Begrenzung mehr bei den Daten und damit wird jeder Test signifikant, das ist auch was, was der Laie nicht so leicht versteht. Aber damit bricht praktisch die Auswertungsmethodik zusammen. Und das ist nicht richtig bisher durchforscht worden. Was wir gegenwärtig haben, ist, dass dann diejenigen, die damit gerne rumspielen, die methodische Seite nicht ernst nehmen. Und da gibt es dann Literatur und Bücher und das habe ich an x Stellen auch schon geschrieben dass das wirklich unter Kontrolle gebracht werden muss, weil sonst geht es methodisch alles schief. Und das Mantra, was damit vermittelt wurde seit 2008, dass wir keine Theorie mehr brauchen und keine Methodik, weil BigData alles von alleine löst und das ist richtig falsch.
Ich muss zugeben, das habe ich noch nicht so ganz verstanden, warum jetzt mehr Daten, die ja tendenziell auch mehr von der „Wahrheit“ abbilden, an der Stelle meine Methodik torpedieren. Wenn wir jetzt zum Beispiel das Beispiel von vorhin aufgreifen mit, wo finden denn Infektionen statt, so. Jetzt gibt es ja eine ganze Menge Informationen, die bei den Gesundheitsämtern erfasst werden, veröffentlicht werden, diese aber nicht einzeln, also man kann auf diese Grundgesamtheit der gesammelten Informationen so nicht zugreifen, ist mir zumindest nicht bekannt. Es gibt beim RKI dann halt Auswertungen, die dann aber eben nur bestimmte Clusterhäufungen heranziehen, irgendwie ein Viertel der Daten eigentlich überhaupt nur betrachten und davon auch nur noch einen gewissen Teil, so dass ich mir dann halt denke, so ja gut, weiß der Geier, vielleicht wenn man sich jetzt alles hätte anschauen können, hätte ich da meine eigenen Schlüsse draus ziehen können, was davon ist und vielleicht auch mit anderen Methoden auf andere Dinge stoßen, die vielleicht jetzt in den gewählten Auswertungsmethoden so nicht drinstecken. Das ist doch eigentlich erst mal ein Argument für mehr Daten.
Ja, wenn ich geplant mehr Daten erfasse, ja. Aber wenn ich das jetzt gerade irgendwie laufen lasse und dann zum Beispiel vielleicht Daten asymmetrisch einsammle oder zum Beispiel diese Asymmetrie zwischen privat leicht rankomme und in anderen Gebieten schwerer ranzukommen und sozusagen wir ein Bias einfangen schon in der ersten Minute, dann falle ich dem Bias leichter zum Opfer mit mehr Daten, als wenn ich weniger gut geplante Daten habe und es ist noch ein Ressourcenfresser. Also wenn ich jetzt Daten habe, die ich irgendwo einsammeln kann, dann sind das nur Festplatten.
Nein, Bias ist eine tödliche Falle und es gibt zwei grundsätzliche Fehler, das betrifft alles, was wir besprochen haben, das sind die zufälligen Fehler und die systematischen. Und die zufälligen da kann ich mit rumspielen, da muss ich halt mit der Größe, das hat dann mit der Power von Tests und solchen technischen Sachen viel zu tun, aber wenn ich mir eine Schieflage in der Datenerfassung einbaue zu Anfang, die kriege ich nicht mehr raus. Und das ist da der Grund, und deswegen sind diese Automatismen oder Algorithmen, die alles einsammeln, Google ist damit ja mal ganz fürchterlich auf die Nase gefallen, mit der Grippevorhersage, indem sie geglaubt haben, sie analysieren nur ihre Klicks, das haben sie nach einem Jahr wieder aufgegeben, weil sie gesehen haben, dass es nicht geht. Und es gibt auch jetzt einen Artikel, der ist völlig größenwahnsinnig, dass man mit künstlicher Intelligenz schon lange vor der menschlichen Wahrnehmung gesehen hätte, was sich da zusammenbraut, letzten Dezember schon.
Genau, einmal das, naja da haben sie schon irgendwie, naja ich konstruiere mal. Wenn man jetzt irgendwie die Tierproduktion und die Nahrungsaufnahme in China alles mit tausend Daten im Griff hätte, keine Ahnung, aber solche Ideen gibt es und dann ist man beim nächsten großen Punkt, der da eine riesige Rolle spielt und jetzt übrigens auch, wenn ich so was mache und lasse diese Datenkraken los, dann habe ich unvermeidlich auch Fehler drin, die mich auf die falsch Fährte locken. Und wenn die zu groß werden und das ist gegenwärtig Dauerthema, die falsch positiven und falsch negativen Tests, weil das Ganze ja grundsätzlich immer irgendwie ein diagnostisches Problem ist, was zu erkennen ist immer Diagnose. Und dann bin ich genau an dieser Stelle und das ist wieder nicht so einfach. Die Leute begreifen ja heute auch noch nicht, dass, auch wenn ich einen Test habe, der wenig Fehler hat, wenn ich dann mit so einem Test reingehe in eine Population, die praktisch keine Infizierten hat, dass dann die falsch positiven hochschnellen. Also ein guter Test losgelassen auf eine Population, die keine Infizierten hat, hat zwangsläufig, muss ja natürlich, weil der Test ja nicht hundert Prozent sicher ist, macht der positive Ergebnisse.
Ja schlimmer geht es nicht. So krass wird es nicht sein, aber dadurch, wenn ich einen Test habe, der irgendwie im ein-Prozent-Bereich Fehler macht, wenn ich den dann loslasse auf eine Population, ich habe also positive Tests, dann ist die Frage, der nennt sich dann prädiktiver Wert, wie groß ist die Wahrscheinlichkeit, dass dieser Mensch wirklich krank ist und dann ist die Wahrscheinlichkeit erschreckend, dass er mit hoher Sicherheit falsch identifiziert ist.
Nein, heißt es nicht, klar, aber ich muss mir über die Fehler Gedanken machen und der große Knackpunkt dabei ist, auch beim Machine Learning, womit lerne ich. Und da gibt es, aber das führt jetzt weit weg vom Thema, aber ist letztlich auch mit der Evidenzbasierung eng verbunden, dann gibt es Beispiele, ich habe einfach, wenn ich in große Datenmengen reingehe, Korrelationen, die völlig sinnfrei sind. Gibt es ein ganzes Buch und die heißen, da gibt es kein gutes deutsches Wort dafür, Sperious Correlations???. Also dann sagt, wenn ich so was im Vortrag mache, sofort jemand, ah das sind doch aber Scheinkorrelationen. Dann sage ich, nein das sind keine Scheinkorrelationen. Ihr seht hier die Grafik und da gibt es ein fürchterliches Beispiel aus den USA. Der Käsekonsum und die Wahrscheinlichkeit sich mit dem eigenen Bettlaken zu erdrosseln. Ja, da gibt es horrende Beispiele und dann sagen die Leute, ja das ist doch aber Schwachsinn. Ich sage, ja ist auch Schwachsinn. Und das sehen Sie in einer hundertstel Sekunde. Aber die Zahlen, und dann sieht man die Kurven…
Wunderbar. Das heißt, es ist eine nummerische Korrelation, die sinnfrei ist, die der Mensch aufgrund seiner historischen Entwicklung in einem Bruchteil erkennt, die Maschine erkennt keinen Schwachsinn. Die muss sozusagen mit Schwachsinn gefüttert werden, um hoch zu kommen. Wenn man das mal jetzt richtig philosophisch durchdenkt, dann sieht man, dass das Volumen des Schwachsinns unendlich ist und dann ist das Problem unlösbar. Das habe ich schon bei diversen Vorträgen gefragt und die Leute waren immer völlig platt. Ich sage, es tut mir leid, aber ich habe auch selbst noch keine Lösung dafür gefunden. Ich sehe aber auch niemanden, der sich damit beschäftigt. Die Maschine würde dieses völlig schwachsinnige Beispiel nicht als Schwachsinn identifizieren können, es sei denn, man hätte ihr vorher schon eingeimpft, dass es Schwachsinn ist. Und dann ist das, finde ich, mit die reizvollste Frage dabei und ich bin noch nie böse angegangen worden, wenn ich es gesagt habe, die Leute sitzen da und sind dann teilweise völlig platt.
Ja, absolut, ja sicher, die Anforderung ist immer da. Das Ganze läuft dann nur irgendwie auch logistisch in ein nicht lösbares Problem hinein, indem ich immer … Es gibt ein Buch, das heißt „Big Data“, von zwei Autoren, die nicht wirklich verstehen, das sind so meine bösesten Kommentare, die nicht richtig verstehen, worüber sie schreiben. Und da bei Vorträgen, das ist ein österreichischer Jurist, der hat eine Professur in Oxford, und der hat dann als Patenrezept dieses, es war direkt ein sehr provokatives Paper 2008, „The Data Deluge“, also die Datensintflut, macht die Theorie überflüssig. Und das ist so sein Mantra. Dann hat er Folien, wo nur Data, Data, also da ist die ganze Folie voll mit Data, Data, Data, und der vertritt es auch so. Aber den hebelt man mit einer Frage aus.
Also mit den letzten 20 Jahren so im Rückblick war das ja bei allen Klagen darüber, was nicht geht und was nicht gut funktioniert, ein unglaublicher Siegeszug. Also es wird praktisch nirgendwo gesagt, dass wir jetzt mal die Studien ignorieren können und das was da an Evidenz generiert worden ist, dass der Arzt tun und lassen kann was er will, das gibt es praktisch nicht mehr. Auch die Erstattung zum Beispiel, wir haben in Deutschland den gemeinsamen Bundesausschuss, der ist ja so stark auch über das sogenannte Equick??? als Wissenschaftsorganisation damit verbunden, die Evidenz zur Grundlage der Erstattungsfähigkeit durch die Krankenkassen zu machen, das ist einfach da, das ist seit gut 13 Jahren, schätze ich mal, im System drin.
Genau und dann gibt es natürlich sofort auch da wieder die Ausreißer. Und auch völlig verrückt, wo man dann mit Duldung und Unterstützung der Grünen, die sich jetzt gegenwärtig drehen und wenden, wie sie aus der Fall rauskommen, eine gesetzlich verankerte Sonderrolle der Homöopathie mit ermöglicht haben, klar, das sind dann die schweren Versager. Und da ist ja auch zum Beispiel in den Fortbildungsgrundlagen ist das immer noch drin, dass auch als Nebenfach in medizinischen Fakultäten Homöopathie gelehrt wird und so. Also da gibt es jetzt tausend Fragezeichen, die kann ich Ihnen alle so auferzählen, aber die großen Dinge, Blutdrucksenkung, also wirkliche Volkskrankheiten oder bei Krebs. Krebs ist ein gutes Beispiel, auf der eine Seite sind sehr viele Sachen wirklich evidenzbasiert besser geworden und gleichzeitig ist diese sogenannte personalisierte Medizin in dem Bereich, wenn man es richtig macht und nicht wieder glaubt, dass man da jetzt über alles wegfahren kann mit vielen Daten, gezielt und intelligent sicherlich ein riesiger Fortschritt.