Forschergeist
Horizonte für Bildung und Forschung
https://forschergeist.de
Wie wir Entscheidungen fällen und der Wert einer Fehlerkultur
Kopf oder Bauch? Wir treffen jeden Tag Entscheidungen und glauben, sie beruhen auf der rationalen Abwägung sachlicher Argumente. Doch das ist ein Irrtum! Viel öfter hören wir auf unser Gefühl. Und damit fahren wir meistens auch ganz gut, denn viele Risiken können wir gar nicht exakt abschätzen.
Der Umgang mit Ungewissheiten bei der Entscheidungsfindung hat den Psychologen Gerd Gigerenzer immer schon fasziniert. Er gilt als der Nestor der deutschen Risikoforschung. Der 71-Jährige ist Direktor emeritus des Max-Planck-Instituts für Bildungsforschung in Berlin und hat dort das Harding-Zentrum für Risikokompetenz aufgebaut.
Gerd Gigerenzer möchte den Menschen verständlich machen, was unsere Entscheidungen beeinflusst. Die Intuition, auf die wir uns im Alltag so oft verlassen, ist gerade in Führungspositionen geradezu verpönt – zumindest nach außen hin. Bauchentscheidungen lässt ein Vorstand deshalb häufig im Nachhinein durch Zahlenwerk absichern. Gigerenzer warnt vor einer solchen Rechtfertigungskultur, für die viel Zeit und Geld zum Fenster hinausgeworfen wird.
Risikokompetenz ist aktueller denn je in Zeiten von Algorithmen und Scoring-Systemen, die unser Leben immer stärker prägen werden. Gigerenzer fordert mehr Risikokompetenz, um Statistiken und Zukunftsprognosen kritisch zu hinterfragen. Das fängt bei der Wettervorhersage an: Was bedeutet eigentlich 30 Prozent Regenwahrscheinlichkeit? Und Data Literacy betrifft auch weniger banale Fragen – wie die Schufa unsere Bonität einschätzt oder welche Therapie uns der Arzt verordnet.
https://forschergeist.de/podcast/fg068-risikoforschung/
Veröffentlicht am: 30. Mai 2019
Dauer: 1:38:14
Hallo und herzlich willkommen zu Forschergeist, dem Podcast des Stifterverbands für die deutsche Wissenschaft. Mein Name ist Tim Pritlove und ich begrüße alle zu Nummer 68 unserer Sendereihe über Wissenschaft, wissenschaftliche Fragen, wissenschaftliche Ergebnisse und oft und so ist es auch heute beleuchten wir konkrete Forschung und auch so die Ergebnisse der Forschung in einer ganzen Lebenszeit und heute tauchen wir ein in die Psychologie und hinterfragen unsere Entscheidungen und die Arten und Weise, wie wir da hinkommen. Und dafür begrüße ich zunächst einmal Gerd Gigerenzer, schönen guten Tag.
Herr Gigerenzer Sie sind Psychologe. Wir befinden uns jetzt gerade hier in Berlin im Max-Planck-Institut für Bildungsforschung in einem wunderschönen Gebäude im Übrigen, also ganz toll und das ist sogar aus den 60er Jahren, das ist eine Architektur, die man nicht unbedingt erwarten würde. Das ist sicherlich sehr inspirierend, hier zu arbeiten, aber Sie haben ja sehr viele Stationen in Ihrem Leben auch gehabt. Mich würde zum Start mal interessieren, warum sind Sie denn überhaupt in die Psychologieforschung gegangen? Was hat Sie denn dahin inspiriert? War Wissenschaft für Sie schon immer klares Ziel?
Nein, auf jeden Fall nicht mehr in diesem Sinne. Und das waren noch zwei Tage richtige Prüfungen. Und dann habe ich zu studieren begonnen. Das war eine etwas ungewöhnliche Zeit, weil es waren im Wesentlichen, das Universitätsgebäude war voller roter Banner, marxistische Gruppen waren da, selbst die Statistik wurde von marxistischen Gruppen zumindest versucht zu dominieren und es war viel los damals.
Nun er hat an der Tafel damals mit Kreide Formel nach Formel geschrieben, abgeleitet, wir haben das kopiert, dann hat er es wieder ausgewischt, weil ein Fehler drin war. Wir haben wieder von neu angefangen und haben dann protestiert. Und er wurde abgesetzt und der Psychologieprofessor hat Statistik gemacht. Und dann habe ich eines gelernt, Statistik ist nicht Statistik, es ist etwas völlig anderes. Dann habe ich mich selbst beworben als Statistiktutor, weil ich dachte, am besten lernt man, indem man lehrt.
Und das war so ein Weg hinzukommen zu dem späteren Thema, Verständnis von Risiken. Und tja, dann habe ich also mein Studium mit Musik finanziert, ich war Musiker und habe dann am Ende des Studiums, also als ich kurz davor war, meinen Doktor zu machen, nun eine Entscheidung treffen müssen, nämlich weiterhin auf der Bühne bleiben oder eine akademische Karriere zu versuchen. Auf der Bühne zu bleiben bedeutete, dass ich einen sicheren, das hatte ich schon mehr als zehn Jahre gemacht, einen sicheren Job hatte, auch wesentlich mehr verdiente als an der Universität.
Nein, das war Dixieland, Soul, Jazz Und es an der Universität zu versuchen, das war ein Risiko. Weil ich wusste ja nicht, werde ich einmal Professor werden oder werde ich scheitern? Also habe ich die risikoreiche Alternative gewählt und das ist sozusagen die kurze Geschichte, wie ich da hinkam, wo ich heute bin.
Ich habe keine Rechnung gemacht, sondern das ist auch eine der Punkte, die mir damals deutlich wurden, dass die klassische Entscheidungstheorie, die, wo man nun alle möglichen Konsequenzen vorhersieht und sie gewichtet und den Nutzen mit den Wahrscheinlichkeiten multipliziert, eben nicht beschreibt, wie ich es gemacht habe und so gut wie. Und auch nicht beschreibt, wie die meisten anderen es machen. Und in meiner eigenen Forschung später habe ich dann versucht zu untersuchen, wie Menschen wirklich Entscheidungen treffen ohne Wahrscheinlichkeiten. Und ohne Nutzenabwägungen. Und das heißt, Entscheidungen unter Ungewissheit, wie diese Situation, wo man nicht wissen kann als junger Mensch, was wird sein in zehn Jahren?
Da werden wir ja gleich drauf kommen. Um vielleicht nochmal das Lebensbild abzuschließen, später sind Sie dann von München auch nach, also hier zum MPI für Bildungsforschung gewechselt als Direktor und haben später dann auch noch das Harding-Zentrum für Risikokompetenz hier sozusagen begründet, ich weiß nicht, begleitet, aufgebaut. Das ist ja ein Teil der Forschung hiervon.
Ja, das ist eine eigene Geschichte. Ich hatte einmal ein Buch geschrieben, das war mein erstes populäres Buch. Das heißt im Deutschen „Das 1x1 der Skepsis“, im Englischen heißt es „Reckoning with risk“. Es wurde in London für den Preis der Royal Society nominiert, also es kam unter die letzten sechs. Ich habe ihn nicht gewonnen den Preis, sondern es hat damals immer jemand aus dem Commonwealth gewonnen.
Ein britischer Investmentbanker, David Harding, hat darüber in den Zeitungen gelesen, hat sich eine Kopie des Buchs gekauft, hat dann weitere Kopien seinen 200 Mathematikern geschenkt und mich eingeladen zum Vortrag. Ich habe den Vortrag gehalten im Imperial College und nachher waren wir aus zum Abendessen und er hat mich gefragt, was so mein großer Traum ist. Da habe ich gesagt, ich träume davon, ein Institut zu gründen, das hilft Menschen, Risiken zu verstehen und entspannt und informiert statt ängstlich mit ihnen umzugehen. Und dann hat er mir seither einige Million Euros gegeben, um dieses Institut aufzubauen. Als David Harding hier am Max-Planck-Institut kam, hat er in seiner Einleitung folgendes gesagt, er als Investmentbanker hat immer gewusst, dass die meisten Professionellen im Bankbereich Zahlen nicht verstehen, aber ihm war nicht klar, dass das gleiche für Richter und Ärzte gilt.
Nicht jeder Mathematiker versteht Statistik. Schauen Sie, statistische Information ist das, was die medizinische Forschung bringt. Es ist sozusagen die Zähmung der Ungewissheit. Und statistische Informationen zu verstehen ist wichtiger in einer modernen Demokratie als die Mathematik der Gewissheit, Algebra, Geometrie, Trigonometrie. Das ist eine schöne Mathematik, aber man sollte zuerst die nützliche Mathematik lehren, also nützlich im Sinne für die große Gemeinschaft von Menschen.
Und das ist statistisches Denken, so würde ich das sagen. Man soll es nicht als Mathematik lehren. Das geht hier ins Ohr rein und im anderen Ohr raus, sondern man muss es lehren mit der Wirklichkeit, so dass die jungen Menschen und auch ältere Menschen den Bezug verstehen. Also ich nehme mal ein Beispiel: Vor einiger Zeit hat uns die Weltgesundheitsorganisation gewarnt, dass für jede 50 Gramm von Wurst, die wir essen, unser Risiko, einen Darmkrebs zu bekommen, sich um 18% erhöht, 18%. Essen Sie noch Wurst?
Und das ist auch 18% mehr. Also das heißt, wenn man sagen würde, nun für jede 50 Gramm, die Sie Wurst oder anders verarbeitetes Fleisch essen, steigt Ihr Risiko um weniger als einen Prozentpunkt, damit kann man wenig Aufmerksamkeit und Angst erregen, aber mit 18% mehr geht das. Das ist ein Beispiel dafür, wie auch heute noch mit einem einfachen Trick hier, nämlich statt absoluter Risikoanstieg den relativen zu berichten, größere Zahlen machen mehr Angst. Die Menschen mit manipuliert werden. Und statistisches Denken ist die Fähigkeit, durch diese Tricks durchzusehen und sie zu erkennen, um selbst die Fernsteuerung des Lebens wieder in die Hand zu nehmen, statt sich Angst machen zu lassen.
Ich denke, der Satz transportiert ja zumindest eine Skepsis, die man vielleicht haben sollte. Also sozusagen dieses Anzweifeln einer Behauptung oder zumindest der Darstellung einer Zahl und das ist ja das, was Statistik letztlich sagt. Also auf der einen Seite hängt es natürlich von den Zahlen ab, auf der anderen Seite hängt es davon ab, wie man diese eben interpretiert und präsentiert?
Aber da steckt natürlich eine ganze Menge mit drin, weil man natürlich, naja mit Unterstellungen ist immer ein bisschen schwierig so, aber wir wissen ja alle, dass gerade in der letzten Zeit, es nimmt eher zu, der Kampf um die mediale Aufmerksamkeit und damit ja sozusagen das Gewinnen von Zuschauern und damit potenziellen Einnahmequellen, weil Aufmerksamkeit die Währung der Werbung ist, und die Werbung die Quelle des Geldes ist, dass man sozusagen hier drauf bewusst eben verzichtet, Klarheit zu schaffen. So dieses Anteasern in Überschriften, die sozusagen den eigentlichen Fakt hinweglässt, ein populäres Fertiggericht lässt eine große Komponente weg und im zehnten Absatz erwähnen wir es dann vielleicht mal irgendwann, was eigentlich ganz unwichtig ist. Das ist ja sozusagen auch ein Trick, der benutzt wird und läuft ja dann sozusagen der Wahrhaftigkeit der Darstellung von Fakten entgegen.
Ja. Und das werden wir nicht kontrollieren können. Aber was wir kontrollieren können, ist, dass die Menschen da durchsehen und sich das nicht bieten lassen und sich auf keinen Fall verführen lassen. Und das ist, was ich meine mit Risikokompetenz. Hier geht es um das Verständnis von Daten, von Fakten und auch das Verständnis, dass man jede Statistik in mindestens zwei Arten und Weisen darstellen kann. Eine ist verständlich transparent und die andere ist irreführend. Absolute Risiken sind transparent, relative Risiken führen viele Menschen in die Irre. Und das ist nicht das einzige Prinzip. Nehmen wir mal an, Sie hören im Wetterbericht, dass es morgen mit einer Wahrscheinlichkeit von 30% regnet, was bedeutet das? 30% von was? Wir haben eine Studie in vielen Ländern in Europa und den USA durchgeführt. Die meisten Berliner denken, dass es bedeutet, dass es morgen in 30% der Zeit regnet, also sieben bis acht Stunden.
Andere denken, es wird morgen in 30% der Gegend regnen, also wahrscheinlich nicht wo ich wohne. Die meisten New Yorker denken, die Berliner haben überhaupt keine Ahnung, es bedeutet etwas drittes, nämlich dass es an 30% der Tage regnet, für die diese Vorhersage getroffen wurde. Also wahrscheinlich morgen gar nicht. Sind Menschen dumm? Also manche meiner Kollegen sind zu dem Schluss gekommen. Das Problem liegt aber hier mindestens so viel bei der Risikokommunikation. Das Nachrichtensprecher und Meteorologen nicht immer gelernt haben, wie man ein Risiko kommuniziert. Also in dem Fall, was ist denn die Bezugsklasse von den 30%? Sind das Tage, ist das Zeit oder Ort? Und was die Meteorologen meinen ist, es sind Tage. Dass es an 30% der Tage, für die man die Vorhersage macht, ein Minimum an der Messstation regnet. Aber wenn man das nicht sagt, dann denken sich Menschen etwas vernünftiges aus. Und wer Vorstellungskraft hat, kann auch ganz andere Referenzklassen finden. Eine Frau Athen in sagte uns, ich weiß was 30% Regenwahrscheinlichkeit bedeutet, drei Meteorologen denken es regnet und sieben nicht.
Das ist jetzt ein zweites Prinzip. Also frage immer, Prozent von was oder Wahrscheinlichkeit von was? Und diese Prinzipien sind einfach zu lernen, aber sie werden immer noch nicht in allen Schulen gelernt. Nicht einmal im Medizinstudium lernt jeder angehende Arzt das. Geschweige denn vom Studium der Juristerei.
Also meine Gruppe und ich wir machen das. Und es gibt auch die Unstatistik des Monats, die ich zusammen mit zwei Kollegen, Thomas Bauer und Walter Krämer schreibe. Das ist eine kurze Meldung über eine Pressemeldung, wo man die Zahlen verdreht hat, das können Sie nachlesen unter unstatistik.de. Und das ist eine Hilfe, um die Menschen zum Denken wieder anzuregen, zum Mitdenken.
Jetzt führt das ja alles so ein bisschen auch zu dieser Frage, auf Basis wovon treffen wir denn eigentlich unsere Entscheidungen? Weil sozusagen diese Fehlinterpretation der Statistik impliziert ja jetzt, dass ich diese Statistik dann sozusagen auch wirklich als Anlass nehme, eine Entscheidung zu fällen.
Also sozusagen eine externe Beeinflussung. Natürlich sind wir Wahrnehmungstiere und versuchen natürlich alle möglichen Fakten oder geglaubten Fakten zumindest um uns herum zu versammeln, um dann eine, wie man so schön sagt, informierte Entscheidung zu treffen. Jetzt haben Sie ja diese ganzen Entscheidungsprinzipien, die in Menschen ablaufen, sich über lange Zeit angeschaut, wie sind Sie da vorgegangen und zu welchen Erkenntnissen sind Sie denn gekommen, wie eine Entscheidung abläuft beim Menschen?
Nun, man kann ganz grob zweierlei Situationen unterscheiden. Solche, wo wir es mit messbaren und bekannten Risiken zu tun haben, das sind die meisten Beispiele, die wir jetzt hatten. Also Wetterwahrscheinlichkeiten und solche Dinge, die man relativ gut für einen begrenzten Zeitraum vorhersagen kann. Dann gibt es aber viel mehr Situationen, wo man es mit Ungewissheit, also mit nicht berechenbaren, Risiken zu tun hat. Meine Entscheidung, was soll ich tun, weiterhin auf der Bühne stehen, Musik zu machen oder eine akademische Karriere zu versuchen, ist eine unter Ungewissheit. Da kann man sich nicht ausrechnen, was passieren wird. Wenn Sie dagegen heute Abend ins Spielkasino gehen und Roulette spielen, dann können Sie sich ausrechnen, wie viel Sie auf lange Sicht verlieren werden.
Nun, wir haben zum Beispiel Experten untersucht, die Entscheidungen treffen im Bereich der Wirtschaft oder auch Ärzte und ich habe auch Richter trainiert. Und die wirklich mit Ungewissheit umgehen. Und das Mittel, eines der großen Mittel, mit Ungewissheit umzugehen, das sind sogenannte Heuristiken, das heißt, einfache Regeln, die aber sehr sehr gut sein können. Also im Investmentbereich eine einfache Heuristik wäre, nun, verteilen Sie Ihr Geld, ein Drittel in Bonds, ein Drittel in Stocks und ein Drittel in Real Estate, das ist eine Heuristik. Die hat keinen Anspruch optimal zu sein, aber man kann nicht optimal sein in einer Welt, wo man die Zukunft nicht kennt. Und ich habe auch gezeigt, dass Heuristiken oft besser sind, akkurater, nicht nur schneller, als sehr sehr komplizierte Methoden. Ein Beispiel, erinnern Sie sich noch an Google Flu Trends? Google wollte zeigen, dass man mit BigData die Verbreitung von Grippe und grippeähnlichen Erkrankungen viel viel besser vorhersagen kann
Richtig. Also man hatte eine ganz vernünftige Idee, nämlich man versucht herauszufinden, wer Grippe hat, über die Suchbegriffe, was soll ich machen, wenn ich das … und dann die Suchbegriffe zu ermitteln andere, die mit Grippe korrelieren. Und man hat ungefähr 50 Millionen solcher Suchbegriffe analysiert, dann einen Algorithmus getestet und entwickelt, der 45 Suchbegriffe hat und der sonst geheim ist und dann hat man vorhergesagt. Das begann 2009, das Problem war, dass 2009 die Schweinegrippe kam und die kam außerhalb der Session, also die Berichte waren im Wesentlichen von April bis zum September, wo der Höhepunkt war und der Algorithmus hatte gelernt, dass Grippe immer hoch ist im Winter, niedrig im Sommer. Und das war das erste Mal, dass der Algorithmus sozusagen auf die Nase gefallen ist, denn auch ein BigData kann auch nicht viel mehr als zu hoffen, dass die Zukunft genauso ist wie die Vergangenheit.
Das kann ja nicht denken. Dann haben die Google Ingenieure darauf reagieren in einer typischen Art und Weise, nämlich wenn wir einen komplexen Algorithmus haben, der nicht funktioniert, dann machen wir es komplexer und haben 160 Variablen reingenommen. Nach unserer Forschung wissen wir, dass unter hochgradiger Ungewissheit und das ist der Fall mit Grippe und Viren, man es nicht komplexer machen muss, sondern einfacher machen muss. Aber diese Einsicht hat sich noch nicht überall durchgesetzt. So haben sie das auf 160 erhoben und dann gab es weitere Probleme, nämlich dass Menschen, die Suchbegriffe eingegeben haben, nicht weil sie Symptome hatten, sondern weil sie neugierig waren, und am Ende ist das Ganze so um die 2015 eingestellt worden. Es ging nicht. So, jetzt gebe ich Ihnen ein Beispiel.
Der große Unterschied zu vielen anderen BigData-Versprechungen ist, dass sie wirklich Vorhersagen gemacht haben und öffentlich gezeigt haben, man konnte es überprüfen. Nun, unter Ungewissheit, so haben wir gezeigt, muss man vereinfachen bis zu einem bestimmten Punkt. Jetzt haben wir uns überlegt, was wäre die einfachste Methode, um die Verbreitung von Grippe vorherzusagen, also genau was Google vorhergesagt hat, war die Anzahl der grippebezogenen Arztbesuchen in einer bestimmten Region. Was meinen Sie, was wäre die einfachste Methode, ohne BigData, ohne 50 Millionen Suchbegriffe, sondern mit einer Portion gesundem Menschenverstand? Nehmen Sie nur eine Variable.
Nein. Noch etwas, was ganz einfach findbar ist. Man nimmt die grippebezogenen Arztbesuche vor zwei Wochen. Das ist das früheste Datum, was zur Verfügung steht, von vor einer Woche hat man noch keine Daten. Und dann formuliert man eine Heuristik, nämlich die grippebezogenen Arztbesuche in der Region werden genau die gleichen sein wie vor zwei Wochen.
Und diese einfache Heuristik hat einen wesentlich kleineren Fehler, das heißt eine bessere Vorhersage als der gesamte BigData-Algorithmus. Das haben wir gerade gezeigt. Was es illustriert, ist, dass unter Ungewissheit BigData und komplexe Modelle wahrscheinlich versagen. Und man hier besser beraten ist, wenn man einfache Regeln nimmt.
Jetzt sind wir schon so ein bisschen nach vorne gesprungen und haben schon so die Implikationen auf die große Technologie. Ich würde ganz gern nochmal so ein bisschen zurückgehen auf, wie wir als Individuum Entscheidungen fällen. Ich meinte ja, wir denken vielleicht, dass wir das aus gutem Grund machen oder nachdem wir lange darüber nachgedacht haben, alle Für und Wider abgewogen und miteinander in Bezug gesetzt haben, stimmt das, sind wir so, funktionieren wir so, oder sind das andere Parameter, die uns zu einer Entscheidung bringen?
Also wenn Sie die klassische Entscheidungstheorie lesen, dann werden Sie dort etwa das lesen, was Benjamin Franklin seinem Neffen einmal geraten hat, wenn du in Zweifel bist, dann nimm dir ein Blatt Papier, liste alle Alternativen auf, alle Gründe dafür, alle Gründe dagegen, dann gewichte diese und mach die Rechnung. Benjamin Franklin meinte das sehr ernst. Er sagte, wenn du das nicht tust, dann wirst du auch keine Frau finden und dich nicht verheiraten. Das ist im Wesentlichen der Kerngedanke von der heutigen erwarteten Nutzentheorie, also man wäge alles und übersehe nichts. Das ist eine Methode, die ist erfolgversprechend in einer Situation, wo man die Risiken berechnen kann, nicht aber in anderen Situationen, also unter Ungewissheit. Und in diesen Bereichen verwenden Menschen eben Heuristiken, Regeln und oft anders als Maschinen soziale Heuristiken. Eine soziale Heuristik wäre zum Beispiel für viele Jugendliche, mach was deine Peers tun. Wenn man das nicht macht, ist man draußen. Also Imitation. Oder und da gibt es verschiedene Dinge, soll man den erfolgreichen imitieren oder die Masse imitieren? Ratgeben und das ist auf der anderen Seite auch genau das, was uns Menschen ausmacht, wir Menschen sind die Art, wo Kinder und auch schon Kleinkinder viel präziser und viel allgemeiner imitieren als in jeder anderen Art. Und das schafft uns genau die Kultur, dass nicht jeder wieder neu lernen muss, auf der andern Seite aber auch diese Tendenz, den anderen nachzulaufen.
Was soll das, ich meine, das ist ja sozusagen eine entwicklungsbiologische Frage in gewisser Hinsicht. Also was sichert das Überleben? Am Anfang ist ja die Imitation des Babys das Anlernen einer Vielzahl von Kulturtechniken auf der einen Seite, aber natürlich auch so der einfachen Basic des förmlichen Begreifens der Welt und wir lernen sozusagen sehr viel erst nach der eigentlichen Geburt, wo wir das bei anderen Tierarten ja beobachten, dass sie quasi frisch geschlüpft schon komplexe Handlungen mehr oder weniger fest einprogrammiert haben, aber eben dann vielleicht auch nicht in dem selben Maße in der Lage sind, sie dann an andere Bedingungen anzupassen, wie es denn vielleicht dem Menschen obliegt. Aber irgendwann muss man dann ja dann sozusagen auch ausbrechen aus diesem reinen Imitierungsbusiness, insbesondere wenn man für sich individuell eine Entscheidung fällen will, die dann einen Unterschied macht, irgendwann will man ja dann auch herausstechen aus der Masse. Worauf soll man sich dann sozusagen stürzen?
Also nach meiner Forschung haben die Menschen eine sogenannte Werkzeugkiste, eine Toolbox, von solchen Regeln, die einem helfen. Und wo man mit Imitation zum Beispiel beginnt, aber zu einem bestimmten Punkt dann selbst weitermacht. Also es gibt ganze Nationen, die das tun. Als ich zum ersten Mal an der chinesischen Akademie der Wissenschaften zu Besuch war, hat mich die Dekanin gefragt, Herr Gigerenzer, erklären Sie mir, was wir tun müssen, damit wir so gut wie Max-Planck werden. Diese Frage …
Die Max-Planck-Gesellschaft. Diese Frage habe ich von keinem westlichen Präsidenten und schon gar nicht in Deutschland je gehört. Und ich war beeindruckt von der Frage. Und die Chinesen haben gar keine Scheu zu imitieren die Exzellenz, aber sie wissen, wenn wir soweit sind, dann müssen wir selbst lenken. Also das ist genau die Idee, dass bestimmte von diesen Regeln bis zu einem bestimmten Punkt gehen, aber dann braucht man eine andere. Und ein großer Teil des Erfolgs des Landes China hängt ja auch damit zusammen, dass man so stark imitiert wie es Kinder machen.
Richtig, das passiert im Moment in diesem Land. Bei uns ist es oft so, dass man eher Scheu hat zu imitieren. Also man sieht es schon etwa, wenn man gemeinsam mit Kollegen zum Essen geht und man bestellt sich einen Lachs, dann ist es wahrscheinlich, dass keiner der anderen auch noch einen Lachs bestellt. Ist eine gewisse Scheu da zu imitieren. Also die Frage, wie treffen Menschen Entscheidungen, die Antwort darauf ist, man muss unterscheiden zwischen Situationen, wo man wirklich die Zukunft relativ gut berechnen kann, wo sie stabil ist und denen, wo das nicht der Fall ist. Beim ersten kann man rechnen, da kann man Statistiken verwenden, da kann man sich fragen, was bedeutet eine Regenwahrscheinlichkeit?
Ja. Spiel, das ist auch der Platz, wo BigData und künstliche Intelligenz am erfolgreichsten ist, bei Spielen, wie Go und Schach. Wo künstliche Intelligenz die größten Probleme hat, ist das, was wir Intuition und guten Menschenverstand nennen. Also Dinge, den Zusammenhang zu erkennen, kausal zu denken und auch die intuitive Psychologie und die intuitive Physik zu verstehen, die jedem Kind mehr oder weniger in die Wiege gegeben wird.
Also ich würde sagen, in den seltensten Fällen können wir informierte Entscheidungen oder vollinformierte Entscheidungen treffen. Das geht wie gesagt in Situationen, wenn Sie in die Spielbank gehen, dann können Sie sich ausrechnen und informierte Entscheidungen zu treffen. Aber wenn es darum geht, den richtigen romantischen Partner zu finden, sein Geld vernünftig zu investieren, dann ist es eine andere Situation, aber hier kann man auch gute Regeln, also heuristische Regeln sich überlegen und auch ausprobieren. Und die Forschung zeigt eben auch, dass anders als viele denken, einfache Regeln oft besser sein können und nicht nur schneller als komplexes Denken.
Aber eine Heuristik anwenden heißt ja im Prinzip, selber auszuwählen, welches Kriterium jetzt entscheidend sein soll, indem man eben auch bewusst andere Sachen auslässt. Sprich, ich entwickle eigentlich für diesen Moment mein eigenes Regelsystem, indem ich einfach wegabstahiere und Dinge einfach weglasse. Was ist die treibende Kraft, um hier die richtige Entscheidung zu fällen?
Also diese Entscheidungen und heuristische Entscheidungen können bewusst sein oder unbewusst sein. Wir wissen, dass viele Tiere ihre Entscheidungen über heuristische Regeln treffen. Also wie suchen Bienen nach einem neuen Nest? Wie suchen Ameisen nach einem neuen Nest? Das ist relativ gut erforscht. Und das sind oft erstaunlich einfache Regeln, die sie benutzen, die aber funktionieren. Wenn beim Menschen eine Heuristik unbewusst angewandt wird, dann nennt man das Intuition, man weiß, was man tun soll, aber man kann es nicht begründen. Also bei Personalauswahl ist das oft der Fall, dass ein Bewerber auf dem Papier sehr gut aussieht, aber wenn man ihn dann persönlich trifft und mit ihm spricht, dann hat man ein negatives Bauchgefühl und dann stehen viele vor der Frage, was soll ich denn trauen? Dem Papier oder meinem negativen Bauchgefühl? Und oft ist die Erfahrung, dass man hätte seinem Bauchgefühl eher vertrauen sollen. Und das gilt genau dann, wenn die Person langjährige Erfahrung mit zum Beispiel Personalauslese hat. Das gilt nicht unbedingt für einen Anfänger.
Nein, das ist eine deutsche Idee. Also ich habe ein Buch geschrieben, das heißt Bauchentscheidungen. Dieses Buch ist in zwanzig oder so Sprachen übersetzt und fast nie konnte der Titel übersetzt werden. Das Englische gut feeling ist noch am nächsten, aber fragen Sie mal einen Spanier oder einen Kroaten über Bauchgefühle, da gibt es die Assoziationen nicht. Für den Franzosen ist es noch eher das Herz. Auch guts ist nicht wirklich Bauch, sondern liegt etwas tiefer.
Ja, also man kann sich das so einfach vorstellen, große Teile des Gehirns sind im Bewusstsein, hier der Sprache genau, nicht zugänglich. Dort wird aber Information gespeichert. Wenn Sie die jetzt nun ignorieren würden, dann viel Glück mit Ihren Entscheidungen. Die Intuition ist so definiert, dass man sagt, es ist eine Form von unbewusstem Wissen, das auf jahrelanger Erfahrung mit einem bestimmten Problem besteht und wo man in der Regel sofort spürt, was man tun oder lassen sollte, aber es nicht begründen kann. Also es ist keine Willkür, es ist keine göttliche Eingabe, es ist kein sechster Sinn, es ist auch nichts, was nur Frauen haben, wir Männer haben auch Intuitionen. Aber es ist in unserer Gesellschaft eine Tendenz, Intuition abzuwerten, weil man denkt, dass alles, was vernünftig ist, muss man begründen können. Stellen Sie sich vor, wo das hinführt. Also wenn Sie ein Fußballspiel haben und ein Spieler schießt ein Tor aus einem unglaublichen Winkel, dann müsste der Schiedsrichter zu ihm laufen und sagen, jetzt erklären Sie mir, wie Sie dieses Tor geschossen haben, wenn Sie es nicht können, gilt es nicht. Das ist ungefähr die Einstellung, die man in vielen großen Firmen hat, in vielen Verwaltungen und auch, was ein Problem inzwischen für viele Ärzte geworden ist, die Angst haben, ihrer ärztlichen Intuition zu folgen, weil sie es per Definition ja nicht erklären können. Und die Folge ist, dass in vielen Bereichen dennoch intuitive Entscheidungen gefällt werden, aber man gibt es nicht öffentlich zu. Nach meiner Arbeit mit großen DAX-notierten Unternehmen ist es so, dass nach Aussagen der Führungskräfte selbst etwa jede zweite wichtige professionelle Entscheidung am Ende eine Bauchentscheidung ist und ich betone am Ende, erst geht man durch die Daten, aber die sprechen ja nicht immer für sich. Und wenn man dann seiner Erfahrung folgt, obgleich man es nicht begründen kann, dann ist das damit gemeint. Die gleichen Führungskräfte würden das wie gesagt in der Öffentlichkeit nicht zugeben. Und ich habe zwei Methoden beobachtet, mit denen man mit der eigenen Angst vor Bauchentscheidungen und auch damit vor Verantwortung zu übernehmen umgeht. Verantwortung muss man für eine Bauchentscheidung immer selbst übernehmen. Die erste ist, man sucht nach Gründen im Nachhinein, also man stellt etwa einen Mitarbeiter ab, der zwei Wochen lang nach Gründen sucht und dann präsentiert der Vorstand die Bauchentscheidung als eine faktenbasierte Entscheidung. Das ist eine Verschwendung von Geld, Zeit und Intelligenz, nur weil man Angst hat. Eine Version davon ist etwas teurer, man stellt eine Beratungsfirma ein, die dann auf 200 Seiten mit PowerPoint die schon getroffene Entscheidung begründet. Ich habe mit großen Beratungsfirmen gearbeitet und ich habe ihn gefragt, wären Sie bereit mir zu sagen, welcher Prozentsatz Ihrer Kundenkontakte darin besteht, dass Sie schon getroffene Entscheidungen im Nachhinein begründen? Er sagte zu mir, Herr Gigerenzer, wenn Sie meinen Namen nicht nennen, sage ich es Ihnen, es ist über 50%.
Also die Ängste sind ja dann sozusagen die Ängste vor der Reaktion, die wiederum gebildet sind durch so eine kulturelle Hegemonie einer gefühlten Rationalität, dass man sozusagen von allem annimmt, es müsste immer einen guten Grund geben, der auf Nachfrage dann natürlich auch präsentiert werden kann, so dass man dann sich eben nicht traut, weil man dann unter Umständen ja auch rechtlich vielleicht in dem Zuge belangt wird, hatten Sie denn einen guten Grund für diese Entscheidung, die dann total schiefgegangen ist? Ja, nein ich fühlte mich gerade danach und dann habe ich es erst mal gemacht, ja aber. Und ich glaube, das ist dann auch so ein bisschen ein Grund, warum das gemacht wird. Das heißt, dass eigentlich unsere Gesellschaft nicht risikobereit ist.
Es gibt Bereiche in unserer Gesellschaft, wo man diese Angst nicht so hat, zum Beispiel Familienunternehmen haben das ganz wenige. Wenige defensive Entscheidungen, mehr Mut zu Bauchentscheidungen. Es gibt allerdings in unserer Gesellschaft nach meiner Beobachtung eine immer mehr wachsende Kultur der Rechtfertigung, Kultur der Absicherung, die auf Kosten von unserer Leistungskultur geht. Man investiert mehr Zeit darüber nachzudenken, wie man sich absichert, statt wie man eine bessere Leistung bringt und das halte ich für gefährlich. Und das finden wir im Bereich der Medizin. Viele Ärzte müssen ihre Zeit damit verbringen zu dokumentieren, zu dokumentieren. Viele Bereiche des sogenannten Risikomanagements sind damit beschäftigt, sich selbst abzusichern und den Vorstand abzusichern, statt wirkliche Risiken zu beseitigen. Und wir haben es in der Politik, dass immer mehr Politiker strategisch denken, statt das zu sagen, was sie wirklich denken. Und das ist auch einer der Faktoren, warum immer weniger Menschen Vertrauen in Politik haben, weil sie spüren, es ist ein Spiel zum großen Teil und nicht, es gibt kaum Frauen und Männer, die eine Vision haben und für die einstehen.
USA ist wahrscheinlich auch ein schwieriges Feld, um das zu untersuchen, weil natürlich auch die anderen Incentives schwierig sind. Also generell auch natürlich ein Gesundheitssystem, das haben wir auch bei uns, was ja weniger am Erfolg ausgerichtet ist, sondern eben sozusagen an realen Kosten, die in diesem komplett privatisierten System natürlich extrem sind. Da rät man dann gegebenenfalls auch zu Untersuchungen, die mir dann eben als Arzt einen persönlichen Vorteil einbringen, weil da einfach mehr Umsatz mit gemacht werden kann. Gehen wir vielleicht mal weg von der Medizin, sondern sozusagen auch generell. Ich meine, so ein ähnliches Absicherungsverhalten habe ich jetzt auch schon oft aus Behördenstrukturen zum Beispiel erlebt, wo eben Verantwortung nicht übernommen werden soll und Dinge werden erst dann getan, wenn die nächsthöhere Hierarchie das eben dann auch abgesegnet hat, dann kann man das alles machen. Also so ein Mangel an Bereitschaft, eben Verantwortung zu übernehmen, eben aus Angst einer Bestrafung durch ein System oder eben auch nur durch eine öffentliche Meinung, was spätestens dann zum Tragen kommt, denke ich, wenn wir in dieser Hierarchie wiederum ganz oben angekommen sind. Das ist sozusagen eine vertretbare, belegbare, vielleicht sogar in gewisser Hinsicht rationale Entscheidung, alles spricht dafür, nur eine wahrgenommene Bestrafungsoption, die im Raum steht, führt dann eben dazu, dass auch so etwas nicht durchgeführt wird. Kampf gegen Klimawandel könnte man vielleicht auch ein wenig in diese Kategorie schieben, ohne das jetzt hier gleich alles auf eine Ebene stellen zu wollen. Aber was tut man denn gegen diese Kultur? Was ist sozusagen der Ausdruck? Ich hatte vorhin auch noch gefragt, ist das jetzt nur so ein Zwischenstand oder ist das etwas, was sich schon immer verschärft hat? Oder gibt es auch Gesellschaften, die in einem bestimmten Moment nur so sind, aber dann später nicht mehr? Also bei China haben Sie gesagt, wandelt sich das jetzt so ein bisschen von dem Imitieren in jetzt müssen wir selber was machen, dann sind sie ja in gewisser Hinsicht vielleicht auch in Gefahr, in diese Zustand zu kommen.
Mit einigen meinen früheren Mitarbeitern habe ich ein Startup gegründet, das heißt simply rational, das Institut der Entscheidung, wo wir mit den unter anderen Berliner Behörden arbeiten zum Thema defensives Entscheiden. Und in allen Behörden wie in allen großen börsennotierten Firmen, mit denen ich gearbeitet habe, ist defensives Entscheiden ein großes Thema. Und nach den DAX-Unternehmen, mit denen ich gearbeitet habe, ist ungefähr jede zweite, jede dritte Entscheidung nach Aussagen der Führungskräfte selbst eine defensive. Das heißt, nicht die beste für die Firma, sondern die beste, um sich selbst zu schützen. Und das ist wiederum ein Aspekt, wo man klar sieht, wo unsere Wirtschaft leidet, und das ist ein rein psychologischer Aspekt, der natürlich damit zusammenhängt mit der Akzeptanz der Umgebung. Was kann man dagegen tun? Nun, das hängt sehr ab von der jeweiligen – das ist anders bei Ärzten als in großen Kooperationen - was oft hilft in Kooperationen, ist, dass die Führungskräfte selbst ein Modell werden für eine positive Fehlerkultur. Positive Fehlerkultur bedeutet, dass man Fehler als nützliche Information interpretiert und sich dann überlegt, wie kann man die Ursachen beseitigen? Dadurch werden es am Ende weniger Fehler. Eine negative Fehlerkultur bedeutet, dass man davon ausgeht, dass es keine Fehler geben darf. Passiert einer, versucht man es unter den Teppich zu kehren, gelingt das nicht, dann … … sucht man einen Schuldigen.
Nun das bedeutet zum Beispiel, dass man Checklists hat, dass man ein, man nennt es, critical incident reporting system hat, wo man Zwischenfälle, die problematisch waren, meldet. Und nicht, um jemanden so vorzuführen, sondern um auf ein Problem aufmerksam zu machen und dann die Gesellschaft versucht, dieses Problem dann zu beseitigen. In einer negativen Fehlerkultur, wie wir es zum Beispiel in vielen börsennotierten Firmen haben, aber auch in vielen Krankenhäusern, geht man eben davon aus, dass keine Fehler passieren dürfen und passiert einer, dann geht das in defensive Entscheidungen und die Fehler werden immer mehr. Also das ist zum Beispiel ein Aspekt, das man tun kann. Man kann natürlich ganz witzige kleine Dinge machen. Also wir haben in einem Fall mit einer Firma ein Prinzip ausprobiert, was nun defensives Entscheiden deutlich macht. Kennen Sie Monopoly?
Dort kann man ins Gefängnis kommen, dafür gibt es eine Gefängnisfreikarte. Nun, die Idee ist die, dass die an alle Führungskräfte einer Firma Gefängnisfreikarten verteilt werden, mit dem Hinweis, wenn Sie ein Risiko eingehen für die Firma und es geht schief, geben Sie die Karte ab, keine Fragen. Das ändert die ganze Wahrnehmung und das ändert auch die Fragen, die man stellt. Weil wenn jemand nach zwei Jahren immer noch auf seiner Karte sitzt, dann stellt man andere Fragen. Also das sind so Dinge, die man untersuchen kann und auch spezifisch auf eine Firma zuschneiden kann, wo Zeichen gesetzt werden, dass wir jetzt einen anderen Weg gehen. Weg von einer negativen Fehlerkultur, wo man darüber nicht reden darf, einer hin, wo man offen damit umgeht und auch Menschen, also Führungskräfte, die Risiken eingehen für die Firma, nicht bestraft.
Weil eben dieses Verbessern vor Ort und dieses Rückmelden von Fehlern und damit ja sozusagen auch das Hinweisen auf was besser laufen könnte explizit belohnt haben. Also quasi ein Belohnungssystem für Verbesserungsvorschläge, was es ja auch in deutschen Unternehmen gibt, aber was offensichtlich nicht so gut zu funktionieren scheint. Wie kriegt man jetzt das sozusagen aus der Gesellschaft an sich heraus? Woran krankt es denn?
Ja, ich glaube, wir Berliner werden inzwischen Weltruhm erreichen im Bauen von Flughafen, aber am Ende ist es vielleicht ähnlich wie in Wien, ich weiß nicht, ob Sie die Geschichte kennen. Die Österreicher haben in den 70er Jahren ihr erstes Atomkraftwerk und ihr letztes gebaut. Als es fertig war, haben sie eine Volksabstimmung gemacht, ob man es in Betrieb setzen sollte oder lieber nicht. Und knapp ging es aus für lieber nicht und seitdem steht es dort und es ist sozusagen das einzige Museum, in dem ein Atomkraftwerk steht, mit einem 1:1-Modell. Und das könnte vielleicht das Ende des BER auch sein. Wir wollen es nicht hoffen.
Das stimmt, sind aber düstere Aussichten. Jetzt haben wir … Also ich fasse das mal so ein bisschen zusammen. Also der Glaube, dass wir sozusagen rationale Entscheidungen treffen können, die gut begründet sind, der trifft so nicht zu, sondern die Realität ist, dass wir eigentlich im Leben niemals genug wirklich klare Regeln und Rahmenbedingungen vorfinden, anhand derer wir uns orientieren können, sondern es gibt immer Ungewissheiten, es gibt immer sowohl Ungewissheiten in meinem Umfeld, dass Dinge nicht klar sind, dass Dinge sich dynamisch zufällig chaotisch entwickeln können auf der einen Seite, aber andererseits, dass ich auch selbst überhaupt gar nicht das Besteck habe, um hier klare Schnitte vorzunehmen. Ich weiß nicht alles darüber, so das sogenannte gesunde Halbwissen kommt hier so zum Einsatz und es eigentlich vergebene Liebesmüh ist, nach klaren Kriterien zu suchen, weil sowohl mein Umfeld als auch wie ich selber aufgestellt bin, am Ende diese Bedingungen eigentlich gar nicht schafft. Sprich, ich muss eigentlich immer davon ausgehen, dass Dinge unklar sind und klare Entscheidungen nicht zu fällen sind, sondern es geht eigentlich eher darum, sich a) selber überhaupt zu motivieren und Entscheidungen überhaupt zu fällen, weil, ich glaube, so gar keine Entscheidungen fällen ist dann nochmal so die allerschlechteste Option, weil da kommt man ja auch nirgendwo hin. Und ich muss für mich einen Weg finden, wie ich herausfinde, welche Gewichtung ich den Dingen, die ich meine zu sehen, gebe. Eben diese Heuristiken zu entwickeln, um dann eben eine für mich brauchbare Lösung zu finden, die dann eben auch mit Mut und damit auch mit Überwindung von Ängsten vor dem eigenen Scheitern oder eben auch Ängsten vor dem wahrgenommenen Scheitern durch andere sozusagen mich davor verstecke. Ist das so eine brauchbar Zusammenfassung?
Also klare Entscheidungen kann man treffen, auch in der Ungewissheit. Nur was dort nicht geht, ist die Idee, dass man optimale Entscheidungen treffen kann. Optimal kann man nur definieren, wenn man alle Umstände kennt. Das heißt, es geht darum, sozusagen zu erforschen, wie Menschen, auch Experten, Entscheidungen unter Ungewissheit treffen. Und das ist anders als die klassische Entscheidungstheorie sich das vorstellt unter den Gewichten aller Konsequenzen und aller Optionen. Und wir haben wir am Max-Planck-Institut eine systematische Studie und das ist wahrscheinlich weltweit der Ort, wo das am meisten fortgetrieben worden ist, von Entscheidungen unter Ungewissheit analysiert. Wir untersuchen, welche sozialen oder individuellen Heuristiken Menschen wählen, um mit Ungewissheit zurechtzukommen. Und zum zweitem, unter welchen Bedingungen funktioniert das auch. Also das heißt, eine einfache Regel kann rational sein und auch besser sein als sehr komplizierte Methoden. Und Beispiele schließen ein, dass man eben Dinge besser vorhersagen kann, wenn man wenige Informationen nimmt. Also die Beispiele, mit BigData kann man nicht unbedingt besser vorhersagen als mit ganz wenig Daten. Im Aktienmarkt kann man mit nobelpreisgekrönten Methoden wie zum Beispiel Markowitz Portfoliooptimierung oft schlechter abschneiden als mit ganz einfachen Heuristiken wie zum Beispiel investiere in die Optionen, die du hast, gleich, ohne überhaupt Gewichte zu berechnen. Und ich arbeite auch mit der Bank von England zusammen, wie man durch einfachere Regulierungen mehr Sicherheit in die Welt der Finanzen bringt.
Bankenregulierung. Also das klassische bekannte Bankenregulierungssystem heißt Basel I, Basel II, Basel III Basel I war 30 Seiten lang, Basel II über 300, Basel III über 600. Sie sehen, die Idee, genau wie bei den Google Ingenieuren, über die wir vorher gesprochen haben, etwas scheint nicht zu funktionieren, was macht man, man macht es komplexer. Es funktioniert wieder nicht, man macht es wieder komplexer. Und ich habe im November auf einer Tagung an der Bank von England den Vertreter der Basel-Kommission gefragt, wie wird Basel4 aussehen? Wollt ihr es wieder komplexer machen oder ist die Einsicht da, man muss vielleicht untersuchen, wie kann man es vereinfachen, damit mehr Sicherheit entsteht? Um das mal zu veranschaulichen, angenommen Sie hätten eine große Bank, wie die Deutsche Bank, und die Deutsche Bank müsste den sogenannten Value At Risk berechnen. Das ist so etwa das Maß, was angibt, wieviel Kapital man halten muss. Um diesen Wert zu berechnen, muss man tausende von Risikofaktoren einschätzen, die alle in der Zukunft liegen und da die Risiken miteinander korreliert sind, eine Korrelationsmatrix in der Ordnung von Millionen von Faktoren.
Was da passiert. Und das heißt, dass zum Beispiel die Bank von England selbst natürlich nicht überprüfen kann, wie sinnvoll diese geschätzten Risikofaktoren und deren Korrelationen sind, die die Banken auch mit ihren eigenen internen Modellen machen könnten. Und all das trägt nicht sehr zur Sicherheit bei. Und wir untersuchen systematisch zusammen mit dem Chefökonom, Andy Haldane, wie kann man einfachere und zwar Heuristiken entwickeln, die besser vorhersagen, einfacher sind und dadurch mehr Sicherheit bringen?
Es gibt viele solche Systeme, die ich für unnötig komplex halte und ich glaube auch, dass diese Komplexheit nicht dazu beiträgt, dass Bürger Vertrauen in das Steuersystem, in das Bankensystem oder andere Systeme haben. Und ich halte es auch für einen wichtigen Bestandteil einer Demokratie, dass die Bürger zumindest die Möglichkeit haben, Gesetze und solche wichtigen Regulierungen zu verstehen.
Na ich denke, dass halt auch für die Akzeptanz immer eine extreme Bedeutung, dass Nachvollziehbarkeit ergeben ist. Bis hin zu Wahlsystemen zum Beispiel, auch da ist ja das Vertrauen am Ende sehr viel wichtiger, als vielleicht ein bis aufs Letzte mathematisch durchoptimierter, hochkomplexer Berechnungsprozess, denn dann aber am Ende keiner mehr so richtig nachfühlen kann. Ich wollte nochmal zurückkommen auf diesen Aspekt der Daten. Jetzt leben wir ja gerade in so einer Zeit, wo so das Buzzword der Stunde die künstliche Intelligenz ist, konkret bedeutet das ja im Wesentlichen Deep Learning, also Algorithmen, wo Maschinen in der Lage sind, durch große Datenbestände, die in irgendeiner Form Wahrheiten ausdrücken, die anzulernen, um dann eben von neuen Eingaben schnell eine Entscheidung auf Basis dieser bestehenden Wahrheiten zu treffen, um eben Dinge zu automatisieren oder vielleicht eben auch Informationen aus Quellen zu extrahieren, die so bisher noch nicht haben durchgeführt werden können, noch nicht herangezogen werden konnten oder die einfach schier so umfangreich sind, dass man sich da halt nie drauf gestürzt hat. Unzweifelhaft gibt es hier im Einzelnen bemerkenswerte Durchbrüche, also es zeigt sich, dass bestimmte Anwendungsfelder das Ganze wunderbar zusammenparst, aber ich habe schon so ein bisschen rausgehört, dass Sie an der Stelle sehr skeptisch sind, was die Anwendbarkeit von diesen BigData-Algorithmen betrifft. Wo parst es denn oder wo parst es nicht?
Das ist genau die richtige Frage. Also ich bin oft auf BigData-Konferenzen und ich sehe mich meistens als so den einzigen, der die Frage stellt, was kann BigData, was kann es nicht? Die meisten anderen möchten etwas verkaufen. Sozusagen die allgemeinste Antwort auf das ist, wenn Sie eine Situation haben, die relativ stabil ist, wo die Zukunft so ist wie die Vergangenheit, dann sind künstliche Intelligenz und BigData wahrscheinlich erfolgreich. Und die besten Beispiele sind Systeme, wo ganz klare Regeln sind wie Schach und Go. Und was diese Systeme hier schaffen ist nicht, dass sie das besser verstehen als Menschen, sondern besser einfach vorausberechnen können und auch schneller lernen können. In anderen Bereichen, nämlich Bereiche, die man als Situationen von Ungewissheit bezeichnen kann, wo man nicht weiß, ob die Zukunft so ist wie die Vergangenheit und das ist in vielen Bereichen der Medizin, nicht nur bei der Vorhersage von Grippe oder Influenza, sondern auch in Bereichen der Investment, etwa in Banken, wo Überraschungen passieren können, da ist die Chance, dass diese Systeme Erfolg haben, deutlich kleiner. Wenn sie Erfolg haben, dann solange wie sich nichts ändert, aber wenn dann der Black Swan oder ein Problem auftritt, dann können die Systeme ja das gar nicht finden
Ja. Also das ist so eine erste auseinander… Und das ist also so eine erste Unterscheidung. Und in der Medizin etwa sind BigData-Systeme noch am besten bei der Erkennung von so X-Rays, bei bestimmten Hautkrebsen, da haben sie ungefähr in etwa die Qualität wie Ärzte, wobei natürlich ein Arzt viele andere Dinge gleichzeitig kann und ein typisches Programm immer nur eine Sache machen kann. Das wird oft vergessen. Und das Problem auf der anderen Seite von BigData sehe ich darin, dass einfach industriemotivierte Versprechen gemacht werden, die gar nicht einzuhalten sind. Also wenn Watson beispielsweise das Spiel Jeopardy gewann und das war eine beeindruckende Leistung.
Ja. Nach diesem Erfolg hat die CEO von Watson sofort gesagt, our next moonshot is healthcare. Nicht unbedingt weil Watson sich nun ausgezeichnet hätte in Gesundheit, sondern weil es ein riesiger Markt ist. Und seitdem geistert Watson dort rum, er geistert auch im Bereich von Finanzen rum. Die Zusammenarbeit mit Watson hat NH Anderson, eines der größten Krebszentren in den USA beendet, nachdem sie herausgefunden haben, dass er nicht besser ist als auf jeden Fall die Versprechungen des PR-Departements von IBM nicht gehalten worden. Also man hat mir gesagt, die Ingenieure von IBM schämen sich für die Behauptungen der Werbeabteilungen. Und im Finanzbereich kenne ich auch keine Erfolge. Und schauen Sie, IBM ist unter großen finanziellen Problemen seit Jahren. Wenn Watson wirklich investieren könnte, dann wären die Probleme weg. Also hier werden sehr viele unnötige Versprechen gemacht, die dann Firmen viel Geld kosten, bis sie es verstehen und die aber auch jetzt gerade im Gesundheitsbereich die Investitionen wegnehmen von dort, wo man sie wirklich bräuchte.
Anderer Bereich, der mir jetzt so in dem Zusammenhang einfallen würde, wo ja auch gerade viel über diese Aussagekraft von Daten diskutiert wird, insbesondere die Vorhersagefähigkeit, so die Kriminalitätsbekämpfung. Das sind ja nun beides so Felder, wo es ja in gewisser Hinsicht kein Spiel mehr ist, wo es eben mit Freiheiten bzw. der Freiheit zur individuellen Entfaltung oder auch einfach nur der finanziellen eigenen Existenz geht. Was sehen Sie da für ein Spannungsfeld und wie sich das gerade entwickelt? Sind wir da gesellschaftlich auf dem richtigen Pfad?
Also in diesen Bereichen oder sagen wir mal so, diese Bereiche zeichnen sich aus durch hochgradige Ungewissheit. Das heißt, man kann erwarten, dass die künstlichen Intelligenz-Systeme nicht besonders gut sein werden. Nehmen wir als Beispiel einen Algorithmus, der in den USA verwendet wird, um vorherzusagen, ob zum Beispiel ein Angeklagter in den nächsten Jahren wieder ein Verbrechen begehen würde. Und einer der bekanntesten Algorithmen ist COMPAS. Der Millionen von Richtern Wahrscheinlichkeiten gegeben hat, nämlich darüber, dass der Angeklagte zum Beispiel in den nächsten zwei Jahren wieder rückfällig wird. Wir wissen nicht, inwieweit die Richter das verwenden, aber wir können davon ausgehen, dass die meisten Richter nicht verstehen, wie dieser Wert zustandekommt und er ist auch geheim, wiederum der Algorithmus, niemand weiß das.
Nicht mal die Entwickler, weil das ist ja auch so ein bisschen das Problem bei diesem DeepLearning, dass man hier eigentlich einen Mechanismus entwickelt, an dessen Ende zwar ein Datensatz steht, der Entscheidungen fällt, aber niemand genau sagen kann, was jetzt hier eigentlich die Entscheidungsstruktur ist, weil die sich nur in den Daten wiederfindet.
Das gilt auch für die Bonitätsscoring, das gilt für die Krankenhausscores, das ist wirklich, ich habe kaum etwas anderes gesehen als einen einfachen Algorithmus. Das ist auch GoogleFlu-Trends. Und hier muss man sich zwei Fragen stellen, ist das ethisch vertretbar, dass zum Beispiel der Angeklagte nicht versteht, warum er keine Bewährung bekommen hat, sondern ins Gefängnis kommt? Also wenn Sie als Richter da 80% Wahrscheinlichkeit haben, dass diese Person wieder etwas tut, und er auch der Richter nicht versteht, wo der Wert herkommt.
Und das zweite Argument ist, oder sagen wir so, die zweite Frage ist, wie gut ist denn das wirklich im Vergleich zum Menschen? Und im Fall von COMPAS gibt es Analysen, die zeigen, dass COMPAS also Vorurteile hat, wie Menschen halt auch, insbesondere rassistische Vorurteile und das noch spannendere finde ich, man hat eine Untersuchung gemacht, um die Qualität von COMPAS in der Vorhersage des Verhaltens verglichen mit Menschen, die die gleichen Daten bekamen und tatsächlich noch weniger davon und wirklich schlecht bezahlt wurden für ihre Vorhersagen. Das sind sogenannte Amazon Turk Arbeiter, die schnell so Probleme lösen, um ein paar Cents zu verdienen. Und das Ergebnis war, dass dieser in den USA vom Gericht eingesetzten Algorithmen nicht besser war als die Urteile, die ganz normale Menschen von der Straße, ohne ein einschlägiges Wissen produzieren konnten. Also das sind so Beispiele, die einem zeigen, in Situationen mit hochgradiger Ungewissheit seien Sie skeptisch vor solchen Algorithmen. Die Algorithmen werden wahrscheinlich funktionieren, wenn Sie eine relativ stabile und geregelte Welt haben.
Um das einzuordnen, damit so BigData-Systeme, wie was sie da benutzen, sind sehr erfolgreich im analysieren der Vergangenheit. Das ist jetzt was anderes als die Vorhersage, da sind sie gut, also sozusagen im Analysieren von Zusammenhängen von allen möglichen Daten. Und damit eignen sie sich auch sehr zu Spionage und Überwachung. China baut ein System auf im Moment, das sogenannte soziale Kreditsystem, wo jeder Bürger in den nächsten Jahren, hofft man, einen sozialen Kreditwert bekommt. Das könnte ein Wert zwischen 350 und 950 sein. Je höher desto besser. Darin fließt ein nicht nur wie bei finanzieller Kreditwürdigkeit, etwa Schufa in Deutschland, die ihr Zahlungsverhalten, sondern auch ihre ganze kriminelle Vergangenheit, einschließlich Parkverbottickets und ihr politisches, ihr soziales Verhalten, das Verhalten ihrer eigenen Freunde und Familie, also ihr gesamter digitaler Fingerabdruck. Es wird im Moment an etwa 40 Städten experimentell überprüft und hier macht China was interessantes, was man in Deutschland eher nicht machen würde, nämlich man gibt ein Ziel vor und lässt Städte experimentieren, statt die Sache vorzuschreiben. Und das Ziel ist dann, durch einen sozialen Kreditwert, der Konsequenzen hat, das moralische Verhalten der Menschen zu verbessern. Also China leidet wie andere Länder drunter, dass Menschen betrügen, lügen, stehlen, Korruptionen, dass Firmen entsprechend Menschen ausbeuten und Firmen haben auch einen sozialen Kreditscore. Das Mittel dazu ist ein altes psychologisches Mittel, man belohnt die Guten und man bestraft die mit einem geringen Score. Das kann man sich so vorstellen, die Belohnung funktioniert so wie ein Meilenprogramm bei der Lufthansa, also wenn Sie viele Meilen haben, dann kriegen Sie Goodies und auf der anderen Seite, wenn jemand wenig Kredit hat, also einen niedrigen Wert, dann werden massive Strafen eingesetzt. Zum Beispiel wissen wir, dass in den letzten Jahren hunderttausende von Chinesen mit niedrigem Wert nicht erlaubt wurde, ein Flugzeugticket zu buchen oder sie durften mit den schnellen Zügen nicht mehr fahren, also die Bewegungsfreiheit wird eingeschränkt. Es gibt Städte, die auch folgendes tun, dass Personen, die einen niedrigen Wert haben, dass deren Kinder nicht mehr auf die besten Schulen gehen dürfen. Und Sie können sich vorstellen, wenn Sie dann meinen, dass Sie sich nicht scheren um Ihren sozialen Kreditwert, Ihre Kinder werden Ihnen das austreiben, denn sie leiden unter Ihnen. Und ein solches System wird möglicherweise ein Selbstläufer werden, jeder beeinflusst den anderen, jeder möchte einen hohen Score haben, so wie auch bei vielen Internetspielen man bereit ist alles zu tun, nur um seinen Score zu erhöhen. Und es gibt Mitteilungen aus China, dass inzwischen in vielen Partnerschaftsanzeigen die Männer und Frauen nicht nur ihre Körpermaße und Körpergewicht und Alter angeben, sondern auch den sozialen Kreditscore. Und wenn Sie eine Anzeige schalten und Ihren sozialen Kreditscore nicht angeben, dann kann das schon gegen Sie ausgewertet werden. Die Vision ist eigentlich die, dass man mit Hilfe von, in der Psychologie nennt man das, Prinzipien des operanten Konditionierens, also gutes Verhalten zu belohnen, schlechtes zu bestrafen, also das ist Spinner, B. F. Skinner, nun eine ganze Gesellschaft lenkt und in einer Art und Weise wie man es früher nie konnte ohne digitale Medien. Und mit digitalen Medien kann man einen Menschen 24 Stunden an sieben Tagen in der Woche überwachen. Was wird die Zukunft sein? Nun, wahrscheinlich werden die Chinesen das Programm hinkriegen, würde ich meinen. Dann kommt eine zweite Phase, die schon begonnen hat, einige andere Länder, die ähnliche autoritäre oder Einparteiensysteme, sagen wir es mal neutral, haben oder haben möchten, werden das imitieren, also Sie können sich vorstellen, das können asiatische Länder wie Nordkorea, Thailand vielleicht auch Singapur sein, das können aber auch europäische Länder sein, die eine ähnliche Struktur haben, wie Ungarn, Polen oder die Türkei.
Und sehen dann zum ersten Mal eine Alternative zur Demokratie, die wirklich effizient ist, wo man Bürger hat, die arbeiten an ihrem Score. Wo man Bürger hat, die nicht ihre Zeit verschwenden, die auch den Gesetzen folgen. Also China hat ungefähr 300.000 Überwachungskameras, wo man nicht mehr bei rot über die Ampel geht, weil man dann ein paar Punkte weg hat. Wo man seine alten Eltern öfter besucht, weil das gibt positive Punkte, was kann man dagegen sagen? Also die zweite Phase wäre eine Verbreitung des Systems, also China würde wahrscheinlich die Software und Hardware verkaufen an andere Länder. Was zum Teil auch schon passiert. Und in einer dritten Phase würden wir in den westlichen Demokratien vor der Frage stehen, können wir gegen ein solches effizientes digitales autokratisches System unsere Demokratie weiterhin bewahren?
Was ja zunächst einmal die Frage ist, handelt es sich dabei um überhaupt ein gutes System? Also wie bewertet man das? Das sind ja eine ganze Menge Aspekte da drin. Das ist ein großes Land, hat viele Probleme und gut, erst mal ganz wertfrei könnte man sagen, okay die wählen sozusagen ein weiteres Mittel, was ja, wenn man es mal positiv betrachtet, ja immerhin sozusagen so ein präventives System ist, so wir wollen gar nicht erst, dass ihr in die Situation gebracht werden, in Kriminalität umzuschlagen, weil wir halt Incentives anbieten, dass ihr euch schon mal anders entwickelt. Andererseits wird natürlich hier auch ein moralisches Gerüst bereit gestellt, was so eben nicht unbedingt auf jeden passt und was vielleicht irgendwann auch einfach nicht mehr mit der Zeit geht, geschweige denn den individuellen Bedürfnissen des Einzelnen gerecht wird. Also das Beispiel mit, du besuchst deine Großeltern gerne, ja okay, das klingt natürlich auf dem Papier erst mal total super, aber wenn das halt irgendwie Großeltern sind, die irgendwie einen missbraucht oder sonst irgendwie in einer Form benachteiligt haben, wo hier Traumata existieren, ist ja diese Bewertung mit, dieser Besuch ist positiv, vielleicht gar nicht so angemessen, weil unter Umständen Menschen da ein mentaler Schaden zugefügt wird, um es nur jetzt in irgendeine Richtung zu ziehen
Also die Frage, wie bewertet man das System, hängt natürlich davon ab, was man selber für Werte und Standpunkte hat. Meine chinesischen Freunde sind meistens dafür. Und die wenigen Umfragen, die es gibt, in China zeigen, dass die meisten Chinesen gar nichts wissen von dem System und dass diejenigen, die davon wissen, da sind etwa 80% ganz dafür, denn sie meinen, das schafft Gerechtigkeit. Die Guten werden belohnt, diejenigen, die die Gesetze verletzen, andere betrügen, werden bestraft. Und zum ersten Mal kann man sozusagen den Betrüger noch während seiner Tat ertappen. Wir haben eine Untersuchung in Deutschland durchgeführt gerade mit Ergo und die Frage gestellt, ob die Deutschen ein System möchten, wo man, ohne jetzt China zu nennen, wo man mit digitalen Mitteln einen Score für jede Person erhält über dein soziales, politisches, kriminelles Verhalten, den ganzen digitalen Fingerabdruck. 20% der Deutschen sind inzwischen dafür. Wir hatten vor einem Jahr eine andere Untersuchung, da waren es noch weniger als 10%. Wenn man die vergleichen kann, wäre das auch in Deutschland ein Anstieg. Richtig. Gut. Und auf der anderen Seite muss man sagen, was mich wirklich beunruhigt ist folgendes:
dass wir, obwohl die meisten Deutschen eine Bauchreaktion dagegen haben, dennoch bereit sind, ihre eigenen Daten jetzt nicht dem Staat, aber Firmen zur Verfügung stellen, nur um kleine Vorteile zu bekommen. Das heißt, zum Beispiel nicht zu bezahlen für Facebook und nicht zu bezahlen für Google. Und wenig Ängste haben oder auch wirklich bereit sind, nichts zu bezahlen für ihre Privatheit. Und damit verhalten sie sich sehr sehr ähnlich wie all die Chinesen, die für dieses soziale Kreditsystem sind. Wobei man sogar noch sagen könnte, dass es bei uns im Wesentlichen um Bequemlichkeit und nicht zahlen wollen geht, während die meisten Chinesen hier größere Werte haben, nämlich die Moral einer Gesellschaft, Korruptionsbekämpfung und natürlich auch staatliche Kontrolle.
Das wird sich zeigen. Ich meine, es gibt sicherlich auch eine Gegenbewegung, gerade was jetzt die Wahrnehmung von Privatsphäre, deren Bedeutung, betrifft, hier gibt es auch Leute, die mit der Schufa schon negative Begegnungen hatten und einen niedrigen Score erhalten haben, ohne dass in irgendeiner Form jemand erklären kann, warum denn das jetzt so ist, also weder die Person selbst noch die Schufa, die ja eben dann zur Dokumentation der Algorithmen eben auch nicht bereit ist. Ist auch die Frage, ob man überhaupt ein System akzeptieren sollte, in dem die Regeln nicht klar sind. Weil wenn die Regeln festgelegt werden von einem Algorithmus, dieser aber nicht erklärt wird, lebt man ja nach Regeln, die man nicht kennt. Das ist ja im Prinzip so eine kafkaeske Situation, wo einem immer irgendwie gesagt wird, das geht jetzt nicht und später, kann ich dir aber nicht erklären warum. Das ist ja so fast so eine Gefängnissituation, in der man irgendwie die ganze Zeit eine Beschränkung erhält, aber eigentlich überhaupt die Regeln gar nicht mehr kennt, nach denen man hier reglementiert wird. Und das entspricht zumindest jetzt nicht unbedingt meiner Vorstellung einer freien Gesellschaft. Und die andere Frage ist, würde man aber diese Regeln transparent machen, wären diese Algorithmen klar, wären die Kriterien vielleicht auch einfach und nachvollziehbar, wie Sie das vorhin ja gefordert haben, um irgendwie gute Entscheidungen fällen zu können, kann das System denn dann überhaupt dem Cheating des Systems sozusagen entgehen? Also kann ein offen dokumentiertes System überhaupt so resilient sein, dass es nicht die ganze Zeit von seinen Teilnehmern ausgetrickst wird?
Ich glaube das Gegenteil. Wenn wir den Mut hätten, die großen Firmen dazu zu zwingen, transparent zu sein, dann hätten wir weniger Gefahr mit Überwachung und unbekannter Überwachung und ähnlichen Problemen. Hier sind zwei ganz konkrete Vorschläge, im Gutachten des Sachverständigenrats für Verbraucherfragen haben Gerd Wagner und ich die Meinung vertreten, dass alle Firmen, einschließlich Schufa, die sensitive Scores machen, also Gesundheit, Bonität und andere Dinge, die man in Deutschland noch nicht hat, aber auch kommen können, wie zum Beispiel diese Vorhersagen der Wahrscheinlichkeit, dass Sie ein Verbrechen begehen, dass alle diese ihre Algorithmen offen legen müssen. Das heißt, nicht den Sourcecode, den versteht Ottonormalverbraucher nicht, sondern die Variablen, die eingehen und ihre Gewichte. Das ist in Deutschland noch nicht umgesetzt worden. Das könnte man. Das Gegenargument ist, ja Geschäftsgeheimnis. Und mein Argument ist, hier muss der Staat auch den Mut haben, die Interessen der Bürger über diese Geschäftsgeheimnisse zu stellen. Und es gibt ja auch Scoring-Methoden wie zum Beispiel von den Krankenkassen, wo der Algorithmus vollkommen offengelegt wird. Genauso von den Telematikversicherern, von KfZ-Versicherungen, da weiß jeder, welche Merkmale da beachtet werden.
Was die Gewichtung ist, ja. Und das ist überhaupt keine Gefahr für ein großartiges Geschäftsgeheimnisdenken. Das ist das eine und eine zweite Sache, die man auch hier umsetzen könnte, sin die allgemeinen Geschäftsbedingungen. Nun, wir wissen, dass die meisten Menschen nur noch anklicken, stimme zu, weil was sie erwarten können ist ein ewig langer vielleicht zehn Seiten Text, der zum Teil auch unverständlich ist und der nicht so geschrieben ist, dass der Bürger überhaupt verstehen kann. Und wenn sich der Bürger Zeit nimmt, dann kann man ausrechnen, dass Sie also Stunden jeden Tag verbringen müssten, um wirklich zu verstehen bei jeder allgemeinen Geschäftsbedingung, die jemand, der auf dem Internet sehr weit unterwegs ist, das durchzulesen und zu verstehen. Hier ist unser Vorschlag, der auch im Sachverständigenrat nachlesbar ist, dass alle allgemeinen Geschäftsbedingungen nicht länger als 500 Wörter sein dürfen, also eine DIN A4 Seite und in verständlichen, nicht nur transparent, sondern verständlichen Worten beschreiben, wo die Daten hingehen und wo sie verwertet werden. Auch das ist noch nicht umgesetzt worden, aber das sind Dinge, die wir angreifen könnten. Und wenn wir wirklich etwas tun möchten, um die Privatheit des Menschen hier in Europa oder in Deutschland zu schützen.
In einer Demokratie braucht man informierte Bürger, sonst wird es keine funktionierende Demokratie sein. Zu guter Information reicht es nicht aus zu wissen, was man im Internet suchen kann, sondern man muss denken, mitdenken und die Information bewerten. Und diese Fähigkeiten nenne ich Risikokompetenz, abschätzen was sind die Risiken, was sind die Möglichkeiten von den Technologien, mit denen wir es zu tun haben. Und wir sollten anfangen, das in der Schule zu lernen, also dass Kinder spielerisch lernen, mit den Risiken von Gesundheit, von Finanzen und auch von der digitalen Welt umzugehen. Und mit digitaler Risikokompetenz meine ich nicht die Fähigkeit ein Handy zu bedienen, sondern darüber zu wissen, was es mit einem macht. Und auch die Fähigkeit, die Kontrolle über ein digitales Medium wieder selber in die Hand zu bekommen und nicht durch das Medium kontrolliert zu werden. Und in diesem Sinne denke ich, dass die große Aufgabe der Zukunft ist, nicht nur bessere Algorithmen zu entwickeln, sondern in Menschen zu investieren, damit sei kompetent und entspannt mit den Risiken einer digitalen Welt lernen umzugehen.