Debiasing-Techniken
Weniger verzerrt
Es ist allzu menschlich: Wir denken, rational zu entscheiden, dabei verzerren etliche subjektive Faktoren unser Urteil.

Jeder Mensch hat seine individuelle Wahrnehmung der Welt, beeinflusst etwa durch eigene politische Präferenzen oder den eigenen Erfahrungshorizont. Zudem fällen wir oft instinktive Urteile, während wir glauben, rational zu entscheiden. Psychologen haben diese Verzerrungen und Selbsttäuschungen in unzähligen Studien nachgewiesen. Sogenannte Debiasing-Techniken können helfen, irrationale und subjektive Elemente zu minimieren.

von Janina Kalle

Kennen Sie Linda? Linda ist eine junge, selbstbewusste Frau, Amerikanerin, Single, sehr intelligent. Gerade hat sie ihr Philosophiestudium erfolgreich abgeschlossen, neben ihrem Studium hat sie sich zudem in der Gender-Bewegung engagiert. Was macht Linda heute? Ist sie:

a) Bankangestellte
b) Regisseurin in einem Theater
c) Bankangestellte, die sich neben ihrem Beruf in feministischen Gruppen engagiert?

In jedem Fall ist Linda heute berühmt. Der Psychologe und spätere Wirtschaftsnobelpreisträger Daniel Kahneman und sein inzwischen verstorbener Kollege Amos Tversky haben mit Linda nachgewiesen, wie irrational der Mensch urteilt, wenn er nicht aufpasst. (Das Beispiel ist Jahrzehnte alt und wird hier etwas verkürzt dargestellt.) Die meisten ihrer Probanden nahmen an, dass Linda eine Bankangestellte sei, die sich neben ihrem Beruf in feministischen Gruppen engagiert. Statistisch gesehen ist das allerdings quatsch.

Der Fall ist recht einfach: Es gibt wenig Regisseure, aber viele Bankangestellte – insofern ist es tatsächlich unwahrscheinlicher, dass Linda heute Regisseurin ist. Dass zwei Zustände zutreffen, ist zudem natürlich auch unwahrscheinlicher, als dass nur ein Merkmal zutrifft. Es ist also wahrscheinlicher, dass Linda nur Bankangestellte ist, als dass sie Bankangestellte ist, die sich neben ihrem Beruf in feministischen Gruppen engagiert. A ist also die Antwort, die mit der größten Wahrscheinlichkeit zutrifft: Linda ist vermutlich Bankangestellte.

Vor unserem inneren Auge entwerfen wir allerdings sofort ein Bild von „Linda“, der engagierten jungen Frau, die Ideale hat und sich für diese in ihrer Freizeit einsetzt. Deshalb erscheint uns dieses Bild auch als wahrscheinlicher. Tatsächlich wissen wir nichts über Linda: Vielleicht hatte sie sich nur wegen ihrer großen Liebe in der Gender-Bewegung engagiert? Vielleicht hatte sie den Schwerpunkt Logik in ihrem Philosophiestudium gewählt und will jetzt vor allem Karriere und viel Geld bei einer Bank machen? Nichts davon wissen wir. Aber wir glauben, etwas zu wissen. Und urteilen häufig danach, allen Wahrscheinlichkeiten zum Trotz.

„Die Vorliebe, Aussagen zu glauben und eigene Erwartungen zu bestätigen“, nennt Daniel Kahneman das. Gerade für Journalisten birgt das eine große Gefahr. Schließlich fußt journalistische Glaubwürdigkeit auf exakter Beobachtung und zutreffender Beschreibung und nicht, wie vielleicht im Fall Linda, was wir glauben. Kahneman und Tversky haben anhand zahlloser Beispiele gezeigt, wie gerne sich das menschliche Gehirn Kausalzusammenhänge aus ein paar Fakten zusammenschustert, Wahrscheinlichkeiten außer Acht lässt und sich die Realität zusammendenkt.

Verzerrungen aufdecken und einschränken

Das Problem ist nur: Solche eindeutigen Geschichten stimmen meistens nicht. Die Welt ist komplex, widersprüchlich und in den wenigsten Fällen schwarz oder weiß. Für den Journalismus wird es hier diffizil, denn: Leser lieben eindeutige Geschichten. Offene Fragen und zweideutige Erklärungen sind weitaus schwieriger zu vermitteln als griffige „Storys“. Zugleich sind Journalisten in ihrer eigenen Wahrnehmung und Wertung so subjektiv wie wir alle. Auch sie blenden Dinge aus. Sei es, weil sie unserer gesellschaftlichen oder politischen Werteordnung widersprechen, sei es, weil sie schlicht mit Wahrscheinlichkeiten und Zahlen nicht umgehen können. (Bewusste Fälschungen sind hier explizit nicht das Thema.)

Aber objektives Urteilen ist wichtig – und erlernbar. „Entscheider können nicht viel gegen ihre eigene verzerrte Wahrnehmung machen. Aber mit den richtigen Werkzeugen können sie die Verzerrungen erkennen und in ihrem Team neutralisieren“, so die Erkenntnis von Daniel Kahneman, Dan Lovallo und Olivier Sibony in einem Beitrag der Harvard Business Review („Before you make that big decision“). Diese „Werkzeuge“ werden häufig unter dem Begriff „Debiasing“ zusammengefasst. Es geht um Techniken, die es erschweren sollen, falsch zu urteilen.

Der Gedanke hinter dem Debiasing ist folgender: Der Mensch ist anfällig für Stimmungen, eingefahrene Denkmuster und Vorurteile. Beispielsweise urteilen Richter vor der Mittagspause strenger als nach dem Essen, Manager entscheiden sich immer wieder dafür, Produkte einzuführen, die absehbar am Markt vorbeigehen, und selbst Sportfunktionäre kaufen Spieler ein, die objektiv gesehen keine gute Leistung erbracht haben – und auch nicht erbringen werden. (Viele Hamburger Fußballfans können davon ein Lied singen, statistisch bewiesen ist es allerdings vorerst nur beim Baseball.) Es ist eine Art intellektuelle Betriebsblindheit: Eine bestimmte Information wird für die eigene Wahrnehmung so dominant, dass der Geist andere, ebenso wesentliche Informationen nicht mehr aufnehmen kann oder will.

Auch Journalisten sind solchen Stimmungen unterworfen: Ob Flüchtlingskrise, Ukraine-Berichterstattung, US-Wahlkampf oder der anfängliche Hype um den SPD-Kanzlerkandidaten Martin Schulz – es gibt zahllose Beispiele für redaktionelle Entscheidungen, die in der Rückschau vielleicht anders gefällt würden – auch wenn das die wenigsten Redaktionsleiter vielleicht so zugeben. In keinem der Fälle werden die Handelnden bewusst falsch geurteilt haben. Die Fehler kommen zustande, weil Menschen die Ausgangslage falsch eingeschätzt haben. „Bias“ bedeutet sinngemäß „Verzerrung“. Debiasing soll diese Verzerrungen aufdecken und einschränken.

Debiasing-Konzepte und -Techniken

Das Unternehmen Google arbeitet beispielsweise an diversen Debiasing- Strategien, und der Energiekonzern RWE hat sich vor einiger Zeit zu seinem betriebsinternen Debiasing-Konzept ausführlich gegenüber McKinsey geäußert. Der Energiekonzern hatte lange auf den Ausbau konventioneller Energien gesetzt – ein Milliardeninvestment, das schiefging. Tatsächlich begann RWE, wie auch einige andere deutsche Energieunternehmen, recht spät mit dem umfassenden Ausbau erneuerbarer Energien. „Was wir und andere Marktteilnehmer völlig unterschätzt hatten, war der Bewusstseinswandel der Öffentlichkeit gegenüber konventionellen Energien“, räumte der frühere RWE-Finanzvorstand Bernhard Günther ein. Er und seine Kollegen hatten schlicht die Stimmung im Land nicht wahrgenommen.

Die Analyse ergab verschiedene Biases im Konzern. Eine dieser Verzerrungen, die bei RWE-Mitarbeitern zu einer falschen Einschätzung der Lage führte, kennen vermutlich auch viele Arbeitnehmer: „Sunflower Effekt“. Wie sich Sonnenblumen an der Sonne orientieren, so halten sich viele Mitarbeiter in ihrer Meinung an den Ansichten ihres Chefs. Andere Blickwinkel verschwinden so aus dem Gesichtsfeld der Führungspersonen. Wichtige Fakten werden schlicht nicht wahrgenommen oder falsch bewertet.

Advokat des Teufels oder Pre-Mortem-Analyse

Um den „Sunflower Effekt“ einzudämmen bestimmen einige Unternehmen vor wichtigen Entscheidungen einen „Advokaten des Teufels“: Ein Mitglied des Teams muss gegen die bevorstehende Entscheidung oder die thematische Ausrichtung des Unternehmens argumentieren, egal was seine persönliche Meinung dazu ist. Damit ist die Rolle des Kritikers institutionalisiert. Natürlich wird in fast allen Redaktionen in Deutschland über die anstehenden Themen diskutiert. Gute Journalisten sind ja quasi Großmeister darin, alles und jeden auseinander zu nehmen. Um allerdings die machtpolitische Komponente in den Diskussionen möglichst klein zu halten (wer widerspricht schon gerne dem eigenen Chefredakteur), ist es sinnvoll, ab und zu eine kritische Stimme zu bestimmen. Und zwar immer eine andere. Diese Person hat die Aufgabe, Bedenken zu einer Entscheidung, zu einem Thema oder einer Recherche zu äußern. Vorbedingung ist natürlich, dass die Redaktionsleitung diese Kritik als produktiv schätzt.

Eine andere Möglichkeit besteht darin, anonym Bedenken zu sammeln, schriftlich. Vor der Konferenz merken alle Beteiligten an, wo sie Gefahren bei einem Thema oder einer Entscheidung etwa für einen Titel oder Aufmacher sehen. Gerade Themen, die nicht tagesaktuell sind und von einer Redaktion als heikel angesehen werden, brauchen Widerspruch.

Die dritte Technik ist die sogenannte Pre-Mortem-Analyse. Die Redaktion versetzt sich vor der Veröffentlichung in die Zeit nach der Veröffentlichung. Die Annahme: Der Beitrag, die Sendung, die Recherche, der Text oder das Heft waren ein Desaster. Woran könnte es gelegen haben? Mit dieser vorgegriffenen Rückschau-Analyse, können Fehler vorher erkannt und behoben werden. Manchmal können Fehler in der Bewertung eines Themas so erkannt werden – mitunter geht es auch gar nicht um einen generellen Fehler, sondern nur um eine unglückliche Überschrift, eine Bebilderung oder eine Formulierung, die einen journalistischen Beitrag problematisch machen.

Journalisten arbeiten oft unter immensen Zeitdruck, der es schwierig macht, diese Debiasing-Techniken immer und ausführlich anzuwenden. Aber mitunter reichen fünf Minuten und vielleicht die Frage an Kollegen, was sie bei einer Pre-Mortem-Analyse sagen würden.

Politische Überzeugung überlagert nüchterne Analyse

Journalisten wollen ja möglichst wenig verzerrt berichten. Da ist es sinnvoll, sich bewusst zu machen, wie weit verbreitet Biases sind. Der Rechtswissenschaftler Dan Kahan befasst sich etwa mit politisch motiviertem Schlussfolgern. Er und sein Team gaben überzeugten demokratischen und republikanischen Wählern Statistiken über die Wirksamkeit einer Hautcreme. Die Zahlen der Statistik lieferten eindeutige Ergebnisse, die die Probanden herauslesen sollten. Die Teilnehmer, die diese Aufgabe problemlos bewältigten, weil sie mit Zahlen gut umgehen konnten, bekamen einen zweiten, strukturell genauso aufgebauten Test. Dieses Mal allerdings zu einem politisch aufgeladen Thema, nämlich der Wirksamkeit von Waffenkontrollen in der Verbrechensbekämpfung. Die Teilnehmer irrten sich in diesem Fall wesentlich häufiger: Sie fanden zu 25 Prozent weniger wahrscheinlich die richtige Antwort, wenn diese nicht in ihr Weltbild passte. Die politische Überzeugung dessen, was richtig sein soll, so die Erkenntnisse von Kahan, überlagert die mathematische Analyse.

Eine Gruppe war bei dem Experiment weniger anfällig für Fehlschlüsse, egal ob Teilnehmer mathematisch begabt waren oder nicht. Es waren Menschen, die sich neugierig gegenüber wissenschaftlichen Dokumentationen zeigten, die ihnen vorher gezeigt wurden, um die Wartezeit zu verkürzen. Wer sich diese genau anschaute (statt Gossip oder andere Angebote zu konsumieren), ließ sich gerne von Fakten überraschen, auch wenn diese den eigenen Überzeugungen widersprachen. Ein Anreiz für Wissenschaftsjournalisten, spannende Berichte zu machen. Sie können Menschen nicht nur für ein Thema begeistern, sondern offenbar auch für kritisches Denken öffnen.

Wie wichtig es ist, sein eigenes Denken zu hinterfragen, wird klar, wenn man begreift, wie vielfältig die Formen der verzerrten Wahrnehmung sind. Hier einige Beispiele der gängigsten Biases, die Wissenschaftlicher in den vergangenen Jahren erforscht haben.

Der Outcome Bias

Bei Terroranschlägen, Fällen von eklatanter Steuergeldverschwendung oder einfach nur in Sachen Bildungspolitik ähnelt sich meist der Tenor vieler journalistischer Kommentatoren: Die Verantwortlichen haben geschlampt und/oder sind unfähig. Der Fehler liegt aber mitunter nicht nur bei den Akteuren, sondern auch beim Betrachter. Es geht hier um den sogenannten Outcome Bias, übersetzt: „Rückschaufehler“. Der Mensch bewertet Handlungen von Politikern und anderen Entscheidern oft, als ob diese vorher hätten wissen können, was hinterher passiert. „Das Gehirn, das sich Narrative über die Vergangenheit ausdenkt, ist ein sinnstiftendes Organ“, schreibt dazu Daniel Kahneman. Sprich: Wir bewerten Fakten in der Rückschau anders, weil wir das Ergebnis kennen.

Journalisten sollten sich dessen bewusst sein. Es gibt dazu einige Experimente: Jurastudenten in den USA wurden beispielsweise gefragt, ob die viertgrößte Stadt Minnesotas, Duluth, einen Brückenaufseher einstellen sollte. Der Hintergrund: Es kann vor allem im Frühling und Winter vorkommen, dass sich unter der örtlichen Brücke Eis und Geröllmassen sammeln, die somit den Fluss stauen. Eine solche Flut – die statistisch selten vorkommt – würde an den anliegenden Häusern enorme Schäden anrichten, für die die Stadt aufkommen müsste. Aber ein bezahlter Aufseher ist auch eine teure Angelegenheit für die Stadtverwaltung. Die Probanden sollten nun anhand einiger statistischer und versicherungstechnischer Fakten unter anderem beurteilen, ob die Stadt einen Brückenaufseher braucht oder nicht. Der entscheidende Punkt: Der einen Hälfte der Probanden wurde gesagt, dass es zu einer Überschwemmung gekommen war, der anderen Gruppe nicht. Die Ergebnisse: 56 Prozent derer, die von der Überflutung wussten, waren für den Brückenaufseher – bei den Unwissenden waren es nur 24 Prozent. Unerheblich war es übrigens, ob man Studienteilnehmern sagte, dass sie sich nicht von der Information beeinflussen lassen sollten, dass es eine Flut gegeben hatte.

Menschen versuchen offenbar häufig, nicht die Qualität einer Entscheidung nachzuvollziehen, wenn sie das Ergebnis kennen. Um tatsächlich eine Entscheidung zu bewerten (nicht deren Folge), braucht es Zahlen und Fakten: Wie oft kommt etwas vor? Wie wird in der Regel dabei verfahren? War die Zeit da, die Sachlage zu beurteilen? Als Debiasing-Strategie empfehlen einige Wissenschaftler den Perspektivwechsel: Lässt sich aufgrund der Faktenlage ein anderer Ausgang der Geschichte vorstellen? Sonst steckt womöglich hinter medialen Heldengeschichten von Menschen, die „weise“ Entscheidungen getroffen haben, vor allem deren Glück. Andere Menschen, die vielleicht rational und vernünftig geurteilt haben, aber Pech hatten, gelten dann zu Unrecht als fahrlässige Dummköpfe.

Der Ankerbias

Wie viele Einwohner hat Algerien? In etwa? 20 Millionen? 30 Millionen? Oder 40 Millionen? Viele Menschen, die die Antwort nicht wissen, werden 20 Millionen oder maximal 30 Millionen sagen. Tatsächlich sind es rund 40 Millionen. Das liegt nicht daran, dass das eine vernünftige Berechnung ist, sondern daran, dass sich der menschliche Geist sich in der Regel an den Informationen orientiert, die er zuerst hört. Ein Anker ist gesetzt – in diesem Fall bei 20 Millionen – und um diesen kreist das Schiff unserer Überlegungen.

Dieser Anker-Effekt betrifft uns alle, wenn wir uns dessen nicht bewusst sind, und er geht so weit, dass Richter sich nachweislich bei Schadenersatzforderungen an den Zahlen orientieren, die sie in der Verhandlung als erstes gehört haben. In Pressemitteilungen wird gleich zu Anfang ein Anker gesetzt, der die Gedanken der Empfänger in eine bestimmte Richtung lenkt. Genauso verhält es sich bei zahllosen Studien, die Interessenverbände in die Welt setzen und bei denen nicht selten die Fallzahlen viel zu klein sind oder die Studienergebnisse uneindeutig. Mitunter werden diese Zahlen von Journalisten ungeprüft übernommen und in Nachrichten, Beiträgen und Schlagzeilen verwendet.

Organisationen, die in die Medien kommen wollen, setzen ihre Zahlen so prominent wie möglich ein. Diese Zahlen vermitteln aber häufig schlicht ein verzerrtes Weltbild. Beim Anker- Bias ist es vor allem wichtig, sich bewusst zu sein, dass es ihn gibt. Das Problem, das verschärfend dazu kommt, heißt in der Psychologie: „What you see is all there is“-Phänomen – das „Alles, was man sieht, ist alles, was da ist“- Phänomen. Auch wenn uns allen theoretisch klar ist, dass wir nur einen Teil der Fakten kennen, bevorzugen wir beim Lesen das Gefühl, das Ganze sei eine stringente Geschichte, zu der es keine Alternativen gibt.

Menschen nehmen gerne die Welt so wahr, als wäre das, was wir wissen, alles was es zu dem Thema zu wissen gibt. Wichtig ist es hier, sich dessen bewusst zu sein und weitere Stimmen einzubeziehen, wie es die allermeisten Journalisten aber ohnehin tun.

Für die Wirtschaftsberichterstattung ergibt sich dabei eine ganz eigene Herausforderung, wie psychologische Experimente zeigen. „Die Geschichten über den Aufstieg und Fall von Unternehmen stoßen bei Lesern auf Resonanz, weil sie das anbieten, was der menschliche Intellekt braucht: eine einfache Botschaft von Sieg und Niederlage, die eindeutige Ursachen identifiziert“, so Kahneman. „Diese Geschichten lösen eine Illusion des Verstehens aus und erhalten sie aufrecht, und sie vermitteln dem Leser, der sie nur allzu bereitwillig glaubt, Lektionen, die ihm keinen dauerhaften Nutzen bringen.“

„Regression zur Mitte“

Kahnemans Studien und die seiner Kollegen haben ergeben: Start-ups und Produktneuheiten scheitern mit 50- bis 70-prozentiger Wahrscheinlichkeit, CEOs haben nur etwa zu zehn Prozent Einfluss auf die Leistung der Firma und können keine realistischen Prognosen abgeben, wo ihr Unternehmen finanziell in einigen Jahren steht.

Zudem sind weder Finanzvorstände noch Analysten oder andere Experten (wozu man Wirtschaftsjournalisten zweifellos zählen darf ) in der Lage, aufschlussreiche Aussagen über die Entwicklung der Märkte zu treffen. Ein Großteil dessen, was als Fakten verkauft wird, ist Spekulation.

Eine Ursache dafür ist etwa die „Regression zur Mitte“: Extreme Werte – in der Wirtschaft beispielsweise eine extrem überdurchschnittliche oder unterdurchschnittliche Leistung – nähern sich im Folgenden wieder dem Durchschnitt, also „der Mitte“, wenn auch der Zufall Einfluss auf das Ergebnis hat. Oder anders: Zwei sehr große Eltern werden mit hoher Wahrscheinlichkeit ein überdurchschnittlich großes Kind haben, das aber etwas kleiner ist als sein Vater beziehungsweise seine Mutter.

Die beste Bilanz der Unternehmensgeschichte, das Spitzenergebnis bei einer Wahl oder der Sieg der Fußball- WM sind also in der direkten Zukunft in der Regel nicht wiederholbar. Das liegt nicht an dieser oder jener Ursache, sondern schlicht an der Regression zur Mitte: Extreme Ausschläge nähern sich im Folgenden wieder etwas mehr dem Durchschnitt an, wenn es nicht eine voll und ganz ausschlaggebende Ursache für die Ausreißer gibt (wenn eine Firma beispielsweise ein einzigartiges Patent hat, spielt der Zufall beispielsweise nicht mit hinein). Wenn Journalisten also nach diesem oder jenem Fehler suchen, den das Unternehmen gemacht hat, wenn es nicht immer die absolute Spitzenleistung bringt, ist das unter Umständen nicht mehr als Kaffeesatz lesen.

Auf ein anderes, weitreichendes Problem macht der Wirtschaftswissenschaftler und Nobelpreisträger Robert Shiller aufmerksam: Die Darstellung der Ökonomie in den Medien beeinflusst die Wirtschaft zugleich. Wiederum ein Teufelskreis, an den Journalisten (und Mediennutzer) denken sollten. Shillers Analyse: Wenn Menschen beispielsweise glauben, dass vom digitalen Fortschritt nur die großen Technologiekonzerne profitieren, könnten sie als Konsequenz ihre Ausgaben einschränken – und somit Arbeitslosigkeit vorantreiben. „Die Depression der dreißiger Jahre war auch deshalb so stark, weil der Glaube vorherrschte, die Verhältnisse würden lange so schlecht bleiben“, so Shiller. Wenn also Journalisten immer neue Krisenszenarien entwerfen und endzeitliche Visionen ausbreiten, sollten Mediennutzer wissen: Solche Warnungen sind bestenfalls Vermutungen – die aber zur selbsterfüllenden Prophezeiung werden können. Journalistischer Alarmismus ist in diesem Fall fahrlässig.

In vielen Bereichen der Wirtschaft wird in einer nicht ganz so fernen Zukunft Künstliche Intelligenz dabei helfen, Entscheidungen vorzubereiten. Computer mögen gefühlskalt sein, aber sie haben einen fantastischen Vorteil: Sie haben keine Vorurteile. Während wir Menschen uns leicht ablenken lassen, verlassen sich Maschinen auf Fakten. Der Mensch kann und muss diese dann bewerten und eine Entscheidung treffen, aber er weiß dann wenigstens erst einmal, was die rationale Grundlage ist, auf der er sich bewegen kann.

Vielleicht hilft Künstliche Intelligenz irgendwann auch Journalisten bei der Recherche. Vielleicht verändert sich die Berichterstattung dann. Wenn klar ist, dass vielleicht nur wenige Bürger betroffen sind, Analogien nicht gezogen werden können und viele Studien das Gegenteil einer These belegen, werden Journalisten vielleicht anders berichten.

Janina Kalle war Redakteurin beim Medienmagazin Zapp und arbeitet jetzt als freie Medienjournalistin in Hamburg.

Dieser Beitrag erschien zuerst in der journalist-Ausgabe 3/2019. Interessiert an einem kostenlosen Probeheft des journalists? Dann hier entlang.

Die Redaktion - 16.4.2019