Kenne die Fehler deines Gehirns, um bessere Entscheidungen treffen zu können!

in psychology •  8 years ago 

Hallo Steemers,

Ich möchte euch hier einen kurzen Text präsentieren, dem ich vor kurzem zum Thema "Entscheidungsfindung" geschrieben habe:
Zunächst werde ich ein paar "Fehler des Gehirns" erklären. Anschließend versuche ich in einen instruktiven Beispiel zu erklären, wie man auf diese Fehler in der Praxis hereinfällt. Zuletzt gebe ich einige Tipss, wie man diese Fehler des Gehirns vermeiden kann und somit rationaler/besser entscheiden kann.

Genau wie jeder von uns auf optische Täuschungen hereinfällt, fällt auch jeder von uns auf kognitive Illusionen herein.
Was sind kognitive Illusionen? Fehler unseres Gehirns, die uns dazu bringen, unvernünftige und irrationale Entscheidungen zu treffen, schlecht zu urteilen und Fakten/Tatsachen in falschen Licht zu sehen. Analog zu wie man bei optischen Täuschungen auch nicht das sieht, was eigentlich da ist, sondern das, was die optische Täuschung ein vorgaukelt.
Das hat auch nichts mit Dummheit zu tun, genauso wie optische Täuschungen nichts mit schlechten Sehen zu tun haben.
Das schlimme ist, dass man sich selbst nie bewusst ist, dass man auf eine durch kognitive Illusionen verursachte Fehleinschätzung hereinfällt. Man beharrt auf die kognitive Illusion genauso stur wie jemand, der das erste mal eine optische Täuschung sieht und auf dessen Richtigkeit besteht.

Jeder Mensch (höchstens vllt Autisten oder ähnliches) fällt ständig auf kognitive Illusionen herein - es gibt kein Entrinnen!

Im folgenden werde ich auf ein paar kognitive Illusionen eingehen und anschließend erklären, wie man sie entlarven kann und Tipps geben, rationaler Entscheiden zu können.

Anchoring bias:

Die erste Zahl/Meinung/Information/Darstellung (egal von welcher Quelle, auch wenn sie als wertlos bekannt ist), die man zu einen Thema hört, wird überbewertet.
Zum Beispiel gab es eine Studie, in der Versuchspersonen zufällig eine Zahl zwischen 0 und 100 zugeordnet wurde. Die Versuchspersonen waren sich der Zufälligkeit der Zahl bewusst. Anschließend sollten die Teilnehmer schätzen, ob der Anteil (in Prozent) der afrikanischen UNO Länder an der Gesammtzahl aller UNO Länder über oder unter dieser Zahl lag. Schließlich sollten die Versuchspersonen den richtigen Anteil schätzen. Teilnehmer, die eine hohe Zahl bekommen hatten, schätzen den Anteil der afrikanischen UNO Länder auch viel höher ein und anders herum. Obwohl die Zufallszahl absolut nichts zu sagen hatte und dies den Teilnehmern auch klar gemacht wurde, hatte sie dennoch einen großen Einfluss auf die Entscheidung der Versuchspersonen!

Man sollte sich also merken: Die erste Meinung, die man zu einen Thema hört, beeinflusst übermäßig stark.

Availability heuristic:

Availability Heuristic wird, oft unbewusst, eingesetzt, wenn die Wichtigkeit oder Häufigkeit (Wahrscheinlichkeit) eines Ereignisses beurteilt werden muss, aber gleichzeitig die Zeit, die Möglichkeit oder der Wille fehlt, um auf präzise (z.B statistische) Daten zurückzugreifen. In solchen Fällen wird das Urteil stattdessen davon beeinflusst, wie verfügbar oder aktueller dieses Ereignis oder Beispiele ähnlicher Ereignisse im Gedächtnis sind. Ereignisse, an die wir uns sehr leicht erinnern, scheinen uns daher wahrscheinlicher zu sein als Ereignisse, an die wir uns schwerer erinnern können.
So könnte jemand zum Beispiel Rauchen für unbedenklich halten, weil er jemand kennt, der über 100 geworden ist, obwohl er viel geraucht hat, aber niemand, der an Lungenkrebs gestorben ist.
Oder man überbewertet die Gefahr, ermordet zu werden und unterschätzt die Gefahr, zu ertrinken, weil man das eine oft in den Medien hört, dass andere dagegen nie.
In einer Studie wurde Menschen Listen mit Namen öffentlich bekannter Frauen und Männern gegeben. Dabei gab es zwei Gruppen: Die Liste der einen enthielt sehr berühmte Frauen und eher unbekanntere Männer, die der anderen sehr berühmte Männer und unbekanntere Frauen. Anschließend sollten beide Gruppen schätzen, ob in ihrer Liste der Männer- oder der Frauenanteil größer war. Die erste Gruppe überschätzte massiv den Frauenanteil, die zweite den Männeranteil.
Die Namen berühmter Leute waren für das Gehirn leichter zugänglich und haben deshalb zu einer falschen Einschätzung geführt.

Ebenfalls überschätzen Leute bei Gruppenprojekten generell stark ihren eigenen Beitrag, da sie sich an diesen leichter erinnern können.

Grundsätzlich sollte man sich auch merken, dass das menschliche Gehirn nur sehr schlecht mit Wahrscheinlichkeiten arbeiten kann. Daher sollte man diesbezüglich immer äußerst selbstkritisch sein und am besten nicht auf sein Bauchgefühl hören, sondern konkrete Zahlen/Statistiken/Wahrscheinlichkeiten nachschauen.

Recognition Bias:

Wenn man zwei Dinge bezüglich eines beliebigen Kriteriums vergleicht, tendiert man dazu, dasjenige zu überschätzen, was man schon kennt.
Ein Beispiel wäre, dass jemand sich zum Kauf eines Produkts entscheidet, dass er schon kennt, obwohl es vielleicht bessere vergleichbare Produkte gibt.
Auch tendiert man in einer Diskussion dazu, sich von den Argumenten, die man schon kennt, leichter überzeugen zu lassen, auch wenn diese eigendlich nicht überzeugender sind.

Bandwagon effect:
Kurz gesagt: Man passt sich gerne der Masse an. Wähler wählen im Zweifel denjenigen, der voraussichtlich gewinnt. Man entscheidet sich für das Produkt, dass jeder hat und lässt sich wesentlich leichter zu einer Meinung überzeugen, die von vielen geteilt wird.

Confirmation bias:

Hierzu ein kleines Spiel: Gegeben sind drei Zahlen, nämlich 2, 4, 8. Diese Zahlen (Reihenfolge ist wichtig) genügen einer bestimmten Regel. Ziel des Spiels ist es, die Regel zu erraten. Dazu kann man ebenfalls drei Zahlen sagen und dann nachfragen, ob diese drei Zahlen der Regel genügen.
Man kann dieses Spiel auch online spielen, und zwar [hier] [http://www.nytimes.com/interactive/2015/07/03/upshot/a-quick-puzzle-to-test-your-problem-solving.html?_r=0)
Am besten betätigt man den link, bevor man weiterliest.

Die meisten Menschen erkennen in den Zahlen sofort die Zweierpotenzen 2^1, 2^2, 2^3 und denken, die Regel sei: "Es muss sich um Zweierpotenzen handeln." Daher sagen sie Zahlen wie "8, 16, 32" oder "32,64,128". Nachdem ihnen bestätigt wurde, dass all diese Zahlen die Regel erfüllen, sind sich die meisten sicher, "Zweierpotenzen" sei die richtige Antwort. Würden sie auch mal versuchen, als Antwort ein "Nein, genügt nicht der Regel" zu erhalten und z.b die Zahlen "3,7,100" vorschlagen, würde ich ihnen sagen, dass auch diese Zahlen der Regel genügen. Auf diese Weise würde man schließlich vielleicht auf die richtige Regel kommen. Die richtige Antwort ist im Link.

Der Grund, warum so viele Menschen nur Fragen stellen, auf die sie sich ein "Ja" erhoffen, ist der Confirmation Bias.
Hierunter versteht man die Neigung, sich Informationen so auszuwählen und zu interpretieren, dass sie den eigenen Erwartungen genügen. Kurz: Menschen sehen, was sie sehen wollen!
Unter anderem werden Informationen, die zum eigenen Grundverständnis passen, bevorzugt, indem

  • man sich bevorzugt an bestätigende Informationen erinnert,
  • man bestätigende Informationen relevanter/höher einschätzt als Gegensätzliche und
  • Informationsquellen meidet, die einem widersprechen.

Daher führt der Confirmation Bias dazu, dass man nur Bestätigungen zu seiner Meinung sucht/findet, diese aber niemals wirklich kritisch hinterfragt..

Bestätigungsfehler (believe perseverance)

Sobald man zu einem Thema eine feste Meinung hat, ist das eigene Urteilsvermögen zu diesen Thema massiv verschlechtert.
Dies äußert sich, indem man kontrahierende Informationen

  • diskreditiert/als unglaubwürdig empfindet
  • ignoriert/aus seinem Bewusstsein ausblendet und vergisst
  • fehlinterpretiert, z.b. ambivalente Informationen als Bestätigung empfindet
  • als nebensächlich und unwichtig abstempelt.

Believe Perseverance ist umso stärker, je länger und stärker die Meinung im einzelnen Menschen vorhanden ist/je stärker die emotionale Verbundenheit zum Thema ist. Daher ist es so furchtbar schwierig, einen religiösen Fanatiker zu Vernunft zu bringen und daher sind alte Menschen tendenziell sturer und unaufgeschlossener gegenüber Neuem..

Es gibt noch einige weitere "brain biases", die ich hier aber nicht alle aufzählen möchte. Die meisten sind ohnehin bei Wikipedia besser beschrieben als ich es könnte. Es lohnt sich, sich in das Thema ein bisschen reinzulesen.

Wichtig ist, festzustellen, dass kognitive Illusionen unbewusst und für den einzelnen unbemerkt wirken. Auf die Frage, ob man von einer der obigen kognitiven Illusionen beeinflusst wurde, würden die meisten aus voller Überzeugung mit "Nein" antworten und das auch so meinen. Die Statistik sagt aber das Gegenteil.
Ein "Opfer" dieser Fehler zu werden, ist absolut menschlich und es ist nahezu unmöglich, sich dagegen zu wehren.
Menschen überschätzen sich in fast allen Bereichen. Eine überragende Mehrheit der Menschen hält sich für attraktiver, intelligenter, kritischer, charismatischer, disziplinierter oder fitter als 50% der Bevölkerung (was mathematisch unmöglich ist). Vor allem aber überschätzen Menschen ihre Fähigkeit, kognitive Illusionen zu ignorieren und zu durchschauen. In einer Studie, in der man Menschen von kognitiven Illusionen erzählte, hielten 85% aller Amerikaner sich für unbeeinflussbarer durch/immuner gegen diese als der Durchschnitt.

Eine weitere bemerkenswerte Studie:
Nachdem man Menschen direkt nach ihrer Hochzeit die statistische Wahrscheinlichkeit einer Trennung mitgeteilt hatte, fragte man sie, wie hoch sie denn in ihren persönlichen Fall die Wahrscheinlichkeit einer Trennung einschätzen würden. Natürlich hielten fast alle eine Trennung in ihren persöhnlichen Fall für nahezu ausgeschlossen, obwohl ihnen die Statistik bewusst war, die das Gegenteil bewies.
Aka "Ich weiß dass eine Trennung generell wahrscheinlich ist, aber ich wir sind anders als die anderen und wir werden uns nicht trennen."
Analog: Die meisten, die das hier lesen, denken wahrscheinlich, sie sind nicht betroffen von kognitive Illusions. Die Wissenschaft sagt aber: Höchstwahrscheinlich seit ihr es schon.

ein Beispiel, wie jemand auf kognitive Illusionen hereinfallen könnte:

Grüne Gentechnik klingt für das Bauchgefühl eher schädlich. Sie ist "unnatürlich". Im Gehirn entstehen schnell Assoziationen zu "Mutanten/Frankenstein-Stories" und raffgierigen Konzernen. Außerdem ist die Mehrheit der Menschen in Deutschland dagegen. Das heißt sowohl der Bandwagon Effekt (Gruppendenken) als auch der Anchor-Effekt (erste Meinung, die man hört, wird überbewertet) spielen eine Rolle.
Wenn man dann seine Recherche über Gentechnik beginnt, ist man nicht mehr neutral sondern hat (oft unbewusst) bereits eine Meinung.
Durch den Confirmation Bias ließt man sich dann bevorzugt Quellen durch, die gegen Gentechnik sind (Man denke an das Zahlenspiel mit den Zweierpotenzen!) und setzt sich weniger mit Pro-Gentechnik Argumenten auseinander. Man sieht, was man sehen will. Ließt man dann einen neutralen Bericht, werden die Contra-Gentechnik Argumente durch den Recognition bias (Argumente, die man schon mal gehört hat, überzeugen mehr) überbewertet.
Wenn man dann eine Entscheidung finden will und innerlich abwägt "Was spricht dafür - was dagegen? Was überzeugt mehr?", fallen einem viel mehr Gegenargumente ein (availabiltiy Heuristik, Man denke an die "Berühmte Personen Studie" von oben). Availabiltiy Heuristik spielt hier auch insofern eine Rolle, dass man sich Gegenargumente zur Gentechnik leichter merken kann, da diese tendenziell eher zur Kategorie "Risiken" gehören (mögliche Gefahr für Gesundheit/Umwelt, Angst vor Kontrolle unserer Lebensmittel durch raffgierige Konzerne etc.) und leichter verständlich formulieren lassen. Pro-Argumente sind dagegen eher in der für unser Gehirn vergleichsweise langweiligeren Kategorie "Chancen/Verbesserung" (Ertragssteigerung, Möglichkeit, Wasser/Ressourcen zu sparen, Haltbarkeit von Lebensmitteln verbessern etc.) und bedürfen ein tieferes Verständnis (z.b. ein größeres Wissen an Fachbegriffen) dieses komplexen Themas (sind also fürs Gehirn schwieriger abrufbar). Stichwort: "Kritisieren ist einfacher als Loben".
Ferner muss man sich zum Entscheiden mit Informationen folgender Art herumschlagen: "Es besteht eine gewisse Wahrscheinlichkeit, dass GMOs Krebs verursachen und es gibt eine Wahrscheinlichkeit, dass GMOs Menschen vorm Verhungern retten. Wird der Menschheit also insgesamt geholfen oder geschadet?". Es müssen also Wahrscheinlichkeiten gegeneinander abgewägt werden, worin unser Gehirn notorisch unfähig ist. Daher neigt man in solchen Fällen, die "Default-Einstellung des Gehirns", nämlich die "zero-risk-option" zu wählen. (Eigendlich müsste man den "Erwartungswert" ausrechnen, also quasi versuchen zu kalkulieren, ob insgesammt mehr Menschen durch GMOs vorm Verhungern gerettet werden als durch ein mögliches Krebsrisiko sterben, ob die Gesammtbillanz also positiv ist.)
Aus all diesen Gründen könnte man zur Entscheidung kommen, dass grüne Gentechnik eine schlechte Sache ist und sich dabei fälschlicherweise für rational, kritisch und wohl informiert halten.
(Ps: Das Beispiel Gentechnik und Krebs ist rein spekulativ gewählt. Es gibt bisher trotz intensiver Tests keine seriösen wissenschaftlichen Hinweise, dass Gentechnik Krebs verursacht!)

Es gibt ein paar Möglichkeiten, seine Entscheidungsfähigkeit zu verbessern:

Wenn man Menschen eine optische Täuschung zeigt, fallen viele dennoch nicht darauf herein. Warum? Ganz einfach: Nicht, weil sie bessere Augen oder ein besseres räumliches Vorstellungsvermögen besitzen, sondern weil sie bereits Erfahrungen mit optischen Täuschungen gemacht haben und wissen, dass Sinneswahrnehmungen auch täuschen können. Insbesondere kennen sie möglicherweise bereits genau die gezeigte optische Täuschung und fallen deshalb nicht darauf herein.
Analog kann man sich gegen kognitive Illusionen rüsten, indem man sich bewusst macht, dass das eigene Gehirn einen auch ziemlich gut austricksen kann. Insbesondere sollte man sich bei jeder Entscheidung fragen, welche kognitiven Illusionen eine Rolle gespielt haben und sich selber äußerst kritisch und möglichst objektiv fragen: "Warum genau habe ich mich so entschieden? Sehe ich, was ich sehen will oder was wirklich da ist? Welche Gegenargumente gibt es und warum genau überzeugen sie mich nicht." Welcher kognitiven Illusion könnte ich zum Opfer gefallen sein?
Es ist sinnvoll, möglichst gut zu wissen welche kognitive Illusionen es gibt und dieses Wissen auch regelmäßig aufzufrischen. Es sei jedoch nochmal ausdrücklich erwähnt, dass kognitive Illusionen auch dann Entscheidungen beeinflussen, wenn man sich dessen genau bewusst ist.

Ebenfalls sollte man immer versuchen, dass Gegenteil seiner Meinung zu bestätigen und dann schauen, ob man darin scheitert. Anstatt zu fragen "Warum ist meine Idee/Hypothese/meine Vorgehensweise gut?", sollte man sich selbst fragen "Warum ist meine Idee schlecht? Was könnte schief gehen?".
Zum Beispiel sollte man, wenn man sich überlegt ein Produkt (z.B bei amazon) zu kaufen, am besten die negativen Rezessionen durchlesen und nicht diejenigen, die das Produkt nur loben.
Denke darüber nach: "Was müsste wahr sein, damit meine Meinung falsch ist?"
Auch sollte man sich genau klar machen, welche Information bezüglich eines Problems Vermutungen sind und welche harte Fakten. "Rather than guess, test!"

Ebenso sollte man sich möglichst nicht auf Einzelaussagen/Meinungen von Freunden verlassen (oder sie zumindest nicht überbewerten). Ich meine hier Aussagen aka "Bei meinen Freund hat es funktioniert, also ist es für mich bestimmt auch eine gute Sache". Erstens muss man (rein statistisch gesehen) davon ausgehen, dass die Erinnerung/Urteilsvermögen des Freundes zu den Thema von kognitiven Illusionen verfälscht ist. Zweitens handelt es sich immer nur um Einzelerfahrungen (quasi eine Studie mit sample-size n=1), aus denen keine Aussage auf die Allgemeinheit getroffen werden kann. Beispiel "Wunderheilung" durch Homeopathie: Man weiß nicht, ob die betreffende Person auch ohne das homopatische Heilmittel gesund geworden wäre oder ob es ihr ohne vielleicht sogar besser gegangen wäre. Analog zu: "Nur weil man vor einem Münzwurf die Hände geklatscht hat und dann Kopf bekommen hat, heißt das noch lange nicht, dass man nach Händeklatschen immer Kopf wirft". Auch werden einen in solchen Fällen meist nur die positiven Fälle berichtet und man weiß nicht, wie oft das homöopatische Heilmittel nicht geholfen hat.

Ps: Ich hoffe euch gefällt der Text :)
Bei guten Feedback gibts ne englische Übersetzung

Authors get paid when people like you upvote their post.
If you enjoyed what you read here, create your account today and start earning FREE STEEM!
Sort Order:  

Congratulations @antonrodenhauser! You have received a personal award!

Happy Birthday - 1 Year on Steemit Happy Birthday - 1 Year on Steemit
Click on the badge to view your own Board of Honor on SteemitBoard.

For more information about this award, click here

By upvoting this notification, you can help all Steemit users. Learn how here!

Congratulations @antonrodenhauser! You received a personal award!

Happy Birthday! - You are on the Steem blockchain for 3 years!

You can view your badges on your Steem Board and compare to others on the Steem Ranking

Vote for @Steemitboard as a witness to get one more award and increased upvotes!