Abschnitt: Teamführung → Entscheidungen fällen
 

So treffen Sie gute Entscheidungen

woman-687560_1920.jpg

Entscheidungen werden nicht immer rational getroffen und sind daher oft nicht die, objektiv betrachtet, beste Wahl. Dass dem so ist, hat die psychologische Forschung bereits durch eine Vielzahl an Befunden ausmachen können. Es mag allerdings nach wie vor überraschen, wie unterschiedlich die Einflussfaktoren sein können, die Entscheidungen beeinflussen. Die meisten Einflussfaktoren sind auf intuitive bzw. automatisch ablaufende Prozesse zurückzuführen. Dem zugrunde liegt die Annahme einer 2-Systeme-Theorie. Vereinfacht gesagt, wird hierbei zwischen dem intuitiven, schnellen und automatisch ablaufenden System 1 (z.B. Antwort auf die Frage „Was ist 2 × 2?“) und eher rationalen, aufwändigeren und damit langsameren, aber dafür bewussten Prozessen des Systems 2 (z.B. Antwort auf die Frage „Was ist 14 × 37“) unterschieden. Im Allgemeinen besteht bei Menschen die Präferenz im System-1-Denken zu bleiben – es ist angenehm wenn alles „automatisch läuft“. Dazu kommt, dass es meist des Denkens im System 2 auch erst bedarf, wenn ein Problem offensichtlich nicht mit System 1 zu lösen ist (wie die mathematischen Beispiele verdeutlichen). Problematisch sind jedoch Situationen, in denen Entscheider intuitiv falsch antworten, da die Aufgabe ein bewusstes Problemlösen nach System 2 verlangt, dies aber nicht bemerkt wird. Ein heute bekanntes Beispiel für zu schnelles, fehlerhaftes Urteilen stammt aus dem Cognitive Reflexion Test von Frederick (2005).

Beispiel

Aufgabe: Ein Schläger und ein Ball kosten zusammen 1,10 €. Der Schläger kostet 1 € mehr als der Ball. Wie viel kostet der Ball?

Was wäre Ihre spontane Antwort an dieser Stelle? Wenn Sie dieses eindrückliche Beispiel noch nicht kennen, ist es sehr wahrscheinlich, dass Sie hier mit „10 Cent“ antworten. Den meisten Menschen liegt dieser Wert sozusagen auf der Zunge. Doch das kann nicht richtig sein. Würde der Ball 10 Cent kosten, läge der Schläger bei 1,10€ (denn er kostet ja 1€ mehr als der Ball) und die Summe aus Schläger und Ball wäre 1,20€. Daher kann die Lösung nur lauten: der Ball kostet 5 Cent. Diese Antwort allerdings ist nur den wenigsten Menschen sofort bewusst.

Beispiele wie diese führen vor Augen, dass unser Denken und damit Entscheiden nicht nur fehleranfällig ist, sondern auch dass unser Radar zum Erkennen selbst eigener Denkfehler nicht immer anschlägt. Um die Wahrscheinlichkeit zur Identifikation verzerrender Einflüsse auf Entscheidungen und damit die potenzielle Qualität von Entscheidungen zu erhöhen, sollten Sie die Einflussfaktoren kennen.

Diese Faktoren beeinflussen Ihre Entscheidungen

Eines der wohl bekanntesten psychologischen Phänomene, das eindrücklich vor Augen führt, wie beeinflussbar menschliche Entscheidungsprozesse sind, ist der sogenannte Einrahmungseffekt (framing effect; Kahneman/Tversky 2000). Dieser beschreibt, dass unterschiedliche Arten der Formulierung einer Nachricht (wobei der Inhalt der gleiche bleibt) zu unterschiedlichen Entscheidungen führen können. Klassische Paradigmen vergleichen hier den Einfluss der Verlustrahmung (negative Formulierung) mit der Gewinnrahmung (positive Formulierung). Ein wenig dramatisches Beispiel hierzu wäre die Wahl einer geeigneten Nachspeise für den ausgewogenen Ernährungsplan: A) Nachspeise X enthält 20 % Fett vs. B) Nachspeise X ist zu 80 % fettfrei. Spricht Sie hier eine Formulierung mehr an als die andere? Ein weiteres Beispiel könnte die Beschreibung einer Evaluation sein: A) die pädagogische Arbeit wurde zu 90 % als überdurchschnittlich bewertet vs. B) die pädagogische Arbeit wurde zu 10 % als unterdurchschnittlich bewertet. Diese unterschiedlichen Formulierungen der gleichen Botschaft lösen nicht selten unterschiedliche Assoziationen und damit Bewertungen aus. Dieser Effekt lässt sich auf verschiedenste Kontexte übertragen und ist ferner relevant bei der Kommunikation von Entscheidungen.

Ein weiterer, klassischer Effekt den die Sozialpsychologie identifiziert hat, ist der sog. Halo-Effekt (Thorndike 1920). Dieses Phänomen beschreibt die menschliche Neigung, von einer bekannten Eigenschaft einer Person auf unbekannte Eigenschaften dieser zu schließen. Auch dieser Effekt ist für Entscheidungen im Kita-Kontext auf allen Verantwortungsebenen von Relevanz – vorwiegend für den direkten Umgang mit Kindern. Als klassisches Beispiel für den Halo-Effekt wird der Schluss auf die kognitiven Kompetenzen eines Kindes aufgrund des wahrgenommen Erscheinungsbildes des Kindes beschrieben: Ein wenig gepflegtes Kind wird leichter für weniger klug gehalten. Handelt es sich um eine positive Verzerrung, also einer Ausstrahlung im positiven Sinne, spricht man auch vom Heiligenschein-Effekt – im negativen Fall vom Teufelshörner-Effekt.

Das sind die bekanntesten Heuristiken

Oft stehen Entscheidern nicht genügend relevante Informationen oder Ressourcen (z.B. Zeit) zur Verfügung, um zu einer objektiv betrachtet guten Entscheidung kommen zu können. Um dennoch zu einem Urteil gelangen zu können, greifen Menschen auf einfache Denkstrategien, sogenannte Heuristiken, zurück. Hierbei wird, verkürzt gesagt, eine komplexe Frage durch einfachere Fragen ersetzt bzw. der Fokus auf nur einen Aspekt eines komplexen Problems gelegt (Eller/Streicher/Lermer 2012). Ein Beispiel hierfür wäre die Frage „Wie hoch ist das Risiko XY?“, die durch die Frage „Wie leicht kommt mir ein Beispiel für das Risiko XY in den Sinn?“ ersetzt wird (Eller et al. 2012). Diese mentalen Abkürzungen sind überwiegend vorteilhaft. Sie erlauben ressourcensparende Schlussfolgerungen, die für viele alltägliche Lebenssituationen ausreichend sind. Problematisch wird es jedoch, wenn das heuristische Vorgehen zu systematischen Abweichungen von Logik und Wahrscheinlichkeit führt, die überdies nicht bemerkt werden. Diese Fehler werden kognitive Verzerrungen (cognitive biases) genannt. Das sind die drei wohl bekanntesten Heuristiken: Verfügbarkeitsheuristik, Repräsentativitätsheuristik und Ankerheuristik.

  • Die Verfügbarkeitsheuristik (Tversky/Kahneman 1973) kommt vor allem bei Wahrscheinlichkeitseinschätzungen von Ereignissen zum Tragen. Einfach ausgedrückt besagt sie: „Wenn mir ein Ereignis leicht einfällt oder ich es mir leicht vorstellen kann, dann kommt es auch häufig vor oder ist sehr wahrscheinlich“ (Lermer/Raue/Frey 2016, S. 538). Das kann sich als eine sinnvolle Strategie erweisen. Allerdings kann es hier auch sehr leicht zu Verzerrungen kommen. Beispielsweise zeigen Studien, dass die Eintretenswahrscheinlichkeit von Ereignissen, die in den Medien aktuell und/oder besonders dramatisch (z.B. Absturz eines Flugzeuges) berichtet werden, überwiegend überschätzt wird (Lermer/Raue/Frey 2016; Combs/Slovic 1979; Lichtenstein/Slovic/Fischhoff/Layman/Combs 1978).

  • Bei der Repräsentativitätsheuristik (Kahneman/Tversky 1972) wird die Repräsentativität (z.B. einer Person) als Grundlage für ein Wahrscheinlichkeitsurteil verwendet. Im klassischen Linda-Experiment erhielten die Studienteilnehmer eine Personenbeschreibung von Linda (u.a. großes Interesse an Frauenrechten). Danach wurden die Teilnehmer gebeten, einzuschätzen, ob es wahrscheinlicher ist, dass A) Linda eher eine Bankangestellte sei oder B) eine Bankangestellte und aktiv in der Frauenbewegung. Das Ergebnis war, dass ein Großteil der Teilnehmer/innen Antwort B präferierte. Das kann jedoch nicht sein, da das gleichzeitige Auftreten zweier Eigenschaften nicht wahrscheinlicher sein kann als das Auftreten einer der beiden Eigenschaften allein (Lermer/Raue/Frey 2016). Dieser Effekt wird damit erklärt, dass Linda den Teilnehmerinnen und Teilnehmern als repräsentativer für beide Eigenschaften erschien (Tversky/Kahneman 1983). Dies passt auch durchaus zum alltäglichen Denken. Denn in vielen Fällen kann davon ausgegangen werden, dass die Randinformationen die zur Verfügung gestellt werden auch für den jeweiligen Gegenstand relevant sind. Da der Mensch jedoch im Allgemeinen eher weniger begabt ist in Wahrscheinlichkeiten zu denken, kommt es hier häufig zu einer fehlerhaften Überlagerung.

  • Bei der Ankerheuristik (Tversky/Kahneman 1974) wird eine Schätzung durch einen Ausgangswert (Anker) beeinflusst. Alltägliche Beispiele hierfür finden sich bei Preisverhandlungen: Der zuerst genannte Preis schafft ein gewisses Preiskontinuum und legt damit den Verhandlungsrahmen fest. Ein simples Experiment verdeutlicht den Einfluss von Ankern: In einer Studie von Tversky und Kahneman (1974) wurden zwei Gruppen (Gruppe A und Gruppe B) gebeten innerhalb von 5 Sekunden das Ergebnis folgender Aufgabe zu schätzen:

    Gruppe A: 8 x 7 x 6 x 5 x 4 x 3 x 2 x 1

    Gruppe B: 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8

    Was wäre Ihre jeweilige Schätzung gewesen? Wie die Intuition bereits vermuten lässt, lagen die Mittelwerte (Median) der beiden Gruppen deutlich auseinander: Gruppe A schätzte im Mittel = 512; Gruppe B = 2.250. Dies zeigt eindrücklich wie sehr sich menschliche Schätzprozesse von Ausgangswerten (Ankern) beeinflussen lassen. Der Tatsächliche (korrekte) Wert liegt übrigens weit darüber bei: 40.320. Oft sind die Anker, die menschliche Schätzprozesse beeinflussen jedoch weniger offensichtlich. Beispiele für den Kita-Kontext, bei denen Anker Entscheidungen maßgeblich beeinflussen können, finden sich in sämtlichen Entscheidungsfeldern sobald ein Ausgangswert als Orientierung dient, wie z.B. insbesondere bei Schätzungen im Zuge der Finanzplanung.

Alle 3 Heuristiken finden sich im Kontext Kita wieder. Auf allen Verantwortungsebenen müssen regelmäßig Abwägungen und Einschätzungen getroffen werden. Das menschliche Denken (dabei insbesondere Wahrscheinlichkeitsschätzungen) ist hierbei selten frei vom Einfluss vereinfachender Denkstrategien, von denen es noch zahlreiche weitere gibt. Allerdings, so zeigt die Forschung, ist es bei vielen dieser Einflüsse bereits hilfreich, sich einmal aktiv und bewusst damit auseinandergesetzt zu haben, um Verzerrungen zu begegnen.

Allerdings, so zeigen aktuelle Studien, scheint der Mensch manchmal auch das Bedürfnis zu haben, der eigenen Intuition treu zu bleiben, auch wenn diese offensichtlich falsch ist. Unter dem Begriff Acquiescing (Hinnehmen) beschreiben Walco und Risen (2017) genau dieses Phänomen, dass Menschen an ihrer intuitiven Schätzung/Entscheidung festhalten, auch wenn sie bewusst erkennen, dass sie nicht korrekt ist. Dieses Phänomen widerspricht einigen 2-Prozess-Modellen wie etwa dem corrective dual-process model von Kahneman und Frederick (2002). Hierbei wird angenommen, dass das automatisch ablaufende System 1 schnell ein intuitives Urteil fällt, dass vorerst als Standard gilt. Wenn das rationale System 2 feststellt, dass dieses Urteil korrekt ist (oder nicht in der Lage ist zu bestimmen, dass es inkorrekt ist), bestärkt System 2 den Vorschlag aus System 1. Sobald aber das rationale System 2 erkannt hat, dass es sich bei der intuitiven Schätzung aus System 1 um einen Fehler handelt, wird dieser durch System 2 korrigiert (oder es besteht zumindest das Bedürfnis dazu nicht bei der intuitiven Antwort zu bleiben). So zumindest die Annahme dieses Modells. Nun aber zeigen Studienergebnisse, dass Personen bei manchen Entscheidungen auch wider besseres Wissen an ihren intuitiven System-1-Urteilen festhalten. Dies erinnert auch stark an Forschungsergebnisse aus dem Bereich des magischen Denkens und der Kontrollillusionen. Wobei angenommen wird, dass geltenden Ursache-Wirkungs-Regeln subjektiven Annahmen nachgestellt werden können – z.B. die Annahme, es brächte mehr Glück ein Lotterielos selbst auszuwählen, als es zugeteilt zu bekommen (Langer 1975). Beispiele wie diese zeigen, dass für gute Entscheidungen nicht nur das Wissen um potenzielle Verzerrungen relevant ist, sondern auch die Motivation dazu, gute Entscheidungen zu treffen, vorhanden sein muss.

Neben den hier aufgeführten Einflussfaktoren finden sich zahlreiche weitere.

Worauf Sie noch achten müssen

In einer Reihe von Studien zum Einfluss von Temperatur konnten Ijzerman und Semin (2009) zeigen, dass bereits die Raumtemperatur (oder das Halten eines kalten oder warmen Getränkes) Entscheidungen beeinflussen kann (Lermer 2010). Wärme (im Vergleich zu Kälte) lässt Menschen eher an ihnen nahestehende Personen denken und sich eher in einer konkreten Sprache ausdrücken. Besonders Letzteres kann einen enormen Einfluss auf die Entscheidungsqualität haben. Eine Vielzahl von Studien zur Construal Level Theory (CLT; Trope/Liberman 2010) hat gezeigt, dass der Grad der Abstraktion (konkretes vs. abstraktes Denken) Urteile und Risikoverhalten beeinflussen kann. Die CLT beschreibt den Einfluss psychologischer Distanz (wie nah/fern sich Objekte, Ereignisse, oder Personen von einem selbst entfernt fühlen) auf das menschliche Denken. So werden zeitlich weit entfernte Ereignisse eher abstrakt assoziiert, während nähere Ereignisse zu konkreteren Assoziationen führen.

Beispiel: „Geplanter Umbau einer Kita“

Ist der Umbau in 2 Jahren vorgesehen, wird er wahrscheinlich vorerst zu überwiegend zielrelevanten Assoziationen führen, wie etwa: Modernisierung, Erweiterung und weiteren eher abstrakten Assoziationen von denen angenommen werden kann, dass sie stabil bleiben auch wenn das Ereignis näher rückt. Steht der Umbau jedoch unmittelbar bevor, z.B. Beginn in 2 Wochen, ist es sehr wahrscheinlich, dass die Assoziationen weitere Dimensionen und v.a. Details umfassen. Hierzu zählen konkrete Aspekte wie etwa: Probleme, den laufenden Betrieb aufrecht zu erhalten; wie mit der Lärmbelästigung umgehen?; welche Räume können in welcher Form weiterhin genutzt werden?; mit welchen Reaktionen der Eltern ist zu rechnen etc.?

Oft sind Details und Kontextbedingungen auch erst bekannt (oder in Erfahrung gebracht worden) wenn ein Ereignis durch zeitliche Nähe relevanter wird. Von Bedeutung hierbei ist allerdings v.a., dass sich dieser Prozess auch bewusst beeinflussen lässt. Die folgende Grafik illustriert den Zusammenhang zwischen empfundener Distanz und Abstraktionsgrad der Assoziationen (siehe Abb. 1).

klw_hbp_2.2.2_abb.1.jpg

Abb. 1: Bi-direktionaler Zusammenhang zwischen psychologischer Distanz und Denkstil (Quelle: eigene Darstellung)

Psychologische Distanz (z.B. zeitlich größere Entfernung) führt zu eher abstraktem Denken. Ferner führt eher abstraktes Denken dazu, dass Ereignisse als weiter entfernt assoziiert werden. Studien haben gezeigt, dass Personen, die abstrakt (vs. konkret) über ein Ereignis nachdenken, dieses als weiter entfernt erleben, Risiken geringer schätzen und sich risikoaffiner verhalten (Lermer/Streicher/Sachs/Raue/Frey 2015, 2016a, 2016b). Dies kann für Kitas auf allen Verantwortungsebenen und allen Entscheidungsfeldern von Bedeutung sein. Werden Informationen und Alternativen zu einer Entscheidung beispielsweise sehr abstrakt diskutiert, kann dies dazu führen, dass konkrete Kontextbedingungen zu wenig bis gar nicht berücksichtig werden.

Ein eindrückliches Beispiel hierzu ist der sogenannte Planungsfehlschluss (planning fallacy, Kahneman/Tversky 1979). Dieses Phänomen beschreibt eine optimistische Verzerrung, bei der Personen die von ihnen geschätzte Zeit bis sie eine bestimmte Aufgabe erledigt haben werden, unterschätzen. Diese Tendenz der Unterschätzung der Dauer bis zur Erledigung einer Aufgabe wurde bis heute in zahlreichen Studien in unterschiedlichsten Kontexten beobachtet (z.B. bei akademischen wie arbeitsbezogenen Aufgaben; Buehler/Griffin 2003; Roy/Christenfeld/McKenzie 2005). Je näher ein Ereignis jedoch erscheint, desto konkreter wird es assoziiert. Dies erhöht die Wahrscheinlichkeit dafür, dass relevante Hindernisse erkannt werden und realistische Schritt-für-Schritt-Pläne erstellt werden können (Peetz/Buehler/Wilson 2010).

Literatur

Buehler, R./Griffin, D. (2003): Planning, personality, and prediction: The role of future focus in optimistic time predictions. In: Organizational Behavior and Human Decision Processes, 92(1), S. 80-90.

Combs, B./Slovic, P. (1979): Newspaper coverage of causes of death. In: Journalism Quarterly, 56(4), S. 837-849.

Eller, E./Streicher, B./Lermer, E. (2012): Psychologie und Risikomanagement: Warum wir Risiken falsch einschätzen. In: Risikomanager, 23, S. 6-9.

Frederick, S. (2005): Cognitive reflection and decision making. In: The Journal of Economic Perspectives, 19 (4), s. 25-42.

IJzerman, H./Semin, G. R. (2009): The thermometer of social relations: Mapping social proximity on temperature. In: Psychological Science, 20 (10), S. 1214-1220.

Kahneman, D., & Tversky, A. (1979). Prospect theory: An analysis of decision under risk. Econometrica: Journal of the Econometric Society, 47, 263–292.

Kahneman, D./Frederick, S. (2002): Representativeness revisited: Attribute substitution in intuitive judgment. In: Heuristics and biases: The psychology of intuitive judgment, 49, S. 49-81.

Kahneman, D./Tversky, A. (1972): Subjective probability: A judgment of representativeness. In: Cognitive Psychology, 3 (3), S. 430-454.

Kahneman, D./Tversky, A. (Hrsg.) (2000): Choices, values, and frames. Cambridge University Press.

Lermer, E. (2010): Statistik im Spannungsfeld von Intuition und Kognition. Unveröffentlichte Diplomarbeit (Psychologie). Universität Salzburg. Salzburg.

Lermer, E./Raue, M./Frey, D. (2016): Risikowahrnehmung und Risikoverhalten. In: Frey, D./Bierhoff, H.-W. (Hrsg.): Enzyklopädie der Psychologie – Soziale Motive und soziale Einstellungen – Sozialpsychologie, 2. Göttingen: Hogrefe. S. 535-580.

Langer, E. J. (1975): The illusion of control. In: Journal of Personality and Social Psychology, 32 (2), S. 311.

Lermer, E./Streicher, B./Sachs, R./Raue, M./Frey, D. (2015): The effect of construal level on risk taking. In: European Journal of Social Psychology, 45, S. 99-109.

Lermer, E./Streicher, B./Sachs, R./Raue, M./Frey, D. (2016a): Thinking concretely increases the perceived likelihood of risks: The effect of construal level on risk estimation. In: Risk Analysis, 36, S. 623-637.

Lermer, E./Streicher, B./Sachs, R./Raue, M./Frey, D. (2016b): The effect of abstract and concrete thinking on risk-taking behavior in women and men. In: SAGE Open, S. 1-4.

Lichtenstein, S./Slovic, P./Fischhoff, B./Layman, M./Combs, B. (1978): Judged frequency of lethal events. In: Journal of Experimental Psychology: Human Learning and Memory, 4 (6), S. 551-578.

Peetz, J./Buehler, R./Wilson, A. (2010): Planning for the near and distant future: How does temporal distance affect task completion predictions? In: Journal of Experimental Social Psychology, 46 (5), S. 709-720.

Roy, M. M./Christenfeld, N. J./McKenzie, C. R. (2005): Underestimating the duration of future events: Memory incorrectly used or memory bias? In: Psychological Bulletin, 131 (5), S. 738-756.

Thorndike, E. L. (1920): A constant error in psychological ratings. In: Journal of Applied Psychology, 4 (1), S. 25-29.

Trope, Y./Liberman, N. (2010): Construal-level theory of psychological distance. In: Psychological Review, 117 (2), S. 440-463.

Tversky, A./Kahneman, D. (1973): Availability: A heuristic for judging frequency and probability. In: Cognitive Psychology, 5, S. 207-232.

Tversky, A./Kahneman, D. (1974): Judgment under uncertainty: Heuristics and biases. In: Science, S. 1124-1131.

Tversky, A./Kahneman, D. (1983): Extensional versus intuitive reasoning: The conjunction fallacy in probability judgment. In: Psychological Review, 90, S. 293.

Walco, D. K./Risen, J. L. (2017): The empirical case for acquiescing to intuition. In: Psychological Science.

Ergänzende Arbeitshilfen

Tipps zur Entscheidungsfindung für Kita-Leitungen

Wie gelangen Sie zu tragfähigen Entscheidungen als Kita-Leitung? Das Arbeitsblatt gibt Ihnen Tipps für die Entscheidungsfindung an die Hand und zeigt anhand von 5 Schritten auf, wie Sie zu tragfähigen Entscheidungen kommen können. Dokument herunterladen

Nach oben

Anmelden