Das System der Denkfallen

Was ist eine Denkfalle? (zur Beispielsammlung „Denkfallen und Paradoxa“)

Zur Hauptseite (Rahmen)

Zum Klassifikationsschema (Gliederung)

Zum Literaturverzeichnis (auf dieser Seite)


Übergeordnete Prinzipien

Das Scheinwerfer- und das Sparsamkeitsprinzip ergeben sich aus der Notwendigkeit, mit begrenzten mentalen Ressourcen (Gedächtnis und Verarbeitungsfähigkeit) zurechtzukommen. Sie stecken hinter allen Denkfallen und sind in diesem Sinne übergeordnet.

Scheinwerferprinzip (search light principle, selective attention, tunnel vision)

Aus dem riesigen Informationsangebot der Außenwelt werden nur relativ kleine Portionen ausgewählt und bewusst verarbeitet. Es gibt einen Engpass der Wahrnehmung. Der von den Sinnesorganen erfasste Informationsfluss, selbst nur ein winziger Ausschnitt aus der Menge der auf uns treffenden Signale, ist um viele Millionen mal größer als das, was wir wahrnehmen; das allermeiste entgeht uns (Grams, 1990, S. 35 ff.). Die Auswahl und Filterung der Information hängt von der Ausrichtung des Scheinwerfers der Aufmerksamkeit ab. Popper spricht vom Scheinwerfermodell der Erkenntnis: „Wir erfahren ja erst aus den Hypothesen, für welche Beobachtungen wir uns interessieren sollen, welche Beobachtungen wir machen sollen“ (Popper, 1973, S. 369 ff.). Eine häufige Ursache für Bedienfehler (beim Autofahren beispielsweise) ist die Gefangennahme der Aufmerksamkeit: Wir werden abgelenkt und richten dadurch den Scheinwerfer der Aufmerksamkeit falsch aus (Reason, 1994, S. 91).

Sparsamkeitsprinzip (principle of parsimony)

Das Sparsamkeits- oder Ökonomieprinzip besagt, dass Arten und Individuen, die ökonomisch mit den Ressourcen umgehen, Vorteile im Konkurrenzkampf haben. Durch Auslese wird folglich der Aufwand zur Erreichung eines bestimmten Zwecks minimiert.

„Die angeboren Information des Auslösemechanismus ist so einfach kodiert, wie dies nur möglich ist, ohne ein Ansprechen auf eine andere als die biologisch adäquate Situation wahrscheinlich zu machen“ (Lorenz, 1973, S. 78). Wir haben einen „angeborenen Hang zur einfachsten Lösung“ (Riedl, 1981, S. 143). Karl R. Popper argumentiert auf der Linie des Ökonomieprinzips, auch wenn er meint, ohne diese Annahme auszukommen: „Vor allem aber erklärt unsere Auffassung, weshalb man in der ‚Einfachheit‘ etwas Vorzugswürdiges sieht. Wir brauchen dazu keine Annahme von der Art des ‚Ökonomieprinzips‘ oder dgl.: Einfachere Sätze sind ... deshalb höher zu werten als weniger einfache, weil sie mehr sagen, weil ihr empirischer Gehalt größer ist, weil sie besser prüfbar sind“ (Popper 1982, S. 103). Er verlangt eben, dass die Prüfung der Sätze – und nicht etwa deren Formulierung – dem Ökonomieprinzip folgt.

Bei übertriebener Anwendung des Sparsamkeitsprinzips können wir Wesentliches übersehen. Wir denken zu einfach. Das Braess’sche Paradoxon führt uns das vor Augen.


Die angeborenen Lehrmeister

„Die angeborenen Lehrmeister sind dasjenige, was vor allem Lernen da ist und da sein muss, um Lernen möglich zu machen“ (Lorenz, 1973, S. 119). „Das biologische Wissen enthält ein System vernünftiger Hypothesen, Voraus-Urteile, die uns im Rahmen dessen, wofür sie selektiert wurden, wie mit höchster Weisheit lenken; uns aber an dessen Grenzen vollkommen und niederträchtig in die Irre führen“ (Riedl, 1981, S. 37). Zu den angeborenen Lehrmeistern werden hier die Strukturerwartung, die Kausalitätserwartung, die Anlage zur Induktion, sowie der Neugier- und Sicherheitstrieb gezählt.

Strukturerwartung

Alles Leben geht augenscheinlich von der Hypothese eines objektiv existierenden Kosmos aus, der von Recht und Ordnung zusammengehalten wird. Diese Strukturerwartung hat sich im Laufe der Evolution als Erfolgsrezept erwiesen. Die Strukturerwartung wirkt sich bei der optischen Wahrnehmung als Prägnanztendenz aus. Das ist die Sinnsuche des Wahrnehmungsapparats. Die Gestaltgesetze beschreiben einige der Effekte, die auf die Prägnanztendenz zurückgehen (Goldstein, 1997, S. 168 ff.). Besonders eindrucksvoll ist der Effekt der Kontrastbetonung der optischen Wahrnehmung. Er spielt auch auf höheren kognitiven Ebenen eine wesentliche Rolle. Strukturerwartung und Prägnanztendenz schießen zuweilen über das Ziel hinaus; dann kommt es zur Überschätzung des Ordnungsgehalts der Dinge. Die „rutschende Leiter“ ist ein Beispiel dafür, wie wir uns die Prägnanztendenz täuschen kann.

Kausalitätserwartung

Eindimensionales Ursache-Wirkungsdenken

Die „Hypothese von der Ursache“ enthält die „Erwartung, dass Gleiches dieselbe Ursache haben werde. Dies ist zunächst nicht mehr als ein Urteil im Voraus. Aber dieses Vorurteil bewährt sich... in einem derartigen Übermaß an Fällen, dass es jedem im Prinzipe andersartigen Urteil oder dem Urteils-Verzicht überlegen ist“ (Riedl, 1981, S. 140). Verhängnisvoll wird das Prinzip bei ausschließlich eindimensionales Ursache-Wirkungsdenken (Linear Cause-Effect Thinking) und wenn wir die Vernetzung der Ursachen und die Nebenwirkungen unserer Handlungen außer Acht lassen (Dörner, 1989, S. 54). Die vom Menschen verursachten Umweltprobleme zeugen davon.

Noch ein Beispiel: Meist wird nach einem Flugzeug-, Bahn-, Schiffsunglück oder einem Kernkraftwerksunfall der Pilot, der Lokführer, der Kapitän oder der Operateur als Schuldiger präsentiert. Menschliches Versagen heißt es dann, obwohl wir besser von einer Fehlanpassung von Mensch und Maschine reden und von einer Vielzahl von Ursachen ausgehen sollten.

Die Fehlerbaumanalyse (Fault Tree Analysis) kann helfen, das monokausale Denken zu überwinden und die meist vielgestaltigen Ursachen unerwünschter Ereignisse mit schädlichen oder gar katastrophalen Folgen zu erfassen (Leveson, 1995): Das unerwünschte Ereignis ist Wurzel eines Baumes. Gefragt wird nach den möglichen Ursachen des Ereignisses. Diese bilden dann die Zweige des Baumes. Die den Zweigen zugeordneten Ereignisse können selbst wieder auf ihre Ursachen hin untersucht werden. So führt die Analyse zu weiteren Verästelungen, bis hin zu den als elementar geltenden Ursachen (Blätter).

Die Kausalitätserwartung verhindert manchmal nicht nur das Auffinden der wahren Ursache, weil wir meinen, die Ursache bereits gefunden zu haben; sie bewirkt auch, dass wir Ursachen sehen, wo gar keine zu finden sind. Dies dürfte wohl eine der häufigsten Ursachen der Fehlinterpretation von Statistiken sein. Die Statistik zur Xenophobie demonstriert den Effekt.

Die Szenario-Falle

Weil wir uns zusammenhängende Geschichten leichter merken können, verbindet unser Denkapparat fast zwangsläufig und ohne dass der Vorgang in unser Bewusstsein tritt Einzelfakten zu Szenarios, zu Geschichten in denen diese Fakten – wie in einem guten Drehbuch – kausal geordnet erscheinen. Wir tun das auch dann, wenn es diese Zusammenhänge gar nicht gibt oder wenn uns die tatsächlichen Zusammenhänge verborgen bleiben. Gerade wenn wir nur wenige Fakten kennen, ist die Sinnsuche besonders einfach: Wir (er)finden leicht Geschichten, die zu den Fakten passen; und der Mangel an störenden Diskrepanzen lullt uns ein. Das imaginierte stimmige Weltbild sorgt für Wohlbehagen und wird für uns zur Realität.

Und das geht zuweilen gründlich daneben: Vorstellung und Wirklichkeit weichen in wesentlichen Punkten voneinander ab. Dann sind wir in der Szenario-Falle gelandet. Und von dieser Falle gibt es zwei wesentliche Spielarten.

Da ist erstens der Erinnerungsirrtum (Hindsight Bias): Wir verbinden einzelne Erinnerungsbruchstücke zu stimmigen Geschichten. Diese Geschichten erfinden wir so, dass unser Selbstbild keine unangenehmen Störungen erfährt. Die Geschichten passen sich neuen Erkenntnissen an und erzeugen die tröstliche Illusion, es „ja schon immer gewusst“ zu haben (Fischoff, 1980). Der Erinnerungsirrtum ist es auch, der zum Leidwesen der Rechtsuchenden, die Wahrheitsfindung in Gerichtsverfahren so schwer wenn nicht gar unmöglich macht. In den letzten Jahren mussten einige Gerichtsverfahren, die den Kindsmissbrauch zum Gegenstand hatten, neu aufgerollt werden, weil die Ersturteile offensichtlich auf Erinnerungsirrtümern der Zeugen beruhten.

Spiegelbildlich dazu gibt es den Prognoseirrtum. Er beruht darauf, dass wir uns zukünftige Entwicklungen auf der Basis vorhandener Daten und Statistiken vorzugsweise als Szenarien vorstellen. Und das ist eine Reduktion der denkbaren Möglichkeiten, die eher einem weit verzweigten Baum ähneln. Diese Einengung auf scheinbar stimmige Abläufe ist es, die dem Zukunftsforscher ein großes Publikum beschert. Und diese Forscher berichten – zunftgemäß – am liebsten von der von ihnen imaginierten Zukunft und weniger gern darüber, dass ihre früheren Prognosen kaum einmal Wirklichkeit geworden sind.

Eine besondere Spielart des Prognoseirrtums tritt beim Design psychologischer Tests auf. Nehmen wir als Beispiel Tests, die das Verhalten von Experten in komplexen Entscheidungssituationen erfassen sollen. Das funktioniert so: In einer Simulationsumgebung – einer Nachbildung des Leitstands eines Großkraftwerks beispielsweise – wird der Versuchsperson ein Störungsszenario eingespielt. Die Versuchspersonen erfahren vom Anlagenzustand nur das, was die Mess- und Anzeigeinstrumente ihnen an Information anbieten. Und aufgrund dieser reduzierten Information müssen sie Entscheidungen treffen und gegebenenfalls Notfallmaßnahmen einleiten. Sinn des Tests ist es, die Ursachen von Fehlentscheidungen aufzudecken und Abhilfemaßnahmen zu definieren. Diesen Tests haftet ein grundsätzlicher Mangel an: Zu den erfassten und  im Leitstand sichtbaren Informationen passen meist mehrere denkbare Szenarien. Nehmen wir einmal an, dass ein unwahrscheinliches Szenario eingespielt wird und die Versuchsperson entscheidet auf der Grundlage eines eher wahrscheinlichen Szenarios. Dann ist die eigentlich vernünftige Entscheidung falsch. Aufgrund solcher rationalen Prognoseirrtümer wird das Verhalten der Versuchspersonen nicht korrekt beurteilt. Psychologische Tests dieser Art haben nur geringe Aussagekraft, wenn überhaupt (Grams, 2000).

Die Anlage zur Induktion

Unsere Anlage zur Induktion, also unser Hang zu Erweiterungsschlüssen, arbeitet nach folgendem Argumentationsmuster: Wenn sich aus der Theorie (Hypothese) H ein Ereignis E vorhersagen lässt, und wenn gleichzeitig das Ereignis E aufgrund des bisherigen Wissens recht unwahrscheinlich ist, dann wird die Theorie H aufgrund einer Beobachtung des Ereignisses E glaubwürdiger. Kurz: Aus „H impliziert E“ und „E ist wahr“ folgt „H wird glaubwürdiger“. Diese Art des plausiblen Schließens zusammen mit dem linearen Ursache-Wirkungsdenken (Kausalitätserwartung) macht generalisierende Aussagen überhaupt erst möglich. So kommen wir zu wissenschaftlichen Hypothesen und schließlich Theorien.

Plausibles statt logisches Schließen

Wir tendieren dazu, Induktionsschlüsse mit größerer Bestimmtheit anzureichern und wie logische Schlussfolgerungen zu interpretieren. Wir unterscheiden nicht konsequent genug zwischen „Aus H folgt E“ und „Aus E folgt H“. Wir wissen: Wenn es regnet wird die Straße nass. Nun beobachten wir, dass die Straße nass ist, und wir folgern, dass es wohl geregnet haben wird. Dieser Schluss ist zwar plausibel, aber er ist nicht zwingend. Es kann ja auch sein, dass kürzlich der Sprengwagen der Straßenreinigung durchgefahren ist. Dagegen lässt eine trockene (also: nicht nasse) Straße den Rückschluss zu, dass es gerade nicht geregnet hat. Letztere Schlussweise nennt man den Modus Tollens. Der zuvor gezeigt Fehlschluss geht auf das Konto der Denkfalle Scheitern am Modus Tollens (Anderson, 1988). Der Unfall von Three Mile Island geht – unter anderem – auf einen solchen Fehlschluss zurück (Grams, 1998): Ein kleines Leck im Kühlmittelkreislauf des Kernkraftwerks wurde – entgegen der Vorschrift – von der Bedienmannschaft über lange Zeit akzeptiert. Der Kühlmittelverlust an sich war harmlos. Eine bedeutende Nebenwirkung wurde aber übersehen: Ein schwerwiegender Kühlmittelverlust war vom laufenden Kühlmittelverlust nicht mehr klar zu unterscheiden und wurde dadurch verdeckt. Der nahe liegende Rückschluss vom Kühlmittelverlust auf das kleine Leck war bekanntlich verhängnisvoll. Einen ganz ähnlichen Fehlschluss – diesmal im Bereich der statistischen Aussagen – offenbart die Harvard-Medical-School-Studie.

Fehler bei der Hypothesenbildung und -abschätzung

Haben wir eine halbwegs schlüssige Hypothese über die möglichen Ursachen unserer Beobachtungen gefunden, neigen wir dazu, diese Hypothese als einzig mögliche Erklärung der beobachteten Effekte anzusehen und die Suche nach konkurrierenden Hypothesen abzubrechen. Voreilige Hypothesen und Ad-hoc-Theorien entfalten eine gewisse Beharrlichkeit: Erst einmal gefasst, geben wir sie ungern auf. Dies bereitet uns Schwierigkeiten, beispielsweise wenn wir eine Diagnoseaufgabe vor uns haben und voreilige Annahmen über die Fehlermechanismen das Aufdecken der eigentlichen Fehlerursache verhindern (Grams, 1990, S. 51). Es hat sich herausgestellt, dass diagnoseunterstützende Systeme – in Kraftwerksleitwarten beispielsweise – durch optische Reize das Einfrieren von hinderlichen Vor-Urteilen begünstigen können: „Generally, it was found that pattern matching displays reduce detection time with the disadvantage that subjects may draw hasty conclusions“ (Elzer/Kluwe/Boussoffara, 2000, S. 87). Die Untersuchung dieser Fehlermechanismen mittels psychologischer Experimente ist besonders schwer, weil bereits die Experimentatoren in die Denkfalle tappen können und Gefahr laufen, die Versuchsszenarios zu eng zu fassen (Grams, 2000).

Ein beliebtes Mittel zur Schaffung und Untermauerung von Vorurteilen sind Statistiken (Siehe dazu das Xenophobie-Beispiel).

Da wir Sicherheit suchen, drängen wir auf die Bestätigung unserer Vorurteile, und weniger auf deren Widerlegung. Damit einher geht unsere Neigung zur Überbewertung bestätigender Information (confirmation bias). Auch auf höherer kognitiver Ebene gibt es also eine Art Scheinwerferprinzip und eine darauf zurückzuführende Blickverengung.

Heuristiken – Faustregeln also – erlauben es uns, schnelle Abschätzungen über Hypothesen und deren Wahrscheinlichkeiten zu machen. Aber es kommt dabei auch zu Irrtümern (Tversky/Kahneman, 1974). Bei der Verfügbarkeitsheuristik passiert Folgendes: Das leicht Erinnerbare wird als wahrscheinlicher eingeschätzt als das, worauf man nicht so schnell kommt. Englischsprachigen Versuchspersonen wurde beispielsweise die folgende Frage gestellt: Welche der wenigstens drei Buchstaben langen Wörter sind häufiger? Solche, die mit einem r beginnen (wie road), oder jene, die ein r an dritter Stelle haben (wie car)? Da es leichter ist, nach Wörtern mit gegebenem Anfangsbuchstaben zu suchen als nach solchen mit einem bestimmten Buchstaben an dritter Stelle, kommt man auf mehr Wörter mit einem r am Anfang. Entsprechend antwortete die Mehrheit der Versuchspersonen. Aber: Das Gegenteil ist richtig.

Folgendes psychologisches Experiment wurde durchgeführt. Versuchspersonen erhielten eine Personenbeschreibung von Linda („Sie ist 31 Jahre alt, alleinstehend, geradeheraus und gewitzt. Im Hauptfach studierte sie Philosophie. Als Studentin befasste sie sich mit den Themen Diskriminierung und soziale Gerechtigkeit, und sie nahm an Demonstrationen der Atomgegner teil.“) Anschließend wurden die Versuchspersonen gefragt, welche der Aussagen über Linda wahrscheinlich eher zutreffe, nämlich „Linda ist Bankangestellte“ (B) oder „Linda ist Bankangestellte und aktive Feministin“ (B&F). Erstaunlicherweise wählten 87 % der Befragten die zweite Aussage (B&F). Das widerspricht den Gesetzen der Logik, nach denen die Wahrscheinlichkeit der Konjunktion zweier Aussagen (B&F) nicht größer als die Wahrscheinlichkeit einer Teilaussage (B) sein kann. Als Ursache des Fehlurteils wird die Repräsentativitätsheuristik gesehen: Die Wahrscheinlichkeit für die Zugehörigkeit zu einer Personengruppe wird abgeschätzt durch den Grad, in dem Linda repräsentativ für die Personengruppe ist (Kahneman/Slovic/Tversky, 1982, S. 90 ff.). Etwas verkürzt ausgedrückt: Hier wird in eine Merkmalsbeschreibung mehr hineininterpretiert als sie eigentlich hergibt. Es ist denkbar, dass dieser Effekt auch manchem Bedienfehler zugrunde liegt: Der Operateur leitet aus den gemachten Beobachtungen zu weitgehende Schlussfolgerungen über die Ursachen ab.

Der Verankerungs-Effekt kommt darin zum Ausdruck, dass wir uns schwer von einmal getroffenen Bewertungen und Anfangsschätzungen lösen. Die Halbkreis-Aufgabe zeigt diesen Effekt.

Neugier- und Sicherheitstrieb

Riskante Manöver gibt es nicht nur beim Betrieb von Anlagen und Systemen mit sehr hohen Gefährdungspotentialen. Auch aus dem Alltagsleben kennen wir sie: Bei Überholvorgängen im Straßenverkehr kommt es oft zu einer hohen Gefährdung des eigenen Lebens und des Lebens anderer. Dem steht meist ein recht bescheidener Nutzen, ein geringfügiger Zeitgewinn, gegenüber. Wie alle unsere Schwächen so ist auch unser Risikoverhalten nur die Kehrseite einer an sich nützlichen Verhaltensweise: „Exploration ist die Triebhandlung des Sicherheitstriebes, also die mit Anstrengung verbundene Umwandlung der Unsicherheit in Sicherheit“ (von Cube, 1995, S. 76).

Exploration ist stets mit Risiken verbunden. Wir müssen Risiken eingehen, um uns die Welt vertraut zu machen, und um noch größerer Risiken zu vermeiden. Gefahr droht also dann, wenn wir keine Risiken eingehen wollen, aber auch dann, wenn wir Risiken nicht richtig einschätzen.

Angstvermeidung

Angst ist ein Auslöser von Problemlösungs- und Lernvorgängen. Sie spielt eine wichtige Rolle für die Hirnentwicklung (Hüther, 2005): Ausweglos erscheinende Problemlagen erfüllen uns mit Angst. Die Angst löst Stressreaktionen aus, die mit einer Erhöhung der Plastizität des Gehirns einhergehen. Positive Angstbewältigung verlangt nach Problemlösungsstrategien. Bei erfolgreicher Problemlösung verschwindet die Angst; es kommt zu Glücksempfindungen, die dem Lernen förderlich sind. Die entsprechenden Denkbahnen werden vertieft oder neu angelegt. Wir fühlen uns wieder sicher.

Eine Alternative zur Angstbewältigung ist die Angstvermeidung. Beispiel dafür ist der Glaube an die Macht der Sterne, an Schutzengel oder Talismane: „Angst hat eine lebenserhaltende Funktion... Angstvermeidung im Sinne der Auslieferung an eine nichtbewältigbare Unsicherheit ist ein ... schwerwiegender Risikofaktor“ (von Cube, 1995, S. 56).

Complacency

Complacency bedeutet soviel wieSelbstzufriedenheit bei unbewusster Gefahr („Self-satisfaction accompanied by unawareness of actual dangers or deficiencies“, Webster’s Dictionary). Unter diesem Begriff fasst Nancy Leveson (1995, S. 54-68) ein ganzes Bündel von möglichen Unfall-Ursachen zusammen: Unterschätzen von Risiken, übermäßiges Vertrauen in technische Maßnahmen wie Redundanztechniken, Ignorieren von Warnungen, Vernachlässigung von Ereignissen mit möglicherweise großen Folgen aber geringen Wahrscheinlichkeiten (Risikoakzeptanz). Mögliche Ursachen sind: Sicherheitserfahrung („Es ist ja noch nichts passiert“), übersteigertes Selbstvertrauen, Überheblichkeit und Arglosigkeit.

Langeweile und die „Ironie der Automatisierung“

Von Lisanne Bainbridge stammt der Begriff „Ironie der Automatisierung“ (Reason, 1994, S. 224): Ein weitgehend automatisiertes System enthält dem Bediener die Gelegenheiten zum Einüben der im Ernstfall wichtigen Fertigkeiten vor. Der Gewinn, den die Automatisierung verspricht, wird durch das zusätzlich erforderliche Operator-Training teilweise wieder aufgefressen. Nancy Leveson (1995, S. 118) stellt den folgenden Zusammenhang her: „Tasks that require little active operator behavior may result in lowered alertness and vigilance and can lead to complacency and overreliance on automated systems“. Und Felix von Cube (1995, S. 75) sieht die Langeweile als Ursache des Übels: „Dadurch, dass der Unterforderte seine Aufmerksamkeit nicht oder nur zum geringen Teil für seine Arbeit einzusetzen braucht, richtet er sie auf andere Bereiche. So wird sie unter Umständen ganz von der Arbeit abgezogen, es kommt zu gefährlichen Situationen.“ Für Thomas B. Sheridan wird der Mensch in die Rolle des Kontrolleurs abgedrängt, und in genau dieser Rolle ist er nicht besonders gut (Elzer/Kluwe/Boussoffara, 2000, S. 1).

Lust auf Risiko und Risikoakzeptanz

Bei gleichem objektiven Risiko wird der sicher eintretende Schaden als bedrohlicher angesehen als ein zufälliger Schaden. Beispielsweise nehmen wir beim Überholen auf einer Landstraße – zur Vermeidung eines oft nur geringfügigen Zeitverlusts – das Risiko des Überholens auf uns. Dies ist Ausdruck eines allgemeinen psychologischen Prinzips, nämlich der immer wieder zu beobachtenden Tendenz zur Überbewertung der Gewissheit (Overweighting of Certainty; Kahneman und Tversky 1979).

Dieser Effekt tritt im Allgemeinen dann ein, wenn die Gefahr bekannt ist, das Risiko freiwillig eingegangen wird, und wenn das Risiko beeinflussbar zu sein scheint (Fritzsche, 1986, S. 123-149; Renn/Zwick, 1997, S. 87-100).


Modellvorstellungen vom Denken

Die vorliegende Taxonomie, das System der Denkfallen, ist Ergebnis einer evolutionsbiologischen Sichtweise: Scheinwerfer- und Sparsamkeitsprinzip ergeben sich aus dem Zwang, die verfügbaren Ressourcen im Konkurrenzkampf möglichst effizient zu nutzen. Die angeborenen Lehrmeister – Struktur- und Kausalitätserwartung, die Befähigung zur Hypothesenbildung und das Neugierverhalten – verschaffen Überlebensvorteile, wie uns die Verhaltensforschung lehrt. Deshalb haben sich diese Verhaltensweisen im Konkurrenzkampf durchgesetzt. Es handelt sich um biologisch begründbare allgemeine Prinzipien. Sie sagen aber kaum etwas darüber, „wie das Denken funktioniert“. Das werden wir wohl auch nie erfahren. Aber es gibt Modellvorstellungen vom Denken mit einigem Erklärungswert. Und die Lieferanten dieser Modelle sind die Psychologen, die ihre Aufgabe darin sehen, mit Experimenten die brauchbaren von den weniger starken Modellen zu scheiden (Huber, 1987). Modellvorstellungen bringen zusätzliche Klarheit und Deutlichkeit in das System der Denkfallen.

Einige Modellvorstellungen sind schon lange bekannt. Auf Aristoteles beispielsweise geht die Vorstellung von den Assoziationen, von den miteinander zusammenhängenden Gedankeninhalten, zurück.

Assoziationen

Assoziationen, also die Verknüpfung von zunächst unabhängig voneinander funktionierenden Nervenvorgängen, sind es, die das Erkennen und Abspeichern von Zusammenhängen und Gesetzmäßigkeiten möglich machen. Für das Denken von größter Bedeutung ist, dass neue Denkinhalte in ein Netz von miteinander verbundenen (assoziierten) Informationen eingebettet werden und dass bei Aktivierung eines solchen Denkinhalts das assoziative Umfeld mit aktiviert wird. Dadurch entdecken wir Zusammenhänge, deshalb können wir Schlussfolgerungen ziehen.

Kurzzeit- und Langzeitgedächtnis

Eine andere Modellvorstellung betrifft die Arbeitsteilung des Gedächtnisses mittels Kurzzeit- und Langzeitgedächtnis, wobei ersteres für die bewusste Verarbeitung der Ideen da ist und letzteres für die Langzeitspeicherung. Charakteristikum des ersteren ist die Kapazitätbeschränkung: Nur wenige Gedankeninhalte haben im Bewusstsein Platz und wenn sich die Aufmerksamkeit auf etwas Neues richtet, gerät anderes aus dem Fokus und wird aus dem Kurzzeitgedächtnis verdrängt. Das ist der Grund dafür, dass unsere Wahrnehmung nach dem Scheinwerferprinzip arbeitet. Und derselbe Mechanismus regiert auch das Denken: Unser Bewusstsein durchwandert das Wissensnetz der Assoziationen, wobei stets nur ein kleiner Ausschnitt „sichtbar“ wird. Dem Langzeitgedächtnis schreibt man demgegenüber eine praktisch unbegrenzte Kapazität zur dauerhaften Speicherung zu. Hier wird die Grenze hauptsächlich durch die Schwierigkeiten beim Wiederauffinden von Informationen gesetzt.

Für die vorliegende Taxonomie ist eine andere Unterscheidung von noch größerer Bedeutung, nämlich die zwischen

Intuition und Reflexion

Die Intuition repräsentiert das langfristig abgespeicherte und sofort verfügbare Wissen, während die Reflexion für unsere Fähigkeit steht, durch diskursives Denken und Analyse die intuitiven Eingebungen notfalls zu korrigieren und zu steuern. Kurz gesagt: Die Intuition macht Denkfallen möglich; und verantwortlich für deren Vermeidung ist die Reflexion.

Die Intuition ist bei unseren Entscheidungen immer dabei – ungefragt und blitzschnell. Die Intuition arbeitet automatisch und anstrengungslos. Sie funktioniert dort gut, wo Entscheidungen in einem stark geregelten Umfeld zu treffen sind (Kahnemann, 2011, S. 234 ff.): Der Schachspieler, der Feuerwehrmann und die Krankenschwester bewegen sich in einem solchen Umfeld und können sich mit zunehmender Erfahrung auf ihr Bauchgefühl verlassen. Unter Zeitdruck kann ein verlässliches Bauchgefühl lebenswichtig sein. Die Intuition ist in einer regelhaften Umwelt trainierbar. Wir können Fertigkeiten und Fähigkeiten entwickeln, die unsere schnellen Entscheidungen treffsicher machen.

Die Intuition zeichnet sich dadurch aus, dass bereits wenige Anzeichen eine Vorstellung, ein mentales Modell der Sachlage hervorrufen. Die allzeit bereite Strukturerwartung sorgt für ein stimmiges Bild. Und diese Wahrnehmung folgt dem Weniger-ist-mehr-Muster: Je weniger Hinweise beteiligt sind, je spärlicher die Information ist, desto einfacher ist das Auffinden eines mentalen Modells, das diese Eindrücke erklärt. Wir sind Meister darin, aus spärlichen Informationen tiefen Sinn zu generieren. Und damit einher geht das beruhigende Gefühl, genau zu wissen, was vor sich geht. Dieses intuitive Erfassen ist mit Wohlgefühl verbunden, es lullt uns ein.

Auch wenn wir vor einer offenbar schwierigen Aufgabe stehen, machen wir es uns leicht. Wir neigen dazu, nicht den komplexen Gegenstand zu behandeln, sondern einen ähnlichen von größerer Schlichtheit, einen Stellvertreter sozusagen. Wir machen eine Substitution. Sind wir beispielsweise vor die Aufgabe gestellt, einen Politiker zu wählen, so suchen wir nicht den kompetenteren aus, sondern denjenigen, dessen Gesicht mehr Vertrauenswürdigkeit und Kompetenz ausstrahlt.

Kliniker, Börsenmakler, Gesellschaftswissenschaftler und Unternehmer haben es mit weniger regelhaften Umgebungen zu tun. Sie haben guten Grund, ihrer Intuition zu misstrauen. Die Vertreter gerade dieser Berufsgruppen zeichnet jedoch ein kaum begründetes Vertrauen in die eigenen Fähigkeiten aus. Aber nicht nur diese Leute, wir alle sollten uns die Frage stellen, wann wir unserer Intuition trauen können und wann nicht und wie wir Situationen erkennen können, in denen uns die Intuition fehlleiten könnte.

Die Reflexion, das schlussfolgernde, vergleichende und prüfende Denken erfordert Konzentration und ist leider ohne Anstrengung nicht zu haben – ein Energieaufwand, den wir uns am liebsten ersparen. Daniel Kahneman (2011) spricht deshalb vom faulen Steuermann (Lazy Controller). Glauben ist eben einfacher als Denken. Vorzugsweise unterbleiben dann die kritische Analyse und das kostspielige Erwägen von Alternativen. Evans (1989) nennt dieses Verhalten Glaubensneigung (Belief Bias).

Denkfaulheit ist ein Sparsamkeitsgebot. Der Denkapparat wacht nicht ständig über unser Verhalten. Woher aber erfahren wir dann, dass Denken angesagt ist? Wenn Denkfallen nur unter dem Denkeinsatz zu erkennen sind, stecken wir in einem Teufelskreis. Aber es gibt Trost: Auch die Wachsamkeit ist trainierbar. Es gibt Warnzeichen, und die sollte man kennen und ernst nehmen. Ein Möglichkeit: Denkfallen studieren. Interessant ist, dass die Reflexion bereits durch Schwierigkeiten bei der Informationsbeschaffung aktiviert werden kann: In einem psychologischen Experiment hatten die Versuchspersonen ein Rätsel zu lösen, bei dem die Intuition irregeleitet wurde. Eine Gruppe bekam eine gut lesbare Textversion des Rätsels und die andere eine ziemlich unleserliche. Besser schnitt die Gruppe ab, die den unleserlichen Text bekommen hatte. Die Schwierigkeiten beim Entziffern machten gleichzeitig wachsam gegenüber der intuitiven und falschen Antwort (Kahneman, 2011, S. 65).

Automatisierung des Denkens und Handelns

Die Automatisierung der Denkvorgänge – auch Einstellungseffekt (mind-set) genannt – beruht darauf, dass uns frühere Erfahrungen dazu verleiten, beim Lösen eines Problems bestimmte Denk- und Handlungsweisen (Operatoren) gegenüber anderen vorzuziehen (Anderson, 1988, S. 210 ff.).

Das blinde Wiederholen von früher erworbenen Reaktionsmustern entlastet den Denkapparat. Es kann aber auch das Lösen von Problemen erschweren. Es besteht die Tendenz, in einen Zustand der Mechanisierung zu verfallen (Luchins, 1942). Zu Fehlern kommt es, wenn dieser Zustand, die Einstellung, nicht verlassen wird, obwohl es angezeigt ist.

Ein Beispiel: Ein Stahlseil hatte sich bei Arbeiten in einem Lager derartig zu einer engen Schleife zusammengezogen, dass es mit Muskelkraft nicht mehr auseinanderzuziehen war. Die rettende Idee, einen kleinen Kran zu Hilfe zu nehmen, kam zunächst niemandem in den Sinn – denn Kräne sind erfahrungsgemäß zum Heben von Lasten da und nicht zum Lösen von Knoten. So etwas nennt K. Duncker funktionale Gebundenheit: Die Gebrauchsanleitung eines Gegenstands scheint mit diesem fest verknüpft zu sein. Man kann es auch objektorientiertes Denken nennen (Grams, 1992).

In Anlehnung an Rasmussen formulierte Reason ein Modell der abgestuften Automatisierung des Denkens auf drei Ebenen: fähigkeitsbasierte (skill-based), regelbasierte (rule-based) und wissensbasierte Ebene (knowledge-based level). Schlüsselmerkmal seines Generischen Fehlermodellierungssystems „ist die Behauptung, dass Menschen, wenn sie sich mit einem Problem konfrontiert sehen, stark dazu neigen, vorgefertigte Lösungen auf regelbasierter Ebene zu suchen und zu finden, bevor sie auf die weit mühsamere wissensbasierte Ebene zurückgreifen“ (Reason, 1994, S. 94).

Hat sich ein Operator oder eine Regel bei der Lösung bestimmter Aufgaben und Probleme in der Vergangenheit gut bewährt, dann wird man in Situationen, die ähnliche Merkmale aufweisen, darauf zurückgreifen. Zeichnet sich eine Problemlage weitgehend durch die besagten Merkmale, aber auch durch einige abweichende aus, dann kann es zur falschen Anwendung der ‚guten Regel‘ kommen, kurz: Die Regel ist bewährt aber verkehrt (strong but wrong). Je geübter jemand darin ist, eine bestimmte Aufgabe auszuführen, desto wahrscheinlicher werden seine Fehler die Form ‚bewährt aber verkehrt‘ annehmen (Reason, 1994, S. 87).

Blickverengung und Verharren in eingefahrenen Denkbahnen verhindern das Auffinden neuer Lösungen. Die Mechanisierung des Denkens steht dem Produktiven Denken entgegen. Aus diesen Schwierigkeiten kann das bewusste Aktivieren von Heuristiken heraushelfen (Schöpferisches Denken – Heuristik, Polya, 1949).


Literaturverzeichnis

Anderson, J. R.: Kognitive Psychologie. Heidelberg 1988

Blyth, C. R.: On Simpson’s Paradox and the Sure-Thing Principle. Journal of the American Statistical Association 67 (June 1972), 364-366

Dörner, D.: Die Logik des Misslingens. Rowohlt, Reinbek bei Hamburg 1989

Elzer, P. F.; Kluwe, R. H.; Boussoffara, B. (Eds): Human Error and System Design and Management. Lecture Notes in Control and Information Sciences 253. Springer, London 2000

Evans, J. St. B. T.: Bias in Human Reasoning: Causes and Consequences. Lawrence Erlbaum, Hove and London 1989

Fischoff, B.: For those condemned to study the past: Heuristics and biases in hindsight. (In: : Kahneman, Slovic, Tversky, 1982)

Fritzsche, A. F.: Wie sicher leben wir? Risikobeurteilung und -bewältigung in unserer Gesellschaft. TÜV Rheinland, Köln 1986

Goldstein, E. B.: Wahrnehmungspsychologie. Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1997

Grams, T.: Denkfallen und Programmierfehler. Springer, Heidelberg 1990

Grams, T.: Denkfallen beim objektorientierten Programmieren. it 34(1992)2, 102-112

Grams, T.: Täuschwörter im Software Engineering. Informatik Spektrum 16 (1993) 3, 165-166

Grams, T.: Bedienfehler und ihre Ursachen.
- Teil 1. Automatisierungstechnische Praxis atp 40 (1998) 3, 53-56
- Teil 2. Automatisierungstechnische Praxis atp 40 (1998) 4, 55-60

Grams, T.: Putting the Normative Decision Model into Practice. In Elzer/Kluwe/Boussoffara, 2000, S. 99-107

Hell, W.; Fiedler, K.; Gigerenzer, G. (Hrsg.): Kognitive Täuschungen. Fehl-Leistungen und Mechanismen des Urteilens, Denkens und Erinnerns. Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1993

Huber, O.: Das psychologische Experiment: Eine Einführung. Hans Huber. Bern 1987

Hüther, G.: Biologie der Angst. Wie aus Streß Gefühle werden. Vandenhoeck & Ruprecht, Göttingen 2005

Kahneman, D.; Tversky, A.: Prospect Theory: An Analysis of Decision under Risk. Econometrica, 47 (March, 1979) 2, 263-291

Kahneman, D.; Slovic, P.; Tversky, A. (eds.): Judgment under uncertainty: Heuristics and biases. Cambridge University Press, Cambridge CB2 1RP, 1982

Kahneman, D.: Thinking, Fast and Slow. New York 2011

Leveson, N.: Safeware. System Safety and Computers. Addison-Wesley, Reading, Mass. 1995

Lorenz, K.: Die Rückseite des Spiegels. Piper, München 1973

Luchins, A. S.: Mechanization and Problem Solving. The Effect of Einstellung. Psychological Monographs 54 (1942)

Polya, G.: Schule des Denkens. Francke, Bern 1949 (Originalausgabe: HOW TO SOLVE IT, Princeton University Press, New Jersey)

Popper, K. R.: Logik der Forschung. Mohr, Tübingen 1982

Popper, K. R.: Objektive Erkenntnis. Ein evolutionärer Entwurf. Hoffmann und Campe, Hamburg 1973

Reason, J.: Menschliches Versagen. Spektrum Akademischer Verlag, Heidelberg, Berlin, Oxford 1994. (Original: Human Error. Cambridge University Press 1990)

Renn, O.; Zwick, M. M.: Risiko- und Technikakzeptanz. (Herausgeber: Enquete-Kommission „Schutz des Menschen und der Umwelt“ des 13. Deutschen Bundestages) Springer, Berlin, Heidelberg 1997

Riedl, R.: Biologie der Erkenntnis. Die stammesgeschichtlichen Grundlagen der Vernunft. Parey, Berlin, Hamburg 1981

Tversky, A.; Kahneman, D.: Judgment under Uncertainty: Heuristics and Biases. Science 185 (Sept. 1974), 1124-1131 (Auch enthalten in in: Kahneman, Slovic, Tversky, 1982)

von Cube, F.: Gefährliche Sicherheit. Die Verhaltensbiologie des Risikos. Hirzel, Stuttgart 1995


© Timm Grams, 3. Januar 2000 (zuletzt revidiert: 04.02.2012)