Nachdem einige psychologische Aspekte im Risikomanagement wie die Konstruktion der Realität und die soziale Konstruktion des Risikos beschrieben wurden [vgl. Psychologische Einflussfaktoren im Risiko- und Krisenmanagement (Teil 1), Risikomaße bieten den Nährboden für "unknown unknowns" (Teil 2), Von der Illusion der Risikokontrolle (Teil 3)], sollen im abschließenden vierten Teil noch zwei Faktoren benannt werden, die in einer Krisensituation fatale Auswirkungen haben können:
Dazu zählen die "Überwertigkeit des aktuellen Motivs" und der "Schutz des eigenen Kompetenzempfindens" [Schaub 2006].
Unter der Überwertigkeit des aktuellen Motivs versteht man das vorrangige Verfolgen des Zieles, das jetzt in diesem Moment wichtig ist, während Nebenziele außer Acht gelassen werden. Dies geht häufig mit großer Aufregung der Verantwortlichen einher.
Krisen sind durch Komplexität gekennzeichnet
Krisen stellen die Handelnden vor komplexe Probleme. Dabei ein einziges Problem lösen zu wollen bedeutet, ungewollt andere Teilprobleme mit zu beeinflussen. Das kann im Extremfall dazu führen dass sich ein Aspekt verbessert, aber drei andere verschlimmern und nach einer gewissen Zeit eskalieren. Dies im Alltag zu verstehen bedeutet nicht, es auch in einer Krise umsetzen zu können, denn das Verhalten ist deshalb so verlockend, weil es der eigenen Emotionsregulation dient: Scheinbar das Problem erfasst zu haben und endlich in Aktion treten zu können, bedeutet emotionale Erleichterung.
Raum für die Existenz von bisher nicht erkannten Faktoren zu lassen, bedeutet weitere Unsicherheit akzeptieren zu können. Dies bedeutet aber auch ertragen zu können, sich mit voreiligen Handlungen zurück zu halten und Aktionismus zu vermeiden. Deshalb benötigt jemand in einer Stresssituation ein großes Maß an Selbstreflexion um zu erkennen, dass er gerade etwas tun möchte, "damit man wenigstens etwas getan hat". Diese Selbstreflexion kann aber nicht mehr in der Situation gelernt werden, sondern muss vorher aufgebaut werden: Man würde auch von keinem Nicht-Sportler erwarten, dass er ohne Training eine sportliche Höchstleistung vollbringen kann.
Schutz des eigenen Kompetenzempfindens
Ein zweiter Stolperstein besteht im Schutz des eigenen Kompetenzempfindens. Menschen brauchen das Gefühl, handlungsfähig zu sein. Es kann aber vorkommen, dass das Bedürfnis, sich selbst als handlungsfähig zu empfinden in einer Krisensituation so überwertig wird, dass schlechte Nachrichten ungern oder gar nicht mehr zur Kenntnis genommen werden. Das im Englischen bekannte "Shooting-the-messenger" ist damit verknüpft. Damit ist das Phänomen gemeint, dass der Überbringer schlechter Nachrichten im übertragenen Sinne erschossen wird: Die schlechte Nachricht wird personalisiert und der Überbringer dafür verantwortlich gemacht. Die Person, die den Überbringer der Nachrichten angreift, vermittelt sich selbst auf diese Weise das Gefühl, etwas tun zu können. Sie schützt damit ihr Kompetenzbedürfnis, denn in dieser Situation nichts tun zu können würde bedeuten, unangenehme Gefühle von Hilflosigkeit ertragen zu müssen.
So erfährt die Person wenigstens ein illusionäres Gefühl, handlungsfähig zu sein, wenn sie auch an der Situation nichts ändern kann, sondern den vermeintlich "Bösen" angreift. Dies wirkt sich langfristig negativ aus, weil die angegriffene Person wenig motiviert wird, weitere Beiträge zur Lösung des Problems zu liefern. Das kann wiederum dazu führen, dass die Führungskraft zwar ihr Kompetenzempfinden schützt, dafür aber Gefahr läuft, das konstruktive Feedback des Mitarbeiters / der Mitarbeiter und damit eventuell die Kontrolle zu verlieren.
Möchte man dies vermeiden, muss das Ziel sein, mit den beteiligten Personen adäquate Handlungsstrategien zu erarbeiten, damit der von außen vorhandene Stress nicht noch durch inadäquate Reaktionen um ein Vielfaches erhöht wird und in gegenseitiger Blockade oder Selbstzerfleischung endet.
Einfluss der Organisations- und Sicherheitskultur
Dies führt zur Frage der Organisations- bzw. Sicherheitskultur. Der Einfluss der Organisationskultur auf das Verhalten in Krisensituationen kann ein "unknown unknown" darstellen:
Im Alltag kann eine auf interne Konkurrenz ausgerichtete Organisationskultur die Mitarbeiter zu größeren Leistungen anspornen. Dies muss jedoch nicht unbedingt auch für das Verhalten in Krisensituationen gelten. In einer kompetitiven Organisationskultur, die nicht verhindert, dass ein Entgegenkommen in einer Sachfrage ausgenutzt und zu weiteren, zukünftigen Nachteilen führen wird – in dieser Kultur gelten beträchtliche Anreize, die eigene Position aus Gründen des Selbsterhalts zu verteidigen. Auch ohne Rücksicht auf das Wohlergehen des Gesamtsystems, wie das Beispiel der "freshmen" im Rahmen der US-Schuldenkrise zeigt.
Die Schaffung einer organisationalen Sicherheitskultur ist letztlich eine Führungsfrage. Eine auf Sicherheit ausgerichtete Organisationskultur bringt Nutzen, aber auch Kosten mit sich. Ebenso wie eine Kultur, die hierauf keinen Wert legt, andere Nutzen mit sich bringt und andere Kosten verursachen wird. Die Wahl und bewusste Umsetzung dieser Kultur kann nur unter aktiver Beteiligung der Führungskräfte geschehen.
Das Gegenteil dazu bestünde in der "blame-and-shame"-culture, in der man versucht wegzuschauen um möglichst nicht derjenige zu sein, über den der "Topf" mit der Schuld ausgeschüttet wird. Die Existenz einer blame-and-shame-culture bedeutet ein (qualitatives und nicht messbares!) "unknown unknown", das so lange unbemerkt bleibt, bis eine Krise die Organisation an ihre Grenzen und darüber hinaus bringt. Was vielleicht im ersten Moment als Sozialromantik anmuten mochte ist in Bereichen wie der Luftfahrt selbstverständlich: Nicht durch Führungs-, Kommunikations- und Interaktionsfehler einen Nährboden für die Eskalation von Problemen zu schaffen.
Allerdings muss dies, wie schon erwähnt, auch von den Führungskräften vorgelebt und unterstützt werden – in der Praxis und nicht nur in Unternehmensleitbildern. Solange kein Anreiz dafür besteht, Systeme nicht ständig "im roten Bereich zu fahren" werden Systemkrisen notwendigerweise weiterbestehen und eskalieren. In diesem Fall dürfte die Finanzkrise von 2008 lediglich der Auftakt gewesen sein und möglicherweise schneller als erwartet einen wesentlich massiveren Aufprall des Weltfinanzsystems auf dem Boden der Tatsachen nach sich ziehen.
Da der Mensch sich an Erfahrungswerten orientiert; die meisten Menschen aber keine Referenzwerte für Systemkrisen diesen Ausmaßes in ihrer Erinnerung gespeichert haben, fehlt der Bezugsrahmen sich vorzustellen, was dies eigentlich bedeuten könnte.
Lessons learned
Eine weitere Funktion der Psychologie im Krisen- und Risikomanagement kann darin bestehen geeignete Werkzeuge und Arbeitsmethoden für verschiedene Anwendungsbereiche bereit zu stellen, um aus unerwünschten Ereignissen und Schadensfällen zu lernen.
Voraussetzung dafür ist jedoch die Existenz bzw. Schaffung einer organisationalen Sicherheitskultur – ohne diese bleiben Nachbereitungstools bloße Methoden, die ohne die dazu notwendige Kultur weit hinter ihren Möglichkeiten zurückbleiben.
Test: Blinder Fleck
Wie der Bankräuber in Pittsburgh unfreiwillig demonstrierte ist der Glaube, man habe alle Eventualitäten bedacht, potenziell gefährlich. In dieser Annahme ist kein Platz mehr für die Erkenntnis, dass dem eventuell doch nicht so sein könnte. Weiß man von einem "unknown unknown" ist es bereits keines mehr, sondern lediglich noch ein "known unknown". Und dies nimmt ihm einen Großteil seines Schreckens.
Dass der Mensch in seiner Wahrnehmung einen blinden Fleck hat verdeutlicht ein einfacher Test: Er zeigt den blinden Fleck im Auge – obwohl man nicht das Gefühl hat, dass sich dort überhaupt ein blinder Fleck befindet. Dies ist im Alltag auch nicht der Fall, denn er zeigt sich nur beim einäugigen Sehen. Beim blinden Fleck handelt es sich um die Stelle, an der der Sehnerv das Auge verlässt und sich deshalb keine Netzhaut befindet – sozusagen das "Loch in der Leinwand". Die blinden Flecke werden im beidäugigen Sehen durch das Gehirn "weggerechnet", so dass sie nicht weiter auffallen. Relevant werden die blinden Flecke nur dann, wenn ein System (Auge) ausfällt und man sich nur noch auf eines verlassen kann. In diesem Fall egalisieren die Systeme ihre Defizite nicht mehr gegenseitig und man hat plötzlich einen blinden Fleck, obwohl man mit zwei Augen gar keinen hatte.
Die Parallelen für das Krisenmanagement sind bestechend: Man verlässt sich auf Kompensationsmechanismen - sobald sie unerwartet ausfallen werden Faktoren relevant, die es vorher gar nicht waren: Das Ganze ist mehr als die Summe seiner Teile.
Wenn Sie ihren blinden Fleck "sehen" möchten, schließen Sie das linke Auge und betrachten Sie nun mit dem rechten Auge die unten abgebildete Sonne. Führen Sie den Text langsam zum Auge bzw. nähern Sie sich dem Monitor. Falls Sie weiter die Sonne fixieren, werden Sie bemerken, dass am Rand ihres Gesichtsfeldes der rote Blitz plötzlich verschwindet. Bei einer Darstellungsgröße, die einer DIN-A4-Seite entspricht, sollte der gewünschte Effekte etwa in 20-30 cm Entfernung einstellen. Nähern Sie sich weiter, wird der rote Blitz wieder erscheinen [vgl. in Anlehnung an Watzlawick 1995].
Abb.: "Sehen" des blinden Fleckes
Autor:
Dipl.-Psych. Johannes Wadle
Teil 1 "Psychologische Einflussfaktoren im Risiko- und Krisenmanagement"
Teil 2 "Risikomaße bieten den Nährboden für "unknown unknowns"
Teil 3 "Von der Illusion der Risikokontrolle"
Quellenverzeichnis sowie weiterführende Literaturhinweise:
ARTE (2010): Amerikas Alptraum, gesendet bei ARTE, 2.5.2011, Sendezeit 19 Uhr.
A3M Mobile Personal Protection GmbH (Hrsg.):
www.tsunami-alarm-system.com/phaenomen-tsunami/vorkommen-pazifischer-ozean.html
, abgerufen am 6.5.2011.Bernauer, M. et al. (Hrsg. / 2005): Wilhelm Heinse. Band III: Kommentar zu Band I, Carl Hanser Verlag, München 2005, S. 75.
Charles, M. T. (1989): The Last Flight of Space Shuttle Challenger, in: Rosenthal, U., Charles, M.T. & Hart P.T. "Coping with Crises: The Management of Disaster, Riots and Terrorism”, 1989, Charles C. Thomas (Hrsg.), Springfield, Illinois.
Dekker, S (2005): Why we need new accident models, Technical Report 2005-02, Lund University School of Aviation, Lyungbyhed, Sweden, 2005.
Dörner, D. (2002): Die Logik des Misslingens – Strategisches Denken in komplexen Situationen, Rohwohlt Verlag, 15. Auflage, Hamburg 2002.
Fuoco, M. (1996): Trial and error: They had larceny in their hearts, but little in their heads, Pittburgh Post-Gazette vom 21. März 1996.
Graw, A. (2011): Republikaner lassen Verhandlungsführer auflaufen, abgerufen am 30. Juli 2011 unter
www.welt.de/politik/ausland/article13514306/Republikaner-lassen-Verhandlungsfuehrer-auflaufen.html
Luhmann, H.-J. (2011): Fukushima-Ablauf in Kürze und die Frage nach dem (kernenergiespezifischen) Grund, Entwurffassung vom 5. 5. 2011.
Moorhead, G., Ference, R., Neck, C.P (1991): Group decision fiascoes continue: Space Shuttle Challenger and a revised groupthink framework, in: Human Relations, Vol. 44, No. 6, 1991.
N.N. (2011): Es ist todernst – Wieder ein Patt im Schuldenstreit", abgerufen am 30. Juli 2011 unter
www.n-tv.de/wirtschaft/Wieder-ein-Patt-im-Schuldenstreit-article3938151.html
Nuclear and Industrial Safety Agency (2011): The 2011 the Pacific coast of Tohuku Pacific Earthquake and the seismic damage to the NPPs vom 4. April 2011, abgerufen am 6.5.2011 unter
www.nisa.meti.go.jp/english/files/en20110406-1-1.pdf
Rasmussen, J. (1997): Risk management in a dynamic society: a modelling problem, Safety Science Vol. 27, No 2 / 3, S. 183 – 213, Elsevier Science Ltd, 1997.
Schaub, H. (2006): Störungen und Fehler beim Denken und Problemlösen, abgerufen am 7.5.2011 unter
www.psychologie.uni-heidelberg.de/ae/allg/enzykl_denken/Enz_09_Schaub.pdf
Siemens, A. (2008): Finanzkrise 2008 - Eskalationsstufe 4: Tage der Angst, abgerufen am 30. Juli 2011 unter
Simpson, R. (1996): Neither clear nor present: The social construction of safety and danger, Sociological Forum Vol. 11, No. 3, 1996.
Sowell, T. (2011): Unknown unknowns, abgerufen am 30. Juli 2011 unter
townhall.com/columnists/thomassowell/2011/07/13/unknown_unknowns
Steinlein, C. (2009a): Flugunfälle: Alles eine Frage der Statistik, abgerufen am 10.6.2011 unter
Steinlein, C. (2009b): Flugunfälle: Mit Statistik lügen, abgerufen am 10.6.2011 unter
Tagesschau.de (2001):
www.tagesschau.de/inland/atomdebatte110.html
, abgerufen am 6.5.2011.Tokyo Electric Power Company (TEPCO), 18. April 2011: "The Great East Japan Earthquake and current status of nuclear power stations", abgerufen am 6.5.2011 unter
www.tepco.co.jp/en/nu/fukushima-np/f1/images/f12np-gaiyou_e.pdf
Watzlawick, P (1995): Die erfundene Wirklichkeit – Wie wissen wir, was wir zu wissen glauben? Beiträge zum Konstruktivismus, 9. Auflage Piper Verlag, München 1995.
[Bildquelle: iStockPhoto]
Kommentare zu diesem Beitrag
Und eine "Shooting-the-messenger"-Mentalität ist in vielen Unternehmen Standard. Daher schweigen die Risikoverantwortlichen bzw. Prozessowner lieber.Denn die schlechte Nachricht wird personalisiert und der Risk Owner dafür verantwortlich gemacht. Und schon landet er unter dem Fallbeil ...