Nach der Erwartungswert-Theorie wird das Risiko maximal, wenn sowohl Schadensausmaß als auch Eintrittswahrscheinlichkeit hoch sind. In diesem Modell sind beide Parameter gleichberechtigt: Ist das Schadensausmaß hoch und die Eintrittswahrscheinlichkeit mittel, so bedeutet dies rechnerisch das gleiche Risiko als wenn das Schadensausmaß mittel und die Eintrittswahrscheinlichkeit hoch wären – obwohl dies nicht das Gleiche ist und die Erfahrung zeigt, dass Menschen sich so nicht verhalten wie berechnet, sondern die Parameter unterschiedlich stark gewichten. Dies sei am Beispiel einer Flugreise dargestellt:
Das Risiko, bei einer Flugreise ums Leben zu kommen ist statistisch sehr niedrig. Nach einem Bericht der Zeitschrift Focus [Steinlein 2009a] beträgt sie 0,000012 Prozent. Die damit zusammenhängende Konsequenz ist jedoch nicht ebenso klein, sondern bedeutet den Verlust des eigenen Lebens – und zwar zu 100 Prozent.
Eine Person, die gerne fliegt wird nun argumentieren können, dass die Wahrscheinlichkeit, bei einem Unfall ums Leben zu kommen außerordentlich niedrig ist. Das Risiko eines Absturzes ist zwar schon vorhanden, aber so niedrig, dass es "bestimmt nicht eintreten wird." Sie gewichtet damit also den Faktor Wahrscheinlichkeit stärker und senkt damit in Ihrer Wahrnehmung das Gesamtrisiko.
Eine andere Person, die Angst vor dem Fliegen hat, wird argumentieren, dass es zwar schon sein könne, dass das Fliegen statistisch sicher sei, jedoch im Falle eines Unfalls der Schaden nicht zu einem geringen Prozentsatz eintritt, sondern wie schon erwähnt zu 100 Prozent. Und dass Sie nicht bereit ist, diesen Preis zu akzeptieren. Diese Person gewichtet das Schadensausmaß stärker und empfindet deshalb ein höheres Gesamtrisiko als die erste Person. Dies wird in dem bekannten Spruch zum Ausdruck gebracht: "Ich habe keine Angst vorm Fliegen, nur vor einem Absturz."
Das Lenkrad zur Risikosteuerung fest in der Hand
Wenn eine solche Person das Autofahren subjektiv sicherer empfindet als das Fliegen, so mag das auch daran liegen, beim Autofahren das Steuer selbst in der Hand zu haben und somit Kontrolle über die Situation ausüben zu können. Auch wenn im Straßenverkehr genügend Situationen denkbar sind bei denen die eigene Fähigkeit zu agieren überhaupt nichts nützt (beispielsweise wenn ein entgegenkommendes Fahrzeug auf die eigene Fahrbahn gerät und man nicht mehr ausweichen kann), so verleiht das Lenkrad in der Hand doch zumindest die Illusion, man könne auf das Schadensausmaß Einfluss nehmen (im letzten Moment zur Seite lenken, bremsen o. ä.). Diese "weichen" Faktoren, die eine Reaktion auf ein Risiko beeinflussen, werden von Erwartungswert-Theorien nicht erfasst.
In einem Flugzeug besteht keine Möglichkeit sich die Illusion der Kontrolle aufrecht zu erhalten. Die Piloten, die das Flugzeug steuern, sitzen in einem anderen Teil des Flugzeugs und dem Passagier bleibt nichts übrig, als ihnen zu vertrauen. Eine andere Möglichkeit gibt es nicht, denn die andere Variable, das Schadensausmaß, lässt sich vom Passagiersitz aus nicht beeinflussen.
Auch wenn Risiken offensichtlich objektiv bewertet und berechnet werden können – sobald Risiken menschliches Verhalten einschließen befindet sich in der Berechnung eine Varianzquelle, die nicht durch objektive Risikomaße erfasst wird. Wesentlich ist nicht, ob die beteiligten Akteure einer objektivierten Gefahr ausgesetzt sind, sondern ob eine solche empfunden wird. Quantitative Risikobewertung lässt einen Aspekt außer Acht: Das qualitative Risikoempfinden der Betroffenen.
Von der subjektiven Beeinflussung von Risikoparametern
Dabei fokussieren die Beteiligten entgegen dem üblichen Modell mehr auf einen Aspekt und nehmen keine ungewichtete Multiplikation vor. Diese selektive Betrachtung bietet die Basis für die Akzeptanz als auch die Zurückweisung des Risikos.
Die unbewusste Gewichtung dieser Risikoparameter ist nicht die einzige Möglichkeit, Risikobewertungen subjektiv zu beeinflussen. Diese Möglichkeit besteht auch bei Risikokennzahlen, die Objektivität verkörpern.
Vergleicht man zum Beispiel die Sicherheit der Bahn gegenüber dem Flugzeug, so wird man auf unterschiedliche Risiken stoßen, je nachdem nach welcher Methode sie berechnet wurden: Berechnet man, wie viele Personenkilometer statistisch zurückgelegt werden, bis eine Person ihr Leben verliert (= Anzahl der beförderten Personen x zurückgelegter Wegstrecke / Zahl der getöteten Personen), so ist die Bahn um den Faktor 3 gefährlicher als das Flugzeug.
Berechnet man jedoch die Beförderungsstunden (= Anzahl der beförderten Personen x Reisedauer / Zahl der getöteten Personen), so ist das Flugzeug um den Faktor 3 gefährlicher als die Bahn [Steinlein 2009b].
Die ökonomische Dimension bei Investitionen in Schadenprävention
Verkompliziert werden Entscheidungen im geschäftlichen Umfeld auf dieser Grundlage zusätzlich dadurch, dass nicht nur Risiken bewertet werden müssen, sondern ihre Reduktion mit dem Budget abgestimmt werden muss – Sicherheit kostet in der Regel Geld: Rasmussen verdeutlichte im Jahr 1997 in einem Modell, dass Sicherheit im Gegensatz zu betriebswirtschaftlichen Erfordernissen steht [Rasmussen 1997]. Eine Organisation, die eine Ware oder Dienstleistung produziert, muss betriebswirtschaftliche Notwendigkeiten und Sicherheitsaspekte in der Balance halten. Gibt sie zu viel ihrer finanziellen Mittel für die Gewährleistung von Sicherheit aus, wird sie früher oder später am Markt nicht mehr bestehen können. Operiert sie hingegen mit großen Gewinnen an der Grenze der Sicherheit, erhöht sie die Wahrscheinlichkeit von Schadensereignissen. Diese können sie dann ebenso in den finanziellen Untergang treiben wie eine übertriebene Fixierung auf Sicherheitsaspekte.
Abb.: Auf ein Unternehmen wirkende, gegensätzliche Motive
In einer Situation, in der Sicherheitsaspekte mit dem Bedürfnis, die Kosten und den Arbeitsaufwand zu reduzieren konkurrieren, wäre es nur zu verständlich, wenn Risiken "flexibel" gehandhabt werden. An dieser Stelle kommen wiederum psychologische Aspekte zur Wirkung:
Das Überschreiten von Sicherheitsregeln (oder die mangelhafte Auslegung von ihnen) zieht häufig keine unmittelbaren Folgen nach sich. Sicherheitseinrichtungen oder -regeln sind so geplant, dass sie einen gewissen Sicherheitspuffer besitzen, innerhalb derer noch nicht gleich ein Unglück geschieht, obwohl die Grenzen des Systems überschritten sind. Das hat psychologisch betrachtet einen fatalen Effekt: Wenn eine Person bzw. ein Unternehmen Sicherheitsmaßnahmen vernachlässigt, bedeutet dies weniger Arbeits- oder finanziellen Aufwand. Durch den o. g. Sicherheitspuffer kommt es aber nicht sofort zu einem Schaden. Dies bedeutet: Man hat zunächst einen persönlichen Nutzen davon.
Wenn Sicherheitsgrenzen überschritten werden
Verhalten, von dem man einen Nutzen hat, wird psychologisch gesehen verstärkt. Das heißt: Es tritt häufiger auf. Dieser Mechanismus verstärkt sich selbst so lange weiter, bis eines Tages die Sicherheitsreserven des Systems ausgeschöpft sind und es zu einem unerwünschten Ereignis kommt. In der Zeit zwischen der erstmaligen Verletzung der Sicherheitsregeln und dem Ereignis operierte der Betreffende in einer Grauzone: Er hatte sich scheinbar selbst bewiesen, dass man die Sicherheitsregeln gar nicht so ernst nehmen muss (und dass "diese Sicherheitsleute / Risikomanager immer alles zu eng sehen"). Manchmal können Ursache und Wirkung wirklich sehr lange auseinander liegen:
Dekker beschreibt den Absturz einer DC-9 der Alaska Airlines im Jahr 2000 in den Pazifik vor Kalifornien [Dekker 2005]. Die Ursachenkette des Absturzes geht 35 Jahre zurück auf das Jahr 1965. Ein Teil der Steuerung – eine Gewindestange aus Metall – sollte nach den Vorgaben des Herstellers nach 300 bis 350 Flugstunden gefettet werden. Da diese Wartung aufwendig war, wurde das Wartungsintervall nach und nach verlängert.
Die Verantwortlichen wurden damit belohnt, dass nichts geschah und Geld für Wartungsarbeiten eingespart wurde. Im Jahr 2000 betrug das Wartungsintervall nicht mehr 300 bis 350 Flugstunden sondern 2.550 Flugstunden. Nachdem sich der Zeitraum auf das Achtfache erhöht hatte, versagte das Bauteil. Beim Absturz wurden 83 Passagiere und 5 Crew-Mitglieder getötet.
Dieser drastische Fall illustriert sehr deutlich, dass Sicherheitsgrenzen übertreten werden und auch übertreten werden können. Die Schwierigkeit liegt für den, der die Grenzen überschreitet, jedoch darin zu erkennen, wann die Konsequenzen dafür eintreten werden. Oft ist es unmöglich, den Systemzustand zu erkennen und der Betreffende wird darüber erst "aufgeklärt", wenn es bereits zu spät ist.
Autor:
Dipl.-Psych. Johannes Wadle
Teil 1 "Psychologische Einflussfaktoren im Risiko- und Krisenmanagement"
Teil 2 "Risikomaße bieten den Nährboden für "unknown unknowns"
Teil 4 "Psychologische "Stolpersteine" im Krisenmanagement"
Quellenverzeichnis sowie weiterführende Literaturhinweise:
ARTE (2010): Amerikas Alptraum, gesendet bei ARTE, 2.5.2011, Sendezeit 19 Uhr.
A3M Mobile Personal Protection GmbH (Hrsg.):
www.tsunami-alarm-system.com/phaenomen-tsunami/vorkommen-pazifischer-ozean.html
, abgerufen am 6.5.2011.Bernauer, M. et al. (Hrsg. / 2005): Wilhelm Heinse. Band III: Kommentar zu Band I, Carl Hanser Verlag, München 2005, S. 75.
Charles, M. T. (1989): The Last Flight of Space Shuttle Challenger, in: Rosenthal, U., Charles, M.T. & Hart P.T. "Coping with Crises: The Management of Disaster, Riots and Terrorism”, 1989, Charles C. Thomas (Hrsg.), Springfield, Illinois.
Dekker, S (2005): Why we need new accident models, Technical Report 2005-02, Lund University School of Aviation, Lyungbyhed, Sweden, 2005.
Dörner, D. (2002): Die Logik des Misslingens – Strategisches Denken in komplexen Situationen, Rohwohlt Verlag, 15. Auflage, Hamburg 2002.
Fuoco, M. (1996): Trial and error: They had larceny in their hearts, but little in their heads, Pittburgh Post-Gazette vom 21. März 1996.
Graw, A. (2011): Republikaner lassen Verhandlungsführer auflaufen, abgerufen am 30. Juli 2011 unter
www.welt.de/politik/ausland/article13514306/Republikaner-lassen-Verhandlungsfuehrer-auflaufen.html
Luhmann, H.-J. (2011): Fukushima-Ablauf in Kürze und die Frage nach dem (kernenergiespezifischen) Grund, Entwurffassung vom 5. 5. 2011.
Moorhead, G., Ference, R., Neck, C.P (1991): Group decision fiascoes continue: Space Shuttle Challenger and a revised groupthink framework, in: Human Relations, Vol. 44, No. 6, 1991.
N.N. (2011): Es ist todernst – Wieder ein Patt im Schuldenstreit", abgerufen am 30. Juli 2011 unter
www.n-tv.de/wirtschaft/Wieder-ein-Patt-im-Schuldenstreit-article3938151.html
Nuclear and Industrial Safety Agency (2011): The 2011 the Pacific coast of Tohuku Pacific Earthquake and the seismic damage to the NPPs vom 4. April 2011, abgerufen am 6.5.2011 unter
www.nisa.meti.go.jp/english/files/en20110406-1-1.pdf
Rasmussen, J. (1997): Risk management in a dynamic society: a modelling problem, Safety Science Vol. 27, No 2 / 3, S. 183 – 213, Elsevier Science Ltd, 1997.
Schaub, H. (2006): Störungen und Fehler beim Denken und Problemlösen, abgerufen am 7.5.2011 unter
www.psychologie.uni-heidelberg.de/ae/allg/enzykl_denken/Enz_09_Schaub.pdf
Siemens, A. (2008): Finanzkrise 2008 - Eskalationsstufe 4: Tage der Angst, abgerufen am 30. Juli 2011 unter
Simpson, R. (1996): Neither clear nor present: The social construction of safety and danger, Sociological Forum Vol. 11, No. 3, 1996.
Sowell, T. (2011): Unknown unknowns, abgerufen am 30. Juli 2011 unter
townhall.com/columnists/thomassowell/2011/07/13/unknown_unknowns
Steinlein, C. (2009a): Flugunfälle: Alles eine Frage der Statistik, abgerufen am 10.6.2011 unter
Steinlein, C. (2009b): Flugunfälle: Mit Statistik lügen, abgerufen am 10.6.2011 unter
Tagesschau.de (2001):
www.tagesschau.de/inland/atomdebatte110.html
, abgerufen am 6.5.2011.Tokyo Electric Power Company (TEPCO), 18. April 2011: "The Great East Japan Earthquake and current status of nuclear power stations", abgerufen am 6.5.2011 unter
www.tepco.co.jp/en/nu/fukushima-np/f1/images/f12np-gaiyou_e.pdf
Watzlawick, P (1995): Die erfundene Wirklichkeit – Wie wissen wir, was wir zu wissen glauben? Beiträge zum Konstruktivismus, 9. Auflage Piper Verlag, München 1995.
[Bildquelle: iStockPhoto]
Kommentare zu diesem Beitrag