Im modernen Risikomanagement begegnet man in der Praxis gerne dem Argument, wonach Krisen ohne Vorwarnungen auftreten würden. Dies ist definitorisch fragwürdig, da Krisen sowohl geeignete Bedingungen benötigen, um überhaupt entstehen zu können, als auch in der Regel eine erhebliche Vorlaufzeit benötigen, um heranwachsen zu können. Somit ist das unscheinbare und plötzliche Auftreten großer oder systemrelevanter Krisen – im weiteren Sinne – äußerst "unwahrscheinlich". Nach jüngsten Mitteilungen nehmen etwa geopolitische Risiken, Cyberrisiken, Naturkapitalrisiken, aber auch Finanzrisiken zu. Sie alle haben eindeutig identifizierbare Bedingungen ihres Entstehens und kündigen sich im Rahmen einer Vorlaufzeit an.
Selbstverständlich gibt es jene als "black swan" (Schwarze Schwäne) bekannt gewordene Ereignisse tatsächlich: Sie sind völlig unvorhergesehen und treten allem Anschein nach rein zufällig auf. Es dürfen deshalb zwei Fehler nicht begangen werden: 1. Die Existenz von "black swan"-Ereignissen bedeutet nicht, dass jegliche Form von "Vorahnungen" verunmöglicht wird. 2. Nicht jede "Vorahnung" wird in der Realität eine Manifestation erfahren, da sich in der Realität stets eine von mehreren Möglichkeiten realisiert. Absolut korrekte Prognosen sind zwar ausgeschlossen, was jedoch mit dem Problem "Risiko" adressiert wird.
Im folgenden Beitrag wird der Frage nachgegangen, ob, wann und warum – auch dann, wenn Schwarze Schwäne nicht auszuschließen sind –, sogenannten Vorwarnungen eindeutige Ankündigungen darstellen.
Zwei zentrale Probleme der Erkennung von Vorwarnungen
Die Möglichkeit "schwarzer Schwäne" widerlegt nicht die Möglichkeit, dass Vorsorge praktiziert werden kann und "Vorahnungen" korrekt sein können. Der Wissenschaftstheoretiker Karl R. Popper nutzte bekanntlich das Beispiel, wonach alle Personen dachten, alle Schwäne wären weiß, bis auf einer Expedition durch Australien der Holländer Willem de Vlamingh im von ihm entdeckten Swan River erstmals schwarze Schwäne (Trauerschwäne) entdeckte. Dies ändert aber nichts an der Tatsache, dass dennoch die überwiegende Mehrheit der zu diesem Zeitpunkt bekannten Schwäne weiß waren. Diese Hinleitung deutet Folgendes an: Die Existenz von schwarzen Schwänen sollte nicht dazu verleiten, nun nicht mehr auf "Vorwarnungen zu achten".
Das fundamentale Problem ist ein erkenntnistheoretisches: Vorwarnungen werden häufig nicht als solche erkannt (Erkennung). Hinzu tritt ein psychologisches Problem: Selbst dann, wenn Vorwarnungen als solche erkannt werden, werden sie häufig nicht ernst genommen (Bagatellisierung). Dies könnte somit zu dem Eindruck führen, wonach mehr "schwarze Schwäne" existieren, als tatsächlich in Erscheinung treten. Somit stellt sich die entscheidende Frage, was Vorwarnungen sind und wie sie besser erkannt werden können.
Damit ist ein erkenntnistheoretisches Problem (in pragmatischer und nicht grundsätzlicher Hinsicht) angesprochen, wonach es – grob gefasst – zwei Kategorien von Vorwarnungen gibt: Solche die leicht erkannt werden können, und solche die schwieriger zu erkennen sind. Auch wenn in der wissenschaftlichen Risiko- und Sicherheitsforschung Methoden entwickelt wurden, die dabei behilflich sein können, so können zu Demonstrationszwecken nur solche angeführt werden, die zur letzteren Kategorie zählen, das heißt nachträglich als solche eindeutig identifizierbar und allgemein bekannt sind.
Die Problematik der Bagatellisierung wird aus Gründen der Komplexität nur andeutungsweise einfließen. Als Verdeutlichung der Problematik kann aus jüngeren Nachrichten ein Beispiel entnommen werden: In diesem Jahr wurde über die Medien bekannt, dass seit dem Jahr 2012 erneut FCKW-Emissionen in signifikantem Ausmaß stattfanden. Dies erinnert an die damalige Debatte, wonach jene "Vorwarnungen" bezüglich der Schädlichkeit dieser chemischen Stoffe für die Ozonschicht länger bekannt waren. Die dennoch erfolgende Bagatellisierung führte zu einer Verzögerung der Problembehebung, bis das Problem "Ozonloch" nicht mehr geleugnet werden konnte. Bagatellisierung führt daher zu einer vorschnellen Bewertung der Vernachlässigbarkeit.
Dieses Problem ist in den Sicherheitswissenschaften bei der Früherkennung von Beinahe-Unfällen ein bekanntes Problem. Viele ebenfalls in den Medien der letzten Monate berichteten Unfälle, sind darauf zurückzuführen. Ein für das Risikomanagement in diesem Sinne typisches Problem können Checklisten oder unflexible Risikomanagement-Systeme niedriger Reifegrade sein. So forcieren "Checklisten" das Verkennen oder Fehlinterpretieren zusätzlich, oder machen gar "blind" für Vorwarnungen, sodass trotz deren Kenntnisnahme eine Bagatellisierung erfolgt. Sie könnten daher – in Abhängigkeit von der Sensibilität der Person für solche "Abweichungen" – die Betriebsblindheit in dem Sinne fördern, dass Checklisten für wichtige "Abweichungen" von den vorgefertigten Urteilen, zu denen die simple Anwendung von Checklisten führt, blind machen können.
Schwarze Elefanten, graue Schwäne, Drachenkönige und schwarze Schwäne
Auch wenn "Vorsorge" gegenüber "schwarzen Schwänen" nicht nach den Maßgaben von "Vorwarnungen" erfolgen kann, so kann es dennoch "Vorsorge" gegenüber "schwarzen Schwänen" geben. Aber auch Vorsorge, die nach Maßgabe von Vorwarnungen erfolgt, ist zu gewissen Graden mit Unsicherheit verknüpft.
Dies wird am Beispiel "Klimawandel" (siehe nachfolgend) deutlich. Das erkenntnistheoretische Problem lautet: Es kann nicht davon ausgegangen werden, dass wegen der Existenz von "schwarzen Schwänen" "Vorwarnungen" nicht "funktionieren", also die entsprechende erkenntnistheoretische Funktion nicht erfüllen, wonach sie auf eine Bandbreite von Möglichkeiten hindeuten, die mit höherer Wahrscheinlichkeit Teil der Realität werden, als andere Möglichkeiten.
In seinem provokanten Buch "Der Seneca-Effekt" gibt Bardi (2017) eine einfache, aber durchaus praktikable Kategorisierung, die auf die Nützlichkeit von Vorwarnungen zum Zweck der Vorsorge rückschließen lässt:
- A: Schwarze Elefanten: Diese "bekannten Unbekannten" (Rumsfeld) sind als metaphorisch im Raum stehender Elefant zu verstehen, dessen Existenz Vielen bekannt ist, aber sie auch verschleiern. Bardi nennt als Beispiel "Verschleierung von Informationen" und behauptet, dass viele Finanzkatastrophen sich darauf zurückführen lassen.
- B: Graue Schwäne: Bardi erklärt, dass Taleb und andere "schwarze Schwäne" mit grauen gelegentlich verwechseln. Der Einzelfall eines "grauen Schwanes" ist nicht vorhersehbar, aber ihre Häufigkeit kann vorab bestimmt werden. Hochwasserereignisse fallen in diese Klasse, wenn deren Häufigkeit in Form von beispielsweise "Jahrhunderthochwassern" bestimmt werden (ein Hochwasserereignis, das normalerweise nur einmal im Jahrhundert in einem solchen Ausmaß auftritt.)
- C: Drachenkönige: Solche Ereignisse sind grundsätzlich bestimmten normalen Ereignissen gleichwertig, aber lediglich ihr Ausmaß lässt sie besonders erscheinen. Bardi (2017: 115) nennt das Beispiel: "Wenn Paris nicht existieren würde, würde man sich wahrscheinlich nicht einmal vorstellen können, dass in Frankreich eine so große Stadt existiert". Drachenkönige sind im Grunde nicht vorhersehbar und auch ihre Häufigkeit ist nicht einzuschätzen. Aber Bardi (ebd.) erklärt, dass "auf der Grundlage bekannter Trends ihre Existenz denkbar" ist. Also auch wenn nicht bekannt ist, ob und wann Drachenkönige eintreten werden, und auch, wenn ein bestimmtes Drachenkönig-Ereignis noch nicht zuvor eingetreten ist, so kann bereits auf die Möglichkeit geschlossen werden.
- D: Schwarzer Schwan: Diese sind die "unbekannten Unbekannten" (Rumsfeld) in Bardis Aufzählung. Solche Ereignisse zählen zu den schlimmsten und sind zugleich völlig unvorhersehbar, in der Art, dass nicht eingeschätzt werden kann, in welcher Weise sie eintreten. Nassim Taleb führte die schlimmsten Finanzzusammenbrüche auf diese Klasse zurück, weil deren Voraussage mit den in der jeweiligen Zeit gültigen und bekannten Kenntnissen und Theorien nicht möglich war.
Diese Auflistung zeigt, dass bis auf jene Klasse des "schwarzen Schwanes" Vorwarnungen zur Einschätzung der Ereignisse hilfreich sind: Eine bestimmte Bandbreite an Möglichkeiten wird sich wahrscheinlicher realisieren, als andere Möglichkeiten. Vorausgesetzt ist jedoch, dass sie als solche erkannt werden. Somit ist nach dieser Klassifikation nur eine Minderheit der Ereignisse ein "schwarzer Schwan". Nach Bardi sind zudem einige "schwarze Schwäne" bei genauerer Betrachtung "grau".
Die Klassifikation kann mit einigen Beispielen des Jahres 2017 verdeutlicht werden: Die Serie an Attacken mit Fahrzeugen auf die Zivilbevölkerung in Großbritannien ("schwarzer Elefant"), die zwei großen Cyberattacken des Jahres 2017 ("grauer Schwan"), und die möglichen Auswirkungen des Klimawandels ("Drachenkönig") gemäß der Hurricane-Serie, die die Vereinigten Staaten erlitten.
Festzuhalten ist jedoch, dass Vorwarnungen nur einen Eindruck dafür vermitteln, welche Realität wahrscheinlicher ist, als eine andere (metaphorisch: "Wohin die Reise geht"). "Vorahnungen" basieren auf "Vorwarnungen". Somit sind "Vorahnungen" nur so gut, wie "Vorwarnungen" erkannt werden beziehungsweise werden können.
Alan M. Webber erklärt in seinem Buch "Rules of Thumb" unter der Regel 4 "Don't implement solutions. Prevent problems" was er bezeichnet als "the idea of early detection, intervention, and prevention". Demgemäß ist aus zumindest zwei Gründen die zuverlässigste Prävention eine solche, die auf einer Früherkennung basiert: Einerseits, weil solche Früherkennungen das Spektrum des möglichen Ausmaßes erkennen lassen (best case, worst case, realistic case), Zweitens, wo Prävention zielführend und sinnvoll angewendet werden kann beziehungsweise wie sie jedenfalls weniger zielführend erfolgen würde (Zuordnung von Bedingungen, Ursachen, Auslösern etc.). Zudem erlauben sie, drittens, die Erkenntnis, dass sich jedenfalls dann, wenn Vorwarnungen bereits eingetreten sind, Prävention "auszahlt" (Return on Prevention) – und zwar umso eher, umso mehr Vorwarnungen bereits eingetreten sind.
Ein Kriterium zur Erkennung von Vorwarnungen
In dem Beitrag Brunnhuber/Abed-Navandi (2017) wurde eine einfache und allgemein anwendbare (bereichsübergreifende) Risikoformel-Heuristik vorgeschlagen, die aus einer statistischen, einer empirischen und einer mathematischen Komponente besteht, die Klassen (A) bis (C) abdeckt und die drei genannten Gründe kombiniert. Als allgemein gültiges Kriterium zur Erkennung von Vorwarnungen wurde ein definitorisches Merkmal von Müller (2012) vorgeschlagen, welches im Kontext der Sicherheitsvorkehrungen Verwendung findet:
War jenes Ereignis, welches stattfand, das Schlimmste, was sich hätte ereignen können?
Wird dies verneint, so handelt es sich um eine Vorwarnung. Dieses Kriterium ist allerdings lediglich erkenntnistheoretisch. Es beinhaltet weder die psychologischen Probleme, die mit seiner Anwendung verknüpft sind, noch die methodischen, dass heißt wie es in konkreten Methoden zur Erkennung von Vorwarnungen angewendet werden kann.
Ebenfalls in Brunnhuber/Abed-Navandi (2017) wurde erläutert, wieso es höchst unwahrscheinlich ist, dass lediglich eine Vorwarnung eintritt. Im Umkehrschluss wird mit der Anzahl der Vorwarnungen das "Risiko" größer, wonach das nächste Ereignis nach einer gerade eingetretenen Vorwarnung keine Vorwarnung mehr ist. Empirische Erkenntnisse aus mehreren Bereichen lassen auf die allgemeine Gültigkeit dieser Schlussfolgerung schließen.
Sowohl die statistische Komponente, als auch die empirische Komponente der Risikoformel-Heuristik basieren auf diesem erkenntnistheoretischen Kriterium: Dieses Kriterium ist nötig, um einerseits Vorwarnungen als solche zu erkennen, als auch das aus der Vorwarnung erkennbare, realistisch mögliche Ausmaß eines negativen Schadens einzuschätzen. Dies können Vorwarnungen aber nur andeuten, da sie keine Auskunft über die tatsächliche Realität zulassen, sondern nur Rückschlüsse auf die eher wahrscheinlichen Möglichkeiten. Es muss daher gemäß "Ähnlichkeit" (einer ebenfalls erkenntnistheoretisch schwer zugänglichen Thematik) gefolgert werden, welche Möglichkeiten sich realisieren können. Um die Einschätzung zu verbessern, haben Brunnhuber/Abed-Navandi (2017) deshalb vorgeschlagen, die bekannte Drei-Szenarien-Abschätzung anzuwenden: Best-Case, Realistic-Case, Worst-Case.
Die Anwendung des vorgeschlagenen Kriteriums ist trotz der Intention seiner bereichsübergreifenden Gültigkeit mitunter schwierig, da bereichsspezifisch die Art der Vorwarnungen verschieden ist. Zudem sind nicht alle Vorwarnungen offensichtlicher Art. Das gegenteilige Problem einer Neigung zur Übertreibung, also schließlich mehr "Vorwarnungen" zu erkennen, als de facto vorhanden waren, ist ebenfalls ein "Risiko" der ungeübten Anwendung, aber auch der Anwendung von Sicherheitsexperten ("Der Mann mit dem Hammer betrachtet alles als Nagel."). Folgende Beispiele sollen eine hilfreiche Orientierung bieten.
Beispiele für Vorwarnungen
Der Klimawandel kann im Sinne Bardis wegen der durch Vorwarnungen erkennbaren Trendzunahme (beispielsweise jüngste Starkregen-Ereignisse in Deutschland und Österreich) als "Drachenkönig" diagnostiziert werden. Obwohl weitgehend unbekannt ist, welche Auswirkungen er tatsächlich hervorrufen würde (dies hängt auch stark von sogenannten "Mikroklimata" ab), lassen die Vorwarnungen bereits Andeutungen erkennen, welche Ausmaße "realistisch" möglich sind. Unter Zuhilfenahme des Kriteriums ist jeder der Hurrikan-Ereignisse der Serie an Hurrikan-Ereignissen des Jahres 2017, als Vorwarnung zu verstehen, da sich ein Trend zu steigenden Schadenshöhen abzeichnet, basierend auf den in den Vereinigten Staaten eingeschätzten Schadenshöhen: Hurrikan Harvey (ca. 90 und 180 Mrd. Dollar), Hurrikan Irma (ca. 300 Mrd. Dollar), Hurrikan Maria (in den U.S. etwa 16 Mrd.). (vgl. Wikipedia
)
In Abhängigkeit davon, wie sich Hurrikan-Ereignisse verhalten, hätte daher der Schaden jeweils höher sein können. Das Kriterium definiert daher den Unterschied zwischen dem tatsächlichen Ereignis und dem Potenzial, auf welches das Ereignis berechtigterweise schließen lässt. Solange sich jedoch das volle Potenzial noch nicht realisiert hat, bleibt es bis zu einem gewissen Grade Spekulation, weshalb für Risikomanagement-Maßnahmen die Szenarien-Abschätzung genutzt werden sollte. Bekanntlich werden auch für die Auswirkungen des Klimawandels auf globaler Ebene solche Szenarien genutzt. Manche Experten gehen sogar davon aus, dass die Prognosen des UNFCCC optimistischer sein könnten, als allgemein angenommen wird. Nichtlinearität in den Klimaprozessen, starke regionale Unterschiede, Emissionsszenarien, Feedback-Prozesse etwa hinsichtlich Vegetationsdichte, Poldecken, Permafrostböden, Sonneneinflüssen, sowie sonstiger bekannter und unbekannter klimawirksamer Einflüsse machen eine Modellierung schwierig. Aber die Auswirkungen scheinen auch nicht völlig ungewiss. So ist der Anstieg des Meeresspiegels etwa hinreichend valide bestimmbar.
Die "Risiken des Anthropozäns", zu welchen der Klimawandel zählt, stellen daher eine ungewöhnliche Art von Risiko dar, die gewissermaßen der globalen Dimension geschuldet ist. Einer Definition von Risiko nach Aven, Renn und Rosa (2011) folgend beschreiben Risiken Unsicherheiten über die Konsequenzen von Aktivitäten bezüglich "Dingen", die für Menschen von Wert sind. Für den Klimawandel lautet dann die Prognose, dass wir zwar nicht exakt wissen, welche Konsequenzen er de facto hervorrufen wird. Dennoch ist besonders wegen der bereits bekannten Vorwarnungen mit hoher Wahrscheinlichkeit anzunehmen, dass er zahlreiche negative Effekte hervorbringen kann und viele davon (in einem realistic case nach aktuellen Stand des Wissens) wird. Die konkreten Vorwarnungen lassen daher unabhängig von modellierten Prognosen auf das jeweilige Potenzial schließen, oder sind als zusätzliche Information zur Verbesserung der Prognosen hilfreich. Resümierend kann jedoch nicht verlässlich angegeben werden, welche Konsequenzen der Klimawandel insgesamt und lokal nach sich ziehen wird, wohl aber, dass die Wahrscheinlichkeit zu anwachsenden negativen Ereignissen erhöht ist und sich ständig erhöht. Dies lässt den Klimawandel zu einem "Drachenkönig" werden.
An dieser Stellte tritt die psychologische Problematik der Bagatellisierung hinzu. Ein Beispiel bietet der bekannte Risikoforscher Charles Perrow (2008: 734): "Hurricane Katrina in 2005 has not proved to be a wake-up call for addressing hurricane vulnerabilities. New building goes on in all the southeastern coastal areas, and despite the recommendations of experts, flooded areas of New Orleans are being resettled".
Laut einer Studie, die sich konkret auf Hurrikan-Ereignisse bezieht, besteht die Gefahr, dass Vorwarnungen nicht als solche erkannt werden, sondern sogar den gegenteiligen Effekt bewirken, dass diese eine fälschliche Zuversicht fördert (vgl. Dillon et al., 2011: 440): "Our research thus shows how people who have experienced a similar situation but escape damage because of chance will make decisions consistent with a perception that the situation is less risky than those without the past experience." Anders formuliert: Wenn mehrmals lediglich Beinahe-Ereignisse eingetreten sind, wird nach Maßgaben des induktiven Lernen angenommen, dass auch weiterhin nur Beinahe-Ereignisse stattfinden würden. Der entscheidende Fehler liegt darin, dass nicht zwischen dem tatsächlichen Ereignis, und dem Potenzial, auf welches dieses Ereignis als Indikator schließen lässt, unterschieden wird. Dies ist einem typischen Fehler gemäß "Risk Governance" ähnlich, wonach vergangene Erfolge so interpretiert werden können, als gäbe es keine oder geringere Risiken. Dies basiert einerseits auf der Annahme, dass die Zukunft der Vergangenheit ähnlich ist, sowie auf dem die subjektive Wahrnehmung mitbeeinflussenden Verzerrungsfaktor der Verfügbarkeitsheuristik. Dies setzt voraus, dass die subjektive Einschätzung von der "objektiven Sachlage" bezüglich der Existenz von Risiken abweicht (siehe weiter unten). Im Zusammenhang mit Vorwarnungen ist dies insofern relevant, da dadurch "anwachsende Risiken" (Emergence Risks) übersehen werden, bis zu jenem Punkt, wo sie nicht mehr übersehen werden können. In einem solchen Fall ist jedoch Prävention womöglich bereits unmöglich und Schadensbegrenzung die letzte der verfügbaren Optionen.
Vorwarnungen bieten daher einen korrigierenden Faktor, in dem auf Veränderungspotenziale (beispielsweise Trends) aufmerksam gemacht wird. Es gilt daher stets nie nur die Gegenwart zu bewerten, sondern ebenfalls die in dieser Gegenwart angelegten Trends und Tendenzen, welche durch Vorwarnungen erkennbar werden.
Abschließend sei noch ein Beispiel zu jener Art von Verwechslung zwischen grauen und schwarzen Schwänen angeführt, die Bardi thematisiert und ebenfalls die Diskrepanz zwischen subjektiver Einschätzung beziehungsweise Bewertung und "objektiver Sachlage" verdeutlicht. Um das Beispiel aus Romeike (2005) aufzugreifen, wurde 2014 von der NASA bekannt gemacht, dass die Menschheit 2012 einer globalen Katastrophe knapp entgangen ist, als ein Sonnensturm verzeichnet wurde, der das Potenzial gehabt hätte gravierende Schäden anzurichten ( vgl. de.wikipedia.org/wiki/Carrington-Ereignis). Der Sonnensturm hat die Erde um eine Woche verfehlt, und war außerhalb der Einflussreichweite dieser jedoch so stark wie ein Sonnensturm des Jahres 1859. Dieses Ereignis ist daher als eine Vorwarnung anzusehen, welches auf das Potenzial (nach der Szenarien-Einschätzung) schließen lässt. Das Ereignis ist als "grauer Schwan" einzustufen, da die Häufigkeit solcher Sonnensturm-Ereignisse durchaus hinreichend genau eingeschätzt werden kann.
Die Vereinigten Staaten haben seit 2015 einen "Action Plan", jedoch würden nicht alle Stellen des Verwaltungsapparates die Tragweite des Problems verstehen, weil ein solches Ereignis schlichtweg noch nie eingetroffen ist. Doch Prävention besteht gerade darin zu vermeiden, dass etwas Derartiges geschieht, noch bevor es geschehen ist. Dass das Potenzial dazu besteht, zeigen Vorwarnungen realistisch.
Das Beispiel ist daher illustrativ, weil es darauf hinweist, dass subjektive Bewertung und "objektive Sachlage" zwar voneinander abweichen, Vorwarnungen jedoch als Korrektiv wirken können und auch den Weg zur Prävention verdeutlichen. Die Kenntnisse der Vorwarnungen sollten daher nicht zu einer Bagatellisierung führen. Verglichen mit jenem gravierenden Sonnensturm von 1859, zu dessen Zeitpunkt erste Telegrafenleitungen erst seit 15 Jahren existierten (vgl. Romeike 2005), würde laut der Versicherungsgesellschaft Lloyd's ein ähnliches Ereignis einen Schaden in der Höhe von über 2 Billionen Dollar weltweit anrichten. Dagegen ist die Hurrikan-Saison des Jahres 2017 milde. Die Bedingungen zu den entsprechenden Schadenspotenzialen, die Sonnenstürme anrichten können, werden im Zuge der Digitalisierung allerdings erhöht, wenn Abmilderungsmaßnahmen von vorn herein nicht integriert werden. In diesem Zusammenhang haben Brunnhuber/Abed-Navandi (2017) von Risikopotenzialen gesprochen: Risikopotenziale entstehen und variieren stets in Abhängigkeit vom jeweiligen Risikoträger und sind daher nicht "objektiv" vorhanden, sind relational – etwa verglichen mit der veränderten Schadenspotenzialität in Relation zur technologischen Ausstattung der Jahre 1859 und 2012.
McNeill (1989) resümierte bereits früh historische Innovationen (Transport, Ökonomie, Industrie, Politik) unter dem Blickwinkel der unbeabsichtigten Nebenwirkungen. Er verallgemeinerte, dass letztlich stets unbeabsichtigte und teilweise katastrophale Konsequenzen durch das Bemühen entstehen, bestehende Risiken unter Kontrolle zu bringen. Gerade jene Bereiche, die durch die neu erzeugte Kontrolle entstehen, aber noch nicht kontrollierbar sind, sind die Orten der "conservation of catastrophe". In diesem Sinne handelt es sich um Risikopotenziale, deren "reale" Existenz auch nachträglich durch Vorwarnungen erkannt werden kann. McNeills (1989) letzte Konklusionen beziehen sich auf das Computerzeitalter und haben in verblüffender Weitsichtigkeit bereits ein Kernthema der heutigen Risikoforschung vorweggenommen: systemische Risiken. Daraus wird nach den Ausführungen McNeills sinngemäß ein metaphorisch gedachtes "Rennen" nach immer mehr Kontrolle, welches aber nicht gewonnen werden kann, denn absolute Kontrolle ist eine Illusion. Oder mit den Worten McNeills (1989: 12): "intensifying the risk of catastrophe with each new success." Die Ausführungen McNeills können zusammenfassend in eine einfache Korrelation umformuliert werden: Umso mehr Bemühen um Kontrolle vorherrscht, desto mehr Risiken mit größeren Potenzialen entstehen. Die rezente Thematik der "risk-risk tradeoffs” stellt daher nur die Verlängerung eines historischen Problems dar, welches bis dato nicht befriedigend gelöst werden konnte, ohne auf Prävention zu achten. Die entsprechende Lösung dieser Thematik besteht daher einerseits in dem Bemühen um Prävention und andererseits in erhöhter Resilienz. Während letzteres ein bereits vielbeachtetes Forschungsthema in verschiedenen Bereichen ist, ist Prävention bis dato noch wenig beachtet. Innovation kann auch dem Zweck der Prävention dienlich sein. Und einer der verlässlichsten Zugänge zum Thema Prävention ebnet sich über das Gebiet der Vorwarnungen.
In manchen Unternehmen wird Risikomanagement fälschlich als "Angst-Management" interpretiert. Dies ist jedoch eine Verkehrung der Tatsache, wonach der Zweck des Risikomanagements das Gegenteil bewirken soll: Die Beschäftigung mit Risiken dient im Endeffekt dazu "Angst" zu reduzieren, indem jene Maßnahmen erwogen werden, die am effektivsten und zielsichersten Risiken minimieren. Angst ist letztlich nie ein guter Ratgeber. Angst ist eine Emotion, die entweder unbegründet ist, dann ist sie kontraproduktiv, oder begründet, dann verhilft sie aber dennoch kaum zu sachlichen Lösungen beziehungsweise kann sogar eine Überbewertung forcieren und den Fokus auf falsche Lösungen fördern. Sie ist daher ein Hindernis für die Entwicklung von "Risikointelligenz", die die Fähigkeit schult zu erkennen, welche Risiken vertretbar, akzeptabel beziehungsweise tolerabel sind, und welche nicht. Die Erkennung von Vorwarnungen ist dagegen kognitiv fundiert und nicht emotional, dass heißt sie zeigen als Form eines "begründeten Verdachts" Schwachstellen auf und helfen dabei geeignete Lösungen zu finden. Die Beschäftigung mit Risiken kann daher drei Zwecke verfolgen: Prävention, vorsorgliche Schadensbegrenzung und nachträgliche Schadensbegrenzung. Es sollte daher auch stets das Ziel eines Risikomanagements sein, die entsprechenden Maßnahmen zum Zweck der Prävention zu evaluieren.
Wissenschaftstheoretische Überlegungen zur Rolle von Vorwarnungen
In einem früheren Beitrag haben Brunnhuber und Abed-Navandi darauf hingewiesen, dass es sich bei dem auf Vorwarnungen basierend Risikobegriff um einen semirealen Risikobegriff handelt. Zur Verdeutlichung können grob vier wissenschaftstheoretische Position unterschieden werden, die in der wissenschaftlichen Beschäftigung mit diesem Forschungsfeld vertreten werden:
- Realismus: Risiken sind objektiv vorhanden und der reale Gehalt kann mit geeigneten Methoden abgebildet werden.
- Objektiver Relativismus: Ein Risiko wäre grundsätzlich objektiv bestimmbar, wenn es keine psychologischen Verzerrungen gäbe, die dazu führen, dass ein Risiko in der Regel verfälscht dargestellt wird (heuristics-and-biases). Eine Abbildung der Realität ist daher (auch wenn sie in Ausnahmefällen grundsätzlich möglich wäre) unwahrscheinlich. Das Paradebeispiel dafür ist die Verfügbarkeitsheuristik.
- Subjektiver Relativismus: Ein Risiko ist nicht grundsätzlich objektiv bestimmbar, da ein Risiko stets von Menschen interpretiert werden muss. Genauer: Jede Form ein Risiko zu bestimmen setzt Daten voraus, die die Grundlage dafür bieten. Zunächst ist stets die Frage nach der Anzahl (beispielsweise Lücken, ausreichende Quantität), Qualität (beispielsweise falsche Daten, nicht relevante Daten etc.) zu entscheiden. Dieses Problem wäre zumindest theoretisch bei größter Sorgfalt zu lösen, aber das Problem der subjektiven Bewertung nicht: Die Risikoeinschätzung ist stets primär abhängig von den Vorerfahrungen, der Expertise, der Persönlichkeit (beispielsweise eher risikoavers vs. eher risikoaffin) jener Personen, die die Risikoeinschätzung durchführen. Dieses Problem ist grundsätzlich nicht zu lösen. Ein weiteres damit verknüpftes Problem ist die Frage ob eine zunehmende Anzahl an Daten die Einschätzung verbessert. Die Meinungen gehen hierbei auseinander, da eine höhere Anzahl an Daten auch das Risiko von Fehlinterpretationen, Über- und Unterbewertungen erhöht. Selbst Algorithmen haben in dieser Hinsicht ein erhebliches Defizit. Problematisch hat sich diese Meinungsunterschiedlichkeit in der Politikberatung erwiesen. Ein Lösungsansatz besteht in der Partizipation von Nicht-Experten.
- Konstruktivismus: Ein Risiko ist stets konstruiert. Der Beweis dafür wird darin gesehen, dass der Mensch Methoden zur Risikoeinschätzung entwickelt, die eigentlich einer Erfindung gleichen. Jede dieser Methoden kann ein Risiko völlig anders darstellen. Ein und dieselbe Risikofragestellung kann mit verschiedenen Methoden bearbeitet zu unterschiedlichen Ergebnisse führen. Wenn es also keine Risikoeinschätzung unabhängig von Methoden gibt, diese Methoden aber erfunden sind oder zumindest stark abweichende Ergebnisse liefern, dann müssen Risiken allem Anschein nach ebenfalls erfunden sein. Als Konstruktivist muss jedoch nicht geleugnet werden, dass es keine objektiv vorhandenen Risiken gibt, sondern dass deren Identifikation mittels Methoden konstruiert. Der Mensch ist das Maß aller Dinge des Risikos. Eine schwächere Version des Konstruktivismus postuliert jedoch, eine Kenntnis über "objektive" Risiken prinzipiell nicht unmöglich ist, aber es einem Zufall gleichen würde sie methodisch "einzufangen". Die Strenge Version postuliert, dass die Abhängigkeit von Methoden grundsätzlich keinen direkten Zugang zu "realen" Risiken erlaubt und daher stets eine erhebliche Verfälschung darstellt. Dies ist ebenfalls ein erhebliches Problem in der Politikberatung.
Da die drei letzten der genannten Positionen alle berechtigte Argumente besitzen, muss daher ein wissenschaftstheoretischer Realismus als widerlegt gelten.
Das Problem kann jedoch mit Vorwarnungen gelöst werden. Zunächst: Vorwarnungen "lügen" nicht, dass heißt sie machen zumindest eine wie auch immer geartete Problemstellung aufmerksam. Das ist ein entscheidender Aspekt für eine sinnvolle Technikfolgenabschätzung. Vorwarnungen sind zwar ein Teil der außersubjektiven, aber nicht subjektunabhängigen Realität, das heißt sie müssen wahrgenommen und korrekt interpretiert werden, was im Zusammenhang mit Risikointelligenz steht: Zu wissen, welche Risiken sich ein Risikoträger (deskriptiv) nach seinen Fähigkeiten der erlauben kann und (ethisch) darf einzugehen.
Sie führen daher zu einem gewissen Grad zurück in Richtung Realismus, lassen aber nur die Realität erahnen, ohne sie direkt abzubilden. Es handelt sich daher nicht um einen Realismus im klassischen Sinne, weshalb hier der Begriff "Korrektiv" benutzt wurde: Sie helfen dabei eine realitätsnahe Risikoeinschätzung zu verbessern, liefern aber keine "realistische" Einschätzung. Dies liegt alleine schon in dem Faktum begründet, dass Vorwarnungen eine nachträgliche Korrektur ermöglichen, und sich zwischenzeitlich die Risikosituation bereits verändert haben könnte. Diese "Dynamik" des Risikos verweist darauf, dass ein objektives Risiko faktisch nur dann "einzufangen" wäre, wenn es statisch bliebe. Eine Annäherung an die aktuelle Situation (Gegenwart) und eine Prognose der Trends (Zukunft) kann jedoch erfolgen. In diesem Sinne gleicht der Ansatz über Vorwarnungen (Vergangenheit) methodisch der Anwendung von Bayes-Theorem und wissenschaftstheoretisch der Idee Karl R. Poppers "Wahrheitsähnlichkeit".
Doch Vorwarnungen müssen für eine realitätsnahe Einschätzung der aktuellen Situation als solche erkannt und ernst genommen werden. Dies ist ein Problem, welches mit dem Objektiven Relativismus adressiert wird: Es gibt in der Tat objektiv feststellbare Faktoren der Verzerrung und Verfälschung der Risikoeinschätzung. Daher ist die über Vorwarnungen zugängliche Risikoeinschätzung eine semireale. Wenn Vorwarnungen erkannt und ernst genommen werden, dann entfällt der Subjektive Relativismus als vertretbare Position jedenfalls dann, wenn Vorwarnungen erkennbar sind, weil sie zeigen, dass es objektive Risiken gibt, die auch potentiell erkannt werden können: Es besteht ein Zugang zur Realität des Risikos, auch wenn diese Realität nicht vollständig erfassbar ist. Wenn die subjektiven Einflussfaktoren tatsächlich so stark sein sollten, wie in der extremen Variante des Subjektiven Relativismus behauptet wird, dann sind sie durch Vorwarnungen zumindest korrigierbar beziehungsweise falsifizierbar, das heißt sie stellen ein außersubjektives Kriterium der Korrektur von bereits durchgeführten Risikoeinschätzungen dar. Dennoch ist es stets ein Subjekt, welches Vorwarnungen erkennt. Daher sind diese nicht objektiv, sondern außersubjektiv, treten also unabhängig vom Subjekt in der Realität auf, und können von diesem als solche erkannt werden ("semireal").
Ebenfalls entfällt das Problem der Konstruktion bezüglich der Methodenbedingtheit. Mittels Vorwarnungen lässt sich evaluieren, welche Methoden besser geeignet sind als andere, oder wie sie eventuell verbessert werden können. Auch wenn Methoden nie ein objektives Risiko abbilden können (im Sinne eines realistischen Abbildes), so können sie dennoch in der Genauigkeit der "Repräsentation" der objektiven Risiken verbessert werden.
Dennoch bleibt ein Konstruktivismus bestehen: Vorwarnungen lassen stets nur nachträglich auf die aktuelle Risikosituation schließen. Es können also falsche Prognosen nicht mit Sicherheit ausgeschlossen werden, nur deswegen, weil Vorwarnungen berücksichtigt werden.
Dennoch sind Vorwarnungen als ein zuverlässiger Indikator zu bewerten. Der Umgang mit diesen ist ebenfalls als eine Frage der Risikointelligenz zu bewerten.
Autor:
Robert Brunnhuber MSc ist in verschiedenen Zusammenhängen mit dem Thema Risiko in wissenschaftlicher Hinsicht beschäftigt. Zuletzt arbeitete er am Institut für Zukunftspsychologie und Zukunftsmanagement der Sigmund-Freud-Privatuniversität als wissenschaftlicher Assistent von Prof. Thomas Druyen unter anderem zur Frage der Auswirkungen der Digitalisierung auf die menschliche Psyche, um frühzeitig Risiken zu erkennen. Als wissenschaftlicher Mitarbeiter am Human and Global Development Research Institute (DRI) in Wien sind seine Arbeitsschwerpunkte ethische Fragestellungen über globale Entwicklungen, sowie deren Unsicherheiten und Risiken. Ausgewählte Arbeitsergebnisse werden schrittweise frei verfügbar am DRI publiziert.
Quellenverzeichnis sowie weiterführende Literaturhinweise:
- Aven, T./Renn, O./Rosa, E. A. (2011): On the ontological status of the concept of risk, Safety Science 49: 1074–1079
- Bardi, U. (2017): Der Seneca-Effekt. Warum Systeme kollabieren und wie wir damit umgehen können, oekom, München
- Brunnhuber, R./Abed-Navandi, M. (2017): Die Lehre der Risikopotenziale im Umgang mit Risiken, in: Risiko Manager. Fachzeitschrift für Risiko-Experten, 04/2017: 40-49
- Dillon, R. L./Tinsley, C. H./Cronin, M. (2011): Why Near-Miss Events Can Decrease an Individual’s Protective Response to Hurricanes, Risk Analysis, Vol. 31/3: 440-449
- McNeill, W. H. (1989): Control and Catastrophe in Human Affairs, Daedalus 118/1: 1-12
- Müller, E.-W. (2012): Unfallrisiko Nr. 1: Verhalten. So vermeiden Sie verhaltensbedingte Unfälle!, Heidelberg, München u.a.
- Perrow, C. (2008): Disasters Evermore? Reducing Our Vulnerabiiities to Natural, Industrial, and Terrorist Disasters, social research Vol. 75/3: 733-75
- Romeike, F. (2005): Nicht der Blick in den Rückspiegel ist entscheidend, in: Rating aktuell 2: 22-27