Nachdem wir immer wieder auf die fälschliche Verwendung des Begriffs "Komplexität" stoßen, möchten wir mit diesem Beitrag eine einfach verständliche Erklärung liefern, was unter Komplexität zu verstehen ist und warum wir daran häufig mit vielen etablierten und bewährten Methoden im Risikomanagement scheitern.
Wenn im Film "Avatar" das Militär den Lebensbaum der "Na'vi's" auf "Pandora" zerstören, gerät das Leben der Bewohner aus den Fugen. Denn der Baum ist für die Na'vi' heilig, spiegelt er doch das komplexe, feingliedrige naturverbundene Leben der humanoiden Bewohner wider. Ihr Leben und Denken ist gekennzeichnet von Vielschichtigkeit und Vernetzung. Im Grunde übertragbar auf unser irdisches Dasein, Denken und Handeln von heute.
Doch im Gegensatz zur Welt der Avatare verharren wir noch zu sehr in einer Welt der Linearität. Was es braucht? Neue Ansätze des Denkens und Vernetzens. Demensprechend spielt bei der vorliegenden systemischen Betrachtung das Thema "Vernetzung" eine zentrale Rolle. Hintergrund ist, dass sich lineare Denk- und Handlungsmuster in der Vergangenheit durchaus bewährt haben und zum gesellschaftlichen Erfolg der westlichen Gesellschaft beitrugen. Doch mit den sich verändernden Rahmenbedingungen – gerade mit Blick auf die Digitalisierung und Vernetzung – der vergangenen Jahre, stoßen unsere bisherigen Lösungskompetenzen zunehmend an Grenzen. Mehr noch, bringt die "Welt im Wandel" unser bisheriges Erfolgsmodell ins Wanken.
Die Krux: Lineares Denken basiert vor allem auf einfachen Ursache-Wirkungsbeziehungen und vermeidet weitgehend die Auseinandersetzung mit komplexen Vernetzungen und Wechselwirkungen, die durch die zunehmende technische und gesellschaftliche Vernetzung entstehen. Aktuelle (komplexe) Herausforderungen werden oft stark vereinfacht und in Einzelthemen zerlegt, um sie mit den bisherigen Verfahren analysieren und bearbeiten zu können. Zahlreiche aus dem Ruder gelaufene Großprojekte, wie etwa der neue Flughafen Berlin Brandenburg als Extrembeispiel, zeugen davon.
Eine Herausforderung bei den nachfolgenden Betrachtungen ist, dass Texte sich nur linear abbilden lassen. Daher gibt es immer wieder Querverweise [→ ...] auf andere zusammenhängende Textstellen.
Die Transformation zur Netzwerkgesellschaft
Was vielen von uns kaum bewusst ist, ist, dass wir uns mitten in einer fundamentalen gesellschaftlichen Transformation befinden. Diese wurde etwa in den 1950er Jahren mit der Entwicklung von leistungsfähigeren Computern eingeleitet. Neben der Agrar- und Industriegesellschaft entsteht die Netzwerkgesellschaft. In der Literatur werden weitere Begriffe, wie Informations- oder Wissensgesellschaft, die dritte industrielle Revolution oder die zweite Moderne, verwendet. Auch der Begriff der "Digitalisierung" kann dafür herangezogen werden. Netzwerke spielen bei dieser Transformation eine zentrale Rolle, daher wird der Terminus "Netzwerkgesellschaft" in diesem Beitrag verwendet. Parallel dazu wird der bisher vorherrschende tertiäre Wirtschaftssektor (Dienstleistung), wie zuvor der primäre Sektor (Landwirtschaft) und der sekundäre Wirtschaftssektor (Industrie), weitgehend automatisiert. Der zunehmende Verdrängungswettbewerb findet in den verschiedensten Bereichen parallel statt. Die verstärkte Vernetzung und Automatisierung hat natürlich auch ihre Schattenseiten. Unser Leben in den entwickelten Industriegesellschaften ist bereits heute völlig vom Funktionieren der vitalen, Kritischen Infrastrukturen (etwa Strom und Telekommunikation) abhängig. Ein Ausfall kann sehr rasch zu verheerenden Folgen führen, auch wenn wir uns das bisher kaum vorstellen können. Dies auch deshalb, da die bisherige (technische) Vernetzung oft chaotisch gewachsen ist und systemische Aspekte nur unzureichend berücksichtigt wurden.
Was ist ein System?
Eine zentrale Rolle in diesem Zusammenhang spielt der Begriff des "Systems" (Siehe Abbildung 1). Hierbei handelt es sich ganz allgemein um ein aus mehreren Einzelelementen zusammengesetztes Ganzes. Systeme, abstrakt betrachtet, bestehen aus unterschiedlichen Systemelementen, die miteinander vernetzt sind und ein Wirkungsgefüge bilden. Ohne diese Vernetzungen (=Beziehungen) hat man nur eine Ansammlung von Elementen, jedoch kein System, wie etwa bei einem Sandhaufen. Es gibt eine Systemgrenze, die das System zu seiner Umwelt determiniert. Dadurch ergibt sich eine gewisse "Identität" und ein bestimmter Zweck des Systems. Eine Systembeschreibung stellt selbstverständlich nur ein Modell der Realität dar.
Abbildung 1: Vereinfachte Darstellung eines Systems [Quelle: Eigene Darstellung]
Diese Grenzen müssen nicht immer physisch oder tatsächlich deterministisch vorhanden sein, beziehungsweise hängen diese häufig vom Betrachter oder von der konkreten Betrachtung ab. Sie können etwa materieller Art (beispielsweise unsere Haut) als auch immaterieller Art (beispielsweise Abgrenzung einer sozialen Gruppe) sein. Derartige Grenzen können eine für die Systemsicherheit wichtige Reichweitenbegrenzung darstellen, die etwa die Ausbreitung von Störungen oder Fehlern in einem System begrenzen (beispielsweise Krankheiten). Systeme haben grundsätzlich eine optimale Größe bzw. Anzahl von Systemelementen.
Sie sind anpassungsfähig und verfügen über eine gewisse Elastizität. Wird jedoch eine nicht klar erkennbare kritische Größe erreicht und gelingt es nicht, rechtzeitig entsprechende Subsysteme zu bilden, kollabiert das System. Jedes Systemelement kann potenziell mit jedem anderen Systemelement des Gesamtsystems Beziehungen eingehen. Die Anzahl der möglichen Wechselwirkungen wächst jedoch mit der Anzahl der Systemelemente exponentiell an [→ Exponentielle Entwicklungen, → Dynamik]. Zusätzlich sind externe Beziehungen zu anderen Systemen oder Umweltelementen möglich. Das ist bei natürlichen Systemen der Regelfall. Daher werden sie auch als offene Systeme bezeichnet.
Ganz wesentlich ist dabei, dass ein System mehr ist als die Summe der Systemelemente [→ Emergenz]. Am Beispiel Mensch ist das leicht nachvollziehbar. Auch wenn alle chemischen Elemente des menschlichen Körpers in der nötigen Qualität und Quantität zur Verfügung stehen, ergibt das noch keinen Menschen. Entscheidend sind die "unsichtbaren Fäden" zwischen den Elementen. Menschen bestehen aus unterschiedlichen Subsystemen, etwa Molekülen, Zellen oder Organen.
Vernetzung und Lebensfähigkeit
Die Größe eines Systems hängt von der Anzahl der Systemelemente und der Vernetzung zwischen diesen ab. Mit dem Anstieg der Vernetzung (Redundanzen) steigt auch die Stabilität eines Systems, jedoch nicht unendlich (vgl. Abbildung 2).
Auch die Menschheit hat sich nach diesem Muster entwickelt. Das Kernsystem ist die Familie, die als Subsystem in eine Sippe oder Kommune integriert sein kann, oder nur lose Verbindungen zu anderen Systemen aufweist. "Die Familie" ist dabei nicht unbedingt mit unserer heutigen Vorstellung und Organisation von Familie gleichzusetzen, hatte sie doch im Laufe der Geschichte unterschiedliche Ausprägungen hatte. Erst durch Mobilität und technische Kommunikationsmöglichkeiten wurden die Grenzen verschoben bzw. sank die klare Strukturierung. Diese wurden mehr und mehr durch ein wildes Geflecht ersetzt (siehe etwa Soziale Medien). Die Orientierung und Betrachtung, aber auch die Kontrolle und Steuerung wird damit schwieriger.
Abbildung 2: Von instabilen Einzelelementen zu einem stabilen System. Bei einer Überdehnung ist die Bildung von Subsystemen erforderlich, da andernfalls ein Systemkollaps droht [Quelle: Eigene Darstellung in Anlehnung an Vester]
Bis die breite Motorisierung begann, war die Reichweite des Einzelnen noch ziemlich begrenzt. Oft nur wenige Kilometer, die zu Fuß oder mit Hilfe von Tieren überwunden werden konnten. Natürlich gab es auch Ausnahmen, wie Handelsreisende oder Entdecker, aber in einem sehr begrenzten Ausmaß beziehungsweise mit langen Reisezeiten. Das hat sich im letzten Jahrhundert und insbesondere im 21. Jahrhundert massiv verändert, zuerst durch die Erhöhung der Mobilität und dann durch die Verbreitung und die Möglichkeiten der Informations- und Kommunikationstechnik. Dies hat dazu geführt, dass viele Menschen heute in Sekundenschnelle fast überall auf der Welt mit jemand in Kontakt treten und kommunizieren können, auch in sonst sehr benachteiligten Regionen. Durch diese Vernetzung und auch Informations- bzw. Reizüberflutung nehmen wir "Störungen" und Risiken aus weit entfernten Regionen viel stärker war, als uns tatsächlich bedrohende Gefahren. Dies kann durchaus zu sehr paradoxem Verhalten führen, wie etwa, dass sich nach der Reaktorkatastrophe von Fukushima zahlreiche Menschen in Mitteleuropa einen Geigerzähler gekauft haben, um ihr "persönliches" Risiko beurteilen zu können.
Mit der steigenden Größe eines Systems entsteht auch die Gefahr, dass sich Störungen leichter, schneller und weitreichender im System und über Systemgrenzen hinaus ausbreiten können. Daher steigt die Fragilität eines Systems. So können sich etwa heute Krankheiten durch die massiven Reiseströme viel leichter, weitreichender und rascher ausbreiten, als noch vor wenigen Jahrzehnten. Die von den USA ausgehende Finanzkrise 2007 hat nicht nur im Finanzsektor weitreichende und weltweite Folgekrisen ausgelöst.
Die (Über-)Lebensfähigkeit eines Systems ist von seiner Größe bzw. Vernetzungsdichte mit seiner Umwelt abhängig. In der evolutionären Entwicklung hat sich "small is beautiful" durchgesetzt, da kleinere Systeme anpassungsfähiger gegenüber Störungen sind. Die Natur begrenzt nicht die Interaktion zwischen den Wesen, aber ihre Größe. Damit gibt es eine automatische Reichweitenbegrenzung von Störungen.
Darüber hinaus werden Systeme generell gestärkt, indem einzelne Systemelemente oder Subsysteme versagen können und dürfen. Dabei spielt auch Diversität beziehungsweise Vielfältigkeit eine wichtige Rolle, da damit die Anpassungsfähigkeit und Weiterentwicklung gewährleistet werden [→ Fehlende bzw. abnehmende Diversität]. Das was sich bewährt, setzt sich durch. Jedoch nicht durch einen Masterplan, sondern durch Versuch und Irrtum [→ Macht alleine Schaden klug?]. Hierbei werden aber gerne die stummen Zeugnisse übersehen. Bei der Betrachtung der Geschichte sehen wir nicht alles, sondern nur die Erfolgsgeschichten ("der Sieger schreibt die Geschichte"). Daher werden diese meist überbewertet. Dinge, die nicht funktioniert haben, verschwinden oder geraten rasch in Vergessenheit. Bei menschlichen Fehlentwicklungen gibt es daher auch immer wieder Wiederholungen, wie die Geschichte zeigt.
Too-big-to-fail
Auch "too-big-to-fail" widerspricht diesen Grundsätzen. Wenn viele kleine Unternehmen scheitern, erregt das kaum Aufsehen. Scheitert jedoch ein großes Bauunternehmen oder eine Bank, werden alle Hebel in Bewegung gesetzt, um das zu verhindern [→ Kurzfristiger Aktionismus versus langfristige Ziele]. Damit wird aber das Gesamtsystem fragiler und die Wahrscheinlichkeit einer zeitverzögerten größeren Störung steigt [→ Zeitverzögerte Wirkungen]. Diese Gefahr droht auch bei aktuellen Hochwasserschutzprojekten, bei denen sehr viel Aufwand zur Verhinderung von Überschwemmungen betrieben wird. Bricht ein Schutzbau, wären die Schäden jedoch enorm. Dies vermutlich auch, weil sich die potentiell betroffenen Menschen aufgrund des Schutzbaues wesentlich schlechter auf ein solches Ereignis vorbereiten, da sie ja immer weniger Störungen bewältigen müssen [→ Visualisierung]. Man spricht hier auch von einem Sicherheits- beziehungsweise Verletzlichkeitsparadox. Je mehr ein System gegen eine bestimmte Gefahr und gegen ein spezifische Schwere der Störung geschützt wird, desto verwundbarer wird es gegenüber größeren oder anders gearteten Störungen.
Eine entsprechende Erfahrung machten Förster in amerikanischen Nationalparks. Eine Zeitlang wurde sofort jedes kleine Feuer gelöscht beziehungsweise verhindert. Das führte dazu, dass sich immer mehr totes (brennbares) Material anhäufte. Kam es dann zu einem Brand, weitete sich dieser viel rascher zu einem nicht mehr beherrschbaren Großbrand aus. Kleine Störungen (Brennte) stärken Systeme und mindern die Fragilität [→ Kleine Ursache, große Wirkung]. Wird das (durch Menschen) verhindert, zögert sich nur der Zeitpunkt des Eintritts hinaus und die Auswirkungen kumulieren, das heißt, sie verschlimmern sich. Diese Beobachtungen gibt es nicht nur in der Natur, sondern auch in vielen anderen Bereichen. Menschen überschätzen dabei häufig die eigenen Manipulationsfähigkeiten beziehungsweise missachten dabei längere Zeithorizonte. Die Agrarindustrie investiert sehr viel Geld in die Genforschung, um beispielsweise schädlingsresistente Pflanzen zu designen. Mit zweifelhaftem Erfolg, wie etwa die Anpassungsfähigkeit des Maiswurzelbohrers zeigt. Hier ist es mittlerweile notwendig, in immer kürzeren Zeitabständen die verwendete Giftdosis zu erhöhen. Dies löst wiederum negative Effekte in der restlichen Umwelt aus [→ Rückkoppelungen]. Der Maiswurzelbohrer passt sich evolutionär an, er wird immer stärker, weil nur die Stärksten überleben und sich weiterentwickeln. Dasselbe passiert auch in anderen Bereichen. Die zunehmende Sorge vor sog. "Killerbakterien" ist daher mehr als nur ein Hype. Experten gehen davon aus, dass insbesondere der Klimawandel die Entwicklung multiresistenter Bakterien begünstigt.
Diversität
Eine weitere Gefahr für die Lebensmittel- und damit Versorgungssicherheit geht von der zunehmenden Konzentration der Hersteller von Saatgut aus. Das derzeit dominierende Wachstums- und Effizienzsteigerungsparadigma führt dazu, dass immer weniger große Konzerne und Sorten übrigbleiben, was einer überlebenswichtigen Diversität widerspricht [→ Wachstumsparadigma] (siehe Abbildung 3).
Abbildung 3: Folgen fehlender Diversität [Quelle: Taleb et all 2014]
Eine solche Machtkonzentration und Monopolisierung ist aber auch in vielen anderen Bereichen zu beobachten. Diese spitzt sich etwa gerade in der IT-Hardwareproduktion, der globalen Schiffslogistik oder Pharmabranche zu. Es bleibt eine immer geringere Anzahl, immer größerer Unternehmen übrig. Zudem wurden in den vergangenen Jahren die Forschungsbudgets etwa bei der Medikamentenforschung erheblich reduziert [→ Kurzfristiger Aktionismus versus langfristige Ziele]. So werden etwa immer seltener neue Antibiotika entwickelt und gleichzeitig steigt die Zahl der Antibiotikaresistenzen. Zudem gibt es weltweit nur mehr eine Handvoll Produktionsanlagen für Antibiotika. All das passiert von der Öffentlichkeit weitgehend unbeachtet. Es fehlen der Durchblick und das Gefühl für die Fragilität und Verwundbarkeit unserer Lebensweise [→ Komplexe Systeme]. Die Gefahr von strategischen Schocks steigt [→ Strategische Schocks].
Komplexität und komplexe Systeme
Ein wesentlicher Grund für das Ansteigen von unüberschaubaren Risiken liegt in einer steigenden Komplexität. Der Begriff "Komplexität" wird häufig und in sehr unterschiedlichen Zusammenhängen verwendet. Ob im technischen oder politischen Bereich, er scheint fast überall anwendbar ("Boundary Object"). Häufig wird der Begriff dazu verwendet, um undurchsichtige, schwer greifbare, dynamische und damit kaum planbare und steuerbare Situationen oder Systeme zu beschreiben. Eine gewisse Überforderung und Hilflosigkeit geht damit einher. Der Begriff selbst wird vom lateinischen complexus abgeleitet, was so viel wie verflochten beziehungsweise verwoben bedeutet. Mit etwas Abstand erkennt man rasch einen Zusammenhang mit der technischen Vernetzung.
Mit der Vernetzung steigt die Komplexität und Dynamik in Systemen, da es zu ständigen Rückkoppelungen kommt [→ Rückkoppelung]. Es entstehen komplexe offene Systeme, die mit ihrer Umwelt in Wechselbeziehung stehen. Die Systemgrenze eines komplexen Systems lässt sich nicht genau definieren. Eine zentrale Steuerung wie bei Maschinen (geschlossenen Systemen) ist nicht möglich. Die Steuerung (Regelung) beruht auf einfachen dezentralen Rückkoppelungsprozessen und Regelkreisen [→ Rückkoppelungen]. Menschliche Eingriffe ohne Berücksichtigung dieser Mechanismen scheitern, wenn auch häufig erst zeitverzögert beziehungsweise führen zu nicht intendierten Ergebnissen und Nebenwirkungen.
Komplexe Systeme weisen eine Reihe von Eigenschaften auf, die wir von unseren bisherigen technischen Lösungen (geschlossenen Systemen) kaum kennen.
Der Komplexitätsforscher John Casti hat den Begriff der Komplexitätslücke geprägt. Sie beschreibt die Differenz zwischen Systemen unterschiedlicher Komplexität (vgl. Abbildung 4). Komplexitätslücken neigen dazu, sich auszugleichen. Wenn dies nicht durch "steuernde" Eingriffe erfolgt, kommt es zur Systembereinigung [→ Vernetzung und Lebensfähigkeit, s-förmiges Wachstum]. Das nicht anpassungsfähige System kollabiert. Der "Faden" reißt dabei abrupt.
Abbildung 4: Komplexitätslücken entstehen etwa zwischen den Versprechungen des Marketings und den technischen/physikalischen Möglichkeiten und Grenzen [Quelle: Eigene Darstellung]
Menschen neigen dazu, die Elastizität von Systemen generell zu überschätzen. Diese ist durchaus gegeben, stößt dann aber doch relativ schnell an Grenzen. Ob dies im individuellen Bereich ist ("Burnout"), am Finanzmarkt, bei technischen Lösungen, beim Ressourcenverbrauch, beim Stromversorgungssystem, es gibt kein Beispiel dafür, dass wir diese Grenzen unendlich ausdehnen könnten [→ Vernetzung und Lebensfähigkeit].
Die Anzahl und die Größe derartiger Komplexitätslücken nehmen seit der Erhöhung der Vernetzungsdichte deutlich zu. Etwa zwischen dem, was die Politik, der Markt oder das Marketing verspricht und vorgibt und andererseits, was technisch/physikalisch möglich und sinnvoll beziehungsweise was noch beherrschbar ist. Durch die zeitverzögerte Wirkung haben wir bisher fast nur die positiven Seiten der Vernetzung kennengelernt [→ Zeitverzögerte Wirkungen].
Die Finanzkrise der Jahre 2007/2008 kann hier einmal mehr als Beispiel herangezogen werden. Es zeigte sich, dass selbst Insider den Überblick verloren hatten, welche Objekte, Produkte oder Elemente genau verkauft und gekauft wurde. Und in vielen technischen Bereichen ist heute ein ähnliches Niveau zu beobachten. So kommen etwa die Autoren der Versicherungsstudie "Beyond Data Breaches: Global Interconnections of Cyber Risk” zum Schluss:
"The way in which the complexity of interconnected risks is assessed is painfully similar to how financial risks were assessed prior to the 2008 crash … in the end, it was this very complexity which helped bring the system down.”
Systemische Risiken
Die zum Teil chaotische und nicht-systemische technische Vernetzung der vergangenen Jahre hat dazu geführt, dass in unserer Gesellschaft und in den Kritischen Infrastrukturen die Anzahl der systemischen Risiken, nicht zu Letzt aufgrund der wachsenden Komplexitätslücken, massiv angestiegen ist. Systemische Risiken sind dabei gekennzeichnet durch:
- einen hohen Vernetzungsgrad (Dynamik, Komplexität, Wechselwirkungen);
- die Gefahr von Dominoeffekten;
- eine Nicht-Linearität in den Auswirkungen (keine einfachen Ursache-Wirkungsketten, die beispielsweise durch das klassische Risikomanagement erfasst werden) und
- eine systematische Unterschätzung der Auslöseereignisse und Auswirkungen durch Verantwortungsträger.
- Das führt dazu, dass die Wahrscheinlichkeit von strategischen Schockereignissen, also Ereignissen, die in der Lage sind, unser Zusammenleben nachhaltig – langfristig und erheblich – zu verändern ("Game-Changer"), massiv angestiegen ist.
Abbildung 5: Dominoeffekte können eine Vielzahl von Folgeereignissen auslösen [Quelle: Fotolia.com / © arudolf]
Strategische Schocks
Mittlerweile gibt es eine Reihe von möglichen und realistischen Szenarien (Abbildung 6), die durch systemische Risiken ausgelöst werden können. Wesentlich ist dabei, dass fast immer unsere Kritische Infrastruktur von einem solchen strategischen Schockereignis betroffen wäre, da es entsprechende Wechselwirkungen und Abhängigkeiten gibt [→ Komplexe Systeme]. Strategische Schocks sind Ereignisse, die äußerst selten vorkommen, jedoch enorme Auswirkungen erwarten lassen. Nassim Taleb hat dafür den Begriff der "Schwarzen Schwäne" geprägt. Er fügt noch hinzu, dass derartige Ereignisse im Nachhinein immer einfach zu erklären sind, vorher aber nicht erkannt oder ignoriert werden.
Abbildung 6: Mögliche bereits abschätzbare strategische Schockereignisse [Quelle: Eigene Darstellung]
Ein Finanzkollaps hätte etwa erhebliche Auswirkungen auf die zahlreichen Infrastrukturbaustellen der Energiewende. Umgekehrt könnten Blackouts – überregionale und länger andauernde Strom- und Infrastrukturausfälle – zu weitreichenden Wirtschafts- und Finanzkrisen führen. Durch die vielschichtige Vernetzung können sich strategische Schocks häufig auf andere Systeme ausbreiten (Dominoeffekte) – auf die Gesellschaft, auf Unternehmen, auf andere Infrastrukturbereiche bzw. auf so gut wie alles, was damit verbunden ist. Dabei gibt es eine Reihe von Fallstricken, die diese Ausbreitung begünstigen.
Ein Beispiel ist die Just-in-Time/Just-in-Prozess-Logistik, die einen sehr hohen Synchronisationsgrad erfordert und daher sehr störanfällig ist, wenn wichtige Kettenglieder zeitgleich ausfallen. Dies ist im Alltag kaum spürbar, da kleine Störungen sehr gut beherrscht werden. Allerdings sind die Auswirkungen eines möglichen Blackouts auf diesen Bereich kaum abschätzbar.
Der wirtschaftliche Druck zur Optimierung und Effizienzsteigerung hat mittlerweile zu einer Reduktion der Robustheit von Systemen geführt, da wichtige Redundanzen, Reserven und Puffer aber auch Personal immer häufiger eingespart werden ("Totes Kapitall") [→ Wachstumsparadigma]. Damit sinken die Fähigkeiten und Handlungskompetenzen, um mit größeren Störungen umgehen zu können.
Besonders brisant sind die Entwicklungen im Bereich der Kritischen Infrastruktur, von denen unser Gemeinwesen ganz erheblich abhängig ist. Durch immer aufwendigere und undurchsichtigere technische Lösungen und durch die steigende Vernetzung schaffen wir immer größere Verwundbarkeiten, ohne uns dessen bewusst zu sein oder dafür einen Plan B zu haben. Technische Sicherungen gegen Katastrophen verschieben häufig nur den kritischen Punkt, an dem ein System in die Katastrophe kippt. Auch hier passt wieder das weiter oben angeführte Waldbrandbeispiel.
Ein weiterer Fallstrick ist, dass wir in den letzten Jahrzehnten in unserer mitteleuropäischen Gesellschaft sehr stabile und konstante Verhältnisse erleben durften. Daher besteht kaum ein Bewusstsein, dass die gesamte Menschheitsgeschichte und auch heute noch der Großteil der Welt von Variabilität und zyklischen Entwicklungen gekennzeichnet waren und sind. Wir haben in den vergangenen Jahren in vielen Bereichen wichtige Auffangnetze reduziert, was uns wiederum anfälliger gegenüber größeren Störungen macht. Ob dies den Finanzsektor, die Energie- und Rohstoffversorgung, das europäische Stromversorgungssystem, eine Pandemie oder auch die möglichen Auswirkungen des Klimawandels betrifft, es gibt eine Vielzahl an potenziellen Ereignissen, die uns für strategische Schocks anfällig machen. Dabei sind in Anbetracht der möglichen Konsequenzen und der gesellschaftsverändernden Auswirkungen Wahrscheinlichkeiten fast irrelevant.
Die Konsequenzen sind umso schwerwiegender, je seltener ein Ereignis eintritt, und desto schwieriger ist eine analytische Einschätzung. Entscheidend ist daher nicht, dass jemand ein Ereignis "vorhersagt", sondern dass diese "Vorhersage" mit Konsequenzen verbunden ist. Daher ist es notwendig, dass Systeme und ihre Fragilität analysiert werden und nicht Einzelereignisse oder einzelne Elemente eines Systems. Eine Vorgangsweise, die heute weitgehend nicht üblich ist.
Ein bekanntes Beispiel zur Illustration der Fehleinschätzung von Risiken ist die sog. Truthahn-Illusion (Abbildung 7): Ein Truthahn, der Tag für Tag von seinem Besitzer gefüttert wird, hat nicht die geringste Ahnung, was am Tag X passieren wird. Er muss aufgrund seiner positiven Erfahrungen annehmen, dass die Wahrscheinlichkeit, dass etwas gravierend Negatives passiert, von Tag zu Tag kleiner wird. Am Tag vor Thanksgiving wird jedoch ein entscheidender Wendepunkt eintreten, mit entsprechend fatalen Folgen für den Truthahn. Die Truthahn-Illusion steht zudem für die Überzeugung, dass sich jedes Risiko berechnen lässt, obwohl dies nicht möglich ist.
Dabei spielt auch eine Rolle, dass das Nichtvorhandensein von Beweisen mit einem Beweis für ein Nichtvorhandensein verwechselt wird. Es ist davon auszugehen, dass vordergründig stabile Systeme fragiler sind, als Systeme, in denen häufiger Störungen auftreten [→ Vernetzung und Lebensfähigkeit]. Darüber hinaus wird übersehen, dass der sogenannte schlimmste Fall zu der Zeit, da er sich ereignete, schlimmer war als der damals erwartete "schlimmste Fall".
Abbildung 7: Die Truthahn-Illusion als Folge eines linearen, vergangenheitsorientieren Denkens [Quelle: Eigene Darstellung]
Exponentielle Entwicklungen
Unter anderem spielen bei der Unterschätzung der Auswirkungen exponentielle Entwicklungen eine entscheidende Rolle (vgl. Abbildung 8), die mit linearem Denken nur schwer erfassbar sind, wie folgende Legende zum Ausdruck bringt: Der Erfinder des Schachspiels hatte einen Wunsch frei. Er wünschte sich von seinem König folgende vordergründig sehr bescheidene Belohnung: Für das erste Feld des Schachbrettes ein Korn, für das zweite zwei Körner, für das dritte vier Körner und bei jedem weiteren Feld doppelt so viele wie auf dem vorherigen Feld. Dieser Wunsch war jedoch nicht erfüllbar. 264 entspricht etwa 18 Trillionen Weizenkörnern, oder rund 100 Milliarden Lkw-Ladungen Getreide, was mit sämtlichen Welternten seit Beginn des Getreideanbaus nicht abdeckbar wäre. In vernetzten Systemen steigt die Möglichkeit der Wechselwirkungen exponentiell an, womit die Steuerbarkeit drastisch sinkt [→ Kleine Ursache, große Wirkung].
Dynamik
Mit der Vernetzung steigt auch die Dynamik in einem System. Diese bezeichnet die Änderungen aller Systemzustände über die Zeit. Ein dynamisches System steht niemals still, es lebt. Daher sind Analysen immer nur ein Ausschnitt zum Zeitpunkt X, was sich bei der Planung oder Durchführung von Systemeingriffen meistens negativ auswirkt, da sich das System ja laufend weiter verändert.
Abbildung 8: Exponentielle Entwicklungen am Beispiel 2x kommen beispielsweise in der Informationstechnologie zum Tragen [Quelle: Eigene Darstellung]
Emergenz
Eine weitere Rolle spielt die steigende Emergenz in komplexen Systemen. Diese führt zur spontanen Herausbildung von neuen Systemeigenschaften oder Strukturen durch das Zusammenspiel der Systemelemente und der Rückkoppelungen. Die Eigenschaften der Systemelemente lassen dabei keine Rückschlüsse auf die emergenten Eigenschaften des Systems zu. So sind etwa die Elemente Sauerstoff und Wasserstoff brennbar. Vereint im Wassermolekül kann Wasser zum Feuerlöschen verwendet werden. Zusätzlich kommt es zur spontanen Selbstorganisation, eine Steuerbarkeit, wie wir sie von linearen Systemen ("Maschinen") kennen, ist nicht mehr möglich. Komplexe Probleme lassen sich daher nicht in Teilprobleme zerlegen, um diese dann zu analysieren und anschließend wieder zu einer Gesamtlösung zusammenzufügen.
Rückkoppelungen
In komplexen Systemen kommt es zu positiven und negativen Rückkoppelungen. Positive Rückkoppelungen wirken selbstverstärkend (mehr führt zu mehr). Sie sind zwar für einen Start oder für ein Abbremsen wichtig, jedoch auf Dauer schädlich. Negativen Rückkoppelungen wirken hingegen stabilisierend (mehr führt zu weniger). Beide Arten sind für die Selbststeuerung von komplexen Systemen notwendig.
Gerade am Finanzmarkt kommt es immer wieder durch positive Rückkoppelungen zu Blasenbildungen und Crashs. Der Kurs steigt und damit auch das Interesse an den Papieren, womit wieder der Kurs steigt. Aber eben nicht unendlich [→ Vernetzung und Lebensfähigkeit]. Und dieser Zeitpunkt ist nie vorhersagbar [→ Komplexe Systeme]. Auch wenn immer wieder mit mathematischen Modellen versucht wird, negative Entwicklungen vorherzusagen, blieben bislang sämtliche Versuche erfolglos. Menschen neigen generell dazu, Erfolge auf eigenes Können und Misserfolg auf äußere Einflüsse und Pech zurückzuführen. Dass es etwas mit Zufall und Glück zu tun haben könnte, wird in der Regel ausgeschlossen. Wenn man diese Mechanismen kennt, kann man sie auch nützen. Das hat aber nichts mit einer vermeintlichen Berechenbarkeit zu tun.
Abbildung 9: Steuerung versus Regelung [Quelle: Eigene Darstellung]
Korrelation versus Kausalität
Ein anderer Irrtum entsteht, indem Korrelationen gerne mit Kausalitäten gleichgesetzt werden [→ Kurzfristiger Aktionismus versus langfristige Ziele]. Die Korrelation beschreibt eine Beziehung zwischen unterschiedlichen Ereignissen, Zuständen oder Funktionen. Dabei muss keine kausale Beziehung bestehen. Kausalität hingegen bezeichnet einen naturgesetzlichen, reproduzierbaren Zusammenhang zwischen Ursache und Wirkung. Ein kausales Ereignis hat eine feste zeitliche Richtung, die immer von der Ursache ausgeht, auf die die Wirkung folgt, was daher in komplexen Systemen mit laufenden Rückkoppelungen zu Fehlschlüssen verleitet [→ Komplexe Systeme].
So kann es zwar zwischen dem Rückgang der Geburtenanzahl und der Abnahme von Störchen in einer Region eine Korrelation geben, aber sicher keine Kausalität.
Kurzfristiger Aktionismus versus langfristige Ziele
Unser Wirtschaftssystem bzw. die Verfolgung des Wachstumsparadigmas führt dazu, dass in vielen Bereichen nur sehr kurzfristig und auch kurzsichtig geplant und gehandelt wird [→ Wachstumsparadigma]. Die zunehmend auf Kennzahlen getriebene Betrachtung verleitet zu Aktionismus. Der Betrachtungshorizont wird auf kurzfristige Erfolge eingeschränkt, die langfristige Lebensfähigkeit bleibt außen vor. Aktionismus findet mittlerweile fast überall statt, da er gesellschaftsfähig geworden ist. Statt die Ursache eines Problems zu suchen und dort anzusetzen, wird häufig nur eine Symptombehandlung durchgeführt, da diese rasch angewandt werden kann und ein schnelles ("vermarktbares") Ergebnis liefert. Fundamentale Lösungen hingegen führen kurzfristig häufig zu Nachteilen und bringen erst langfristig einen positiven Nutzen bzw. Mehrwert [→ Evolutionäre Prägungen].
Ob das eine nicht erfolgte Verfassungs- oder Verwaltungsreform, eine Bildungs-, eine Gesundheitswesens- oder eine Pensionsreform ist, die Beispiele können lange fortgesetzt werden. Aber auch Hochwasserschutzdämme oder Lawinenschutzbauten sind vorwiegend eine Symptombehandlung. Auch hier vergrößern sich die Komplexitätslücken.
Wachstumsparadigma
Eine wesentliche Rolle bei vielen negativen Entwicklungen spielt unser scheinbar unumstößliches Wachstumsparadigma, dem sich quasi alles andere unterzuordnen hat. Dem Menschen ist es immer wieder gelungen Grenzen auszudehnen. Ob beim Bevölkerungswachstum oder bei dem Ressourcenvorkommen, immer wurden die Erwartungen deutlich überschritten. Eine weitere Möglichkeit kurzfristig zu wachsen beziehungsweise positive Zahlen liefern zu können, besteht darin, Reserven und Redundanzen zu reduzieren, oder Wartungsintervalle hinauszuzögern. Ob dies jedoch langfristig nachhaltig ist, zeigt sich erst in der Zukunft. Bis dahin gilt die bisherige Erkenntnis, dass ein System, das zwingend permanentes Wachstum braucht, nicht nachhaltig existieren kann und daher selbst seinen eigenen Untergang herbeiführt.
In der Natur gibt es kein unbegrenztes, sondern nur ein zyklisches beziehungsweise s-förmiges Wachstum, da dieses selbstzerstörerisch wirkt. Tumore stellen bisher den erfolglosen Gegenversuch dar.
S-förmiges Wachstum
S-förmiges Wachstum beginnt langsam, steigt nach einer längeren Periode exponentiell an und flacht dann wieder ab (vgl. Abbildung 10). Ob durch Angebot und Nachfrage, Ressourcenverknappung oder Beute-Räuberverhältnisse, ausschlaggebend sind immer selbstregulierende Regelkreise [→ Rückkoppelungen]. Ein weiteres Wachstum ist nur über einen neuen Zyklus (etwa durch eine neue Technologie) möglich, der rechtzeitig angestoßen werden muss. Die künstliche Ausdehnung des exponentiellen Wachstums führte bisher immer zum Systemkollaps.
Abbildung 10: s-förmiges Wachstum [Quelle: Vester 2011]
Menschen neigen dazu, diesen Mechanismus zu ignorieren. Was durchaus auch eine Zeit lang gut gehen kann, da Systemgrenzen dehnbar und Systeme generell elastisch sind [→ Systeme]. Dieser Erfolg führt aber zu einer Selbstüberschätzung der eigenen Fähigkeiten, mit meist langfristigen negativen Folgen [→ Zeitverzögerte Wirkungen]. So haben etwa langjährige Marktführer wie Kodak im Bereich der analogen Fotografie oder Nokia im Bereich der Mobiltelefone derartige Entwicklungen (Digitalfotografie beziehungsweise Smartphones) unterschätzt. Kodak ist Geschichte, Nokia spielt gegenüber seiner früheren Rolle nur mehr ein Schattendasein. Eine intensive Landnutzung führt zwar kurzfristig zu mehr Wachstum und Output, führt aber zu einer Ressourcenübernutzung und damit zum Rückgang oder zur vollständigen Zerstörung der Nutzbarkeit.
Aber auch fundamentale gesellschaftliche Weiterentwicklungen entstehen meist erst dann, wenn das Alte untergegangen ist ("Schöpferische Zerstörung"). Auch Innovation führt generell dazu, dass bisherige Lösungen obsolet werden oder mit weit weniger Ressourcenaufwand bewältigt werden können. Dies wird häufig übersehen und führt dann zu unangenehmen Überraschungen, obwohl es sich immer um dieselben Gesetzmäßigkeiten handelt. Entweder es gelingt ein rechtzeitiger Neuanfang und Übergang, oder es kommt zu einem abrupten Ende.
Zeitverzögerte Wirkungen
Eine weitere Rolle spielen zeitverzögerte Wirkungen. Dinge, die in der Ferne liegen, sind für uns schwer abschätzbar [→ Evolutionäre Prägungen]. Herzkreislauferkrankungen, Übergewicht und viele andere Wohlstandskrankheiten basieren auf jahre- wenn nicht jahrzehntelangem Fehlverhalten. Aber nicht nur im persönlichen Bereich haben wir damit Schwierigkeiten. Auch der Klimawandel entsteht über viele Jahrzehnte, zuerst schleichend und dann immer schneller. Es kommt zu einem exponentiellen Anstieg der Auswirkungen, die irreversible sind [→ Exponentielle Entwicklungen, → s-förmiges Wachstum].
Ein anderes Beispiel stammt aus der Welt der Informationstechnologie, wo es in den vergangenen Jahren zu einem exponentiellen Anstieg in der Qualität und Quantität der Zwischenfälle gekommen ist. Und wie es scheint, ist damit das Ende noch nicht erreicht, ganz im Gegenteil. Das, was uns noch bevorstehen könnte, würde alles Bisherige in den Schatten stellen. Ein infrastruktureller Systemkollaps ist keine Utopie.
Auch das europäische Stromversorgungssystem wird von der Öffentlichkeit weitgehend unbeachtet immer häufiger an der Belastungsgrenze betrieben. Die unsystemischen Eingriffe der Energiewende in Deutschland tragen dabei wesentlich zur Destabilisierung bei [→ Kurzfristiger Aktionismus versus langfristige Ziele, → Komplexe Systeme]. Eine europäische Großstörung ("Blackout") auf Grund eines Systemversagens scheint nur mehr eine Frage der Zeit zu sein.
Kleine Ursache, große Wirkung
In hoch vernetzten Systemen können kleine Ursachen verheerende Auswirkungen auslösen. So gibt es etwa noch immer die Nachwirkungen der amerikanischen Immobilienkrise 2007. Nachdem die Ursachen nicht behoben wurden, ist davon auszugehen, dass die nachfolgenden Krisen noch heftiger ausfallen werden [→ Vernetzung und Lebensfähigkeit]. Die Wechselwirkungen des hoch vernetzten Finanzsystems wurden und werden dabei vielfach unterschätzt.
Alle großen Blackouts der vergangenen Jahre (außerhalb Europas) wurden durch die Kumulation mehrerer kleiner Ereignisse zum falschen Zeitpunkt ausgelöst. Europa ist bisher davon verschont geblieben, was aber leider keine Garantie für die Zukunft ist [→ Truthahn-Illusion, → Vernetzung und Lebensfähigkeit].
Ein sehr plastisches Beispiel sind auch Lawinen. Diese werden durch kleine Störungen ausgelöst. Durch selbstverstärkende Rückkoppelungen entsteht die verheerende und gleichzeitig irreversible Wirkung.
Natürlich gibt es auch positive Beispiele für kleine Ursache, große Wirkung. Etwa die zufällige Entdeckung von Penizillin, die massive Auswirkungen auf die Mortalität hatte. Ebenso kann hier das Pareto-Prinzip herangezogen werden. Die 80-zu-20-Regel besagt, dass 80 Prozent der Ergebnisse mit 20 Prozent des Gesamtaufwandes erreicht werden. Die verbleibenden 20 Prozent der Ergebnisse benötigen mit 80 Prozent den überwiegenden Aufwand.
Evolutionäre Prägungen
Bei menschlichen Handlungen spielen immer evolutionär geprägte Muster eine Rolle. So neigen wir etwa dazu, lieber kurzfristige Erfolge als einen langfristigen Mehrwert in Kauf zu nehmen. In der Psychologie wird dafür der Begriff "Belohnungsaufschub" verwendet. Dabei wird auf eine unmittelbare (anstrengungslose) Belohnung zu Gunsten einer größeren Belohnung in der Zukunft verzichtet, die allerdings entweder erst durch Warten oder durch vorherige Anstrengung erlangt werden kann. Dieses Phänomen kann heute in vielen Bereichen, etwa bei politischen Entscheidungen, beobachtet werden [→ Kurzfristiger Aktionismus versus langfristige Ziele]. Was evolutionär durchaus Sinn gemacht hat, stellt heute häufig einen langfristigen Nachteil dar.
Eine andere Prägung ist, dass beim Tod einer großen Gruppe viel mehr Betroffenheit entsteht, als wenn die gleiche Anzahl von Personen verteilt stirbt. Auch das ist historisch nachvollziehbar, bedrohte der Tod einer größeren Gruppe einer Sippe doch die Überlebensfähigkeit der ganzen Sippe. Das gilt heute nicht mehr. Dennoch reagieren wir nach wie vor nach diesem Muster. So kamen etwa auf amerikanischen Straßen im Jahr 2002 rund 1.500 Menschen mehr ums Leben als in den Jahren zuvor. Viele Menschen fürchteten sich nach 9/11 vor dem Fliegen und traten die Reise lieber mit dem Auto an. Ein fataler Irrtum. Sehr viel wurde seither auch in die (Flug-)Sicherheit investiert. Gleichzeitig haben wir jedoch zugelassen, dass in den letzten Jahren unsere Gesellschaft im infrastrukturellen Bereich um ein Vielfaches verwundbarer geworden ist.
Durch den Klimawandel sind auch in unseren Breiten in Zukunft verstärkt längere Hitzephasen zu erwarten. Bisherige Auswertungen haben ergeben, dass es während solcher Hitzewelle zu einem massiven Anstieg der Mortalität kommt. In den letzten 50 Jahren gab es in Europa mehr Todesopfer infolge von Hitzewellen, als durch alle anderen Katastrophenereignisse zusammen. Gleichzeitig gibt es dazu aber kaum ein öffentliches Bewusstsein. Dies ist wohl auch darauf zurückzuführen, dass kein Einzelereignis zum Massenanfall führt, sondern dass es sich um einen "schleichenden" Prozess handelt, wo noch dazu die Todesursache nicht immer eindeutig einer Ursache zuordenbar ist [→ Einfaches Ursache-Wirkungsdenken].
Zum anderen führen Durchschnittswerte zu falschen Erwartungen, wie etwa beim Anstieg der globalen Erderwärmung in Folge des Klimawandels. Viel wesentlicher sind die erwartbaren Varianzen (beispielsweise Extremwetterereignisse), die sich besonders auf lokaler Ebene auswirken und auch die erforderlichen Bewältigungskapazitäten betrifft. Durchschnittswerte vermitteln im generellen einen falschen Eindruck und verleiten zu falschen Schlüssen.
Ein generelles Problem ist auch, dass wir uns zu stark auf das konzentrieren, was wir bereits wissen und weniger auf die Vorsorge, wie dies etwa der Autor Nassim Taleb zum Ausdruck brachte: "Wir neigen dazu, nicht das Allgemeine zu lernen, sondern das Präzise. Wir lernen keine Regeln, sondern nur Fakten. Jeder weiß, dass wir mehr Vorbeugung als Behandlung brauchen, doch kaum jemand belohnt Vorbeugungsmaßnahmen. Wir glorifizieren jene, deren Namen in die Geschichtsbücher eingegangen sind, auf Kosten derjenigen, über die unsere Bücher schweigen."
Mangelnde Systembetrachtung
Allen Szenarien ist gemein, dass die Basis dieser Entwicklungen auf die mangelnde Systembetrachtung und -berücksichtigung zurückzuführen ist. Wir agieren in vielen Bereichen noch so, als gebe es keine Vernetzung und man könnte die einzelnen Bereiche isoliert betrachten ("Silodenken").
Dieser Irrtum wurde etwa 2013 im Rahmen des europäischen Programms zum Schutz kritischer Infrastrukturen (EPCIP) eingestanden: "The review process of the current European Programme for Critical Infrastructure Protection (EPCIP), conducted in close cooperation with the Member States and other stakeholders, revealed that there has not been enough consideration of the links [unsichtbare Fäden] between critical infrastructures in different sectors, nor indeed across national boundaries. The studies indicate that risk assessment methodologies for CIP follow either: 1) a sectoral approach, where each sector is treated separately with its own risk methodologies and risk ranking; or 2) a systems approach, where critical infrastructures are treated as an interconnected network. Most work has been sectoral, but these methodologies show their limits when cross-sectoral issues need to be addressed, so a systems approach will be encouraged by the Commission from now on."
Das Umdenken und neue Handeln benötigt aber Zeit. Zeit, die wir in vielen Bereichen nicht haben, da die Entwicklungen mit den potenziellen negativen Auswirkungen ungebremst voranschreiten. Dennoch müssen wir damit beginnen.
Systemisches Denken
Damit schließt sich der Kreis zum linearen Denken. Albert Einstein wird gerne mit dem folgenden Satz zitiert: "Probleme kann man niemals mit derselben Denkweise lösen, durch die sie entstanden sind." Daher sind aktuelle und zukünftige Herausforderungen, wie etwa der Klimawandel, Technikkatastrophen ("man-made disaster"), Finanzkrisen, Lebensmittelkrisen, Antibiotikaresistenzen, Terrorismus, Hungersnöte, Naturkatastrophen, Pandemien oder Ressourcenverknappung nicht alleine mit dem bisherigen – vergangenheits- und erfahrungsbasierten – Denken zu lösen.
Die "Steuerung" vernetzter Systeme erfordert ebenso vernetztes Denken und Handeln, also systemisches Denken. Dabei müssen wir uns von der Vorstellung der Steuerbar- und Kontrollierbarkeit, wie dies bei Maschinen möglich ist, verabschieden. Das funktioniert bei komplexen, offenen Systemen nicht. Nur wenn wir das akzeptieren können, können wir lernen, mit den neuen Herausforderungen und den damit verbundenen Risiken umzugehen.
Abbildung 11: Ein Paradigmenwechsel in der Sicherheitsbetrachtung ist erforderlich [Quelle: Eigene Darstellung]
Systemisches Denken hilft, das Wesentliche eines Systems, die Wirkungsgefüge und Wechselwirkungen, zu erkennen. Dabei geht es nicht mehr um die Konzentration auf das Wesentliche, sondern um die Erfassung des ganzen Musters (vgl. Abbildung 11). Darüber hinaus muss die Aufmerksamkeit auf Entwicklungen und nicht auf Zustände gelegt werden. Denn Zustände ändern sich in dynamischen Systemen häufig.
Systemisches Denken und Anpassungsfähigkeit bedeutet auch, zu erkennen, welches Wissen nicht mehr relevant ist und daher besser wieder vergessen werden sollte. Gerade in Zeiten von großen Umbrüche und Systemänderungen, wie wir sie gerade durch die Transformation zur Netzwerkgesellschaft erleben, ist verlernen fast wichtiger als lernen. Denn erst dadurch werden Ressourcen frei, um neue Pfade einzuschlagen zu können. Siehe hier einmal mehr Kodak oder Nokia als mahnende Beispiele.
Der Begriff Resilienz bedeutet dabei weniger "Widerstandsfähigkeit", wie das gerne übersetzt wird. Es geht vielmehr um die Lern- und Anpassungsfähigkeit, was wiederum Offenheit für Neues voraussetzt. Was wir derzeit aber viel häufiger erleben ist, dass wir mit allen Mitteln und Möglichkeiten Altes und durchaus Bewährtes aufrechtzuerhalten versuchen. Wenn aber die Rahmenbedingungen nicht mehr dazu passen, dann ist der Schiffsbruch vorprogrammiert. Wenn wir mit den Entwicklungen mithalten wollen, dann müssen wir uns auch trauen, Dinge völlig neu und radikal anders zu denken.
Effizienz – die Dinge richtig tun – so wie wir das heute betreiben steht im Widerspruch zu Robustheit und Resilienz, da unnötige Redundanzen und Reserven unerwünscht sind [→ Strategische Schocks]. Eigentlich müssten wir uns daher die Frage der Effektivität, also ob wir die richtigen Dinge tun bzw. Ziele verfolgen, stellen [→ Wachstumsparadigma].
Sowohl-als-auch
Daher ist ein "Sowohl-als-auch-Denken" erforderlich. Die technische Vernetzung hat der Menschheit viele positive Errungenschaften gebracht. Leider neigen wir dazu, diese Seite überzubewerten und die möglichen Schattenseiten bis zum Eintritt zu ignorieren. Unser abendländisches "Entweder-oder-Denken" ist binär. Gut und schlecht, warm und kalt, trocken und heiß, gesund und krank, arm und reich, und so weiter. Die Betonung liegt auf "und", nicht etwa auf "oder". Dieser Aspekt steht uns häufig im Weg. Damit werden auch viele Handlungsspielräume eingeschränkt. Mit einem "Sowohl-als-auch-Denken" lässt sich die Realität leichter abbilden. Sie ist nicht nur schwarz/weiß, sondern es gibt viele Graustufen dazwischen, wenngleich die Pole eine wichtige Rolle spielen und sich gegenseitig bedingen. Daher sollte es selbstverständlich sein, dass jede Sonnenseite auch eine Schattenseite hat.
Damit kann man auch mit den im Alltag immer vorhandenen Widersprüchen und Ambivalenzen besser umgehen. Diese lassen sich nämlich häufig nicht auflösen, beziehungsweise führt das meistens nur zu Scheinlösungen.
Systemdesign
Auch in der Natur wird nicht versucht, Störungen auszuschalten, sondern diese werden in den Ablauf eingebunden (vgl. Abbildung 12). Fehlerfreundlichkeit/Fehlertoleranz ist neben der Energie- und Ressourcenbedarfssenkung sowie Dezentralität und dezentrale Steuerung durch Rückkoppelungsschleifen ein wesentlicher Aspekt, um ein robustes, lebensfähiges System zu gestalten. Damit können Abhängigkeiten deutlich reduziert und die Widerstandsfähigkeit ("Resilienz") des Systems erhöht werden. Kein Fehler im System darf sich auf das gesamte System negativ auswirken können.
Abbildung 12: Die Natur baut Störungen in den Ablauf ein und verhindert sie nicht
Zellulare Strukturen und Regelkreise, wie sie etwa bereits in der Automatisationstechnik zum Einsatz kommen, sind hier gefragt. Viele derzeitige Konzepte, wie die massive Erhöhung der zentralisierten Vernetzung (Stichwort: Smart), widersprechen diesem Ansatz und führen zu einer unkalkulierbaren Verwundbarkeit.
Auch die (Macht)Konzentration auf immer weniger große Akteure [→ Too-big-to-fail] erhöht die gesellschaftliche Verwundbarkeit und das Missbrauchspotential. Ein millionenfach repliziertes Facebook wäre zwar nicht ganz so effizient, würde aber das Missbrauchs- oder Überwachungspotential drastisch reduzieren und gleichzeitig das Nutzenpotential nicht wesentlich einschränkten, da in der Regel der Freundeskreis doch recht regional verortet ist. Zudem würde ja die Interaktion mit anderen Plattformen nicht unterbunden.
Dennoch werden wir auch in Zukunft lineares, logisches, rationales, analytisches oder fachspezifisches Denken für dafür geeignete Prozesse und Technologien benötigen. Aber wir brauchen zusätzlich immer mehr Menschen, die das ganze System überblicken und mögliche Fehlentwicklungen erkennen können. Denn die bisher durchaus sehr erfolgreiche Denkweise eignet sich nur für die Lösung von Problemen in komplizierten Systemen ("Maschinen") [→ Cynefin-Modell]. Werden sie zur Steuerung von komplexen Systemen verwendet, führen sie zu unerwünschten oder häufig sogar zu schmerzhaften Neben- und Folgewirkungen.
Je größer das System wird, desto schwieriger wird die Realisierung. Daher müssen die in diesem Beitrag (nicht vollzählig) aufgezählten Aspekte bereits im Systemdesign einfließen.
Natürlich wäre es eine Utopie anzunehmen, dass sich das einfach und per Top-Down-Anordnung umsetzen ließe, was sogar der Natur komplexer Systeme widersprechen würde. Daher geht es darum, dieses Wissen möglichst breit zu streuen, damit es in möglichst vielen Bereichen einfließen kann und die Selbstorganisationsfähigkeit komplexer Systeme, wie es auch unsere Gesellschaft eines ist, zu mobilisieren. Dazu gehört etwa auch wieder die stärkere Übernahme von Eigenverantwortung. Diese Fähigkeiten werden wir in turbulenten Zeiten dringend benötigen. Von der Natur wissen wir, dass sich evolutionäre Veränderungen aus vielen kleinen Puzzleteilen entwickeln. Diese fügen sich zum richtigen und nicht vorhersehbaren Zeitpunkt ohne zentrale Steuerung zusammen. Es gibt keinen großen Plan. Alle Versuche der zentralen Steuerung sind bisher im wahrsten Sinne des Wortes brutal gescheitert.
Auslöser für fundamentale Änderungen sind meist große Brüche oder Krisen. Nicht von ungefähr bieten Krisen auch immer Chancen, eingetretene Pfade zu verlassen und neue Wege zu gehen. In der Vergangenheit waren derartige Krisen häufig mit Kriegen verbunden. Wir hätten heute das Wissen und die Fähigkeiten, eine evolutionäre Weiterentwicklung auch ohne schmerzhafte Zerstörungen voranzutreiben.
Bereits heute können wir uns auf turbulente Zeiten einstellen und uns vorbereiten, indem wir möglichst viele Puzzleteile gestalten. So sollten wir beispielsweise damit beginnen, das Systemdesign unserer Kritischen Infrastruktur zu überdenken. Bis hin zur Erhöhung der gesamtgesellschaftlichen Resilienz, indem die Bevölkerung wieder als aktives Systemelement gesehen und die Selbsthilfe- und Selbstorganisationsfähigkeit gestärkt wird. Viele kleine Aktivitäten, wie etwa der Wunsch nach regionalen Produkten und Wertschöpfung, einer dezentralen Energieversorgung aus erneuerbaren Energiequellen, Urban Gardening ("der Garten in der Stadt") oder Komplementärwährungen sind Anzeichen dafür, dass Veränderungen bereits bottom-up begonnen haben. Bottom-up bedeutet dabei, dass Menschen aus eigener Überzeugung von sich aus tätig werden und einen Veränderungsprozess anstoßen, der keinem Masterplan folgt und daher nur bedingt steuerbar ist. Gerade die unausweichliche Energiewende führt zu einer massiven Machtverschiebung. Dass derartige Entwicklungen nicht reibungslos von sich gehen werden, ist selbstsprechend. Besonders gefährlich ist dabei der derzeit eingeschlagene Weg, wie das grundsätzlich dezentrale System der erneuerbaren Energieversorgung in das bisher zentrale System der Energieversorgung integriert wird. Die Energiewende bedeutet weit mehr als nur die dezentrale Stromerzeugung, wie sie derzeit vorwiegend verfolgt wird. Sie erfordert einen Kulturwandel, um die bestehende Komplexitätslücke wieder zu minimieren. Daher ist gerade in diesem Bereich ein Plan B – was machen wir, wenn das System die Eingriffe nicht mehr verträgt und es zu einem temporären Systemkollaps kommt – unverzichtbar. Einen solchen gibt es derzeit jedoch nicht. Was wiederum auf unser lineares Denken und auf die Truthahn-Illusion (vgl. Abbildung 7) zurückzuführen ist.
Kognitive Grenzen
Aus Studien ist bekannt, dass unser Hirn bei maximal drei bis vier miteinander vernetzten Faktoren die Wechselwirkungen erfassen kann und dann an kognitive Grenzen stößt. Das hängt etwa auch mit den exponentiell ansteigenden Wechselwirkungen zusammen. Gleichzeitig versuchen wir aber weiterhin die durch Vernetzung entstehende Komplexität mit unseren bisherigen linearen Denkweisen und Lösungsansätzen zu steuern.
Visualisierung
Eine Möglichkeit mit diesen kognitiven Grenzen besser umgehen zu lernen besteht in der Visualisierung bzw. Ursache-Wirkungsmodellierung. Dabei handelt sich vordergründig um ein Kommunikationsinstrument, das allen Beteiligten die Zusammenhänge und mögliche Wechselwirkungen (Wirkungszusammenhänge) besser vor Augen führen. Ein Modell wird umso besser, je mehr unterschiedliche und auch widersprüchliche Blickwinkel enthalten sind. Dabei muss Bewusst sein, dass ein Modell nicht die Realität, sondern nur ein vereinfachtes Abbild dieser darstellt, ähnlich wie eine Landkarte nur ein vereinfachtes Modell des Geländes ist und zur Orientierung dient. Zudem ist bei komplexen Situationen nie eine vollständige Berechenbarkeit, sondern immer nur eine Annäherung möglich.
Hinzu kommt, dass Menschen grundsätzlich auf der Suche nach Mustern bzw. nach Erfahrungen aus der Vergangenheit sind, die bei der Bewältigung der aktuellen Situation helfen sollen. Das funktioniert bei bekannten Situationen sehr gut, stößt aber immer dann an Grenzen, wenn es sich um eine neuartige Situation handelt, etwa wie bei den Auswirkungen der Komplexitätsentwicklungen.
Auch bei der Modellierung wird man bei Unbekannten oder bei Unsicherheiten auf das bestehende Bauchgefühl zurückgreifen. Durch die transparente Darstellung und Diskussion können jedoch Schwachstellen bzw. auch Stärken besser erkannt werden, was beim reinen "Gefühl" einer Person oder Personengruppe meist nicht möglich ist. Zudem kann das Modell jederzeit mit neuen Erkenntnissen weiterentwickelt und angepasst werden. Insgesamt geht es dabei weniger um fertige Erklärungen, als vielmehr um neue Möglichkeiten zum Erfassen sinnvoller Erklärungen.
Eine solche Vorgangsweise unterstützt beispielsweise die Software iModeler, der speziell zur Förderung von vernetztem Denken entwickelt wurde und einfach und intuitiv zu bedienen ist.
Abbildung 13 stellt ein solches Wirkungsdiagramm dar, das den Zusammenhang zwischen technischen Sicherheitsmaßnahmen und der abnehmenden Information (Bewusstsein) über mögliche Risiken aufzeigt. Die roten Schleifen (-: mehr führt zu weniger; +: mehr führt zu mehr) Technische Sicherheitsmaßnahmen → Information über Risiko (Bedrohung) → Betroffene Menschen und Güter → Technische Sicherheitsmaßnahmen sowie Betroffene Menschen und Güter → Technische Sicherheitsmaßnahmen → Risiko kleiner Katastrophen → Betroffene Menschen und Güter sind selbstverstärkend. Die Schleife Technische Sicherheitsmaßnahmen → Risiko kleiner Katastrophen → Technische Sicherheitsmaßnahmen ist ausgleichend.
Abbildung 13: Beispiel Wirkungsdiagramm [Quelle: Eigene Darstellung in Anlehnung an Ossimitz et al. 2006]
Hier wirken sowohl die real verringerte Gefahr von kleinen Katastrophen (etwa Überschwemmungen) als auch die Scheinsicherheit (die vermeintliche Abwesenheit von Gefahr durch fehlende Information) kontraproduktiv. Die Risikowahrnehmung sinkt und damit steigt die Risikobereitschaft, etwa in potentielle Überflutungsgebiete zu bauen. Kommt es zu einer großen Katastrophe, steigt der Schaden unverhältnismäßig, auch weil die Menschen nicht darauf vorbereitet sind. Diesem "Teufelskreis" kann man nur entgegenwirken, indem man mit dem Risiko bewusst umgeht und möglicherweise erforderliche Verhaltensweisen auch immer wieder übt.
Eine weitere Visualisierung wurde mit dem Faktor "Systemsicherheit" und den ihn diesem Beitrag dargestellten Faktoren erstellt (vgl. Abbildung 14).
Macht allein Schaden klug?
In der bisherigen Menschheitsgeschichte war es durchaus üblich, dass Menschen aus "Versuch und Irrtum" klüger wurden. Das war auch insofern möglich, als dass die damit verbundenen Schäden lokal/regional begrenzbar waren bzw. die Schädigung von Individuen in Kauf genommen wurden. In einer zunehmend vernetzten Welt und durch neue Technologien (etwa Gen- oder Nanotechnologie) können sich Schäden wesentlich rascher bzw. weitreichender ausbreiten. Darüber hinaus sind menschliche Verluste in einer auf höchstmögliche Sicherheit fixierten Gesellschaft moralisch nicht mehr zu rechtfertigen. Das Modell "Versuch und Irrtum" erscheint daher unter den heutigen Rahmenbedingungen nur eingeschränkt zukunftsfähig zu sein.
Abbildung 14 - Visualisierung des Faktors Systemsicherheit [Quelle: Eigene Darstellung]
Kommunikation
Kommunikation ist daher ein Schlüsselfaktor, um mit komplexen Situationen umgehen zu können. Erst die Zusammenführung von verschiedenen Blickwinkeln und Kompetenzen ermöglicht die Bildung eines umfassenden Bildes. Diese Kommunikation muss auf Augenhöhe passieren, wo bisherige hierarchische Strukturen und lineares Denken leicht ein Stolperstein ist. Diese flachen und agilen Strukturen sind es auch, die Start-ups ausmachen. Aber das kann man nicht anordnen, sondern das muss wachsen und zur gelebten Kultur werden. Aber auch hier geht es wieder häufig um ein sowohl-als-auch und nicht um die Universallösung, die für alles und jede Situation passt.
Cynefin-Modell
Zum Abschluss sei hier noch auf eine gute und einfache Unterscheidungsmöglichkeit zwischen komplizierten und komplexen Systemen verwiesen, dem Cynefin-Modell. Kurz umschrieben, alles was lebendig ist, ist komplex. Alles was tot ist, ist kompliziert und kann analysiert werden.
Abbildung 15 - Cynefin-Modell [Quelle: www.wandelweb.de]
Abbildung 16 - Cynefin-Modell [Quelle: www.wandelweb.de]
Und damit wären wir wieder beim Einstieg in den Beitrag. Denn die "Na'vi's" auf "Pandora" nahmen die Komplexität ihres natürlichen Lebensraums an, agierten in ihm sowie mit ihm und wussten sich auf Veränderungen einzustellen – nicht linear. Denn sie konnten sich flexibel an die neuen Lebensbedingungen anpassen, auch dank ihrer ausgeprägten Selbsthilfe- und Selbstorganisationsfähigkeit. Davon können wir lernen. Tun wir es.
Quellenverzeichnis sowie weiterführende Literaturhinweise:
- Beck, Ulrich: Weltrisikogesellschaft: Auf der Suche nach der verlorenen Sicherheit. Frankfurt am Main: Suhrkamp 2008
- Casti, John: Der plötzliche Kollaps von allem: Wie extreme Ereignisse unsere Zukunft zerstören können. München: Piper Verlag GmbH, 2012
- Dörner, Dietrich. Die Logik des Misslingens: Strategisches Denken in komplexen Situationen. Reinbeck bei Hamburg: Rowohlt Verlag, 201110
- Dueck, Gunter: Schwarmdumm: So blöd sind wir nur gemeinsam. Frankfurt am Main: Campus 2015
- Dueck, Gunter: Verständigung im Turm zu Babel: Über Multi-Channel-Kommunikation und proaktives Zuhören. Frankfurt/New York: Campus Verlag 2013
- Dueck, Gunter: Aufbrechen! Warum wir eine Exzellenzgesellschaft werden müssen. Frankfurt am Main: Eichborn, 2010
- Deutscher Bundestag (Hrsg.): Unterrichtung durch die Bundesregierung: Bericht zur Risikoanalyse im Bevölkerungsschutz 2014. In: Internet unter URL: dip21.bundestag.de/dip21/btd/18/036/1803682.pdf [14.09.17]
- Europäische Kommission: Commission staff working document on a new approach to the European Programme for Critical Infrastructure Protection. Brüssel, 2013 unter URL: ec.europa.eu/energy/infrastructure/doc/critical/20130828_epcip_commission_staff_working_document.pdf [14.09.17]
- Frey Ulrich, Frey Johannes: Fallstricke: Die häufigsten Denkfehler in Alltag und Wissenschaft. München: C.H. Beck oHG, 20113
- Giebel, Daniela: Integrierte Sicherheitskommunikation: Zur Herausbildung von Unsicherheitsbewältigungskompetenzen durch und in Sicherheitskommunikation. Münster: LIT Verlag, 2012
- Gigerenzer, Gerd. Risiko: Wie man die richtigen Entscheidungen trifft. München: C. Bertelsmann, 2013
- Graeme, S. Halford/Baker, Rosemary/McCredden, Julie E./Bain, John D.: How Many Variables Can Humans Process? In: Internet unter URL: pss.sagepub.com/content/16/1/70.abstract [14.09.17]
- Grüter, Thomas. Offline!: Das unvermeidliche Ende des Internets und der Untergang der Informationsgesellschaft. Heidelberg: Springer-Verlag, 2013
- Klingholz, Reiner: Sklaven des Wachstums - die Geschichte einer Befreiung. Frankfurt: Campus Verlag, 2014
- Krizanits, Joana. Einführung in die Methoden der systemischen Organisationsberatung. Heidelberg: Carl-Auer Verlag, 2013
- Kruse, Peter. next practice: Erfolgreiches Management von Instabilität. Offenbach: Gabal Verlag GmbH, 20116
- Langner, Ralph: Robust Control System Networks/How to achieve reliable control after Stuxnet. New York: Momentum Press, 2012
- Malik, Fredmund: Strategie: Navigieren in der Komplexität der Neuen Welt. Frankfurt am Main: Campus Verlag GmbH, 2011
- Neumann, Kai: KNOW-WHY: Erfolg durch Begreifen. Norderstedt: Books on Demand, 20132
- Ossimitz, Günther/Lapp, Christian. Systeme: Denken und Handeln; Das Metanoia-Prinzip: Eine Einführung in systemisches Denken und Handeln. Berlin: Franzbecker, 2006
- Renn, Ortwin: Das Risikoparadox: Warum wir uns vor dem Falschen fürchten. Frankfurt am Main: Fischer Verlag, 2014
- Romeike, Frank/Spitzner, Jan: Von Szenarioanalyse bis Wargaming - Betriebswirtschaftliche Simulationen im Praxiseinsatz, Wiley Verlag, Weinheim 2013.
- Romeike, Frank/Hager, Peter: Erfolgsfaktor Risikomanagement 3.0: Lessons learned, Methoden, Checklisten und Implementierung, 3. komplett überarbeitete Auflage, Springer Verlag, Wiesbaden 2013.
- Saurugg, Herbert: Die Netzwerkgesellschaft und Krisenmanagement 2.0. Wien-Budapest, 2012a, unter URL: www.saurugg.net/wp/wp-content/uploads/2014/10/die_netzwerkgesellschaft_und_krisenmanagement_2.0.pdf [14.09.17]
- Saurugg, Herbert: Blackout - Eine nationale Herausforderung bereits vor der Krise. 2012b unter URL: www.saurugg.net/wp/wp-content/uploads/2014/10/Blackout-Eine-nationale-Herausforderung-bereits-vor-der-Krise.pdf [14.09.17]
- Scheer, Hermann: 100% jetzt: der energethische Imperativ: Wie der vollständige Wechsel zu erneuerbaren Energien zu realisieren ist. München: Verlag Antje Kunstmann, 2012
- Taleb, Nassim Nicholas/Read, Rupert/Douady, Raphael/Yaneer Bar-Yam, Joseph Norman: The Precautionary Principle (with Application to the Genetic Modification of Organisms). In: Internet unter URL: arxiv.org/abs/1410.5787 [14.09.17]
- Taleb, Nassim Nicholas. Antifragilität: Anleitung für eine Welt, die wir nicht verstehen. München: Albrecht Knaus Verlag, 2013a
- Taleb, Nassim Nicholas. Der Schwarze Schwan: Die Macht höchst unwahrscheinlicher Ereignisse. München: dtv, 2013b5
- Taleb, Nassim Nicholas: Der Schwarze Schwan: Konsequenzen aus der Krise. München: dtv, 2012
- Vester, Frederic. Die Kunst vernetzt zu denken: Ideen und Werkzeuge für einen neuen Umgang mit Komplexität. Ein Bericht an den Club of Rome. München: Deutscher Taschenbuch Verlag, 20118
- Völkl, Kurt/Wallner, Heinz Peter: Das innere Spiel: Wie Entscheidung und Veränderung spielerisch gelingen. Göttingen: Business Village GmbH, 2013
- WHO: WHO’s first global report on antibiotic resistance reveals serious, worldwide threat to public health. Unter URL: www.who.int/mediacentre/news/releases/2014/amr-report/en/ [14.09.17]
- Zurich Insurance Company Ltd and Atlantic Council of the United States: Beyond data breaches: global interconnections of cyber risk. 2014 unter URL: www.atlanticcouncil.org/images/publications/Zurich_Cyber_Risk_April_2014.pdf [14.09.17]
Autoren:
Herbert Saurugg ist anerkannter Experte für die Vorbereitung auf den Ausfall lebenswichtiger Infrastrukturen.
Er war 15 Jahre Berufsoffizier des Österreichischen Bundesheeres, zuletzt im Bereich IKT-/ Cyber-Sicherheit. Seit 2012 beschäftigt er sich mit den möglichen Folgen der steigenden Vernetzung und Komplexität, insbesondere mit dem europäischen Stromversorgungssystem sowie einem europaweiten Strom- und Infrastrukturausfall ("Blackout").
Frank Romeike ist Gründer, Geschäftsführer und Eigentümer des Kompetenzzentrums RiskNET GmbH – The Risk Management Network. Er zählt international zu den renommiertesten und führenden Experten für Risiko- und Chancenmanagement. In seiner beruflichen Vergangenheit war er Chief Risk Officer bei der IBM Central Europe, wo er u. a. an der Einführung des weltweiten Risk-Management-Prozesses der IBM beteiligt war und mehrere internationale Projekte leitete. Er hat u. a. ein wirtschaftswissenschaftliches Studium (mit Schwerpunkt Versicherungsmathematik) in Köln und Norwich/UK abgeschlossen. Im Anschluss hat er Politikwissenschaften, Psychologie und Philosophie studiert. Außerdem hat er ein exekutives Masterstudium im Bereich Risiko- und Compliancemanagement abgeschlossen.