Das Orakel von Delphi, ein Kult-Ort voller Mythen, an dem sich das Dasein der Menschen mit der Welt der Götter verknüpfte, war der Mittelpunkt des antiken Griechenlands. Alles was zu jener Zeit Rang und Namen hatte bemühte das Orakel um Prophezeiung – vom König von Theben über Krösus bis Alexander dem Großen. Schon zu Orakelzeiten ein sagenumwobener Ort, der auch heute noch seine Anziehungskraft hat. Denn Zukunftsprognosen sind so alt wie die Menschheit und haben nichts von ihrer Faszination verloren. In der Tat wäre das Orakel von Delphi und an anderen Orten auch in unseren turbulenten Zeiten gut besucht. Würden Politiker, Wissenschaftler und Manager in die Zukunft blicken wollen, um Rat fragen und Handlungsempfehlungen mit auf ihre Rückreise und in ihre Büros nehmen. Andererseits geht das heute einfacher, ohne beschwerliche Reisen und Zeitverlust.
Von alten Orakeln und falschen Interpretationen
Wenn in der Antike die Griechen, Chinesen oder Ägypter eine Vorhersage über mögliche Ereignisse von Morgen suchten, berieten sie sich nicht mit ihrem Risikomanager, sondern wandten sich an ihre Orakel. So sprach beispielsweise Apollon, in der griechischen und römischen Mythologie unter anderem der Gott der Weissagung, der sittlichen Reinheit und Mäßigung sowie der Künste, regelmäßig durch seine Priesterin Pythia. Er erfüllte sie mit seiner hellseherischen Weisheit. Die Priesterin saß angeblich auf einem Dreifuß über einer Erdspalte. Der Überlieferung nach stiegen aus dieser Erdspalte Dämpfe, die die Pythia in einen Trancezustand versetzten (wissenschaftlich betrachtet ist diese Version allerdings eher unwahrscheinlich: Archäologen und Geologen haben nie eine Felsspalte unter dem Tempel gefunden und keine Erklärung für die Existenz solcher Dämpfe).
Es wird berichtet, dass beispielsweise Krösus, der letzte König von Lydien (* um 591/590 v. Chr., † um 541 v. Chr.), ein großer Anhänger der transzendenten Offenbarung war, um so Unterstützung bei der Beantwortung von Zukunfts- oder Entscheidungsfragen zu erhalten. Krösus überließ hierbei nichts dem Zufall, sondern unterzog die damals bekannten Orakelstätten (Abai, Delphi, Dodona, Amphiaraos, Ammon) einem Test. Die von ihm ausgesandten Boten stellten genau am hundertsten Tag nach ihrer Abreise die Frage, womit sich Krösus gerade beschäftigt. Nur die Pythia zu Delphi lieferte die richtige Antwort: Krösus bereite sich gerade eine Schildkröte und Lammfleisch in einem Kessel zu. Der eigentliche Hintergrund der Prüfung lag für den Lyderkönig in einer strategischen Frage: Wie hoch war die Wahrscheinlichkeit eines Sieges für den Fall eines Krieges gegen das Perserreich. Die Pythia orakelte, ein großes Reich werde versinken, wenn er den Grenzfluss Halys überquere. Diese Prophezeiung soll der Lyderkönig in einem für ihn positiven Sinn aufgefasst haben und zog wohlgemut in den Krieg. Heute würde Krösus möglicherweise digitale Informationen aus der Welt von "Big Data" auswerten lassen.
Von modernen Orakeln und der Goldgräberstimmung
Die modernen Orakel unserer digitalen und vernetzten Zeit heißen Big Data und Datenanalysen. Datensammler wie Google und Amazon vermessen die Welt, erstellen Persönlichkeitsprofile und durchforsten blitzschnell riesige Datenmengen auf Muster und Korrelationen, um Voraussagen in Echtzeit zu ermöglichen. Sie erlauben einen gezielten Blick in die Kristallkugel. Davon versprechen sich Staaten, Forschungseinrichtungen und Wirtschaftsunternehmen exakte Voraussagen, um die Risiken des eigenen Tuns zu minimieren und Chancen des zukünftigen Handelns besser einschätzen zu können. Mehr noch geht es darum, das Wissen in Organisationen strukturiert zu nutzen. Insgesamt surfen rund 3,2 Milliarden Menschen im Internet und produzieren permanent Daten über ihre Mobiltelefone, Fitnessbänder, smarte Uhren, vernetzte Navigationsgeräte und Autos. Online-Versandhändler kennen unsere geheimen Wünsche besser als wir selber. Aus Twitter-Nachrichten lassen sich politische Einstellungen sehr gut ableiten. Aus Daten und Algorithmen lassen sich potenzielle Straftaten antizipieren, bevor sie überhaupt geplant oder begangen wurden.
Experten schätzen, dass das weltweite Datenvolumen von heute rund 8.500 Exabyte auf 40.000 Exabyte ansteigen wird. Ein Exabyte steht dabei für eine Trillion (1018) Bytes, eine Milliarde Gigabyte, eine Million Terabyte, Tausend Petabyte. Kurzum: Der Daten-Tsunami rollt. Es steckt viel Potenzial in den Datenmengen. Diese Daten müssen vielen Vergleichen standhalten und werden als das neue Öl, Gold oder gar die Diamanten unserer Zeit beschrieben. Und diese Goldgräberstimmung wollen auch Unternehmen für sich nutzen.
Big-Data-Methoden: Zielgruppen, Risikoanalysen und -steuerung
Analytics-Verfahren werden immer beliebter. Einer der Hauptgründe liegt darin, Zusammenhänge zu erkennen, Prognosen abzuleiten und diese für Entscheidungen zu nutzen, am liebsten in Echtzeit. Zudem sind sie ein wesentlicher Faktor für die Digitalisierung kompletter Geschäftsprozesse. Für das Fraunhofer Institut liefert Big Data für Business Intelligence (BI) und Business Analytics (BA) neue Möglichkeiten, um spezifische Muster und Zusammenhänge in Datenbeständen zu erkenn und mögliche Trends vorherzusagen [vgl. Fraunhofer 2015]. In diesem Kontext steht das Ergebnis einer Studie "Potenziale und Einsatz von Big Data" des Digitalverbands Bitkom [vgl. Bitkom 2014]. Demnach sehen 48 Prozent der Unternehmen das größte Potenzial von Big Data darin, Entscheidungsgrundlagen zu ergänzen sowie für Trendanalysen (39 Prozent) und dem Aufbau von Prognose- und Frühwarnsystemen (37 Prozent). Die "Deutsche Bank Research" bewertet Big Data als einen volkswirtschaftlich relevanten Produktions-, Wettbewerbs- und somit Wachstumsfaktor. Und die Analysten schlussfolgern: "Moderne Analysetechnologien halten Einzug in sämtliche Lebensbereiche und verändern den Alltag." [vgl. Deutsche Bank Research 2014].
Das wissen beispielsweise die Entscheider der Bank ING-Diba. Das Institut lässt große Datenmengen für das Zielgruppenmarketing durchsuchen. Darüber hinaus bieten Big-Data-Analysemethoden schnelle und detaillierte Möglichkeiten Risikoanalysen durchzuführen. Mehr noch bieten Analyseverfahren wertvolle Ansätze, um bis dato unbekannte Muster in vorhandenen Datenbeständen zu erkennen und diese für fundierte Entscheidungen im Risikomanagement zugänglich zu machen.
Abb. 01: Analytics-Reifegradmodell
Lernen aus der Vergangenheit bis zur Frühwarnung mit Predictive Analytics
Big-Data-Experten sind davon überzeugt, dass Predictive Analytics einer der wichtigsten Big-Data-Trends ist, insbesondere im Bereich Risikomanagement. Eine gute Orientierung liefert hierbei das Analytics-Reifegradmodell von Gartner. Gartner unterscheidet vier Reifegradstufen (vgl. Abb. 01):
- Bei der Descriptive Analytics geht es um die Frage "Was ist passiert?", das heißt eine Analyse von Daten aus der Vergangenheit, um potenzielle Auswirkungen auf die Gegenwart zu verstehen (siehe Business Intelligence).
- Bei Diagnostic Analytics geht es um die Frage "Warum ist etwas passiert?", das heißt eine Analyse der Ursache-Wirkungs-Beziehungen, Wechselwirkungen oder Folgen von Ereignissen (siehe Business Analytics).
- Bei Predictive Analytics geht es um die Frage "Was wird passieren?", das heißt eine Analyse potenzieller Zukunftsszenarien sowie eine Generierung von Frühwarninformationen. Basierend auf Technologien des Data Mining, statistischer Methoden und Operations-Research erfolgt eine Berechnung von Wahrscheinlichkeiten zukünftiger Ereignisse.
- Bei Prescriptive Analytics geht es um die Frage "Wie müssen wir handeln, damit ein zukünftiges Ereignis (nicht) eintritt?", das heißt im Kern werden – basierend auf den Ergebnissen von Predictive Analytics – Maßnahmen simuliert, etwa basierend auf stochastischen Szenarioanalysen sowie Sensitivitätsanalysen [vgl. Romeike 2010 und Romeike 2015].
Analysemethoden als Frühwarnsystem
Eine Studie zum Thema "Wettbewerbsfaktor Analytics" [vgl. Gronau/Weber/Fohrholz 2013] bringt die potenziellen Vorteile für Versicherer und Banken auf den Punkt: Ein Mehrwert für Versicherungen liegt in der individuellen Ansprache von Bestands- und Neukunden. Bei Banken sind die Einsatzmöglichkeiten sowohl im Privatkunden- als auch im Geschäftskundenbereich sehr vielfältig. Für sie ist das Potenzial im Bereich des Risikomanagements, insbesondere des Liquiditätsmanagements, am größten. Denn durch gezielte Analysen können zum Beispiel Kosten für kurzfristige Kredite reduziert werden [vgl. Gronau/Weber/Fohrholz 2013]. Und hierzu zählt darüber hinaus der Einsatz von Analysemethoden als Frühwarnsystem, um "schwache" Signale zu entdecken und gegenzusteuern, beispielsweise bei Marktverschiebungen, bei veränderten Kundenpräferenzen, aber auch zur Verhinderung von Wirtschaftskriminalität.
Weiterhin besitzen moderne Analysemethoden die Möglichkeit, Informationen zum Einkommen und Vermögen bis zum Bildungsstand, dem beruflichen Werdegang und aktuellen Verhaltensdaten zusammenzuführen, um sie für das Scoring und letztendlich die Kreditvergabe auszuwerten. Ziel ist unter anderem die Zahlungsmoral und -fähigkeit von Kunden vorherzusagen. Ein hochkomplexes System, das es zu beherrschen gilt. Nicht von Maschinen, sondern von Menschen, denn schlussendlich geht es um Menschen und deren Bedürfnisse.
Von steigenden Anforderungen …
Parallel zum Daten-Tsunami steigen die Anforderungen, die dahinter liegenden Gesetze und Ursache-Wirkungsbeziehungen zu verstehen. Klaus Mainzer, deutscher Philosoph und Wissenschaftstheoretiker, weist in seinem Buch "Die Berechnung der Welt" darauf hin, dass Newtons Idee des Schwerkraftgesetzes ihm nicht kam, weil er unentwegt Äpfel von Bäume fallen ließ [vgl. Mainzer 2014, S. 27]. Mit anderen Worten: Zu Bits und Bytes muss die Fähigkeit kommen, die anfallenden Daten nicht nur auszuwerten, sondern auch zu interpretieren. Banken und Versicherungen, die sich täglich mit dem Management von Risiken und Chancen auseinandersetzen, sind darauf angewiesen, aus den vorliegenden Daten die richtigen Schlüsse zu ziehen. Denn die Tatsache, dass ein Muster existiert, setzt voraus, dass dieses in der Vergangenheit entstanden ist. Dies wiederum heißt nicht zwangsläufig, dass eine Schlussfolgerung aufgrund dieses Musters auch für die Zukunft Gültigkeit besitzt.
Risikomanager und auch Big-Data-Analysten tappen nicht selten in die Falle, wenn sie den Unterschied zwischen Korrelationen und Kausalitäten nicht auf dem Radar haben und in der Konsequenz Informationen falsch interpretieren und die falschen Schlussfolgerungen ziehen. Denn eine mathematisch hohe Korrelation zwischen zwei Variablen bedeutet nicht, dass die beiden Variablen kausal miteinander zusammenhängen.
Der Klassiker: Zwischen der Storchenpopulation und Geburtenrate kann statistisch eine hohe Korrelation berechnet werden. Grundsätzlich könnte es sich (theoretisch) bei der Beziehung der beiden Variablen um eine Ursache-Wirkungs-Beziehung handeln. Variable A kann Ursache von B sein, oder B kann Ursache von A sein. Möglich ist aber auch, dass keines von beidem Ursache von irgendwas ist. Stattdessen existiert möglicherweise eine dritte Variable, die A und B beeinflusst hat. Dies ist in dem konkreten Beispiel die Industrialisierung, die sowohl zu einem Absinken der Geburtenrate als auch zu einer verringerten Storchenpopulation geführt hat.
In großen Datensätzen mit vielen Faktoren können recht einfach zufällige Korrelation abgeleitet werden. Dies bedeutet aber nicht, dass zwischen den Faktoren auch ein kausaler Zusammenhang existiert. Big-Data-Protagonisten erwidern, dass in der Welt von Big Data Korrelation die Kausalität ersetzt. Big-Data-Methoden erweisen sich vor allem bei Fragestellungen erfolgreich, die sich aufgrund extrem hoher Komplexität nicht mehr durch einfache Gesetze beschreiben lassen. In diesem Kontext geht es bei Big Data gar nicht um große Datenmengen, sondern um eine Veränderung des Denkansatzes zur Gewinnung von Erkenntnissen. Übertragen auf die Gravitationsgesetze: Isaac Newton suchte die Ursache für das Fallen des Apfels. In der Welt von Big Data spielt die Kausalität keine Rolle – sie erklären damit im besten Fall, was passiert, nicht aber warum. Somit kann Big Date helfen, "die Stecknadel der Erkenntnis im Heuhaufen der Daten für die Ursachenforschung zu finden" [Mayer-Schönberger 2015, S. 17].
Somit ergibt sich die Gefahr, dass Entwicklungen und Gesetzmäßigkeiten der Vergangenheit einfach in die Zukunft fortgeschrieben werden. Für Unternehmen heißt das: Die eingesetzten Analysetechniken mit Maß, Intelligenz, Ziel und Sorgfalt zu verfolgen. Am Ende kommt es nicht auf die Masse der Daten und Algorithmen an, sondern auf die sinnstiftende Verknüpfung.
… und der Datenhoheit
Trotz aller Euphorie des modernen Daten- und Analysemanagements gibt es auch kritische Stimmen. In der Zukunft werden weniger jene, die Daten bloß analysieren, Macht haben, als jene, die auch den Zugang zu Daten haben, bestätigt Viktor Mayer-Schönberger, Professor am Internet Institute der Universität Oxford sowie Autor des Buches "Big Data" [vgl. Mayer-Schönberger/Cukier 2013]. In diesem Kontext ist auch das Unbehagen vieler Menschen gegenüber Organisationen und Unternehmen zu verstehen, die scheinbar immer größere Datenmengen sammeln und auswerten.
Auch die Deutsche Bank Research stellt die Frage, "ob sich die digitalen Ökosysteme, die Geheimdienste oder sonstige Akteure im Internet durch ihre Geschäftspraktiken mittel- bis langfristig nicht selbst schaden (für Unternehmen: "ihre Geschäftsgrundlage unterminieren"), weil das Misstrauen steigt und die Bereitschaft, sich unbehelligt (oder ungeschützt) in digitalen Kanälen aufzuhalten, allmählich sinken könnte." In diese Richtung gehen auch die Ergebnisse der Untersuchung zu "Chancen durch Big Data und die Frage des Privatsphärenschutzes" des Fraunhofer Instituts. Demnach ist Google zwar mit Abstand die meistgenutzte Suchmaschine. Aber danach folgt bereits die privatsphärenfreundliche Suchmaschine "DuckDuckGo". Dieses Verhalten zeigt, dass bei Teilen der Internetnutzer ein gewisses Misstrauen gegenüber dem Internet und der dahinterliegenden Datenverarbeitung und -nutzung gibt. Diese könnte in der Konsequenz zu einem angepassten und veränderten Mediennutzungs- und Konsumverhalten führen. Und das wiederum birgt die Gefahr eines volkswirtschaftlichen Schadens für alle Anbieter webbasierter Technologien.
Fazit: Hoffnungen und viele offene Fragen
Mit Big Data wird die Hoffnung verknüpft, dass wir zukünftig die Welt besser verstehen werden und beispielsweise die Treiber für Risikoeintritte über schwache Signale rechtzeitig erkennen und gegensteuern. Dahinter liegt die Erwartung, dass eine Zunahme der Quantität an Daten auch zu einer neuen Qualität führt.
Analog den Orakeln im Altertum ist auch heute in der Welt von "Predictive Analytics" und "Big Data" eine korrekte Interpretation der Ergebnisse wichtig, denn Big Data läutet zunächst einmal das Ende des Ursachen-Monopols ein. Kommen wir zurück zu Krösus. Er überquerte nach der Weissagung des Orakels den Grenzfluss Halys und fiel in Kappadokien ein. Die militärische Auseinandersetzung zwischen dem Perserkönig Kyros II. und Krösus wurde in der Schlacht bei Pteria beendet – zu Ungunsten von Krösus. Was er nicht geahnt hatte: Durch den Krieg zerstörte er schließlich nicht das große Reich seines Gegners, sondern sein eigenes.
Damals wie heute gilt: Wenn die Ursache-Wirkungs-Zusammenhänge nicht verstanden werden, bleiben die Muster und Korrelationen von Big Data weitegehend zufällig. Wir sollten uns davor hüten, in jeder statistischen Korrelation sofort einen logischen Ursache-Wirkungszusammenhang zu identifizieren. Basierend auf Kants "Kritik der Urteilskraft" existieren eine bestimmende sowie eine reflektierende Urteilskraft. Die bestimmende Urteilskraft subsumiert etwas Besonderes unter ein gegebenes Gesetz beziehungsweise einer Regel, während die reflektierende zum gegebenen Besonderen das Allgemeine finden soll. Übertragen auf die Welt von "Big Data" und "Predictive Analytics" bedeutet dies, dass wir die Datenflut mit Theorien und Gesetzten verknüpfen müssen.
Wir müssen uns als Menschen und Gesellschaft mit der Frage beschäftigen, wie viel Sicherheit und Vorhersehbarkeit auf der einen Seite sowie Freiheit und Risiko auf der anderen Seite gewünscht ist. Sprich, zwischen "auf der Bremse stehen" und permanent die Überholspur nutzen gibt es viele Analyse-Geschwindigkeiten. Diese gilt es auszuloten. Eine wichtige Kernfrage in diesem Zusammen- hang: Wollen wir uns einer Diktatur der Daten ausliefern und in einer Welt leben, in der Big Data mehr über unsere Vergangenheit, Gegenwart und Zukunft weiß, als wir uns selbst erinnern können [vgl. Mayer-Schönberger 2015, S. 18]? In diesem Kontext führen vor allem auch der Missbrauch von Big-Data-Korrelationen sowie die Konzentration in Datenmonopolen zu gesamtgesellschaftlichen und individuellen negativen Folgen. Diese Schattenseiten von Big Data sollten zu transparenten und verbindlichen Regeln und einer breiten Diskussion über die Chancen und Grenzen der neuen schönen Datenwelt führen.
Abschließend noch der Hinweis, dass die algorithmische Behandlung des Menschen gegen die Menschenwürde verstößt. Hierauf hatte bereits das Bundesverfassungsgericht im Jahr 1969 hingewiesen: "Mit der Menschenwürde wäre es nicht zu vereinbaren, (…) den Menschen (…) in seiner ganzen Persönlichkeit zu registrieren und zu katalogisieren, sei es auch in der Anonymität einer statistischen Erhebung, und ihn damit wie eine Sache zu behandeln, die einer Bestandsaufnahme in jeder Beziehung zugänglich ist." [BVerfGE 1969]. Also, wo wollen wir hinlaufen in der Datenwelt? Diese Frage muss dringend beantwortet werden – umfassend und zum gesamtgesellschaftlichen Wohl.
Literatur
- Bitkom [2015]: Potenziale und Einsatz von Big Data, Berlin 2015.
- BVerfGE [1969]: Entscheidungen des Bundesverfassungsgerichts vom 16.7.1969, 27, 1 (Mikrozensus).
- Deutsche Bank Research [2014]: Big Data, Die ungezähmte Macht, Frankfurt am Main, 2014.
- Fraunhofer-Institut für Sichere Informationstechnologie SIT [2015]: Chancen durch Big Data und die Frage des Privatsphärenschutzes, Stuttgart 2015.
- Gronau, N./Weber, N./Fohrholz, C. [2013]: Wettbewerbsfaktor Analytics – Reifegrad ermitteln, Wirtschaftlichkeitspotenziale entdecken, Berlin 2013.
- Levitt, S. D./Dubner, S. J. [2009]: Freakonomics: A Rogue Economist Explores the Hidden Side of Everything, New York 2009.
- Mainzer, K. [2014]: Die Berechnung der Welt – Von der Weltformel zu Big Data, München 2014.
- Mayer-Schönberger, V./Cukier, K. [2013]: Big Data: A Revolution That Will Transform How We Live, Work, and Think, London 2013.
- Mayer-Schönberger, V. [2015]: Was ist Big Data? Zur Beschleunigung des menschlichen Erkenntnisprozesses, in: Aus Politik und Zeitgeschichte (APuZ), 11–12/2015, S. 14-19.
- Romeike, Frank [2010]: Risikoadjustierte Unternehmensplanung – Optimierung risikobehafteter Entscheidungen basierend auf stochastischen Szenariomethoden, in: Risk, Compliance & Audit (RC&A), 06/2010, S. 13-19.
- Romeike, F. [2015]: Szenarioanalyse: Lernen aus der Zukunft, in: FIRM Jahrbuch 2015, Frankfurt/Main 2015, S. 118-120.
Autoren
Frank Romeike, Geschäftsführender Gesellschafter RiskNET GmbH, Mitglied des Vorstands Vorstandsvorsitzender der Gesellschaft für Risikomanagement und Regulierung e.V. sowie verantwortlicher Chefredakteur der Zeitschrift RISIKO MANAGER.
Andreas Eicher, Chefredakteur beim Kompetenzportal RiskNET – The Risk Management Network, Redakteur beim Frankfurter Institut für Risikomanagement und Regulierung (FIRM) sowie Fachjournalist zu den Themen Risikomanagement, Compliance und Digitalisierung.
[Der Artikel wurde erstmals im Mai 2016 im FIRM Jahrbuch 2016 veröffentlicht]