Die Verfahren der Künstlichen Intelligenz – und hierbei insbesondere des Deep Learning – haben sich bei den verschiedensten Prognosen als Mittel der Wahl etabliert, da sie auch nichtlineare und komplexe Muster berücksichtigen können. Hiermit sind – etwa im Falle von Wetterentwicklungen oder Auslastungen von Stromnetzen – hochpräzise Punktprognosen von Zeitreihen- Entwicklungen möglich.
Demgegenüber sind jedoch – insbesondere im Finanz-Bereich – oftmals aus fundamentalen Gründen nur Aussagen über statistische Parameter – wie Mittelwerte, Standardabweichungen und Korrelationen – möglich. Die hier verwendeten Verfahren können diese Parameter jedoch im Allgemeinen nur statisch ex-post schätzen. Die Leistungsfähigkeit Neuronaler Netze zur tatsächlichen Prognose unter Berücksichtigung komplexer Nutzen bleibt damit auf wichtigen Gebieten nach wie vor ungenutzt.
Wie sich jedoch herausgestellt hat, ist es mit Neuronalen Netzen möglich, auch direkt statistische Parameter zu prognostizieren. Der "Trick" hierfür ist eine geeignete Modifikation der Verlustfunktion. Hierfür wird im Wesentlichen eine Maximum Likelihood-Funktion in die Verlust- Funktion integriert.
Hierdurch ist es möglich statistische Parameter direkt ex-ante vorherzusagen. Die Bandbreite der infrage kommenden Verteilungen ist dabei sehr groß – unter anderem konnten ganze Kovarianzmatrizen und Freiheitsgrade für t-Verteilungen für 15 Aktienkurse dynamisch ex-ante prognostiziert werden. Für die Schätzung statistischer Parameter steht damit die ganze Leistungsfähigkeit Neuronaler Netze zur Verfügung. Zudem sind unter anderem Monte-Carlo-Simulationen mit dynamisch adaptierten Parametern möglich.
Der folgende Beitrag skizziert den Weg zur Prognose statistischer Parameter von Finanzdaten. Die gezeigten Ergebnisse wurden dabei mittels eines bereits implementierten Programms auf TensorFlow-Basis erstellt.
Ungenutzte Leistungsfähigkeit Neuronaler Netze
Deep Neural Networks
Die Fortschritte im Bereich Deep Learning haben zu einer Vielzahl leistungsfähiger "tiefer" Neuronaler Netze geführt, die in verschiedenen Bereichen – von der Klassifikation von Videos und Bildern bis hin zu Übersetzungen – im Einsatz sind.
Insbesondere die Kategorie der Recurrent Neural Networks eignet sich dabei zur Prognose von Zeitreihen-Entwicklungen und wird etwa im Industriebereich eingesetzt, wenn es beispielsweise um die ressourcenschonende Optimierung von Prozessen geht.
Ein generelles wichtiges Problem Neuronaler Netze – die Interpretierbarkeit – konnte zudem durch die Verfahren der Explainable AI erheblich abgemildert werden.Dennoch werden Neuronale Netze im Allgemeinen bis dato jedoch nur für Punktprognosen verwendet. Im – insbesondere für den Finanzbereich – wichtigen Gebiet statistischer Prognosen bleiben sie größtenteils ungenutzt.
Risikobehaftete Prognosen
In vielen Fällen – wie etwa bei Wetterprognosen oder insbesondere im Finanzbereich – sind die Kennzahlen risikobehaftet und es sind aus fundamentalen Gründen keine (genauen) Punktprognosen möglich. Statistische Parameter, wie beispielsweiseVolatilitäten, lassen sich andererseits oftmals sehr wohl prognostizieren.
Entsprechend sind statistische Betrachtungen unter Zuhilfenahme geeigneter Verteilungen angebracht. Hierfür existieren Schätzverfahren und darauf aufbauende Methoden wie Monte Carlo- Simulationen.
Gegenwärtige Situation
Zusammenfassend lässt sich feststellen, dass, obwohl inzwischen leistungsfähige Neuronale Netze und – insbesondere im Financial Management – genug Daten vorliegen, diese oftmals ungenutzt bleiben. Stattdessen sind nach wie vor Verfahren im Einsatz, die Risiken nur ex post anhand vergangener Daten ermittelt, jedoch nicht ex ante prognostizieren können.
Dies führt insgesamt zu folgender Problematik
Die insbesondere in Monte Carlo-Simulationen eingesetzten Verteilungen basieren sehr stark auf Annahmen und spiegeln nur die Vergangenheit wieder. Es werden keine Prognosen über die Änderung der Parameter durchgeführt.
Sich ändernde Volatilitäten und Korrelationen – wie sie für Marktphasen typisch sind – bleiben damit unerkannt. Die erzeugten Szenarien sind entsprechend unrealistisch, da sich Kovarianzmatrizen in der Realität permanent ändern.
Die erwähnten Probleme können jedoch durch eine direkte Prognose statistischer Parameter überwunden werden, die im Folgenden skizziert wird.
Prognose statistischer Parameter durch Anpassung der Loss-Funktion
Loss-Funktion
Neuronale Netze stellen im Grunde hochkomplexe nichtlineare Fit-Funktionen dar, bei denen eine Vielzahl von Parametern optimiert wird. Hierdurch wird es möglich Muster zu erkennen und beispielsweise Bilder mit hoher Genauigkeit zu klassifizieren.
Ziel hierbei ist es die Parameter anhand von Trainingsdaten so anzupassen (d.h. das Neuronale Netz so zu trainieren), dass präzise Prognosen im Falle neuer – unbekannter – Daten getroffen werden können.
Das Kriterium für die Anpassung stellt dabei Loss-Funktion dar. Das Neuronale Netz arbeitet hierbei auf das Ziel zu, diese Funktion zu minimieren. Als Loss-Funktion wird oft die mittlere quadratische Abweichung zwischen realen und Prognose-Werten verwendet. Damit wird als Ziel vorgegeben Prognosen zu liefern, die möglichst genau der Realität entsprechen.
Im Allgemeinen kann die Loss-Funktion – beziehungsweise die reziproke Gewinn-Funktion – jedoch frei definiert werden!
Exkurs: Maximum Likelihood-Methode
Bei der Maximum Likelihood-Methode handelt es sich um ein statistisches Verfahren zur Schätzung von Verteilungs-Parametern, wie beispielsweise Mittelwert oder Standardabweichung. Hierbei werden diejenigen Parameter als Schätz-Parameter bestimmt, bei denen die höchste Plausibilität erreicht wird.
Die Maximum Likelihood-Funktion ist dabei an der entsprechenden Verteilungsfunktion (etwa Normal- oder t-Verteilung) angelehnt und wird für die korrekten Parameter maximal. Mathematisch läuft das somit auf die Maximierung der Maximum-Likelihood-Funktion hinaus. Damit liegt – wie bei der Loss-Funktion – ein Optimierungs-Problem vor.
Vorgehen bei der Prognose statistischer Parameter
Zur direkten Prognose statistischer Parameter wird die herkömmliche Loss-Funktion durch eine geeignet modifizierte Maximum-Likelihood-Funktion ausgetauscht.
Hierdurch wird es dem Neuronalen Netz ermöglicht statistische Parameter verschiedenster Verteilungen (etwa multivariate t-Verteilung) direkt – analog zu Punktprognosen – vorherzusagen. Selbst Kovarianzmatrizen mit 20×20 Dimensionen können mit dem existierenden RiskDataScience-Prototypen problemlos über vorgegebene Zeiträume prognostiziert werden.
Aufgrund der hohen Schätz-Geschwindigkeit können die Verfahren auch in Monte Carlo- Simulationen eingebaut werden. Damit können pfadabhängige Änderungen der Volatilitäten und Korrelationen dynamisch berücksichtigt werden.
Im Falle von Finanzdaten – wie beispielsweise bei Aktienkursen – findet die Schätzung dabei auf Difflog-Ebene (d. h. auf Ebene der Differenzen der Logarithmen) statt, aus der anschließend Absolutwerte berechnet werden.
Bei sehr hohen Parameter-Anzahlen kann zudem das PCA-Verfahren verwendet werden.
Anwendungsbeispiele: Statistische Prognosen bei Finanzdaten
Hierfür wurde ein eigens erstellter Prototyp auf der Basis von Python sowie TensorFlow und Keras
verwendet und mit Daten von Kryprowährungen bzw. Dax-Aktienkursen trainiert.
Volatilitäten und Korrelationen
Hierfür wurde ein Neuronales Netz mit einer adaptierten Loss-Funktion erstellt. Dieses wurde mit vorliegenden Daten auf Difflog-Ebene analog zu herkömmlichen Prognosen trainiert.
Als Ergebnis wurden direkt Verteilungsparameter wie μ, σ und Freiheitsgrade von t-Verteilungen prognostiziert. Auch multivariate Prognosen für t-Verteilungen mit 20 Parametern waren nach entsprechender Regularisierung – d. h. Einschränkung der Wertebereiche auf plausible Intervalle – der Parameter möglich.
Abb. 01 zeigt den Verlauf der anhand realer Test-Daten jeweils für den Folgetag prognostizierten Volatilitäten für zwei Kryptowährungen.
Abb. 01: Volatilitäten für zwei Kryptowährungen
Dynamische Monte Carlo-Szenarien
Die Schätzung der statistischen Parameter kann auch in Monte Carlo-Simulationen inkludiert werden.
Hierfür wurden pro Szenario anhand der jeweiligen Verteilung korrelierte Szenarien gewürfelt. Im Folge-Zeitschritt wurde der jeweilige Pfad berücksichtigt, d.h. es wurden für jedes Szenario erneut Parameter prognostiziert und damit erneut gewürfelt. Wie sich gezeigt hat, waren geeignete Regularisierungen von Parametern enorm wichtig, um ein Aufschaukeln unplausibler Szenarien zu verhindern.
Das Diagramm unten zeigt ein (zunächst auf Difflog-Basis erzeugtes) hunderttägiges Szenario, das aus 15 Aktienkursen besteht. Hierbei wurden die Parameter während der Simulation dynamisch für jedes Szenario geschätzt.
Abb. 02: Hunderttägiges Szenario, das aus 15 Aktienkursen besteht
Autor:
Dr. Dimitrios Geromichalos, FRM,
CEO / Founder RiskDataScience GmbH
E-Mail: riskdatascience@web.de
Ergänzende Infos zu RiskDataScience
Für den Fall statistischer Prognosen Neuronaler Netze wird von uns ein dreistufiges Vorgehen vorgeschlagen:
Stufe 1:
- Einführung in die Methodik für die Prognose statistischer Parameter mittels Neuronaler Netze
- Übergabe und Installation des bestehenden Python-Verfahrens für die Parameter- Prognose und dynamische Monte Carlo-Simulation
- Übergabe und Dokumentation von Visualisierungs- und Validierungs-Verfahren
- Kunde kann damit die Methodik für verschiedene Berechnungen eigenständig nutzen und weiterentwickeln.
Stufe 2:
- Analyse der konkreten Produkte und Verteilungen, die für eine Ersetzung mittels KI- Verfahren in Betracht kommen
- Unterstützung bei der Auswahl und Erstellung geeigneter Trainingsdaten
- Entwicklung und Validierung von KI-Modellen für die einzelnen relevanten Fälle
- Kommunikation und Dokumentation der Ergebnisse an alle Beteiligten
- Der Kunde hat Verfahren für einen fallspezifischen Einsatz von KI-Modellen zur Prognose statistischer Parameter.
Stufe 3:
- Spezifizierung aller Anforderungen für eine automatisierte, möglicher-weise webbasierte IT- Lösung
- Vorschläge und Kontakt zu möglichen Anbietern
- Unterstützung bei der Auswahl von Händlern und Werkzeugen
- Unterstützung bei der Planung der Umsetzung
- Technische und koordinierende Unterstützung des Umsetzungs-projekts
- Professionelle Unterstützung nach Umsetzung der IT-Lösung
- Kunde hat IT-Lösung zur Prognose statistischer Parameter mittels Künstlicher Intelligenz.