Wie in der Vergangenheit immer wieder beobachtet werden konnte, verhalten sich Märkte oftmals irrational und zeichnen sich – neben dem "Normal-Zustand" – durch Phasen im Krisen- und Spekulations-Modus aus.
Die Regulatoren sehen dieses Verhalten als einen wesentlichen Faktor an und verlangen dementsprechend die Berücksichtigung adäquater Stress-Zeiträume. Dies setzt jedoch die objektive Identifizierung der Phasen voraus, die mit herkömmlichen Vorgehensweisen nur schwer zu bewerkstelligen ist.
Verfahren aus dem Bereich Machine Learning ermöglichen hingegen die objektive Identifizierung von Marktphasen auch bei komplexen Gegebenheiten. Zudem können – auch mittels Deep Learning Verfahren – die gegenwärtige Situation eingestuft und mögliche kommende Krisen antizipiert werden.
Im Folgenden soll anhand einfacher Parameter die Identifizierung und Klassifikation von Marktphasen schematisch dargestellt werden. Sämtliche Verfahren wurden in Python umgesetzt und sind ohne spezielle Anforderungen lauffähig.1
Krisen-Phasen und normale Marktphasen
Die herkömmlichen Theorien des effizienten Marktes (Informationseffizienz) bzw. der rationalen Erwartungen (Homo oeconomicus) haben sich als nicht immer zutreffend erwiesen. Stattdessen sind Märkte oftmals durch Übertreibungen ("Gier") und Panik ("Angst") sowie Herdenverhalten und selbsterfüllende Prophezeiungen gekennzeichnet. Jüngste Beispiele betreffen etwa die Dotcom-Blase, die Immobilienkrise oder auch Entwicklungen in Energie- und Rohstoffmärkten.
Insbesondere Krisen-Phasen unterscheiden sich in mehreren Punkten stark von "normalen" Phasen:
- Korrelationen nehmen im Allgemeinen stark zu (beispielsweise Spreads während Euro-Krise)
- Starker Anstieg der Volatilität (beispielsweise Zinsen während Finanzkrise)
- Normalverteilung nicht mehr gegeben (beispielsweise Platzen der Dotcom-Blase)
In etwas geringerem Maße treffen die genannten Punkte auch für Spekulationsphasen zu (beispielsweise Dotcom-Blase).
Die Regulatoren haben die Problematik von Marktregimes erkannt und verlangen eine Berücksichtigung, etwa in Form von Stresstests, die auf realistischen und relevanten Szenarien basieren beziehungsweise eines "gestressten" Value at Risk (VaR), der anhand von Krisen-Perioden zu ermitteln ist.
Des weiteren ist die quantitative Ermittlung von Marktphasen auch aus Risikocontrolling-Gesichtspunkten unabdingbar. In der Praxis gestaltet sich die Ermittlung von Marktphasen jedoch als äußerst problematisch, da eine objektive und für alle Produkte konsistente Ermittlung von Marktphasen in der Regel nicht stattfindet und herkömmliche Risikomethoden Marktphasen in der Regel nicht abdecken.
Herkömmliche Methoden
Monte Carlo-Szenarien werden auf Basis von Modellen generiert, die in der Regel keine Marktphasen beinhalten. Dementsprechend findet keine Berücksichtigung von Marktregimes statt.
Historische Simulationen übernehmen vergangene Änderungen eines bestimmten Beobachtungszeitraums als Basis für mögliche künftige Szenarien. Mögliche Bubble- und Krisen-Phasen der betrachteten Zeiträume sind damit implizit in den ermittelten Szenarien enthalten. Allerdings werden die verschiedenen Phasen nicht explizit ermittelt. Die Identifizierung der Zeiträume, etwa für den Stressed VaR, muss nach wie vor "händisch" erfolgen.
Eine nicht objektivierbare Ermittlung gestresster Marktphasen für regulatorische Zwecke kann zu Anmerkungen seitens Wirtschaftsprüfer und Revisoren führen. Eventuelle sinnvolle Kapitalentlastungen bleiben oftmals verwehrt, da sich ein weniger konservatives Vorgehen nicht immer objektiv begründen lässt. Das Nicht-Erkennen möglicherweise gefährlicher aktueller Marktsituationen erhöht das Verlustrisiko durch Marktpreisschwankungen, da Bubbles möglicherweise nicht rechtzeitig erkannt und Gesetzmäßigkeiten von Krisen, wie erhöhte Korrelationen, nicht hinreichend berücksichtigt werden.
Andererseits können durch ein zu vorsichtiges Vorgehen in günstigen Marktsituationen Chancen verpasst werden.
Data Science-Verfahren
Für die Analyse der relevanten Marktdaten können verschiedene Data Science / Machine Learning Algorithmen berücksichtigt und mit Tools wie Python, R, Weka oder RapidMiner implementiert werden. Hier lassen sich die folgenden Gruppen von Algorithmen unterscheiden:
Unsupervised Learning-Algorithmen: Diese Algorithmen können zur Bestimmung von "natürlichen" Clustern und zur Gruppierung von Marktdaten nach vordefinierten Ähnlichkeitskriterien verwendet werden. Dies erfordert geeignete Algorithmen wie kmeans oder DBSCAN sowie entsprechende Branchen-Expertise. Außerdem können Ausreißer-Algorithmen eingesetzt werden, um anomale Marktsituationen zu erkennen, die beispielsweise als Basis für Stresstestszenarien dienen können.
Supervised Learning-Algorithmen: Die Algorithmen (beispielsweise Naive Bayes) werden mit bekannten Datensätzen "trainiert", um Marktsituationen zu klassifizieren. Dann können den Marktphasen neue Daten – und insbesondere die aktuelle Situation – zugeordnet werden. Durch geeignetes "Verschieben" der Zeiträume der erklärenden und zu erklärenden Variablen können zudem Prognose-Modelle erstellt werden.
Beim Supervised Learning haben sich verschiedene Kennzahlen etabliert, wie beispielsweise die
- Accuracy: Richtige Vorhersagen pro Gesamtzahl
- Sensitivity: Anteil korrekt identifizierter "Positiv-Fälle"
- Specifity: Anteil korrekt identifizierter "Negativ-Fälle"
Beim Supervised Learning muss stets beachtet werden, dass Validierungen stets anhand eines getrennten Testsets durchgeführt werden müssen, um ein "Overfitting" auszuschließen.
Für eine risikoorientierte Analyse müssen Marktdatendifferenzen (beispielsweise bei Zinsen) oder Renditen (beispielsweise bei Aktienkursen) aus den Marktdaten-Zeitreihen als Grundlage für die weitere Analyse berechnet werden. Weiterhin muss ein "Windowing" durchgeführt werden, das heißt die relevanten Werte der Vortage müssen als zusätzliche Variablen berücksichtigt werden.
Anwendungsbeispiel: Illustrative Analyse von Marktdaten
Verwendete Daten und Bereinigung
Die Analyse bezog sich auf ein Set von Marktdaten, das aus dem DAX 30, dem EURIBOR 3M sowie dem EURUSD bestand. Der betrachtete Zeitraum war Dez. 2000 – Jan. 2018. Die Analyse erfolgte durchwegs mit Schlusskursen auf Return- (für DAX und USD) sowie Differenzen-Basis (für EURIBOR 3M). Die Skizze unten zeigt die verwendeten Marktdaten:
Abb. 01: Illustrative Marktdaten
Eventuelle begründbare Sprünge wie Aktiensplits wurden bereinigt, fehlende Returnwerte durch "0" ersetzt und mittels Windowing erweitert (letzte 20 Tage).
Windowing
Das Windowing ist ein Verfahren, das – etwa bei Prognosen – angewandt wird um "Lags" zu berücksichtigen Vergangene Werte werden dabei als aktuelle Variablen betrachtet. Ein weiterer Vorteil ist die Robustheit gegenüber volatilitätsbedingten Schwankungen der Parameter.
Abb. 02: Vorgehen beim Windowing
Hierbei muss jedoch beachtet werden, dass es durch die große Variablen-Anzahl zu einem Overfitting kommen kann.
Gruppierung der Markthasen
Auf dieser Datenmenge wurde der Clustering-Algorithmus DBSCAN angewendet. Die Ergebnisse sind in der Abbildung unten exemplarisch dargestellt.
Abb. 03: Identifizierte Marktphasen
Während die meisten Zeitpunkte einem großen "Normal-Cluster" zugeordnet werden können, gibt es Phasen, die zumeist in einen "Krisen-Cluster" fallen. Als Krisen-Phasen wurden die Zeit nach dem 11. September, das Platzen der Dotcom-Blase, die Immobilien- und die Euro-Krise automatisch ermittelt.
Klassifikation und Validierung
Für die Klassifikation wurden zunächst ein zufälliges Trainings- und ein Test-Set mit je 80 Prozent beziehungsweise 20 Prozent der Datensätze gebildet. Das Training erfolgte für die Modelle Naive Bayes, SVM, Decision Tree und Random Forest.
Generell ergaben sich hohe Trefferquoten mit Accuracies bis 93 Prozent (Naive Bayes). Das Naive Bayes-Verfahren schnitt dabei – auch anhand der Confusion Matrices – am besten ab.
Darüber hinaus wurde die Vorhersage durchgeführt inwiefern innerhalb der nächsten 30 Tage eine Krise vorliegen wird. Dafür wurden beim Training die Krisen-Flags entsprechend um 30 Tage in die Vergangenheit verschoben. Wie erwartet waren die Accuracies geringer und lagen. bei maximal 89 Prozent. Auch hier schnitten Naive Bayes und Random Forest am besten ab. Eine Vorhersage für die gegenwärtige Situation ergab zudem, dass demnächst keine Krise droht, wobei aber zu beachten ist, dass kein Präzedenzfall für das historisch niedrige Zinsniveau vorliegt.
Fazit
Durch die Analyse von Marktphasen mithilfe von Machine Learning-Verfahren lässt sich das Financial Risk Management in mehrfacher Hinsicht verbessern. So lassen sich zum einen mögliche Krisen und Spekulationsblasen frühzeitig identifizieren und gegebenenfalls prognostizieren. Zum anderen ist es auch möglich historische Stress-Phasen für eine Vielzahl von Produkten und Märkten effizient und objektiv ermitteln.
Hierfür sind jedoch – neben geeigneten Daten – ein fundiertes Verständnis der Stärken und Schwächen der verwendeten Algorithmen sowie ein striktes Vorgehen bei der Modellvalidierung unabdingbar.
Autor
Dr. Dimitrios Geromichalos, FRM, CEO / Founder RiskDataScience UG (haftungsbeschränkt)
Hinweis:
1 Das verwendete Python-Programm kann gegen eine Schutzgebühr von 200 EUR beim Autor angefordert werden. E-Mail: riskdatascience@gmail.com