Das Banken- und Versicherungsumfeld ist seit vielen Jahren im Umbruch. Dazu haben in nicht unerheblichem Maße die Aufsichtsbehörden und Standardsetter beigetragen. Wurden bis Mitte der 2000er interne Modelle stark von der Aufsicht forciert, haben die Regulatoren seit der Finanzmarktkrise eine Kehrtwende vollzogen. Die Regularien haben immer weiter zugenommen (BCBS 239, ILAAP, Revised ICAAP etc.) und sie sind deutlich restriktiver, wenn es beispielsweise darum geht, Kapital- oder Liquiditätsanforderungen mit institutsintern genutzten Risikomodellen zu quantifizieren. Disruptive Geschäftsmodelle von FinTechs, sich veränderndes Kundenverhalten und die Niedrigzinspolitik der Zentralbanken setzen die etablierten Finanzinstitute ebenfalls unter Ertrags- und Kostendruck.
Die Digitalisierung mit neuen Analysemethoden, künstliche Intelligenz (KI) und disruptive Dienstleistungsmodelle stellen Banken und Versicherungen vor gewaltige Herausforderungen. Finanzdienstleister müssen den digitalen Wandel aktiv gestalten, um attraktiv zu bleiben. Vor allem etablierte Marktteilnehmer haben den digitalen Wandel lange verschlafen. Während Start-ups mit neuen Geschäftsmodellen (siehe FinTechs sowie InsureTechs) den Finanzdienstleistungsmarkt aufrollen, kämpfen Banken und Versicherer auf vielen Gebieten um den digitalen Anschluss.
Beispielsweise spricht der "Bankenreport Deutschland 2030" davon, dass der deutsche Bankenmarkt kurz vor einem großen Umbruch steht: "In 10-15 Jahren wird es statt heute 1.600 nur noch 150 bis 300 Banken in Deutschland geben, die nachhaltig erfolgreiche Geschäftsmodelle haben." [vgl. Oliver Wyman 2018 sowie ergänzend McMillan 2014 und McMillan 2018]. Gründe sehen die Studienmacher unter anderem in FinTechs, Marktinfrastrukturanbietern sowie globalen Technologiekonzernen, die auf den deutschen Bankenmarkt drängen.
Neue Lösungen brauchen neue Wege
Hinzu kommen neue Technologien und Innovationen – Big Data, Predictive Analytics und Machine Learning sind zu allgegenwärtigen buzzwords geworden – die den Finanzmarkt revolutionieren. Das Ziel des Einsatzes von Big-Data-Methoden und Datenanalysen liegt auf der Hand. Es geht um die Vermessung der Welt, der Kunden, dem Erstellen von Persönlichkeitsprofilen und der Voraussage in Echtzeit aus immer mehr Daten. Diese Analytics-Verfahren werden in immer mehr Unternehmen eingesetzt – auch bei Banken und Versicherern. Einer der Hauptgründe liegt darin, Zusammenhange zu erkennen, Prognosen abzuleiten und diese für Entscheidungen zu nutzen, am liebsten in Echtzeit [vgl. vertiefend Eicher/Romeike 2016].
Der Einsatz von Big Data und Artificial Intelligence (AI) Methoden, beispielsweise Machine Learning, werden neben dem Einsatz im Marketing durchaus bereits im Risikomanagement von Finanzdienstleistern eingesetzt. Diese Methoden besitzen das Potenzial, die Prognosegüte von Risikomodellen signifikant zu verbessern, insbesondere bei der Identifikation von nicht-linearen Zusammenhängen zwischen Risikofaktoren und Risikoereignissen. Unter anderem FinTechs haben mit dem Einsatz von Predictive Analytics und selbstlernenden Algorithmen bereits positive Erfahrungen gemacht, beispielsweise bei der Berücksichtigung von Online-Aktivitäten (PayPal Transaktionen, etc.) im Scoring im Rahmen von Kreditentscheidungsprozessen. Weitere aktuelle Einsatzgebiete dieser Algorithmen sind die Identifikation von Betrugsfällen (31 Prozent) oder die Analyse von Liquiditätsrisiken (26 Prozent) [vgl. Economist Intelligence Unit 2014]. Unterstützt werden diese methodischen Fortschritte durch die (Weiter-)Entwicklung von Technologien für verteiltes Prozessieren von Daten wie MapReduce oder Big-Data-Plattformen wie Hadoop oder Spark, die eine performante Verarbeitung von großen Datenmengen für maschinelles Lernen, Simulationsrechnungen oder "real time computing" überhaupt erst ermöglichen. Neben dieser horizontalen Skalierung werden mittlerweile High Performance-Architekturen durch den zunehmenden Einsatz von Graphic Processing Units (GPU) mit einer hohen vertikalen Skalierbarkeit erreicht [vgl. Cano 2018].
Für Bankhäuser bedeutet das, neue Wege im Umgang mit (digitalen) Technologien zu suchen. Und das auch vor dem Hintergrund steigender regulatorischer Anforderungen durch Basel III und Basel IV im Bankenumfeld sowie bei der Regulierung der Versicherungswirtschaft durch Solvency II. Die Tendenz: Es ist ein klarer Trend in Richtung nicht risikosensitiver Standardansätze durch die Regulierung zu beobachten. Auf diesem schmalen Grat zwischen technologischen Fortschritten sowie standardisierten versus individuellen Risikomanagementmethoden wandelt das Finanzumfeld. Zu dieser Erkenntnis kommt die Experten-Studie "Standardmodelle im Spannungsfeld von Risk Analytics und Big Data" des Software- und Beratungsunternehmens BearingPoint Software Solutions in Kooperation mit dem Kompetenzportal RiskNET. Für die Studie wurden verantwortliche Risikomanager (in der Regel Chief Risk Officer auf Vorstandsebene) aus dem Bankenumfeld, Professoren der Disziplinen Finanzmanagement, -mathematik, -wirtschaft und Financial Engineering sowie Institutsleiter im Bankenaufsichtsrechts- und Risikomanagementbereich befragt.
Risikomodelle: Standards versus Individualität
Im Fokus der Studie stehen die Fragen, inwiefern die Teilnehmer die Standardisierung von Risikomodellen durch die Aufsicht nachvollziehen können, ob und welche Auswirkungen sie auf das Risiko- und Bankmanagement erwarten und welche Akzeptanz neue Technologien besitzen.
Ein genauer Blick in die Ergebnisse offenbart, dass die Aussagen der Interviewteilnehmer zu den regulatorischen Fragestellungen zweigeteilt sind. Zum einen begrüßen einige der befragten Risikomanager und Experten die Kehrtwende hin zu Standardmodellen. Diese wird im Zuge von mehr Transparenz und Vergleichbarkeit positiv bewertet – auch vor dem Hintergrund, dass manche Ergebnisse auf Basis interner Modelle für die Befragten teils als fragwürdig erscheinen. Hinzu kommt, dass zwei Faktoren erfüllt werden müssten, um interne Modelle tragfähiger zu machen. Neben einer adäquaten Datenbasis zur Schätzung des Bankenrisikos auf Basis geeigneter Wahrscheinlichkeitsverteilungen, sollten diese Verteilungen auch bei Finanzkrisen und in turbulenten Marktsituationen Gültigkeit besitzen. Beides wird aus dem Institutsumfeld teils als problematisch angesehen, da die implementierten Methoden Extremszenarien nur bedingt adäquat abbilden.
Von daher werden interne Modelle von manchen Teilnehmern als wenig stabil angesehen, zumal damit das Risiko in "normalen" Marktphasen und weniger in Krisenphasen abgebildet wird. Ein Grund, warum die Bankenaufsicht internen Bankenmodellen skeptisch gegenübersteht. In diesem Kontext stellt sich die Frage, inwieweit pauschalierende Standardmodelle derartige Marktphasen besser abbilden können oder ob hier nicht doch interne Modelle geeignete methodische Ansätze zur Verfügung stellen [vgl. in diesem Kontext beispielsweise Mandelbrot/Hudson 2005 sowie Taleb 2007].
Im Umkehrschluss heißt das auch: Die Aufsicht steht vor der Problematik, dass interne Modelle – aufgrund der Individualität der Geschäftsmodelle und Risikosituation – eher heterogene Ergebnisse liefern. Eine Vergleichbarkeit ist damit nur sehr eingeschränkt möglich.
Zum anderen begrüßen manche Studienteilnehmer die interne Modellierung von Risiken. Hintergrund ist, dass Banken sich tiefergehend mit den durch ihr Geschäftsmodell induzierten Risiken beschäftigen müssen und diese besser verstehen lernen.
Zudem können interne Modelle die bankspezifischen Besonderheiten und Risiken besser abbilden als Standardmodelle. Auch unter dem Aspekt des Anreizes in gute Prozesse zur Kreditvergabe zu investieren, erscheint die (Weiter-)Entwicklung interner Modelle für einen Teil der Befragten plausibel.
Standardmodelle, interne Modelle und der Reifegrad
Die Frage des Einsatzes von Standardmodellen und eine potenziell daraus resultierende mögliche Abnahme des Reifegrades im Risikomanagement sehen die meisten Befragten nicht gegeben. Neben der richtigen Interpretation von Modellergebnissen als ein wichtiger Faktor für den Reifegrad im Allgemeinen, messen die Teilnehmer der Studie internen Modellen durchweg einen hohen Stellenwert bei. Aufseher sollten beispielsweise darauf einwirken, dass Banken ihre internen Modelle weiter verwenden und gegebenenfalls methodisch verbessern. Dies müsse nicht mit einer Abnahme des Reifegrads im Risikomanagement einhergehen. Zudem hätten Banken weiterhin ausreichend Anreize, auch zukünftig in interne Modelle zu investieren. Dies liege auch daran, dass Banken Modelle auch für die internen Risikomanagement- und Banksteuerungsprozesse sowie eine wertorientierte Steuerung nutzen. Dementsprechend sind Entscheidungsträger im Bankenumfeld stark an robusten Prozessen interessiert. Und diese robusten Prozesse fußen weitgehend auf internen risikosensitiven Modellen. Hinzu kommt der Faktor der Nachhaltigkeit des Geschäftsmodells, was sich nur schwer von der Bankenaufsicht überwachen lässt. Von daher werden interne Verfahren durchweg positiv für die eigenen Prozesse beurteilt, zumal eine angemessene Steuerung der Risiken auch eine Modellierung/Quantifizierung durch interne Modelle und daraus abgeleitete Steuerungsimpulse voraussetzt.
Insofern wird zukünftig die regulatorische und ökonomische Quantifizierung von finanziellen Risiken wieder stärker auseinanderfallen– genau das Gegenteil war von den Aufsichtsbehörden bis zur Finanzmarktkrise intendiert.
Beide Welten zu kombinieren, setzt starke Prozessbegleitung voraus
Die Kombination aus beiden Welten (Standards und institutsspezifische Anforderungen) wird für Banken eine große Herausforderung werden. Im Wesentlichen müssen Banken zu einer stärkeren Verzahnung der Prozesswelten inklusive der IT-Architektur und der Datenhaushalte für Risikomanagement und Aufsichtsrecht/Meldewesen gelangen, um kostspielige Insellösungen und hohe Aufwände für Überleitungen zu vermeiden und einen integrierten Ansatz über die gesamte Organisation zu erzielen. Dies wird auch von den Aufsichtsbehörden gefordert, die eine Interaktion zwischen der ökonomischen und normativen Perspektive vorschreiben [vgl. unter anderem EZB 2018].Die Etablierung von gemeinsamen IT-Plattformen für Finance, Regulatory und Risk Management, die beispielsweise eine konsistente Parametrisierung von Simulationen für regulatorische und ökonomische KPI – auch im Hinblick auf Planungs- und Forecast-Rechnungen – ermöglichen, stellt hierbei eine notwendige Voraussetzung dar.
Neue Methoden im Risikomanagement
Auf die Frage, ob die Finanzdienstleister neue Methoden für die Risikomodellierung nutzen, fallen die Antworten unterschiedlich aus. Während einzelne Banken moderne Methoden, wie Big Data oder Artificial-Intelligence-Methoden (beispielsweise Machine Learning) bereits einsetzen, sind andere Institute bei dieser Frage eher zurückhaltend, diskutieren den Einsatz moderner Methoden organisationsintern, oder planen aktuell keine Big-Data-Methoden für die eigene Risikomanagementarbeit einzusetzen.
Da, wo der Einsatz von Big Data & Co. zur Analyse von Kundenverhalten erfolgt, fließen die Informationen in die Risikoanalyse ein. Zudem sind Methoden wie Maschine Learning/Deep Learning bereits Grundlage für Modelle, unter anderem im Bereich der Risikofrüherkennung.
Grundsätzlich sehen die Befragten, dass die Banken die Zeichen der Zeit erkannt hätten und mehr in Richtung moderner Analysemethoden tun müssten. Allerdings sind kulturelle und strategische Veränderungsprozesse notwendig, um die technologischen Herausforderungen für die Banken gewinnbringend einzusetzen (Stichwort: andere "Bankkultur"). Dies betrifft sowohl ein stärkeres agiles und multidisziplinäres Arbeiten in der eigenen Organisation als auch das Fördern des Verständnisses neuer Methoden, um diese "Werkzeuge" richtig einzusetzen. Allerdings verweisen die Studienteilnehmer durchaus auf die Schwierigkeiten bei der Validierung von Modellen, die auf AI basieren und die damit verbundene Gefahr der fehlenden Akzeptanz dieser Modelle bei Regulatoren. Wenig verwunderlich ist daher die Meinung vieler Teilnehmer, sich auf zukünftig nicht nur auf quantitative Datenanalysen zu verlassen, sondern gleichfalls auch auf die langjährige Erfahrung der eigenen Mitarbeiter zu setzen.
Viele Banken bei Big Data und Analysemethoden am Scheideweg
Im Bereich neuer Technologien, wie dem Einsatz von Big-Data- und Analysemethoden, stehen viele Banken aktuell am Scheideweg. Die Akteure haben zwar die Notwendigkeit zur Veränderung erkannt, tun sich aber schwer, diesen Prozess intern anzustoßen und über die komplette Organisation auszurollen. Grundsätzlich ist beim Einsatz neuer Methoden im Risikomanagement zunächst eine sich ändernde Kultur notwendig, um die Digitalisierung und eine stärkere "Data Centricity" im Bankenumfeld stärker zu nutzen und Methoden und Werkzeuge richtig einzusetzen. Von daher müssen die Unternehmen zuerst am Ausbau der Awareness und des Wissens auf diesen Gebieten arbeiten.
Fazit und Ausblick: Die Zukunft der Risikomodellierung in der Regulierung und Bankenpraxis
Bei einem Blick auf zukünftige Regulierungsbestrebungen durch die Finanzaufsicht muss zwingend der sich durch die Digitalisierung radikal verändernde Finanzdienstleistungsmarkt in die Überlegungen einfließen. Dabei sollte auch eine Diskussion darüber geführt werden, wie Regulierung im Zeichen des Wandels überhaupt noch greifen kann. Dies führt gleichsam zur Frage zukünftiger Risikomanagementmodelle im Bankenumfeld. Während Standardverfahren die zukünftige digitale Realität nur bedingt abbilden, können robuste institutsinterne Lösungen den Weg weisen.
In diesem Kontext sollten sich Regulatoren und auch Marktteilnehmer bewusst werden, dass jedes (Risiko-)Modell – egal ob internes oder aufsichtlich normiertes– die Realität nur approximativ erfassen kann. Die Adäquanz dieser Abbildung ist regelmäßig zu prüfen. Jedes Standardmodell kann nur eingeschränkt risikosensitiv sein, da es immer nur den "kleinsten gemeinsamen Nenner" über alle Geschäftsmodelle abbilden kann. Auch Standardmodelle sind mit nicht unerheblichen Modellunsicherheiten verbunden. Eine Standardformel ist möglicherweise einfach zu berechnen, hingegen sind die Ergebnisse nur bedingt interpretierbar und nur sehr eingeschränkt für eine wert- und risikoorientierte Steuerung geeignet. Aus dieser Erkenntnis heraus sollten sich Marktteilnehmer kritisch mit Modellen und Modellergebnissen (von Standardmodellen und internen Modellen) auseinandersetzen und keiner Modellgläubigkeit verfallen. Vielmehr liefert eine Analyse der Grenzen, Stärken und Schwächen von Modellen im Rahmen eines Model Governance Framework einen wertvollen Impuls für das Risikomanagement. Auch Risiko- und Bewertungsmodelle auf Basis von AI, ML, etc. müssen der Model Governance unterliegen im Hinblick auf Validität und Akzeptanz.
Interessante Perspektiven auf das Thema boten Vertreter von Aufsichtsbehörden und der Wissenschaft beim letztjährigen EBA Research Workshop "The future role of quantitative models in financial regulation". In seinem Vortrag formulierte Andreas Dombret, ehemals für Bankenaufsicht zuständiges Vorstandsmitglied der Deutschen Bundesbank, die Probleme und Befürchtungen der Aufseher im Zusammenhang mit internen Modellen. Er hielt aber auch ein deutliches Plädoyer, trotz aller mit der Nutzung von internen Modellen verbundenen Unsicherheiten diese nicht gänzlich aus der Finanzmarktregulierung zu verbannen. Im Zweifelsfall bilden diese Modelle Risiken immer noch adäquater ab als es Standardverfahren tun. Allerdings betonte er auch die Notwendigkeit, diese Modelle durch standardisierte Verfahren und floors für die Eigenkapitalunterlegung zu flankieren. Dass auch Aufseher sich mit neuen Technologien und Methoden beschäftigen, zeigten Vertreter der griechischen Zentralbank. Diese stellten ein Modell zur Prognose von Bankinsolvenzen vor, in dem verschiedene Methoden des Machine Learning (beispielsweise Support Vector Machines, neuronale Netze) verwendet wurden [vgl. European Banking Authority 2017].
Insgesamt ist zu erwarten, dass es in den nächsten Jahren zu einem wiederkehrenden Ausbalancieren von Modellinnovationen seitens der Finanzmarktakteure auf der einen Seite und Regulierung von Modellen auf der anderen Seite kommen wird. Das Risikomanagement von Banken wird sich aber generell verändern in den nächsten Jahren. Bei aller Individualität der Geschäftsmodelle sehen die Autoren hier durchaus eine Tendenz zur Vereinfachung von (Risiko-)Modellen und der Vereinheitlichung der korrespondierenden IT-Architekturen.
Dies ist zum einen eine Reaktion auf regulatorische Initiativen zur Minimierung von Modellrisiken aber auch auf einen zunehmenden Kostendruck zurückzuführen. Interdisziplinäre Zusammenarbeit zwischen Risk, Finance und zunehmend auch immer mehr dem Treasury/ALM wird die Norm sein, um das Bedürfnis von Regulatoren und anderer Stakeholder nach holistischen Informationen und Steuerung erfüllen zu können. Dazu gehört auch eine einheitliche Sicht auf Daten. Technische Plattformen, die neben harmonisierten Datenmodellen auch die Möglichkeit zur Automatisierung von Workflows bieten, werden einen Beitrag zu Konsistenz, Überleitbarkeit und Reduzierung der Total Cost of Ownership (TCO) leisten. Insgesamt wird die Digitalisierung und Technologisierung des Risikomanagements voranschreiten. Quant Developer und Data Manager/Scientists sind die Risikomanager der Zukunft. An ihnen wird es liegen, robuste Modelle mit hoher Prognosegüte zu entwickeln.
Quellenverzeichnis sowie weiterführende Literaturhinweise:
- Bitcom [2018]: Drei von vier Internetnutzern erledigen Bankgeschäfte online, Pressemitteilung vom 07.05.2018, Internet: www.bitkom.org/Presse/Presseinformation/Drei-von-vier-Internetnutzern-erledigen-Bankgeschaefte-online.html
- Cano, A. [2018]: A survey on graphic processing unit computing for large-scale data mining, WIREs Data Mining Knowl Discov, Wiley, New York 2018.
- Economist Intelligence Unit [2014]: Retail banks and big data. Big data as the key to better risk management; www.eiuperspectives.economist.com/financial-services/retail-banks-and-big-data/white-paper/retail-banks-and-big-data-big-data-key-better-risk-management.
- European Banking Authority [2017]: The future role of quantitative modelling in financial regulation, EBA Workshop, London, www.eba.europa.eu/about-us/eba-research-workshops
- Europäische Zentralbank [2018]: Leitfaden der EZB für den internen Prozess zur Beurteilung der Angemessenheit der Liquidität (Internal Liquidity Adequacy Assessment Process – ILAAP), Frankfurt am Main 2018.
- Europäische Zentralbank [2018]: Leitfaden der EZB für den internen Prozess zur Beurteilung der Angemessenheit des Kapitals (Internal Capital Adequacy Assessment Process – ICAAP), Frankfurt am Main 2018.
- Eicher, A./Romeike, F. [2016]: Predictive Analytics – Looking into the future, in: FIRM Jahrbuch 2016, Frankfurt/Main 2016, S. 168-171.
- Mandelbrot, B. B./Hudson, R. L. [2005]: Fraktale und Finanzen, Märkte zwischen Risiko, Rendite und Ruin, Piper Verlag, München 2005.
- McMillan, J. [2014]: The End of Banking: Money, Credit, and the Digital Revolution, Zero/One Economics, Zurich 2014.
- McMillan, J. [2018]: Das Ende der Banken: Warum wir sie nicht brauchen, campus Verlag, Frankfurt am Main 2018.
- Mittnik, S. [2011]: Solvency II calibrations: Where curiosity meets spuriosity. Technical report, Center for Quantitative Risk Analysis, München 2011.
- Oliver Wyman [2018]: Bankenreport Deutschland 2030, unter: www.oliverwyman.de/our-expertise/insights/2018/feb/Bankenreport-Deutschland-2030.html (abgerufen am 2. Februar 2018)
- RiskNET/BearingPoint Software Solutions [2018]: Experten-Studie: Standardmodelle im Spannungsfeld von Risk Analytics und Big Data, München 2018.
- Scherer, M./Stahl, G. [2017]: Die Standardformel: Mythos und Wirklichkeit, September 2017 [unveröffentlichtes Manuskript].
- Taleb, N. N. [2007]: The Black Swan – The Impact of the Highly Improbable, Random House, New York 2007.
Autoren
Frank Romeike, Gründer und geschäftsführender Gesellschafter RiskNET GmbH – The Risk Management Network
Stefan Trummer, Head of Risk Solutions, BearingPoint Software Solutions