In dem Beitrag "6 Ways Companies Mismanage Risk" (Harvard Business Review, March 2009] wird erklärt, was die Risikomanager in jüngerer Zeit falsch gemacht haben. Insgesamt werden sechs typische Fehler diskutiert. Dem Autor geht es aber eindeutig "nur" um praktische Umsetzungsfehler. Die implizite Annahme bei seiner Diskussion lautet: Im "Prinzip" ist die Grundstruktur der heutigen Risikomodelle richtig; es geht also lediglich um fehlerhafte Anwendungen. Im vorliegenden Beitrag wird diese Sichtweise bestritten. Wir behaupten: Das Grundmodell hat eine falsche Struktur. Wenn das Grundmodell falsch ist, warum ging es bis zum Sommer 2007 dann gut? Warum funktionierte das Grundmodell danach nicht mehr? Die Antwort ist einfach: Selbst eine Fehlkonstruktion kann funktionieren, wenn sie nicht extremen Belastungen ausgesetzt ist. Die extreme Belastung setzte im Jahr 2007 mit dem Zusammenbruch des Subprime-Marktes ein. Erst zu diesem Zeitpunkt wurden die konzeptionellen Fehler im Risikomanagement offensichtlich.
Historische Verteilungsfunktionen
Um die Mängel der stochastischen Datenanalyse zu demonstrieren, beginnen wir mit einem Beispiel aus der Welt des Fußballs. Die folgende Aussage sei korrekt: Mannschaft A hat noch nie ein Auswärtsspiel bei Mannschaft B gewonnen. Die Frage lautet. Steht damit das Ergebnis für das nächste Spiel schon fest? Nein. Es hätte sonst wenig Sinn, dass Spiel überhaupt anzupfeifen. Um ein Ergebnis zu prognostizieren, sollte man in die Zukunft und nicht in die Vergangenheit schauen. Dabei muss überlegt werden: Welche Spieler können für das kommende Spiel in der eigenen und in der gegnerischen Mannschaft eingesetzt werden? Wie haben sich die in Frage kommenden Spieler in den letzten Wochen präsentiert? Natürlich schaut man zur Beantwortung der Fragen auch in die Vergangenheit. Dabei sucht man nach detaillierten Informationen über Faktoren, die das künftige Ergebnis beeinflussen können. Wichtig sind verfügbare Informationen über Details aller beteiligten Personen. So etwas nennt man Szenarioanalyse. Detailinformationen über Einflussfaktoren sind jedoch streng zu unterscheiden von Pauschalinformationen über Gesamtergebnisse.
Diese Einsicht aus der Welt des Fußballs hat sich im Finanzsektor aber leider noch nicht herumgesprochen. Im finanzwirtschaftlichen Risikomanagement von heute geht man typischerweise folgendermaßen vor: Für jede Anlageentscheidung benötigt man Informationen über die zukünftigen Renditeentwicklungen. Die Zukunft ist unbekannt. Anhaltspunkte für die zukünftige Entwicklung basieren auf Erfahrungen aus der Vergangenheit. In den von uns kritisierten stochastischen Modellen begeht man einen entscheidenden Fehler. Man verwendet nicht die Vergangenheitsdaten über die wirklich wichtigen Einflussfaktoren. Stattdessen werden Vergangenheitsdaten über die Gesamtergebnisse aus historischen Zeitperioden verwendet. Man verwendet Zeitreihen für vergangene Wertpapierrenditen. Aus den Zeitreihen berechnet man empirische Häufigkeitsverteilungen. Aus den Verteilungen werden statistische Kennzahlen kalkuliert. Dazu gehören das arithmetische Mittel bzw. der Erwartungswert, die Standardabweichung bzw. die Varianz; bei mehrdimensionalen Verteilungen kommen Kovarianzen hinzu. Die errechneten Kennzahlen charakterisieren die gesuchten Renditeverteilungen eindeutig und endgültig. Mit den Parametern aus den historischen Renditeverteilungen löst man nach Markowitz [Vgl. Markowitz, H: Portfolio Selection, in: Journal of Finance, Vol. VII, March 1952, P. 77 ff.] das Problem der Anlageentscheidung auf eine sehr einfache Weise.
In der Markowitz-Welt stehen in der Zielfunktion und in den Nebenbedingungen keine Zufallsvariablen mehr. Durch den Einbau der Verteilungsparameter entsteht eine deterministische Optimierungsaufgabe; damit ist die Stochastik ausgeschaltet. Diese Umformulierung macht Markowitz jedem Anwender durch zwei Ideen plausibel: Erstens, jedes Wertpapier muss mit Blick auf zwei Dimensionen quantifiziert werden: Erwartungsertrag und Risikohöhe. Zweitens, die Risikohöhe wird durch die Varianz der Ertragsraten gemessen. Das undefinierbare Konzept der "Zukunftsungewissheit" wird durch die eindeutig definierte Kennzahl "Varianz" berechnet. Varianz und Risiko sind heute synonyme Begriffe. Für die Berechnung der Varianz gibt es auf jedem Taschenrechner ein einfaches Programm. Jeder Mensch, der einen Taschenrechner zu bedienen versteht, kann sich als Finanzexperte präsentieren. Die Berechenbarkeit von Kennzahlen ist für Praktiker im Risikomanagement von äußerster Wichtigkeit. Ohne die Möglichkeit, konkrete Kennzahlen zu berechnen, können sie ihren Beratungsauftrag nicht erfüllen und hätten ihre Existenzberechtigung verloren.
Die Voraussetzung für die Berechenbarkeit von expliziten Kennzahlen ist die Existenz einer exogen gegebenen Verteilungsfunktion. Für das Markowitz-Modell ist das ganz offensichtlich. Für das Black-Scholes-Modell ist das nicht mehr so klar. Jedes Lehrbuch über stochastische Finanzmarkttheorie betont jedoch die Wichtigkeit von Standard-Stochastik-Verfahren für die Berechenbarkeit von Lösungen; das Paradebeispiel ist das Ito-Lemma [Vgl. Schachermayer, W; Teichmann, J: Wie K. Itô den stochastischen Kalkül revolutionierte, Working Paper, TU Wien, September 2007.]. Ohne die Annahme exogen gegebener Zufallsprozesse sind explizite Lösungen nicht kalkulierbar.
Für komplizierte Finanzinstrumente, beispielsweise exotische Derivate, gibt es explizite Lösungen dann (und nur dann), wenn ein exogen gegebener Zufallsprozess unterstellt wird. Die expliziten Lösungen sind erforderlich, um eindeutige Preise für Derivate berechnen zu können. Ohne konkrete Preisangabe für die verschiedenen Derivatetypen ist kein Derivatehandel möglich. Bekanntlich war gerade der Derivatehandel das profitabelste Geschäftsfeld von Investmentbanken bis zum Sommer 2007. Auf den Sachverstand der Stochastiker konnten Investmentbanker nicht verzichten. Banken waren fest in der Hand von Stochastik-Experten. Ökonomischer Sachverstand war in Investmentbanken nicht gefragt und scheinbar auch nicht vorhanden. Ein weiter Gesichtspunkt macht die Unterstellung exogener Verteilungsfunktionen für Banken zwingend notwendig. Dabei geht es um die Vorschriften gemäß der Basel-II-Regulierung. In Säule I wird die Haltung von Mindestbeständen an Eigenkapital geregelt. Eigenkapital fungiert als Puffer gegen Überschuldung.
Aus der Struktur und den Volumina der Bankaktiva wird eine Sollkennzahl für die Eigenkapitalhöhe berechnet. Diese Kennzahl heißt "Value at Risk" (VaR). Der VaR stellt dabei die in Geldeinheiten berechnete negative Veränderung eines Wertes dar, die mit einer bestimmten Wahrscheinlichkeit (auch als Konfidenzniveau bezeichnet) innerhalb eines festgelegten Zeitraumes nicht überschritten wird. Ohne eine exogen gegebene Verteilungsfunktion ist ein VaR-Wert nicht kalkulierbar. Für die Berechnung der Verteilungsfunktion gibt es verschiedene von der Aufsicht zugelassene Methoden. Die Aufsichtsbehörde muss in der Lage sein, die Einhaltung der Rechenvorschriften zu überprüfen. Dazu müssen objektiv eindeutige und widerspruchsfreie Berechnungsmethoden für die Verteilungen vorliegen. Von der Aufsichtsbehörde werden also Berechnungen geprüft; die Realität ist irrelevant. Dass die Verwendung einer exogenen Verteilungsfunktion ein Problem darstellen könnte, wird von der Aufsichtsbehörde überhaupt nicht gesehen.
Passive Gegenspieler
Die Verwendung exogen gegebener Verteilungsfunktionen in stochastischen Modellen hat eine wichtige Implikation: Der Gegenspieler des Entscheidungsträgers kann definitionsgemäß nicht reagieren. Die Entscheidungssituation wird durch eine Spielsituation am Roulette-Tisch sehr gut beschrieben. Die Eintrittswahrscheinlichkeiten für alle denkbaren Realisationen am Roulette-Tisch bleiben stets unverändert, was immer der Roulette-Spieler auch tut. Wir können somit einen aktiven und einen passiven Spieler unterscheiden. Der passive Spieler kann als Natur, Schicksal oder der "liebe Gott" bezeichnet werden. Er trifft keine eigenen Entscheidungen; er reagiert nicht auf die Aktionen des aktiven Spielers. Die einzige Aktion der Natur ist die Festlegung des Endresultats. Dazu muss das Roulette-Rad in Bewegung gesetzt werden. Das Resultat wird durch einen reinen Zufallsmechanismus gesteuert. Der Zufallsprozess ist kalkulierbar, weil er den Gesetzmäßigkeiten der Wahrscheinlichkeitsrechnung unterliegt. Man versteht jetzt auch die immer wieder betonte Notwendigkeit, mit exogen gegebenen Verteilungsfunktionen zu arbeiten. Explizite Lösungen sind dann (und nur dann) kalkulierbar, wenn die Wahrscheinlichkeitsrechnung anwendbar ist. In der Literatur spricht man oft von "Quasi-Sicherheit".
Die Unterscheidung zwischen aktiven und passiven Spielern schafft unterschiedliche Typen von Ungewissheit: "There are essentially two sources of uncertainty: the possibility of uncontrolable events, and the unpredictability of human behavior" [Vgl. Alchian, A; Allen, W (1983): Exchange and Production, 3. Edition, Belmont (Cal.) 1983, S. 184]. Man spricht von "event uncertainty" und "behavioral uncertainty". Die deutschen Begriffe sind "Zustandsungewissheit" und "Verhaltensungewissheit" [Vgl. Bieta, V./Broll, U./Milde, H./Siebe, W. (2006): Zustandsrisiken und Verhaltensrisiken sind nicht dasselbe, in: Risiko-Manager, Ausgabe 11/2006, S. 16 ff.]. Wie oben gezeigt wurde, gibt es bei Existenz exogener Verteilungsfunktionen definitionsgemäß keinen aktiv handelnden Gegenspieler. Wenn es keine gegnerischen Handlungen gibt, dann existiert auch keine Ungewissheit über potenzielle gegnerische Handlungen. Es gibt keine Verhaltensungewissheit. Stochastische Modelle kennen ausschließlich die Zustandsungewissheit.
Dieser Tatbestand ist nicht überraschend. Markowitz, Black, Scholes und Merton haben ihre finanzwirtschaftlichen Zufallsprozesse nach Vorbildern aus den Naturwissenschaften modelliert. In der Natur gibt es weder menschliches Verhalten noch Verhaltensungewissheit. Bei Naturwissenschaftlern und Ingenieuren existiert nur der Typ "Zustandsungewissheit". Im Finanzbereich heißt das dann bezeichnenderweise "financial engineering". Wenn man den Finanzsektor betrachtet und feststellt, dass aktiv handelnde Entscheidungsträger überall das Bild dominieren, dann gibt es für den Stochastik-Ansatz nur eine Klassifikation: falsche Modellbildung. Setzt man die ökonomische Interpretation fort, dann kann man den passiven Spieler "Natur" durch den Begriff "Markt" ersetzen. Jetzt lautet die Aussage: Der Markt reagiert nicht. In der mikroökonomischen Theorie wird so die Marktform der vollständigen Konkurrenz beschrieben. Bei der Annahme der vollständigen Konkurrenz gibt es nie Marktreaktionen auf Handlungen einzelner Entscheidungsträger. Diese Reaktionshypothese steckt im Portfoliomodell von Markowitz, in Derivate-Modellen vom Typ Black-Scholes-Merton und in allen modernen Neuentwicklungen im Bereich "financial engineering".
Für einen Stochastiker haben ökonomische Implikationen keine Bedeutung. Für sie ist nur wichtig, dass man rechnen kann. Schon Goethe macht sich über diese Einstellung lustig: "Was ihr nicht rechnet, glaubt ihr, sei nicht wahr" (Faust II, 1. Akt, Kaiserliche Pfalz). Ein Ökonom, der diesen Namen verdient, schaut aber durchaus auch in die Realität. Von vollständiger Konkurrenz auf den Finanzmärkten kann heute keine Rede sein. Pension-, Renten, und Versicherungsfonds dominieren mit beachtlicher Marktmacht den Finanzsektor.
Vor 100 Jahren, in der Zeit von Louis Bachelier [Vgl. Bernstein, P (1992): Capital Ideas, New York 1992., S. 18 ff], war die Konkurrenzannahme sinnvoll. In dieser Welt hatten stochastische Ansätze eine Basis. In der heutigen Zeit hat diese Annahme einen Realitätsbezug von Null. Die Realitätsnähe oder die Realitätsferne sagen natürlich nichts aus über die Brauchbarkeit einer Theorie. Über die Brauchbarkeit entscheidet der Erklärungsgehalt. Hier ist das Urteil vernichtend. Stochastische Ansätze können die Vergangenheit nicht erklären, die Zukunft nicht prognostizieren und keine Handlungsanweisungen für die Praxis geben. Falsche Modelle haben ganze Volkswirtschaften in Chaos getrieben. Wir sollten nicht zögern, unbrauchbare Modelle unverzüglich aus unserem Denken zu streichen.
Fehlende Anreizsteuerung
In unserer Diskussion wurde das Stichwort "Anreizmechanismus" bislang nicht erwähnt. In der aktuellen Diskussion über die Finanzmarktkrise sind gerade Anreizprobleme die ganz zentralen Gesichtspunkte: Bei der Ursachenanalyse sind unangemessene Manageranreize (Bonussysteme), bei der Bekämpfungsanalyse sind Nachfrageranreize (Abwrackprämie) wichtige Aspekte. Im Gegensatz dazu werden Anreizaspekte in der Stochastik nicht einmal ansatzweise berücksichtigt. Damit ignoriert man auch elementare Grundsätze der ökonomischen Argumentation.
Jeder Student der Wirtschaftswissenschaften lernt im ersten Semester, dass es Anbieter und Nachfrager gibt. Wie wird das Verhalten von Anbietern und Nachfragern in stochastischen Ansätzen modelliert? Wir erfahren, was die Anleger, also die Nachfrager nach Finanzprodukten, verdient haben. Die Renditeverteilungen für die Anleger wurden schon angesprochen. Was erfährt man über die Renditeverteilungen der Anbieter von Finanzprodukten, also über die Investmentbanker? Gar nichts. Anbieterrenditen werden nicht thematisiert. Dieser Tatbestand ist irritierend. Investmentbanken waren die treibenden Kräfte der Finanzkrise. Sie konnten im Derivate-Geschäft exorbitant hohe Ertragsraten verdienen. Hohe Renditevorgaben waren und sind Anreiz genug, selbst hochspekulative Transaktionen zu forcieren. Das sind die oben angesprochenen unangemessenen Anreize. Dieser Aspekt wird durch stochastische Modelle überhaupt nicht zur Kenntnis genommen. Die Anbieterseite auf Finanzmärkten wird systematisch ausgeklammert.
Das Nachfragerverhalten wird falsch modelliert. Wir sprachen schon oben über die exogenen Verteilungsfunktionen für die Anlegerrendite. Was der Anleger verdient hat und verdienen wird, ist im stochastischen Ansatz eine Sequenz entscheidungsunabhängiger Daten. Als Ökonom würde man hingegen folgendermaßen argumentieren: Renditeverteilungen hängen vom Verhalten aller Mitspieler ab. Das aktuelle und künftige Verhalten wird durch Anreizmechanismen gesteuert. Anreize und Motivation hängen von den Kompensationsregeln ab. Die Kompensation kann monetärer und nicht-monetärer Art sein. In stochastischen Ansätzen ist dieser Wirkungszusammenhang aber ungültig. Es ist völlig gleichgültig, was der Anleger tut; seine Aktionen haben annahmegemäß niemals eine Auswirkung auf den Wertpapierpreis und die Wertpapierrendite. Es besteht kein Zusammenhang zwischen Verhalten einerseits und Ergebnissen andererseits.
Die Ergebnisse fallen in Form von exogenen Renditeverteilungen wie "Manna" vom Himmel. Das ist das "Manna"-Weltbild stochastischer Modelle. Da das Ergebnis in der Welt der Stochastik vom konkreten Verhalten unabhängig ist, muss man sich über Anreizsteuerung keine Gedanken zu machen. Das ist natürlich völlig absurd, wenn man sich die Situation der heutigen Finanzkrise anschaut. Wie schon erwähnt, waren die exorbitant hohen Gewinne der Investmentbanken die Anreize dafür, im Geschäft mit Derivaten immer weiter und weiter zu machen; neue Derivatetypen mussten erfunden werden, um weiterhin am boomenden Finanzsektor zu partizipieren. Auch die Nachfrager haben hier mitgespielt. Sie wollten ebenfalls ihren Anteil kassieren. Für die unbestreitbare Wirksamkeit von Anreizmechanismen ist das Verhalten aller Finanzmarktteilnehmer im Vorfeld der Krise die beste Evidenz. Wir sprachen bereits von Kompensationsüberlegungen. Im folgenden Beispiel werden wir fragen: Wie viel erhält der Anbieter? Wie viel erhält der Nachfrager? Wir beschränken uns hierbei auf rein monetäre Kompensationen; es geht also um Zahlungen an die beiden Marktparteien. Wie in jeder vernünftigen ökonomischen Analyse reagieren die Entscheidungsträger mit unterschiedlichen Entscheidungen auf unterschiedliche Zahlungen. Sie werden sich für eine neue Aktion entscheiden, wenn sie dabei eine höhere Zahlung erwarten können. Es soll noch einmal betont werden, dass diese Verhaltensannahme für beide Marktseiten gilt. Es gibt nur noch aktive Mitspieler. Im folgenden Beispiel werden alle oben angesprochenen Kritikpunkte korrigiert: Das Anreizsteuerung ist wirksam, es gibt keine passiven Spieler, historische Verteilungsfunktionen sind überflüssig.
[Den vollständigen Beitrag lesen Sie in Ausgabe RISIKO MANAGER 16/2009. Die Ausgabe ist seit 6. August 2009 lieferbar]
Autoren:
Dr. Volker Bieta ist Lehrbeauftragter an der TU Dresden.
Dr. Hellmuth Milde ist Gastprofessor an der Universität Luxemburg.
[Bildquelle: iStockPhoto]
Kommentare zu diesem Beitrag
Es ist zwar richtig, dass Markowitz, Black, Scholes und Merton ihre finanzwirtschaftlichen Zufallsprozesse nach Vorbildern aus den Naturwissenschaften modelliert haben. Eigentlich haben sie alle von Bachelier abgeschrieben und in ihren Modellen eine Normalverteilungsannahme unterstellt. Da die Normalverteilung jedoch insbesondere Extremereignisse (fat tails) ausblendet, ist sie für die meisten ökonomischen Fragestellungen ungeeignet.
Stochastische Modelle müssen jedoch nicht auf einer Normalverteilungsannahme basieren, sondern können mit jeder beliebigen theoretischen oder empirischen Verteilungsfunktion umgehen. Nein, liebe Autoren, mit ihrer Kritik an stochastischen Methoden liegen Sie ziemlich schief ...
Nein, liebe Autoren, bitte etwas mehr Tiefgang beim nächsten Mal.
PS: Denn sie wissen nicht was sie tun!
Mandelbrot hat weiter darauf hingewiesen, dass viele Modelle aufgrund einer Normalverteilungsannahme Risiken systematisch unterschätzen würden: "Ich habe mit Nachdruck darauf hingewiesen, dass dieses Konzept viele Schwachstellen hat und damit zur Beurteilung des Risikos an den Finanzmärkten untauglich ist. Man unterschlägt, dass die Aktienkurse auch große Ausschläge machen können, und die haben große Bedeutung: Würden die zehn schlimmsten Kursabstürze der vergangenen sieben Jahre aus dem S&P-500-Index herausgerechnet, stünde das US-Börsenbarometer heute doppelt so hoch. Daher werden die Risiken an den Finanzmärkten systematisch unterschätzt."
Mandelbrot auf die Frage, ob es aus seiner Sicht einen Unterschied zwischen Börse und Spielsalon gibt?
"Ein Mathematiker kann ein Spiel nur dann untersuchen, wenn es strikten Regeln gehorcht, die sich im Spielverlauf nicht ändern. An der Börse indes agieren Menschen. Und die sind in der Lage, auf Neuigkeiten zu reagieren. Es ist durchaus wert, sich in Erinnerung zu rufen, dass die Wahrscheinlichkeitsrechnung von zwei Mathematikern – Pascal und Fermat – begründet wurde, die von einem professionellen Spieler – de Méré – beraten wurden."
Und zum Schluss des Interviews gibt es dann noch eine ordentliche Ohrfeige für alle Wirtschafts-Nobelpreisträger: "Das Verständnis von den Finanzmärkten hat sich in den letzten einhundert Jahren - mithin seit der Theorie vom zufälligen Münzwurf - noch nicht wesentlich weiterentwickelt." ;-))
besser als der Kommentar von "Papiertiger".
Wenn man Ihn 2006/07 rausgeworfen hätte,
wäre heute ein Opportunist weniger im
Bankensystem. Mir scheint, die verbliebenen
Ignoranten wollen nach der Krise genau da
weitermachen, wo sie vor 2 jahren stoppen
mussten. Umlernen ist ein Fremdwort für sie.
Deines eigenen Kommentars.
Es sind die Stichworte "Anreizsystem" und "Haftung". Die
angesprochenen Opportunisten
reagieren sehr systematisch auf Kompensations-Anreize. Die
Spieltheorie sagt uns, wie das
neue Anreiz-Design aussehen muss, damit sich die Opportunisten bewegen.
So und nur so kann
man die Opportunisten mit den eigenen Waffen schlage. Das glaube ich im
Ernst. In drei Kommentaren
findet man die Formulierung: Du glaubst doch nicht im Ernst. Jetzt frage
ich: Du glaubst doch nicht
im Ernst, dass man mit stochastischen Modellen die naechste
Finanzkrise verhindern kann.
Leider sind die meisten (Pseudo-)Experten im völligen Irrglauben und sind davon überzeugt, dass ich nur an meinen Methoden und Instrumenten herumschrauben muss und schon kann ich die nächste Blase verhindern. Risiken werden auch in der Zukunft im Verborgenen schlummern und auch nicht mit den besten Methoden sichtbar werden. Wir werden immer wieder von schwarzen Schwänen überrascht werden. Daher ist der Ansatz von Prof. Milde zu unterstützen: Verhaltensrisiken müssen u.a. berücksichtigt werden. Das ist für mich aber keine Frage des methodischen Ansatzes, da ich auch in stochatischen Modellen Verhaltensrisiken (da liegen Sie leider falsch, Prof Milde) berücksichtigen kann. Und zu den Verhaltensrisiken gehören auch die Entscheidungen auf der politischen Seite, die diese Krise erst das Fundament bereitet haben.