Die Realität, insbesondere im Bereich der Finanzmärkte oder der globalen Wertschöpfungsnetzwerke, spiegelt regelmäßig ein äußerst komplexes Bild von Abhängigkeiten und Rückkoppelungen wider. Unterschiedliche Ursachen interner und externer Art sind durch zahlreiche Abhängigkeiten miteinander verknüpft und unterliegen nicht selten sehr starken und abrupten Veränderungen.
Die Finanzwelt und deren Akteure sind komplexe Netzwerke ohne einfache Ursache-Wirkungs-Logik. Diese Komplexität kann direkt auch auf die Risikolandkarte der Marktteilnehmer übertragen werden. Soll nun beispielsweise in Form einer stochastischen Szenarioanalyse eine Risikoaggregation durchgeführt werden, so führen die klassischen Werkzeuge der Abhängigkeitsmodellierung schnell an Grenzen. Das omnipräsente Maß für die Beschreibung von Abhängigkeiten ist die lineare Korrelation in Form des (Pearson'schen) Korrelationskoeffizienten ρX,Y zwischen zwei Zufallsvariablen X und Y mit endlichen Varianzen Var(X) und Var(Y), sowie Kovarianz Cov(X,Y). Die Korrelation kann interpretiert werden als eine Maßzahl für die Stärke der stochastischen Abhängigkeit zwischen X und Y. Sie nimmt stets Werte zwischen -1 und +1 an, wobei im Falle der Unabhängigkeit eine Korrelation von Null vorherrscht. Korrelationen sind unter anderem aus dem Grund so beliebt, da der Korrelationskoeffizienten sehr einfach und intuitiv interpretierbar ist.
Bei der Interpretation einer Abhängigkeit mittels Korrelation sollten jedoch auch die Nachteile bekannt sein. In einem hochdimensionalen (und mitunter hochkomplexen) System von beispielsweise Risiken mit mehr als zwei Zufallsgrößen kann es sein, dass fundamentale kausale Zusammenhänge innerhalb des Gesamtsystems übersehen werden, wenn nur alle paarweisen Korrelationen betrachtet werden.
So muss außerhalb der Normalverteilungswelt die Korrelation nicht mehr das natürlichste Maß für die Abhängigkeitsstärke zwischen Zufallsvariablen sein. Insbesondere kann es vorkommen, dass bei einem Zufallsvektor der Dimension größer als zwei die Kenntnis aller paarweisen Korrelationen nicht ausreicht, um die gemeinsame Wahrscheinlichkeitsverteilung des Zufallsvektors zu definieren. So existieren beispielsweise dreidimensionale Zufallsvektoren, deren paarweise Korrelationen allesamt Null sind. Aber die drei Zufallsvariablen sind trotzdem nicht stochastisch unabhängig. Bei der Interpretation des Pearson'schen Korrelationskoeffizienten muss berücksichtigt werden, dass nur die "lineare Abhängigkeit" zwischen zwei Zufallsvariablen gemessen wird.
Die Autoren Mai und Scherer verdeutlichen, dass es durchaus sein kann, dass zwei Zufallsvariablen stark abhängig sind (in einem intuitiven Sinn), aber deren Korrelation Null beträgt. Ein einfaches Beispiel ist die Korrelation zwischen X und X2 für eine standardnormalverteilte Zufallsgröße X. Jeder würde intuitiv zustimmen, dass diese beiden Größen stark abhängig sind, jedoch ist ihre Korrelation tatsächlich Null. Solche Probleme können behoben werden – so die Autoren weiter – indem anstelle des Korrelationskoeffizienten ein sogenanntes Konkordanzmaß (Concordance Measures) verwendet wird. Die bekanntesten Konkordanzmaße sind Kendall's Tau und Spearman's Rho. Diese Maße können die Abhängigkeit genauer erfassen und sind nicht nur auf den linearen Anteil der Abhängigkeit eingeschränkt. Außerdem gibt es für diese Maße, genauso wie für die Korrelation, empirische Pendants, welche es ermöglichen aus gegebenen Daten die jeweiligen theoretischen Größen einfach und präzise zu schätzen.
Die Autoren weisen darauf hin, dass das reduzierte Denken in Korrelationen als alleiniges Maß für die Abhängigkeit große Gefahren birgt. Insbesondere legen Mai und Scherer dar, dass für viele Anwendungen die Normalverteilung nicht geeignet ist. Speziell bei extremen Risiken (Tail-Risiken etc.) sollten andere Verteilungsklassen bevorzugt werden.
Basierend auf dem Satz von Sklar zeigen die Autoren, dass jede multivariate Verteilungsfunktion F in eine Copula C (eine Funktion, die selbst eine Verteilungsfunktion auf dem d-dimensionalen Einheitskubus mit uniformen Rändern ist) sowie die Randverteilungen F1,…,Fd aufgespalten werden kann. Die Randverteilungen werden dabei als Argumente in die Copula eingesetzt, und man erhält so die gemeinsame Verteilung. Umgekehrt lässt sich aus beliebigen Randverteilungen und einer beliebigen Copula stets eine (mathematisch korrekte) multivariate Verteilungsfunktion konstruieren. Copulae werden vor allem eingesetzt, um Rückschlüsse auf die Art der stochastischen Abhängigkeit verschiedener Zufallsvariablen zu erzielen oder um Abhängigkeiten gezielt zu modellieren.
Der Einsatz von Copulae ist heute bereits weit verbreitet in einer Reihe von Derivategeschäften, im Asset Pricing sowie bei der Modellierung von Risiken im Rückversicherungs- oder Bankenbereich. Allerdings muss man sich bewusst sein, dass Copulae aufgrund ihrer Natur komplex sind und eine fehlerhafte Anwendung einen großen Schaden anrichten kann. In diesem Kontext liefern Mai und Scherer mit ihrem Buch eine exzellente Einführung in die komplexe Materie der Modellierung von Abhängigkeitsstrukturen mit Hilfe von Copulae. In acht Kapiteln nehmen sie den Leser mit auf eine angenehme und spannende Reise in die für viele verborgene Welt der Modellierung von Abhängigkeiten mit Hilfe von Copulae. Die Anwendung wird anhand einfacher Beispiele – vielfach dargestellt im R-Code – veranschaulicht.
Fazit: Das Buch ist eine didaktisch exzellente und verständliche Einführung in die Welt der Copulae – insbesondere auch für Nicht-Mathematiker.