Methoden des Risk Managements
Der Value at Risk als Standardrisikomaß
Bei Banken und auch Versicherungen hat die Risiko-Kennzahl "Value at Risk" seit Mitte der 90er Jahre einen fast kultartigen Status erreicht. In den letzten Jahren wird sie auch vermehrt in anderen Branchen und Risikobereichen angewendet. Übersetzt man "Value at Risk" wörtlich, so erhält man den "gefährdeten Wert" oder das "Vermögen das einem Risiko ausgesetzt ist". Doch was steckt genau hinter dieser Kennzahl? Inwieweit ist sie geeignet, ein Risiko korrekt zu bewerten?
Der VaR zum Konfidenzniveau 1-α ist das α-Quantil der Verteilung der Wertveränderung (Gewinne und Verluste) einer Risikoposition über die Haltedauer. Der VaR ist ein Downside-Risikomaß, das nur der Messung potenzieller Verluste dient ("downside risk"), das heißt nur das "negative Ende" der Wahrscheinlichkeitsverteilung fließt in die Analyse ein.
Cash Flow at Risk im Corporate Risk Management
Industrie- und Handelsunternehmen sind einer Vielzahl potenzieller operativer und strategischer Risiken sowie Finanzrisiken ausgesetzt. Häufig sind beispielsweise operative Cash Flows von Markt- und Rohstoffpreisrisiken abhängig. Eine ungünstige Wechselkursentwicklung kann beispielsweise zu Exportrückgängen führen. Steigende Rohstoffpreise mindern bei konstanten Absatzpreisen den Gewinn. Oder eine ungünstige Zinsentwicklung erschwert den Kapitaldienst und kann geplante Investitionen unrentabel werden lassen. Alle Risikofaktoren zusammen können die Liquidität eines Unternehmens gefährden.
Wie wirken sich eine Veränderung der Rohstoffpreise und der Wechselkurse auf die operativen Cash Flows, den Gewinn oder den Umsatz aus? Mit welcher Wahrscheinlichkeit werden die operativen Cash Flows den Finanzbedarf des Unternehmen decken (Liquiditätssicherung)? Mit Hilfe der Cash-Flow-at-Risk-Methode können diese und weitere Fragen beantwortet werden.
Varianz-Kovarianz-Ansatz (Delta-Normal-Ansatz, Delta-Gamma-Ansatz)
Die Quantifizierung von Risiken kann grundsätzlich auf zwei Wegen erfolgen, analytisch oder durch Simulation. Für den analytischen Weg bedarf es einer Verteilungsannahme. Beim Varianz-Kovarianz-Modell wird die Stochastik der Risikofaktoren (Volatilitäten und Korrelationen) durch eine Kovarianzmatrix beschrieben, wobei von multivariat normalverteilten Änderungen der Risikofaktoren ausgegangen wird. Der Vorteil des Varianz-Kovarianz-Modells liegt darin, dass eine einfache und schnelle Analyse von Diversifikations- und Hedgeeffekten zwischen den Portfoliobestandteilen ermöglicht wird.
Das Varianz-Kovarianz-Modell existiert in zwei Varianten, dem Delta-Normal-Ansatz und dem Delta-Gamma-Ansatz.
FMEA (Failure Mode and Effects Analysis)
Die Fehlermöglichkeits- und Einflussanalyse bzw. Ausfalleffektanalyse (FMEA = Failure Mode and Effects Analysis) ist eine systematische, halbquantitative Risikoanalysemethode. Sie wurde ursprünglich zur Analyse von Schwachstellen (Risiken) technischer und militärischer Systeme oder Prozesse entwickelt. So wurde die FMEA beispielsweise in den sechziger Jahren für die Untersuchung der Sicherheit von Flugzeugen entwickelt und anschließend auch in der Raumfahrt, für Produktionsprozesse in der chemischen Industrie und in der Automobilentwicklung verwendet.
FMEA folgt dem Grundgedanken einer vorsorgenden Fehlervermeidung anstelle einer nachsorgenden Fehlererkennung und -korrektur (Fehlerbewältigung) durch frühzeitige Identifikation und Bewertung potenzieller Fehlerursachen bereits in der Entwurfsphase.
Fehlerbaumanalyse
Mit Beginn der 1960er Jahre wurden Techniken zur systematischen Analyse sicherheitskritischer Systeme entwickelt. Dazu gehören neben der Hazard and Operability Analysis (HAZOP) und der FMEA auch die Fehlerbaumanalyse (fault tree analysis, FTA), die im Jahr 1961 als deduktives Verfahren in den Bell Telephone Laboratories entwickelt wurde. Ziel war ursprünglich die Analyse des Abschusskontrollsystems für die von Boeing hergestellte Interkontinentalrakete vom Typ LGM-30 Minuteman. In den 1970er und 1980er Jahren wurde die Fehlerbaumanalyse unter anderem bei der Planung von Atomkraftwerken eingesetzt.
Die Fehlerbaumanalyse ist als Methode der Systemanalyse in der DIN 25424 beschrieben (Fehlerbaumanalyse, Teil 1: Methode und Bildzeichen, Teil 2: Handrechenverfahren zur Auswertung eines Fehlerbaumes).
Szenarioanalyse (deterministisch)
Die (deterministische) Szenarioanalyse ist im betriebswirtschaftlichen Kontext eine heutzutage verbreitete Methode, die insbesondere im Bereich Strategie/Unternehmensentwicklung, aber auch im Risikomanagement, als Instrument der Entscheidungsvorbereitung und -unterstützung etabliert ist. Sie wird vorrangig bei zukunftsorientierten Fragestellungen eingesetzt, kann aber auch bei der Auswahl einer Alternative bei einer unmittelbar anstehenden Entscheidung wirkungsvoll unterstützen.
Die Grundidee ist, einen alternativen Zustand zu beschreiben und anhand dieser Beschreibung Konsequenzen auf eine zu untersuchende Fragestellung abzuleiten. In aller Regel werden die so erhaltenen Kenntnisse verwendet, um darauf aufbauend zu konkreten Handlungsempfehlungen zu gelangen.
Monte-Carlo-Simulation
Die Monte-Carlo-Simulation wird häufig für die Lösung komplexer Aufgaben wie beispielsweise zur Messung finanzieller Risiken oder im Bereich Bandbreitenplanung (EBIT@Risk, Cash Flow at Risk etc.) vorgeschlagen. Es handelt sich dabei um ein Simulationsverfahren auf Basis von Zufallszahlen, dessen Name zunächst etwas kurios erscheinen mag. Die genaue Herkunft der Bezeichnung für dieses Simulationsverfahren ist nicht bekannt, jedoch wurde in diesem Zusammenhang der Begriff "Monte Carlo" das erste mal im zweiten Weltkrieg als Deckname für eine geheime Forschung im Bereich des amerikanischen Atomwaffenprogramms verwendet. Zwei Wissenschaftler haben 1942 in Los Alamos für die Lösung komplexer Probleme das Simulationsverfahren angewendet, welches 1949 als Monte-Carlo-Simulation bekannt wurde. Vermutlich wurde der Name zuvor von einem 1862 in Monaco gegründeten Casino abgeleitet, da ein Roulettetisch streng genommen ebenfalls ein Zufallszahlengenerator ist.
Die Generierung von Zufallszahlen ist der wesentliche Unterschied zwischen der Monte-Carlo-Simulation und der Historischen Simulation. Statt der Verwendung von historischen Wertänderungen wird die Unsicherheit über das zukünftige Verhalten der Risikofaktoren mit Zufallszahlen angegangen.
System Dynamics
System Dynamics (SD) oder Systemdynamik ist eine von Jay W. Forrester an der Sloan School of Management des MIT entwickelte Methodik zur ganzheitlichen Analyse und (Modell-) Simulation komplexer und dynamischer Systeme. Anwendung findet sie insbesondere im sozio-ökonomischen Bereich. So können die Auswirkungen von Management-Entscheidungen auf die Systemstruktur und das Systemverhalten (beispielsweise Unternehmenserfolg) simuliert und Handlungsempfehlungen abgeleitet werden. In der Praxis findet die Methodik insbesondere bei der Gestaltung von Lernlabors und der Hinterlegung von Balanced Scorecards mit Strategy Maps Verwendung. Die Erarbeitung solcher Systeme erfolgt mittels qualitativer und quantitativer Modelle auf Basis von Ursache-Wirkungsbeziehungen.
System Dynamics lieferte die grundlegende Methodik zur Simulation des Weltmodells World3, das für die Studie "Die Grenzen des Wachstums" im Auftrag des Club of Rome erstellt wurde.