In this thesis we investigate two market risk factors only, the FX rates USD vs. DEM and GBP vs. DEM, and use the Gumbel-Hougaard copula [4] to describe their dependence structure. We present algorithms to estimate the parameter of this copula and to generate pseudo random numbers due to a copula dependence. Based on about 2000 items of historical data, we compute the VaR using a copula-modified MC algorithm. To see the advantage of this method, we compare these results with VaR results obtained from traditional" MC simulations and from the variance-covariance method. On the basis of our backtesting results, we find that the copula method" is more reliable than the other two methods.
[Source: Rank, Jorn: Oxford University, 2000]
Rank 7108 Downloads12.08.2009
Datei downloaden Modern risk management calls for an understanding of stochastic dependence going beyond simple linear correlation. This paper deals with the static (non-time-dependent) case and emphasizes the copula representation of dependence for a random vector. Linear correlation is a natural dependence measure for multivariate normally and, more generally, elliptically distributed risks but other dependence concepts like comonotonicity and rank correlation should also be understood by the risk management practitioner. Using counterexamples the falsity of some commonly held views on correlation is demonstrated; in general, these fallacies arise from the naive assumption that dependence properties of the elliptical world also hold in the non-elliptical world. In particular, the problem of finding multivariate models which are consistent with prespecified marginal distributions and correlations is addressed. Pitfalls are highlighted and simulation algorithms avoiding these problems are constructed.
[Source: Embrechts, Paul/McNeil, Alexander/Straumann, Daniel, ETH Zurich, 1999]
Embrechts 2595 Downloads11.08.2009
Datei downloaden Die mit der elektronischen Datenverarbeitung verbundenen Risiken stellen einen bedeutenden Anteil des operativen Risikos einer Unternehmung dar. Der technologische Wandel und der zunehmende Wettbewerb erfordern, permanent Änderungen an den bestehenden IT- und Kommunikationssystemen vorzunehmen. Allein US-Unternehmen investieren jedes Jahr 250 Milliarden Dollar in IT-Projekte. Die erfolgreiche Bewältigung komplexer IT-Projekte hat für die Wettbewerbsfähigkeit von Unternehmen erhebliche strategische Bedeutung. Ein erfolgreiches Unternehmen muß in der Lage sein, Projekte professionell durchzuführen, um neue Produkte und Dienstleistungen in hoher Qualität zeitgerecht einzuführen.
[Quelle: Markus Gaulke: Risikomanagement für erfolgreiche IT-Projekte, in: RISKNEWS 05/2003, S. 54-28.]
Gaulke 2822 Downloads11.08.2009
Datei downloaden Das Denken in Netzen wird das Denken in Pyramiden ergänzen, vielleicht sogar ersetzen. Das gängige Strukturmodell im Unternehmen ist immer noch die Pyramide mit dem Chef oben, den Mitarbeitern unten und den Kunden manchmal ganz unten. Die Zukunft gehört horizontalen Netz-Strukturen – nicht nur bei virtuellen Unternehmen, sondern auch innerhalb der Firmen. Prinzipien der Marktwirtschaft müssen und werden auch innerhalb der Unternehmen gelten. Zentralbereiche arbeiten dann als Dienstleistungs-Zentren für die anderen Leistungs-Zentren, beispielsweise Produktion oder Vertrieb. Zentrale Stäbe stehen – wie der Name schon sagt – im Zentrum des "Marktplatzes" Unternehmen und nicht oben auf einer Spitze.
[Quelle: Jürgen Fuchs: Wert-Schöpfung durch Wert-Schätzung - wenn die Mitarbeiter ihren Chef bezahlen, in: RISKNEWS 09/2002, S. 22-28.]
Fuchs 4346 Downloads11.08.2009
Datei downloaden Kreditratings sind eines von mehreren Instrumenten, die Investoren bei ihrer Kaufentscheidung von Anleihen und anderen festverzinslichen Anlagen benutzen können. Dieser Leitfaden erläutert, was Ratings sind und was nicht, wer sie verwendet und warum sie für die Kapitalmärkte von Nutzen sein können. Der vorliegende Leitfaden bietet überdies einen Überblick über die verschiedenen Geschäftsmodelle und Methoden von Ratingagenturen. Er beschreibt außerdem ganz allgemein, wie Standard & Poor’s zu ihren Ratingmeinungen über Emittenten und Emissionen gelangt, wie die daraus resultierenden Ratings überwacht und angepasst werden, und wie sie Ratingänderungen im Zeitverlauf untersucht.
S&P 6532 Downloads06.08.2009
Datei downloaden Im ersten Teil der Serie wurde eine Einführung hinsichtlich der Definition und Modellierung der Recovery Rate in Kreditrisikomodellen gegeben. Es wurde deutlich, dass im allgemeinen die in der Praxis verwendeten Kreditrisikomodelle sehr komplexe Ansätze für die Modellierung der Ausfallwahrscheinlichkeit bieten. Bei der Modellierung der Recovery Rate jedoch wurden häufig sehr vereinfachende bzw. empirisch nicht belegbare Überlegungen angestellt. Im zweiten Teil der Serie, wurde dann die historische Entwicklung von Bond Default Preisen sowie mögliche Einflussvariablen auf die aggregierte Recovery Rate eines Jahres untersucht. Es wurde deutlich, dass die Verwendung einer konstanten Recovery Rate, wie sie in manchen Kreditrisikomodellen getroffen wird, nicht haltbar ist.
Im dritten und letzten Teil der Serie soll daher näher darauf eingegangen werden, wie die Recovery Rate einzelner Kredite in Abhängigkeit von Faktoren wie Seniority, Kapitalstruktur oder Industriezugehörigkeit eines Unternehmens praxisnah geschätzt werden kann. Als exemplarisches Beispiel wird hierbei das von Moody’s verwendete Modell LossCalc vorgestellt. Dieses kann – trotz seiner mathematischen Einfachheit - als Musterbeispiel für die Entwicklung von angewandten Modellen zur Schätzung der Recovery Rate angesehen werden.
[Quelle: Stefan Trück/Jens Deidersen/Peter Niebling: Default Recovery Rates – Theoretische Modellierung und empirische Studien, Teil 3 – Moody’s LossCalc und die Schätzung von individuellen Recovery Rates, in: RiskNEWS, 4. Jg., Nr. 1, Freiburg i.Br. 2003, S. 12-21.]
Trueck 2731 Downloads06.08.2009
Datei downloaden Bei der Modellierung des Kreditrisikos wurde die Recovery Rate bislang häufig wenig beachtet. Meist wurde die Annahme einer fixen Recovery Rate getroffen oder der historische Durchschnitt der Recovery Rates für verschiedene seniority-Klassen verwendet. Ein solches Vorgehen ist jedoch insofern problematisch, da die vereinfachten Annahmen zu einer Fehleinschätzung des Kreditrisikos und somit möglicherweise zu einer ungenügenden Kapitalausstattung der Kreditinstitute bzw. einer falschen Bewertung von Krediten und Anleihen führen können.
Dies ist aber letztendlich nicht nur im Hinblick auf ein funktionierendes Risikomanagement bedenklich, sondern auch bezüglich der Erfüllung der Richtlinien des neuen Basler Akkords zur Eigenkapitalausstattung von Banken, in dem eine emiprisch gestütze Schätzung der Recovery Rates vorgesehen ist. Der folgende Artikel beschäftigt sich insofern mit der Erläuterung, Modellierung und Schätzung von Recovery Rates.
[Quelle: Stefan Trück/Jens Deidersen/S. T. Rachev: Default Recovery Rates – Theoretische Modellierung und empirische Studien, Teil 1 – Einführung und Modellierung der Recovery Rate, in: RiskNEWS, 3. Jg., Nr. 11, Freiburg i.Br. 2002, S. 7-19.]
Trueck 6028 Downloads06.08.2009
Datei downloaden Im ersten Teil der Serie wurde eine Einführung hinsichtlich der Definition und Modellierung der Recovery Rate in Kreditrisikomodellen gegeben. Es wurde deutlich, dass im allgemeinen die in der Praxis verwendeten Kreditrisikomodelle sehr versierte Ansätze für die Modellierung der Ausfallwahrscheinlichkeit bieten. Bei der Modellierung der Recovery Rate jedoch wurden häufig sehr vereinfachende bzw. empirisch nicht belegbare Überlegungen angestellt. Die Annahme einer konstanten Recovery Rate oder auch deren Modellierung als stochastische Variable unabhängig von der Ausfallwahrscheinlichkeit, wie sie in einigen Kreditrisikomodellen getroffen wird, sind letztendlich mehr als fraglich.
Im zweiten Teil der Serie, soll nun die historische Entwicklung von Bond Default Preisen sowie mögliche Einflussvariablen auf die aggregierte Recovery Rate untersucht und erläutert werden.
[Quelle: Stefan Trück/Jens Deidersen/S. T. Rachev: Default Recovery Rates – Theoretische Modellierung und empirische Studien, Teil 2 – Einflussfaktoren und Schätzung von durchschnittlichen Recovery Rates, in: RiskNEWS, 4. Jg., Nr. 1, Freiburg i.Br. 2003, S. 7-17.]
Trueck 2590 Downloads06.08.2009
Datei downloaden Nachdem im ersten Beitrag die Bedeutung des Risikomanagements in der Logistik hinterfragt wurde, stand im zweiten Beitrag die Risikoanalyse als bedeutende Phase des Risikomanagements im Mittelpunkt. Dabei wurde festgestellt, dass Logistikleistungen durch die Verknüpfung elementarer Prozesse zu logistischen Prozessketten erbracht werden. Risikoanalysen in der Logistik sollten daher prozessbezogen durchgeführt werden. Als Grundlage einer prozessbezogenen Risikoanalyse wurde die Methode der ereignisgesteuerten Prozessketten (EPK) vorgeschlagen, die zur Prozessdokumentation und -modellierung angewandt wird. Auf der Basis der Prozessketten lassen sich, wie gezeigt wurde, unerwünschte Ereignisse identifizieren. Diese dienen als Ausgangspunkt für die Identifizierung und Bewertung von Ursachen und potenziellen Konsequenzen. Zur Ursachenanalyse wurde die Fehlerbaumanalyse, für die Untersuchung der potenziellen Konsequenzen die Ereignisbaumanalyse empfohlen. Im Rahmen des Risikomanagements schließt sich an die Risikoanalyse die Generierung, Bewertung und Auswahl von risikopolitischen Maßnahmen an. Diese Phase ist Schwerpunkt des vorliegenden Beitrags.
[Quelle: Huth, Michael: Risikomanagement in der Logistik (Teil 3) - Risikopolitische Maßnahmen, in: Risk-News, 4. Jg., Nr. 3, Freiburg i.Br. 2003, S. 22-33.]
3962 Downloads06.08.2009
Datei downloaden Der erste Beitrag zum Thema Risikomanagement in der Logistik untersuchte die Fragestellung, welche Bedeutung dem Risikomanagement in der Logistik zukommt. Dabei wurde festgestellt, dass sich a) Logistiksysteme durch eine hohe Komplexität auszeichnen, aufgrund derer Logistikrisiken entstehen können, und dass b) logistische Risiken auch durch Entwicklungen der Umwelt und der entsprechenden Anforderungen (oftmals von Kundenseite) induziert werden. Bislang existiert kein strukturierter und fundierter Ansatz, um Logistikrisiken zu identifizieren, zu bewerten sowie durch geeignete Maßnahmen zu reduzieren. Hieraus ergibt sich die Notwendigkeit, Risikomanagement als elementaren Baustein in das Logistikmanagement zu integrieren.
[Quelle: Huth, Michael: Risikomanagement in der Logistik (Teil 2) - Prozesskettenbezogene Risikoanalyse, in: RiskNEWS, 4. Jg., Nr. 2, Freiburg i.Br. 2003, S. 55-67.]
3989 Downloads06.08.2009
Datei downloaden