Hedge Funds können sowohl aus theoretischer als auch aus praktischer Sicht als die "Königsdisziplin" der Kapitalanlage charakterisiert werden. Während auf der einen Seite Hedge Funds aufgrund günstiger Risiko-Ertrags-Verhältnisse und einer in der Regel negativen Korrelation mit der Marktentwicklung eine interessante Anlagekategorie offerieren und zur Effizienzsteigerung der Märkte beitragen, beinhalten Hedge Funds jedoch auf der anderen Seite auch ein nicht unerhebliches Destabilisierungspotenzial, insbesondere durch den Einsatz von Leverage und derivativer Finanzinstrumente. Die aktuelle öffentliche Diskussion zeigt aber vor allem, welche immensen Unkenntnisse über Hedge Funds existieren.
Der folgende Beitrag dient der Versachlichung der aktuellen Diskussion um die Regulierung von Hedge Funds und skizziert die Grundlagen und Rahmenbedingungen sowie die Bedeutung eines adäquaten Risikomanagements, um insbesondere die mit Hedge Funds verbundenen systemischen Risiken zu reduzieren.
[Mit freundlicher Genehmigung der Redaktion der Zeitschrift RISIKO MANAGER, Bank Verlag Medien GmbH]
Romeike 18914 Downloads06.04.2007
Datei downloaden Dieser Beitrag hat insbesondere zum Ziel, die zentrale Funktion von ALM als Prozess im Risikomanagement der Versicherer zu beleuchten und verstärkt ins Bewusstsein zu rücken. Ganz grundsätzlich bezeichnet Asset-Liability-Management Verfahren zur Steuerung des Unternehmens anhand der zukünftigen Entwicklung von Aktiva und Passiva. Dabei werden wir im Folgenden stets ALM auf Unternehmensebene betrachten (Makro-Sicht). Varianten davon existieren auch für die Analyse einzelner Produkte (Mikro-Sicht), wie z. B. bei der Aktienindexgebundenen Lebensversicherung, bei der Leistungsverpflichtungen und Kapitalanlagen unmittelbar aneinander gekoppelt sind. Der interessierte Leser sei hierzu an die entsprechende Literatur verwiesen. [Quelle: Hans-Joachim Zwiesler: Grundlagen des Asset-Liability-Managements, in: Versicherung im Umbruch (Hrsg. K.Spremann), Heidelberg, 2004, Springer, S. 117-131]
Zwiesler 8959 Downloads22.03.2007
Datei downloaden The Basel II Capital Accord of 2004 sets guidelines on operational risk capital requirements to be adopted by internationally active banks by around year-end 2007. Operational loss databases are subject to a minimum recording threshold of roughly $10,000 (internal) and $1 million (external) – an aspect often overlooked by practitioners. We provide theoretical and empirical evidence that ignoring these thresholds leads to underestimation of the VaR and CVaR figures within the Loss Distribution Approach. We emphasize that four crucial components of a reliable operational loss actuarial model are: (1) non-homogenous Poisson process for the loss arrival process, (2) flexible loss severity distributions, (3) accounting for the incomplete data, and (4) robustness analysis of the model. [Authors: Anna Chernobai, Christian Menn, Svetlozar T. Rachev, Stefan Trück]
Trueck 8460 Downloads17.03.2007
Datei downloaden A new approach to optimizing or hedging a portfolio of fnancial instruments to reduce risk is presented and tested on applications. It focuses on minimizing Conditional Value-at-Risk (CVaR) rather than minimizing Value-at-Risk (VaR), but portfolios with low CVaR necessarily have low VaR as well. CVaR, also called Mean Excess Loss, Mean Shortfall, or Tail VaR, is anyway considered to be a more consistent measure of risk than VaR. [Authors: R. Tyrrell Rockafellar and Stanislav Uryasev]
Rockafellar 7722 Downloads17.03.2007
Datei downloaden Value at Risk (VaR) has become the standard measure that financial analysts use to quantify market risk. VaR is defined as the maximum potential change in value of a portfolio of financial instruments with a given probability over a certain horizon. VaR measures can have many applications, such as in risk management, to evaluate the performance of risk takers and for regulatory requirements, and hence it is very important to develop methodologies that provide accurate estimates. The main objective of this paper is to survey and evaluate the performance of the most popular univariate VaR methodologies, paying particular attention to their underlying assumptions and to their logical flaws. In the process, we show that the Historical Simulation method and its variants can be considered as special cases of the CAViaR framework developed by Engle and Manganelli (1999). We also provide two original methodological contributions. The first one introduces the extreme value theory into the CAViaR model. The second one concerns the estimation of the expected shortfall (the expected loss, given that the return exceeded the VaR) using a simple regression technique. [Authors: Simone Manganelli, Robert F. Engle]
Manganelli 7851 Downloads17.03.2007
Datei downloaden Im letzten Jahrzehnt haben immer wieder einzelne Finanzinstitute spektakuläre Verluste erlitten. Die meisten dieser finanziellen Verluste hätten im Fall funktionierender interner Kontrollen und eines entsprechenden Risikomeßsystems vermieden werden können. Diese Ereignisse, die großes öffentliches Interesse erweckten, verstärkten die Notwendigkeit der Entwicklung eines sinnvollen Risikomaßes, das die Grundlage für die Risikokontrolle und Risikosteuerung von Finanzinstituten bilden sollte. Wünschenswert war die Entwicklung bzw. Anwendung von statischen Kennzahlen, die die Quantifizierung und den Vergleich des Risikos zwischen verschiedenen Organisationsbereichen (z. B. Handelstischen, Abteilungen usw.) ermöglichen. Aus Sicht der Regulatoren stand das Ziel der Stärkung der Finanzstabilität im Vordergrund.
Oenb 12395 Downloads17.03.2007
Datei downloaden Das Controlling unterstützt die Unternehmensführung bei einer zukunftsbezogenen und erfolgsorientierten Unternehmenssteuerung. Dies erfordert die Einschätzung der Konsequenzen alternativer Handlungsoptionen (d.h. Prognosen). Aufgrund der Unvorhersehbarkeit der Zukunft sind Abweichungen von diesen Prognosen möglich, die durch das Wirksamwerden von Risiken ausgelöst werden. Neben der Erstellung möglichst präziser (erwartungstreuer) Prognosen muss das Controlling den möglichen Umfang und die Ursachen solcher Planabweichungen einschätzen, um die Planungssicherheit zu quantifizieren und erforderlichenfalls geeignete Risikobewältigungsmaßnahmen zu initiieren. Das Controlling übernimmt wesentliche Risikomanagement-Aufgaben, die die Unternehmensführung in die Lage versetzen, bei wichtigen Entscheidungen die erwarteten Erträge (Rendite) und die damit verbundenen (aggregierten) Risiken gegeneinander abzuwägen. [Autoren: Dr. Werner Gleißner/Marco Wolfrum, Quelle: ZfV, Zeitschrift für Versicherungswesen, Nr. 5/2006]
Gleissner 11518 Downloads09.03.2007
Datei downloaden Extreme value theory repeatedly turns out to be one of the most powerful and meanwhile widely accepted statistical tools in the (re)insurance industry, at least w.r.t. univariate statistics. However, also multivariate statistical procedures will gain more importance in the near future, e.g. in connection with ratings of insurance bonds or hedging strategies in the framework of the socalled alternative risk transfer. For this purpose, suitable copula models for insurance losses and risks play an important role. [Source: Study 4: Extreme value theory in actuarial consulting: windstorm losses in central Europe. In: R.-D. Reiss, M. Thomas: Statistical Analysis of Extreme Values. With applications to insurance, finance, hydrology and other fields. 2nd ed., Birkhäuser, Basel (2001), 373 - 378.]
Pfeifer 8877 Downloads03.03.2007
Datei downloaden Diese Arbeit gibt eine Übersicht über die mathematischen Grundlagen, Eigenschaften und möglichen Anwendungsfelder von Copulas in der Finanz- und Versicherungswelt. Besonderes Gewicht liegt dabei auf dem Zusammenhang zwischen Copulas und der Korrelation bzw. allgemeineren stochastischen Abhängigkeitsmassen, parametrischen Familien von Copulas, Archimedischen Copulas (insbesondere in höheren Dimensionen), Tail-Abhängigkeit und dem Bezug zu stochastischen Prozessen. [Source: Modeling dependence in finance and insurance: the copula approach (mit J. Neslehova). Blätter der DGVFM Band XXVI, Heft 2 (2003), 177 - 191.]
Pfeifer 8088 Downloads03.03.2007
Datei downloaden Mathematische Schadenmodellierung ist ein traditioneller Bereich aktuariellen Handelns. Veränderte Ansprüche an die Komplexität der Modelle und die Aussagekraft der daraus gewonnenen Erkenntnisse haben aber im Lauf der Zeit zu zahlreichen Weiterentwicklungen – vor allem im multivariaten Bereich – geführt, womit sich zugleich zunehmend auch die Frage nach dem „Machbaren“ und dem „Sinnvollen“ stellt. Eindimensionale Strukturen, für die ausreichend Daten zur Verfügung stehen, lassen sich heute durch verfeinerte Modelle weitestgehend exakt in dem beobachteten Bereich abbilden. Schwierig wird Modellierung dort, wo keine oder nur wenige oder sehr komplexe (hochdimensionale) Beobachtungen vorliegen und ersatzweise mit theoretischen Begründungen, z.B. bei der Analyse von Großschaden bzw. Extremwerten, gearbeitet werden muss. Vielversprechende Ansätze im multivariaten Bereich sind die sog. Copulas, durch die eine Trennung der univariaten Randverteilungsproblematik und der gemeinsamen Abhängigkeitsstruktur möglich wird. Hier liegen bisher im Versicherungssektor nur wenige Erfahrungen vor; es besteht daher nach wie vor ein erhöhter Forschungsbedarf in dieser Richtung. [Quelle: Möglichkeiten und Grenzen der mathematischen Schadenmodellierung. Zeitschrift für die gesamte Versicherungswissenschaft, Heft 4 (2003), 667 - 696.]
Pfeifer 16926 Downloads03.03.2007
Datei downloaden