Im Rahmen der bevorstehenden Einführung von Solvency II werden quantitative Aspekte des Enterprise Risk Managements als Ansatz zur Beleuchtung sämtlicher Risikoquellen eines Versicherungsunternehmens weiter in den Fokus rücken. Durch das neue Aufsichtsregime werden für die Unternehmen Anreize geschaffen, eigene Modelle zur Bestimmung des Solvenzkapitals zu entwickeln, da hierdurch das geforderte Kapital gegenüber einem bislang noch nicht spezifizierten Standardmodell der Versicherungsaufsicht prinzipiell reduziert werden kann.
Ockenga 14864 Downloads27.02.2007
Datei downloaden The goal of this article is to present the relationship between numerical optimisation tools applied to investments and preference theory, using utility risk-aversion functions, in the determination of optimum portfolio for the upstream sector. Some articles have already been published in Brazilian and international magazines and congresses. This article, however goes a little beyond the previous ones. The petroleum industry is very singular on the economy, featuring huge uncertainties associated to the return on investment. In an environment like this, it is natural to search for tools that may identify and reduce risks. Given the extensive amount of capital invested in a block for its exploration, appraisal and possible development, risk analysis finds, in this field, very extensive use. Further on this article, the Capital Asset Pricing Model (CAPM) and risk analysis techniques are going to be introduced, discussing a case applied to the petroleum exploration industry. The main feature of this article is the integration between CAPM and Risk Analysis through the Preference Theory, using utility functions and the certainty equivalent concept. [Authors: Regis da Rocha Motta, Guilherme Marques Caloba, Ciro Jorge Appi, Alan Bello Moreira]
Caloba 7700 Downloads13.02.2007
Datei downloaden The authors compare portfolio optimisation by two distinct methodologies. The first is the usual Capital Asset Pricing Model (CAPM) efficiency frontier, which considers that returns from every asset are normally distributed. Many apply this type of optimisation to assets whose return distribution is simply non-normal. Two cases are studied: in the first, the distribution of the assets is normal, and in the second, it is radically different. The authors see that applying the standard CAPM to the non-normal distributions can lead to extremely erroneous decision-making. In contrast, when using software tools that combine optimisation and simulation techniques, it is easy to optimise any portfolio as long as its assets return distributions are known. Palisade's RISKOptimizer and @RISK are used for simulation and optimisation. [Authors: Guilherme Marques Calôba, et. al.]
Caloba 8464 Downloads13.02.2007
Datei downloaden In this paper we study both market risks and non-market risk, and discuss methods of measurement of them. We present and justify a set of four desirable properties for measures of risk. We examine in this perspective the measures of risk provided and the related actions required by SPAN, by the SEC/NASD rules and by quantile based methods. Finally we demonstrate the universality of scenario-based methods. We also offer suggestions concerning the SEC method and explore the consequences of the non-subadditivity of quantile-based methods. [Source: Mathematical Finance 9, July 1999, Pages: 203-228 / Authors: Artzner, Philippe / Delbaen, Freddy / Eber, Jean-Marc / Heath, David]
Artzner 9220 Downloads03.02.2007
Datei downloaden The new BIS 1998 capital requirements for market risks allows banks to use internal models to assess regulatory capital related to both general market risk and credit risk for their trading book. This paper reviews the current proposed industry sponsored Credit Value-at-Risk methodologies. First, the credit migration approach, as proposed by JP Morgan with CreditMetrics, is based on the probability of moving from one credit quality to another, including default, within a given time horizon. Second, the option pricing, or structural approach, as initiated by KMV and which is based on the asset value model originally proposed by Merton (Merton, R., 1974. Journal of Finance 28, 449±470). In this model the default process is endogenous, and relates to the capital structure of the Ærm. Default occurs when the value of the Ærm’s assets falls below some critical level. Third, the actuarial approach as proposed by Credit Suisse Financial Products (CSFP) with CreditRisk+ and which only focuses on default. Default for individual bonds or loans is assumed to follow an exogenous Poisson process. Finally, McKinsey proposes CreditPortfolioView which is a discrete time multi-period model where default probabilities are conditional on the macro-variables like unemployment, the level of interest rates, the growth rate in the economy, . . . which to a large extent drive the credit cycle in the economy. copyright 2000 Elsevier Science B.V. All rights reserved. [Source: Journal of Banking and Finance, January 2000, Pages: 59-117 / Authors: Crouhy, Michel / Galai, Dan / Mark, Robert]
Crouhy 10625 Downloads03.02.2007
Datei downloaden Genesungsprognose-Modelle (GPM) speziell für notleidende Unternehmen (NPL oder Distressed Debt) gewinnen immer mehr an Bedeuutung. Sie dienen als Frühindikatorinstrumente, indem sie die Wahrscheinlichkeit einer Genesung oder Liquidation eines notleidenden Unternehmens berechnen. Insbesondere in wirtschaftlich schwierigen Phasen können GPM dazu beitragen, 20 bis 30 Prozent der Kreditverluste und Bearbeitungskosten zu vermeiden. Dies entspricht bei 100 Mio. EUR wertberichtigten Kundenforderungen einem Einsparpotenzial von jährlich rund zehn bis 15 Mio. EUR. Der folgende Artikel ist eine Einführung zu GPM und veröffentlicht erstmals erstaunliche Ergebnisse einer groß angelegten empirischen Untersuchung von rund 800 notleidenden Unternehmen.
Saldanha 12546 Downloads18.01.2007
Datei downloaden Nachdem die Entwicklungen im Risikomanagement in der Finanzdienstleistungsindustrie in der jüngeren Vergangenheit stark durch aufsichtsrechtliche Einzelaspekte geprägt waren, tritt nun ein gesamtheitlicher Blick in den Vordergrund. Die Institute erfassen es zunehmend als betriebswirtschaftliche Notwendigkeit, die wesentlichen Risiken und Chancen des eigenen Geschäfts rechtzeitig zu erkennen und bezüglich ihrer Auswirkungen einschätzen zu können. Diese Erkenntnis hat bereits zur Entwicklung umfassender Methoden und Verfahren zur Identifizierung, Messung und Steuerung der mittlerweile klassischen Risikoarten Adressenausfall-, Marktpreisrisiken und operationelle Risiken geführt, die in ihrer Ausgestaltung teilweise über die Anforderungen der Aufsicht hinausreichen. Auf dem Weg zu einer wertorientierten Gesamtbanksteuerung stellt sich nun die Herausforderung der Abdeckung eines vollständigen Risikoprofils. Geschäftsrisiken spielen in diesem Zusammenhang meist noch eine untergeordnete Rolle. Dabei können wandelnde Rahmenbedingungen bei zu spätem Erkennen und Gegensteuern durch entsprechende Maßnahmen die Geschäftsfortführung eines Unternehmens nachhaltig gefährden. Um in einem dynamischen Wettbewerbsumfeld bestehen zu können, ergibt sich somit die betriebswirtschaftliche Notwendigkeit einer systematischen Auseinandersetzung mit der Risikoart Geschäftsrisiko.
MQuick 7937 Downloads10.01.2007
Datei downloaden Hohe Laufzeiten von Forderungen an Kunden gehören längst bereits zur Tagesordnung. Oftmals spielen die überlangen Zeiträume bis zur Begleichung einer offenen Forderung eine Hauptrolle bei den Ursachen, die Unternehmen in die Insolvenz treiben. Die Gründe, offene Forderung nicht zeitnah zu begleichen, sind vielfältig. Wie kann diesem Verhalten aus Sicht des Rechnungsstellers begegnet werden? Welche Werkzeuge existieren und wie lassen sich diese in den betrieblichen Arbeitsprozess integrieren um eine effiziente Sicherstellung des Debitorenmanagements zu erzielen? Der folgende Artikel zeigt, dass mit Einsatz der Werkzeuge aus dem Baukasten der modernen Prozessoptimierung das Forderungsmanagement eines Unternehmens durch Veränderung einiger wesentlicher wichtiger Faktoren deutlich verbessert werden kann.
TSchirmer 9659 Downloads09.01.2007
Datei downloaden Der in Basel geborene Mathematiker Jakob Bernoulli (*6. Januar 1655 in Basel; † 16. August 1705 in Basel; Hinweis: das Geburtsdatum bezieht sich auf den Gregorianischen Kalender) hat mit der Entwicklung der Wahrscheinlichkeitsrechnung wesentliche Werkzeuge für das Risikomanagement geliefert. Vor allem das von ihm entwickelten Gesetz der großen Zahlen liefert beispielsweise der Versicherungswirtschaft eine wahrscheinlichkeitstheoretische Vorhersage über den künftigen Schadenverlauf: Je größer die Zahl der im (Versicherungs-) Portfolio erfassten Personen oder Sachwerte, die von der gleichen Gefahr bedroht sind, desto geringer ist der Einfluss von Zufälligkeiten. Oder anders formuliert: Das Gesetz der großen Zahlen besagt, dass sich die relative Häufigkeit eines Zufallsergebnisses immer weiter an die theoretische Wahrscheinlichkeit für dieses Ergebnis annähert, je häufiger das Zufallsexperiment durchgeführt wird. Das Gesetz des großen Zahlen lässt sich sehr einfach an einem Würfel erklären: Welche Augenzahl im Einzelfall gewürfelt wird ist immer zufällig. So kann die Wahrscheinlichkeit, dass eine Sechs gewürfelt wird, als ein Sechstel angegeben werden. Auf Dauer fällt jedoch jede Zahl gleich häufig. Bernoulli sagt nicht anderes, als dass ich die Treffer auf Dauer gleichmäßig verteilen. In seinem Werk „Ars conjectandi“ beschreibt Bernoulli das „Gesetz der großen Zahlen“ auf eine sehr anschauliche Art. [Quelle: Jakob Bernoulli: Wahrscheinlichkeitsrechnung (Ars conjectandi), Dritter und vierter Theil. Übers. und hrsg. von R. Haussner (Ostwalds Klassiker der exakten Wissenschaften), Leipzig 1899.]
Bernoulli 8169 Downloads30.12.2006
Datei downloaden In Zeiten sich ändernder Refinanzierungskonditionen rücken typischerweise Liquiditätsspreads in den Blickpunkt der Banksteuerung von am Kapitalmarkt engagierten Instituten. Ihre Einbeziehung in die Einstandssatzkalkulation von Roll-over-Produkten stellt eine bemerkenswerte Erweitung der Marktzinsmethode um die qualtitative Komponente "Liquidität" dar. Nach der Änderung der Haftungsgrundlagen und anstehenden Änderungen der aufsichtsrechtlichen Behandlungen des Liquiditätsrisikos im Rahmen der Mindestanforderungen an das Risikomanagement (MaRisk)1 wächst in der Sparkassen-Finanzgruppe die Notwendigkeit zur Einführung entsprechender Steuerungssysteme für das Liquiditätsmanagement. Die folgenden Überlegungen zum Pricing von Liquiditätsspreads wurden in einem Projekt der NORD/LB entwickelt und in der Praxis umgesetzt. [Autoren: Michael Akmann / Andreas Beck / Rolf Herrmann / Ralf Stückler / Quelle: Betriebswirtschaftliche Blätter 10/2005]
Akmann 6698 Downloads18.12.2006
Datei downloaden