Der Fokus des Beitrags liegt auf der Beschreibung eines Modells zur Quantifizierung des Forderungsausfallrisikos von Unternehmen. Es werden verschiedene Wege aufgezeigt, wie die Ausfallwahrscheinlichkeit (PD), die Ausfallquote (LGD) und die Forderungshöhe (EAD) zum Ausfallzeitpunkt einer Forderung durch Wahrscheinlichkeitsverteilungen beschrieben werden können. Abgerundet wird der Beitrag durch eine empirische Erhebung zur Ausfallquote und Ausfallwahrscheinlichkeit in gewerblichen Unternehmen.
Henry.Dannenberg 7777 Downloads10.07.2006
Datei downloaden Vor allem mit dem Buch „Shareholder Value“ von Rappaport (1986) und dem EVA-Ansatz (Economic Value Added) hat sich das Paradigma der Wertorientierung als Leitlinie des Managements – zumindest bei den börsennotierten Aktiengesellschaften – durchgesetzt. Damit wurde die Kapitalmarkttheorie zum maßgeblichen theoretischen Fundament. Der Unternehmenswert ist seitdem der Erfolgsmaßstab des Unternehmens, der zukunftsorientiert Ertrag und Risiko in einer Kennzahl verbindet. Der Kapitalkostensatz ist neben Wachstum und Rendite einer der Werttreiber und zeigt die risikoabhängige Anforderung an die erwartete Mindestrentabilität von Projekten. Er beeinflusst damit, welche Investitionen durchgeführt und welche Geschäftsfelder aufgegeben werden, was die Wertentwicklung des Unternehmens maßgeblich prägt. [Mit freundlicher Genehmigung der FINANCE-Redaktion / F.A.Z.-Institut, Frankfurt am Main]
Gleissner 7777 Downloads10.07.2006
Datei downloaden Mit Hilfe von „unternehmerischer Intuition“ und „Bauchgefühl“ sowie reaktiven Steuerungssystemen dürfte es immer schwieriger werden, die Komplexität der heutigen Unternehmenssituationen zu erfassen und zu analysieren. Die Fähigkeit Risiken zu beherrschen und in der unternehmerischen Entscheidung adäquat zu berücksichtigen, ist zu den wesentlichen Kompetenzen nachhaltig erfolgreicher Unternehmen zu zählen. Nur diejenigen Unternehmen, die ihre Risiken effizient steuern und kontrollieren sowie dabei auch ihre Chancen erkennen und nutzen, werden langfristig erfolgreich sein und ihren Unternehmenswert steigern. Eine zentrale Rolle bei der Erreichung dieses Ziels spielt dabei die moderne Informationstechnologie, mit deren Hilfe sich der Prozess und Datengrundlagen des Risikomanagements auf vielfältige Weise optimieren lassen. Traditionelle Planungs- und Steuerungssysteme sind deterministisch, d. h. sie können nicht mit Wahrscheinlichkeiten und Risikoverteilungen rechnen. Risikomanagementsysteme können dagegen mit „Unsicherheit rechnen“ und so mit Frühwarnindikatoren proaktiv auf potenzielle Störgrößen bzw. deren Veränderungen hinweisen. [Autoren: Werner Gleißner, Frank Romeike / erschienen in: ZfCM – Zeitschrift für Controlling & Management / Mit freundlicher Genehmigung der ZfCM-Redaktion, Gabler Verlag / GWV Fachverlage, Wiesbaden)
Romeike 8740 Downloads10.07.2006
Datei downloaden Kurze und praxisbezogene Einführung in die Methodik des Risikomanagements.
Gleissner 7766 Downloads10.07.2006
Datei downloaden Ausgangspunkt der Überlegungen für das nachfolgend beschriebene Risiko-Aggregationsmodell mittels Simulationstechnik sind die zu erwartenden Veränderungen der Eigenmittelausstattung der Versicherungswirtschaft basierend auf den durch Solvency II bewirkten regulatorischen Veränderungen. Neben aufsichtsrechtlich akzeptierten Standardansätzen (beispielsweise die Modelle des Gesamtverbandes der Deutschen Versicherungswirtschaft, GDV) wird den Versicherungsunternehmen in der Zukunft die Option gewährt, eigene Methoden und Ansätze sowie individuelle Risikomanagementsysteme in ihre Solvabilitätsberechnung in Absprache mit dem Aufsichtsamt einbringen zu können. Im Sinne eines eigenständigen Risikomanagements wird den Unternehmen gegenüber den bestehenden Regelungen in Bezug auf die Mindestkapitalanforderungen somit eine größere Freiheit in der Auswahl der Risiken gewährt, indem sich die Verfahren zur Berechnung der Güte der unternehmensindividuellen Risikopolitik anpassen und tendenziell schärfen werden. Um die Wettbewerbsfähigkeit durch vergleichsweise höhere Eigenkapitalkosten nicht zu verlieren, müssen sich die Versicherungsunternehmen bereits jetzt auf die künftigen Anforderungen einstellen und sich intensiv um interne Risikomanagementmodelle und -systeme bemühen. [Autoren: Werner Gleißner, Matthias Müller-Reichart, Frank Romeike]
Romeike 5898 Downloads10.07.2006
Datei downloaden Managing risk lies at the heart of the financial services industry. Regulatory frameworks, such as Basel II for banking and Solvency 2 for insurance, mandate a focus on operational risk. In this paper some of the more recent Extreme Value Theory (EVT) which maybe be useful towards the statistical analysis of certain types of operational loss data. The key attraction of EVT is that it offers a set of ready-made approaches to the most difficult problem of operational risk analysis, that is how can risks tat are both extrene and rare be modelled appropriately? [V. Chavez-Demoulin and P. Embrechts]
Chavez-Demoulin 10887 Downloads06.07.2006
Datei downloaden In recent years there have been a number of developments in the datamining techniques used in the analysis of terrabyte-sized logfiles resulting from Internet-based applications. The information which these datamining techniques provide allow knowledge engineers to rapidly direct business decisions. Current datamining methods however, are generally efficient only in the cases when the information obtained in the logfiles is close to the average. This means that in cases where non-standard logfiles (extreme data) are being studied, these methods provide unrealistic and erroneous results. Non-standard logfiles often have a large bearing on the analysis of web applications, the information which they provide can impact on new or even well established services. In this paper aspects of the recent Extreme Value Theory methodology are discussed. Particular emphasis is made to its application; a unique toolkit is provided with which to describe, understand and predict the non-standard fluctuations as discovered in real-life Internet-sourced log data.
Roehrl 7108 Downloads06.07.2006
Datei downloaden Zum 1. Januar 2007 treten die neuen Richtlinien für die Kreditvergabe und das Risikomanagement von Banken in Kraft (Basel II). Spätestens dann wird neben der heute üblichen Ermittlung von Ausfallwahrscheinlichkeiten ("Probability of Default", kurz PD) die Schätzung der möglichen Höhe eines Kreditausfalls ("Loss Given Default", kurz LGD) zum zentralen Instrument des Kreditrisikomanagements werden. Denn nach diesen Größen wird die erforderliche Unterlegung des Kredits mit Eigenkapital als auch die Preisgestaltung für den Kredit bestimmt. [Autoren: Dimitrij Saldanha, Martin van Gemmeren]
Saldanha 10182 Downloads03.07.2006
Datei downloaden Die Implementierung einer wertorientierten Steuerung in Versicherungsunternehmen ist mit erheblichem Aufwand verbunden. Dennoch zeigt eine Folgestudie1 der Universität Ulm zusammen mit dem Beratungsunternehmen Horváth & Partners, die die lebensversicherungsspezifischen Besonderheiten der Unternehmenssteuerung untersucht, dass sich auch in der Lebensversicherungswirtschaft zunehmend wertorientierte Ansätze der Steuerung durchsetzen. [Autoren: Michael Seyboth, Ulm, Helmut Ahr, Stuttgart, Stefan Hiendlmeier, München]
Seyboth 11186 Downloads22.06.2006
Datei downloaden Das Risikomanagement der Unternehmen tritt immer stärker in den Blickpunkt. Vor diesem Hintergrund beschäftigt sich die Fachhochschule des bfi Wien in Ihrer Schriftenreihe „Wirtschaft und Management“ mit dem hochaktuellen Thema Risikomanagement.
Stallinger 11527 Downloads16.06.2006
Datei downloaden