Managing risks does not necessarily mean reducing risks but weighing up these risks against the profits and considering the impacts on the equity capital needed to cover the risk (and on the cost of capital). Risk analysis and risk aggregation are necessary tasks of a value-based management as they help to assess the well-funded goodwill of a company. An important widening can be made in taking into account the systematic as well as the idiosyncratic risks. In doing so, the management can quantify the effects of a risk reduction (e.g. by transferring it) on the value of a company. Alternatively to the Capital-Asset-Pricing-Model the capital costs in imperfect markets can be determined in dependence to the own capital funds needed, which is analyzed by the aggregation of all risks in the context of planning. [Mit freundlicher Genehmigung der Springer Verlags, Berlin]
Gleissner 9132 Downloads10.07.2006
Datei downloaden Die Bewertung von Unternehmen, Geschäftsbereichen oder Investitionen, eine notwendige Voraussetzung für eine wertorientierte Unternehmensführung, basiert im Wesentlichen auf Theorien, die von vollkommenen Kapitalmärkten ausgehen. Zu nenen ist vor allem das Capital-Asset-Pricing-Modell (CAPM), das auch im neuen Entwurf des Instituts der deutschen Wirtschaftsprüfer (
IDW) zur Unternehmensbewertung vom Dezember 2004 als Methode für die Ableitung von Kapitalkostensätzen empfohlen wird. Dieser Artikel fasst Probleme der üblichen Methoden zur Berücksichtigung von "Risiko" in der Unternehmensbewertung zusammen, wobei insbesondere auf die Ableitung der Kapitalkostensätze eingegangen wird. Darauf aufbauend erläutert der Beitrag neue Methdoden für Unternehmensbewertung und wertorientierte Unternehmensführung, die nicht auf der üblichen Annahme vollkommener Kapitalmärkte basieren. [Mit freundlicher Genehmigung der FINANZ BETRIEB-Redaktion, Verlagsgruppe Handelsblatt, Düsseldorf]
Gleissner 8317 Downloads10.07.2006
Datei downloaden Der Fokus des Beitrags liegt auf der Beschreibung eines Modells zur Quantifizierung des Forderungsausfallrisikos von Unternehmen. Es werden verschiedene Wege aufgezeigt, wie die Ausfallwahrscheinlichkeit (PD), die Ausfallquote (LGD) und die Forderungshöhe (EAD) zum Ausfallzeitpunkt einer Forderung durch Wahrscheinlichkeitsverteilungen beschrieben werden können. Abgerundet wird der Beitrag durch eine empirische Erhebung zur Ausfallquote und Ausfallwahrscheinlichkeit in gewerblichen Unternehmen.
Henry.Dannenberg 7863 Downloads10.07.2006
Datei downloaden Vor allem mit dem Buch „Shareholder Value“ von Rappaport (1986) und dem EVA-Ansatz (Economic Value Added) hat sich das Paradigma der Wertorientierung als Leitlinie des Managements – zumindest bei den börsennotierten Aktiengesellschaften – durchgesetzt. Damit wurde die Kapitalmarkttheorie zum maßgeblichen theoretischen Fundament. Der Unternehmenswert ist seitdem der Erfolgsmaßstab des Unternehmens, der zukunftsorientiert Ertrag und Risiko in einer Kennzahl verbindet. Der Kapitalkostensatz ist neben Wachstum und Rendite einer der Werttreiber und zeigt die risikoabhängige Anforderung an die erwartete Mindestrentabilität von Projekten. Er beeinflusst damit, welche Investitionen durchgeführt und welche Geschäftsfelder aufgegeben werden, was die Wertentwicklung des Unternehmens maßgeblich prägt. [Mit freundlicher Genehmigung der FINANCE-Redaktion / F.A.Z.-Institut, Frankfurt am Main]
Gleissner 7852 Downloads10.07.2006
Datei downloaden Mit Hilfe von „unternehmerischer Intuition“ und „Bauchgefühl“ sowie reaktiven Steuerungssystemen dürfte es immer schwieriger werden, die Komplexität der heutigen Unternehmenssituationen zu erfassen und zu analysieren. Die Fähigkeit Risiken zu beherrschen und in der unternehmerischen Entscheidung adäquat zu berücksichtigen, ist zu den wesentlichen Kompetenzen nachhaltig erfolgreicher Unternehmen zu zählen. Nur diejenigen Unternehmen, die ihre Risiken effizient steuern und kontrollieren sowie dabei auch ihre Chancen erkennen und nutzen, werden langfristig erfolgreich sein und ihren Unternehmenswert steigern. Eine zentrale Rolle bei der Erreichung dieses Ziels spielt dabei die moderne Informationstechnologie, mit deren Hilfe sich der Prozess und Datengrundlagen des Risikomanagements auf vielfältige Weise optimieren lassen. Traditionelle Planungs- und Steuerungssysteme sind deterministisch, d. h. sie können nicht mit Wahrscheinlichkeiten und Risikoverteilungen rechnen. Risikomanagementsysteme können dagegen mit „Unsicherheit rechnen“ und so mit Frühwarnindikatoren proaktiv auf potenzielle Störgrößen bzw. deren Veränderungen hinweisen. [Autoren: Werner Gleißner, Frank Romeike / erschienen in: ZfCM – Zeitschrift für Controlling & Management / Mit freundlicher Genehmigung der ZfCM-Redaktion, Gabler Verlag / GWV Fachverlage, Wiesbaden)
Romeike 8894 Downloads10.07.2006
Datei downloaden Kurze und praxisbezogene Einführung in die Methodik des Risikomanagements.
Gleissner 7862 Downloads10.07.2006
Datei downloaden Ausgangspunkt der Überlegungen für das nachfolgend beschriebene Risiko-Aggregationsmodell mittels Simulationstechnik sind die zu erwartenden Veränderungen der Eigenmittelausstattung der Versicherungswirtschaft basierend auf den durch Solvency II bewirkten regulatorischen Veränderungen. Neben aufsichtsrechtlich akzeptierten Standardansätzen (beispielsweise die Modelle des Gesamtverbandes der Deutschen Versicherungswirtschaft, GDV) wird den Versicherungsunternehmen in der Zukunft die Option gewährt, eigene Methoden und Ansätze sowie individuelle Risikomanagementsysteme in ihre Solvabilitätsberechnung in Absprache mit dem Aufsichtsamt einbringen zu können. Im Sinne eines eigenständigen Risikomanagements wird den Unternehmen gegenüber den bestehenden Regelungen in Bezug auf die Mindestkapitalanforderungen somit eine größere Freiheit in der Auswahl der Risiken gewährt, indem sich die Verfahren zur Berechnung der Güte der unternehmensindividuellen Risikopolitik anpassen und tendenziell schärfen werden. Um die Wettbewerbsfähigkeit durch vergleichsweise höhere Eigenkapitalkosten nicht zu verlieren, müssen sich die Versicherungsunternehmen bereits jetzt auf die künftigen Anforderungen einstellen und sich intensiv um interne Risikomanagementmodelle und -systeme bemühen. [Autoren: Werner Gleißner, Matthias Müller-Reichart, Frank Romeike]
Romeike 5995 Downloads10.07.2006
Datei downloaden Managing risk lies at the heart of the financial services industry. Regulatory frameworks, such as Basel II for banking and Solvency 2 for insurance, mandate a focus on operational risk. In this paper some of the more recent Extreme Value Theory (EVT) which maybe be useful towards the statistical analysis of certain types of operational loss data. The key attraction of EVT is that it offers a set of ready-made approaches to the most difficult problem of operational risk analysis, that is how can risks tat are both extrene and rare be modelled appropriately? [V. Chavez-Demoulin and P. Embrechts]
Chavez-Demoulin 11045 Downloads06.07.2006
Datei downloaden In recent years there have been a number of developments in the datamining techniques used in the analysis of terrabyte-sized logfiles resulting from Internet-based applications. The information which these datamining techniques provide allow knowledge engineers to rapidly direct business decisions. Current datamining methods however, are generally efficient only in the cases when the information obtained in the logfiles is close to the average. This means that in cases where non-standard logfiles (extreme data) are being studied, these methods provide unrealistic and erroneous results. Non-standard logfiles often have a large bearing on the analysis of web applications, the information which they provide can impact on new or even well established services. In this paper aspects of the recent Extreme Value Theory methodology are discussed. Particular emphasis is made to its application; a unique toolkit is provided with which to describe, understand and predict the non-standard fluctuations as discovered in real-life Internet-sourced log data.
Roehrl 7194 Downloads06.07.2006
Datei downloaden Zum 1. Januar 2007 treten die neuen Richtlinien für die Kreditvergabe und das Risikomanagement von Banken in Kraft (Basel II). Spätestens dann wird neben der heute üblichen Ermittlung von Ausfallwahrscheinlichkeiten ("Probability of Default", kurz PD) die Schätzung der möglichen Höhe eines Kreditausfalls ("Loss Given Default", kurz LGD) zum zentralen Instrument des Kreditrisikomanagements werden. Denn nach diesen Größen wird die erforderliche Unterlegung des Kredits mit Eigenkapital als auch die Preisgestaltung für den Kredit bestimmt. [Autoren: Dimitrij Saldanha, Martin van Gemmeren]
Saldanha 10272 Downloads03.07.2006
Datei downloaden