Die im Jahr 2006 reformierten und ab diesem Jahr zur Anwendung kommenden Leitlinien zur Bußgeldberechnung von Kartellverstößen im europäischen Wirtschaftsraum sollen den Anreiz zur Kartellbildung für Unternehmen senken und die Wahrscheinlichkeit einer Kartellaufdeckung erhöhen. In diesem Artikel wird beleuchtet, wie die Entscheidung für oder wider eine Kartellbeteiligung seitens der Unternehmen durch diese Leitlinien beeinflußt wird. Es kann gezeigt werden, daß durch die Festlegung einer Bußgeldobergrenze eine wirksame Abschreckung nur für Unternehmen zu erwarten ist, die einen geringen Anteil ihres Umsatzes im kartellrechtlich relevanten Markt erzielen. Für diese steigt zunächst mit zunehmender Kartellebensdauer der Anreiz, das Kartell anzuzeigen. Das führt dazu, daß Kartelle mit mindestens einem Unternehmen, das einen geringen Anteil seines Gesamtumsatzes auf dem Kartellmarkt erzielt, bis zu einem bestimmten Zeitpunkt im Zeitverlauf instabiler werden. Unternehmen, die ihren Umsatz jedoch fast ausschließlich auf diesem Markt erzielen, werden durch die neue Leitlinie aufgrund der Bußgeldobergrenze hingegen kaum abgeschreckt. Der Artikel gibt einen kurzen Überblick über das „Kartellrechtsrisiko“, wie es sich für Unternehmen darstellt. Es wird erläutert, wie die mit einer möglichen Kartellstrafe verbundenen Aufwendungen ermittelt werden können. Darauf basierend werden die notwendigen Mindestumsatzrenditen bestimmt, die von Unternehmen im Kartell erwirtschaftet werden müssen, damit sich aus Unternehmenssicht eine Kartellbildung rechnen könnte. Es wird gezeigt, daß für bestimmte Kartelle bereits Renditen von wenigen Prozentpunkten genügen, um eine Kartellteilnahme attraktiv werden zu lassen. [Autoren: Henry Dannenberg, Nicole Steinat]
Henry.Dannenberg 10047 Downloads25.02.2008
Datei downloaden Vor zehn Jahren überzog eine Finanzkrise viele Länder Südostasiens. Banken wurden reihenweise geschlossen. Viele Millionen Einleger verloren ihren letzten Bath oder ihre letzte Rupiah. Ganze Volkswirtschaften kollabierten. Die Arbeitslosigkeit stieg ebenso drastisch wie die Armutsrate der Bevölkerung. 1999 wiederholte sich das Drama, zunächst in Brasilien, dann in der Russischen Föderation. 2001 war Argentinien an der Reihe. Viele meinten damals, diese Deformationen seien allein auf Versäumnisse in den Krisenländern zurückzuführen: laxe Wirtschaftspolitik, marode Bankenaufsicht, zerbrechliche Finanzsysteme. Finanzkrisen sind eben die folgerichtige Quittung für eine miserable Politik. Das, so war die Überzeugung, kann in Westeuropa und den USA nicht geschehen. Aber es kam anders, als damals vermutet wurde. Die ehemaligen Krisenländer Südostasiens sind wirtschaftlich wieder stabil, Russland profitiert von hohen Energiepreisen, auch in Argentinien geht es langsam wieder aufwärts. Finanzkrisen finden nun anderswo statt, in den USA und in einigen westeuropäischen Ländern. Was sind die Ursachen?
[Quelle: Aus Politik und Zeitgeschichte (APuZ 7/2008)]
Filc 8453 Downloads13.02.2008
Datei downloaden Do investors obtain their long term returns smoothly and steadily over time, or is their long term performance largely determined by the return of just a few outliers? How likely are investors to successfully predict the best days to be in and out of the market? The evidence from 15 international equity markets and over 160,000 daily returns indicates that a few outliers have a massive impact on long term performance. On average across all 15 markets, missing the best 10 days resulted in portfolios 50.8% less valuable than a passive investment; and avoiding the worst 10 days resulted in portfolios 150.4% more valuable than a passive investment. Given that 10 days represent less than 0.1% of the days considered in the average market, the odds against successful market timing are staggering.
Estrada 8595 Downloads13.02.2008
Datei downloaden Die Arbeit befaßt sich mit der Ermittlung des Value-at-Risk und des Shortfall-Risk auf der Grundlage zentraler Erkenntnisse der Extremwerttheorie. Die Extremwerttheorie ist ein spezielles Teilgebiet der Wahrscheinlichkeitstheorie und wird z.B. verwendet um das potenzielle Ausmaß von Naturkatastrophen zu quantifizieren. Es werden Methoden vorgestellt, mit deren Hilfe der Value-at-Risk und der Shortfall-Risk mit relativ geringen Verzerrungen geschätzt werden können. Untersucht wird insbesondere der Einfluß von Leptokurtosis und Fat Tails hinsichtlich der Randverteilung von Logrenditen auf die Schätzgüte der herkömmlichen Value-at-Risk-Ermittlungsmethoden und der Methoden der Extremwerttheorie. Es läßt sich feststellen, daß die herkömmlichen Ansätze zur Ermittlung des Value-at-Risk vor diesem Hintergrund zu systematisch verzerrten Schätzungen extremer Portefeuillerisiken führen. Insbesondere ist die Ermittlung des Value-at-Risk auf der Grundlage der Normalverteilungshypothese grundsätzlich den Methoden der Extremwerttheorie und der historischen Simulation unterlegen. Die Methoden der Extremwerttheorie sind genau dann zu bevorzugen, wenn eine Quantifizierung extrem seltener Risikoszenarien erfolgen soll und die theoretische Randverteilung der Logrendite fat-tailed ist.
[Autor: Gabriel Frahm]
Frahm 10207 Downloads10.02.2008
Datei downloaden Für gewöhnlich werden aus einer größeren Stichprobe all jene Werte entfernt, die so groß oder klein sind, dass sie unplausibel erscheinen. Sie werden als Ausreisser deklariert und vom weiteren Prozess des Schätzens und Quantifizierens ausgeschlossen. Genau mit diesen Werten beschäftigt sich als Zweig der Statistik die Extremwerttheorie. Sie beschreibt, wie groß Ausreißer sind und mit welchen Wahrscheinlichkeiten Extrema einer vorgegebenen Höhe vorkommen. So kann man auch sehr seltene (beispielsweise nur alle 100 Jahre vorkommende) Ereignisse beschreiben und deren Wahrscheinlichkeiten abschätzen.
[Quelle: RISKNEWS, Ausgabe 5/2004, S. 42-44]
Chavez-Demoulin 11090 Downloads10.02.2008
Datei downloaden Inwieweit können Versicherungen bei der anstehenden Umsetzung von Solvency II von den Erfahrungen der Banken aus den Basel-II-Umsetzungsprojekten profitieren? Die Ausgangssituationen und die Anforderungen von Solvency II und Basel II sind vergleichbar. Da liegt ein Blick auf das Vorgehen der Banken bei Basel II nah. Die Frage, die hier beantwortet werden soll, lautet, welche Anforderungen in Umsetzungsprojekten zu berücksichtigen sind. Im Vordergrund stehen dabei nicht die fachlich-methodischen Anforderungen, die sich aus dem neuen Regelwerk ergeben bzw. noch ergeben werden. Entscheidend sind die Anforderungen an ein Vorgehensmodell, an das Projektmanagement, an die IT-Lösungen und die IT-Infrastruktur.
[Quelle: RISIKO MANAGER 25-26/2006]
Louis 9828 Downloads05.02.2008
Datei downloaden Die jüngsten Turbulenzen auf den Geld- und Kapitalmärkten haben die Bedeutung eines effizienten Liquiditätsrisikomanagements für die Stabilität einzelner Banken sowie des gesamten Finanzsystems in das Bewusstsein einer breiteren Öffentlichkeit gerufen. Doch bereits vor der so genannten Subprime-Krise war die Thematik des Liquiditätsrisikomanagements in Banken verstärkt in den Fokus von Aufsichtsbehörden und internationalen Gremien gerückt.
Herausgeber: Bundesbank/BaFin
BaFin-Bundesbank 7643 Downloads30.01.2008
Datei downloaden Interne Risikomodelle bei Sach- und Unfallversicherern stehen – vor allem im Zusammenhang mit den Diskussionen im Rahmen von Solvency II – im Fokus des Interesses, doch erst wenige Unternehmen verfügen in der Praxis über ausgereifte Modelle, die bereits Anwendung bei der Risikosteuerung des Unternehmens finden. In diesem Beitrag sollen konkrete Impulse zur erfolgreichen Konzeption und Erstellung eines internen Risikomodells gegeben werden. Dabei werden die relevanten Schritte bei der Implementierung, mögliche Anwendungen im Unternehmen und Erfolgsfaktoren eines solchen Projekts aufgezeigt.
[Quelle: Dorothea Diers, Gero Nießen: Solvency II: Interne Risikomodelle in der Praxis, in: RISIKO MANAGER 01/2008, S. 1, 8-17]
Diers 8236 Downloads23.01.2008
Datei downloaden Bei der nachfolgenden Einführung in die Value-at-Risk-Methodik wird zunächst herausgestellt, dass der Value at Risk unter der üblichen Normalverteilungshypothese einfach als ein bestimmtes Vielfaches der Portfolio-Standardabweichung gegeben ist. In diesem Fall ergeben sich außer in der Terminologie keine Neuerungen gegenüber den klassischen Portfoliomodellen in der Tradition von Markowitz. Tatsächlich ist es aber ein inzwischen nicht mehr umstrittenes Ergebnis der empirischen Finanzmarktforschung, dass sich die Normalverteilungshypothese nicht bestätigen lässt.
[Quelle: Hans Rau-Bredow: Value at Risk, Normalverteilungshypothese und Extremwertverhalten, in: Finanz Betrieb, 3. Jahrgang, Oktober 2002, S.603-607.]
Bredow0 9538 Downloads23.01.2008
Datei downloaden Die Immobilienkrise der letzten Jahre in Deutschland verdeutlichte, dass die bis dahin ausgewiesene Risikoarmut bei Immobilienfonds vermutlich kein dauerhaftes Phänomen ist. Die Aussage "Immobilienanlagen sind sicher" bekam erste Risse. Schnell wurde klar, dass diese Assetklasse so professionell wie Renten oder Aktien gesteuert werden muss. Allerdings weist die Klasse der Immobilienanlagen deutliche Unterschiede zu den beiden anderen Assets auf, die eine Anwendung der klassischen Kapitalmarkttheorie (Betafaktoren, Volatilitäten als Risikomaß etc.) verbieten. Die Annahme sehr liquider Märkte bei geringen Transaktionskosten ist beileibe nicht gegeben, wie insbesondere die offenen Immobilienfonds während der Krise erfahren durften.
Gleissner 11308 Downloads07.01.2008
Datei downloaden