Banks calculating capital requirements for credit risk based on internal ratings according to the Basel framework must add a margin of conservatism to their estimates of probability of default (PD). This margin shall, at a minimum, cover the statistical uncertainty related to the estimation. A wide range of methods and assumptions are regularly used to quantify this uncertainty and these methods and assumptions are frequently challenged and criticized by supervisory authorities. In this article we show why one should distinguish between two different types of statistical uncertainty in PD estimation and between two different approaches to quantify them. We derive formulas for both types and approaches from the credit-portfolio model assumptions which underlie the Basel risk weight formulas. By a numerical evaluation and simulation we find that, depending on the portfolio and availability of historical data, both types can yield sizeable contributions to the overall uncertainty of a PD estimate. Consequently we discuss the impact of these findings on capital requirements.
scherer-dominik 1060 Downloads16.12.2024
Datei downloaden Die VÖB-Service GmbH und e.stradis GmbH haben im Februar und März 2019 gemeinsam diese Erhebung unter mehr als 100 Kreditinstituten mit Schwerpunkt Deutschland durchgeführt mit dem Ziel, bei Banken den Reifegrad im regulatorischen NPL-Management zu hinterfragen und Erkenntnisse über Verbesserungsmöglichkeiten zur Erfüllung der regulatorischen Anforderungen zu identifizieren.
Romeike 3705 Downloads12.04.2019
Datei downloaden Dieser Beitrag liefert eine theoretische Klärung des Risikobegriffs für die interdisziplinäre Risikoforschung mit der pragmatischen Absicht zur potentiellen Verbesserung der Risikoidentifikation zugleich für das Risikomanagement. Einerseits gibt es verschiedene Vorschläge zur Definition und Konzeption von "Risiko" und andererseits herrscht eine Diskrepanz zwischen objektiven (realistischen) und subjektiven (relativistischen bis konstruktivistischen) Ansätzen. In Übereinstimmung mit der Argumentation von T. Aven ist jede Risikoevaluation abhängig von der Qualität und Gültigkeit von Daten und der Verlässlichkeit der Evaluation selbst, weshalb eine objektive Risikoevaluation nicht möglich erscheint. Einen Ausweg daraus bietet das Beachten von Vorwarnungen, wie es mit verschiedensten Konzepten durchgeführt wird: "Near Misses" aus der Industrie, "Critical Incidents" aus der Medizin, "Early Warning Signals" aus der Ökologie, "Weak Signals" aus der Unternehmensführung. Auf dieser Grundlage lässt sich ein Risikobegriff beschreiben, welcher theoretisch konsistent die verschiedenen Ansätze stringent verknüpft und zugleich realitätsnahe Risikoevaluationen (Erkennung + Identifikation + Bewertung) erlaubt, dabei aber typische Schwächen vermeidet. Dieser Risikobegriff basiert auf der Idee einer ständigen Änderung der Informationsgrundlage und erlaubt daher in einer erweiternden Anwendung Risikotrendanalysen. Dies wird mittels der Übertragung des Konzepts von Near Misses im Kontext der Technikfolgenabschätzung demonstriert. Dieser Beitrag ist daher eine tentative Erprobung der vorgestellten Grundlegung und weiterführende Fragen wären genauso zu klären, wie eine weitere empirische Ausweitung bei ausreichender Eignung.
brunnhuber-abed-navandi 6616 Downloads13.09.2016
Datei downloaden During the 2007 economic crisis, credit risk has been recognized as a core issue and a crucial determination of pricing financial instruments. The basic form of credit risk, known as counterparty risk, particularly impacts the valuation of over the counter (OTC) derivatives through an additional term known as the credit valuation adjustment (CVA). To identify the impact of credit risk, a large amount of research has been rapidly developed in the last decades. These amount of attempts confrm the significance of considering CVA and finding suitable methods to do the measurements in a more effcient manner. In this article, we provide an overview of CVA valuation and intend to give an insight into some of the models of determining counterparty credit risk on market variables. We discuss some recent mathematical methods of valuating CVA and address their potential challenges and outcomes. We then review the regulatory aspects of CVA and question the relation between analytical and regulatory risk models. [Authors: Samae Bagheri, Farhad Khakzad, Sahil Sundriy]
samae-bagheri 5114 Downloads16.05.2016
Datei downloaden Die modernen Orakel unserer digitalen und vernetzten Zeit heißen
Big Data und Datenanalysen. Datensammler wie Google und Amazon vermessen die Welt, erstellen Persönlichkeitsprofile und durchforsten blitzschnell riesige Datenmengen auf Muster und Korrelationen, um Voraussagen in Echtzeit zu ermöglichen. Sie erlauben einen gezielten Blick in die Kristallkugel. Davon versprechen sich Staaten, Forschungseinrichtungen und Wirtschaftsunternehmen exakte Voraussagen, um die Risiken des eigenen Tuns zu minimieren und Chancen des zukünftigen Handelns besser einschätzen zu können. Mehr noch geht es darum, das Wissen in Organisationen strukturiert zu nutzen. Insgesamt surfen rund 3,2 Milliarden Menschen im Internet und produzieren permanent Daten über ihre Mobiltelefone, Fitnessbänder, smarte Uhren, vernetzte Navigationsgeräte und Autos. Online-Versandhändler kennen unsere geheimen Wünsche besser als wir selber. Aus Twitter-Nachrichten lassen sich politische Einstellungen sehr gut ableiten. Aus Daten und Algorithmen lassen sich potenzielle Straftaten antizipieren, bevor sie überhaupt geplant oder begangen wurden.
Romeike 6355 Downloads11.05.2016
Datei downloaden The modern oracles of our networked digital age are
Big Data and data analytics. Data gatherers such as Google and Amazon survey the world, create personality profiles and comb through huge volumes of data at lightning speed for patterns and correlations, allowing them to make predictions in real time. They provide a targeted look into the crystal ball. States, research institutions and commercial companies hope that they can provide accurate predictions to minimise the risk of their own actions and to better assess the opportunities for future activities. It is also about making structured use of the knowledge in organisations. Overall, around 3.2 billion people use the Internet, producing permanent data through their mobile phones, fitness bands, smart watches, networked navigation units and cars. Online sellers know our secret desires better than we do ourselves. Political attitudes can be accurately ascertained from Twitter messages. Data and algorithms enable potential crimes to be anticipated before they are even planned or committed.
Romeike 6876 Downloads11.05.2016
Datei downloaden Vorteile von Simulationen sind breitgefächert. Simulationen erlauben beispielsweise Entscheidungen im Vorfeld intensiv zu analysieren und bilden eine ideale Brücke zwischen Analyse, Erfahrungen und Intuition. Dennoch bestehen nach wie vor Vorbehalte gegenüber Simulationen, die als (zu) komplex gelten und einen hohen Zeitbedarf mit sich bringen können. Der vorliegende Ergebnisbericht liefert Implikationen und empirische Ergebnisse zum Einsatz von Simulationen im deutschsprachigen Raum. Diese sind untergliedert nach Methoden, dem Umgang mit einzelnen Methoden inklusive deren Herausforderungen sowie dem vorhandenen Know-how und verfügbaren Quellen. Motiviert wurde die vorliegende Studie durch erste empirische Ergebnisse zum Umgang mit Simulationsmethoden im deutschsprachigen Raum aus dem Jahre 2011 (Meyer/Romeike/ Spitzner 2012). Die aktuelle Studie, durchgeführt in 2014, greift Teilaspekte dieser Erhebung auf und hat den Anspruch, die generellen Ergebnisse aus dem Jahr 2011 auf zeitliche Konsistenz und Stabilität zu prüfen. Weiterhin besteht ein Hauptziel im Erlangen eines Überblicks zum aktuellen Wissensstand bezüglich Simulationsmethoden auf verschiedenen Unternehmensebenen. Abschließend wird ein besonderes Augenmerk auf die Haltung von Anwendern von Simulationen gegenüber dieser Methode gelegt.
5210 Downloads01.03.2016
Datei downloaden Dieser Artikel ist eine Einführung in die Thematik der Bewertung von Derivaten unter Berücksichtigung von Bewertungsadjustierungen (engl. "Credit Valuation Adjustments" (CVA)) mit dem Ziel, einen leicht verständlichen Einstieg in die Materie zu geben. Es wird dabei auf die Hintergründe von CVA im Rahmen des Risikomanagements eingegangen. Dabei findet eine sorgfältige Abgrenzung zu herkömmlichen Größen im Kontext von Kontrahenten-Ausfallrisiken (engl. "Counterparty Default Risk") unter den Basel-III-Regularien statt. Besonderes Augenmerk wird auf ein praxisnahes Vorgehen gelegt und es werden Hinweise zur Simulation von CVA gegeben.
[Quelle: Matthias Scherer/Sebastian Walter (2015): CVA für Kontrahenten-Ausfallrisiken, in: RISIKO MANAGER 15-16/2015, S. 1, 7-10]
matthias_scherer 3573 Downloads29.07.2015
Datei downloaden Für das Risiko eines Aktienportfolios oder eines Aktienindex sind, neben den individuellen Verteilungen der darin enthaltenen Aktien, die Abhängigkeiten zwischen den Aktien der Hauptrisikotreiber. Doch weder die genaue Gestalt, noch das Maß an Abhängigkeit, sind an Aktien- und Optionsmärkten einfach zu beobachten. Wir stellen im Folgenden einen Ansatz vor, der aus Optionspreisen auf Einzelaktien sowie Optionen auf einen daraus erstellten Aktienindex ein Maß für die implizit gehandelte Abhängigkeit berechnet. Somit kann – vorwärts schauend – ein Maß für die Einschätzung der Marktteilnehmer über zukünftige Abhängigkeiten ermittelt werden. Berechnet man diese Zahl im Zeitverlauf, so kann sie auch als Indikator für die Furcht der Marktteilnehmer vor zukünftigen Abhängigkeiten dienen. Abzugrenzen ist diese vorwärts schauende Betrachtungsweise von der historischen Schätzung von Abhängigkeiten, beispielsweise durch die paarweisen Korrelationen historischer Aktienreturns, da der vorgestellte Ansatz auf unter dem risikoneutralen Maß berechneten Optionspreisen beruht. Diese Abgrenzung ist analog zur Unterscheidung von historischen Volatilitäten und impliziten Volatilitäten. Die präsentierte Methodik basiert maßgeblich auf der Arbeit von Laurence [vgl. Laurence 2008], welche den sogenannten "Comonotonicity Gap" einführt, sowie auf Dhaene et al. [vgl. Dhaene et al. 2012], welche den "Heard-Behaviour Index" definiert. Neu in diesem Artikel ist die Art der Ermittlung der Randverteilungen, die gewählte Gestalt des Abhängigkeitsmaßes sowie die Fokussierung auf den Deutschen Aktienindex (DAX) – einem Performance Index – was das Berücksichtigen von Dividenden notwendig macht.
Autoren: Eva Marie Ebach, Technische Universität München und Universität Augsburg. Matthias Scherer, Technische Universität München. Lorenz Schneider, EMLYON Business School in Lyon, Frankreich.
[Quelle: Eva Marie Ebach/Matthias Scherer/Lorenz Schneider (2015): Was verraten Index-Optionen über zukünftige Abhängigkeiten?, in: RISIKO MANAGER 11/2015, S. 1, 7-13]
matthias_scherer 4590 Downloads07.06.2015
Datei downloaden Die vorangegangenen Artikel unserer Serie „Risikomanagement mit Sprungprozessen“ haben die numerische Behandlung von Lévyprozessen zum effizienten Einsatz in Bewertungs- und Risikomanagementfragestellungen aus verschiedenen Perspektiven beleuchtet. Der aktuelle Beitrag zielt darauf ab, Anwendungsgebiete für die entwickelten Methoden im Bereich der Modellierung eines Portfolios an Kreditrisiken aufzuzeigen. Neben der Definition und den Eigenschaften von Kreditrisiko werden die Relevanz von Lévyprozessen und Evaluierungsansätze im Zusammenhang mit der quantitativen Bewertung hervorgehoben. Fokussierend auf die Modellierung einer hochdimensionalen Menge von Krediten wird das CIID-Rahmenwerk (CIID steht für conditionally independent and identically distributed) zur simultanen Modellierung aller Ausfallzeiten in einem Portfolio vorgestellt. Innerhalb dieses Rahmens werden effiziente numerische Verfahren, darunter eine Modifikation der Sattelpunktapproximationsmethode, zur Risikosteuerung aufgezeigt.
[Autoren: Benjamin Kant/Steffen Schenk; Quelle: RISIKO MANAGER 06/2015, S. 1, 7-11]
schenk 4063 Downloads07.04.2015
Datei downloaden