Dieser Beitrag liefert eine theoretische Klärung des Risikobegriffs für die interdisziplinäre Risikoforschung mit der pragmatischen Absicht zur potentiellen Verbesserung der Risikoidentifikation zugleich für das Risikomanagement. Einerseits gibt es verschiedene Vorschläge zur Definition und Konzeption von "Risiko" und andererseits herrscht eine Diskrepanz zwischen objektiven (realistischen) und subjektiven (relativistischen bis konstruktivistischen) Ansätzen. In Übereinstimmung mit der Argumentation von T. Aven ist jede Risikoevaluation abhängig von der Qualität und Gültigkeit von Daten und der Verlässlichkeit der Evaluation selbst, weshalb eine objektive Risikoevaluation nicht möglich erscheint. Einen Ausweg daraus bietet das Beachten von Vorwarnungen, wie es mit verschiedensten Konzepten durchgeführt wird: "Near Misses" aus der Industrie, "Critical Incidents" aus der Medizin, "Early Warning Signals" aus der Ökologie, "Weak Signals" aus der Unternehmensführung. Auf dieser Grundlage lässt sich ein Risikobegriff beschreiben, welcher theoretisch konsistent die verschiedenen Ansätze stringent verknüpft und zugleich realitätsnahe Risikoevaluationen (Erkennung + Identifikation + Bewertung) erlaubt, dabei aber typische Schwächen vermeidet. Dieser Risikobegriff basiert auf der Idee einer ständigen Änderung der Informationsgrundlage und erlaubt daher in einer erweiternden Anwendung Risikotrendanalysen. Dies wird mittels der Übertragung des Konzepts von Near Misses im Kontext der Technikfolgenabschätzung demonstriert. Dieser Beitrag ist daher eine tentative Erprobung der vorgestellten Grundlegung und weiterführende Fragen wären genauso zu klären, wie eine weitere empirische Ausweitung bei ausreichender Eignung.
brunnhuber-abed-navandi 6616 Downloads13.09.2016
Datei downloaden Die modernen Orakel unserer digitalen und vernetzten Zeit heißen
Big Data und Datenanalysen. Datensammler wie Google und Amazon vermessen die Welt, erstellen Persönlichkeitsprofile und durchforsten blitzschnell riesige Datenmengen auf Muster und Korrelationen, um Voraussagen in Echtzeit zu ermöglichen. Sie erlauben einen gezielten Blick in die Kristallkugel. Davon versprechen sich Staaten, Forschungseinrichtungen und Wirtschaftsunternehmen exakte Voraussagen, um die Risiken des eigenen Tuns zu minimieren und Chancen des zukünftigen Handelns besser einschätzen zu können. Mehr noch geht es darum, das Wissen in Organisationen strukturiert zu nutzen. Insgesamt surfen rund 3,2 Milliarden Menschen im Internet und produzieren permanent Daten über ihre Mobiltelefone, Fitnessbänder, smarte Uhren, vernetzte Navigationsgeräte und Autos. Online-Versandhändler kennen unsere geheimen Wünsche besser als wir selber. Aus Twitter-Nachrichten lassen sich politische Einstellungen sehr gut ableiten. Aus Daten und Algorithmen lassen sich potenzielle Straftaten antizipieren, bevor sie überhaupt geplant oder begangen wurden.
Romeike 6355 Downloads11.05.2016
Datei downloaden The modern oracles of our networked digital age are
Big Data and data analytics. Data gatherers such as Google and Amazon survey the world, create personality profiles and comb through huge volumes of data at lightning speed for patterns and correlations, allowing them to make predictions in real time. They provide a targeted look into the crystal ball. States, research institutions and commercial companies hope that they can provide accurate predictions to minimise the risk of their own actions and to better assess the opportunities for future activities. It is also about making structured use of the knowledge in organisations. Overall, around 3.2 billion people use the Internet, producing permanent data through their mobile phones, fitness bands, smart watches, networked navigation units and cars. Online sellers know our secret desires better than we do ourselves. Political attitudes can be accurately ascertained from Twitter messages. Data and algorithms enable potential crimes to be anticipated before they are even planned or committed.
Romeike 6876 Downloads11.05.2016
Datei downloaden Vorteile von Simulationen sind breitgefächert. Simulationen erlauben beispielsweise Entscheidungen im Vorfeld intensiv zu analysieren und bilden eine ideale Brücke zwischen Analyse, Erfahrungen und Intuition. Dennoch bestehen nach wie vor Vorbehalte gegenüber Simulationen, die als (zu) komplex gelten und einen hohen Zeitbedarf mit sich bringen können. Der vorliegende Ergebnisbericht liefert Implikationen und empirische Ergebnisse zum Einsatz von Simulationen im deutschsprachigen Raum. Diese sind untergliedert nach Methoden, dem Umgang mit einzelnen Methoden inklusive deren Herausforderungen sowie dem vorhandenen Know-how und verfügbaren Quellen. Motiviert wurde die vorliegende Studie durch erste empirische Ergebnisse zum Umgang mit Simulationsmethoden im deutschsprachigen Raum aus dem Jahre 2011 (Meyer/Romeike/ Spitzner 2012). Die aktuelle Studie, durchgeführt in 2014, greift Teilaspekte dieser Erhebung auf und hat den Anspruch, die generellen Ergebnisse aus dem Jahr 2011 auf zeitliche Konsistenz und Stabilität zu prüfen. Weiterhin besteht ein Hauptziel im Erlangen eines Überblicks zum aktuellen Wissensstand bezüglich Simulationsmethoden auf verschiedenen Unternehmensebenen. Abschließend wird ein besonderes Augenmerk auf die Haltung von Anwendern von Simulationen gegenüber dieser Methode gelegt.
5210 Downloads01.03.2016
Datei downloaden Für das Risiko eines Aktienportfolios oder eines Aktienindex sind, neben den individuellen Verteilungen der darin enthaltenen Aktien, die Abhängigkeiten zwischen den Aktien der Hauptrisikotreiber. Doch weder die genaue Gestalt, noch das Maß an Abhängigkeit, sind an Aktien- und Optionsmärkten einfach zu beobachten. Wir stellen im Folgenden einen Ansatz vor, der aus Optionspreisen auf Einzelaktien sowie Optionen auf einen daraus erstellten Aktienindex ein Maß für die implizit gehandelte Abhängigkeit berechnet. Somit kann – vorwärts schauend – ein Maß für die Einschätzung der Marktteilnehmer über zukünftige Abhängigkeiten ermittelt werden. Berechnet man diese Zahl im Zeitverlauf, so kann sie auch als Indikator für die Furcht der Marktteilnehmer vor zukünftigen Abhängigkeiten dienen. Abzugrenzen ist diese vorwärts schauende Betrachtungsweise von der historischen Schätzung von Abhängigkeiten, beispielsweise durch die paarweisen Korrelationen historischer Aktienreturns, da der vorgestellte Ansatz auf unter dem risikoneutralen Maß berechneten Optionspreisen beruht. Diese Abgrenzung ist analog zur Unterscheidung von historischen Volatilitäten und impliziten Volatilitäten. Die präsentierte Methodik basiert maßgeblich auf der Arbeit von Laurence [vgl. Laurence 2008], welche den sogenannten "Comonotonicity Gap" einführt, sowie auf Dhaene et al. [vgl. Dhaene et al. 2012], welche den "Heard-Behaviour Index" definiert. Neu in diesem Artikel ist die Art der Ermittlung der Randverteilungen, die gewählte Gestalt des Abhängigkeitsmaßes sowie die Fokussierung auf den Deutschen Aktienindex (DAX) – einem Performance Index – was das Berücksichtigen von Dividenden notwendig macht.
Autoren: Eva Marie Ebach, Technische Universität München und Universität Augsburg. Matthias Scherer, Technische Universität München. Lorenz Schneider, EMLYON Business School in Lyon, Frankreich.
[Quelle: Eva Marie Ebach/Matthias Scherer/Lorenz Schneider (2015): Was verraten Index-Optionen über zukünftige Abhängigkeiten?, in: RISIKO MANAGER 11/2015, S. 1, 7-13]
matthias_scherer 4590 Downloads07.06.2015
Datei downloaden Die vorangegangenen Artikel unserer Serie „Risikomanagement mit Sprungprozessen“ haben die numerische Behandlung von Lévyprozessen zum effizienten Einsatz in Bewertungs- und Risikomanagementfragestellungen aus verschiedenen Perspektiven beleuchtet. Der aktuelle Beitrag zielt darauf ab, Anwendungsgebiete für die entwickelten Methoden im Bereich der Modellierung eines Portfolios an Kreditrisiken aufzuzeigen. Neben der Definition und den Eigenschaften von Kreditrisiko werden die Relevanz von Lévyprozessen und Evaluierungsansätze im Zusammenhang mit der quantitativen Bewertung hervorgehoben. Fokussierend auf die Modellierung einer hochdimensionalen Menge von Krediten wird das CIID-Rahmenwerk (CIID steht für conditionally independent and identically distributed) zur simultanen Modellierung aller Ausfallzeiten in einem Portfolio vorgestellt. Innerhalb dieses Rahmens werden effiziente numerische Verfahren, darunter eine Modifikation der Sattelpunktapproximationsmethode, zur Risikosteuerung aufgezeigt.
[Autoren: Benjamin Kant/Steffen Schenk; Quelle: RISIKO MANAGER 06/2015, S. 1, 7-11]
schenk 4063 Downloads07.04.2015
Datei downloaden Das Jahrbuch 2015 der Gesellschaft für Risikomanagement und Regulierung erscheint nun zum vierten Mal und berichtet zum einen über die FIRM-Arbeit, zum anderen gibt es mit einer Auswahl von 26 Fachbeiträgen renommierter Autoren einen Überblick zu aktuellen Risikomanagement- und Regulierungsfragen.
Romeike 23922 Downloads02.04.2015
Datei downloaden Das Risiko-Universum hat sich in der jüngeren Vergangenheit erkennbar ausgedehnt. Durch eine stärkere weltweite Vernetzung von Banken und ihren Kunden, durch eine Vielzahl neuer regulatorischer Anforderungen sowie durch eine geänderte Risikolandkarte und subjektive Risikowahrnehmung werden an professionelle Risikomanager erhebliche Anforderungen gestellt. Dadurch wird die Risikofunktion im Unternehmen deutlich aufgewertet. Der Beitrag stellt zehn Thesen zum Risikomanagement der Zukunft auf.
[Quelle: Stefan Hirschmann: Zehn Thesen zum Risikomanagement der Zukunft, in: die bank, Ausgabe 02/2015, S. 24-30]
hirschmann 3264 Downloads04.03.2015
Datei downloaden In den vergangenen Artikeln dieser Serie sind wir im Zuge der Einführung in Lévy-Prozesse und Optionspreisbewertung in Lévy-Modellen immer wieder auf Sprungprozesse mit unendlicher Aktivität gestoßen. Solche unendlich aktiven Lévy-Prozesse erscheinen aufgrund ihrer Eigenschaft, innerhalb endlicher Zeiträume unendlich oft zu springen, auf den ersten Blick sehr unhandlich. Sie sind auch weniger intuitiv verständlich im Vergleich zu Lévy-Prozessen mit endlicher Aktivität, welche eben nur endlich oft in einem beliebigen endlichen Zeitraum springen. Nichtsdestotrotz haben wir in den bisherigen Teilen bereits gesehen, dass es einige unendlich aktive Lévy-Prozesse gibt, die sowohl aufgrund ihrer statistischen Eigenschaften, als auch wegen ihrer mathematischen Handhabbarkeit sehr gut geeignet sind, um Dynamiken von Asset-Wertprozessen zu beschreiben. Dennoch ist ein Finanzmarktmodell oft erst dann sinnvoll einsetzbar, wenn es möglich ist, Preisprozesspfade effizient zu simulieren. Aber wie simuliert man unendlich viele Sprünge? Genau dieser Frage widmen wir uns in dem heutigen Teil unserer Serie.
[Autoren: Asma Khedher/Thorsten Schulz; Quelle: RISIKO MANAGER 03/2015, S. 1, 8-10]
asma-khedher_thorsten-schulz 4099 Downloads03.03.2015
Datei downloaden Die bisherigen Teile dieser Serie haben uns in die Mathematik der Lévy-Prozesse eingeführt. Das auffälligste Merkmal von Lévy-Prozessen liegt in der Modellierung von Sprüngen. Teil 1 (siehe RiskNET eLibrary) erläuterte die daraus erwachsenden Vorteile für die realistische Abbildung von Aktienkursen in mathematischen Marktmodellen. In Teil 3 (siehe RiskNET eLibrary) haben wir die Optionspreisbewertung in solchen Modellen kennengelernt, bevor der bisher letzte Teil (siehe RiskNET eLibrary) mit der FFT-Methode (Fast Fourier Transform) einen besonders schnellen numerischen Ansatz zur Preisfindung von europäischen Optionen in Lévy-Modellen erklärt hat, siehe auch Carr/Madan sowie Raible [vgl. Carr/Madan 1999 und Raible 2000].
[Autoren: Kathrin Glau, Maximilian Gaß, Lehrstuhl für Finanzmathematik, Technische Universität München, Quelle: RISIKO MANAGER 25-26/2014, S. 17-24]
kathringlau 4826 Downloads17.12.2014
Datei downloaden