In der Folge der jüngsten Finanzkrise rückte vor allem die Bedeutung des Themas Risikomanagement in den Mittelpunkt der Diskussionen von Regulatoren und Bankmanager. Mit jeder neuen Umdrehung des Konsolidierungskarussells, mit verschärften Compliance-Vorgaben und wachsenden Renditeerwartungen ist das Thema Gesamtbanksteuerung auf der Agenda der Bankenmanager ganz nach oben gewandert. Eine zentrale Frage dabei: Mit welchen Steuerungsprozessen und -systemen können Banken die Erwartungen von Kunden und Kapitalgebern nachhaltig erfüllen?
Eines hat die Finanzkrise deutlich vor Augen geführt: Einfache Reporting- und und Analysewerkzeuge, wie sie viele Finanzinstitute heute immer noch einsetzen, reichen für die zukunftsorientierte Steuerung nicht mehr aus. Der Kapitän eines Airbus A 380 navigiert auch nicht mit den Bordinstrumenten einer Fokker F-27. Die Wechselwirkungen zwischen den einzelnen Prozessen einer Bank sind zu komplex und zu vielfältig, um die Folgen möglicher Entscheidungen zu überblicken: So fehlt es diesen Basisinstrumenten zum Beispiel oft an Funktionalitäten, mit denen sich die Ergebnisse verschiedener Handlungsalternativen simulieren lassen. Gerade bei strategisch weitreichenden Entscheidungen wie Übernahmen und Fusionen oder die Gründung von Auslandstöchtern sind zuverlässige, aussagekräftige Bilanz- und GuV-Simulationen die Voraussetzung, um hier die Weichen richtig zu stellen.
Tabellenkalkulation mit der komplexen Finanzwelt überfordert
Auch bei der Prognose etwa von Risikokennziffern oder Vertriebszahlen liefern diese Instrumente nur selten aussagekräftige Informationen, fehlt es ihnen doch an der nötigen "Analyse-Power". Zudem sind die Forecasts oft schon in dem Moment veraltet, in dem sie veröffentlicht werden, denn die Konsolidierung der zugrunde liegenden Basisdaten nimmt meist viel zu viel Zeit in Anspruch. Ebenso leidet die Planung unter den Defiziten der einfachen Reporting-Tools: Die Prozesse sind zu langwierig und ungenau. Die Daten werden häufig mit Tabellenkalkulationsprogrammen wie Excel & Co erfasst und konsolidiert, was oft zu Fehlern führt so ist bereits die Basis für die Steuerung sehr arbeitsaufwendig, fehlerhaft oder ungenau. Das übermäßige Verwenden von Tabellenkalkulationen kann als Schlüsselindikator für das operationelle Risiko eines Finanzinstituts gesehen werden.
Wie kaum ein anderes Softwarewerkzeug haben Tabellenkalkulationsprogramme ihren Weg in den Reportingalltag von Fachabteilungen gefunden. Dieses liegt zum einen sicher an dem günstigen Einstiegspreis und zum anderen auch an den schon vorhandenen Kenntnissen, die die meisten Mitarbeiter mitbringen. Der einfache Zugang und die vorhandenen Möglichkeiten lassen Tabellenkalkulationen darüber hinaus schnell zum Mittel der Wahl werden, wenn Mitarbeiter individuelle Berichtsanforderungen umsetzen wollen oder müssen. Besonders die Flexibilität wird geschätzt, mit der Daten manipuliert und eigene Berechnungen ausgeführt werden können. Dieses reicht bis zur komplexen Programmierung von Arbeitsblättern.
In der Zwischenzeit regt sich jedoch auf der Seite der Berichtsempfänger mannigfaltige Kritik. Um nur einige Punkte zu nennen:
- Es ist kein Durchgriff auf Massendaten, keine Historisierung möglich.
- Keine Versionierung, unterschiedliche Versionen enthalten unterschiedliche Ergebnisse.
- Keine Dokumentation, das Know-how hängt am Arbeitsblattersteller.
- Möglichkeit teilweise unverständlicher Makrobasteleien.
- Die Revision bemängelt Datensicherheit und Nachvollziehbarkeit im manuell erstellten Berichtswesen.
Cockpit für die strategische Steuerung
Deutlich wird die Notwendigkeit einer übergreifenden Gesamtbanksteuerung besonders im Risikomanagement: Banken stehen vor der Aufgabe, ein neues System für die Risikosteuerung aufzubauen, das die vielfältigen Wechselwirkungen der einzelnen Risikofaktoren abbildet von den klassischen Markt- und Kreditrisiken bis hin zum operationellen Risiko. Dabei gilt es, die unterschiedlichen Teilbereiche des Unternehmens und hierbei insbesondere die Daten aus den verschiedenen operativen Systemen zu integrieren: Finanzkennzahlen, Produkt- und Kundendaten, Marktinformationen und operative Messgrößen müssen zusammengeführt werden. Dies ist weder mithilfe von Insellösungen oder Tabellenkalkulationen noch mit ERP-Lösungen möglich: Die Datenmengen sind zu groß und zu vielfältig, die zu leistende Datenanalyse zu anspruchsvoll, die Reportingaufgaben zu komplex. Damit genügen die Anwendungen nicht den Anforderungen des Managements und der Aufsichtsbehörde.
Die Bankmanager sind gefordert, auch die Liquiditätssteuerung in diesen Zusammenhang zu stellen. Die Margen werden heute oft von den Refinanzierungskosten aufgezehrt; Liquiditätsrisiken zu beherrschen, bedeutet also nicht weniger, als das Überleben einer Bank zu sichern. Zentrale Aufgabe der Liquiditätssteuerung ist es daher, alle Cashflows tagesaktuell zusammenzuführen. Da Liquiditätsrisiken als Folgen anderer Primärrisiken wie Markt-, Kredit-, Reputations- oder operationelle Risiken auftreten, muss die Liquiditätssteuerung in die unternehmensweite Bank- und Risikosteuerung eingebettet werden.
MaRisk-Anforderungen können mit Excel&Co nicht erfüllt werden
Die Bundesanstalt für Finanzdienstleistungsaufsicht hat in ihren "Mindestanforderungen für das Risikomanagement" (MaRisk) eindeutige Anforderungen an das Berichtswesen festgeschrieben: Korrekt und konsistent müssen die Reports unter anderem sein. Da in der Regel mehrere Analysten mit jeweils eigenen Dateien an Reports arbeiten, ist die Vorgabe mit Tabellenkalkulationsprogrammen nicht zu erfüllen: Unterschiedliche Datenselektionen, verschiedene Sichtweisen in der Berechnungslogik oder den fachlichen Prozessen und Programmierfehler führen immer wieder zu Inkonsistenzen und Fehlern. Der Einsatz von Tabellenkalkulation steht im direkten Widerspruch zu den Vorgaben der MaRisk und anderen regulatorischen Anforderungen.
Externe Beratungshäuser wie KPMG haben in einer unabhängigen Analyse sogar festgestellt, das 90 Prozent aller Spreadsheet-Lösungen fehlerbehaftet sind und laut Hackett Group 95 Prozent aller Unternehmen noch mit Excel oder Papier und Bleistift planen!
Erfahren Sie in einer Studie der Aberdeen Group mehr über die Risiken von Spreadsheets und den Nutzen von Business Analytics. Weiter
[Bildquelle: iStockPhoto]
Kommentare zu diesem Beitrag
Die aktuelle Anti-Excel-Kampagne, auch durch dubiose Studien getrieben, erinnert ein wenig an die Marketing-Strategie der Pharmakonzerne zum Absatz von Impfstoffen gegen die Schweinegrippe!!!
Natürlich sichert der Absatz von 20.000 oder 200.000 EUR - Softwarelösungen für das Risikomanagement mehr Arbeitsplätze und Gewinne bei den Softwareherstellern als die Verwendung von Eigenlösungen in Excel. Die Historisierung ist einfacher als bei Excel und Formeln können besser geschützt werden. Einige Vorteile sind gar nicht von der Hand zu weisen.
Schmunzeln wird der Praktiker sicherlich bei der KPMG-Aussage (und gerade KPMG ist hier auf Grund der jüngeren Vergangenheit GANZ besonders prädestiniert): Reports müssen konsistent und fehlerfrei sein. Das sollte doch bei manchen Anwendern einen Lachanfall verursachen.
Und eine Frage an die Softwarehersteller wäre in dem Kontext: Wie können zwei vermeintlich zertifizierte und praxiserprobte Lösungen bei einer exakt identischen Fallstudie zu Abweichungen in wichtigen Kennzahlen von über 25 % führen??? Sind das die Reports, die geprüft und zertifiziert und falsch sind? Wurden solche Vergleiche auch mal angestellt? Die Veröffentlichung der Ergebnisse dürfte sicherlich vielen Juristen durch die Softwarehersteller beauftragt neue Einnahmen sichern.
Hinter dieser EXCEL-Kampagne steckt auch ein gutes Stück Lobbyarbeit der Softwarehersteller, die gerne die aktuelle MaRisk-Reform für Absatzsteigerungen nutzen möchten und leider geben sich ein paar fragwürdige Wissenschaftler mit ihrer bezahlten Studie dafür her... Das ist meine persönliche Meinung! Erinnert an Abba: Money, money, money...
was spricht eigentlich dagegen, dass 95 prozent der unternehmen noch mit bleistift und papier arbeiten? das hat doch den immensen vorteil, dass die entscheider ihren kopf anschalten muessen und sich nicht auf irgendwelche oberschlauen tools verlassen muessen ;-)
Die Einstellungen gegenüber dem Risikomanagement wandeln sich: Während in der Vergangenheit ein Risikomanagementsystem häufig eingeführt wurde, um Wirtschaftsprüfern oder Aufsichtsräten zu genügen bzw. gesetzliche Mindestanforderungen zu erfüllen, geschieht dies heute zunehmend aus eigener Motivation sowie aus reinen Nutzenerwägungen. Als größte Herausforderungen gelten dabei Fragen der Risikokultur sowie die IT-technische Unterstützung der Prozesse.
BeOne, eine Gruppe von stark expandierenden Beratungsunternehmen für technische bzw. prozessorientierte Aufgabenstellungen, und die Risk Management Association RMA e.V. haben mit einer Studie gemeinsam den "Stand der Technik" im Risikomanagement und dessen Umsetzung in der Praxis untersucht. Erstmals wurde dabei auch eine umfassende kritische Bewertung einschlägiger Literatur vorgenommen.
Die Studienergebnisse fasst Dr. Roland Franz Erben, Vorstandsvorsitzender der Risk Management Association (RMA), München, so zusammen: "Obwohl in vielen Bereichen weiterhin Nachholbedarf besteht, ist das Risikomanagement erwachsener geworden. Das zeigt die Studie z.B. hinsichtlich der Gründe dessen Einsatz, der Intensität der Beschäftigung mit Risiken oder auch der zunehmenden Verwendung spezifischer Risikomanagement-Informations-Systeme als Ersatz bisheriger Excel-basierter Lösungen."
[...]
Neben der Risikokultur weist die Studie als weiteren Bereich mit überragender Bedeutung die IT-technische Unterstützung der Prozesse aus. Und auch hier vollziehen sich Veränderungen. Zwar nutzt noch mehr als ein Drittel der Befragten für das Risikomanagement Office-Produkte. Aber die lange Zeit herrschende Dominanz von Office-Produkten ist rückläufig, obwohl der Anteil kommerzieller Risikomanagement-Software nach wie vor noch gering ist; selbst Projektmanagement-Software wird erst selten genutzt. "Der erkennbare Trendwechsel mit der zunehmenden Abkehr vom alleinigen Einsatz vorhandener ‚Bordmittel‘ wie MS Excel reflektiert eine Professionalisierung des Themas", erklärt Erben. "Die Erkenntnis greift, dass professionelles Risikomanagement Funktionalität benötigt, die immer bessere Risk-Management-Informations-Systeme RMIS bieten"
Okay, nun dann ... leider hätten auch die "besseren" Risk-Management-Informations-Systeme die letzte Krise nicht verhindert ... oder denke ich da falsch?
Herauskommen sollte eigentlich Null, Excel kommt auf -3,46945E-18
;-)
Weitere Kuriositäten hier: http://www.spiegel.de/netzwelt/web/0,1518,563637,00.html
Die Schlechtmacherei der Tabellenkalkualtion hört sich für mich nach sehr guter Lobbyarbeit einiger Beratungshäuser an, die dadurch mal wieder großen Reibach machen wollen.
Im Bereich "rapid prototyping" und bei unkritischen Anwendungen ist Excel hinsichtlch Effizienz und Preis-/Leistungsverhältnis unschlagbar. Wenn es um Massendatenverarbeitung und Performance geht, wird man eh zu anderen Werkzeugen greifen!
Die Zahl von zu 90% fehlerhaften Excellösungen finde ich künstlich dramatisiert (wahrscheinlich fallen darunter auch Farben und Formatierungen von Zellen). Aber die Message von KPMG und RMA an ihre Kunden ist klar: Sie halten ihre Kunden zu 90% für zu blöd um die einfachsten Grundrechenarten in Zellfunktionen zu übersetzen und betriebswirtschaftliche Probleme eigenständig zu lösen. Nein, diese 90% der DAU's (dümmsten anzunehmenden user) sind auf fremde Hilfe angewiesen und da stehen zufällig KPMG und RMA mit ihren Beraterhorden bereit.
Die allgemein in Excel verwendete Fließkommazahl (double) hat eine Größe von 64bit im IEEE-754-Format mit einem Exponent von 11bit und einer Mantisse von 52bit (+ 1 implizites Bit). Der relative Abstand zweier solcher Zahlen ist dann 2^-53 = ~1,11 * 10^-16. Das heißt also dass nur die 15. Stelle sicher dargestellt werden kann. Auch OpenOffice Calc benutzt das gleiche Format. Es ist also eine reine Definitionssache ;) Das ist aber immer noch besser als jeder handelsüblicher Taschenrechner.
Das Runden ab der 15. Stelle ist übrigens reiner Service von Excel. Beim Rechnen der o.g. Aufgabe tritt ein Überlauf auf und würde in Excel-Sprache normalerweise das Ergebnis "#Wert" bedeuten. ;)