Im Spätherbst letzten Jahres lieferte OpenAI eine spannendere Wendung als jede Daily Soap, als CEO Sam Altman kurzzeitig vom Aufsichtsrat entlassen wurde, ehe er anschließend nach einer medienseitig aktiv begleiteten "Prozession" mächtiger denn je zurückkam.
Seitdem hat sich einiges bei OpenAI verändert (Hinweis: Die diversen technischen Fortschritte sind explizit nicht Gegenstand der folgenden Ausführungen). Die Power Balance hat sich erheblich verschoben. Der Aufsichtsrat, der sich über mangelnde Transparenz und Information beschwerte und ausführte, dass durch die Nicht-Kommunikation des CEOs mit dem Aufsichtsorgan keine wirksame Kontrolle erfolgen kann, wurde entlassen. Sam Altman wurde von Microsoft, dem zentralen Partner von OpenAI (Microsoft investierte zwar Milliarden in OpenAI, besitzt eigenen Angaben zufolge allerdings keine Anteile), erheblich gestärkt.
Sam Boomerang?
Die SZ bezeichnete Altman infolge des fünftägigen Ausnahmezustands und der überraschenden Volte als "Sam Boomerang". Genau dieser Boomerang scheint auch ein halbes Jahr später immer noch in Bewegung zu sein. Denn die Frage, die durch die (vermeintliche) Allmacht von Altman immer wieder entsteht, ist die nach einer ausgewogenen Power Balance und einem soliden unternehmensweiten Vier-Augen-Prinzip.
Vor Kurzem kündigte der deutsche Top-Manager Jan Leike und führte auf X (vormals Twitter) hierzu aus: "Der Abschied von diesem Job war eines der schwersten Dinge, die ich je getan habe." So weit so gut. Anschließend folgte aber harte Kritik am Führungskurs von Altman. Er führte aus, dass die Sicherheitsarchitektur vernachlässigt wurde und stattdessen nur "funkelnde Produkte" im Mittelpunkt standen. Insbesondere die Sicherheit der Anwendungen und ihre gesellschaftlichen Auswirkungen würden vernachlässigt werden. Leike hierzu: "Diese Probleme sind sehr schwer zu lösen. Und ich bin besorgt, dass wir uns nicht auf dem richtigen Weg befinden".
Leike führte aus, dass er besonders daran interessiert war, mit OpenAI zu erforschen, wie man eine Künstliche allgemeine Intelligenz (AGI) erstellt, die schneller als ein Mensch denken, "lenken und kontrollieren" kann. Gleichzeitig macht er allerdings auch deutlich, dass er schon länger mit der OpenAI-Führung uneins darüber sei, welches die Kernprioritäten des Unternehmens sein sollten.
Nicht nur Leike verließ das Unternehmen, sondern mit Ilya Sutskever fast zeitgleich auch der andere Leiter des Superalignment-Teams. Diese Teams, die sich mit den Gefahren der KI beschäftigten, wurden gänzlich aufgelöst.
Sam gegen Scarlett
Die Meldung, dass Scarlett Johansson OpenAI verklagt, würde im Normalfall wohl eher eine Randnotiz bleiben – oder eher die Celebrity Magazines füllen. In der aktuellen Gesamtgemengelage ist die Nachricht allerdings sehr spannend, da sie auch einiges über die internen Strukturen von OpenAI aussagt und vermeintliche Kritikpunkte aufgegriffen werden.
Die Geschichte von "Sam und Scarlett" kurz zusammengefasst: Sam Altman ist ein großer Fan des Films "Her", in dem sich ein unglücklicher Mann in eine KI verliebt. Diesen Film bezeichnete Altman früher bereits als "unglaublich prophetisch". Nach der Veröffentlichung des jüngsten Modells ChatGPT-4o twitterte er nur drei Buchstaben: "Her".
Wenn man nun bedenkt, dass die KI in "Her" mit der Stimme Scarlett Johanssons spricht und Altman vor der Veröffentlichung des jüngsten Modells angeblich zweimal Kontakt mit Johansson aufnahm, um sie davon zu überzeugen, ihre Stimme für das neueste Sprachmodell zu verwenden, wird es brisant.
Scarlett Johansson meldete sie sich erstmals öffentlich zu Wort: "Als ich die Demo hörte, war ich schockiert, verärgert und ungläubig, dass Mr. Altman eine Stimme verwenden würde, die meiner so unheimlich ähnlich klingt."
OpenAI bemühte sich zwar, die Wogen zu glätten und betonte, dass es keine Absicht war, dass sich die neue Stimme wie Scarlett Johansson anhöre und dass die Stimme bis auf Weiteres pausieren würde. Außerdem betonte Altman, dass die Stimme bereits vor der Kontaktaufnahme mit Scarlett Johansson ausgewählt und aufgenommen wurde.
Knebelverträge als Standard (?)
Ein weiterer immer wieder hinter hervorgehaltener Hand geäußerter Kritikpunkt ist der Umgang von OpenAI mit seinen (Ex-)Mitarbeitern. Deshalb sind die Ausführungen von Ilya Sutskever und Jan Leike einerseits sehr überraschend, denn OpenAI wurde in der Vergangenheit immer wieder vorgeworfen, seine gekündigten Mitarbeiter mit "Knebelverträgen" ruhig zu stellen. Es ging darum, mögliche bereits verdiente Millionen an US-Dollars wieder zu verlieren, sollte je ein schlechtes Wort über OpenAI verloren werden.
Laut Angaben von ehemaligen Mitarbeitern gab es in Aufhebungsverträgen Formulierungen, die dem Unternehmen die nahezu willkürliche Befugnis geben, das Vesting-Kapital von ehemaligen Mitarbeitern de facto zurückzufordern oder – was ebenso wichtig ist – sie am Verkauf zu hindern.
Weitere Vorwürfe
OpenAI sieht sich immer wieder zentraler Vorwürfe ausgesetzt. Hierbei ist es natürlich auch ein schmaler Grat zwischen einem sehr erfolgreichen Unternehmen, das naturgemäß auch einige Neider und Missgünstlinge hervorbringt. Gleichzeitig zeigt es aber auch, wie wichtige ein ausgewogenes Verhältnis von Macht und Kontrolle ist.
Die New York Times wirft ChatGPT beispielsweise vor, urheberrechtlich geschützte Inhalte zum Trainieren ihrer Algorithmen verwendet zu haben. Auch YouTube erhob ähnliche Vorwürfe, als es darum ging, OpenAIs Videomodell Sora zu trainieren.
Bei all diesen Vorwürfen schwingt sicherlich auch ein erster Präzedenzfall-Charakter mit, wenn es darum geht, zu klären, wie der Umgang von KI und Copyright ist. Gleichzeitig zeigt sich, wie wichtig interne Kontrollen – im Falle von OpenAI insbesondere Faktoren wie moralische Integrität und Respekt vor individuellen Rechten – sind.
Power Balance immer wieder im Fokus
Auch im Fall Wirecard waren die unausgewogene Machtbalance und schwache Kontrollen ein Hauptgrund für den immensen Schaden. Ein kurzer Abriss hierzu:
- Bundesfinanzministerium
Das Bundesfinanzministerium hat zwar die Verantwortung für die gesetzliche Prüfungspflicht im Allgemeinen und die BaFin im Besonderen, ist sich jedoch bis zum heutigen Tag keiner Schuld bewusst. Stattdessen schiebt es sich mit dem Arbeitsministerium gegenseitig die Schuld in die Schuhe.
- Bundesanstalt für Finanzdienstleistungsaufsicht (BaFin)
Einer der zentralen Faktoren, warum der Betrug bei Wirecard so lange unentdeckt blieb, ist sicherlich die fehlende Übernahme von Verantwortung. Jeder verließ sich auf den anderen. Der langjährige BaFin-Präsident Felix Hufeld schob die Verantwortung auf den Abschlussprüfer: "Für mich ist es schleierhaft, wie Wirecards Jahresabschlüsse von den Wirtschaftsprüfern zehn Jahre lang uneingeschränkt testiert werden konnten. Für mich ist das schleierhaft, gerade mit Blick auf die Probleme bei der Governance".
Die BaFin als oberste nationale Aufsichtsbehörde machte in vielerlei Hinsicht eine unglückliche Figur. Wohl die zentralste Fehlentscheidung, die die BaFin als oberste Kontrollinstanz von Wirecard zu vertreten hat, war die beispiellose Entscheidung vom Februar 2019, Wetten auf Wirecard-Kursverluste ("Leerverkäufe") zu verbieten. Damit ergriff die BaFin – zumindest ungewollt – Partei für Wirecard, das sich als Opfer eines gezielten Angriffs in Form einer angeblichen Erpressung darstellte.
- Wirtschaftsprüfer
Das Image von EY wurde durch den Wirecard-Skandal schwer beschädigt. Neben zahlreichen Millionenklagen bleibt letztendlich abzuwarten, wie nachhaltig der Schaden für die Wirtschaftsprüfungsgesellschaft sein wird.
Dass er immens ist, ist wenig überraschend, schließlich testierte EY zehn Jahre lang trotz diverser Hinweise uneingeschränkt die Jahresabschlüsse. Im Bericht des Sonderermittlers Martin Wambach wird EY im Falle Wirecard eine grundsätzlich fehlende, kritische Grundhaltung bestätigt.
Zur Erinnerung: Es fehlten am Ende 1,9 Mrd. EUR in den Büchern, obwohl EY Jahr für Jahr die Bilanzen des Unternehmens testiert hatte. Darüber hinaus wurde die ordnungsgemäße Befolgung von Prüfungsstandards angezweifelt, wie beispielsweise die Einholung von Banksaldenbestätigungen. Stattdessen ließ sich EY mit Bestätigungen von Treuhändern abspeisen, die wiederum gefälscht und rückdatiert waren.
Gleichzeitig gab es aber auch "heimliche Helden", die das Ungleichgewicht wiederherzustellen versuchten. Diese Personen erkannten den ganzen Schwindel frühzeitig und arbeiteten an deren Aufdeckung aktiv mit.
- Dan McCrum
Der Financial Times-Redakteur Dan McCrum war wohl DER zentralste Player, der durch seine Überzeugung trotz aller Widrigkeiten über Jahre hinweg aktiv an der Aufdeckung der Wirecard-Machenschaften arbeitete.
In Anlehnung an die erfolgreiche TV-Serie "House of Cards", in der es um Intrigen und Skandale geht, wurde die Artikelserie "House of Wirecard" genannt. Dabei geriet er selbst ins Visier der Justiz. Sowohl vonseiten der Staatsanwaltschaft bis hin zu Drohungen und Hackerangriffen, maßgeblich durch Wirecard und deren Verbündete.
Er nutzte immer wieder auch Twitter, um mit seinen "Deutschen Freunden" direkt in Kontakt zu treten und die Verweise auf seine neuesten Berichte anzukündigen – auch mit deutschem Untertitel.
- Franziska Folter
Vor dem Wirecard-Untersuchungsausschuss des Bundestags sagte im Februar 2021 eine 30-jährige Sachbearbeiterin der Bundesbank aus. Ausgebildet an der Hochschule der Bundesbank, heute für die Bundesbank Stuttgart tätig.
Sie hatte bereits im Jahr 2016 intern eine 7-seitige Wirecard-Analyse erstellt, die einiges an Sprengkraft barg, allerdings nie ernst genommen wurde. In ihrem Papier analysierte die damalige Berufseinsteigerin die Berichterstattung der FT. Sie war dabei Fragen auf, wie beispielsweise:
- Was sind die in der Bilanz ausgewiesenen 670 Mio. EUR immaterielle Vermögenswerte tatsächlich wert?
- Warum passen Angaben aus in Singapur eingereichten Berichten nicht zu den Angaben im in Deutschland ein-gereichten Konzernbericht?
- Warum werden Millionen für strauchelnde asiatische Unternehmen ausgegeben?
- Warum bezahlt Wirecard Monate vor Vertragsschluss freizügig hohe Summen im Zusammenhang mit Unternehmenserwerben?
In einer internen Mail des damaligen Vorstands der Wirecard Bank, Rainer Wexeler, an seine Vorstandskollegen Burkhard Ley und Alexander von Knoop zeigte sich am 7. September 2017 die volle Selbstsicherheit Wirecards. Wexeler schrieb hierbei, er habe ein "tolles, ehrliches und offenes Gespräch" mit dem BaFin-Manager Jochem Damberg geführt, der "sehr auskunftsfreudig" gewesen sei. Für die Bundesbank dagegen gibt es in der E-Mail nur Spott: "Die Deutsche Bundesbank zickt herum wegen der fachlichen Kompetenz im Kreditgeschäft." Und: "Die Ausarbeitung hat Frau Folter gemacht, die kleine Maus."
- Thomas Borgwerth
Thomas Borgwerth, Wirtschaftsprüfer und Controller, schaffte etwas, das weder den Wirtschaftsprüfern von EY noch der Bankenaufsicht BaFin gelang: Er erkannte den Betrugsfall schon sehr frühzeitig. Im Jahr 2013 stößt er das erste Mal auf Wirecard und wird im Jahr 2015 durch die "House of Wirecard"-Serie in der FT inspiriert, sich näher mit den Zahlen auseinanderzusetzen. Dabei kommt er am Ende auf Forderungen von 300 Mio. EUR, die nicht plausibel begründet werden können. Diesen Verdacht trug der 2017 in Form eines Beitrags für das Manager Magazin in die breite Öffentlichkeit.
Was übrig bleibt
Zugegeben: OpenAI und Wirecard lassen sich nicht direkt miteinander vergleichen. Letztgenanntes Unternehmen war einer der größten Betrugsfälle der deutschen Nachkriegsgeschichte und einer der größten Betrugsfälle der neueren Zeit weltweit. OpenAI ist der Branchenprimus, wenn es aktuell um KI-Lösungen geht. Von Betrug und Bilanzmanipulationen ist hierbei nichts bekannt.
Gleichzeitig zeigt sich aber, wie wichtig ein stringentes Vier-Augen-Prinzip und eine ausgewogene Power Balance sind. Nur durch ein angemessenes internes Kontrollsystem lassen sich potenziell existenzgefährdende Situationen für das Unternehmen frühzeitig erkennen und abwenden.
Im Falle von OpenAI ist es als Außenstehender nur schwer einzuordnen, wie weit die Entwicklung insbesondere zur Künstlichen allgemeinen Intelligenz (AGI) wirklich ist und wie virulent die Warnungen von Jan Leike und Ilya Sutskever zu Verfehlungen bei Sicherheit und der Umsetzung humaner KI sind oder ob es sich lediglich um enttäuschte Ex-Mitarbeiter handelte, die soeben ihren Job verloren haben. Schließlich gehört auch zur Wahrheit dazu, dass Leike im November 2023 den OpenAI-Aufsichtsrat zum Rücktritt aufforderte.
Abhängigkeiten von nur einer Person müssen nicht unbedingt in einer Katastrophe enden. Insbesondere wenn es sich um einen "benevolenten" Leader handelt, ist dies kein Problem. Wenn der zentrale Kopf allerdings mit allen Mitteln seine Ziele erreichen möchte, ohne auf ein ausgewogenes Verhältnis von Recht und Ordnung sowie Moral auf der einen Seite und wirtschaftlichem Erfolg auf der anderen Seite zu achten, wird es kritisch.
Die Verfehlungen im Falle von OpenAI hinsichtlich der Copyright-Verletzungen, der Streitigkeiten mit Scarlett Johansson sowie dem Umgang mit Ex-Mitarbeitern werden in Zukunft zeigen, ob dies Frühwarnindikatoren für grundlegende und strukturelle Probleme sind oder lediglich unvermeidbare, geringfügige Begleiterscheinungen eines schnell wachsenden Unternehmens, das sich in einem völlig neuen Markt bewegt.
Über den Autor
Dr. Christian Glaser ist promovierter Risikomanager und als Geschäftsführer eines namhaften Finanzdienstleisters tätig. Er ist außerdem Dozent an mehreren Hochschulen und Buchautor mehrerer Fachbücher sowie zahlreicher Fachveröffentlichungen in den Bereichen Finanzdienstleistungen, Unternehmensführung und Management, Controlling sowie Risikomanagement.