Artificial Intelligence (AI) hat sich innerhalb weniger Jahre von einem technologischen Trend zu einem zentralen Steuerungsinstrument in Wirtschaft, Verwaltung und Sicherheitsarchitektur entwickelt. Ihre Anwendung verspricht neue Antworten auf strukturelle Herausforderungen: Etwa beim Umgang mit knappen personellen Ressourcen, bei der Nutzung umfangreicher Datenbestände zur Entscheidungsfindung oder bei der Weiterentwicklung klassischer Planung hin zu dynamischen, prognosebasierten Steuerungsmodellen.
Im Fokus des diesjährigen Forums stand daher die Frage, wie künstliche Intelligenz (KI) erfolgreich in eine zukunftsorientiere Steuerung von Unternehmen und Organisationen integriert werden kann. Dabei rückten auch die Spannungsfelder in den Fokus, die sich im Zusammenspiel von Mensch und Maschine ergeben – etwa hinsichtlich Vertrauen, Transparenz oder der Fähigkeit, algorithmisch erzeugte Handlungsempfehlungen kritisch einzuordnen.
Unter dieser spannenden und hochaktuellen Prämisse brachte das Forum "Zukunftsorientierte Steuerung" am 27. März 2025 bereits zum 14. Mal Experten aus Militär, Wirtschaft und Forschung in Hamburg auf dem Gelände der Clausewitz Kaserne zusammen, um in einem sektorübergreifenden Austausch Einsatzmöglichkeiten, Grenzen und Zukunftsperspektiven von KI-gestützten Steuerungsmodellen zu diskutieren. Veranstalter waren die Abteilung für Produktionswirtschaft an der Universität Stuttgart und Spitzner Consulting in Kooperation mit der Führungsakademie der Bundeswehr und dem German Institute for Defence and Strategic Studies (GIDS).
AI muss interdisziplinär betrachtet werden
Eröffnet wurde das Forum im Gneisenau-Saal der Führungsakademie der Bundeswehr durch Oberst i.G. Stefan Klenz (GIDS), der von KI als "Megatrend" sprach, der strategisches Denken und institutionelles Handeln grundlegend verändert. Als fachliche Leiter der Veranstaltung rahmten Prof. Dr. Andreas Größler (Universität Stuttgart) und Dr. Jan Spitzner (Spitzner Consulting) die Veranstaltung ein und plädierten für eine ganzheitliche Betrachtung des Themas KI, um Einflüsse auf gesellschaftliche, soziale und wirtschaftliche Aspekte von Beginn an gezielt einzubeziehen. Nur so können entstehende Chancen effektiv genutzt und Herausforderungen frühzeitig erkannt werden.
Im Anschluss an die Begrüßung hatten die Teilnehmer die Möglichkeit an einem von vier parallel stattfindenden Modulen teilzunehmen, in denen konkrete Anwendungen und Herausforderungen rund um AI-gestützte Entscheidungsunterstützung vermittelt wurden. Jedes der Module wurde von einem oder mehreren Experten geleitet und erlaubte es den Teilnehmern, sich durch Beispiele und regen Austausch interaktiv und praxisnah mit den Thematiken auseinanderzusetzen.
AI-unterstützte Entscheidungen
Unter Leitung von OTL d.R. Prof. Dr.-Ing. Volker Gollnick (TU Hamburg) widmete sich ein Modul der Rolle von KI in der operationellen Lagebeurteilung. Die Teilnehmer diskutierten funktionale Anforderungen an AI-Systeme und erhielten anhand praxisnaher Kurzbeispiele Einblicke in aktuelle Softwarelösungen. Besonderes Augenmerk galt der Frage, wie Künstliche Intelligenz Entscheidungsträger effektiv unterstützen kann, ohne dabei ethische Standards zu untergraben. Eine rege Diskussion unter den Teilnehmern zeigte, wie vielfältig die Erwartungen an AI in militärischen und zivilen Kontexten sein können.
LLM in einem Strategic Matrix Wargame
Um die Nutzung von KI in Form eines LLM in einem Strategic Matrix Wargame zu veranschaulichen, teilte OTL i.G. Thorsten Kodalle (Führungsakademie der Bundeswehr) die Teilnehmer seines Moduls in zwei Gruppen ein und stellte ihnen eine konkrete Aufgabe. Entsprechend dem M.I.D.L.I.F.E.-Prinzip übernahmen die Gruppenmitglieder Rollen als "Subject Matter Experts" (SMEs). Sie analysierten mithilfe eines selbstgewählten LLMs einen Artikel zu den Kriegsplänen des Kremls im eigenen Fachbereich. Vorgegebene Prompts dienten der Lagebewertung und Identifikation von Handlungsoptionen, um Möglichkeiten und Grenzen AI-gestützter Analyse aufzuzeigen. Die Ergebnisse wurden gesammelt, visualisiert und in strategische Handlungsempfehlungen zu hybriden Bedrohungen überführt. Besonders der "hands-on" und gruppenorientierte Ansatz dieses Moduls stieß bei den Teilnehmern auf große Begeisterung.
Algorithmen-Aversion in Entscheidungsprozessen
Dr. habil Peter Kotzian (Heinrich-Heine-Universität Düsseldorf) thematisierte in seinem Modul die Diskrepanz zwischen hohen Erwartungen an AI und ihrer bislang begrenzten Nutzung in Entscheidungsprozessen. Die Diskussion kreiste um sogenannte Algorithmen-Aversion, also die menschliche Tendenz, Empfehlungen oder Entscheidungen von Algorithmen abzulehnen, insbesondere nachdem diese einen Fehler gemacht haben – selbst dann, wenn die algorithmischen Entscheidungen nachweislich genauer sind als menschliche Analysen und wie diese im Kontext von Organisationen überwunden werden kann. Auch die Risiken verzerrter oder unvollständiger Daten als limitierende Faktoren für die Wirksamkeit von AI waren Teil der Diskussion.
AI zur Simulation von Katastrophenszenarien
Das vierte Modul, geleitet von Heinrich Pfriemer und Dominik Zirfaß (SAP), analysierte die strategische Nutzung von AI zur Simulation von Katastrophenszenarien. Mithilfe eines Frameworks zum Krisenbewältigungszyklus wurde dargelegt, wie AI in allen Phasen – von Prävention über Reaktion bis zur Wiederherstellung – effektiv eingesetzt werden kann. Der richtige Einsatz von AI-Anwendungen bedarf allerdings auch den notwendigen unternehmensinternen Voraussetzungen: Datenintegrität, Infrastruktur und personellen Kompetenzen. Neben einem von SAP entwickelten Framework zur flächendeckenden Implementierung von AI-Anwendungen in einem Unternehmen brachten die Teilnehmer eigene Herausforderungen aus ihren jeweiligen Arbeitsfeldern ein, was zu einem lebendigen Austausch über die verschiedenen Sektoren hinweg beitrug.
AI ist gekommen, um zu bleiben
In den Kaffeepausen zwischen den einzelnen Veranstaltungssegmenten wurde deutlich, dass gerade im sektorübergreifenden Charakter eine zentrale Stärke des Forums liegt. Die Teilnehmer – teilweise schon vertraut aus den Veranstaltungen der letzten Jahre – hatten die Gelegenheit ihre neuen Eindrücke, Erkenntnisse und Sichtweisen aus den verschiedenen Modulen auszutauschen. Die zentrale Erkenntnis über die Module hinweg lautete: Künstliche Intelligenz ist gekommen, um zu bleiben. Die Frage ist nicht, ob die Technologie in Entscheidungsprozesse integriert werden sollte, sondern vielmehr, wie dies geschehen muss, um den aktuellen geopolitischen und wirtschaftlichen Herausforderungen wirksam zu begegnen. Zugleich wurden auch kritische Fragen diskutiert. Sollte KI lediglich in unterstützender Funktion verwendet werden oder sogar Entscheidungen komplett autonom treffen? Und werden Menschen überhaupt langfristig in der Lage sein, die von der KI vorgeschlagenen Handlungsempfehlungen angemessen zu bewerten?
Nachvollziehbarkeit und Legitimität von Entscheidungen
Diese Fragen verweisen auf ein grundlegendes Spannungsfeld zwischen Automatisierung und Verantwortung. Sektorübergreifend wurde die Notwendigkeit eines "Human-in-the-Loop"-Prinzips betont, um die Nachvollziehbarkeit und Legitimität von Entscheidungen zu sichern. Zwei zentrale Bedenken wurden wiederholt geäußert: Erstens die Gefahr, dass Menschen durch den häufigen AI-Einsatz zentrale kognitive Fähigkeiten verlieren könnten und zweitens die Frage, ob AI-Systeme künftig Entscheidungen hervorbringen, die für den Menschen aufgrund ihrer Komplexität kaum noch nachvollziehbar sind.
System Dynamics und AI zur Modellierung komplexer Systeme
Den ersten Impuls des Nachmittags lieferte Guido Veldhuis (TNO). In seinem Vortrag betonte er die Rolle von System Dynamics (SD) in Kombination mit AI zur Entwicklung zukunftsfähiger Politikstrategien. Er verwies auf sogenannte "wicked problems", die sich durch ihre adaptive Natur gegen klassische Steuerungslogiken wehren. AI könne dabei helfen, Muster und Kausalzusammenhänge zu erkennen, die menschlichen Analysen oft verborgen bleiben. Auch wenn aktuelle LLMs noch an ihre Grenzen bei der Modellierung komplexer Systeme kommen und hinter den menschlichen Modellen zurückbleiben, prognostiziert er eine rasche Entwicklung, sodass die AI-Anwendungen bereits mittelfristig in der Lage sein wird gleiche oder bessere Ergebnisse zu erzielen. Veldhuis plädierte jedoch für ein kooperatives Modell und sieht AI als Werkzeug, dass es dem Menschen erlaubt, sich mehr Zeit für die Konzeptualisierung von Problemen zu nehmen.
Deepfakes, Desinformation und AI-gestützte Cyberangriffe
Dr. Christopher Nehring (Cyberintelligence Institute) verdeutlichte in seinem Vortrag das Bedrohungspotenzial von Deepfakes, Desinformation und AI-gestützten Cyberangriffen. Anhand aktueller Beispiele zeigte er, wie Unternehmen mit gefälschten Videokonferenzen oder synthetischen Stimmen konfrontiert werden. Auch die Justiz stehe vor neuen Herausforderungen, etwa bei der forensischen Bewertung von Beweismitteln. Besonders schwerwiegend sei zudem die potenzielle Gefährdung militärischer Sicherheit, da AI-generierte Deepfakes gezielt eingesetzt werden könnten, um Kommandostrukturen zu destabilisieren, Desinformation in Konfliktsituationen zu verbreiten oder Entscheidungsprozesse durch falsche audiovisuelle Inhalte zu beeinflussen. Nehring plädierte daher dafür, frühzeitig Sicherheitsstrategien zu etablieren, die AI-spezifische Bedrohungslagen adressieren, um nicht wie zu Beginn der Digitalisierung erneut von den Risiken einer revolutionären Technologie überrascht zu werden und stattdessen potenzielle negative Folgen frühzeitig zu berücksichtigen.
Breiter gesellschaftlicher Diskurs über AI ist unabdingbar
In seinem Vortrag thematisierte Prof. Dr. Gary S. Schaal (HSU/UniBwH) die transformative Wirkung von KI auf gesellschaftliche und sicherheitspolitische Entscheidungsprozesse. Ein breiter gesellschaftlicher Diskurs über KI ist unabdingbar, um ethische Prinzipien, technische Kompetenz und strategische Erwägungen zusammenzubringen und dadurch die Verteidigungsfähigkeit langfristig zu sichern. Außerdem hängt militärische Verteidigung zunehmend von KI-Kompetenzen ab. Dies erfordert nicht nur technologische Anpassungen bei bestehenden Systemen, sondern auch eine grundlegende Reform militärischer Ausbildung und Organisationsstrukturen. Darüber hinaus wird KI zum Treiber sicherheitspolitischer Instabilität, da beschleunigte Entscheidungsprozesse und KI-gestützte Cyberoperationen neue Risiken schaffen, die herkömmliche Sicherheitsstrategien herausfordern. Besonders Demokratien stehen dabei vor herausfordernden Schwierigkeiten: Während autoritäre Systeme KI kurzfristig effektiver nutzen könnten, drohen Demokratien durch gesellschaftliche Polarisierung und intransparente KI-Entscheidungen ("Blackbox"-Problematik) an Resilienz einzubüßen. Deshalb müsse gezielt daran gearbeitet werden, technologische Exzellenz mit demokratischer Kontrolle zu verbinden.
AI ermöglicht die Entkoppelung von Wachstumszielen mit einem steigenden Ressourcenverbrauch
Abschließend präsentierten Carsten Schwarz und Heinrich Pfriemer (SAP) anhand interner SAP-Beispiele, wie künstliche Intelligenz durch eine tiefgehende Verknüpfung mit Unternehmensdaten und Prozessen zu nachhaltigen Transformationen führen kann. Dabei zeigte Heinrich Pfriemer insbesondere auf, wie KI-gestützte Lösungen operativ im militärischen Bereich eingesetzt werden können und welches Potenzial sich durch die gezielte Datenanalyse und Prozessvernetzung eröffnet. Grundsätzlich ermöglicht KI, Wachstumsziele von einem steigenden Ressourcenverbrauch zu entkoppeln, indem sie Prozesse optimiert, Abläufe automatisiert und eine präzisere Steuerung der verfügbaren Ressourcen ermöglicht. Voraussetzung hierfür ist jedoch eine sorgfältige Integration der KI-Systeme in bestehende Prozesse sowie eine hohe Qualität der verwendeten Anwendungen. Am konkreten Beispiel des SAP Customer Supports wurde dargestellt, wie dies erfolgreich umgesetzt werden kann. Hierdurch werden Mitarbeiter spürbar von Routineaufgaben entlastet und erhalten mehr Freiräume, um sich auf die Bearbeitung neuer und komplexerer Herausforderungen zu konzentrieren.
AI ist sowohl technisches als auch gesellschaftliches Projekt
Durch die verschiedenen Module und Vorträge des diesjährigen Forums wurde auf gelungene Weise gezeigt, dass die Integration von Künstlicher Intelligenz in Entscheidungsprozesse kein rein technisches, sondern ein zutiefst gesellschaftliches Projekt ist. Trotz des Konsenses, dass der Einsatz von KI enorme Potenziale bietet, wurde deutlich, dass Fragen der Verantwortung, der Transparenz und der menschlichen Kontrolle neu verhandelt werden müssen.
Für das kommende Jahr dürfen die zukünftigen Teilnehmer bereits jetzt gespannt sein, welche Fragestellung das Organisationsteam aufwerfen wird, um Experten zum 15. Forum für "Zukunftsorientierte Steuerung" im Jahr 2026 zusammenzubringen.