Künstliche Intelligenz ist zur Waffe geworden. Bis vor wenigen Jahren wurde sie von Geheimdiensten genutzt, um Cyberangriffe, Täuschungen oder Irreführungen zu verhindern oder durchzuführen. Heute ist sie auch ein Werkzeug, um das Schlachtfeld zu analysieren und Angriffsziele zu bestimmen

Der Beitrag ist auf Italienisch zuerst erschienen in eurasia-rivista.com 3/2025, S. 59-64.

Von Amedeo Maddaluno


Andrea Maddaluno ist unabhängiger geopolitischer Analyst und Mitarbeiter von „Eurasia. Rivista di Studi Geopolitici”

Machen wir ein Experiment. Wir fragen Grok, die kostenlose KI-Schnittstelle auf der Plattform X des Magnaten Elon Musk: „Was sind die wichtigsten Waffensysteme, die heute auf künstlicher Intelligenz basieren?” 

Das System antwortet: „Die wichtigsten derzeit eingesetzten Waffensysteme auf Basis künstlicher Intelligenz (KI), bekannt als Lethal Autonomous Weapon Systems (LAWS) oder Autonomous Weapon Systems (AWS), sind hauptsächlich Drohnen, intelligente Raketen und Verteidigungssysteme, die KI-Algorithmen für Funktionen wie Identifizierung, Verfolgung und Angriff von Zielen integrieren. Die meisten dieser Systeme arbeiten aber immer noch im „Human-in-the-Loop“-Modus (HITL, wörtlich: Mensch im Kreislauf), also unter menschlicher Aufsicht, während komplett autonome „Human-out-of-the-Loop“-Systeme (HOTL, Mensch außerhalb des Betriebszyklus) eher Zukunftsmusik als gängige Praxis sind.“ [1]

Grok zeigt uns den wichtigsten Unterschied zwischen KI-basierten Waffensystemen auf: ihre Beziehung zum menschlichen Aufseher. HITL-Systeme erfordern ständige menschliche Überwachung, der menschliche Bediener füttert die Maschine mit Rückmeldungen (Feedback) zu deren Verarbeitung. Autonomer sind die Systeme „human on the loop“ (HOTL, meine Übersetzung: „Mensch überlagert den Kreislauf“), die Grok nicht erwähnt. Dabei handelt es sich um Programme und Maschinen mit weitreichender Prozessautonomie, wobei der menschliche Bediener lediglich eine Kontrollfunktion hat.

Wenn wir über Maschinen mit künstlicher Intelligenz reden, meinen wir Programme und Maschinen. Fangen wir mit den Programmen an, „Software“, die riesige Mengen an sich ständig ändernden Daten vom Schlachtfeld sammelt und diese fast gleichzeitig verarbeitet und analysiert, um immer genauere Informationen zu liefern und echte Entscheidungen zu fällen – die der Mensch überwachen oder genehmigen kann oder auch nicht. Dank Drohnen, Radargeräten, Satelliten, elektronischen, thermischen und elektromagnetischen Sensoren wird das Schlachtfeld immer transparenter: Von Daten überschwemmt zu werden, ist jedoch nutzlos, wenn man nicht in der Lage ist, sie zu lesen und in Informationen und damit Entscheidungen umzuwandeln. [2]

Genau hier kommt die künstliche Intelligenz ins Spiel. Sie kann noch nicht „denken”, d. h. kreativ und autonom sein (und abstrahieren). Sie ist noch nicht „intelligent”, aber sie kann riesige Datenmengen berechnen, organisieren und mit einer Geschwindigkeit analysieren, die nicht nur für menschliche Gehirne, sondern auch für herkömmliche Computer unvorstellbar ist. Die Berechnungen der KI werden unter anderem für das sogenannte „Targeting” genutzt, also für die Identifizierung und Auswahl von Zielen, die dann sowohl an menschlich gesteuerte Waffensysteme als auch an Drohnen weitergeleitet werden. 

Hier stechen die Streitkräfte von Tel Aviv mit ihrer üblichen verheerenden Mischung aus Zynismus und technologischer Avantgarde hervor. Um Hamas-Kämpfer im Gazastreifen zu finden und anzugreifen, wird ein von einer KI verwaltetes Archiv namens „Lavender“ (Lavendel) genutzt, dessen Rechenfehler öfter zu erheblichen „Kollateralschäden” geführt haben. Zur Identifizierung und Auswahl von Zielen im Gazastreifen wird auch ein anderes Datenanalysesystem verwendet, das mit erschreckender Grausamkeit „The Gospel” (Evangelium) genannt wird. Es gibt auch passive Systeme zur Überwachung, Gesichtserkennung oder Spionage, die Datenschutzbestimmungen übergehen. Diese Systeme wurden von Firmen wie Palantir oder ClearView Al, in die der bekannte Trump-Anhänger Peter Thiel investiert, oder auch von der deutschen Firma Helsing entwickelt. [3]

Natürlich bietet KI-Software auch im Bereich der IT-Sicherheit riesige Möglichkeiten, sowohl offensiv, zum Beispiel zum Knacken von Verschlüsselungen, als auch defensiv, etwa zum Testen der Sicherheit eines Systems. Eine zweite Kategorie sind echte Waffensysteme mit KI. Hier bestehen viele Möglichkeiten, die KI in die ausgereifte Technologie von Drohnen, Lenkraketen und umherfliegende „Loitering Munitions” zu integrieren. Grok hilft uns wieder mit ein paar Beispielen: Lauer-Munitionen wie die US-amerikanischen Aerovironment-Switchblade-Fluggeräte mit Gefechtskopf oder die türkischen Kargu-2-Drohnen oder der Schwarm KI-gesteuerter Lauer-Munition, der von der China Electronics Technology Group hergestellt wird. [4] Für ein weiteres Beispiel brauchen wir Grok nicht, es handelt sich um einen alten Bekannten aus unserer früheren Studie über Drohnen: das US-Unternehmen Anduril, das KI auf eine breite Palette von Militärprodukten anwendet.

Auch in Italien setzen die wichtigsten Verteidigungsunternehmen zunehmend KI-Technologien in ihren Systemen und Produkten ein: Leonardo nutzt KI mit dem vom italienischen Militär getesteten Anti-Drohnen-System Prometeo zur Verfolgung feindlicher Drohnen, Telespazio nutzt KI für die Satellitenanalyse und die Elettronica Group für Cybersicherheit und elektronische Kriegsführung. Neben den großen Industrieunternehmen gibt es ein kleines Netz neuer Firmen, die sich vor allem auf KI für Cybersicherheit spezialisiert haben, wie CY4GATE, Haruspex' Security, ASC27 und DataSkills, aktiv in prädiktiven Technologien. [5] Die kleineren und jüngeren Unternehmen sind vor allem im Bereich der Programmierung tätig, während die historischen Industriekonzerne mit ihren weitaus größeren Investitionskapazitäten den Markt für Systeme fest im Griff haben.

Warum KI auf dem Schlachtfeld?
Wegen starker Regulierung und mangelnder Investitionen im Bereich militärischer KI-Anwendungen hinkt Europa nicht nur Washington und Tel Aviv hinterher, sondern auch Peking und Moskau. So wie das leidgeprüfte Gaza zum Schießplatz für alle Arten von Kriegstechnologie geworden ist, die von den ersten beiden Akteuren entwickelt wurden, so spielen die ukrainischen Schlachtfelder die gleiche Rolle für die Systeme von Moskau und Kiew. Vermutlich beobachten die Generalstäbe und Unternehmen in Peking und den wichtigsten europäischen Ländern genau, was auf diesen Schießplätzen aus Fleisch und Stahl passiert. Kein Waffensystem ergibt Sinn ohne eine passende Einsatzdoktrin, ohne Taktik und Strategie. Keine Taktik, Strategie und Doktrin kann ohne technologisch ausgereifte Waffensysteme effektiv umgesetzt werden. 

Die Doktrin gibt es, und sie heißt Multi-Domain Operations. Sie basiert auf der vollständigen Gleichzeitigkeit und der Verschmelzung aller Kriegsdomänen, der Bereiche des Schlachtfeldes und des Einsatzraums und schließlich der Operationen selbst. Unter Domänen versteht man Land, Luft, See (an der Oberfläche und unter Wasser), Weltraum, elektromagnetisches Spektrum und psychologischer Informationsraum. Sektoren sind Hinterland und Kontaktbereiche mit dem Feind. Effekte sind taktisch (Schlacht), operativ (Blockade und Abfolge von Schlachten auf einem Operationsgebiet) oder strategisch (Krieg als Ganzes und Frieden). Im Multi-Domain-Krieg verschmelzen die Domänen miteinander. Was in einer passiert, wirkt sich sofort auf die anderen aus. Auch die Sektoren sind miteinander verschmolzen, wodurch die Unterscheidung zwischen Vorhut und Hinterland an Bedeutung verliert. Und die taktischen, operativen und strategischen Effekte sind zwar unterschiedlich, liegen zeitlich aber viel näher beieinander. Dadurch verkürzt sich die Zeit  Informationsanalyse und Entscheidungen.

Die Technologien, die den Multi-Domain-Krieg ermöglichen, bestehen seit mindestens zwanzig Jahren vorhanden: fortschrittliche Satelliten, Sensoren, Drohnen und digitale Datenanalyse. Künstliche Intelligenz ermöglicht, dieses Konzept bis an seine Grenzen auszureizen. Die KI analysiert die mit einer bisher unbekannten Geschwindigkeit und Synthesefähigkeit. Sie liest fast gleichzeitig Karten, erkennt Gesichter und potenzielle Bedrohungen, gleicht die vor Ort gesammelten Daten mit riesigen Datenbanken ab – und lernt aus neuen Erfahrungen. Und das ist noch nicht alles: Die KI-Maschine greift in den Entscheidungsprozess ein. Wer mehr und genauere Informationen sammelt und schneller und präziser als der Feind verarbeitet, um daraus schneller Entscheidungen abzuleiten, hat einen Vorteil im Kampf und hält seine Soldaten und Einsatzkräfte möglichst fern vom Schlachtfeld. Es handelt sich um dieselben Prinzipien, die der Konzeption und dem Einsatz von Drohnen zugrunde lagen – nur besser, schneller, weiter.

Zukunftsaussichten
Das Konzept des einzelnen Waffensystems ist seit mindestens zwanzig Jahren überholt. Jedes Waffensystem ist oder muss der Knotenpunkt eines Computernetzwerks sein, das Sensor, „schießende” Waffe und Entscheidungsträger immer näher zusammenbringt. Man denke an Systeme wie das Flugzeug F35 oder in Entwicklung befindliche Panzer wie den Panther. Dank Drohnen und Lauer-Munition ist „der Sensor der Schütze”, wie der ehemalige US-Offizier John Antal in seinen Büchern ausführt. Künstliche Intelligenz bietet die Möglichkeit, dass der Sensor sowohl der Schütze als auch der Analytiker und Entscheider ist – eine Maschine und nicht mehr ein Mensch, der höchstens als „On-the-Loop”-Aufseher fungiert. Der Entscheidungszyklus im militärischen Bereich basiert auf dem sogenannten „Boyd-Zyklus”, einem Modell, das der US-amerikanische Pilot John Boyd in den frühen 70er Jahren definiert hat. [6] Es wird auch als „OODA-Zyklus” bezeichnet, ein Akronym für „Observe, Orient, Decide, Act”. Daten sammeln, Informationen organisieren, Entscheidungen treffen und umsetzen. 

Es geht nicht um eine Abfolge, sondern um einen Kreislauf („OODA-Kreislauf”). Die Ergebnisse der durchgeführten Maßnahmen müssen ebenfalls untersucht und analysiert werden. Wie sie die Realität verändert haben, muss in den nächsten Kreislauf einfließen. Das klingt selbstverständlich, ist es aber nicht. Der Krieg schreitet von einer „Kunst” zur „Wissenschaft” und dann zur „Technik” fort, indem jede militärische und organisatorische Maßnahme klar und wissenschaftlich systematisieren wird. 

Die Zukunft für den Einsatz dieser Technologien hängt mit den HOTL-Protokollen zusammen. Schon heute bereiten die zivilen Opfer von KI-Systemen („Kollateralschäden“, ein abscheulicher Ausdruck) denjenigen, die sie einsetzen, kaum Sorge. Stellen wir uns einen Roboter oder eine Drohne vor, die völlig autonom oder unter ferngesteuerter menschlicher Aufsicht schnell und ohne Zögern oder Reue tötet. Das eröffnet Perspektiven, die wir bisher nur aus der Philosophie oder Science-Fiction kennen.

Wir wissen mit Sicherheit, dass solche Technologien erforscht werden. Allerdings gibt es noch unüberwindbare technische Grenzen für ihren Einsatz und Vorbehalte, die nicht ethischer oder normativer Natur sind (und leicht zu umgehen wären), sondern operativer Natur: Wie kann man sicher sein, dass eine solche Waffe nicht außer Kontrolle gerät? Wie kann man mit echter künstlicher Intelligenz umgehen, mit einem Programm, das in der Lage ist, zu denken, sich Dinge vorzustellen, zu abstrahieren: kurz gesagt, wie ein menschlicher Verstand zu funktionieren? Das ist aber die Zukunft. 

Im Moment liegt die Herausforderung bei der Modernisierung der Streitkräfte weniger in einzelnen Waffensystemen als in der Digitalisierung der Entscheidungsprozesse und der Einführung von KI in die Prozesse. KI und ihre Anwendungen sollten als Teil eines Netzwerks gesehen werden, nicht als einzelne Waffensysteme, die nur zusammenarbeiten. Die europäischen Streitkräfte haben noch einen weiten Weg vor sich. Die strengen europäischen Vorschriften zur Datenerhebung für das „Training” künstlicher Intelligenzen und zur Anwendung von KI schützen die Bürger der Union besser als anderswo auf der Welt. Aber sie können die Entwicklung von KI-Waffensystemen im von Brüssel regulierten Raum ernsthaft gefährden – von den Problemen durch anhaltende Unterkapitalisierung des Technologiemarktes ganz zu schweigen. [7]

Ohne Schwert gibt es keinen Schild. Die strengen Vorschriften könnten die EU in eine schwache Position bringen. Im Rest der Welt werden gefährliche KI-Waffen entwickelt werden. Europäische Wissenschaftler, Ingenieure und Unternehmer werden sie außerhalb der EU entwickeln, im Dienste anderer Mächte. KI ist schon heute eine Waffe und schon heute ist sie eine Frage der nationalen Sicherheit. Buchstäblich eine Frage von Leben und Tod.

Anmerkungen


[1] Siehe https://www.credo.ai/glossary/human-on-the-loop
[2] Eine umfassende, leicht verständliche und vollständige Darstellung des aktuellen Stands der Technik bei neuen Kriegswaffen bieten John Antal: Next War: Reimagining How We Fight, Casemate 2023, und Jack Watling: The Arms of the Future: Technology and Close Combat in the Twenty-First Century, Bloomsbury 2023.
[3] Manuele Avilloni, Gaza: L'algoritmo che uccide, https://it.insideover.com/guerra/gaza-lalgoritmo-che-uccide.html, 9. April 2024. Kevin Carboni, „Come funziona l'intelligenza artificiale che Israele usa per bombardare Gaza“, https://www.wired.it/article/israele-intelligenza-artificiale-bombardare-gaza/, 1. Dezember 2023. Chiara Rossi, „La Nato si affida all'intelligenza artificiale di Palantir“, https://www.startmag.it/spazio-e-difesa/la-nato-si-affida-allintelligenza-artificiale-di-palantir/, 15. April 2025. Der ideologische Hintergrund von Thiel wurde sehr gut analysiert von Daniele Perra: „Paleotrumpismo e neotrumpismo“, https://eurasia-rivista.com/paleotrumpismo-e-neotrumpismo/, 18. September 2024. Offizielle Website https://helsing.ai/. Man beachte den die Mission: „Zum Schutz unserer Demokratien”. Siehe auch Pierluigi Sandonnini: „Al per la difesa: la start-up tedesca Helsing pronta a triplicare la valutazione a 4,5 mld di dollari“, https://www.ai4business.it/intelligenza-artificiale/ai-per-la-difesa-la-start-up-ai-tedesca-helsing-pronta-a-triplicare-la-valutazione-a-45-mld-di-dollari/ vom 27. Juni 2024, und Pierluigi Menniti, „La carica delle startup tedesche della difesa“, https://www.startmag.it/spazio-e-difesa/la-carica-delle-startup-tedesche-della-difesa/, 24. April 2025.
[4] Institutionelle Webseite: https://en.cetc.com.cn
[5] Institutionelle Webseiten: https://www.cy4gate.com, https://www.haruspexsecurity.com, https://www.asc27.com, https://www.dataskills.it/progetti/
[6] https://thedecisionlab.com/reference-guide/computer-science/the-ooda-loop
[7] Bryan Quinn, Bobby Sickler, David Wiltse: „Modernizing Military Decision-Making: Transforming European Command“, https://warontherocks.com/ vom 24. April 2025. Laura Carrer, „AI Act, tutte le eccezioni all'uso della sorveglianza biometrica che spaventano l’Europa“, in: Wired vom 1. Februar 2025, https://www.wired.it/article/ai-act-divieti-eccezioni-sorveglianza-biometrica-forze-polizia/, Massimo Borgobello, „Perché il riconoscimento facciale sarà incubo inevitabile: i segnali fort“, Agenda Digitale vom 12. Januar 2024, https://www.agendadigitale.eu/sicurezza/privacy/riconoscimento-facciale-una-realta-inquietante-a-cui-dobbiamo-abituarci/