Militärs setzen auf Künstliche Intelligenz, Drohnen und autonome Waffen –
ein gefährliches Wettrüsten
von Matthias Becker
Die neue Koalition will die Bundeswehr mit bewaffneten Drohnen ausrüsten. Die Armee wünscht sich das schon lange, aber einige Sozialdemokraten und Grüne zierten sich – bis vor der Bundestagswahl.
«Bewaffnete Drohnen können zum Schutz der Soldatinnen und Soldaten im Auslandseinsatz beitragen», heißt es im Koalitionsvertrag. Es folgt der Hinweis, dass «bei ihrem Einsatz die Regeln des Völkerrechts gelten» – schon bemerkenswert, dass der neuen Regierung das bemerkenswert erscheint.
Der 27.März 2020 könnte durchaus in die Geschichte der Kriegführung eingehen. Laut einem UN-Bericht griff zum ersten Mal eine autonome Waffe Menschen an und tötete sie.
Zu der Attacke kam es in Libyen während einer Offensive der «Einheitsregierung» unter Fayez al-Sarraj gegen Truppen von Chalifa Haftar, dem Machthaber im Osten des Landes. Als sich die Haftar-Truppen aus der Hauptstadt Tripolis zurückzogen, wurden sie «von unbemannten fliegenden Luftfahrzeugen gejagt und aus der Ferne mit letalen autonomen Waffensystemen beschossen», heißt es in dem Bericht einer Expertengruppe für den UN-Sicherheitsrat.
Bei der Kampfdrohne habe es sich unter anderem um die türkische STM Kargu-2 gehandelt. Sie zählt zur sog. loitering ammunition. Diese Drohnen können längere Zeit in der Luft verharren, bis sie ihr Angriffsziel identifiziert haben, dann fliegen sie dagegen und explodieren, weshalb sie auch «Kamikazedrohnen» genannt werden.
Die Entscheidung, wer oder was ein legitimes Ziel für solche Drohnenangriffe darstellt, treffen bisher üblicherweise noch Soldaten aus der Ferne. Sie versuchen, mit Hilfe der übertragenen Kameraaufnahmen und anderen Daten aus der militärische Aufklärung den Feind zu identifizieren. Beim Angriff in Libyen war es anders: «Die tödlichen autonomen Waffen waren so programmiert, dass sie ihre Ziele angriffen, ohne dass dazu eine Datenverbindung zwischen Operateur und der Munition nötig war.»
Ob es sich wirklich so zugetragen hat, ist nicht ganz klar, die Autoren des Berichts berufen sich nur auf eine «vertrauliche Quelle». Sicher ist aber, dass bewaffnete Drohnen eine immer wichtigere Rolle in kriegerischen Auseinandersetzungen spielen und ihre Zielerfassung Schritt für Schritt von Menschen auf die Maschinen übergeht. Der Einsatz solcher «Killerroboter» greift um sich. Im Militärjargon ist die Rede von fire, forget and find – einmal abgeschossen, müssen sich die Soldaten keine weiteren Gedanken mehr um eine Rakete machen, weil sie ihr Ziel ganz von allein findet.
Bergkarabach 2020
Lange Zeit kamen bewaffnete Drohnen ausschließlich in sog. asymmetrischen Konflikten zum Einsatz. Militärisch weit überlegene Gegner (mit Lufthoheit) setzten sie gegen Milizen und Aufständische ein, z.B. die USA in Afghanistan, oder um bestimmte Personen ferngesteuert zu exekutieren. Bei solchen Angriffen kamen immer wieder auch Zivilisten als «Kollateralschaden» oder wegen falscher Identifikation ums Leben.
Nun verändert sich ihre Bedeutung, denn im Krieg zwischen Aserbaidschan und Armenien um Bergkarabach im Jahr 2020 trugen unbemannte Luftfahrzeuge entscheidend zum Sieg der aserbaidschanischen Seite bei. Verantwortlich für ihren Sieg sei die effiziente Verbindung von «Aufklärungs- und Kampfdrohnen sowie sogenannter loitering munition» gewesen, heißt es in einer Analyse der Bundesakademie für Sicherheitspolitik, eine Art Thinktank des Bundesverteidigungsministeriums.
«Mit dieser Kombination verschiedener Drohnen gelang es den Streitkräften Aserbaidschans, armenische Flugabwehrsysteme, Kommandostrukturen, gepanzerte Fahrzeuge, darunter insbesondere Kampfpanzer, und ungedeckte Artillerie gezielt zu zerstören. Gleichzeitig wurden die unbemannten Luftfahrzeuge eingesetzt, um Nachschubwege zu unterbrechen, Versorgungspunkte zu bombardieren.»
Die damalige Bundesverteidigungsministerin Annegret Kramp-Karrenbauer bezeichnete die Auseinandersetzung denn auch als den «ersten echten Drohnenkrieg der Geschichte».
Der Konflikt widerlegt zudem eine häufig geäußerte Annahme über die Kriege der Zukunft, wonach Maschinen gegen Maschinen antreten würden und die Opferzahlen tendenziell abnehmen. Schätzungen sprechen von 6000 getöteten Soldaten und etwa 200 Zivilisten. Ungefähr 150000 Bewohner der Region wurden vertrieben.
Bewaffnete Drohnen können kriegsentscheidend sein, daher greift diese Form der Kriegführung um sich. Die Preise fallen und Mächte mit geopolitischen Ambitionen statten ihre Verbündeten mit den Systemen aus. Das befördert das Wettrüsten in diesem Bereich und spült große Summen in die Kassen der Rüstungsfirmen. Bedeutende Hersteller sitzen in den USA, Israel, der Türkei und China.
Wenn Maschinen entscheiden (sollen)
Die sog. Künstliche Intelligenz (KI) kommt militärisch vor allem in Form von Mustererkennung zum Einsatz, um die Lage aufzuklären und militärische Anlagen aufzuspüren. Es geht, kurz gesagt, darum, automatisch den Feind zu erkennen und zu vernichten. Feuerkraft allein genügt nicht mehr. Ein technologischer Vorsprung in den Bereichen Datenverarbeitung, Sensorik, Mustererkennung, Steuerung und Verschlüsselung gelten als unverzichtbar, um den Sieg davonzutragen – so jedenfalls die Annahme der Militärs.
Entscheidend ist Geschwindigkeit: Schneller aufklären, schneller entscheiden, schneller schießen. In diesem Wettrennen hängen Maschinen zunehmend den Menschen ab. Wenn es um Zehntelsekunden geht, um die Entscheidung «Feuer – ja oder nein?», ist für Nachdenken oder Nachfragen keine Zeit mehr. Deshalb sollen die Systeme «autonom entscheiden».
Im Fall von Kampfrobotern oder Kamikazedrohnen spricht ein weiteres Argument für Autonomie: Anders als ferngesteuerte Waffen benötigen autonome Waffen keine Funkverbindungen, die vom Feind blockiert oder gehackt werden können.
KI-Systeme identifizieren den Gegner automatisch. Anhand vorher einprogrammierter Faktoren sollen sie zwischen militärischen und zivilen Zielen unterscheiden. In diesem Zusammenhang ist oft die Rede von dem sensor-to-shooter loop: Informationsquellen aller Art werden ausgewertet, Ziele identifiziert und dann beschossen. Allerdings sitzt bisher in aller Regel immer noch ein Mensch zwischen Sensor und Kanone, der entscheiden soll, ob es sich bei dem detektierten Ziel tatsächlich um ein feindliches Fahrzeug oder doch um einen Schulbus handelt. Das verursacht Verzögerungen – und rettet Meschenleben.
Tötungsautomaten
Die Automatisierung von Tötungsentscheidungen widerspricht dem Geist des Völker- und Kriegsrechts. Dass bisher vollautomatische Killerroboter noch nicht zum Einsatz kommen, liegt aber weniger daran, sondern an ihrer mangelnden Präzision. Der Nutzen der digitalen Feinderkennung ist begrenzt, weil die Systeme erstens noch nicht leistungsfähig und zuverlässig genug sind und zweitens vom Gegner überlistet werden können (oft mit überraschend geringem Aufwand). Stattdessen kommen sie als «entscheidungsunterstützende Systeme» zum Einsatz, die eine Vorauswahl möglicher Ziele treffen oder bei Gefahr die Operateure alarmieren.
Das alles kann nicht beruhigen, nicht nur, weil die Forschung zur maschinellen Autonomie weiter vorangetrieben wird. Die mangelnde Präzision steht unter bestimmten Umständen dem Einsatz gar nicht entgegen. Beispielsweise wenn zivile Opfer nicht vermieden, sondern eine Bevölkerung terrorisieren werden sollen, sind attackierende Drohnenschwärme durchaus denkbar.
Die internationale Kampagne «Stoppt Killerroboter!», die von vielen renommierten Computerwissenschaftler:innen unterstützt wird, fordert eine zwischenstaatliche Vereinbarung, um autonome Waffen zu ächten. Auch die neue Bundesregierung kündigt im Koalitionsvertrag an, dieses Vorhaben zu unterstützen. Erst Mitte Dezember scheiterten in Genf Verhandlungen über ein internationales Abkommen an den USA, Russland und Indien.
Die US-amerikanische «Kommission für Nationale Sicherheit in der KI» warnte im März 2020 davor, sich auf Verhandlungen einzulassen. Das «Zeitfenster für militärische Entscheidungen» werde immer kleiner, autonome System seien daher unvermeidbar, heißt es in ihrem Bericht.
Außerdem sei es unwahrscheinlich, dass China und Russland sich an eine solche Vereinbarung halten würden. Die Expertengruppe war von Präsident Joe Biden eingesetzt worden. Zu ihren Mitgliedern gehörten neben einigen Militärs der ehemalige Chef von Google und Führungskräfte der Firmen Amazon, Microsoft und Oracle.
Wachsende Kriegsgefahr
Die geopolitischen Spannungen nehmen zu, insbesondere zwischen China, Russland und den USA. Mit militärischen Manövern und Flügen nahe eines nationalen Luftraums testen die Armeen den Willen und die Entschlossenheit ihrer Gegner. Nach einer Studie amerikanischer Militärexperten gab es zwischen 2013 und 2020 fast dreitausend solcher «Begegnungen» auf See oder in der Luft, wobei die Anzahl von Jahr zu Jahr zunahm.
Bei Machtdemonstrationen kann die militärische KI eine verhängnisvolle Rolle spielen, gerade weil sie nicht besonders präzise ist. In der gegenwärtigen Krise um die Ukraine bspw. sprechen Regierungsvertreter offen von einem möglichen Krieg. Was geschieht, wenn in einer aufgeheizten Situation ein automatisch generierter Alarm eingeht oder Signale durch aufgeregte Befehlshaber falsch interpretiert werden? Das kann dazu führen, dass eine Seite von einem Angriff ausgeht und vermeintlich zurückschlägt – mit unabsehbaren Folgen.
Darin besteht die größte Gefahr durch militärische KI: Sie beschleunigt nicht nur die Kriegführung, sondern auch die Eskalation.
Der Autor ist Journalist und hat in seinem Buch Automatisierung und Ausbeutung die gesellschaftlichen Auswirkungen der sog. Künstlichen Intelligenz untersucht.
Kommentar zu diesem Artikel hinterlassen
Spenden
Die SoZ steht online kostenlos zur Verfügung. Dahinter stehen dennoch Arbeit und Kosten. Wir bitten daher vor allem unsere regelmäßigen Leserinnen und Leser um eine Spende auf das Konto: Verein für solidarische Perspektiven, Postbank Köln, IBAN: DE07 3701 0050 0006 0395 04, BIC: PBNKDEFF
Schnupperausgabe
Ich möchte die SoZ mal in der Hand halten und bestelle eine kostenlose Probeausgabe oder ein Probeabo.