Die Kriege der Zukunft
Gespräch mit Jürgen Altmann
Kriege mit Hilfe von Drohnen, Kriegsrobotern und Internetsabotage. Unbemannte, selbstlernende Kampfmaschinen sollen künftig über Sieg oder Niederlage entscheiden. Das globale Wettrüsten um den effizientesten Einsatz von algorithmengesteuerten Waffen hat längst begonnen.
Deutsche Militärs, Forschung und Rüstungsindustrie wollen beim Wettlauf um autonome Waffensysteme nicht zurückstehen. Künstliche Intelligenz (KI) bringe eine Revolution der Kriegsführung mit sich, höchstens vergleichbar mit der Erfindung des Schießpulvers oder der Atombombe, meint der verteidigungspolitische Sprecher der CDU-Bundestagsfraktion, Henning Otte. Es gibt schon teilautonome Waffensysteme (Patriot-Raketen), andere werden entwickelt, etwa das deutsch-französische Future Combat Air System, wo künftig Piloten mit Hilfe der KI ganze Schwärme bewaffneter Drohnen steuern sollen. Die Kriege sollen dadurch angeblich weniger blutig werden, vor allem die Zivilbevölkerung werde dadurch geschont, heißt es.
Jürgen Altmann, Physiker und Friedensforscher, zweifelt diese Szenarien an. Er lehrt an der Technischen Universität Dortmund und ist einer der Gründer des International Committee for Robot Arms Control. Das «Internationale Komitee für Roboter-Rüstungskontrolle» arbeitet seit 2009 für ein Verbot autonomer Waffensysteme. Mit Jürgen Altmann sprach Gerhard Klas.
«Die Bundesregierung setzt sich aktiv für eine Ächtung letaler vollautonomer Waffensysteme ein, die außerhalb der Kontrolle des Menschen tätig werden» – so steht es im aktuell gültigen Koalitionsvertrag. Dennoch sträuben sich manche Bundestagspolitiker gegen ein internationales Verbot dieser Waffen – sie behaupten, es gebe keine eindeutige Definition, was denn autonome Waffen eigentlich wären. Sehen Sie das auch so?
Es gibt eine relativ stringente Definition des US-Verteidigungsministeriums: Ein autonomes Waffensystem ist ein System, das, nachdem es einmal aktiviert worden ist, ohne weitere Steuerung oder Einflussnahme durch einen Menschen Ziele selbständig auswählt und angreift. Diese Definition hat sich im wesentlichen auch in der Wissenschaft durchgesetzt.
Ein autonomes Waffensystem zu bauen, das ohne weiteres menschliches Zutun Ziele auswählt und angreift, ist technisch nicht so schwierig. Eine primitive Vorform davon ist eine Mine, eine Antipersonenmine, die einfach im Boden liegt und explodiert, wenn jemand drauftritt. Deutschland vertritt da eine sehr problematische Definition, wonach tödliche autonome Waffensysteme nur solche sind, die direkt gegen Menschen wirken, Selbsterfahrung haben und lernen können.
Die Bundeswehr benutzt unbemannte Systeme – etwa Flugzeugdrohenen – bisher nur zur Aufklärung. Anhand der Videobilder klassifizieren Pilot:innen potenzielle Gegner. Kann die Anwendung von Algorithmen hier zu einer größeren Genauigkeit führen und zivile Opfer vermeiden?
Bei zukünftigen autonomen Waffensystemen müssten diese Bilder und Sensorsignale mit einem Muster verglichen werden – so werden solche Systeme programmiert bzw. trainiert. Diese Vergleiche sind die Grundlage der Klassifizierung durch Algorithmen: Ist das jetzt ein Kombattant oder ein militärisches Objekt des Gegners, oder aber ist es vielleicht ein eigenes? Oder ist es vielleicht ein ziviles Objekt oder eine Zivilperson? Da fangen die Schwierigkeiten an. Es gibt ja viele Möglichkeiten, dass etwas dazwischen kommt: Es gibt einen Staubsturm oder einen starken Regen. Oder es gibt Blätter, die im Weg sind. Dann kann man sehr schnell Fehlklassifizierungen haben. Oder der Panzer wird gerade nicht von einer der Seiten gesehen, von der aus die Muster eingelesen wurden. Oder ein ziviler Bus erzeugt zufällig genau dieselben Infrarotsignale. Da sind Riesenanforderungen an die Exaktheit der Mustererkennung gegeben, die man auf absehbare Zeit nicht gewährleisten kann.
Mit Hilfe von Algorithmen sollen auch die Kommandostrukturen auf dem Schlachtfeld und die verschiedenen Waffengattungen vernetzt werden. Zahlreiche Rüstungsunternehmen bieten sog. «Battle-Management-Systeme» an, etwa die israelische Firma Rafael mit ihrem System Fire Weaver, an dem auch die Bundeswehr Interesse zeigt. Werden die Kriege immer schneller geführt?
Im Sinne militärischer Kampffähigkeit liegt es sehr nahe, dass man versucht, die verschiedenen Waffengattungen besser zu vernetzen. Und sobald man Algorithmen hat, die das Ganze noch schneller machen können, liegt das Motiv nahe, die dann auch zu nutzen. Das Problem dabei ist: Sobald man anfängt, Algorithmen zu verwenden, begibt man sich in eine Abhängigkeit von dem, was da einmal hineinprogrammiert worden ist. Und wenn dann unvorhergesehene Dinge passieren, die beim Austesten auf dem eigenen Übungsplatz so nicht vorgesehen waren, dann kann es alle möglichen problematischen Entscheidungen geben.
Für eine ganze Weile, insbesondere auf deutscher Seite, besteht noch das Ziel, Entscheidungen durch Computerprogramme nur vorzubereiten, nur Optionen vorzuschlagen. Dann würde der Mensch das bestätigen oder ablehnen. Das ist die Idealvorstellung. Andererseits gibt es immer die Befürchtung, der mögliche Gegner könnte das Ganze viel schneller und automatischer einsetzen und nicht mehr so viele menschlichen Zwischenstufen zur Prüfung und Entscheidung einbeziehen. Der Druck steigt also, die menschliche Einbeziehung immer weiter herunterzufahren zu Gunsten von Algorithmen.
Dabei ist der Mensch besonders gut geeignet, Situationen zu erfassen, die unvorhergesehen waren. Und dann auf einer höheren Ebene nachzudenken und zu überlegen: Was kann ich denn jetzt machen? Wo muss ich eingreifen? und so weiter. Diese Fähigkeit des Menschen in künstliche Intelligenz hineinzuprogrammieren, ist eine kaum zu bewältigende Aufgabe.
Auf welchen Schlachtfeldern sollen autonome Waffensysteme zum Einsatz kommen?
Nicht unbedingt im Mittleren Osten oder in Afrika, dort hat man eine asymmetrische Situation: Die eine Seite hat, u.a. auch mit ihren Drohnen, die vollständige Lufthoheit, die andere Seite hat Sturmgewehre und Satellitentelefone, vielleicht auch kleine Quadcopter, wo sie möglicherweise eine Handgranate daruntergeschraubt haben. Aber sonst nichts. Man hat Tage, vielleicht sogar Wochen Zeit, eine Entscheidung vorzubereiten.
Autonome Waffensysteme werden hingegen vorbereitet für den Kampf gegen einen mehr oder weniger ebenbürtigen Gegner, wo man innerhalb von Minuten oder vielleicht sogar einigen Sekunden zurückschießen muss, um die eigenen Systeme nicht zu verlieren. Das Wettrüsten ist vorprogrammiert und findet schon statt. Allein schon die Bekanntgabe von Projekten zur Entwicklung solcher Waffen erzeugt bei potenziellen Gegnern einen hohen Druck mitzuhalten. Die Gefahr der Eskalation eines solchen Rüstungswettlaufs ist groß: zwischen den USA und Russland oder zwischen USA und China. Aber auch z.B. zwischen Indien und Pakistan oder zwischen anderen Konfliktparteien, etwa Nord- und Südkorea, Japan.
Ist es möglich, rechtliche Vorschriften oder moralisches Handeln in solche Waffensysteme hinein zu programmieren?
Die Automatisierung der Rechtsprechung insgesamt ist ein aktuelles Forschungsgebiet. Aber es gibt sehr viele Unwägbarkeiten, die man nicht so ohne weiteres auf «Wenn-dann-» und «Ja-nein»-Entscheidungen herunterbrechen kann. Was den speziellen Bereich des bewaffneten Konflikts angeht, da hat man Anforderungen des Kriegsvölkerrechts, die für alle kriegsführenden Seiten gelten. Ob sich jeder jeweils daran hält, ist eine andere Frage. Die eine ist: Man muss unterscheiden zwischen feindlichen Objekten oder feindlichen Kampfpersonen und solchen, die das nicht sind. Die letzteren darf man eben nicht angreifen.
Eine zweite Regel: Wenn bei einem Angriff auf ein legitimes militärisches Ziel Nichtkombattanten in der Nähe sind oder ein nichtmilitärisches Objekt in der Nähe ist, so nahe, dass sie oder es beim Angriff auf dieses militärische Ziel in Mitleidenschaft gezogen würde, dann muss man das sogenannte Verhältnismäßigkeitsgebot beachten. Der zivile Schaden, der erzeugt wird, darf nicht übermäßig sein in Bezug auf den erhofften militärischen Erfolg. Das ist eine sehr weiche Regel. Wie will man das jetzt in Computeralgorithmen fassen? Sagt man: Ein totes Schulkind zählt zehn Punkte und eine zerstörte Geschützbatterie um die Ecke zählt zwanzig Punkte? Darf ich z.B. dann ein Schulkind umbringen, nicht aber zwei? So oder ähnlich müssten dann ja die Programmierer:innen die Algorithmen gestalten.
Welche Rolle spielt die Bundesrepublik bei der Entwicklung dieser Waffen?
In einem ersten Konzeptpapier des Amts für Heeresentwicklung in Köln ist die Rede von «Fight at Machine Speed», also mit Maschinengeschwindigkeit kämpfen. In anderen Absätzen wird dann schon davon geredet, dass der Mensch aber irgendwie noch die Kontrolle und die Steuerung behalten muss. Aber da tut sich der schon oben skizzierte Widerspruch auf: Wenn es um sekundenschnelle Entscheidungen gehen muss, wird man nicht mehr viel menschliche Überlegung dazwischen schalten können.
Sicherlich ist die Bundeswehr nicht diejenige Streitkraft, die das weltweit am schnellsten vorantreibt, wahrscheinlich eher die, die langsamer vorangehen würde. Aber auch dort wird schon mal vorgedacht, und es gibt militärische Zwänge. Ein großer Vorreiter ist die Defense Advanced Research Projects Agency (DARPA) des US-Verteidigungsministeriums. Da wird an neuronalen Netzen, an Gehirn-Maschine-Schnittstellen geforscht, etwa mit Hilfe von EEG-Elektroden auf dem Kopf. Und da wird natürlich auch vorkonzipiert. Wie könnte denn die Kriegsführung in zwanzig, dreißig, fünfzig Jahren aussehen? In Deutschland forschen vor allem einige Fraunhofer-Institute zur Künstlichen Intelligenz in der militärischen Anwendung, fünf Institute sind vom Verteidigungsministerium grundfinanziert. Militärische Forschung und Entwicklung dient immer dem Ziel der Überlegenheit. Und in diesem Streben nach Überlegenheit steckt die Tendenz, schneller zu sein als der mögliche Gegner – und damit eben auch die Tendenz zur Autonomie. Wir haben nur noch wenige Jahre Zeit, diesen Trend zu bremsen.
Wer wehrt sich gegen die Entwicklung autonomer Waffensysteme?
Die internationale Friedensbewegung und viele aus der Gemeinschaft der KI-Forscherinnen und -Forscher. Einige von ihnen sitzen im Silicon Valley, in Seattle oder Washington, arbeiten für Facebook, Amazon, Google oder Microsoft. Es gibt eine Bewegung, dass Programmierer:innen und sonstige Forscher sich dagegen aussprechen, autonome Waffensysteme zu entwickeln und ihre Regierungen auffordern, sich für ein internationales Verbot einzusetzen (siehe Kasten).
Kommentar zu diesem Artikel hinterlassen
Spenden
Die SoZ steht online kostenlos zur Verfügung. Dahinter stehen dennoch Arbeit und Kosten. Wir bitten daher vor allem unsere regelmäßigen Leserinnen und Leser um eine Spende auf das Konto: Verein für solidarische Perspektiven, Postbank Köln, IBAN: DE07 3701 0050 0006 0395 04, BIC: PBNKDEFF
Schnupperausgabe
Ich möchte die SoZ mal in der Hand halten und bestelle eine kostenlose Probeausgabe oder ein Probeabo.