Rüstungskontrolle – ein vergessenes Thema?
Kriegstüchtigkeit, Wehrpflicht, Sondervermögen für die Bundeswehr: Unsere öffentliche Debatte kreist seit dem russischen Angriffskrieg wieder vor allem um Fragen der Aufrüstung und Stärkung des Militärs. Das hat nachvollziehbare Gründe: Die Bedrohung durch Russlands Imperialismus und die Schwächung des US-amerikanischen Schutzes unter Donald Trump können wir nicht ignorieren. Gleichzeitig beobachten wir mit großer Sorge, wie einseitig Debatten über Rüstungspolitik geführt werden. Jede zusätzliche Aufrüstung wird als begrüßenswert dargestellt. Völkerrechtliche oder ethische Debatten rücken massiv in den Hintergrund. Dabei kann Frieden nicht ausschließlich durch Abschreckung erzielt werden, sondern muss immer auch mit Rüstungskontrolle und Abrüstungsinitiativen einhergehen.
Rüstungskontrolle ist auch in der aktuellen weltpolitischen Lage nicht überholt, im Gegenteil: Gerade in Zeiten zunehmender militärischer Spannungen und Auseinandersetzungen, technologischer Aufrüstung und automatisierter Kriegsführung braucht es klare Regeln, Kontrolle und eine ethische Grundlage für den Einsatz von Waffensystemen. Das betrifft in einem besonderen Maße autonome Waffensysteme.
Die Bedeutung von autonomen Waffensystemen hat in den letzten Jahren stark zugenommen. Das liegt insbesondere an den Fortschritten im Bereich der Künstlichen Intelligenz und ihren militärischen Anwendungen. Mutmaßlich soll es 2020 in Libyen zum ersten Mal zum autonomen Angriff durch eine Militärdrohne gekommen sein. Auch im Krieg zwischen Aserbaidschan und Armenien um Bergkarabach hatte der Einsatz autonomer bewaffneter Drohnen einen großen Anteil am Sieg Aserbaidschans. Doch noch mehr als diese Kriege hat der russische Angriffskrieg gegen die Ukraine die Entwicklung beschleunigt. Künstliche Intelligenz benötigt Daten, um trainiert zu werden, und kaum ein Krieg hat bislang so viele Daten bereitgestellt wie der Krieg Russlands gegen die Ukraine. Dabei werden nicht nur nachrichtendienstliche, sondern auch öffentlich zugängliche Daten genutzt. Die ukrainisch-russische Front ist so zu einem regelrechten Testgebiet für autonome Waffensysteme geworden. In der Regel werden sie jedoch teilautomatisiert eingesetzt, verfügen also noch über einen menschlichen Piloten. KI wird jedoch auch für andere Zwecke wie Schadensanalyse, Einschätzung von Munitionsbeständen und Spracherkennung verwendet. Autonome Waffensysteme sind in der Lage, Daten in Echtzeit zu analysieren und somit schneller und günstiger als eine menschliche Bewertung.
Letale autonome Waffensysteme: Gewalt außer Kontrolle
Letale autonome Waffensysteme (LAWS) können derzeit grundsätzlich ohne menschliche Kontrolle eingesetzt werden und tödliche Gewalt ausüben. Sie analysieren ihre Umgebung, wählen Ziele aus und können töten, ohne dass ein Mensch direkt eingreift. Das macht eine Regulierung dringend erforderlich. Sobald LAWS ohne menschliche Kontroll- und Eingriffsmöglichkeiten eingesetzt werden, besteht keine Möglichkeit, ihren Einsatz zu kontrollieren, zu überwachen oder abzubrechen. Diesen Grad an Autonomie, also den Entzug jeglicher menschlicher Kontrolle, nennt man Human–out–of–loop (HOOL). Hier lässt sich eine Eigendynamik beobachten: Am Anfang stehen unbemannte Drohnen, die zunächst nur zu Aufklärungszwecken angeschafft werden. Sobald diese umbenannten Drohnen zur Verfügung stehen, erscheint es logisch, sie mit weiteren Funktionen auszustatten bis hin zur autonomen Zielauswahl und Entscheidung anzugreifen. Solange LAWS keiner internationalen Rüstungskontrolle unterliegen, erscheint es Staaten erstrebenswert, damit einen militärischen Vorteil zu gewinnen, insbesondere da LAWS schneller entscheiden können als Menschen und zu einer Entlastung des militärischen Personals führen. KI-unterstützte Systeme, die noch nicht letal sind oder noch nicht vollständig autonom, stellen oft einen Türöffner hin zum Einsatz von LAWS da. Für uns steht jedoch fest: LAWS, die völlig der menschlichen 54 Kontrolle entzogen sind, sind abzulehnen.
Autonome Waffensysteme erhöhen das Kriegsrisiko
Ein Grund dafür ist die ethische Dimension: KI ist nicht in der Lage, den Wert menschlichen Lebens zu erkennen. Sobald der Mensch die Kontrolle über tödliche Entscheidungen abgibt, wird auch das Opfer des Angriffs entmenschlicht und auf einen Datensatz reduziert. Auch in einem Krieg sollte es immer ein Mensch sein, der sein Gewissen mit der Tötung eines anderen Menschen belastet – und diese Belastung seines Gewissens auch in seine Entscheidung einbezieht. Denn weil KI dieses Gewissen und die Wertschätzung menschlichen Lebens fehlt, droht mit der Automatisierung des Krieges auch eine Enthemmung. Bezogen auf die konkreten Angriffe bedeutet das, dass womöglich die Präzision in der Zielauswahl steigt, durch leichtere und schnellere Angriffe jedoch mehr Angriffe stattfinden und auch mehr zivile Opfer entstehen. Höhere Präzision geht daher oft nicht mit einer Schonung der Zivilbevölkerung einher.
Doch die Automatisierung des Krieges hat nicht nur Einfluss auf die einzelne Kampfhandlung, sondern auch auf die generelle Bereitschaft, Kriege zu führen. Je mehr von der ethischen Last auf LAWS abgewälzt wird, desto geringer sind Hemmungen, einen Krieg zu führen. Und auch die kritische Diskussion über Kriege wird dadurch erschwert. Romane wie “Im Westen nichts Neues” zeigen eindrücklich, dass die kritische Auseinandersetzung mit Kriegen oft auf den traumatischen Erfahrungen der Soldat*innen fußt, einschließlich der Erfahrung, andere Menschen verletzt oder getötet zu haben, und der Erkenntnis, dass auf beiden Seiten der Front Menschen mit all ihren Gemeinsamkeiten stehen. Zudem kann die Weigerung von Soldat*innen zu kämpfen, Druck auf Regierungen ausüben, um Kriege zu beenden, wie beispielsweise der Kieler Matrosenaufstand das Ende des 1. Weltkriegs einleitete. Autonome Waffensysteme entziehen sich also auch in dieser Hinsicht der menschlichen Kontrolle und eröffnen damit größere Möglichkeiten für eine undemokratische und missbräuchliche Verwendung. Durch eine Erleichterung der Kriegsführung wird die Welt nicht sicherer, sondern potenziell gefährlicher.
Die Sorge vor den flash wars – Krieg aufgrund eines Software-Fehlers
Doch nicht nur die Bereitschaft der politischen Verantwortungsträger*innen, einen Krieg zu führen, wird durch autonome Waffen erhöht. Der Einsatz von KI erhöht auch das Risiko, dass ein Krieg ganz ohne menschliches Zutun begonnen wird. Sogenannte “flash wars” klingen wie Science-Fiction-Dystopie, stellen aber eine mögliche Gefahr dar, wenn Waffensysteme eigene Entscheidungen treffen können. Durch technische Fehler können autonome Waffensysteme fälschlicherweise von einem Angriff ausgehen und dadurch selbst entscheiden, den vermeintlichen Angreifer zu attackieren. Die Gegenseite wiederum reagiert darauf mit eigenen Gegenangriffen, sodass sich beide Systeme immer weiter hochschaukeln, ohne dass ein Mensch intervenieren könnte. Potenziert wird die Gefahr zusätzlich dadurch, dass KI-basierte Waffensysteme stark vernetzt werden können, beispielsweise durch die Verbindung mit der Kriegsführung im Weltraum und im digitalen Raum. Das erhöht die Gefahr einer Eskalationsspirale. Bis es zu einer Intervention durch einen Menschen kommt, wurden womöglich bereits großflächige Zerstörungen angerichtet. Aus Angst davor, dass Irrtümer oder Missverständnisse einen Atomkrieg auslösen könnten, wurde im Kalten Krieg der “heiße Draht” zwischen der US-amerikanischen und der sowjetischen Regierung eingerichtet. Würde ein solcher Krieg durch autonome Waffensysteme ausgelöst, käme der heiße Draht vermutlich viel zu spät.
Die Schwierigkeit der menschlichen Kontrolle
Als “Kompromiss” wird oft darauf verwiesen, dass die Zielauswahl zwar automatisiert stattfinden kann, sie aber durch einen Menschen final bestätigt werden muss. Der Mensch hat also eine Eingriffsmöglichkeit. Doch auch dieser Mechanismus löst das Problem nicht vollständig auf. Erstens ist für den Menschen, der die Entscheidung treffen soll, oft nur schwer nachvollziehbar, wie die KI zu ihrer Entscheidung gekommen ist. Zweitens ist ein “automation bias” zu beobachten, d.h. Menschen haben ein hohes Vertrauen in die Entscheidung von Computern und trauen ihnen intuitiv bessere, objektivere Entscheidungen zu als Menschen. Drittens können die Datenmengen und die Geschwindigkeit, mit der die KI sie bearbeitet, menschliche Entscheider*innen leicht überfordern. Selbst, wenn die Waffe nicht vollständig autonom entscheiden kann, kommt es so zu einem tendenziellen Absinken der menschlichen Kontrolle und zu einer Abnahme des menschlichen Situationsverständnisses und der Eingriffsmöglichkeiten.
Regulieren statt automatisieren!
Wir beobachten, dass sich die Technik der autonomen Waffensysteme aktuell weitaus schneller entwickelt als ihr normativer Rahmen. Die Entwicklung und der Einsatz autonomer Waffensysteme sind nicht reguliert, was zu einem Wettrüsten um neue militärische Technologien beiträgt. Das Problem beginnt schon dabei, dass einheitliche Definitionen fehlen. Das Ziel muss es deshalb sein, eine international einheitliche Definition von LAWS, sowie eine verbindliche Rüstungskontrolle, zu entwickeln. Ebenso muss eine internationale Vereinbarung erreicht werden, die klare Regeln für menschliche Verantwortung und Eingriffsmöglichkeiten festlegt. Vollautonome Systeme ohne menschliche Kontroll- und Eingriffsmöglichkeiten sind zu verbieten. Auch die Verbreitung autonomer Waffensysteme muss eingeschränkt werden, um beispielsweise zu verhindern, dass nicht-staatliche Akteur*innen Zugriff darauf erhalten. Die Resolution der UN-Generalversammlung von 2024 (General and complete disarmament: lethal autonomous weapons systems) ist als erster Schritt in die richtige Richtung anzusehen. Allerdings stellt die Resolution selbst noch keine Regulierung dar, sondern lediglich einen Auftrag an den UN-Generalsekretär, Einschätzungen dazu einzuholen. Bemühungen, diese Regulierung im Rahmen der UN-Konvention über bestimmte konventionelle Waffen (CCW) herbeizuführen, gelten aufgrund des dortigen Konsensprinzips als weitestgehend gescheitert. Umso wichtiger ist es, dass Deutschland eine klare Position entwickelt und für diese auch gegenüber den eigenen Verbündeten wirbt. Der Koalitionsvertrag, den die CDU, CSU und SPD 2025 verhandelt haben, geht jedoch in die falsche Richtung. Die Koalitionär*innen vereinbaren darin die Einführung von “Zukunftstechnologien” bei der Bundeswehr und nennen als Beispiel “unbemannte (auch kampffähige) Systeme”. Die internationale Regulierung solcher Systeme wird nicht als Ziel benannt. Für uns ist klar: Die deutsche Bundesregierung darf sich nicht an einem risikoreichen Wettrüsten mit autonomen Waffensystemen beteiligen!
Wir fordern konkret:
- eine einheitliche, internationale Definition von autonomen Waffensystemen
- ein internationales Verbot von vollautonomen letalen Waffensystemen ohne menschliche Kontroll- und Eingriffsmöglichkeiten analog zum Atomwaffenverbotsvertrag und außerhalb der Konvention über bestimmte konventionelle Waffen (CCW). Auch wenn Staaten, die großen Wert auf die Entwicklung autonomer Waffensysteme legen, bremsen, sollte Deutschland gemeinsam mit gleichgesinnten Staaten die Initiative ergreifen.
- verbindliche Regeln zur menschlichen Verantwortung über den Einsatz von teilautonomen Waffensystemen und ihrer Verbreitung
- Sicherstellung der Grundprinzipien von menschlicher Verantwortung, Kontrolle und Transparenz bei Einsätzen
- Bis internationale Regulierung erfolgreich sind, ein nationales Moratorium für LAWS.
- den Einsatz der SPD(-Bundestagsfraktion) und des Bundesverteidigungsministers für die hier beschriebene Regulation von autonomen Waffensystemen und damit verbunden keine deutsche Beteiligung an einem “Wettrüsten” im Bereich dieser Technologien.
- keine Beschaffung vollautonomer bewaffneter Drohnen für die Bundeswehr.
Die Forderungen ab Z. 228 sollen voran gestellt werden. Der weitere Text wird in die Begründung überführt.
Neue Fassung:
Für uns ist klar: Die deutsche Bundesregierung darf sich nicht an einem risikoreichen Wettrüsten mit autonomen Waffensystemen beteiligen!
Wir fordern konkret:
- eine einheitliche, internationale Definition von autonomen Waffensystemen
- ein internationales Verbot von vollautonomen letalen Waffensystemen ohne menschliche Kontroll- und Eingriffsmöglichkeiten analog zum Atomwaffenverbotsvertrag und außerhalb der Konvention über bestimmte konventionelle Waffen (CCW). Auch wenn Staaten, die großen Wert auf die Entwicklung autonomer Waffensysteme legen, bremsen, sollte Deutschland gemeinsam mit gleichgesinnten Staaten die Initiative ergreifen.
- verbindliche Regeln zur menschlichen Verantwortung über den Einsatz von teilautonomen Waffensystemen und ihrer Verbreitung
- Sicherstellung der Grundprinzipien von menschlicher Verantwortung, Kontrolle und Transparenz bei Einsätzen
- Bis internationale Regulierung erfolgreich sind, ein nationales Moratorium für LAWS.
- den Einsatz der SPD(-Bundestagsfraktion) und des Bundesverteidigungsministers für die hier beschriebene Regulation von autonomen Waffensystemen und damit verbunden keine deutsche Beteiligung an einem “Wettrüsten” im Bereich dieser Technologien.
- keine Beschaffung vollautonomer bewaffneter Drohnen für die Bundeswehr.