Verband
Einige KI-gestützte Waffen sind zunehmend autonom. Mehrere zivilgesellschaftliche Organisationen fordern ein Verbot. ” Es ist nicht akzeptabel, dass eine Maschine Menschen tötet Beharrt auf Jonathan Bannenberg, einem Forscher bei GRIP (Gruppe für Forschung und Information zu Frieden und Sicherheit) in Brüssel.
Paris-Match. Im Militärjargon werden Killerroboter als „SALA“ bezeichnet. Was decken Sie ab?
Jonatan Bannenberg. Das Akronym „SALA“ steht für Lethal Autonomous Weapon Systems. Diese Killerroboter verfügen über eine künstliche Intelligenz, die ausgefeilt genug ist, um ohne menschliches Eingreifen nach Zielen zu suchen, sie zu identifizieren und anzugreifen (bekannt als „Engagement“).
Existieren diese Waffen wirklich oder sind sie zu diesem Zeitpunkt nur Prototypen oder sogar von Science-Fiction inspirierte Fantasien?
Es geht nicht um Fantasien, sondern um eine zunehmend greifbare Realität. Im März 2021 enthüllte ein Bericht des Expertengremiums der Vereinten Nationen für Libyen, dass GNA-Streitkräfte Hohlspitzmunition gegen mit Haftar verbundene Kräfte eingesetzt hatten. Kargu-2 oder Quadrocopter verwendeten Lernalgorithmen, die ihnen vollständige Autonomie verleihen konnten. Der türkische Hersteller dieser SALA, STM, behauptete jedoch, dass Kargus Autonomie im libyschen Operationsgebiet auf Navigation und Zielidentifizierung beschränkt sei, während der Einsatz – die ultimative Angriffsoption – unter menschlicher Kontrolle bleibe. Es gibt noch Zweifel: Es ist nicht bekannt, ob während dieses Konflikts erstmals Killerroboter die Entscheidung getroffen haben, Menschen selbst zu töten. In jedem Fall ist das Endergebnis, dass die Möglichkeit, die endgültige menschliche Zustimmung zu entfernen, technisch machbar ist.
Lesen Sie auch > Künstliche Intelligenz: Elon Musk warnt vor „Killerrobotern“
Können wir ein weiteres Beispiel nehmen, das Beispiel des südkoreanischen SGR-A1?
ganz und gar. Diese automatische Artillerie von Samsung wird in der entmilitarisierten Zone zwischen den beiden Koreas eingesetzt. Es wird derzeit noch von Menschen über Kameraverbindungen bedient, aber technisch kann diese Waffe in den Standalone-Modus geschaltet werden.
Wird SALA im Krieg in der Ukraine eingesetzt?
Einigen Echos zufolge wollten die Russen KUB-Munition verwenden. Allerdings wäre der Mann wie in Libyen auf dem Laufenden geblieben. Es gibt eine moralische, ethische und sogar strategische Hürde, die zu bestehen scheint … aber wie lange noch? Generell ist der Trend ganz klar: Wir bewegen uns hin zu einer größeren Autonomie aller Waffensysteme. Wir können noch viele Beispiele für verschiedene Schiffe und Landfahrzeuge anführen … Die Rüstungsindustrie entwickelt SALA in vielen Ländern.
„Für die KI sind Ziele, ob Personen oder Dinge, nur Daten, die verarbeitet werden müssen, ausgerichtet von 0 und 1.“
Was ist das Argument des Militärs, das diese „Entwicklung“ verteidigt?
Manche übertreiben: volle Autonomie, da werden wir noch nicht sein. Sie weisen auch darauf hin, dass das Militär selbst es nicht unbedingt unterstützen wird. Auch wenn dieser letzte Punkt nicht ganz falsch ist, ist es eine Rhetorik, die Risiken ignoriert. Andere verteidigen diese “Entwicklungen”, indem sie sagen, dass sie präzisere Schläge mit weniger Kollateralschäden ermöglichen. Außerdem ermöglicht SALA, militärische Verluste zu begrenzen: Man kann den Krieg mit weniger Soldaten führen. Dann gibt es noch das klassische Argument des Wettrüstens: Wenn wir der Bewegung nicht folgen, werden uns andere überflügeln. Aber es ist notwendig, einen kritischen Blick auf diese Berichte zu werfen, die Beweise zu liefern scheinen, während sie auch eine Erweiterung des industriellen Drucks sind.
Lesen Sie auch > Wenn die Rüstungsindustrie in den Schulen angesagt ist
Gegenargument?
Erstens gibt es das Problem der digitalen Entmenschlichung: Es ist inakzeptabel, dass eine Maschine beschließt, Menschen zu töten. Für die KI sind Ziele, ob Personen oder Dinge, nur zu verarbeitende Daten, ausgerichtet von 0 und 1. Sie unterscheidet nicht zwischen „wer“ und „was“. Wie kann ein Killerroboter einen Kampfsoldaten von einem sich ergebenden Soldaten unterscheiden? Oder sogar zwischen einem Soldaten und einem Zivilisten? Die Maschine wird mit ihrer anfänglichen Programmierung angepasst, was Vorurteile beinhalten kann. In einer sich ändernden Umgebung kann man ihre Fähigkeit zur Anpassung in Frage stellen Entscheidungen. Eine Lösung könnte „maschinelles Lernen” sein: Diese Programme verbessern ihre Leistung auf der Grundlage der von ihnen gesammelten Daten und führen sie dazu, neue Aufgaben auszuführen, die ursprünglich nicht programmiert waren, aber wahrscheinlich die gleichen Vorurteile replizieren. Darüber hinaus erkennt die Robotik dies an Es gibt noch einen Teil In diesem Bereich gibt es viel Unbekanntes. Dies wirft die Frage nach der Transparenz der Befehlskette und der Möglichkeit auf, dass sich Benutzer hinter der Maschine verstecken, um sich nicht für mögliche Ausrutscher verantworten zu müssen Im Falle eines Fehlers Wer ist rechtlich verantwortlich? Der KI-Designer, die Organisation, die sie verwendet hat? Ganz zu schweigen von den Hacking-Risiken und der Möglichkeit, dass Waffensysteme den Einsatz einer kleinen Anzahl von Personen in den Händen von Nichtstaaten erfordern Organisationen oder terroristische Gruppen.
„Wenn die internationale Gemeinschaft nicht schnell handelt, riskieren wir, vor vollendeten Tatsachen zurückgelassen zu werden, ohne einen normativen Rahmen, der eine rote Linie setzt.“
Würde darüber hinaus die Möglichkeit, Krieg zu führen und gleichzeitig militärische Verluste zu begrenzen, nicht die Schwelle für die Teilnahme an bewaffneten Konflikten senken?
Das ist eigentlich ein großer Einwand. Die Entwicklung tödlicher autonomer Waffensysteme (LAWS) kündigt eine Welt an, die noch konfliktreicher werden könnte. Wir können erzählen, was in der Ukraine passiert: Was würde passieren, wenn die Russen Schwärme von Killerrobotern einsetzen würden, um ihre menschlichen Verluste zu begrenzen?
Fühlen wir uns an einem Wendepunkt in der Rüstungsgeschichte?
Ein entscheidender Moment, ja. Im Krieg gab es drei Revolutionen: Schießpulver, Atomkraft und jetzt künstliche Intelligenz, in die die Rüstungsindustrie massiv investiert. Wenn die internationale Gemeinschaft nicht schnell reagiert, riskieren wir, vor vollendete Tatsachen zu geraten, ohne einen normativen Rahmen, der eine rote Linie setzt. Das soll nicht heißen, dass die Warnsignale seit mehreren Jahren nicht aktiviert wurden: In der Zivilgesellschaft wurden bereits viele Stimmen laut, die ein Verbot solcher Waffen oder zumindest eine Verordnung fordern, die sicherstellt, dass sie „immer erheblichen menschlichen Belastungen ausgesetzt sein werden Prüfung’. Was fehlt, ist ein echter politischer Wille auf globaler Ebene.
Lesen Sie auch> Experten sagen, dass Nordkorea damit droht, eine neue Riesenrakete zu enthüllen
Sollen wir das nicht international diskutieren?
Ja, natürlich. Dieses Thema wird seit mehr als acht Jahren im Rahmen der Vereinten Nationen diskutiert. Dabei handelt es sich um diplomatischen Austausch, der im Rahmen einer bestimmten Conventional Weapons Convention (CCW) stattfindet. Aber es kommt vor, dass sie einstimmig arbeiten und die hoch militarisierten Staaten, einschließlich der Vereinigten Staaten und Russlands, in die Entwicklung dieser Waffen investiert haben, den Fortschritt der Diskussionen behindern, indem sie den Konsens in ein Veto umwandeln. Sie behaupten, dass diese Debatte verfrüht sei, während viele Organisationen der Zivilgesellschaft, die internationale öffentliche Meinung und Wissenschaftler präventive Maßnahmen fordern. Bei der Rüstungskontrolle wiederholen wir in gewisser Weise das Szenario der Atombombe: Es war nicht nötig, auf Hiroshima zu warten, bis sich die Stimme gegen die Gefahren von Atomwaffen erhob.
“Belgien weht heiß und kalt. Das ist enttäuschend, da unser Land einst eine führende Rolle in den Prozessen spielte, die zu Verträgen zum Verbot von Landminen und Streumunition führten.”
Was kann Belgien tun, um sich ein wenig mehr auf diese Debatte zu konzentrieren?
Unser Land führte 2021 den Vorsitz der Gruppe von Regierungsexperten im Rahmen des Übereinkommens über konventionelle Waffen und hat keine Mühen gescheut, um die Diskussionen über einen internationalen Vertrag zum Verbot von Killerrobotern wiederzubeleben. Im vergangenen März unterzeichnete Belgien nach einem weiteren Scheitern der Diskussionen im UN-Rahmen eine gemeinsame Erklärung mit 22 anderen Ländern, in der es seine „tiefe Enttäuschung“ zum Ausdruck brachte. Dieser Text erinnert uns daran, dass es nicht Maschinen, sondern nur Menschen sind, die sich entscheiden müssen, tödliche Gewalt anzuwenden. Aber gleichzeitig hat der Krieg in der Ukraine die Beziehungen auf der Ebene der NATO stark gestärkt, die von den Vereinigten Staaten dominiert wird, einem Land, das gegen den Embargovertrag ist und nur die Entwicklung eines Verhaltenskodex fordert. Wir können nicht mit Sicherheit sagen, ob dies dies erklärt, aber es sollte beachtet werden, dass die Position der belgischen Regierung kürzlich eine verdächtigere Form angenommen hat: ein Vorschlag für eine parlamentarische Entschließung, die bekräftigt, dass unser Land versuchen sollte, aktiver zu werden Rolle in der internationalen Arena, um ein Verbot von Killerrobotern zu erreichen, war vor einigen Wochen vom Nationalen Verteidigungsausschuss zur Abstimmung vorgesehen. Mit Erstaunen haben wir erfahren, dass dieser Punkt nicht mehr auf der Tagesordnung steht. Auf Bundesebene scheint es ein gewisses Zögern zu geben.
warum ?
Der Vorstandsvorsitzende will nun eine Vorabberatung zum Thema Killerroboter innerhalb der Nato. Mit anderen Worten, Belgien explodiert heiß und kalt. Das ist enttäuschend, da unser Land einst eine führende Rolle in den Prozessen spielte, die zu den Verträgen zum Verbot von Antipersonenminen und Streumunition führten. Dasselbe sollten Sie in dieser Diskussion über Killerroboter tun, auch wenn dies bedeutet, sich anderen Ländern in einem alternativen Forum zum CCAC-Forum anzuschließen, in der Hoffnung, genügend kritische Masse zu schaffen, die schließlich die Linien bewegen wird.