"Genehmigen" oder "Abbrechen": Der Einsatz von KI im Krieg

Künstliche Intelligenz unterstützt zunehmend militärische Entscheidungen – auch im Krieg. Wer ist verantwortlich, wenn das schiefgeht?

Artikel verschenken
In Pocket speichern vorlesen Druckansicht 1 Kommentar lesen
, Illustration: Yoshi Sodeoka

(Bild: Illustration: Yoshi Sodeoka)

Lesezeit: 19 Min.
Von
  • Arthur Holland Michel
Inhaltsverzeichnis

Wir befinden uns in einem Krieg der nahen Zukunft. Auf einem leeren Dach nimmt ein Soldat seine Schussposition ein. Seine Einheit hat sich Block für Block durch die Stadt gekämpft. Es scheint, als ob der Feind hinter jeder Ecke auf der Lauer liegt.

Mehr über Tech-Einsatz im Krieg

Durch sein Zielfernrohr scannt der Soldat die Fenster eines nahe gelegenen Gebäudes. Er bemerkt frische Wäsche, die an den Balkonen hängt. Über Funk erfährt er, dass sich sein Team ein Stück über offenes Gelände bewegen wird. Als es sich auf den Weg macht, erscheint in der oberen linken Ecke des Zielfernrohrs ein roter Rahmen. Die automatisierte Bilderkennung der Waffe hat ein potenzielles Ziel markiert – eine schemenhafte Gestalt scheint sich einem der Fenster zu nähern. Will sie einen Schuss abgeben? Der Soldat hat keine klare Sicht, aber seiner Erfahrung nach verfügt das System über die Fähigkeit, auch die schwächsten Anzeichen eines Feindes zu erkennen. Also macht er sich bereit, den Abzug zu betätigen.

In einem anderen Krieg steht ein Kommandeur vor einer Reihe von Monitoren. Ein Chatbot meldet sich. Er informiert darüber, dass Satelliten einen Lastwagen erfasst haben, der in ein Stadtviertel gefahren ist, das als möglicher Treffpunkt für feindliche Raketenabschüsse ausgewiesen ist. Der Chatbot hat bereits eine Artillerieeinheit, die seiner Berechnung nach die höchste "Tötungswahrscheinlichkeit" hat, angewiesen, den Lastwagen ins Visier zu nehmen und sich bereitzuhalten.