Israels KI-gesteuerte „automatisierte Tötung” im Gaza

Eine neue Untersuchung deckt auf, dass das israelische Militär verstärkt auf KI-Systeme setzt, um Angriffsziele im Gazastreifen zu bestimmen. Das System namens „Lavender“ hat zehntausende Palästinenser als potenzielle Ziele markiert, darunter „fälschlicherweise” viele Zivilisten.

by admin2

Autor: A.R. Bild: Wikipedia/Petty Officer 3rd Class Jeffrey S. Viano, U.S. Navy Lizenz:public domain


Laut einer Untersuchung des „+972 Magazins“, die auf Aussagen von sechs israelischen Geheimdienstoffizieren basiert, spielt dieses System eine zentrale Rolle bei den seit Oktober andauernden beispiellosen Bombenangriffen auf Gaza. Künstliche Intelligenz (KI) wurde eingesetzt, um alle mutmaßlichen Mitglieder des militärischen Flügel von Hamas und Palästinensischem Islamischen Dschihad sowie deren Wohnorte zu markieren, was zu zehntausenden von Luftschlägen geführt hat.

Die meisten der durch diese Angriffe getöteten waren Zivilisten, darunter Frauen und Kinder, die nicht in Kampfhandlungen involviert waren. Dies wirft ernsthafte Fragen über die ethische Vertretbarkeit der israelischen Kriegsführung auf. Insbesondere die Taktik, Ziele mit geringem militärischem Wert anzugreifen und dabei hohe zivile Verluste in Kauf zu nehmen, hat international für Aufregung gesorgt.

Der Einsatz von Künstlicher Intelligenz im militärischen Kontext bedeutet zwangsläufig die Dehumanisierung. Es müssen strenge internationale Richtlinien entwickelt werden, um sicherzustellen, dass solche Systeme nicht zu einer unkontrollierbaren Eskalation von Gewalt führen. Die internationale Gemeinschaft muss sicherstellen, dass alle militärischen Aktionen, insbesondere diejenigen, die auf KI basieren, strengen ethischen Standards unterliegen, um das Risiko unschuldiger Opfer zu minimieren. Weiters muss Israel sich für seine Handlungen, früher oder später, verantworten.

Das könnte Sie auch interessieren