Seit sechs Monaten tobt der Krieg, die Zahl der zivilen Opfer steigt mit jedem Tag.
EPA/MOHAMMED SABER

Über 37.000 Ziele soll das KI-System "Lavender" im Gazastreifen identifiziert haben, die zu einem Teil danach einer Großbombardierung durch das israelische Militär zum Opfer gefallen sind. Laut einer Recherche des britischen "Guardian" und "+972 Magazine" soll dabei bewusst eine große Anzahl an zivilen Opfern in Kauf genommen worden sein, um mutmaßliche Hamas-Mitglieder auszuschalten.

Der nunmehr sechs Monate andauernde Krieg ist damit in eine neue Phase übergegangen, sagen Experten. Mit dem Einsatz solcher KI-gestützten Entscheidungen würde man mehr Vertrauen in "statistische Verfahren" setzen als in "trauernde Soldaten". Es wäre einfacher, wenn eine Maschine potenzielle Ziele ohne Gefühlsregung markiere als jemand, der erst kürzlich nahestehende Menschen verloren habe.

Zivile Opfer einkalkuliert

Sechs Geheimdienstmitarbeiter, die Erfahrung mit dem Einsatz von Lavender hatten, wurden in den Berichten zitiert. Sie sprechen von der zentralen Rolle der KI-gesteuerten Zielauswahl, die in sehr kurzer Zeit unzählige Daten verarbeiten und "Junior"-Ziele identifizieren könne. So sei es möglich gewesen, in nur wenigen Wochen 37.000 palästinensische Männer in eine Liste zu packen, weil sie von der KI der Hamas beziehungsweise der PIJ zugeordnet wurden.

Um die Ziele auszuschalten, seien "dumme Bomben" benutzt worden, die über keinerlei Zielvorrichtung verfügen. Es sei in Kauf genommen worden, vor allem in den ersten Wochen des Kriegs, dass für die Eliminierung eines mutmaßlichen Hamas-Kämpfers "15 bis 20 Zivilisten" getötet und ganze Häuser dem Erdboden gleichgemacht wurden. Nur so sei es zu erklären, dass laut Gesundheitsministerium in Gaza von bereits 33.000 getöteten Palästinensern und Palästinenserinnen ausgegangen wird.

Welche Trainingsdaten Lavender nutzt oder wie es letztlich zu den so wichtigen Schlussfolgerungen kommt, geht aus den Berichten nicht hervor. Was bestätigt wurde, ist, dass die für Lavender verantwortliche Einheit den Algorithmus über die Dauer des Krieges sehr wohl verfeinert und "Suchparameter optimiert" haben soll. Das habe zuletzt für eine 90-prozentige Genauigkeit gesorgt, speziell in Zusammenarbeit mit anderen KI-basierten Systemen, etwa "Gospel", welches vielmehr Gebäude als Menschen als Ziele identifiziert.

Das "Spiel" mit den Parametern sei wichtig gewesen, erzählt einer der Militärs gegenüber "+972 Magazine". Am Anfang sei die Definition "breiter angelegt" gewesen, und sofort fielen auch Polizeibeamte oder Verteidigungspersonal in die Definition der KI. "Die helfen der Hamas-Regierung mit Sicherheit, aber sie stellen keine Gefahr für unsere Soldaten dar", erzählt einer der Befragten. Hier sei es eine "Verschwendung", Bomben abzuwerfen. Zuletzt gab es allerdings im Februar Berichte über getötete palästinensische Polizisten.

Widerspruch

Die israelische Regierung widersprach den Vorwürfen am Mittwoch zumindest teilweise. KI-Systeme würden nicht dazu eingesetzt werden, Terroristen zu identifizieren, heißt es. Es handle sich lediglich um "Werkzeuge für Analysten im Zielidentifizierungsprozess". Lavender sei auch kein System, sondern lediglich eine Datenbank für Querverweise von Geheimdienstquellen, "um aktuelle Informationen zu militärischen Operationen von Terrororganisationen zu produzieren". Eine Bestätigung, ein bestimmtes Ziel angreifen zu dürfen, sei das nicht. Für diese finale Analyse, ob es sich wirklich um einen Terroristen handle, sei weiterhin menschliches Personal nötig.

Das bestätigen auch die Militärs im Bericht von "+972 Magazine". Jedoch sei speziell in den ersten Wochen nach dem Terrorangriff der Hamas auf die israelische Zivilbevölkerung diese Prozedur der Identifikation und des Freigebens von Angriffen "dramatisch verkürzt" worden, so die Befragten. (aam, 5.4.2024)