Bild nicht mehr verfügbar.

Bereits jetzt werden Roboter beim Entschärfen von Bomben eingesetzt.

Foto: Reuters / Umit Bektas

An einen Menschen erinnert der südkoreanische Grenzwächter SGR-1 nur entfernt. Statt Augen, Mund und Nase dienen ihm Laser, Elektronen- und Infrarotkameras zur Informationsaufnahme, seine Extremitäten bestehen aus einer Maschinenpistole und einem Granatwerfer.

Grenzkontrolle

Der vom IT-Konzern Samsung entworfene Roboter soll die Übergänge zur demilitarisierten Zone zwischen Nord- und Südkorea bewachen. Er ist seit 2006 im Einsatz und liefert einen Vorgeschmack auf die Zukunft der Kriegsführung, die zu einem großen Teil aus zumindest halbautomatisierten Systemen bestehen wird. So bezeichnet man Roboter, die entweder ferngesteuert agieren oder vor bestimmten Aktionen die Zustimmung eines Menschen einholen müssen.

Das ist auch beim SGR-1 der Fall: Er ist mit Webcam, Mikrofon und Lautsprecher ausgestattet, damit südkoreanische Soldaten mit illegal Einreisenden Kontakt aufnehmen können, bevor sie das Feuer eröffnen. Doch südkoreanische Medien haben enthüllt, dass der SGR-1 technisch in der Lage wäre, komplett selbstständig zu agieren – die Zuständigen müssten nur den sprichwörtlichen Schalter umlegen, um den Kampfroboter in die "Freiheit" zu entlassen.

Darüber, dass derartige Systeme verhindert werden müssen, herrscht seltene Einigkeit in Wissenschaft und internationaler Gemeinschaft. Sowohl die Europäische Union als auch die Vereinten Nationen sprechen sich dafür aus, selbstständige Waffensysteme zu verbieten.

Es ist das erste Mal, dass militärische Innovationen vor ihrem ersten Einsatz im Kampfgebiet verhindert werden könnten. Bei Giftgas und der Atombombe sorgte erst das Leid der Opfer für Regelungen.

"Smarte" Bomben

Von den Warnungen unbeeindruckt, tüfteln mehrere Nationen weiter an autonomen Systemen. Die bereits im Einsatz befindlichen Vorrichtungen haben Checkpoints zur menschlichen Kontrolle. Ob diese Sinn ergeben, bleibt offen.

So wehrt der israelische Iron Dome automatisch Raketen ab, die Ziele im Landesinneren treffen könnten. Ein menschlicher Operateur kann gar nicht schnell genug reagieren, um das System vom Abschuss abzuhalten. Ein weiteres Beispiel sind "smarte" Bomben, die per Laser ihr Ziel anvisieren. Während die Besetzung eines Bombers mit dem "Abwurf" letztverantwortlich war, verändert sich nun der Weg der Bombe selbstständig.

Militärexperten hoffen, dass smarte Kriegswaffen eine "chirurgische Kriegsführung" ermöglichen. Kampfroboter könnten etwa Geiseln aus stark bewachten Gebieten befreien oder Kollateralschäden durch präzise Zielauswahl gering halten.

Bereits jetzt werden Roboter beim Entschärfen von Bomben eingesetzt. Doch abseits davon sind aktuelle Systeme alles andere als präzise: Der Drohnenkrieg der USA fordert eine Vielzahl ziviler Opfer. Ein EU-Bericht zu autonomen, ferngesteuerten Waffensystemen spricht von bis zu 90 Prozent zivilen Opfern.

Befehl per Mausklick

Während der Drohnenpilot momentan sein unbemanntes Fluggerät aus der Ferne steuert, könnten künftige Systeme allein agieren. Der Luftfahrtjournalist Georg Mader hält es allerdings für unwahrscheinlich, dass der Faktor Mensch komplett eliminiert wird. Vorstellbar sei, dass Drohnen "per Mausklick eine ganze Mission ausführen". Wie Mader berichtet, hat die Drohne X-47B, die von Northrop Grumman entwickelt wird, bereits einmal selbstständig eine Testmission abgebrochen, da sie einen Defekt bemerkte.

Würde eine Drohne streiken, wenn sie feststellt, dass ihr Ziel kein Taliban-Versteck, sondern eine Hochzeit ist? Diese Fragen will eine Arbeitsgruppe der Vereinten Nationen klären. Bereits drei Treffen hat sie abgehalten, das letzte erst Mitte April.

Das Gremium tendiert zu einem Verbot, weil es die Frage nach der Verantwortung für die Handlungen der Drohne umtreibt. Haftet der Hersteller, der Operateur? Oder ist die Drohne selbst verantwortlich? Solche Fragen müssen beantwortet werden, bevor an den Einsatz autonomer Systeme zu denken ist.

Risiken durch Hacker

Außerdem drohe immer die Übernahme der Systeme durch Hacker, wie die Geneva Academy in einem Arbeitspapier zu bedenken gibt. Durch schädliche Viren könnten die Kampfroboter dann ein Eigenleben entwickeln. Das gilt auch für andere Bereiche des Cyberkrieges: Als die USA etwa iranische Nuklearzentrifugen mit einem Schadprogramm namens "Stuxnet" infizierten, verbreitete sich dieses bald auch in die "zivile Welt" – und plötzlich waren unzählige private wie kommerzielle Rechner davon betroffen.

In Österreich plant man übrigens vorerst keine Experimente mit automatisierten Robotern – Drohnen zur Überwachung hat man sich allerdings schon besorgt, so wie mehr als 50 Staaten weltweit. (Fabian Schmid, 13.5.2016)