Bild nicht mehr verfügbar.

Nach dem Terroranschlag in Christchurch herrscht auch bei den Techkonzernen Ratlosigkeit

Foto: Reuters/Su

Wer grausame Bilder von Terroranschlägen oder Kriminalfällen sehen will, wird diese auch sehen können: Das ist seit der massenhaften Verbreitung des Internets klar. In irgendeiner Ecke des Netzes, und sei es im Dark Web, sind immer Videos zu finden, die eigentlich nicht den Weg an die Öffentlichkeit finden sollten. Aber mit dem Aufstieg von Facebook, Youtube und Konsorten ist es extrem einfach geworden, diese Videos zu finden – vor allem zeitnah zum Ereignis.

Livestream

Das zeigte am Freitag eindrücklich der Terroranschlag in Christchurch, wo bei Attentaten in zwei Moscheen 49 Menschen ermordet wurden. Der Hauptverdächtige konnte seine Tat 17 Minuten lang bei Facebook live streamen, danach fluteten Kopien des Videos das Netz. Während die Konzernchefs im Silicon Valley aufwachten, arbeiteten ihre Teams mit Hochdruck daran, diese Clips zu entfernen.

Upload-Filter

Das passiert etwa, indem Videos "gehasht", also ihre spezifischen Eigenschaften analysiert werden. Dieser Hash wird dann mit neuen Uploads verglichen; bei Übereinstimmungen wird das Video automatisch gesperrt. Aber es gibt viele Möglichkeiten, um diesen Filter auszutricksen: So kann beispielsweise ein Bildschirm abgefilmt werden, auf dem der eigentlich gesperrte Clip gezeigt wird.

Dazu kommt, dass viele Videos, die Teile des Clips zeigen, gar nicht gesperrt werden sollten – weil es sich dabei nämlich um Nachrichten handelt. So verwendeten viele Medien, vor allem im englischsprachigen Raum, Teile des Originalvideos für ihre Berichterstattung. Wenn Facebook oder Youtube diese automatisch sperren würden, wäre das eine Form von Zensur.

Zensur-Ideen

Dasselbe gilt für Vorschläge, Uploads von Videos bei Googles Youtube oder bei Facebook insgesamt zu sperren. Diese Idee widerspricht der Meinungsfreiheit und würde für einen noch größeren Aufschrei sorgen. Außerdem bestünde dann angesichts der Nachrichtenlage die Gefahr, dass die beiden Plattformen regelmäßig pausieren müssten.

Moderationsteams

Ein valider Kritikpunkt bleibt allerdings bestehen: Angesichts ihrer Profite hätten Google und Facebook den Spielraum, ihre Moderationsteams drastisch zu vergrößern – in kleinen Schritten erfolgt das schon. Denn schlußendlich kann nur ein Mensch entscheiden, ob ein Video Nachrichtenwert hat oder Terrorpropaganda ist. (red, 16.3.2019)