Foto: Reuters

Warum weiße Programmierer "rassistischen" Code schreiben

4. Dezember 2017, 18:09

Fehlende Diversität unter Informatikern führt zu ungewollter Diskriminierung bei Gesichtserkennung

Das Gesicht ist eines der einzigartigsten biometrischen Eigenschaften des Menschen. Nicht überraschend ist es also, dass softwareunterstützte Gesichtserkennung, bei der Personen anhand von Bildern durch Computer identifiziert werden, gerade in der Security und bei Kriminalverfahren sehr beliebt wird. So soll der Flughafen Wien Schwechat derzeit die biometrische Gesichtserkennung testen.

Allerdings sind solche Technologien nicht einwandfrei, wie ein aktueller Bericht des Guardian warnt. Als Beispiel wird ein Fall in der US-Stadt Jacksonville genannt, bei dem ein schwarzer Verdächtiger, der zuvor harte Drogen verkauft haben soll, rein aufgrund eines Gesichtserkennungsscans festgenommen wurde. Da solche Scans hauptsächlich bei schwarzen US-Amerikanern angewendet werden würden, soll ihre Fehleranfälligkeit speziell dieser Bevölkerungsgruppe schaden. Dies würde auch durch Studien belegt sein.

Fehlende Diversität als Auslöser

Außerdem soll Gesichtserkennungssoftware gerade bei Scans schwarzhäutiger Personen am ehesten falsch liegen. Dies stehe laut eines Forschers des Massachusetts Institute of Technology mit einer anderen Problematik in Verbindung – jener der fehlenden Diversität im Technologiesektor. Der Großteil der Programmierer im Silicon Valley ist weiß. Ein Informatiker fokussiere sich beim Verbessern der Algorithmen zumeist auf bestimmte Gesichtsmerkmale, die bei Menschen anderer ethnischer Herkunft womöglich mehr oder weniger hervorstechen.

Aus diesem Grund funktioniere Gesichtserkennungssoftware bei weißen Personen am besten und wird auch an diesen oft getestet. Auch selbstlernende Software sei davon nicht ausgeschlossen, da die Trainingsdatensätze oft auf weißen Gesichtern basieren. Somit seien gerade jene ethnischen Gruppen, die in dem Sektor unterrepräsentiert sind, jene, bei denen die Software unzuverlässiger ist.

Keine Kontrolle der Software

Trotz der Tatsache, dass sich Gesichtserkennung immer öfter in der Strafverfolgung genutzt wird, fehle eine Auseinandersetzung mit der Problematik. Behörden würden oft nicht einmal bekanntgeben, dass sie Gesichtserkennung nutzen, da sie zumeist gesetzlich nicht dazu verpflichtet sind. Kritiker fordern, dass die Methode zwar in Kriminalverfahren genutzt werden können sollte, allerdings keinesfalls das Beweismittel für eine Festnahme sein dürfte.

Zusätzlich sei es notwendig, die genutzte Software auf mögliche Fehleranfälligkeit bei bestimmten Bevölkerungsgruppen zu kontrollieren. Derzeit sei dies nicht der Fall – weder bei den Behörden, die die Programme nutzen, noch bei den Unternehmen, die sie herstellen. (red, 4.12.2017)