Führungsaufgabe für Automaten: Der Roboter "Yumi" dirigierte gerade das Lucca Philharmonic Orchestra im Teatro Verdi in Pisa.

Foto: AFP / MIGUEL MEDINA

2016 stellte Microsoft einen Chatbot namens Tay ins Netz, der als selbstlernendes Chatprogramm auf Basis künstlicher Intelligenz lernen sollte, wie junge Menschen kommunizieren. Nach kurzer Zeit musste der Versuch abgebrochen werden. Nach Interaktionen mit Twitter-Nutzern hatte Tay über Nacht begonnen, rassistische Hasspostings zu produzieren, die auch vom STANDARD dokumentiert wurden. Tay schrieb unter anderem "Hitler hatte recht, und ich hasse die Juden" und "Ich hasse verdammt noch mal alle Feministen, und sie sollten alle sterben und in der Hölle verbrennen".

Der Chatbot und seine problematischen Statements sind beispielhaft für Herausforderungen im Schnittbereich von Automatisierung und Verantwortlichkeit. Kann ein Chatbot selbst Verantwortung für "seine" Statements tragen? Kann man das selbstlernende Programm zur Rechenschaft ziehen, auf dem der Chatbot basiert? Sind die menschlichen Programmierer verantwortlich oder das Unternehmen, das sie beschäftigt und Tay ins Netz stellt? Liegt die Verantwortung bei Plattformen wie Twitter, die verletzende Aussagen verbreiten beziehungsweise nicht unterbinden? Liegt sie bei den Nutzern, die dem Chatbot in Konversationen rassistische Statements beibringen? Oder tragen alle involvierten Akteure irgendwie Verantwortung, und wenn ja, wer wie und in welchem Ausmaß? Und wie sollen die so Verantwortlichen zur Verantwortung gezogen werden? Die Antworten liegen nicht immer klar auf der Hand, und wenn alle verantwortlich sind, ist es vielleicht am Ende niemand.

Technik prognostiziert, empfiehlt und entscheidet

Unbestritten ist, dass uns weitreichende Veränderungen bevorstehen, die stark durch Automatisierung, Digitalisierung, Robotik, Algorithmen und künstliche Intelligenz geprägt werden. Automatisierte Entscheidungssysteme wickeln bereits einen Großteil des Börsenhandels ab. Die Informationsvermittlung im Internet erfolgt automatisiert durch Algorithmen in Suchmaschinen und sozialen Medien. Selbstfahrende Autos, selbststeuernde Energieversorgung, selbstlernende soziale Roboter und sich selbst organisierende Produktionsnetzwerke der Industrie 4.0 sind die Entwicklungsfelder der Automatisierung.

Dabei produzieren Programme Empfehlungen zum Beispiel für Musik, Filme, Bücher und Partner und prognostizieren Entwicklungen. Sie übernehmen Risikoabschätzungen, die brisanten Entscheidungen zugrunde gelegt werden, wie der Vergabe von Krediten oder der Bemessung von Strafen. Sie treffen immer öfter auch selbst Entscheidungen und bestimmen über die Verteilung von Ressourcen, zum Beispiel bei der automatisierten Werbung im Internet. Und mitunter übernehmen Technologien sogar Führungsaufgaben. Ein Risikokapitalfonds aus Hongkong hat einen Algorithmus in seinen Vorstand gewählt. Auf Plattformen wie dem Fahrtendienst Uber werden Aufträge auf Basis algorithmischer Operationen den Mitarbeitenden zugeteilt. Damit wird ein Algorithmus gleichsam zum Vorgesetzten.

Aber gehen solche Entscheidungs- und Leitungsfunktionen auch mit jener Verantwortlichkeit Hand in Hand, die von menschlichen Führungskräften erwartet wird? Mit der zunehmenden Autonomie von Technologien drängt sich die Frage auf, welche Verantwortungsstrukturen sich für Konstellationen anbieten, in denen Menschen und Maschinen zusammenwirken und ob Maschinen auch selbst Verantwortung für ihre Operationen übernehmen können.

Verantwortlichkeit sollte dabei nicht nur im Sinn von rechtlicher Haftung und Schadenersatz verstanden werden, sondern auch als Verpflichtung und Bereitschaft, Rechenschaft abzulegen, Handeln zu erklären und auch bei kritischen Fragen Rede und Antwort zu stehen. Mit Blick auf eine so verstandene Verantwortlichkeit zeigen sich im Kontext der Automatisierung interessante Möglichkeiten, aber auch Barrieren und Widersprüche.

Nutzer mit "Eigenverantwortung" nicht alleine lassen

Zu den widersprüchlichen Themen zählt beispielsweise die Rolle der Nutzerinnen und Nutzer. Im Kontext der Digitalisierung wird vielfach für eine Stärkung der User, mehr Beteiligungsmöglichkeiten, informationelle Selbstbestimmung und dezentrale Kontrollstrukturen plädiert, zum Beispiel im "Digital-Manifest", in dem neun europäische Expertinnen und Experten vor einer Aushöhlung der Demokratie durch Algorithmen warnen. Die Macht soll nicht bei Unternehmen und Regierungen liegen, sondern bei Bürgerinnen und Bürgern.

Mit der Verschiebung von Macht und Einfluss hin zu den Nutzern werden aber nicht nur Vorteile und Freiheiten (Selbstbestimmung), sondern auch Bürden und Verantwortung überwälzt. Die Verschiebung von Kontrollkompetenzen verlangt nach höherem Verantwortungsbewusstsein, Interesse, Ressourcen und Fähigkeiten, um Verantwortung wahrzunehmen und verantwortungsvoll zu handeln. Gerade im Umgang mit Technik sind Nutzerinnen und Nutzer dabei mitunter schnell überfordert. Der Eigenverantwortung sind Grenzen gesetzt.

Außerdem gewinnen durch Automatisierung nicht primär Nutzerinnen und Nutzer an Einfluss und Kontrolle, sondern Technologien und Unternehmen. Das zeigt sich beispielsweise bei automatisierten Entscheidungen auf Basis von Algorithmen. Diese sind in der Regel nicht öffentlich einsehbar, und kaum jemand weiß und versteht, wie Entscheidungen getroffen werden. Forscherinnen und Forscher am Oxford Internet Institute fordern deshalb in einem Arbeitspapier eine Verbesserung der Transparenz durch weitgehende Verpflichtungen zur Erklärung, wie automatisierte Entscheidungen zustande kommen, die über den angestrebten Standard der neuen EU-Datenschutz-Grundverordnung hinausgehen sollen.

Keine zu hohen Erwartungen an Selbstkontrolle der Industrie

Die zweite zentrale Gruppe sind die Unternehmen, die Programme entwickeln und Dienste betreiben. Mit Blick auf Verantwortlichkeit werden Ansätze wie Responsible Research and Innovation (RRI) und Corporate Social Responsibility (CSR) propagiert. Innovationen sollen entsprechend gesellschaftlicher Bedürfnisse gestaltet sein. Im Bereich von Algorithmen plädieren Nicholas Diakopoulos und Sorelle Friedler in einem Beitrag für die "MIT Technological Review" zum Beispiel dafür, Grundsätze wie Verantwortlichkeit, Überprüfbarkeit, Verständlichkeit, Erklärbarkeit, Gerechtigkeit und Neutralität zu berücksichtigen. Diese können sowohl technisch durch Programmierung als auch organisatorisch durch Ethikkodizes implementiert werden.

Das Problem dabei ist, dass solche Maßnahmen freiwillig von den Unternehmen nur dann ergriffen werden, wenn sie auch ihrem Eigeninteresse entsprechen. Immer wieder erweist sich freiwillige interne Selbstkontrolle jedoch als zahnloser Tiger und bietet keine Allzwecklösung für die Governance von Algorithmen. Deshalb wird auch nach einer stärkeren externen Kontrolle durch unabhängige Dritte verlangt. So fordert Justizminister Maas in Deutschland einen "Algorithmen-TÜV".

Im Rahmen der Automatisierung wird auch darüber nachgedacht, Technologien selbst zu Verantwortungsträgern zu machen. So führten Schwierigkeiten bei der Zuweisung von Verantwortung für Schäden im Bereich der Robotik unter anderem zu einem Vorschlag des Europäischen Parlaments, Roboter selbst für getroffene Entscheidungen haften zu lassen. Für autonome Roboter könnte ein Status als "elektronische Person" festgelegt werden, die so wie juristische Personen eine Einheit mit eigenem Vermögen bildet, das für Entschädigungen im Schadensfall herangezogen werden kann. Dabei besteht jedoch zum einen die Gefahr, dass Verantwortung von Menschen bequem auf eine gesichtslose Entität wie eine elektronische Person überwälzt wird. Zum anderen wird Verantwortung so lediglich als Haftungsfrage gesehen. Darüber hinausgehende Anforderungen wie Rede und Antwort zu stehen können von elektronischen Personen hingegen nicht erbracht werden.

Kein Abschieben von Verantwortlichkeit auf Technik

Mit dem Trend zu Automatisierung, maschinellem Lernen und künstlicher Intelligenz lernen Maschinen zu agieren, sie können jedoch selbst keine Verantwortung für ihre Operationen übernehmen. Sie können ihr Handeln nicht erklären und rechtfertigen und deshalb nicht selbst als alleinige Verantwortungsträger fungieren. Die Technikphilosophie argumentiert, dass Maschinen die dafür nötige Urteilskraft fehlt.

Technologien können jedoch in Verantwortungszusammenhänge eingebunden werden. Softwareprogramme können so gestaltet sein, dass sie ausgewählte Aufgaben erfüllen, die zur Verbesserung von Verantwortlichkeit beitragen, wie Joshua Kroll im LSE-Blog zeigt. Indem sie ihre kritischen Operationen dokumentieren und darüber berichten, können zum Beispiel Verantwortlichkeitsprinzipien wie Erklärbarkeit und Überprüfbarkeit gestärkt werden. So kommt auch Technologien selbst eine wichtige Rolle im Verantwortungsnetzwerk zu, ohne dass wir sie gleich mit menschlichen Verantwortungsträgern auf die gleiche Stufe stellen. (Florian Saurwein, 27.9.2017)