"Es ist interessant, dass ausgerechnet Wirtschaftsbosse wie Elon Musk ein bedingungsloses Grundeinkommen fordern", wundert sich Peter Dabrock. "Sind das solidarische Zeichen oder Gesten der Ruhigstellung?"

Foto: Christian Fischer

Es sind die großen Fragen, mit denen sich Peter Dabrock beschäftigt: Menschenwürde und digitale Ethik, Stammzellenforschung, künstliche Intelligenz und Big Data. Als Vorsitzender des Deutschen Ethikrats diskutiert er über naturwissenschaftliche, medizinische und rechtliche Probleme unserer Zeit, bezieht Stellung bezüglich voraussichtlichen Folgen für die Gesellschaft und gibt Empfehlungen für die Politik ab.

STANDARD: Digitalisierung und künstliche Intelligenz (KI) werden die Gesellschaft grundstürzend verändern, so Ihre Annahme. In welchen Bereichen ist die Technik dabei, unsere Welt zu verändern?

Peter Dabrock: KI wird zukünftig einen immensen Einfluss auf alle Lebensbereiche ausüben. Während diese Veränderungen am Arbeitsmarkt deutlich merkbar sein werden, kommen sie in anderen Bereichen auf leisen Sohlen daher. Selbst wenn wir die Zahl der Arbeitsplätze halten oder sogar erhöhen können, wird es vermutlich bei vielen nicht zu einem Zuwachs in der Entlohnung von Arbeit kommen. Einer kleinen Gruppe an kreativen, hochbezahlten Jobs wird künftig ein Heer an einfachen Funktionsdienstleistern gegenüberstehen.

STANDARD: Und welche Veränderungen passieren stillschweigend?

Dabrock: Wie sehr Algorithmen unsere soziale Kommunikation und unsere kulturelle Prägung verändern, das nehmen wir vorrangig nur als Vorteil wahr. Im Bereich von Social Media wird unser Verhalten 24 Stunden sieben Tage die Woche lang aufgezeichnet. Indem wir Firmen diese Dauerüberwachung zubilligen, wissen sie oft besser über uns Bescheid als wir selbst, erkennen unsere Verhaltensmuster und können uns in unseren Entscheidungen lenken. Das sind grundstürzende Veränderungen. Die Frage ist aber nicht, ob wir uns dieser Entwicklung radikal entgegenstellen, sondern, wie wir uns mit diesen Bedingungen, die wir selbst auch gestalten können, arrangieren.

STANDARD: Kann man gegenüber Google, Facebook, Amazon und Apple überhaupt noch verantwortungsvoll mit den eigenen Daten umgehen?

Dabrock: Im Zeitalter von Big Data können wir am traditionellen Datenschutz nicht mehr festhalten. Datensparsamkeit, Zweckbindung und informierte Einwilligung für jede Datenweitergabe wären ein unehrlicher Umgang, vor allem, wenn wir die Vorteile der Digitalisierung nutzen wollen. Was wir als politisch organisierte Zivilgesellschaft schaffen müssen, das sind neue Verfahren und Standards, die uns so dennoch etwas wie informationelle Selbstbestimmung bringen.

STANDARD: Wie kann das gelingen?

Dabrock: Als Deutscher Ethikrat haben wir einen Vorschlag unterbreitet, der den herkömmlichen Datenschutzansatz zu einem an Datensouveränität orientierten Gestaltungs- und Regulierungskonzept weiterentwickelt. Ein verantwortungsvoller Umgang mit Daten kann nicht an einer Zustimmung per Häkchen festgemacht werden, sondern muss die Weitergabe von Daten in Echtzeit nachvollziehbar machen. Das kann mit geeigneter Software passieren, indem sich ein "Datenagent" an meine Daten dranhängt. Dieser gibt dann die Information an einen von mir betrauten Datentreuhänder weiter, der mich nur dann informiert, wenn eine Datennutzung passiert, die mir missfällt. Auf diese Art und Weise hielten wir eine Kontrollhoheit über unsere Daten – immer dann, wenn es uns wirklich betrifft.

STANDARD: Gegenwärtig werden die mit KI verbundenen Kontrollfunktionen sowie der Verlust von Entscheidungsfreiheiten oft einfach hingenommen. Wie gefährlich ist diese Entwicklung im Social-Media-Bereich?

Dabrock: Die Besonderheit von Social-Media-Content ist es nicht nur, Aufmerksamkeit zu bekommen – das ist ja schon immer das Kerngeschäft des Journalismus -, sondern emotionalisierte Aufmerksamkeit zu generieren. Via Emotionen sollen die Menschen möglichst lange auf der Plattform gehalten werden. Das entspricht dem dahinterstehenden Geschäftsmodell. Die dabei produzierten Daten werden genutzt, um das Werbefinanzierungsmodell am Laufen zu halten. Emotionen werden nicht nur durch Katzenvideos und Kinderfotos, sondern es wird auch die Wut ausgelöst. Die Emotionalisierung politischer Debatten ist also kein zufälliger Nebeneffekt, sondern Teil der Logik von Social Media. Wenn man weiß, dass mehr als 40 Prozent der US-amerikanischen Bevölkerung ihre Nachrichten ausschließlich via Facebook beziehen, dann sieht man das ungeheure Gefährdungspotenzial einer Demokratie. Demokratie lebt von der Debatte, aber auch von der Suche nach möglichst tragfähigen Lösungen für die Gesamtgesellschaft. Und das ist mit Social Media hochgradig gefährdet.

STANDARD: Das Verständnis der KI basiert auf den Annahmen, die ihr zuvor vorgesetzt wurden. Mit welchen Auswirkungen?

Dabrock: Sämtliche Mustererkennungsmethoden haben natürlich schon menschliche Voreinstellungen. Es waren ja Menschen, die die Algorithmen programmiert haben. Wenn wir etwa Maschinen miteinander kommunizieren lassen, kann es passieren, dass die vom Menschen selbst nicht erkannten Voreinstellungen eine Konversation ins Extreme treiben. Nach einer Stunde muss man abschalten, weil die Unterhaltung vollends rassistisch oder sexistisch geworden ist.

STANDARD: Wie viel ethische Prinzipien kann man im Vorhinein festlegen?

Dabrock: Die Frage nach der Rahmung, Gestaltung und Überprüfung von KI-Lösungen wird derzeit intensiv diskutiert. Das Bewusstsein bei vielen Firmen scheint zu wachsen, dass es um Vertrauenswürdigkeit der jeweiligen Produkte geht. Deshalb sprießen derzeit die Codes of Conduct und Selbstverpflichtungen zu ethisch korrektem Handeln aus dem Boden. Die sind meist aber sehr allgemein gehalten. Und der Teufel steckt oft im Detail. Deshalb muss es eine der dringlichsten Forderungen sein, dass nicht nur Mediziner verpflichtende Ethikkurse haben, sondern auch alle Berufsgruppen, die mit der Programmierung von Algorithmen und dem Trainieren von sogenannten autonomen Maschinen betraut sind. Es muss in all diesen Bereichen eine Sensibilität für die Auswirkungen geben, die man mit diesen so klammheimlich daherkommenden Prozessen des maschinellen Lernens voreinstellt.

STANDARD: Und die Solidarität? Welche Rolle kann sie in Zeiten von Big Data spielen?

Dabrock: Wie viel Solidarität es in unserer Gesellschaft heute gibt, ist ein guter Lackmustest dafür, wie gerade in Zeiten der Digitalisierung und Social Media der Zusammenhalt in der Gesellschaft noch gegeben, gewünscht und kultiviert wird. Hier sind zwei Dimensionen am Wirken: zum einen jene der Anerkennung, also den Menschen auf Augenhöhe zu begegnen und sie nicht als Objekt von Hilfszuwendungen zu betrachten. Zum anderen jene von sozialen Transferleistungen, die es zusätzlich braucht. Es ist interessant, dass ausgerechnet Wirtschaftsbosse wie Joe Kaeser, Chef von Siemens, oder Elon Musk, Chef von Tesla, ein bedingungsloses Grundeinkommen fordern. Was bewegt sie? Sind das solidarische Zeichen oder Gesten der Ruhigstellung, um viele vermeintlich nutzlose Menschen wenigstens als Konsumenten noch "benutzen" zu können? Vor dem Hintergrund der mit der Digitalisierung wohl zunehmenden Flexibilisierung von Arbeitsbiografien muss auch die Frage nach sozialer Absicherung neu gestellt werden. Hinsichtlich dieser wirtschaftlichen Effekte sollte man über Ideen einer Bürgerversicherung und Modelle von Arbeitszeitkonten nachdenken.(Christine Tragler, 24.11.2018)