Alles nur Fake Ethik

Facebook, Google und Co. spielen sich nach zahlreichen Skandalen neuerdings als moralische Musterschüler auf. Warum wir auf diese Masche nicht hereinfallen sollten.

Von Anna-Verena Nosthoff und Felix Maschewski, 22.05.2019

Journalismus, der Ihnen hilft, Entscheidungen zu treffen. Und der das Gemeinsame stärkt: die Freiheit, den Rechtsstaat, die Demokratie. Lernen Sie uns jetzt 21 Tage lang kostenlos und unverbindlich kennen:

Mark Zuckerberg mit Fangemeinde: Der Facebook-Chef erklärt, wie die Privatsphäre der Nutzer neuerdings geschützt werden soll (30. April 2019, San Jose, Kalifornien). Amy Osborne/AFP/Getty Images

Lehnen Sie sich zurück, atmen Sie ruhig – ein, aus. Es gibt keinen Grund zur Aufregung, Sie sind in guten Händen. Auch wenn die letzte Zeit schwierig war und Sie sich betrogen fühlen: Wir haben zugehört, geloben Besserung.

Alles wird anders, nein: Alles wird gut.

Das Versprechen

So klingt der hypnotische Singsang, der aktuell aus dem Silicon Valley weht.

Zum Beispiel aus dem Hauptquartier von Google, wo künftig Ethiker über Algorithmen beraten sollen, oder aus dem Mund von Facebook-Chef Mark Zuckerberg. Er will die Privatsphäre seiner Nutzer plötzlich über alles stellen und wünscht sich neuerdings eine «aktivere Rolle von Regierungen» bei der Tech-Regulierung. Dies nach einer Reihe von Skandalen, die den Ruf seiner Firma arg ramponiert haben. Die grossen IT-Konzerne wollen nicht mehr die Bad Boys sein. Sondern sie wollen erwachsener, tugendhafter wirken.

Im gesamten Valley gibt man sich nach dem Krisenstakkato der letzten Jahre geläutert, bekennt sich mantraartig zur eigenen Verantwortung – Codename: Corporate Digital Responsibility. Die Konzerne scheinen sich aufs Gute zu besinnen und rufen, erschreckt durch die Risiken und Nebenwirkungen der eigenen, smarten Entwicklungen, eine Ethik nach der nächsten aus, besonders gern im Bereich der künstlichen Intelligenz (KI).

Mark Zuckerberg verkündete in einer Charmeoffensive jüngst sogar Ideen für die Regulierung des Internets – und das, nachdem er zuvor jahrelang gegen alles, was nach Gesetz (z. B. die DSGVO) aussah, lobbyieren liess. Der CEO von Facebook übte sich dabei nicht nur im vorauseilenden Gehorsam gegenüber den Behörden, sondern gab sich als Sittenanwalt aus, der im Internet «das Gute zu bewahren» wünscht, um mit Vorschlägen für eine «aktivere Rolle von Regierungen» von höchster Warte aus eigene Lösungen zu präsentieren.

Kritiker erkennen in Zuckerbergs Proklamation ein raffiniertes Machtkalkül, um die eigene Monopolstellung zu zementieren. Sie wittern, dass hier jemand den verdreckten Mantel abstreifen will, um sich wieder als anständig, reingewaschen zu inszenieren. Das Unbehagen ist begründet. Und es erstreckt sich nicht allein auf Zuckerbergs neue Lust für klare Regeln.

Denn die Massnahmen, mit denen Google, Facebook und Co. ihre Probleme in Sachen Glaubwürdigkeit, Datenschutz oder künstlicher Intelligenz in den Griff kriegen wollen, wirken unausgereift. Sie sind lückenhaft – und in den meisten Fällen nur eine Public-Relations-Fassade, hinter der die Leere gähnt.

Die Probleme

Google: Verzerrte Algorithmen
Zum Beispiel bei Google. Dort wurden 2018 interne Proteste gegen das Project Maven laut, einen Auftrag des US-Verteidigungs­ministeriums zur KI-gestützten, bildanalytischen Verbesserung von Drohnenangriffen. CEO Sundar Pichai verkündete daraufhin schnell neue Ethikrichtlinien: Google wollte fortan darauf achten, dass seine KI-Systeme sozialverträglich agieren, wissenschaftlicher Strenge genügen, die Privatsphäre schützen, nicht unfair diskriminieren sowie generell sicher und verantwortungsvoller sein würden.

Ob dieser in Form von sieben Geboten formulierte Prinzipienkatalog aber wirklich eine neue Verantwortlichkeit in Sachen KI verheisst, ist höchst fraglich. Solange Google selbst bestimmt, was eine «angemessene Transparenz» und was eine «relevante Erklärung» ist, bleibt die Wirkung der neuen Richtlinien genauso wie die Auslegung der Begriffe ein Firmengeheimnis – ein schöner Schein, der klare Regeln allenfalls simuliert.

Googles Gebote waren nicht nur eine Antwort auf militärisch brisante Projekte, sondern auch eine Reaktion auf den 2015 bekannt gewordenen Fall von Jacky Alciné: Alciné und seine Freundin wurden in Google Photos als «Gorillas» ausgewiesen. Dieser rassistische Bias verwies einerseits auf einen lückenhaften Datensatz und andererseits auf ein Diversitäts­problem unter den Programmierern bei Google. Beides sind grundlegende Probleme vieler Digitalkonzerne, wie eine Studie des MIT-Labs herausfand.

Auch die KI-gestützten Gesichtserkennungs-Softwares von IBM, Microsoft und Face++ erkennen vor allem eine Personengruppe besonders gut: weisse Männer. Schwarze Männer wurden dagegen in sechs Prozent, schwarze Frauen fast in einem Drittel der Fälle falsch klassifiziert.

IBM: Fragwürdige Anwendungsgebiete
Auch IBM hat sich deshalb um ethische Richtlinien bemüht und sogar ethnisch-diverse Datensets entwickelt, um Verzerrungen ihrer Software zu beheben. Man wolle besonders in den Bereichen Vertrauen und Transparenz attraktiv bleiben, teilte IBM-Chefin Virginia Rometty der Presse mit: «Jede Organisation, die KI entwickelt oder anwendet oder die Daten speichert oder verarbeitet, muss dabei verantwortungsvoll und transparent vorgehen.»

Dass die Gesichtserkennungssoftware von IBM auf den Philippinen in Rodrigo Dutertes «Krieg gegen die Drogen» eingesetzt wurde, lässt jedoch darauf schliessen, dass ethisch verantwortungsvolles Handeln auch bei einer verzerrungs­freien KI keineswegs garantiert ist. Denn die Schwierigkeiten beschränken sich nicht nur auf das reibungslose Funktionieren des Systems, sondern schlagen sich vor allem in ihrer fragwürdigen Anwendung nieder. Kann eine immer genauere Erfassung der Bevölkerung – gerade von marginalisierten Gruppen – überhaupt wünschenswert sein? Vielleicht sollte man lieber, wie es die Behörden in San Francisco zuletzt entschieden, ganz auf solche Technologien verzichten.

Dass auch Google die Arbeit an einer Suchmaschine für den chinesischen Markt entgegen der Ankündigung wieder aufgenommen haben soll, ist ein weiterer Grund, gegenüber firmeneigenen Prinzipien­katalogen misstrauisch zu werden. Denn sie bestimmen sich keineswegs als kategorische Imperative, sondern als moralisch unscharfe Absichtserklärungen, deren kommerzielle Auslegung maximale Flexibilität verspricht. Man muss so fast zwangsläufig den Worten Romettys zustimmen: «Die Gesellschaft wird entscheiden, welchen Firmen sie vertraut.»

Microsoft: Ethikrat ohne Biss
Auch Microsoft führt sich seit einem Jahr den Werten der «Transparenz», «Diskriminierungsfreiheit», «Zuverlässigkeit», «Barrierefreiheit», «Verantwortlichkeit» und des «Datenschutzes» verpflichtet. Um solche Richtlinien aber nicht nur als hübsch anzuschauendes, aber letztlich bedeutungsloses Prospekt­material wirken zu lassen, etablierte man dazu ein Ethikgremium, das AI and Ethics in Engineering and Research (Aether) Committee, das die Entwickler bei moralischen Fragestellungen wie der Gesichts­erkennung und autonomen Waffensystemen berät.

Das Komitee darf der Öffentlichkeit allerdings keine Auskünfte geben. Über seine Arbeitsweise ist kaum etwas bekannt – was man weiss, bleibt auf die Aussagen der Verantwortlichen beschränkt. Diese bringen selten Licht ins Dunkel. So gab Eric Horvitz, Direktor des Microsoft Research Labs, zuletzt stolz – freilich ohne konkrete Zahlen zu nennen – zu Protokoll, dass man wegen der vom Aether Committee geäusserten Bedenken schon etliche Gewinne nicht realisiert habe. Das Komitee habe also Zähne gezeigt.

Ob der Ausschuss wirklich Wirkung zeigt, darf jedoch bezweifelt werden. Denn das Gremium kann, wie die KI-Expertin Rumman Chowdhury kürzlich erklärte, keine Änderungen vornehmen, sondern lediglich Empfehlungen aussprechen. Und so überrascht es nicht, dass sich Microsoft auf dem eigenen Blog für ethische Probleme der KI im Kontext militärischer Projekte zwar sensibilisiert zeigt, trotz Mitarbeiter­protesten aber weiterhin mit dem US-Verteidigungs­ministerium zusammenarbeiten will: «Wir können diese neuen Entwicklungen nicht adressieren, wenn sich die Leute im Tech-Sektor, die am meisten über die Technologie wissen, aus der Debatte zurückziehen.»

So werden ethische Ideale bei Microsoft zwar prinzipiell verbrieft, erscheinen häufig allerdings als grobe Schattenrisse. Solange Expertenräte im Verborgenen und ohne Weisungs­befugnis agieren, bleibt die «angewandte Ethik» der Technologie­konzerne nichts als ein loses Lippen­bekenntnis.

Google: Die falschen Partner
Neben den geplanten Intransparenzen verweist häufig vor allem die Struktur der Ethikräte auf bedenkliche Soll­bruchstellen. Ihre Zusammensetzung folgt zwar meist dem hübschen Grundsatz der «Interdisziplinarität», besticht aber nur selten mit ethischer Qualifikation.

Dass dies ein Problem ist, musste jüngst auch Google erfahren. Ein achtköpfiges Advanced Technology External Advisory Council sollte ab April für die KI-Entwicklung prüfen, ob die selbst veranschlagten Werte wirklich mit Leben gefüllt werden. Noch vor der ersten Sitzung wurde der Rat wieder ausgesetzt, weil Teile der Belegschaft gegen die Besetzung des Gremiums protestierten und sowohl Dyan Gibbens, CEO des Drohnen­herstellers Trumbull, als auch Kay Coles James, Präsidentin des neokonservativen Thinktanks Heritage Foundation, verbannt wissen wollten.

Google agiert derweil ratlos – immerhin wolle man, ohne dabei Genaueres zu erklären, «neue Wege gehen», um externe Meinungen einzuholen.

Facebook: Gekaufte Forschung
Wie man die Probleme des fehlenden Fachwissens vermeidet und dabei doch unglaubwürdig wirkt, macht derweil Facebook vor. Auch das soziale Netzwerk will die ethischen Herausforderungen der KI extern bewerten lassen und gründete dazu Anfang Jahr das Institute for Ethics in Artificial Intelligence in Zusammenarbeit mit der TU München. Facebook investiert über 5 Jahre 6,5 Millionen Euro, um «ethische Richtlinien für den verantwortungs­vollen Umgang mit dieser Technologie in Wirtschaft und Gesellschaft» zu entwickeln.

Da bei einer Firma, deren CEO die Nutzer einst als «dumb fucks» betitelte, auch vermeintlich löbliche Bemühungen nach ethischem Make-up aussehen, war es kaum verwunderlich, dass sich schnell Kritik erhob. Diese zielte zumeist auf das Risiko einer gekauften Forschung und antizipierte Interessenkonflikte sowie den moralischen Schaden, den die Universität erleide, wenn sie mit einer solchen Firma «ins Bett gehe».

Christoph Lütge, künftiger Leiter des Instituts, entgegnete, dass man von Facebook unabhängig sei und die Forschung transparent veröffentliche, und verwies dabei auf die «Win-win-Situation», die sich durch die Finanzierung von Facebook für die gesamte Gesellschaft ergebe.

Auch für die ethische Forschung an der TU München gibt es jedoch Grenzen. So erklärte Lütge in einem Interview, dass man die Sorgen der Gesellschaft in puncto künstlicher Intelligenz durchaus adressieren werde – aber auch, dass Ethik dies «besser leisten [kann] als juristische Regulierung».

Genau an dieser Stelle wird die Sache heikel. Denn solange die Unternehmen selbst Richtlinien jenseits allgemeingültiger Gesetze erlassen, sich durch selbst gewählte Räte «selbst» regulieren oder eine «unabhängige» Forschung selbst finanzieren, gärt der Zweifel, ob die ethischen Prinzipien wirklich hinreichend sind; ob sie gewahrt oder überhaupt durchgesetzt werden – oder nicht doch nur eine fleischlose Hülle und damit billige PR darstellen.

EU: Vertrauenswürdige KI
Von den selbst ernannten Weltverbesserern aus dem Silicon Valley ist in Sachen Ethik also kaum Substanzielles zu erwarten. Von dem stilisierten Wording potemkinscher Ethikräte bis hin zu den immer gleichen, gehaltlosen Begriffshülsen wird zwar viel verbales Tamtam gemacht. Aber Konsequenzen, die das eigene Tun wirklich hinterfragen, bleiben meist aus.

Ihre Aufklärungsarbeit wirkt so keinesfalls als «Prinzip Verantwortung» (Hans Jonas), sondern als Akt des vorsorglichen ethics washing. Geht erneut etwas schief, wird man wenigstens erklären können: Wir haben uns doch bemüht.

Die EU hat das Problem inzwischen erkannt und mit der 52-köpfigen High-Level Expert Group on Artificial Intelligence selbst ein Expertengremium ins Leben gerufen, das seinerseits Richtlinien für die KI erarbeiten sollte.

Das Ergebnis wurde im April vorgestellt – und war ernüchternd. Thomas Metzinger, Professor für Theoretische Philosophie und einer von nur vier Ethikern in der Gruppe, bezeichnete es als «lauwarm, kurzsichtig und vorsätzlich vage». Auf resolute Absagen, etwa zum Einsatz tödlicher autonomer Waffen­systeme, sei auf Drängen der Industrie­vertreter verzichtet worden und so sei die proklamierte «vertrauenswürdige KI» auch nichts weiter als ein schales «Marketing-Narrativ».

Metzingers Fazit: Bindet man die Wirtschaft zu stark in die Diskussion ein, so entsteht bestenfalls «Fake Ethik» – aber kein echter ethischer Fortschritt. Sein Appell: Die Zivilgesellschaft müsse der Industrie die Ethikdebatte wieder wegnehmen, um die Richtlinien selbst weiterzuentwickeln. Aber wie?

Die Aufgaben

Lose Begriffe konnten die Dinge und den Menschen nie allein besser machen. Und Moral predigen, dies wusste schon Friedrich Nietzsche, ist «ebenso leicht, als Moral begründen schwer ist». So gilt es, statt ex post ein paar wohlklingende, aber seichte Prinzipien zu formulieren, früher anzusetzen.

Das heisst, schon in der Ausbildung der Entwickler – die TU Kaiserslautern bietet zum Beispiel den Studiengang Sozioinformatik an – ethische und gesellschafts­politische Fragen aufzuwerfen und Institutionen zu stärken, die jenseits des einschlägigen Lobbyismus Ethik und Digitalität auf einem höheren Niveau verhandeln. Institutionen, die den Diskurs über wirksame Regeln ohne Scheuklappen und falsche Rücksichten forcieren.

Hier sind auch Geisteswissenschaftler gefragt. Ethik, dies wäre das Ziel, darf kein blosses Accessoire bleiben, das das Laisser-faire im digitalen Raum sittsam begleitet oder sanft bemäntelt. Als Praxis beständiger, kritischer Beurteilung sollte es ihre Aufgabe sein, klare Kriterien für die Korridore des Handelns zu entwickeln und damit auch den Rahmen zu bestimmen, an dem sich verbindliche Regularien ausrichten. Tut sie das nicht, verfehlt sie ihr Potenzial und läuft so Gefahr, bedeutungslos zu werden.

Um dies zu vermeiden, gilt es, nicht auf die freiwillige Selbst­regulierung der Tech-Elite zu vertrauen, sondern sich unabhängiger zu erklären, um die Reflexion über die Moral auch mit der Reflexion über die Einrichtung der Welt zu verbinden. Denn wenn die Digitalkonzerne immer mehr Lebensbereiche durchdringen und durch ihre smarten Systeme das soziale Miteinander entscheidend prägen, sollte man diesen Umstand ernst nehmen. Und grundsätzlich darüber nachdenken, ob allein die Techies, Entrepreneure und Ingenieure über die ethischen Dimensionen ihrer Entwicklungen entscheiden sollten – oder ob dies nicht doch ein demokratischer, partizipativer, damit vielstimmiger Prozess sein sollte.

Vielleicht gerieten in der Folge auch wirklich wichtige Fragen auf den Plan: ob, wie und in welcher Geschwindigkeit wir die Geschäfte der Digitalisierung betreiben, in welchen Bereichen wir KI-Systeme wie die Gesichtserkennung überhaupt einsetzen wollen und wie die Regulierung jenseits einer kalenderspruch­haften Verantwortlichkeit ausschauen kann. Wo verlaufen unsere roten Linien?

Auf eine kritische Öffentlichkeit wird es also mehr denn je ankommen. In diesem Sinne: Atmen Sie ruhig ein und aus. Aber zurücklehnen gilt nicht – denn sonst bleiben wir die angesprochenen, allzu vertrauensseligen «dumb fucks».

Die Autoren

Anna-Verena Nosthoff ist Philosophin, politische Theoretikerin und freie Autorin. Derzeit schreibt sie an einer Dissertation über die Kybernetisierung des Politischen und lehrt an der Universität Wien. Felix Maschewski ist Germanist, Wirtschaftswissenschaftler, freier Autor und wissenschaftlicher Mitarbeiter am Institut für Wirtschaftsgestaltung Berlin. Für die Republik schrieben sie bereits über das Silicon Valley, das die Freiheit abschafft, und über den Traum vom Tech-Staat.

Rund 27’000 Menschen machen die Republik heute schon möglich. Lernen Sie uns jetzt auch kennen – 21 Tage lang, kostenlos und unverbindlich: