Wer sind wir? Warum künstliche Intelligenz immer ideologisch ist

Weil hinter jedem algorithmischen Modell bereits ein Modell der Welt steht, gibt es keine neutralen Daten. Das führt dazu, dass Ungerechtigkeit nicht nur wiederholt, sondern verstärkt wird. Die Verzerrungen zu beheben, wird schnell hochpolitisch.

Von Hannes Bajohr (Text) und Benedikt Rugar (Illustration), 06.04.2021

Synthetische Stimme
0:00 / 17:02

Journalismus, der Ihnen hilft, Entscheidungen zu treffen. Und der das Gemeinsame stärkt: die Freiheit, den Rechtsstaat, die Demokratie. Lernen Sie uns jetzt 21 Tage lang kostenlos und unverbindlich kennen:

Seit rund fünfzehn Jahren lautet die Grundidee von Big Tech: Die Welt besteht aus Daten, und Daten sind neutral. Hat man genug Daten, hat man auch ein Bild der Welt – und zwar derart, dass man sich sogar alle Theorien über diese Welt sparen kann. Kurz: Daten sollen Politik überflüssig machen.

Das gilt auch für das, was gerade so heftig diskutiert wird: Postkolonialismus, Gender­forschung, Identitäts­politik. Doch in letzter Zeit wird deutlich, dass sich auch die Tech­branche diesen Debatten nicht entziehen kann. Vor allem da nicht, wo der Daten­glaube bisher die rasantesten Fortschritte gebracht hat: in der Entwicklung künstlicher Intelligenz – oder kurz: KI. Wo KI zu ethisch fragwürdigen Ergebnissen führt, steht nicht nur die angebliche Neutralität von Daten auf dem Prüfstand. Es zeigt sich auch, dass hier der Identitäts­diskurs die besten Argumente für seine Kritik am Status quo erhält.

Algorithmische Ungerechtigkeit

Was heute KI genannt wird, ist eigentlich ein Etiketten­schwindel. Statt menschen­ähnlicher Intelligenz meint man damit eher automatisierte Systeme zur Entscheidung, Klassifikation oder Prognose. Meist arbeiten sie als kleine Helfer im Hinter­grund und erstellen automatische Über­setzungen, schlagen uns Filme auf Netflix vor oder erkennen die Gesichter von Freunden, wenn wir Fotos auf Facebook hochladen. Oft basieren sie auf sogenannten «neuronalen Netzen» und sind, ganz rudimentär, den Synapsen und Neuronen des Gehirns nachempfunden.

Immer aber müssen sie mit Daten trainiert werden – je mehr, desto besser. Der Vorteil: Statt den KI-Systemen aufwendig Regeln über die Welt beizubringen, lernen sie anhand der Daten solche Regeln von ganz allein.

Doch gerade bei selbstlernenden Systemen ist schwer nachzuvollziehen, ob ihre Entscheidungen auch unseren Erwartungen entsprechen. Das Feld der KI-Ethik diskutiert diese Gefahr unter dem Begriff des bias – Verzerrungen, die bestehende Ungerechtigkeit wiederholen oder gar verstärken. So können KI-Systeme nicht nur den Rassismus oder den Sexismus wider­spiegeln, den sie aus den Daten der Welt gelernt haben, sondern ihn auch noch potenzieren und so selbst aktiv Ungerechtigkeit hervorbringen.

Wie solche Ungerechtigkeit aussehen kann, zeigte 2018 eine Studie über Software zur Gesichtserkennung. Die untersuchten Systeme funktionierten bei Schwarzen deutlich schlechter als bei Weissen und bei schwarzen Frauen noch einmal schlechter als bei schwarzen Männern. Das Problem bestand darin, dass die Daten­grundlage – eine grosse Menge Porträts, mit denen das KI-Modell trainiert wurde – nur wenige Fotos schwarzer Menschen enthielt.

Für viele KI-Ethikerinnen bestätigt dieser data bias, schlecht ausgewählte Daten, einen human bias – ein gesellschaftliches Vorurteil, das eine der Grund­thesen identitäts­politischer Theorie ist: Weisse sind ein Standard, Nicht­weisse dagegen eine Ausnahme. Derart trainiert, lautet das Argument, übernimmt das System eine Ungerechtigkeit, die es in der Welt bereits gibt. Es bestätigt in diesem Fall auch nebenbei die These von der sogenannten Inter­sektionalität von Diskriminierung: Schwarze Frauen werden hier gleich doppelt benachteiligt. Der bias der Welt wird im bias der Daten wiederholt.

Mitautorin dieser Studie ist die KI-Ethikerin Timnit Gebru. Im Dezember machte sie Schlag­zeilen, als Google sie überraschend entliess. Gebrus Forderung, bias ernster zu nehmen und die KI-Branche auch anhand identitäts­politischer Überlegungen ethischer zu gestalten, stiess auf Widerstand vor allen in der traditionellen, daten­gläubigen KI-Forschung. Denn für diese ist data bias kein ethisches, sondern nur ein technisches Problem – ein Fall des Prinzips «garbage in, garbage out»: Mit schlechten Daten kommt man zu schlechten Ergebnissen. Und nur weil in diesem Fall die Ergebnisse rassistisch sind, ist es die Welt noch lange nicht.

Für manche, wie den KI-Experten und Bestseller­autor Pedro Domingos, der Gebru auf Twitter heftig angriff, sind die KI-Ethiker in Wirklichkeit eine «woke police», eine linke Moral­polizei, die durch antirassistische Ideologien in die Forschungs­freiheit eingreife.

Zum Interview

Die Wiener Wissenschaftlerin Doris Allhutter erforscht, wie Maschinen menschliche Stereo­type erlernen. Und was man dagegen tun kann: «Plötzlich gehörten für Computer ‹Mexikaner› und ‹illegal› zusammen».

Der toxische Feedback-Loop

Die Lösungs­vorschläge von Domingo und Co. sind technisch. Sie lauten «Skalierung» oder «Kuratierung»: Entweder soll ein noch grösserer Satz an Daten solche Verzerrungen ausschleifen, oder man trainiert das Modell von Anfang an auf gleich viele weisse wie schwarze Gesichter.

Das Problem ist nur, dass diese lange bekannten biases nicht weniger werden: Ganze zwei Jahre nach dieser Studie zog die KI-Bild­verbesserung «Pulse» 2020 Kritik auf sich. Sie kann verpixelte Fotos anhand gelernter Porträts wieder in klare Bilder hochrechnen. Als ein User auf Twitter aber einen verpixelten Obama in das System einspeiste, machte es aus ihm einen weissen Mann – den Standard. Wenn Problem und Lösung bekannt sind, warum hatte sich immer noch nichts verbessert?

Doch selbst bei einem perfekt paritätischen Datensatz bleiben andere Fragen. Was etwa ist mit der Entscheidung, Fotos in männlich und weiblich aufzuteilen? Dass non-binäre oder Transpersonen hier durchs Raster fallen, deutet bereits an, dass nicht allein die Qualität der Input­daten das Problem ist. Es gibt schlicht keine neutralen Daten. Hinter allen KI-Modellen steht bereits ein Modell der Welt, lange bevor ihr Training überhaupt begonnen hat. Und das heisst: Künstliche Intelligenz ist immer ideologisch.

Solche Ideologien – von den ganz normalen Annahmen, die wir alle über die Welt machen, bis hin zu rassistischen oder sexistischen Denkmustern – sind vor allem dort gefährlich, wo KI als besonders neutral, besonders frei von Vorurteilen verkauft wird und Entscheidungen fällt, die reale Konsequenzen für Leben von Menschen haben. Traurige Berühmtheit erlangte «Compas», ein System, das unter anderem in Florida benutzt wird, um abzuschätzen, wie wahrscheinlich Angeklagte rückfällig werden. Die Ergebnisse haben Einfluss auf Entscheidungen über Haft­strafen und vorzeitige Entlassungen.

Die Rückfall­wahrscheinlichkeit berechnet das System anhand von Trainings­daten früherer Fälle, wobei neben Vorstrafen auch soziale und ökonomische Faktoren einfliessen. Doch auf diese Weise werden bereits Benachteiligte weiter benachteiligt. Wer etwa Sozial­hilfe empfängt oder obdachlos ist, gilt bereits als high risk. Das Recherche­netzwerk Pro Publica zeigte, dass «Compas» so über­proportional Schwarze benachteiligt: Das Modell, das aus den Fakten der Vergangenheit Normen über die Zukunft ableitet, hatte gelernt, Schwarze mit Verbrechen zu assoziieren.

Solche Unterdrückungs­effekte kennt die Soziologie schon lange, aber in scheinbar neutralen Systemen sind sie schwer zu erkennen. «Die Frage ist», schreibt die KI-Forscherin Cathy O’Neil über Systeme wie «Compas», «ob wir menschliche Vorurteile eliminieren können oder sie nur hinter Technik verstecken.» Dass strukturell Benachteiligte unter solcher KI besonders leiden, nennt sie einen toxischen Feedback-Loop: Das Modell wiederholt nicht nur, sondern verstärkt den bias der Welt – es wird selbst zu einer Quelle von Ungerechtigkeit.

Plappernde, stochastische Papageien

Auch das Prinzip der Skalierung – mehr Daten bringen bessere Ergebnisse – scheint wenig zu nützen. Google feuerte Gebru aus seinem Ethik-Team für einen Artikel, in dem sie und ihre Mitautorinnen sogenannte grosse Sprach­modelle behandelten. Das sind KI-Systeme, die auf Unmengen von Text trainiert worden sind und so kohärente, korrekte Sätze produzieren können.

Auch hier hat sich bestätigt, dass mehr Daten bessere Performance bedeuten. So machte letztes Jahr das vom KI-Thinktank «Open AI» entwickelte Sprach­modell GPT-3 Furore, weil sein Output sich las, als sei er von einem Menschen geschrieben worden. Dabei folgt GPT-3 demselben Prinzip wie sein sehr viel weniger mächtiger Vorgänger, er ist aber mit zehnmal so vielen Trainings­daten gefüttert worden. Switch-C, das neueste Modell von Google, ist noch einmal grösser.

Um diesen Trend sorgen sich Gebru und ihre Mitautoren: Denn anders als von manchen erhofft, trägt die Grösse des Daten­satzes keineswegs dazu bei, Diskriminierung zu verringern. Das Modell wurde recht wahllos auf Text aus dem Internet trainiert. Dass hier Sexismus und Rassismus nicht selten sind, ist kaum überraschend. Und so produziert auch GPT-3 Sätze, die von jüdischer Welt­­verschwörung bis zu Frauen­hass reichen. Die KI ist eben keine wirkliche künstliche Intelligenz, sondern nur ein plappernder, «stochastischer Papagei», wie die Autorinnen ihren Artikel nennen.

Bias wird also mitskaliert. Dazu kommt, dass bei so grossen Daten­mengen niemand mehr recht weiss, was eigentlich in ihnen steckt. Und weil zukünftige Systeme immer mehr Text für ihr Training benötigen, ist auch hier ein toxischer Feedback-Loop zu erwarten, wenn sie mit bereits von KIs generiertem Text gefüttert werden. Die Folge, so der Artikel, sei ein ethisches «Einrasten», das keine progressive Veränderung mehr zulasse, weil jede linguistische Neuerung immer nur einen verschwindend geringen Anteil an der Textmenge ausmacht. Das Modell ist strukturell konservativ.

Und der Skalierungs­fetisch bringt noch andere Ungerechtigkeiten hervor. Das Training eines solchen Modells ist mit einem enormen Energie­aufwand verbunden – das 55-Fache des durch­schnittlichen Jahres­verbrauchs einer einzelnen Person, wie die Autoren vorrechnen. Da die Performance der Modelle nicht linear anwachse, sondern für immer kleinere Zugewinne immer mehr Energie aufgewandt werden müsse, seien Sprach­modelle schon bald mittelbare Faktoren im Klima­wandel. Und der treffe vor allem den globalen Süden: Wieder wird bestehende Ungerechtigkeit weiter verstärkt.

Eine Welt aus Wörtern

Was es einigen in der KI-Szene so schwer macht, solche ethischen Fragen zu diskutieren, ist nicht allein die Hoffnung, genug Daten würden auch die Welt abbilden. Vielmehr spielt derselbe Kultur­kampf eine Rolle, der auch in Europa stattfindet und in dem Gender­sternchen und Anti­diskriminierung tiefe Gräben aufreissen, aber der seit Jahren eigentlich keine neuen Argumente mehr hervorbringt. Sich auf biases einzulassen, hiesse nämlich auch zuzugeben, dass es Punkte gibt, bei denen die «woke police» nicht ganz unrecht hat – und die sich nun sogar auch ganz konkret nachweisen lassen.

Das betrifft zuallererst die These, dass Ungerechtigkeiten miteinander verschränkt sind, dass sie Komplexe bilden, in denen am Ende diskriminierende Sprache auch etwas mit Klima­gerechtigkeit zu tun hat. In solchen sozio­politischen Beziehungs­geflechten sind rein technische Lösungen nicht nur unzureichend, sondern würden mit einem Mal sehr viel mehr kosten als der Image­gewinn, den ein eigenes Ethik-Team mit sich brächte. Wenn Gebru fordert, bei jeder Investitions­entscheidung künftig immer die Folgen für die am meisten Marginalisierten einzubeziehen, ist klar, warum sie Google verlassen musste.

Aber auch andere identitäts­politische Grund­annahmen scheinen sich zu bestätigen. Gerade bei Sprach­modellen wird das deutlich. In einem Kommentar auf «Heise» wies Autor Wolfgang Stieler darauf hin, dass Aktivistinnen für soziale Gerechtigkeit von einer konstruktivistischen Sicht auf die Welt ausgehen: Wörter bilden Wirklichkeit nicht bloss ab, sondern schaffen sie erst. So macht das generische Maskulinum andere Geschlechter unsichtbar, und das N-Wort führt historische Verletzung fort, selbst dann, wenn das in beiden Fällen nicht intendiert sein mag. Darüber wird im Moment heftig gestritten. Bei Sprach­modellen wie GPT-3 aber, schreibt Stieler, «trifft diese Theorie hundert­prozentig zu. Sprache prägt ihr Verständnis von der Welt. Wörter und Sätze bilden für die KI die Basis für Zusammen­hänge und Beziehungen zwischen den Dingen.»

Zuzugeben, dass nun technisch zumindest plausibel wird, was identitäts­politische Theorie und antirassistische Aktivisten immer behauptet haben, heisst für viele, über ihren eigenen Schatten zu springen. Und neben bloss welt­anschaulichem Abscheu bereiten auch die praktischen Lösungen Bauch­schmerzen. Denn wenn alle KI ideologisch ist, kann der Ausgleich eines bias nur durch einen wiederum ideologischen Eingriff geschehen. Wie aber sähen «besser kuratierte Daten» genau aus? Welche Texte würden aussortiert, welche stärker gewichtet? Ist das nicht die Umerziehung, die von konservativer Seite so gern an die Wand gemalt wird? Und würde ein Sprach­modell, das keine sexistische und rassistische Sprache kennt, nicht eine ganz andere Welt widerspiegeln als die unsere?

Datenpolitik

Hier wird es für viele heikel: Wenn KI aus Daten der Vergangenheit Handlungs­anweisungen für die Zukunft schliesst, dann muss man, will man biases beseitigen, sie mit einem Idealbild der Wirklichkeit füttern. Kuratierung von Daten heisst dann zu formulieren, in welcher Welt wir leben möchten. Und das ist, so weit haben kritische Stimmen wie Domingos recht, eine immens politische Frage.

Unrecht haben sie, wenn sie meinen, es gebe auch neutrale Kuratierung, oder wenn sie gar sagen, dass nichts zu tun unpolitisch wäre. Denn dass KI-Modelle nicht neutral sind, ist kaum zu bestreiten: Der private Thinktank Open AI, der auch GPT-3 entwickelt hat, zeigte in einer Analyse, dass sein jüngstes Modell ein eigenes Neuron ausgebildet hatte, das gleichermassen auf «Islam» und auf «Terrorismus» anspringt.

KI-Systeme codieren gesellschaftliche Visionen. In welcher Welt wir leben wollen, sollte aber in öffentlichen, demokratischen Prozessen ausgehandelt, nicht von privat­wirtschaftlichen Unter­nehmen festgelegt werden. Das leisten auch interne Ethik-Abteilungen nicht, die bei Markt­zwängen immer nachgeben müssen. Öffentliche Proteste bringen ebenfalls wenig, wenn es keine Mittel gibt, im Zweifels­fall gegen solche Produkte wirksam Einspruch zu erheben oder sie zu verbieten.

Statt unverbindlicher Ethik­richtlinien braucht es eine Gesetz­gebung, wie sie die EU angekündigt, aber noch nicht umgesetzt hat. Dazu gehört als letztes, extremes Mittel auch die Vergemeinschaftung: Sollten KI-Modelle zu einem übermächtigen Ort von Gesellschafts­entwürfen werden, spricht nichts dagegen, sie tatsächlich öffentlicher Kontrolle zu unterstellen, indem man sie in die öffentliche Hand überführt.

Diese Optionen auszuhandeln, ist aber zuallererst Aufgabe der Zivil­gesellschaft und der öffentlichen Debatte. Einen wichtigen Beitrag leisten NGOs wie «Our Data Bodies», die die Öffentlichkeit auch gegen Lobby­stimmen aufklären. In Europa ist «Algorithm Watch» Vorreiter: Neben ihrem Grundsatz­report «Automating Society» (für Deutschland und die Schweiz) über den zunehmenden Einfluss automatisierter Entscheidungs­systeme hat die Organisation auch die Website Unding.de ins Leben gerufen: Sie hilft Betroffenen, die Opfer solcher Systeme wurden, bei den Unter­nehmen gezielt Einspruch zu erheben, solange es keine klaren, rechtlich gesicherten Beschwerde­wege gibt.

In diesem Kontext könnten auch die festgefahrenen Feuilleton­debatten über identitäts­politische Theorie und ihre Gegner wieder konkreter werden, statt schon tausendfach gehörte Argumente aufzuwärmen. Und wenig ist konkreter als Folgen, die sich ergeben, werden die Ideologien beider Seiten tatsächlich technisch implementiert. Denn Ideologien sind es allemal. Sie durchziehen Daten und technische Systeme – Neutralität gibt es hier nicht.

Weicht man dieser Debatte aus, mag man sich weiter genüsslich über die politisch korrekte Sprach­polizei echauffieren. Aber die Entscheidung über das Bild der Welt, das uns KI-Systeme dann zeigen, fällt anderswo – bei Google, in Mountain View.

In einer früheren Version waren Links fehlerhaft gesetzt, wir entschuldigen uns für diesen Fehler.

Zum Autor

Hannes Bajohr studierte Philosophie, deutsche Literatur und neuere und neueste Geschichte. Er ist Junior Fellow am Collegium Helveticum, dem Institute for Advanced Studies der ETH Zürich, der Universität Zürich und der Zürcher Hochschule der Künste.

Rund 27’000 Menschen machen die Republik heute schon möglich. Lernen Sie uns jetzt auch kennen – 21 Tage lang, kostenlos und unverbindlich: