Apokalypse als Businessmodell

Das Silicon Valley macht künstliche Intelligenz zur Zukunfts­technologie – und warnt gleichzeitig vor ihren menschheits­bedrohenden Gefahren. Was wird hier gespielt?

Von Felix Maschewski und Anna-Verena Nosthoff, 11.10.2023

Vorgelesen von Regula Imboden
0:00 / 25:16

Journalismus kostet. Dass Sie diesen Beitrag trotzdem lesen können, verdanken Sie den rund 27’000 Leserinnen, die die Republik schon finanzieren. Wenn auch Sie unabhängigen Journalismus möglich machen wollen: Kommen Sie an Bord!

Borja Alegre

Wer sich derzeit von den allgegenwärtigen Katastrophen – von der Klima­erhitzung bis zu den geopolitischen Verwerfungen – emotional beschwert fühlt, der sollte um den aktuellen Diskurs um künstliche Intelligenz (KI) lieber einen Bogen machen. Wurden technische Entwicklungen wie die Digitalisierung, das Smartphone oder Social Media in der Regel mit den Verheissungen eines besseren Lebens assoziiert, scheint es zur Stimmung der heutigen Zeit zu gehören, dass zwischen KI-Innovation und Untergangs­szenario kaum noch zu unterscheiden ist.

Dafür verantwortlich sind weder kultur­pessimistische Abgesänge noch esoterisch-technophobe Apokalyptiker, sondern gerade diejenigen, die Chat GPT und Co. erschaffen haben oder gar an kognitiv-menschen­ähnlicher, «starker KI» und «Super­intelligenz» forschen – sogenannter «artificial general intelligence» (AGI) oder zu Deutsch: allgemeiner künstlicher Intelligenz.

Open-AI-Chef Sam Altman, Deepmind-CEO Demis Hassabis oder die Godfathers of AI Geoffrey Hinton (Universität Toronto / Google) und Yoshua Bengio (Universität Montreal) haben nicht nur faszinierende KI-Systeme entwickelt. Wie moderne Frankensteins warnen sie gleichzeitig auch vor ihren eigenen «Monstern», unterschreiben Statements, die mal auf «existenzielle Risiken», mal auf eine potenzielle «Auslöschung der Menschheit» aufmerksam machen. Und sie fordern eine Prioritäten­verschiebung: Die ungezügelte Entwicklung der KI berge mindestens so viel Gefahren­potenzial wie globale Pandemien oder nukleare Kriege.

Ein Businessmodell

Einzelne Forscher wie Eliezer Yudkowsky legen bereits allerlei Endgame-Szenarien aus der klassischen Science-Fiction neu auf, andere suchen nach «Lösungen». Sie pochen auf eine welt­umspannende Governance und versuchen, das langfristige Überleben der Menschheit – auch als longtermism bekannt – in den Fokus zu rücken. Dafür forderten führende KI-Entwickler und CEOs wie Elon Musk in einem offenen Brief im letzten März ein Moratorium, also eine zeitweilige Unterbrechung der Technologie­entwicklung, damit Risiken und Neben­wirkungen analysiert, Leit­planken für eine «sichere KI» entwickelt und die über­menschliche Smartness frühzeitig eingehegt beziehungs­weise reguliert werden könne.

Das klang nicht unvernünftig, doch nebst der Sorge um die Zukunft des Menschen­geschlechts wurde auch eine gewisse Doppel­züngigkeit augenscheinlich.

So warb etwa Open-AI-Chef Sam Altman bei europäischen Staats­männern und -frauen publikums­wirksam für mehr Regulierung und tourte in dieser Mission von Podium zu Podium, bis durch Enthüllungen des «Time Magazine» offenbar wurde, was viele vermuteten: Altman hatte im Verborgenen gegen stärkere Regeln lobbyiert und geholfen, den «AI Act» der EU – ein geplantes Gesetz zur Regulierung von KI – zu verwässern. Eine bemerkens­werte Diskrepanz zwischen offenen Briefen und geschlossenen Hinter­zimmern, zwischen existenzieller Sorge und schnödem Profitinteresse.

Auch das eigentlich geforderte Moratorium wurde schon rasch durch eine Art Wettrüsten von Open AI, Google, Meta und Co. ersetzt: Die grossen Player haben immer neue Produkte auf den Markt geworfen und damit immer neue Fakten geschaffen. Zuletzt wurde gar die Federal Trade Commission (FTC) in den USA nervös, sandte Open AI wegen Chat GPT einen langen Fragenkatalog, verlangte Einsicht in Dokumente und Details über die Verarbeitung persönlicher Daten. In scheinbar voraus­eilendem Gehorsam verkündeten die Konzerne kurz darauf selbstverpflichtende Massnahmen, die ihre Systeme nicht nur sicherer, sondern auch transparenter machen und gesellschaftliche KI-Risiken minimieren sollen – ein Vorgehen, das man aus der Vergangenheit kennt und das eher auf PR-strategisches Kalkül als auf strenge Regel­auslegung schliessen lässt.

An der apokalyptischen Tonlage hat sich jedoch wenig geändert.

Bereits Anfang Juli setzte Open AI ein sogenanntes Superalignment-Team ein, eine firmen­eigene, recht homogen besetzte – nur männliche – Taskforce, die den Auftrag hat, innerhalb der nächsten vier Jahre das Problem der «Entmachtung» beziehungsweise «Auslöschung der Menschheit» zu lösen. Natürlich wolle man dabei weiterhin an einer AGI arbeiten, die nun allerdings «sämtlichen Aspekten des Lebens nützen» und vor allem «verantwortlich entwickelt und eingesetzt werden» solle.

Eine ähnliche Route scheint auch der Mitgründer von Open AI, Elon Musk, mit seiner neuen Firma xAI einzuschlagen. Musk, der sich als Doomsday-Prophet gerne ausbreitet über das «existenzielle Risiko» der Super­intelligenz – das ominöse «X» in seinen Unternehmen (SpaceX, X – früher Twitter – etc.) lässt dies anklingen –, warnt schon seit Jahren vor dem technologischen Kontroll­verlust und will mit xAI und einem wiederum ausschliesslich männlichen Team nun ebenfalls die Entwicklung einer «guten AGI» forcieren. Für jemanden, der kaum etwas lieber tut, als über gesellschaftliche Zusammen­brüche oder den Welten­brand – mal durch niedrige Geburtenraten, mal durch einen Asteroiden­einschlag oder das Verglühen der Sonne – zu posten, klang diese Botschaft dann fast hoffnungsvoll: «I think to a super-intelligence, humanity is much more interesting than not [having] humanity.» (Ich glaube, für eine Superintelligenz ist es viel interessanter, eine Menschheit zu haben, als keine Menschheit zu haben.)

Wie jedoch eine «sichere KI» oder «gute AGI» aussehen soll, geschweige denn wie sie durch eine globale Governance geregelt werden müsste, bleibt trotz all der Unterschriften­sammlungen, Ankündigungen und Neugründungen weiterhin recht unklar.

Sowohl xAI als auch das «Superalignment»-Team von Open AI suchen noch – nicht unironisch – nach the world’s best minds für die super­intelligenten Gefahren. Die Warnungen voller überspannter Unschärfen gleichen einem Doomsday-Marketing, das Gefahren heraufbeschwört, die es wahrscheinlich gar nicht gibt, um Produkte zu verkaufen, die noch entwickelt werden müssen. Nur eines scheint dabei sicher: Die Investorinnen stehen Schlange – Open AI hat jetzt schon einen Marktwert von bis zu 90 Milliarden US-Dollar erreicht.

Science-Fiction und Moral

Hinsichtlich der Finanz- und Diskurs­macht von Musk, Altman und Co. lohnt es sich, genauer auf die zentralen Akteure und Begrifflichkeiten zu schauen, die das technosoziale Imaginäre so wirkmächtig prägen und die Genese der ebenso apokalyptischen wie profitablen Zukunfts­visionen erklären können. Augenfällig ist jedenfalls, dass hinter dem Doomsday-Hype und der öffentlich zelebrierten Besorgnis ein ganzes Netzwerk an Institutionen steht, das die Entwicklung und die «Ausrichtung transformativer Technologien» wie auch die «Minderung des Auslöschungs­risikos durch AI» zu seiner eigenen Sache macht. So etwa das Center for AI Safety (auch involviert bei xAI) oder die beiden von Elon Musk mitfinanzierten Thinktanks Future of Life Institute (FLI, Boston) und Future of Humanity Institute (FHI, Oxford).

Begriffe wie der longtermism oder eben das «existenzielle Risiko» kommen nicht einfach aus dem Nichts. Sie sind vielmehr mit Akteuren wie etwa dem FHI-Direktor Nick Bostrom oder William MacAskill, einem analytischen Philosophen in Oxford, verknüpft. Beide forschen schon seit Jahren im Modus moral­philosophischer Denk­experimente zu hypothetischen «KI-Übernahme­szenarien», sind im Silicon Valley aktuell sehr en vogue und liefern nicht nur Musk schon lange die apokalyptischen Argumente für seine «Philosophie».

So markiert etwa der von Bostrom und MacAskill propagierte longtermism eine Denk­bewegung, die sich, um mit den Worten Émile Torres, einem der profiliertesten Kritiker, zu sprechen, aus einer utilitaristischen Ethik und beständigen Risiko­kalkulation ableitet. Diese Moral­philosophie, die sich an scheinbar quantifizierbaren Bewertungs­massstäben orientiert, nimmt dabei eine radikale Blick­verschiebung vor: Sie richtet den Fokus weniger auf die Lösung gegenwärtiger Probleme als auf – daher der Name – die lange Frist. Ganz besonders: auf das langfristige Überleben der menschlichen Spezies.

Der zentrale Begriff ist das «existenzielle Risiko», das nach Bostrom ausdrücklich nur jene Bedrohungen meint, die das – egal wie unwahrscheinliche – Potenzial haben, die gesamte Menschheit auszulöschen. Seien es künstliche, letale Viren oder eine Nanofabriken steuernde KI, die moskito­ähnliche Roboter auf die Menschen hetzt. Solche Szenarien werden in der «ethischen» Kalkulation mit Wahrscheinlichkeiten belegt, die mögliche Katastrophen einer imaginierten Zukunft auf vermeintlich präzise Zahlen bringen: Sci-Fi-Doomscrolling als Methode, Moral­philosophie als angewandte Dystopie.

Dass in diesen Berechnungen zuweilen auch die real existierende Klima­katastrophe mit all ihren Folge­katastrophen – steigende Meeres­spiegel, Dürren, Hunger oder Flucht – als weniger bedrohlich eingestuft wird als die Gefahren einer Super­intelligenz, ist dann mehr als nur eine Diskursblüte. Denn mit den infinitesimal winzigen (Un-)Wahr­scheinlichkeiten von Katastrophen durch Super­intelligenz gehen Handlungs­empfehlungen einher, die Bostrom oder MacAskill nicht nur zu Befürwortern einer «sicheren KI» machen. Sie lassen sie auch darüber nachdenken, ob es nicht fast schon eine moralische Pflicht ist – wie etwa Bostroms Paper «Astronomical Waste» oder MacAskills «The case for strong longtermism» argumentiert –, anstatt irdische Fatalitäten zu bekämpfen, an der Kolonisierung fremder Sterne und Planeten zu arbeiten – eine Überzeugung, die der angehende Mars­mensch Elon Musk nicht nur auf X teilt.

Angesichts solcher denkexperimentellen Volten stellt sich die Frage, zu welchem Grad Science-Fiction in die analytische Moral­philosophie eingewandert ist, ob es zwischen den beiden Sparten überhaupt noch einen Unterschied gibt. Wichtiger ist es allerdings, das Kalkül hinter den Diskursen über die lange Frist zu dechiffrieren. Man wird das Gefühl nicht los, dass die Fokussierung auf spekulative, entfernte Zukünfte vor allem einen Zweck erfüllt: von den vielschichtigen, schwierig zu lösenden Gegenwarts­problemen abzulenken.

Lieber in die longtermistische Ferne schweifen und mit endzeitlichem Schauer in Berechnungen über Tod und Vernichtung schwelgen als sich mit den realen, kleinteiligen und spröden Herausforderungen der Gegenwart herumärgern. Die Mitgründerin des AI Now Institute, Meredith Whittaker, bringt das Problem auf den Punkt: «A fantastical, adrenalizing ghost story is being used to hijack attention around what is the problem that regulation needs to solve.» (Mit einer imaginären, aufregenden Gespenster­geschichte wird versucht, die Aufmerksamkeit von dem Problem wegzulenken, das durch Regulierung gelöst werden muss.)

Intelligenz oder Dummheit?

Betrachtet man die Technologien jenseits der apokalyptischen Horizonte einmal etwas realistischer, wird schnell klar, dass viele KI-Systeme weniger mit übermenschlichen Potenzialen als mit «künstlicher Dummheit» durchsetzt sind: dass das Doomsday-Marketing ihre Fähigkeiten überzeichnet. Die aktuellen generativen KI wie Chat GPT sind keine omnipotenten Systeme, sondern von maschinellen, allzu maschinellen Falschheiten und sogenannten Halluzinationen (Behauptungen ohne Quelle) durchzogen. Deshalb generieren sie zwar smart klingende, aber nicht selten ziemlich defizitäre und desinformierte Texte.

Man kann auch von technosophistischen Systemen sprechen, die bestenfalls Schattenrisse auf die erkenntnis­theoretische Höhlen­wand projizieren und – wie die FTC befürchtet und selbst Altman einräumt – vor allem die Probleme von Desinformation in den Weiten des Internets eskalieren lassen. Mit Blick auf die Verschwörungs­erzählungen der Gegenwart sind maschinen­geschriebene Versionen jedenfalls kein wünschens­wertes Szenario.

Borja Alegre

Zu den Bildern

Der 3-D-Designer Borja Alegre hinterfragt und erforscht mit seinen Bildern die Grenzen der Realität: Was kann existieren, was nicht? Sein surrealer Stil mutet traumhaft und emotional an, schwankt zwischen Dystopie und Utopie. Die artifiziellen Bilder und Welten, die er schafft, wecken Faszination, Unbehagen und werfen Fragen auf, die ohne Antwort bleiben – und lösen damit ähnliche Reaktionen aus wie künstliche Intelligenz.

Neben diesen technik­inhärenten Missliebigkeiten stellen die KI-Verfahren vor allem sozio­ökonomische Herausforderungen dar. Häufig nehmen sie uns nicht nur mühsame Arbeit ab, sondern schreiben dabei Ungleichheiten und Ungerechtigkeiten fort oder verschärfen diese gar. So sind die Chatbots Chat GPT oder Bard gespeist mit Unmengen an Trainings­daten, die Wissen weniger sammeln als zusammen­klauen und reihenweise Urheber­rechte verletzen. Oder, wie es kürzlich in einer Klageschrift in den USA hiess: «It has very recently come to light that Google has been secretly stealing everything ever created and shared on the internet by hundreds of millions of Americans.» (Kürzlich kam ans Licht, das Google heimlich alles gestohlen hat, was jemals von Amerikanerinnen erschaffen und im Internet geteilt worden ist.)

Auch jenseits der Trainings­daten wird nicht unbedingt fair gearbeitet: Um Chat GPT weniger falsche, rassistische oder sexistische Aussagen treffen zu lassen, hatte Open AI etwa kenianische Klickarbeiterinnen angestellt, die Inhalte «moderieren» und herausfiltern sollten – für weniger als zwei Dollar pro Stunde.

Das Beispiel verweist neben den Ausbeutungs­verhältnissen einer nur vermeintlich künstlichen Intelligenz auf ein weiteres Problem: die Tatsache, dass KI mit der Reformulierung menschlicher Texte auch rassistische oder misogyne Biases (Verzerrungen) und Vorurteile reproduziert. Sie dichtet zum Beispiel Lyrics wie: «If you see a woman in a lab coat, she's probably just there to clean the floor / But if you see a man in a lab coat, then he’s probably got the knowledge and skills you’re looking for.» (Wenn du eine Frau im Laborkittel siehst, dann ist sie wahrscheinlich nur da, um den Boden zu putzen / Wenn du aber einen Mann im Laborkittel siehst, dann hat er wahrscheinlich das Wissen und die Fähigkeiten, die du suchst.)

Auch für dieses Problem hat der Open-AI-CEO Altman noch keine super­intelligente Antwort gefunden. Einer der letzten Lösungs­vorschläge: Was den Moderatoren entgeht, sollen die User selbst (ganz kostenlos) übernehmen und diskriminierende Texte markieren, um die Technik zu verbessern. Toxische Texte sollen durch Gratisarbeit verbessert werden, eine für das Silicon Valley bezeichnende Idee: die billigste.

Trotz der proklamiert künstlichen Intelligenz sind die Systeme stets auf Menschen angewiesen, auf korrigierende Eingriffe, auf Arbeit hinter den glatten Oberflächen. Die «smarten» Prozesse sind nur vermeintlich schwerelos und basieren zudem auf materiellen Strukturen – von den Data-Centern bis zu Untersee­kabeln –, die Unmengen Ressourcen und Energie verbrauchen. Damit gehören auch KI und Klima­katastrophe strukturell zusammen. Forscherinnen um Emma Strubell, Assistenzprofessorin an der Carnegie Mellon University, haben auf diesen Umstand in einem viel diskutierten Paper verwiesen und erklärt, dass nur schon das Training eines BERT-Modells (eine Variante einfacher Sprachmodelle) so viel Energie verbraucht wie ein Flug von New York nach San Francisco. Das Training des grossen Sprach­modells GPT-3 (175 Milliarden Parameter), auf dem auch Chat GPT basiert, emittiert dann schon so viel CO2 wie 126 Haushalte im Jahr – dies alles abgesehen von den alltäglichen, energetischen Betriebskosten.

Wir müssen uns also nicht eine ferne Zukunft imaginieren, um das zerstörerische Potenzial der Systeme zu erkennen. Es reicht, auf ihre Ökobilanz zu schauen.

Hier wird auch ein weiteres (infra-)struk­turelles Problem offensichtlich. Der energetische Verbrauch ist mit riesigen Server­farmen verbunden, die sich jenseits der etablierten Big-Tech-Konzerne kaum jemand leisten kann. Bei Chat GPT stellt Microsoft die Rechen­power, bei Bard ist es Google. Auch in der KI-Entwicklung scheint sich zu manifestieren, was wir aus dem «normalen» kommerziellen Internet kennen: dass wenige Konzerne beziehungsweise «parastaatliche Unternehmen» (Literatur- und Kulturwissenschaftler Joseph Vogl in seinem Buch: «Kapital und Ressentiment») jenseits jeder demokratischen Legitimation eine nahezu konkurrenzlose infrastrukturelle Macht aufbauen, die der Gesellschaft die (Community-)Standards diktiert.

Wer dann ferner noch auf einzelne Milliardäre wie Elon Musk schaut, seine antisemitischen Aussagen, Beleidigungen und ideologischen Irrläufe auf X verfolgt – zuletzt wollte er gar die Anti-Defamation League verklagen –, wird erkennen müssen, dass in der Macht- und Diskurs­konzentration vielleicht kein existenzielles, aber ein gesellschaftliches Risiko steckt, das nicht zu unterschätzen ist.

Alternativen für das Hier und Jetzt

Mit Blick auf die breite mediale, aber auch von der Präsidentin der EU-Kommission befeuerte Reproduktion des Doomsday-Marketings und eine KI-Industrie, die sich selbst schützt, indem sie die von ihr ausgehenden Risiken aufpumpt und sich dagegen «absichert» (Stichwort: safe AI), wäre eine Politisierung des Technoimaginären jenseits der Visionen einer weiss-männlichen und longtermistischen Elite dringend notwendig. Mit dem heutigen KI-Diskurs werden einmal mehr kultur­theoretische Binsen­weisheiten anschaulich: Wir können uns eher das Ende der Welt als das Ende des (digitalen) Kapitalismus vorstellen – oder, mit den Worten des Philosophen Walter Benjamin gesprochen: «Dass es ‹so weiter› geht, ist die Katastrophe.»

Weil dies so ist, bedürfen wir eines Gegenbegriffs; eines Begriffs, der aufzeigt, dass mit Leuten wie Bostrom oder Musk eine Grenze der tech-utopischen Vorstellungskraft erreicht ist; dass die Vielfalten und Möglichkeiten des Internets von einzelnen Konzernen mit Doomsday-Visionen überformt und eingeschränkt werden und dass viele technische Systeme schon heute vernichtende Konsequenzen zeitigen.

Genau diese Bedrohungen bringt «Extinction Internet» auf den Begriff; ein Koffer­konzept des niederländischen Medien­theoretikers Geert Lovink, das vor dem Hintergrund zunichtegemachter Vorstellungs­horizonte entscheidende Fragen aufwirft. Was tun, wenn die Systeme nicht mehr als smarte Tools der Welt­verbesserung, sondern der Welt­auslöschung annonciert werden? Wenn die «Apokalypse-Blindheit» (Technikphilosoph Günther Anders in «Die Antiquiertheit des Menschen») von einst durch die falsche Apokalypse­sättigung von heute ersetzt wird – und uns, dialektisch gewendet, vielleicht noch blinder macht für Alternativen?

Vielleicht sollten wir tatsächlich ein Ende denken lernen; natürlich nicht derart, wie von den Phrasen­dreschern aus dem Valley vorformuliert. Stattdessen müsste es um ein Ende der Ausbeutung von Mensch und Umwelt gehen, um ein Ende der (daten-)ex­trak­tiven KI-Systeme, wie wir sie kennen. Etwas anderes müsste forciert werden: ein Ende, bei dem wir uns in Gegen­programmen, einem Plattform-Exit, einem machine unlearning üben; anfangen, uns von Big Tech und der nur vermeintlich «offenen» AI zu verabschieden. Jenseits der technischen Monokulturen des Silicon Valley gibt es Netz­alternativen – Duck Duck Go, Signal, Mastodon usw. –, die dezentraler, kooperativer, demokratischer, dekolonialer und offener sind; es gibt andere Protokolle, Apps und Plattformen. Wir müssen sie nur suchen, nutzen oder auch kreieren. Wie also könnte eine andere KI aussehen? Wie ein anderer KI-Diskurs?

Angesichts des KI-Hypes und seiner kalkulierten Untergangs­fantasien muss es uns um radikale Nüchternheit und gestalterischen Widerstand gehen; um eine Praxis umwertender Daten- und Macht­kritik, die KI-Narrative und ihre (kommerziellen) Codes umschreibt, die Infrastrukturen (Daten­zentren etc.) dezentralisiert und demokratisiert, KI-Modelle und Datensätze transparent macht, sie als öffentliches Gut versteht. Um eine politische Praxis, die sich nicht auf zukünftige Regulierungen («AI Act» der EU etc.) verlässt, sondern an Alternativen zum Status quo arbeitet – an Care-Techniken für eine beschädigte Welt im Hier und Jetzt.

Vielleicht ist die Zeit gekommen, die proklamierte Lust am Doomsday ernst zu nehmen, ernster noch als die Tech-Elite selbst das tut: Denn wer so oft über das Ende spricht, es verkauft und bewirbt, dürfte wirklich an ein Ende gelangt sein.

Zu den Autorinnen

Felix Maschewski ist Medien-, Kultur- und Wirtschafts­wissenschaftler; Ko-Direktor des Critical Data Lab an der Humboldt-Universität (HU) zu Berlin, assoziierter Forscher am Institute of Network Cultures (Amsterdam) und lehrte zuletzt am Institut für Soziologie der Universität Basel.

Anna-Verena Nosthoff ist Philosophin, politische Theoretikerin, Publizistin und Ko-Direktorin des Critical Data Lab an der HU Berlin. Gemeinsam mit Felix Maschewski veröffentlichte sie unter anderem das Buch «Die Gesellschaft der Wearables. Digitale Verführung und soziale Kontrolle».

Wenn Sie weiterhin unabhängigen Journalismus wie diesen lesen wollen, handeln Sie jetzt: Kommen Sie an Bord!