Malen nach 0 und 1

Künstliche Intelligenz wird immer häufiger als Technik in den bildenden Künsten eingesetzt. Das eröffnet neue Möglichkeiten, kratzt aber auch am Selbst­verständnis von Künstlerinnen und Kunstkritikern.

Von Hannes Bajohr, 07.05.2022

Die Republik ist ein digitales Magazin für Politik, Wirtschaft, Gesellschaft und Kultur – finanziert von seinen Leserinnen. Es ist komplett werbefrei und unabhängig. Lösen Sie jetzt ein Abo oder eine Mitgliedschaft!

Versteigert für 432’500 Dollar: «Edmond de Belamy», der wie seine Familienmitglieder … Obvious
… Madame de Belamy und … Obvious
… Le Duc de Belamy vom Computer erstellt wurde. Obvious

Künstliche Intelligenz ist längst in der Kunstwelt angekommen. Kaum eine Ausstellung von Gegenwarts­kunst, die nicht ein KI-Werk beinhalten würde, kaum eine Kunst­hochschule, an der neben Videoschnitt oder Lithografie nicht auch KI-Verfahren gelehrt würden. Damit hat aber auch ihr Neuigkeits­wert nachgelassen, und Künstlerinnen müssen sich Gedanken machen, wie genau diese Technik eigentlich eingesetzt werden soll.

Die Kunst­kritik gerät dabei mit der Welt der Technik ebenso aneinander wie mit dem Kunst­markt. Es geht um den Sinn von Kunst, ihre Ein- und Ausschluss­mechanismen, aber auch darum, wie kritisch Kunst sein muss und wie unkritisch sie sein darf.

KI als Kunstgenerator

Computer­generierte Kunst gibt es schon lange. Die Künstler Frieder Nake und Georg Nees stellten bereits im Februar 1965 an der Universität Stuttgart die erste Ausstellung von Computer­kunst in Europa vor. Zu sehen waren per Algorithmus und Plotter geschaffene Grafiken: abstrakte Muster, Strich­zeichnungen, zufällig auf dem Papier verteilte Linien, Kästchen und Punkte.

Obwohl die beiden sich damit in einer sichtbar modernistischen Tradition befanden – die Paul Klee nicht weniger umfasste als die zeitgleich florierende Op-Art –, war die Reaktion der Presse überwiegend negativ: Von «pseudo­schöpferischen Maschinen» schrieb der «Spiegel» (18/1965). In der «Stuttgarter Zeitung» vom 11. November 1965 war die Rede von faulen Künstlern, die im Café sitzen und «Sahne löffeln», während der Computer kalt und seelenlos ihre Arbeit verrichtet. Allerhöchstens werde damit vorgeführt, «dass uns der Computer im Endeffekt die Kunst so wenig abnimmt, wie er uns gymnastische Übungen abnehmen kann» («Stuttgarter Nachrichten», 20.11.1965). Urteil: keine Kunst – oder schlechte.

Die Technik von 2022 lässt sich kaum mit der von 1965 vergleichen. Spricht man heute von KI, meint man meist sogenannte tiefe neuronale Netze. Ihr Prinzip ist das maschinelle Lernen. Hier gibt nicht mehr, wie noch bei Nake und Nees, ein Satz von Regel­schritten (ein Algorithmus) den Output in allen seinen Details vor. Stattdessen lernen neuronale Netze anhand einer grossen Menge von Beispielen selbst­ständig.

Unter ihnen sind in den letzten Jahren sogenannte GANs (generative adversarial networks) zu einer Art Standard­verfahren der Bildproduktion geworden. Ein GAN lässt zwei Teilprogramme gegeneinander antreten, einen «Generator» und einen «Diskriminator». Der Generator erzeugt Bilder, der Diskriminator bewertet, ob sie dem bereits gelernten Datensatz ähnlich sehen. Tun sie es nicht, verändert der Generator seinen Output, und gemeinsam steuern die Programme langsam immer weiter in Richtung «realistischerer» Ausgaben. So kann man zum Beispiel aus Abertausenden von Porträts neue, täuschend echte Fotos herstellen.

Am prominentesten – weil besonders medien­wirksam inszeniert – kam die GAN-Technik 2018 zum Zug, als das französische Künstler­kollektiv Obvious ein auf diese Weise generiertes Bild zum Preis von 432’500 Dollar verkaufte. Das auf Leinwand gedruckte und in Gold gerahmte Gemälde «Edmond de Belamy» zeigte ein verwaschenes, irgendwie impressionistisch erscheinendes Porträt eines Mannes in alter­tümlicher Kleidung. Obvious hatten ein GAN auf 15’000 Gemälde verschiedener Epochen trainiert, aber den Vorgang abgebrochen, bevor das Bild zu gut wurde – daher der leicht gespenstische Touch des Outputs, der unfertig, wie nicht zu Ende gemalt aussieht. Dem entstandenen Herrn, ein neuer alter Meister, stellten sie eine fiktive Genealogie und noch weitere Familien­mitglieder zur Seite.

Die Reaktionen waren 2018 andere als 1965. Der Kunstmarkt, auf dem Neuheit ein Verkaufs- und damit Profit­argument ist, war geradezu begeistert, und seit Obvious’ Durchbruch wird KI-Kunst auch im hochpreisigen Segment gehandelt.

Wenn die Kritik dennoch über «Edmond de Belamy» spottete, dann nicht, weil man kalte Maschinen­kunst vermutete, sondern weil man politische Arglosigkeit unterstellte: Derartige Werke seien lediglich eine Werbeaktion für die Tech-Industrie, die nun auch die Kunst in ihre Kapital­ströme einzugliedern suche. Der Kritiker Mike Pepi brachte das im Magazin «Frieze» so auf den Punkt: «Es ist nicht verwunderlich, dass die Idee der kreativen Maschinen mit dem Aufstieg des Plattform­kapitalismus einhergeht.» Es drohe, dass nun auch die Macht über das Ästhetische an Start-ups abgegeben werde. So würde man diesen erlauben, «die gesamte sinnliche Welt der menschlichen Emotionen und des Ausdrucks zu beeinflussen».

KI-Kunst, kann man diesen Tenor zusammen­fassen, ist neoliberal.

Kritische KI-Kritik

Nees und Nake nannten ihre Werke, nach einem Wort des Philosophen Max Bense, «künstliche Kunst» – eine Art Kunst zweiten Grades, die technisch und nicht manuell hervor­gebracht wurde. Das war durchaus als Entschuldigung gemeint: Der Abstand zur «natürlichen Kunst» war immer noch als Wert­unterschied mitgedacht.

Heute steht seltener die Kunst­haftigkeit von KI-Werken infrage, sondern eher ihre gesellschafts­kritische Seriosität. Das hat einen Umgang mit KI zur Folge, den man mit Marx «kritische Kritik» nennen könnte. Eine Reihe von Künstlerinnen wenden sich vor allem der politischen Dimension von KI zu und geben ihren Werken ebenjene kritische Tendenz, die Obvious vermissen liess. Es ist kaum verwunderlich, dass diese dem Kunst­diskurs sehr viel mehr willkommen sind als «Edmond de Belamy».

Hito Steyerl und Trevor Paglen sind sicher die bekanntesten Vertreterinnen dieser Richtung. Nicht erst seit dem Hype um KI befassen sie sich mit Themen wie staatlicher Überwachung, privat­wirtschaftlichem Daten­ausspähen und der Unter­werfung des Individuums unter algorithmische Herrschaft. Ihr politisches Interesse folgt einer Linie, die vom Irakkrieg bis zum NSA-Skandal um Edward Snowden verläuft – hier ist KI nur eine letzte Volte möglicher Unterdrückungs­instrumentarien.

Für Steyerl, deren Werk geradezu das gute digitale Gewissen der Kunstszene verkörpert, ist KI eher «künstliche Dummheit». Sie warnt davor, den Voraussagen der KI blinden Glauben zu schenken.

In der Tat lassen sich anhand vergangener Daten lediglich vage Trends aufspüren; wirklich die Zukunft vorhersagen kann KI nicht. Für «Power Plants», eine Ausstellung in den Londoner Serpentine Galleries, kombinierte Steyerl daher Interview­aufzeichnungen von Anwohnern, die über ihre eigenen Zukunfts­aussichten sprechen, mit Videos von Blumen, die durch KI generiert wurden; auch diese scheint in gewisser Weise ihre Zukunft vorauszusagen, allerdings nur indem sie das nächste Bild im Video berechnet. Ziel von «Power Plants» soll es sein, die Prognose­kraft von KI-Programmen zu entzaubern, indem ihre lächerlich simple Idee von Zukunft mit den Hoffnungen und Befürchtungen echter Menschen kontrastiert wird. Was KI ausgestalten kann, ist immer nur die Verlängerung der Daten der Vergangenheit; ihr Konservatismus verhindert notwendige Veränderung bereits durch ihre innere Machart.

Trevor Paglen: «Adversarially Evolved Hallucination: Vampire (Corpus: Monsters of Capitalism)», 2017. Courtesy of Trevor Paglen and Metro Pictures, New York

Auch Trevor Paglen, der vor allem für seine Fotografien von Drohnen und US-Militär­stützpunkten bekannt ist, trägt zur Aufklärung über die «künstliche Dummheit» von KI bei. Für seine «Adversarially Evolved Hallucinations» liess er ein neuronales Netz Bilder generieren, die ein anderes interpretieren sollte; sobald dieses mit einiger Sicherheit etwas in den Bildern identifizierte, brach er den Prozess ab. Die Ergebnisse sind verblüffend. Was das Netz etwa als «Vampir» bezeichnet, ist nur eine undeutliche und verschwommene Farb­konstellation, bei der man sich fragt, wie die KI darin auch nur ein Gesicht erkennen konnte.

Das weckt nicht eben Vertrauen in ihre Fähigkeiten, und genau das ist der Punkt: Paglen zeigt, wie willkürlich die Klassifizierungen von KI-Systemen sein können und wie wenig nachvollziehbar sie verlaufen.

Das führt auch sein «ImageNet Roulette» vor Augen, ein Tool, das er mit der KI-Forscherin Kate Crawford entwickelt hat. Es versieht von Nutzerinnen hochgeladene Selfies mit unpassenden Kategorien («Verlierer», «Mätresse», «Femme fatale») und deckt auf diese Weise die versteckten sexistischen und rassistischen Vorurteile des Daten­satzes auf, die dem Training zugrunde lagen.

Unnötige Selbst­beschränkung

Dass Künstlerinnen KI-Techniken benutzen, um KI-Techniken zu kritisieren, scheint zunächst sowohl notwendig wie konsequent: Notwendig, weil die gesellschaftlichen und politischen Folgen, die die zunehmende Automatisierung von Klassifikationen und Entscheidungen nach sich zieht, Ungerechtigkeiten hervorbringen und verstärken können; KI ist immer ideologisch. Konsequent, weil man am besten zeigt, wie etwas funktioniert, indem man damit arbeitet. Paglen stellt sich dabei in die Tradition der «immanenten Kritik», wie er in einem Interview festhielt, «in der man Werkzeuge benutzt, um die Grenzen dieser Werkzeuge selbst oder die in diese Werkzeuge fest eingebauten Sehweisen aufzuzeigen».

KI-Kunst ist in dieser Sichtweise immer kritisch, Kunst über KI. Mehr noch: Sie darf eigentlich nur Kunst über KI sein, weil sie sich sonst dem Verdacht aussetzt, den Mechanismen des Daten­kapitalismus willfährig zu dienen oder auf die Ideologie des digitalen Macht­apparats herein­zufallen.

Was in der aufklärerischen Absicht eigentlich lobenswert und verdienstvoll ist, lässt einen aber nicht selten mit dem Gefühl zurück, mit einer gewissen Unaufrichtigkeit einherzugehen. Denn obschon Steyerls «Power Plants» zwar technik­ideologie­kritisch sein sollen, steht diese Aussage im Widerspruch zur auffallend ansprechenden Ästhetik ihrer Kreationen. Ihre Blumen­videos sind, statt wie Illustrationen für die Zukunfts­unfähigkeit von KI zu wirken, vielmehr einfach hübsch. Und auch Paglens GAN-Bilder haben eine ganz eigene düstere Faszination, die jenseits ihrer kritischen, erkenntnis­fördernden Funktion steht.

Hunderte Gesichter, keines ist echt: Marc Lee, Friends (Screenshot).

Dabei sind Steyerl und Paglen noch vergleichs­weise konsequent in ihrer Haltung. Bei anderen ist die Rhetorik des Kritischen sehr viel offensichtlicher nur ein Nachgedanke.

Oder was soll man von der Arbeit «Friends» halten, die derzeit im Basler Haus der Elektronischen Künste (HEK) zu sehen ist: In der per App navigierbaren 3-D-Installation des Schweizers Marc Lee, Gewinner des Pax Art Awards 2021, wird man von Hunderten in Blasen schwebenden Gesichtern umgeben, die einen unverwandt anstarren. Die Enthüllung, dass keines der Gesichter echt ist und alle mittels GAN generiert wurden, macht die eher simple Klage über den Narzissmus sozialer Netzwerke nicht hintergründiger. Der Hinweis im Begleittext, Unternehmen griffen «zur Datenanalyse der Profile und Anfertigung personifizierter Werbung auch auf KI-Systeme zurück», heftet mit aller Gewalt das Feigenblatt KI-Kritik an die Verwendung von KI.

Am Ende steht man vor einer ziemlich lauwarmen Technik­kritik, die sich nicht einmal mehr für die kritisierte Technik interessiert, weil ihr Urteil über sie von vornherein feststeht.

Verliebt in die Technik

Der Verdacht drängt sich auf: Kritische Kritik, selbst immanente, ist eher das Abzeichen, das man sich ans Revers heften muss, um die neuen Techniken ohne drohenden Prestige­verlust im Kunst­diskurs erproben zu dürfen. Das ist nicht nur da ärgerlich, wo diese Kritik hauptsächlich Pose und Rhetorik ist. Man legt sich auch eine unnötige Selbst­beschränkung auf: Wenn das Thema immer nur die Kritik am Werkzeug selber ist, wird es weder auf andere Themen angewandt noch wird untersucht, was man mit diesem Werkzeug überhaupt noch anstellen kann.

Das Interesse an KI als neuem Medium hat einer anderen Art von Künstlerinnen Auftrieb gegeben. Sie entstammen nicht dem klassischen Betrieb und haben, anders als Paglen und Steyerl, keine Kunst­hochschulen besucht, sondern kommen oft aus der Informatik oder sind Auto­didakten. Statt Kritik zu liefern, sind ihre Werke eher eine Feier der KI, ihrer technischen Kraft und, wie es oft scheint, geradezu revolutionären Möglichkeiten.

Für diese Gruppe war «Edmond de Belamy» nicht deshalb ärgerlich, weil das Werk nicht politisch genug war, sondern weil es technisch hinter den gegenwärtigen Möglichkeiten zurückblieb. So verglich der Medien­künstler Mario Klingemann «Edmond de Belamy» mit «einem Malen-nach-Zahlen-Kinderbild» angesichts dessen, was KI-Kunst heute leisten kann.

Klingemann gehört zu den profiliertesten Experimentatoren der KI-Kunst, verantwortlich für eine Reihe von Techniken, die später auch von anderen aufgegriffen wurden. Für «Neural Decay» etwa experimentierte er mit GANs, deren eigentlich für Menschen nicht zu verstehendes Inneres – eine Reihe von Zahlen statt menschen­lesbarer Code – er so manipulierte, dass sich unvorhergesehene Stör­effekte ergaben. Für die Installation «Uncanny Mirror» liess er das GAN zum Spiegel werden und die Gesichter der Besucher, die von einer Kamera aufgenommen wurden, durch ein vortrainiertes KI-Modell gespenstisch verzerren.

Inzwischen ist er damit nicht nur so populär, dass die Band Massive Attack GAN-generierte Musikvideos bei Klingemann in Auftrag gegeben hat, auch im etablierten Kunst­betrieb sind seine Experimente angekommen. «Memories of Passersby I», das einen endlosen Strom von künstlichen Porträts über zwei Monitore laufen lässt, erzielte bei Sotheby’s immerhin 40’000 britische Pfund (ca. 49’000 Franken).

Mario Klingemann: «Memories of Passersby I», 2018. Mario Klingemann/Foto mit freundlicher Genehmigung von Onkaos
Mario Klingemann: «Neural Decay», 2017. Mario Klingemann

Dennoch ist die Expertise von Künstlern wie Klingemann oder Memo Akten – der sich ebenfalls ganz auf GAN-Kunst verlegt hat – nicht immer ausreichend, um auch wirklich vielschichtige Werke zu schaffen. Die Medien­wissenschaftlerin Joanna Zylinska nennt die visuell zwar ansprechenden, aber eben auch belanglosen Arbeiten «geistlose Bildgenerierung». Von der Anmutung her «teils Dalí, teils Manga, teils Bildschirm­schoner», seien sie letztlich doch nur «Kitsch». Zylinska beschreibt ihre Reaktion auf solche Werke so: «Ähm, und jetzt?»

Während bei der kritischen Kritik vor lauter Botschaft das Experiment auf der Strecke bleibt, steht man hier vor Experimenten ohne Botschaft. Vor lauter Verliebtheit in die Technik ist der Output fast zweitrangig oder nur ein Ausweis für das Beherrschen der Maschine. Wirklich interessante Kunst wäre dann doch ein bisschen mehr.

Normalisierung als dritter Weg

Dass das Verhältnis von Kunst zu KI einen Balance­akt darstellt, meinte auch die Künstlerin Nora Al-Badri kürzlich auf einer an der ETH Zürich abgehaltenen Podiums­diskussion zu KI in der Kunst. Man müsse beide Extrem­positionen vermeiden; weder den Hype um die KI und die ständige Optimierung der Technik unwidersprochen bedienen noch sich wohlfeilen Technik­dystopien hingeben, die schnell in Konservatismus kippen können. Wie Klingemann sprach sich Al-Badri dafür aus, KI als produktives Instrument zu erproben, wobei Skrupel vor dem Vorwurf, zu wenig Kritik am KI-Diskurs zu üben, da eher hinderlich seien. Allerdings muss diese Expertise dann auch ein sinnvolles Ziel haben und Erkenntnisse produzieren.

In ihren eigenen Arbeiten versucht sich Al-Badri in dieser Balance, schaltet sich in kritische, vor allem postkoloniale Diskurse ein – und benutzt die KI als Werkzeug statt als ständig zu dekonstruierendes Thema. Für «Babylonian Vision» trainierte sie ein GAN mit mehr als zehntausend Bildern von Objekten aus dem Gebiet des heutigen Irak. Die auf diese Weise neu generierten Artefakte sollen eine Übung in «spekulativer Archäologie» sein: Sie vermehren die überlieferten Reste einer von Krieg und Kolonialismus dezimierten Kultur und denken sie in die Zukunft fort. Zugleich wird das GAN zum Versteck: Weil das Training von neuronalen Netzen nicht umkehrbar ist, kann niemand nachverfolgen, bei welchen Sammlungen Al-Badri sich eigentlich bedient hat.

Natürlich ist sich auch Al-Badri der Probleme bewusst, die ein zu leichtfertiges Vertrauen in KI-Techniken und in die Daten­sätze zu ihrem Training mit sich bringt. Aber ihre Arbeit ist mehr­dimensional. Es spricht nichts dagegen, die so entstandenen deep fakes ansprechend zu finden und sich von ihren Ergebnissen überraschen zu lassen. Zugleich stehen sie aber im Dienst eines komplexen künstlerischen Konzepts, das auf die Frage «Und jetzt?» eine Antwort geben kann.

Wahrscheinlich liegt in dieser Instrumentalisierung ohnehin die Zukunft von KI in der Kunst. Sie wird zunehmend ein Tool unter anderen – man setzt es dort ein, wo es künstlerisch sinnvoll erscheint, aber nicht, weil man eben, wie Klingemann, «KI-Künstler» oder, wie Steyerl, «KI-Kritikerin» ist. In einer solchen Zukunft wird die Verbindung «KI und Kunst» nicht viel wilder klingen als etwa «Kamera und Kunst».

But is it art?

Und schliesslich darf man auch nicht vergessen: Nicht alles, was Bild ist, muss auch notwendig Teil der Kunst­welt sein. Mit ihren Institutionen, Märkten und Preisen ist diese oft nur die letzte Station visueller Trends. Gerade im KI-Bereich gibt es einen riesigen Teil kollektiver Hobby­aktivitäten, die einige zentrale Merkmale des Kunst­systems unterlaufen – allen voran die Notwendigkeit, Werke immer mit einer einzelnen Künstlerin zusammen­zubringen.

Es gab nämlich eine dritte Beschwerde gegen das Obvious Collective und «Edmond de Belamy». Für manche war das Problem nicht, dass das Werk zu unkritisch oder technisch zu wenig ausgefeilt gewesen wäre, sondern dass sich seine Macher bei kostenlos verfügbarem Code bedienten und daraus Kapital schlugen. Denn das GAN, mit dem das Bild generiert wurde, stammte gar nicht von Obvious selbst, sondern vom Programmierer Robbie Barrat, der es frei zugänglich ins Netz gestellt hatte.

Barrat folgte der Ethik der Open Source, in der Code weniger ein streng gehütetes Eigentum als eine gemeinsame, öffentliche Ressource darstellt. So idealistisch sich das anhört, ist diese Praxis selbst in einigen kommerziellen Bereichen gang und gäbe, durchaus auch in der KI-Forschung, in der die neuesten Modelle oft mit dem zugehörigen Programm­code veröffentlicht werden, damit andere ihn testen und weiter­entwickeln können.

Das schafft die jüngste KI-Technik CLIP: Bildkreationen …
… für die blosse Beschreibungen genügen.

Dass es sich hier um eine Breiten­beschäftigung handelt, um ein grosses kollektives Experiment, kann man bei einer der jüngsten KI-Techniken beobachten: CLIP (Contrastive Language-Image Pre-Training). Trainiert auf Millionen von Bild-Text-Paaren aus dem Netz, kann es auf Zuruf zu einem Text das zugehörige Bild suchen. Eingeschaltet in ein sogenanntes Diffusions­modell (gewisser­massen ein besseres GAN), wird daraus ein Bild­generator, der aus blossen Beschreibungen, aus einem «Prompt», hochkomplexe Bilder produziert; aus einem Satz wie «Wolken, die wie Hunde aussehen» macht das Modell tatsächlich etwas, das der Beschreibung nahekommt.

Weil CLIP zwar von der privaten Firma OpenAI entwickelt, aber Open Source veröffentlicht wurde, hat sich inzwischen eine ganze Subkultur gebildet, die in immer neuen Abwandlungen der Technik herausfindet, was man mit ihr machen kann (etwa, indem man abstrakte Prompts ausprobiert, Beispiele gibt es hier). Und das nicht in Galerien oder auf Podiums­diskussionen über Kunst und KI, sondern auf Twitter, in Youtube-Videos, Reddit-Threads, Discord-Servern und immer neuen, freien Code-Notebooks und dazugehörigen Tutorials.

Da OpenAI Anfang April eine neue Version veröffentlicht hat, die bald auch für die Öffentlichkeit zur Verfügung steht – das Modell heisst DALL·E 2 und kann geradezu fotorealistische Bilder aus blossen Textvorgaben erstellen –, ist abzusehen, dass eine ganze Welle eines solchen promptism zu erwartet ist.

Was hier geschieht, ist keine kritische Kritik, aber auch nicht der Versuch, sofort auch die banalsten Maschinen­bilder zu vermarktbarer Kunst zu erklären, sondern etwas Drittes: eine Art anarchisch-ästhetischer Hobbyismus, der sich für solche Kategorien nicht interessiert und einfach spielt.

Nicht jedes mit Technik hergestellte Bild muss schliesslich Kunst sein – auch wenn es immer wieder dazu werden kann.

Hinweis: Wir haben eine Stelle zum CLIP _(Contrastive Language-Image Pre-Training) _präzisiert: Eingeschaltet in ein sogenanntes Diffusions­modell (gewisser­massen ein besseres GAN; nicht eingeschaltet in ein GAN, wie ursprünglich zu lesen war), wird daraus ein Bildgenerator, der aus blossen Beschreibungen, aus einem «Prompt», hochkomplexe Bilder produziert.

Zum Autor

Hannes Bajohr forscht am Seminar für Medien­wissenschaft an der Universität Basel zu künstlicher Intelligenz und digitalen Kulturen.

1515

Unterstützen Sie unabhängigen Journalismus mit einem Monatsabonnement oder einer Jahresmitgliedschaft!

seit 2018

Republik AG
Sihlhallenstrasse 1
8004 Zürich
Schweiz

kontakt@republik.ch
Medieninformationen

Der Republik Code ist Open Source