Nudging: Eine kleine Verlockung, die uns zu einem besseren Leben führen soll.

Das Silicon Valley schafft die Freiheit ab – im Namen der Freiheit

Hinter Nudging – zu Deutsch: Anstupsen – stand einmal die Idee, uns zu besseren Entscheidungen zu verführen. Heute setzen es Facebook und Co. ein, um uns zu manipulieren.

Von Felix Maschewski und Anna-Verena Nosthoff (Text) und Nadine Redlich (Illustration), 27.09.2018

Die Republik ist ein digitales Magazin für Politik, Wirtschaft, Gesellschaft und Kultur – finanziert von seinen Leserinnen. Es ist komplett werbefrei und unabhängig. Lösen Sie jetzt ein Abo oder eine Mitgliedschaft!

«Habe ich ein Buch, das für mich Verstand hat, einen Seelsorger, der für mich Gewissen hat, einen Arzt, der für mich die Diät beurteilt, u.s.w., so brauche ich mich ja nicht selbst zu bemühen. Ich habe nicht nötig zu denken, wenn ich nur bezahlen kann; andere werden das verdriessliche Geschäft schon für mich übernehmen.» (Immanuel Kant)

Menschen lieben Geschichten. Um sich zu unterhalten, zu zerstreuen oder um dem Abstrakten und Unverständlichen eine begreifbare Fassung zu geben. Die beiden Verhaltensökonomen Richard Thaler und Cass Sunstein wissen das nur zu gut. Stets üben sie sich im populären Storytelling und verpacken ihre empiriegesättigten, nüchtern-statistischen Erkenntnisse über Denkfehler im alltäglichen Entscheiden in kurze, eingängige Geschichten.

Auch deswegen wurde ihr Buch «Nudge» zum Weltbestseller (die deutsche Ausgabe finden Sie hier). Ihre Miniaturen sind mit Figuren wie Mr. Spock oder Homer Simpson bebildert, erzählen mal autobiografisch von der Verführungskraft der Cashewnuss, mal von einer fiktiven Carolyn, die über die Neueinrichtung der Schulcafeteria nachdenkt – um Kinder zu verleiten, seltener zu Schokoriegeln und häufiger zu Obst und Gemüse zu greifen.

Save the planet by default

Hinter den vorhersehbaren didaktischen Plots, den biederen bis ideal­typischen Figuren und dem stilisierten Plauderton verbirgt sich aber nicht nur ambitionslose Literatur oder der nächste seichte Ratgeber, der uns auf die Imperative der Selbstkontrolle, Achtsamkeit oder des Mind-Detox verpflichtet. Es handelt sich hier vielmehr um die in den letzten Jahren einflussreichen Behavioral Economics und ihre Theorie des sanften Paternalismus – eine Lehre also, die sich als «Bewegung» experimenteller Praxis beschreibt und die Ökonomik milde zu reformieren sucht.

Wo sich früher Theorien der Wahlfreiheit und bevormundende Anleitung feindselig gegenüberstanden, will die Verhaltensökonomie die alten Gegen­sätze versöhnen. Sunstein und Thaler schwärmen von einem «echten dritten Weg», mit dem Ziel, «das Verhalten der Menschen zu beeinflussen, um ihr Leben länger, gesünder und besser zu machen». Den Ausgangspunkt bildet dabei ein neues Narrativ: dass wir eben keine rationalen Entscheider sind, sondern von Emotionen und Kontexten abhängen. Kurz: dass wir menschlich, allzu menschlich hin und her irren.

Doch Rettung naht. Denn wir brauchen, sagen die beiden Forscher, oft nur einen kleinen Schubser (engl. nudge) in die richtige Richtung, um vor unseren irrationalen Gelüsten beschützt zu werden. Wichtig hierfür ist es, unsere Bequemlichkeit auszunutzen, das heisst, Entscheidungsarchitekturen so umzudesignen, dass es für das krumme Hölzchen Mensch leichter ist, den geraden Weg zu nehmen.

Häufig, so Sunstein und Thaler, genüge schon die Korrektur der Standard­einstellungen: In einer verhaltensökonomisch optimierten Cafeteria etwa gelte eine Politik des «apple first»: Gesunde Lebensmittel werden so platziert, dass sie vor den Süssigkeiten ins Visier der Hungrigen geraten. Im Haushalt soll der Ökomodus der Waschmaschine zur Norm werden, sodass wir automatisch nachhaltig waschen, standardmässig die Erde retten – save the planet by default.

Bessere Entscheidungen für wen?

Mit der Überzeugungskraft Hunderter Experimente ausgestattet und durch die leicht verständlichen Geschichten massentauglich geworden, erregten die beiden Verhaltensökonomen fast zwangsläufig das Interesse der Regierenden. Thaler und Sunstein avancierten zu Beratern von David Cameron und Barack Obama und reihen seither hochdotierte Auszeichnungen aneinander. Richard Thaler wurde 2017 sogar mit dem Wirtschaftsnobelpreis geehrt – dafür, dass er ökonomische Theorie mit Erkenntnissen der Psychologie ergänzt habe und, wie es hiess, «die Wirtschaftswissenschaft menschlicher» mache.

Bei all der Aufmerksamkeit für die Akteure des sanften Paternalismus blieb fast unbemerkt, dass sich auch die selbsterklärten Weltverbesserer des Silicon Valley dem Nudging verschrieben haben. Tatsächlich sind die obersten Digital­pioniere im fadenscheinigen Modus des «don’t be evil» in den letzten Jahren klammheimlich zu Flaggschiffen der «Bewegung» geworden – auf dass wir alle, wie es schon auf Radioheads «OK Computer» zu hören war, «fitter, happier and more productive» werden. Dabei geht es den Mono­polisten jedoch kaum um unsere besseren Entscheidungen, sondern um deren Ausrichtung zu ihren Gunsten. Bis, am Ende der Geschichte, das Entscheiden überflüssig wird.

Google schafft sich den perfekten Mitarbeiter

Aktuell überlegt etwa Google, genauer dessen HR-Plattform re:Work, wie man Nudging produktiv machen könnte. Unter der Parole «Menschen zuerst» soll der Arbeitsplatz zu einem «besseren Ort», der Job zum «Erlebnis» gemacht werden. Und so bietet eine Reihe von Blogs dem selbst lernenden Mitarbeiter Gedankenanstösse an, die auf ein wellnessartiges Wohlgefühl im Workflow oder eine ganzheitliche Rundumbetreuung zielen – wie etwa das «Anstossen des Arbeitnehmers, damit er mehr für die Rente spart».

So motiviert man den Google-Angestellten zu einem angeleiteten Lifehack, lehrt ihn, wie er mit sanften Korrekturen der Denkschleifen effektiver und resistenter wird. Wie man sich ein «growth mindset» implementiert, Soft Skills wie Ausdauer, emotionale Intelligenz und Kreativität ausbildet oder sich in den praktischen «Faustregeln für das effektive Feedback» übt.

Wer sich dieses Umfeld vor Augen führt, den erstaunt kaum, dass Google nicht nur in puncto Cafeteria- und Food-Design dem Rat von Sunstein und Thaler – beide waren wiederholt zu Gast bei den «Talks at Google» – folgt: Eine der letzten Innovationen aus dem Hause war ein Feature mit dem Namen «Nudge», ein KI-basiertes Redesign von Gmail, das «very important e-mails» identifiziert und den Nutzer an deren Beantwortung erinnert. Im «confidential mode» wirkt die elektronische Post dann geradezu selbst­zerstörerisch: Alles, worauf der Empfänger nicht in der gewünschten Zeit reagiert, wird gelöscht. Mit Rückmeldung ist also zu rechnen – auch deshalb, weil von einem sanften Schubser keine Rede mehr sein kann. Es ist ein Stoss in die Rippen.

Das friedliche Murmeln der Systeme

Mit viel Ballyhoo werden solche Features schnell als notwendige Bedingung gesteigerter Produktivität und Sicherheit gefeiert, als nützliche Tools, die am schlechten Gewissen des Einzelnen ansetzen – im Kostüm des eigenen Wunsches. Fast natürlich verschwimmen dabei die Grenzen zwischen auto­nomer Entscheidung und Fremdbestimmung, zwischen Anreiz und Regel.

Man muss nur ein paar Ecken und Kanten abschleifen, schon wird der Alltag effizienter.

Vor diesem Hintergrund verweisen Googles verhaltensökonomische Versuchungen auf eine grundlegende behavioristische Überlegung, die spätestens seit Thaler und Sunstein wieder en vogue ist: dass alles und jeder über die Gestaltung seiner Umwelten beeinflussbar sei, dass man nur ein paar Ecken und Kanten abschleifen müsse, damit sich der Alltag in das friedliche Murmeln der Systeme übersetzt – und er effizienter organisiert wird.

Das französische Autorenkollektiv Tiqqun bezeichnet dieses Kalkül als die «kybernetische Hypothese»; als die folgenreiche Idee, sämtliche «biologischen, physischen und sozialen Verhaltensweisen als voll und ganz programmiert und neu programmierbar zu betrachten». Der Kybernetiker Stafford Beer erkannte die Konsequenz dieses Unterfangens schon in den 1970er-Jahren und prägte für das, was wir heute Big Nudging nennen, eine klingende Formel: «Liberty must be a computable function of effectiveness» – Freiheit muss eine berechenbare Funktion der Effektivität sein.

Wobei Freiheit dabei immer häufiger zum leeren Versprechen wird: Indem man uns im Modus digitaler Weltdurchdringung in Versuchung führt, legt man uns ein bestimmtes Verhalten nicht nur nahe, sondern schreibt es auch vor – macht es dingfest.

Brave new work

Während sich in den Bemühungen bei Google noch die sanft-paterna­lis­tischen Narrative von Sunstein und Thaler reflektieren, treibt die algorith­mische Programmierung des Freiheitsdesigns bei so manchem Start-up ganz prosaische Blüten. Der Online-Lieferdienst Deliveroo fragt bei einer Job­ausschreibung noch: «Wie können wir Fahrer möglichst effektiv und automatisch so nudgen, dass sie sowohl ihre Einnahmen maximieren als auch unseren Kunden einen angenehmen Service bieten?»

Eine Antwort darauf liefert der Fahrdienstleister Uber. Das Unternehmen experimentiert mit Videospieltechniken und einem emotionalen Belohnungs­system, um Fahrern ein möglichst intensives «Arbeitserlebnis» zu bieten. Ein Algorithmus – ähnlich dem, der bei Netflix Binge-Watching provoziert – zeigt den Chauffeuren lukrative Transportjobs oder einfach zu erreichende «kostbare Ziele» an – vor allem dann, wenn die Fahrer sich eigentlich dazu entschieden hatten, ihren Dienst zu beenden.

Den Dreh- und Angelpunkt der Nudges bilden aber nicht nur psycho­dynamische, sondern auch handfeste Stupsereien: Zuletzt liess Amazon ein Armband patentieren, das vibriert, sobald ein Mitarbeiter im Lager dabei ist, nach einem falschen Paket zu greifen. Hier interveniert das Wearable ganz direkt, passt den Menschen an, bestimmt die Bewegung. Brave new work.

Du kannst dein Konto löschen

Der eigentliche Fokus der Tech-Unternehmen aus dem Valley liegt jedoch weniger auf den eigenen Mitarbeitenden – als auf uns, den Nutzern. Gerade Plattformen wie Facebook sind grosse Verführungskünstler und experimen­tieren unaufhörlich mit unserer Aufmerksamkeit. Neben den bekannten Versuchen, die Wahlbeteiligung über den «I am a Voter»-Button zu forcieren oder die Stimmungen der Nutzer umzucodieren, wirkt schon der Newsfeed-Algorithmus wie ein virtueller Cafeteria-Tresen: ein Tool, das das Verhalten des Users unterschwellig umprogrammiert und optimiert.

Das gesamte Interface-Design erscheint vor diesem Hintergrund als anreizgetunte Architektur, die mit rot blinkenden Lämpchen, Dopamin­schübe freisetzenden Likes oder dem Trommelfeuer der Push-Nachrichten psychologische Schwachstellen ausnutzt, um den Nutzer so lange als möglich auf der Seite zu halten. Was in Fachkreisen als persuasive Technologie beschrieben wird, nannte der Ex-Facebook-Manager Antonio García Martínez zu Recht «legales Crack».

Zuckerberg und Co. betreiben das Nudging jedoch nicht immer im Sinne solch spielerischer Abhängigkeiten. Gerade wenn es um das eigene Geschäfts­modell geht, agiert man sehr rigide. Einige der «anstössigen» Methoden listete zuletzt der Forschungsbericht «Deceived by Design» des norwegischen Verbraucherrats auf, der unter anderem die Veränderungen der Facebook-AGB untersuchte.

Besonders konzentrierten sich die Forscher auf «dark patterns», ein manipulatives Design, das das Verhalten der User subtil beeinflusst. Dazu gehören «Standardeinstellungen, die in die Privatsphäre eindringen», und «irreführende Formulierungen, die den Nutzern die Illusion der Kontrolle» geben. Bis zum «Verstecken von Optionen, die die Privatsphäre schützen», und «Entscheidungsarchitekturen, bei denen die Privacy-freundliche Wahl mehr Aufwand vom Nutzer erfordert».

Alternativen werden der Nutzerin kaum geboten, fast immer heisst es: Alles oder nichts. Zitat: «Wenn du nicht zustimmst, kannst du Facebook nicht weiter nutzen. Du kannst dein Konto löschen.»

Souverän ist, wer über den Entscheidungsweg entscheidet

Was wir heute also Entscheidungsfreiheit nennen, ist häufig ein erstaunlich intransparentes Hin-und-her-Genudge, ein unsichtbares Stimulans, das uns verführt und besticht, uns antreibt und uns vieles versagt. Denn während es Thaler und Sunstein mit dem Anstupsen auf ein erwünschtes Verhalten bei Aufrechterhaltung der Autonomie absehen, verkehrt sich der Zugriff unsicht­barer Hände im Kontext digitaler Infrastrukturen immer häufiger in eine vorgeschriebene Geschichte.

Auf der F8-Konferenz 2017 kündigte die damalige Leiterin von Facebooks Hardware-Lab Building 8, Regina Dugan, eine Gedankenlesemaschine an. Ein Brain-Computer-Interface also, das nicht nur einen Einblick in das Selbstverständnis der Firma, sondern auch in scheinbar wegweisende Zukünfte eröffnete: Auch Dugan übte sich zunächst im Storytelling, erzählte von Situationen, in denen analoge und digitale Welt kollidieren. Wenn man beispielsweise eine Whatsapp-Nachricht beantworten möchte, sich aber zugleich in einem Gespräch befindet; wenn man auf einer Party ist und kurz eine E-Mail schreiben muss.

Facebooks Antwort ist radikal. Das Brain-Computer-Interface versucht gar nicht erst, ein Tool der Auswahlmöglichkeit zu sein. Ziel ist es vielmehr, das Dilemma der Wahl selbst auszuschalten, das Entweder-oder in ein Sowohl-als-auch aufzulösen. Zwar seien wir alle, so Dugan, «besser dran, wenn wir häufiger vom Smartphone aufschauten». Aber unsere digitalen Freunde augenblicklich ausser Acht zu lassen, sei eine «falsche Entscheidung».

So müsse man Produkte entwickeln, die «social first» seien, automatische Applikationen, die verstünden, dass «wir sowohl Geist als auch Körper sind, dass unsere Welt sowohl digital als auch physisch ist». Man müsse also Geräte bauen, die es erlauben, «eine Kurznachricht zu verschicken, ohne das Telefon herauszuholen, und eine Mail zu beantworten, ohne die Party zu verlassen». Oder ganz einfach: «Produkte, die sich weigern, falsche Entscheidungen zu akzeptieren.»

Dugans Vision einer Gehirn-Computer-Schnittstelle feiert eine multi­optionale Gleichzeitigkeit und damit einen kybernetischen Naturzustand: Zukünftig soll man direkt via Gedanken tippen oder mit der Haut hören können, um eine schöne, neue, multisensorische Allgegenwart Wirklichkeit werden zu lassen.

Das grosse Egalitätsversprechen des totalen Echtzeit-Talks täuscht kaum darüber hinweg, wer nun das Sagen hat. Es sind nicht mehr die Individuen, die sich für oder gegen etwas aussprechen, sondern Facebook bzw. deren Technologie, die vorgibt, es kategorisch gut mit uns zu meinen, indem sie unsere elektrifizierten Environments gleich miterschafft: Souverän ist, wer über den Entscheidungsweg entscheidet.

Die Fluchtlinie der technischen Entscheidungshilfen besteht schliesslich in ihrer restlosen Automatisierung und totalen Internalisierung. In der idealen Welt von Facebook und Co. ist der Einzelne, so scheint es, ganz eins geworden mit der Entscheidungsarchitektur. Damit treten die Dys­funktio­na­litäten und Risse im Gebälk gar nicht erst hervor.

Die Visionen Dugans markieren einen Kristallisationspunkt, den schon der Technikphilosoph Günther Anders antizipierte: den Punkt nämlich, an dem «unsere Maschinenbedienung und das Funktionieren der Maschine nur noch einen einzigen Prozess bilden», an dem sich der Mensch also ans «Adaptiertwerden adaptiert».

Die Auflösung der Freiheit – in ihrem Namen vollzogen

Zu den Sachen selbst, heisst es nun für den Einzelnen, und so bleibt vom Subjekt der Aufklärung, seinem autonomen Akt der Selbstgesetzgebung allenfalls ein schwacher Schatten zurück. Einst war es ein Ziel, sich mutwillig von «fremder Leitung» und bequemer «Unmündigkeit» (Kant) zu befreien, für sich selbst zu denken und zu entscheiden. Heute erscheint man wie eine benutzerfreundliche Bedienungsoberfläche für allerlei Choice-Architects, die manipulieren, Standards definieren, für uns vorentschieden haben.

Natürlich ist diese Entwicklung des Nudgings nicht im Sinne Richard Thalers und Cass Sunsteins zu lesen. Sie haben immer wieder betont, dass es ihnen nicht um die Einschränkung des Verhaltens und der Entscheidungs­möglich­keiten geht, nicht um das Gebieten, sondern nur um das Anbieten und Nahelegen. Doch die beiden Forscher scheinen ihre Geschichten nicht zu Ende gedacht zu haben. Denn dort, wo sich jemand auserkoren fühlt, zu wissen, was die «richtige Entscheidung» für ein «besseres Leben» ist, erwächst – vor allem in einer hyperdigitalen Welt – fast automatisch eine bedenkliche Ethik. Eine Ethik der Anleitung, in der sich die Auflösung der Freiheit ironischerweise in ihrem Namen vollzieht.

Thalers und Sunsteins sanfter Paternalismus wirkt im Lichte allerlei Unübersichtlichkeiten ungemein verführerisch. Doch scheinen sich die kurzen Geschichten vom Anstossen in einer Zeit, in der alles Stehend-Analoge digital verdampft, in Narrative des Anstosses verkehrt zu haben. Vielleicht sollte man den Erzählungen über unser entscheidendes Unvermögen also vermehrt einsichtsreichere Parabeln entgegnen; unversöhnlichere Geschichten, die uns nicht vermeintlich harmlos überzeugen wollen, sondern etwas kenntlich machen; die erklären, ohne eine Lösung vorzuschreiben, die – wie diese von Günther Anders – verdeutlichen, ohne zu vereinfachen:

Da es dem König aber wenig gefiel, dass sein Sohn, die kontrollierten Strassen verlassend, sich querfeldein herumtrieb, um sich selbst ein Urteil über die Welt zu bilden, schenkte er ihm Wagen und Pferd.

«Nun brauchst du nicht mehr zu Fuss zu gehen», waren seine Worte.

«Nun darfst du es nicht mehr», war deren Sinn.

«Nun kannst du es nicht mehr», deren Wirkung.

Zu Autorin und Autor

Anna-Verena Nosthoff ist Philosophin, politische Theoretikerin und freie Autorin. Derzeit schreibt sie an einer Dissertation über die Kybernetisierung des Politischen. Felix Maschewski ist Germanist, Wirtschaftswissenschaftler, freier Autor und wissenschaftlicher Mitarbeiter am Institut für Wirtschaftsgestaltung Berlin.

Unterstützen Sie unabhängigen Journalismus mit einem Monatsabonnement oder einer Jahresmitgliedschaft!