Danke für Ihre Neugier! Dieser Artikel wurde für Sie von einem grosszügigen Mitglied unserer 21 527 Verlegerinnen und Verleger freigeschaltet. Kommen Sie ebenfalls an Bord!

«Facebook hat lange ein Auge zugedrückt»

Die Internetsoziologin Zeynep Tufekci erklärt, weshalb auch die europäische Datenschutzverordnung einen Fall wie Cambridge Analytica in Zukunft nicht verhindern wird.

Von Adrienne Fichter (Interview) und Marco Frauchiger (Bild), 27.03.2018

«Dieser Konzern beherrscht die Welt»: Zeynep Tufekci forscht zu den sozialen und politischen Auswirkungen von Plattformen wie Facebook.

Zeynep Tufekci ist Sozialwissenschaftlerin und Programmiererin. Die Türkin lehrt und forscht in den USA an der Universität North Carolina und in Harvard und schreibt in einer regelmässigen Kolumne für die «New York Times» und für den «Atlantic».

Tufekci ist international eine der profiliertesten und wichtigsten Stimmen im Diskurs zu Algorithmen, Daten, Ethik und künstlicher Intelligenz. In zahlreichen Publikationen untersuchte sie die sozialen und politischen Implikationen der grossen Plattformen. Berühmt sind auch ihre Twitter-Abhandlungen, wo sie aktuelle Fragen zu Facebook, Twitter und Youtube kritisch beleuchtet. Die Republik interviewte Zeynep Tufekci während eines Spaziergangs durch Interlaken am Rande der NZZ-Xdays-Konferenz.

Zeynep Tufekci, Facebook hat 2014 auf Druck von Datenschützern seine Richtlinien für die App-Hersteller verschärft. Trotzdem konnte ein Unternehmen wie Cambridge Analytica in dieser Zeit zusammen mit dem Wissenschaftler Alexandr Kogan Informationen über 50 Millionen US-Bürger sammeln. Wie konnte das passieren?
Facebook hat die Richtlinien nicht wegen seines schlechten Gewissens verschärft, sondern weil es sein Geschäftsmodell tangiert. Sie wollen ja die Daten selbst horten, Dossiers über jeden aufbauen und nur gegen Geld verkaufen. Das Absaugen via App durch externe Drittanbieter läuft diesem Prinzip zuwider. Sie haben lange ein Auge zugedrückt, weil sie ihre Werbekunden bei Laune halten wollten. Auch das war natürlich ihr Business. Denn wenn die Leute diese Spiele herunterladen, verbringen sie auch indirekt mehr Zeit auf der Plattform. Und um das geht es ja in erster Linie: Zeit auf Facebook zu verbringen.

Also hat Mark Zuckerberg mit seinen soeben angekündigten Massnahmen ein Eigeninteresse, es geht gar nicht um die Privatsphäre der Internetnutzerinnen?
Natürlich, sammeln sammeln sammeln. Und von der Aussenwelt Daten absaugen. Es gibt ja zum Beispiel auch die Schattenprofile, die das Unternehmen Facebook hortet. Nehmen wir an, Sie nutzen Facebook nicht. Dennoch hat der Konzern ein Dossier über Sie angelegt. Weil irgendjemand, den Sie kennen, sein Kontaktbuch auf Facebook hinaufgeladen hat. Wo Ihre E-Mail-Adresse oder Ihre Telefonnummer drin enthalten ist. Mit anderen Worten: Dieser Konzern beherrscht die Welt. Einzelne Länder versuchen das immerhin zu durchbrechen. So hat Belgien ein Urteil gefällt, das illegale Sammlungspraktiken verbietet, also wenn das Surfverhalten von Facebook-Usern im Netz verfolgt wird.

Nochmals zurück zu den App-Richtlinien von Facebook. Sind diese nicht nutzlos? Solche Datenstaubsauger-Apps werden ja immer noch von Facebook bewilligt.
Ja, das stimmt. Cambridge Analytica ist nur eine von Tausenden von Apps, die diese Daten bisher abfragen konnten. Alle diese tollen Spiele basieren genauso auf dem Prinzip. Aber ein entscheidender Aspekt, der bei vielen Medienberichten vergessen ging, sind die finanziellen Anreize im Fall von Cambridge Analytica. Die Testpersonen haben via Amazon Turk [eine digitale Plattform für die Vermittlung von Kleinstaufträgen] mitgemacht, um ein paar Dollar zu verdienen. Das sind sogenannte digitale Crowdworker, Fliessbandarbeiter, die im Nebenverdienst für ein paar Dollar kleine Aufgaben erledigen. Was uns zeigt: Für ein paar Dollar ist man gerne bereit, sich und seine Facebook-Freunde herzugeben. Restriktionen von Facebook hin oder her. Diese Testpersonen hatten vielleicht alle 200 bis 300 Freunde, die sie mir nichts, dir nichts einfach weiterverkauft haben. Und als Facebook davon erfuhr, sagten sie einfach: Könnt ihr das bitte löschen? Und Cambridge Analytica sagte: Natürlich, das werden wir tun. Das ist doch keine Art und Weise, solche sensiblen Informationen von 50 Millionen Menschen zu kontrollieren! Die Frage ist also: Wie viele solcher Datenbanken à la Cambridge Analytica existieren noch da draussen?

Sie meinen Datenbanken vor allem im politischen Kontext?
Allgemein! Jeder kennt jemanden, der irgendeines dieser Spiele heruntergeladen hat, und ist mit dieser Person auf Facebook befreundet.

Wieso dann nicht einfach umfassende Transparenz schaffen und die Nutzer über jeglichen Gebrauch ihrer Profile zu informieren? Dann hat man es selbst in der Hand, was man mit dieser Information macht. In diese Richtung zielt ja die europäische Datenschutzverordnung DSGVO.
Ja, aber auch das ist zu kurz gedacht. Auch eine sogenannte informierte Einwilligung bringt uns eben nicht weiter. Ein hypothetisches Szenario: Stellen Sie sich vor, wir befassen uns alle vorbildlich mit dem Thema Datenschutz und sind über alle Konsequenzen informiert. Der ideale Zustand also. Im Zeitalter von Machine Learning und künstlicher Intelligenz ist es töricht zu behaupten, wir wüssten, was wir da heute überhaupt unterschreiben. Wir haben doch keine Ahnung, was die heutigen Daten in Zukunft alles anrichten können! Niemand hätte vor sieben Jahren vorhersagen können, dass die getätigten Facebook-Likes von damals heute die Vorlieben, die sexuelle Orientierung und die Persönlichkeitszüge von einzelnen Personen so genau umschreiben können. Das ist alles mit den Modellen von heute möglich, die die Daten von damals auswerten.

Also bringt uns Transparenz im Sinne eines informierten, mündigen Internetnutzers auch nicht weiter?
Nein. Wie kann man einer Verwendung von persönlichen Daten zustimmen, wenn man erstens die Daten nicht mehr «zurückholen» kann? Und zweitens, wenn man gar nicht weiss, wofür man seine Zustimmung gibt? Weil die Digitalisierung in ein paar Jahren etwas aus diesen Daten macht, was wir heute noch gar nicht erahnen können.

Reden wir über die Verantwortung. Facebook enthält bei allen Angeboten die juristische Klausel, dass seine Werbekunden selbst dafür verantwortlich sind, alle betroffenen Nutzerinnen adäquat zu informieren. Wie lange können sich die Technologiekonzerne noch mit solchen Phrasendreschereien der Haftung entziehen?
Ich weiss nicht, was Washington tun wird. Die USA haben ja zurzeit ganz eigene Probleme. Aber jetzt kommt dann die europäische Datenschutzverordnung, die in der Tat sehr interessant ist, weil sie die grossen Konzerne in die Schranken weisen könnte. Doch das generelle Problem bleibt: Vorratsdatenspeicherung, Überwachung, Profiling, Targeting – all das ist ein generelles Problem, auch ohne Missbrauch von Daten. Wissen Sie, bei Facebook arbeiten viele brillante Menschen, ich kenne einige Ingenieure. Und die führen nichts Böses im Schilde. Aber gute Absichten alleine reichen nicht. Das Unternehmen ist kommerziell getrieben. Und das hat Auswirkungen für die gesamte Öffentlichkeit, weil es das Hauptprinzip der digitalen Wirtschaft ist. So eine Ansammlung von Daten ist einfach nicht gesund. Nicht zuletzt, weil Politiker in autoritären Staaten es für die soziale Kontrolle gebrauchen.

Wie wäre es, wenn man ein Politikverbot in den Geschäftsbedingungen einführen würde – also ein Verbot von politischen Kampagnen als Übergangslösung?
Nein, das bringt ja nichts. Wo fängt denn politische Werbung an, wo hört sie auf? Das wäre schwierig zu definieren. Es gibt keine einfache Lösung. Wie brauchen einfach eine dringende Debatte, warum welche Daten gespeichert werden, wann es Sinn macht, wann nicht. Diese kommerzielle Vorratsdatenspeicherung. Das sollten wir jetzt dringend angehen.

Und die DSGVO hilft ja auch mit der Datenportabilität: EU-Bürger verfügen dann über ihr eigenes Datenkonto, verwalten ihre Informationen...
Ich glaube nicht, dass dies die Lösung ist.

Weshalb nicht?
Weil dann theoretisch wieder der Fall Cambridge Analytica eintreffen könnte: Was, wenn dann einfach noch mehr Leute ihre Daten für ein paar Euro für jemanden wie Amazon Mechanical Turk verscherbeln? Das Problem bei der Datenportabilität sind genau solche Szenarien. Was, wenn Facebook anbietet, deine Daten zu kaufen für ein paar Dollar? Viele Leute würden das Angebot annehmen! Leute würden ihr Datenkonto verkaufen, das Ganze würde vielleicht noch mehr kommerzialisiert werden. Moralisch ist es eben fragwürdig, wenn wir diese Verantwortung auf das individuelle Level abwälzen. Man fragt ja auch nicht: Würdest du bitte deinen Sicherheitsgurt im Auto für ein paar Dollar an mich verkaufen? Wenn die Autobauer den Sicherheitsgurt plötzlich weglassen und nur gegen Entgelt einbauen, sterben Leute bei Unfällen. Und damit haben wir ein Problem, das das Gemeinwohl tangiert. Wir müssen öffentliche Güter, die öffentliche Sphäre schützen.

Also bringt uns die DSGVO im Endeffekt gar nichts?
Doch, sie bringt neue Ansätze. Vor allem in Sachen Vorratsdatenspeicherung durch Technologiekonzerne. Wie gesagt: Vielleicht trifft das alles nicht zu mit der Datenportabilität. Vielleicht schafft man dadurch ein neues Bewusstsein, und wir merken: Es ist besser, wenn die Leute entscheiden, was sie mit ihren Daten anstellen, als wenn es Facebook tut. Aber das Hauptproblem bleibt bestehen: Die Datenansammlungen durch Monopole müssen minimiert werden. Und wir brauchen endlich neue Wege für eine gesunde digitale Öffentlichkeit des 21. Jahrhunderts. Transparenz alleine hilft uns nicht weiter.

Und wie wäre es mit einer neuen Form der Gewaltenteilung? Wenn es Judikative, Legislative und Exekutive für die Verwendung von Daten gibt sowie ein Audit, das regelmässig die moralischen Konsequenzen von Algorithmen und Datenverwendung von Plattformen überprüft?
Ja, das ist theoretisch der Weg, den man gehen müsste, aber wer soll da genau Einsitz haben? Diese neuen Institutionen des 21. Jahrhunderts sind derzeit ein sehr theoretisches Konzept, weil wir ja keine Politiker darin haben wollen. Denn Regierungen nutzen Daten meist für die soziale Kontrolle. Wir möchten aber auch nicht, dass die Meinungsäusserung beschnitten wird. Also was ist die Lösung?

Sagen Sie es mir.
Das ist es eben. Niemand hat eine Lösung in der Hinterhand, die man hervorzaubern kann. Die europäischen Gesetze enthalten ein paar gute Ansätze wie eben die Minimierung von Datensammlungen bei grossen Plattformen und die Kontrolle über die eigenen Daten. Aber eben, die Kommerzialisierung macht mir Sorgen. Ich glaube, die Datenportabilität wird nicht das bewirken, wofür sie gedacht ist. Wenn die Facebooks und Googles dieser Welt kommen und sagen «Hey, wir bezahlen dich für deine Daten», dann wird das eine Mehrheit der Leute tun, ob gut ausgebildet oder nicht. Es ist schwierig für den Einzelnen zu verstehen, was diese neue Freiheit auf einer kollektiven Ebene bedeutet. Plötzlich haben wir dann eine neue Hierarchie, es gibt Menschen mit teuren Daten und Menschen mit Trashdaten. Im Endeffekt ist die Datenthematik ein öffentliches Gut, im schlimmsten Fall gibt es eine Luftverschmutzung. Oder die Leute beginnen, Sicherheitsgurte in Autos zu verkaufen. Wir müssen das Ganze neu denken für die öffentliche Sphäre.





Schön, Sie hier unten wieder zu sehen! Es wäre uns eine Freude, wenn Sie bei der Republik Verlegerin oder Verleger würden. Wir versprechen Ihnen dafür Journalismus ohne Kompromisse: ohne Schnörkel, ohne Werbung, ohne Ausreden bei Fehlern. Erfahren Sie mehr.