Auge um Auge

Worldcoin ist ein Projekt der Superlative: Zur Bekämpfung von Armut und KI-Gefahren soll die Iris jedes Menschen gescannt und eine Krypto­währung für ein globales Grund­einkommen eingeführt werden. Visionär oder grössen­wahnsinnig? Ein Besuch in der Firmen­zentrale.

Von Quentin Lichtblau (Text) und Philipp Beck (Illustration), 04.08.2023

Vorgelesen von Egon Fässler
0:00 / 21:42

Journalismus, der Ihnen hilft, Entscheidungen zu treffen. Und der das Gemeinsame stärkt: die Freiheit, den Rechtsstaat, die Demokratie. Lernen Sie uns jetzt 21 Tage lang kostenlos und unverbindlich kennen:

In der Köpenicker Strasse in Berlin treffen Visionen aufeinander. Am Zaun der «Köpi», eines der wenigen verbliebenen Orte der Hausbesetzer­szene, fordert ein verschlissenes Banner die «Betriebs­rente für alle». 100 Meter weiter steht ein zum Workspace für Tech-Start-ups hoch­polierter Industriebau.

In einem der oberen Stockwerke sitzt der 29-jährige Alexander Blania in einem Konferenz­raum und redet über ein bedingungs­loses Grund­einkommen, verteilt über eine Krypto­währung namens Worldcoin. Durch die Glas­scheibe des Raums blickt man auf junge Menschen, die zwischen Beton­säulen und einer Bar mit veganen Protein­riegeln an der Zukunft basteln. Wie diese aussehen könnte, zeigt das silberne, kugel­förmige Gerät auf dem Tisch, der «Orb». Er erzeugt mit Sensoren aus einem Scan der menschlichen Iris einen sogenannten Hashcode. Damit wollen Blania und seine Mitstreiter nicht weniger als die globale Armut bekämpfen und ein banken­loses Finanz­system ermöglichen.

Von der retro­futuristischen Bowling­kugel mal abgesehen gibt es hier also zunächst wenig Neues, was die selten bescheidenen Versprechen von Krypto­projekten betrifft. Bemerkens­wert ist aber, dass Worldcoin trotz des zurzeit kleineren Interesses an Krypto­vorhaben zuletzt zahlreiche Investoren angezogen hat: Erst im Mai sammelte Blanias Unternehmen – er ist CEO und Mitgründer – mit dem altruistisch anmutenden Namen «Tools for Humanity» 115 Millionen Dollar an Kapital ein.

Das hat auch mit der Prominenz des zweiten Mitgründers und Ideen­gebers Sam Altman zu tun: Der Gründer von Open AI (und somit Vater von Chat GPT) war zuletzt auf grosser Welt­tournee, bei der er Fotos mit allerhand Staatschefs machte und diese vor der angeblichen Übermacht der Technologie warnte, die er gerade mitentwickelt – KI oder künstliche Intelligenz.

Wer aktuelles PR-Material zu seinem Zweit­projekt Worldcoin studiert, kann daraus neben viel blumigem Silicon-Valley-Sprech vor allem eines heraus­lesen: Die globale Währung und die damit verknüpfte Identifikations­technologie sind als komplementäres Gegenstück zu seinen Projekten bei Open AI gedacht. Sie sollen Fake-Identitäten entlarven und eines Tages Menschen mit einem Grund­einkommen versorgen, deren Jobs durch KI überflüssig geworden sind.

Ist das tatsächlich visionär oder nur geschicktes Marketing? Oder letztlich nicht mehr als eine perfekt zugeschnittene Lösung für die Probleme, die Altman selbst kreiert? Und: Warum zur Hölle sollte sich die ganze Menschheit freiwillig die Augen scannen lassen?

Nur bedingt bedingungslos

Am 24. Juli wurde der Worldcoin lanciert. Bereits 2021 hatte er einen Moment lang weltweite Aufmerksamkeit erregt, laut Blania aufgrund eines Investoren-Leaks, das das Projekt zu einer verfrühten Präsentation seiner Vorhaben zwang.

Es war die grosse Stunde von Krypto, Hunderte «Coins» schossen aus dem Boden, jeder der vermeintlich nächste Bitcoin. Worldcoin stach heraus: Die Idee dahinter war es, aus den Iris-Scans des Orb einen Hashcode zu generieren, der fortan bei Transaktionen und Tätigkeiten im Netz als eine Art Menschlichkeits­nachweis dienen soll, als «proof of personhood».

Ausserdem sollten über das zugehörige Worldcoin-Token Anreize geschaffen werden, damit eines Tages alle Bewohnerinnen der Erde am Projekt teilnehmen – eine Art Armuts­bekämpfung, bei der man auch noch reich werden kann. Die Bedingungs­losigkeit des Worldcoin-Grund­einkommens hat nämlich Grenzen: 20 Prozent der Token sollen erst mal an Investoren und Mitarbeiterinnen gehen, angeführt von Venture-Capital-Riesen wie Andreessen Horowitz.

Ein Konzept, das nicht nur bei Krypto­kritikerinnen zunächst schlecht ankam. Denn das Vorhaben, die Augen von Menschen zu scannen, klingt erst mal nach einem dystopischen Albtraum von George Orwell. Blania interessiert das wenig: «Die Kritik kann man so zusammen­fassen: Iris-Scannen ist komisch. Viel fundierter wurde das nicht», sagt er. Er führt das Interview auf eigenen Wunsch auf Englisch, damit er das Projekt besser erklären könne, auch wenn man seinen süddeutschen Einschlag deutlich hört.

Ausserdem sitze ja die Kommunikations­chefin des Unternehmens, Rebecca Hahn, mit am Tisch, sie könne so das Gespräch besser verfolgen. Hahn hat Erfahrung mit Kritik: Sie arbeitete als eine der letzten Mitarbeiterinnen unter Elon Musk in der Medien­stelle von Twitter, bevor der diese für immer schloss.

Selbst Edward Snowden, gegenüber Krypto­verfahren eigentlich aufgeschlossen, schaltete sich 2021 in die von allen Seiten auf Worldcoin einprasselnde Kritik ein: «Katalogisiert keine Augäpfel», schrieb er auf Twitter: «Es sieht so aus, als würde hier eine globale (Hash-)Datenbank mit den Iris-Scans von Menschen erstellt.»

Es war keine gute Zeit für Blania, trotz eines vielversprechenden Starts: 2020 war er 25 und nach einem Studium im bayerischen Erlangen gerade für seine Master­arbeit ans California Institute of Technology gekommen. Der Tools-for-Humanity-Mitgründer Max Novendstern hatte ihn kontaktiert, er suche Mitarbeiter. Nach mehreren Gesprächen habe er dann die Bedingung gestellt, als Mitgründer eingetragen zu werden, erzählt Blania: «Ich sollte als Software-Engineer antreten, hatte aber nicht das Gefühl, dass das für das Projekt das Richtige ist.» Altman und Novendstern waren einverstanden, Blania brach sein Studium ab und begann, an der Vision einer sicheren Identifikations­methode im Netz zu arbeiten – aufgrund der Corona-Reise­beschränkungen nicht im Silicon Valley, sondern in Erlangen.

Es war ein gigantischer Karriere­sprung. Eigentlich.

«Ich kam direkt von der Universität, acht Monate später hatte ich plötzlich Todes­drohungen im Postfach», erzählt er. Den Widerstand gegen das Vorhaben habe er unterschätzt. Doch er ist überzeugt: «Es gibt schlicht keine bessere Methode: Finger­abdrücke, Captchas, Gesichts-Scans, alles nicht fälschungs­sicher. Wenn heute nicht, dann spätestens in der Zukunft.» Die Scans selbst würden entgegen Snowdens Verdacht nirgends gespeichert, der aus ihnen generierte Hashcode lasse keine Rück­schlüsse auf biometrische oder sonstige Daten des Nutzers zu, sondern allein auf dessen Einzigartigkeit als Mensch. Es sei bisher auch niemandem gelungen, den Hashcode zurück auf das Foto der Iris zu entschlüsseln.

Der Nachweis der Einzigartigkeit werde wichtig sein in einer Welt nach der KI-Revolution, einer Zeit, in der die künstliche Intelligenz der menschlichen ebenbürtig geworden sei und somit leicht imstande wäre, Menschlichkeit zu imitieren. Altman, der damals schon haupt­beruflich Open AI leitete, habe ihm 2020 gesagt: «KI wird alles ändern, wir werden eine Identifikation als Mensch brauchen, ausserdem ein Grund­einkommen.»

Das habe auch für ihn zunächst lächerlich geklungen, sagt Blania. Heute aber zeige sich die Weitsichtigkeit von Altman, findet er: Die Macht von KI – und damit auch der Bedarf nach einem digitalen Menschlichkeits­nachweis – sei Altman eben schon Jahre vor Chat GPT und Co. bewusst gewesen.

Wenn wir es nicht machen …

Ganz unabhängig davon, ob es eine KI-Revolution gibt, ist das Problem der Identifikation im Netz real: Schon heute lässt sich bei so manchem Twitter-Diskurs nicht mehr klar sagen, ob hier wütende Bürgerinnen ihre Meinung kundtun – oder Tausende von Fake-Accounts. Text­generatoren wie Chat GPT, mit denen man in Sekunden­schnelle einiger­massen kohärente Texte erstellen kann, scheinen wie gemacht für Öffentlichkeits­manipulation.

Zuletzt endete Elon Musks Idee, Twitter-Fakes mit einem acht Dollar teuren blauen Verifikations­haken zu begegnen, in einem Desaster. Altmans Suche nach einer besseren Methode scheint daher durchaus Sinn zu ergeben. An staatliche Lösungen glaubt Blania dabei nur bedingt, schliesslich wären diese nicht dezentral. Ausserdem habe das Verifikations­system Aadhaar in Indien gezeigt, dass Regierungen wenig Rücksicht auf Privat­sphäre nehmen. Zur Verhinderung von Betrug, etwa bei Sozial­leistungen, erfasst Aadhaar biometrische Daten der indischen Bürger in einer Datenbank. Es wirkt ein bisschen, als wolle Blania sagen: Wenn wir unser Projekt nicht machen, dann kommt halt so was dabei raus.

So ähnlich argumentieren viele KI-Firmen des Silicon Valley: Bei Kritik deuten sie gerne etwa Richtung China, das den Westen überholen würde, wenn dieser die Entwicklerinnen durch Regulierung ausbremse. «Unsere Methode ist der momentan einzige Weg, das Problem der Identität zu lösen, wie es normaler­weise Regierungen machen», sagt Blania.

Doch nicht nur angesichts der Tatsache, dass gerade in China zuletzt ein kleiner Schwarzmarkt mit den Verifikations­daten von Worldcoin-Nutzern entstanden ist (das Unternehmen sagt dazu auf Nachfrage, es habe sich nur um «einige hundert Fälle» gehandelt und man habe die Technologie entsprechend überarbeitet), fragt man sich, warum ausgerechnet Blania und seine Handvoll Mitstreiter die letzte Instanz in Sachen Identifikations­technologie sein sollen. Und warum man sein Vertrauen lieber in sie als in demokratisch legitimierte Regierungen legen sollte – es muss ja nicht Indien oder China sein.

Blania verweist hier auf das Dezentralisierungs­versprechen des Unternehmens: Worldcoin sei ein Open-Source-Projekt, das eines Tages allen gehören solle, im Grunde also maximal basis­demokratisch. Dass dabei erst einmal die Venture-Capital-Investoren belohnt werden: notwendiger Anreiz, irgendwer muss das Ganze ja finanzieren.

Sam Altman vergleicht sich unterdessen selbst gerne mit Robert Oppen­heimer, dem Vater der Atom­bombe, und hat einen Brief unterzeichnet, der vor der «Auslöschung» der Menschheit durch KI warnt. Ist es nicht ein seltsamer Zufall, dass er mit Worldcoin selbst eine Lösung für viele der KI-Probleme anbieten will? Der nächste logische Schritt eines grossen Business­plans?

«Ich verstehe dieses Framing konzeptuell», sagt Blania. Doch sei seine Firma gar nicht gegründet worden, um ein Problem zu lösen. Wenn die künstliche Intelligenz dem Menschen eines Tages ebenbürtig sei, wäre das «die grösste Erfindung der Menschheit seit langer Zeit». Das sei in erster Linie kein Problem, sondern eine Technologie, welche die Menschheit «auf endlose Art empowern» werde.

Mit Worldcoin wollen er und Altman Ähnliches bewirken: einen ökonomischen Zugang für jeden Erd­bewohner, eine demokratische Teilhabe am durch den KI-Boom ausgelösten Wohlstand. Ob dieser sich tatsächlich in nächster Zeit einstellt, ist zweifelhaft. Selbst Altman äusserte sich zuletzt skeptisch: «Ich denke, wir sind am Ende der Ära angekommen, in der diese gigantischen Modelle das grosse Ding sind», sagte er kürzlich.

Wenn er die grosse KI-Zukunft skizziert, spricht auch Blania von «zehn oder etwas mehr Jahren». Sein Projekt habe aber bereits jetzt eine Berechtigung, das Identifikations­problem im Netz bestehe ja schon.

Dennoch wirkt die ganze Idee hinter Worldcoin zehn Schritte zu weit gedacht. Eine mit einem Dutzend Wetten auf die Zukunft verbundene Spekulation, die sehr viele «Wenns» enthält: Wenn das Worldcoin-Protokoll sich als einzig sicheres unter Hunderten anderen ähnlichen Projekten erweist; wenn eine ausreichend grosse Zahl an Welt­bürgerinnen mitmacht und ihre Augen scannen lässt; wenn der Worldcoin sich als neue Währung ansatzweise durchsetzt; wenn nicht – wie teilweise bereits der Fall – grosse Wirtschafts­mächte der Krypto­branche einen regulativen Riegel vorschieben; wenn KI tatsächlich eine beachtliche Menge an Jobs ersetzt – dann, ja dann könnte Worldcoin vielleicht eine Chance haben.

Genauso gut könnten die Investoren und Teilnehmerinnen aber in nicht allzu ferner Zukunft auf ihrem Geld und wertlosen Tokens sitzen bleiben, die Hype-Karawane weiterziehen – ein Szenario, das man in der Branche als rug pull bezeichnet: grosse Versprechen, die sich am Ende in Luft auflösen.

Erinnerungen an den Kolonialismus

Damit das nicht passiere, sagt Blania, habe man das Projekt so konzipiert, dass es möglichst schnell wachsen und sich überall etablieren könne. Deswegen sei man in der Testphase auch in alle möglichen Welt­regionen gegangen, von Norwegen bis Nairobi: um heraus­zufinden, wie Menschen auf den Orb reagieren, ob das Gerät unter allen Klima­bedingungen funktioniert und inwiefern der Worldcoin auch dazu dienen könnte, Menschen ohne Bank­konto Zugang zum Wohlstand zu ermöglichen.

Er beschreibt das Ganze ein bisschen wie eine Klassen­fahrt: In der frühen Entwicklungs­phase des Projekts hätten er und ein paar andere Mitarbeiter am Brandenburger Tor in Berlin nach Testteilnehmerinnen gesucht, später in Schweden, London oder Norwegen – und dann eben auch in Entwicklungs­ländern. Das sei alles sehr aufregend gewesen, man habe viel improvisiert, viel gelernt.

Genau an dieser «Testphase» entzündete sich allerdings im vergangenen Jahr eine Kritik, die den bereits vorhandenen Datenschutz-Bedenken noch eine weitere Dimension verlieh. Sie weckte unangenehme Erinnerungen an den Kolonialismus, als westliche Forscher im Namen von Wissenschaft und Aufklärung die Schädel afrikanischer Ureinwohner vermassen.

Das Magazin «MIT Technology Review» kritisierte, Worldcoin habe in Ländern wie Indonesien oder Kenia biometrische Daten von Dorf­bewohnerinnen eingesammelt. Neben dem Iris-Scan seien auch der Herzschlag oder der ganze Körper erfasst worden, ohne dass dabei eine glaubhafte Zustimmung eingeholt worden sei. Ausserdem hätten Worldcoin-Mitarbeiterinnen Lokal­politiker bestochen, damit diese mehr Bürgerinnen dazu brachten, ihre Daten für das Projekt zur Verfügung zu stellen. (Am 2. August 2023 hat Kenia alle Aktivitäten von Worldcoin im Land wegen Sicherheits­bedenken suspendiert.)

In einem mittlerweile gelöschten Blogpost auf der Worldcoin-Website ist tatsächlich die Rede von «Bildern von Körper, Gesicht und Augen» sowie einem «drei­dimensionalen Mapping des Körpers und des Gesichts» während der Testphase. Das Magazin zitierte ausserdem aus einem Dokument, gemäss dem Teilnehmer einer «Doppler-Erfassung von Herzschlag, Atmung und anderen Lebenszeichen» zustimmen sollten, also einer Art Ultraschall­messung.

Blania sagt, dass mittlerweile neuronale Netze diese Daten­erfassung ersetzt hätten, man müsse also keine echten Menschen untersuchen, sondern könne die Daten synthetisch gewinnen. Die tatsächlichen biometrischen Daten seien nur für Trainings­zwecke benötigt worden – soweit er wisse, aber nur im Firmen­büro. Man habe sich zwar zu Beginn die Option offengehalten, auch biometrische Daten zu erfassen, habe diese aber nie benötigt, sagt das Unternehmen auf Nachfrage.

Ein Stockwerk unter Blanias Konferenz­zimmer sitzt Tiago Sada, 26, Worldcoins head of product, in einem kleinen Besprechungs­zimmer. Auch vor ihm steht einer der momentan zwischen 2000 und 3000 Dollar teuren Orbs, die in Deutschland produziert werden. Er hat sich Zeit genommen, um diesen im Detail zu erklären. «Es geht nur darum, dass der Orb lokal feststellen kann, ob du ein Mensch bist. Alles, was wir erfassen, wird gelöscht – was bleibt, ist der Iris-Code», sagt Sada, schwarzes Shirt, schwarze Hose, Dreitagebart.

Natürlich habe man in der Testphase «Menschen die Möglichkeit gegeben, uns mit ihren Daten zu unterstützen», sagt Sada. Er holt sein Smartphone aus der Hosen­tasche und öffnet die «Worldapp». In einem der Privatsphäre-Menüs deutet er auf einen Button: «Einmal drücken, alles ist gelöscht», sagt er. «Wir sind absolute Privatsphäre-Maximalisten. Heute kann jeder Nein sagen, der uns nicht mit seinen Daten helfen will.»

Seine Betonung auf «heute» macht stutzig. Denn die Testphase begann laut «MIT Technology Review» bereits ein Jahr vor der Veröffentlichung der App. Insofern hätte es damals auch keine Löschtaste gegeben. Das Unternehmen teilt dazu später mit: «Die Möglichkeit, Datenlöschungs­anfragen zu stellen, stand den Nutzern schon immer zur Verfügung.» Mit der App sei dies den Nutzern aber vor einem Jahr noch leichter gemacht worden.

Was weder Sada noch Blania erwähnen: dass auch in der Testphase natürlich längst nicht mehr sie selbst die Scans ausführten, sondern «Orb-Operatoren», die als Subunternehmer für Worldcoin arbeiteten und einen Grossteil der Daten für das Unter­nehmen heran­schafften. Es scheint sich ein Muster zu wiederholen, dem man in der KI-Branche oft begegnet: hier das diverse, junge Team im gross­städtischen Workingspace, das an einer super­intelligenten Zauber­maschine forscht. Und hinter den Kulissen eine unsichtbare, gigantische Zahl an Menschen im Globalen Süden, die für die notwendigen Daten sorgen – prekär und mit wenig rechtlicher Absicherung.

Bei einer kritischen Nachfrage dazu unterbricht die Kommunikations­chefin. Es gebe da «eine grundsätzliche Fehl­wahrnehmung bezüglich der Entwicklungs­länder, die man vielleicht mal aufschlüsseln sollte». Sie übergibt wieder Sada das Wort. Der stimmt zu, redet aber an der Kritik vorbei: Die «Fehl­wahrnehmung» sei, dass Worldcoin speziell für Entwicklungs­länder gedacht sei. «Es soll für alle sein», sagt Sada.

Nach exakt einer Stunde endet der Termin mit ihm, man müsse jetzt den kommenden Launch der Orbs in Deutschland vorbereiten. Wenn man die gerade in Sachen Datenschutz eher skeptischen Deutschen überzeugen könne, sei das ein massiver Erfolg, sagt Sada noch. Kommunikations­chefin Hahn weist darauf hin, dass Apple und Google ja schliesslich auch bald eigene Formen von Iris-Scans anböten. «Es muss einfach diesen Moment geben, in dem etwas zum Teil der Alltags­kultur wird, dann ist es plötzlich gar nicht mehr verrückt», sagt sie beim Abschied.

Wenige Tage später steht in einem Einkaufs­zentrum am Alexander­platz in Berlin zwischen Apollo Optik und der Bäckerei Kamps ein Stativ mit einer silbernen Kugel.

Zum Autor

Quentin Lichtblau ist freier Journalist in Deutschland. Er schreibt unter anderem für die «Süddeutsche Zeitung» und die «Zeit».

Rund 27’000 Menschen machen die Republik heute schon möglich. Lernen Sie uns jetzt auch kennen – 21 Tage lang, kostenlos und unverbindlich: