Auge um Auge
Worldcoin ist ein Projekt der Superlative: Zur Bekämpfung von Armut und KI-Gefahren soll die Iris jedes Menschen gescannt und eine Kryptowährung für ein globales Grundeinkommen eingeführt werden. Visionär oder grössenwahnsinnig? Ein Besuch in der Firmenzentrale.
Von Quentin Lichtblau (Text) und Philipp Beck (Illustration), 04.08.2023
Journalismus, der Ihnen hilft, Entscheidungen zu treffen. Und der das Gemeinsame stärkt: die Freiheit, den Rechtsstaat, die Demokratie. Lernen Sie uns jetzt 21 Tage lang kostenlos und unverbindlich kennen:
In der Köpenicker Strasse in Berlin treffen Visionen aufeinander. Am Zaun der «Köpi», eines der wenigen verbliebenen Orte der Hausbesetzerszene, fordert ein verschlissenes Banner die «Betriebsrente für alle». 100 Meter weiter steht ein zum Workspace für Tech-Start-ups hochpolierter Industriebau.
In einem der oberen Stockwerke sitzt der 29-jährige Alexander Blania in einem Konferenzraum und redet über ein bedingungsloses Grundeinkommen, verteilt über eine Kryptowährung namens Worldcoin. Durch die Glasscheibe des Raums blickt man auf junge Menschen, die zwischen Betonsäulen und einer Bar mit veganen Proteinriegeln an der Zukunft basteln. Wie diese aussehen könnte, zeigt das silberne, kugelförmige Gerät auf dem Tisch, der «Orb». Er erzeugt mit Sensoren aus einem Scan der menschlichen Iris einen sogenannten Hashcode. Damit wollen Blania und seine Mitstreiter nicht weniger als die globale Armut bekämpfen und ein bankenloses Finanzsystem ermöglichen.
Von der retrofuturistischen Bowlingkugel mal abgesehen gibt es hier also zunächst wenig Neues, was die selten bescheidenen Versprechen von Kryptoprojekten betrifft. Bemerkenswert ist aber, dass Worldcoin trotz des zurzeit kleineren Interesses an Kryptovorhaben zuletzt zahlreiche Investoren angezogen hat: Erst im Mai sammelte Blanias Unternehmen – er ist CEO und Mitgründer – mit dem altruistisch anmutenden Namen «Tools for Humanity» 115 Millionen Dollar an Kapital ein.
Das hat auch mit der Prominenz des zweiten Mitgründers und Ideengebers Sam Altman zu tun: Der Gründer von Open AI (und somit Vater von Chat GPT) war zuletzt auf grosser Welttournee, bei der er Fotos mit allerhand Staatschefs machte und diese vor der angeblichen Übermacht der Technologie warnte, die er gerade mitentwickelt – KI oder künstliche Intelligenz.
Wer aktuelles PR-Material zu seinem Zweitprojekt Worldcoin studiert, kann daraus neben viel blumigem Silicon-Valley-Sprech vor allem eines herauslesen: Die globale Währung und die damit verknüpfte Identifikationstechnologie sind als komplementäres Gegenstück zu seinen Projekten bei Open AI gedacht. Sie sollen Fake-Identitäten entlarven und eines Tages Menschen mit einem Grundeinkommen versorgen, deren Jobs durch KI überflüssig geworden sind.
Ist das tatsächlich visionär oder nur geschicktes Marketing? Oder letztlich nicht mehr als eine perfekt zugeschnittene Lösung für die Probleme, die Altman selbst kreiert? Und: Warum zur Hölle sollte sich die ganze Menschheit freiwillig die Augen scannen lassen?
Nur bedingt bedingungslos
Am 24. Juli wurde der Worldcoin lanciert. Bereits 2021 hatte er einen Moment lang weltweite Aufmerksamkeit erregt, laut Blania aufgrund eines Investoren-Leaks, das das Projekt zu einer verfrühten Präsentation seiner Vorhaben zwang.
Es war die grosse Stunde von Krypto, Hunderte «Coins» schossen aus dem Boden, jeder der vermeintlich nächste Bitcoin. Worldcoin stach heraus: Die Idee dahinter war es, aus den Iris-Scans des Orb einen Hashcode zu generieren, der fortan bei Transaktionen und Tätigkeiten im Netz als eine Art Menschlichkeitsnachweis dienen soll, als «proof of personhood».
Ausserdem sollten über das zugehörige Worldcoin-Token Anreize geschaffen werden, damit eines Tages alle Bewohnerinnen der Erde am Projekt teilnehmen – eine Art Armutsbekämpfung, bei der man auch noch reich werden kann. Die Bedingungslosigkeit des Worldcoin-Grundeinkommens hat nämlich Grenzen: 20 Prozent der Token sollen erst mal an Investoren und Mitarbeiterinnen gehen, angeführt von Venture-Capital-Riesen wie Andreessen Horowitz.
Ein Konzept, das nicht nur bei Kryptokritikerinnen zunächst schlecht ankam. Denn das Vorhaben, die Augen von Menschen zu scannen, klingt erst mal nach einem dystopischen Albtraum von George Orwell. Blania interessiert das wenig: «Die Kritik kann man so zusammenfassen: Iris-Scannen ist komisch. Viel fundierter wurde das nicht», sagt er. Er führt das Interview auf eigenen Wunsch auf Englisch, damit er das Projekt besser erklären könne, auch wenn man seinen süddeutschen Einschlag deutlich hört.
Ausserdem sitze ja die Kommunikationschefin des Unternehmens, Rebecca Hahn, mit am Tisch, sie könne so das Gespräch besser verfolgen. Hahn hat Erfahrung mit Kritik: Sie arbeitete als eine der letzten Mitarbeiterinnen unter Elon Musk in der Medienstelle von Twitter, bevor der diese für immer schloss.
Selbst Edward Snowden, gegenüber Kryptoverfahren eigentlich aufgeschlossen, schaltete sich 2021 in die von allen Seiten auf Worldcoin einprasselnde Kritik ein: «Katalogisiert keine Augäpfel», schrieb er auf Twitter: «Es sieht so aus, als würde hier eine globale (Hash-)Datenbank mit den Iris-Scans von Menschen erstellt.»
Es war keine gute Zeit für Blania, trotz eines vielversprechenden Starts: 2020 war er 25 und nach einem Studium im bayerischen Erlangen gerade für seine Masterarbeit ans California Institute of Technology gekommen. Der Tools-for-Humanity-Mitgründer Max Novendstern hatte ihn kontaktiert, er suche Mitarbeiter. Nach mehreren Gesprächen habe er dann die Bedingung gestellt, als Mitgründer eingetragen zu werden, erzählt Blania: «Ich sollte als Software-Engineer antreten, hatte aber nicht das Gefühl, dass das für das Projekt das Richtige ist.» Altman und Novendstern waren einverstanden, Blania brach sein Studium ab und begann, an der Vision einer sicheren Identifikationsmethode im Netz zu arbeiten – aufgrund der Corona-Reisebeschränkungen nicht im Silicon Valley, sondern in Erlangen.
Es war ein gigantischer Karrieresprung. Eigentlich.
«Ich kam direkt von der Universität, acht Monate später hatte ich plötzlich Todesdrohungen im Postfach», erzählt er. Den Widerstand gegen das Vorhaben habe er unterschätzt. Doch er ist überzeugt: «Es gibt schlicht keine bessere Methode: Fingerabdrücke, Captchas, Gesichts-Scans, alles nicht fälschungssicher. Wenn heute nicht, dann spätestens in der Zukunft.» Die Scans selbst würden entgegen Snowdens Verdacht nirgends gespeichert, der aus ihnen generierte Hashcode lasse keine Rückschlüsse auf biometrische oder sonstige Daten des Nutzers zu, sondern allein auf dessen Einzigartigkeit als Mensch. Es sei bisher auch niemandem gelungen, den Hashcode zurück auf das Foto der Iris zu entschlüsseln.
Der Nachweis der Einzigartigkeit werde wichtig sein in einer Welt nach der KI-Revolution, einer Zeit, in der die künstliche Intelligenz der menschlichen ebenbürtig geworden sei und somit leicht imstande wäre, Menschlichkeit zu imitieren. Altman, der damals schon hauptberuflich Open AI leitete, habe ihm 2020 gesagt: «KI wird alles ändern, wir werden eine Identifikation als Mensch brauchen, ausserdem ein Grundeinkommen.»
Das habe auch für ihn zunächst lächerlich geklungen, sagt Blania. Heute aber zeige sich die Weitsichtigkeit von Altman, findet er: Die Macht von KI – und damit auch der Bedarf nach einem digitalen Menschlichkeitsnachweis – sei Altman eben schon Jahre vor Chat GPT und Co. bewusst gewesen.
Wenn wir es nicht machen …
Ganz unabhängig davon, ob es eine KI-Revolution gibt, ist das Problem der Identifikation im Netz real: Schon heute lässt sich bei so manchem Twitter-Diskurs nicht mehr klar sagen, ob hier wütende Bürgerinnen ihre Meinung kundtun – oder Tausende von Fake-Accounts. Textgeneratoren wie Chat GPT, mit denen man in Sekundenschnelle einigermassen kohärente Texte erstellen kann, scheinen wie gemacht für Öffentlichkeitsmanipulation.
Zuletzt endete Elon Musks Idee, Twitter-Fakes mit einem acht Dollar teuren blauen Verifikationshaken zu begegnen, in einem Desaster. Altmans Suche nach einer besseren Methode scheint daher durchaus Sinn zu ergeben. An staatliche Lösungen glaubt Blania dabei nur bedingt, schliesslich wären diese nicht dezentral. Ausserdem habe das Verifikationssystem Aadhaar in Indien gezeigt, dass Regierungen wenig Rücksicht auf Privatsphäre nehmen. Zur Verhinderung von Betrug, etwa bei Sozialleistungen, erfasst Aadhaar biometrische Daten der indischen Bürger in einer Datenbank. Es wirkt ein bisschen, als wolle Blania sagen: Wenn wir unser Projekt nicht machen, dann kommt halt so was dabei raus.
So ähnlich argumentieren viele KI-Firmen des Silicon Valley: Bei Kritik deuten sie gerne etwa Richtung China, das den Westen überholen würde, wenn dieser die Entwicklerinnen durch Regulierung ausbremse. «Unsere Methode ist der momentan einzige Weg, das Problem der Identität zu lösen, wie es normalerweise Regierungen machen», sagt Blania.
Doch nicht nur angesichts der Tatsache, dass gerade in China zuletzt ein kleiner Schwarzmarkt mit den Verifikationsdaten von Worldcoin-Nutzern entstanden ist (das Unternehmen sagt dazu auf Nachfrage, es habe sich nur um «einige hundert Fälle» gehandelt und man habe die Technologie entsprechend überarbeitet), fragt man sich, warum ausgerechnet Blania und seine Handvoll Mitstreiter die letzte Instanz in Sachen Identifikationstechnologie sein sollen. Und warum man sein Vertrauen lieber in sie als in demokratisch legitimierte Regierungen legen sollte – es muss ja nicht Indien oder China sein.
Blania verweist hier auf das Dezentralisierungsversprechen des Unternehmens: Worldcoin sei ein Open-Source-Projekt, das eines Tages allen gehören solle, im Grunde also maximal basisdemokratisch. Dass dabei erst einmal die Venture-Capital-Investoren belohnt werden: notwendiger Anreiz, irgendwer muss das Ganze ja finanzieren.
Sam Altman vergleicht sich unterdessen selbst gerne mit Robert Oppenheimer, dem Vater der Atombombe, und hat einen Brief unterzeichnet, der vor der «Auslöschung» der Menschheit durch KI warnt. Ist es nicht ein seltsamer Zufall, dass er mit Worldcoin selbst eine Lösung für viele der KI-Probleme anbieten will? Der nächste logische Schritt eines grossen Businessplans?
«Ich verstehe dieses Framing konzeptuell», sagt Blania. Doch sei seine Firma gar nicht gegründet worden, um ein Problem zu lösen. Wenn die künstliche Intelligenz dem Menschen eines Tages ebenbürtig sei, wäre das «die grösste Erfindung der Menschheit seit langer Zeit». Das sei in erster Linie kein Problem, sondern eine Technologie, welche die Menschheit «auf endlose Art empowern» werde.
Mit Worldcoin wollen er und Altman Ähnliches bewirken: einen ökonomischen Zugang für jeden Erdbewohner, eine demokratische Teilhabe am durch den KI-Boom ausgelösten Wohlstand. Ob dieser sich tatsächlich in nächster Zeit einstellt, ist zweifelhaft. Selbst Altman äusserte sich zuletzt skeptisch: «Ich denke, wir sind am Ende der Ära angekommen, in der diese gigantischen Modelle das grosse Ding sind», sagte er kürzlich.
Wenn er die grosse KI-Zukunft skizziert, spricht auch Blania von «zehn oder etwas mehr Jahren». Sein Projekt habe aber bereits jetzt eine Berechtigung, das Identifikationsproblem im Netz bestehe ja schon.
Dennoch wirkt die ganze Idee hinter Worldcoin zehn Schritte zu weit gedacht. Eine mit einem Dutzend Wetten auf die Zukunft verbundene Spekulation, die sehr viele «Wenns» enthält: Wenn das Worldcoin-Protokoll sich als einzig sicheres unter Hunderten anderen ähnlichen Projekten erweist; wenn eine ausreichend grosse Zahl an Weltbürgerinnen mitmacht und ihre Augen scannen lässt; wenn der Worldcoin sich als neue Währung ansatzweise durchsetzt; wenn nicht – wie teilweise bereits der Fall – grosse Wirtschaftsmächte der Kryptobranche einen regulativen Riegel vorschieben; wenn KI tatsächlich eine beachtliche Menge an Jobs ersetzt – dann, ja dann könnte Worldcoin vielleicht eine Chance haben.
Genauso gut könnten die Investoren und Teilnehmerinnen aber in nicht allzu ferner Zukunft auf ihrem Geld und wertlosen Tokens sitzen bleiben, die Hype-Karawane weiterziehen – ein Szenario, das man in der Branche als rug pull bezeichnet: grosse Versprechen, die sich am Ende in Luft auflösen.
Erinnerungen an den Kolonialismus
Damit das nicht passiere, sagt Blania, habe man das Projekt so konzipiert, dass es möglichst schnell wachsen und sich überall etablieren könne. Deswegen sei man in der Testphase auch in alle möglichen Weltregionen gegangen, von Norwegen bis Nairobi: um herauszufinden, wie Menschen auf den Orb reagieren, ob das Gerät unter allen Klimabedingungen funktioniert und inwiefern der Worldcoin auch dazu dienen könnte, Menschen ohne Bankkonto Zugang zum Wohlstand zu ermöglichen.
Er beschreibt das Ganze ein bisschen wie eine Klassenfahrt: In der frühen Entwicklungsphase des Projekts hätten er und ein paar andere Mitarbeiter am Brandenburger Tor in Berlin nach Testteilnehmerinnen gesucht, später in Schweden, London oder Norwegen – und dann eben auch in Entwicklungsländern. Das sei alles sehr aufregend gewesen, man habe viel improvisiert, viel gelernt.
Genau an dieser «Testphase» entzündete sich allerdings im vergangenen Jahr eine Kritik, die den bereits vorhandenen Datenschutz-Bedenken noch eine weitere Dimension verlieh. Sie weckte unangenehme Erinnerungen an den Kolonialismus, als westliche Forscher im Namen von Wissenschaft und Aufklärung die Schädel afrikanischer Ureinwohner vermassen.
Das Magazin «MIT Technology Review» kritisierte, Worldcoin habe in Ländern wie Indonesien oder Kenia biometrische Daten von Dorfbewohnerinnen eingesammelt. Neben dem Iris-Scan seien auch der Herzschlag oder der ganze Körper erfasst worden, ohne dass dabei eine glaubhafte Zustimmung eingeholt worden sei. Ausserdem hätten Worldcoin-Mitarbeiterinnen Lokalpolitiker bestochen, damit diese mehr Bürgerinnen dazu brachten, ihre Daten für das Projekt zur Verfügung zu stellen. (Am 2. August 2023 hat Kenia alle Aktivitäten von Worldcoin im Land wegen Sicherheitsbedenken suspendiert.)
In einem mittlerweile gelöschten Blogpost auf der Worldcoin-Website ist tatsächlich die Rede von «Bildern von Körper, Gesicht und Augen» sowie einem «dreidimensionalen Mapping des Körpers und des Gesichts» während der Testphase. Das Magazin zitierte ausserdem aus einem Dokument, gemäss dem Teilnehmer einer «Doppler-Erfassung von Herzschlag, Atmung und anderen Lebenszeichen» zustimmen sollten, also einer Art Ultraschallmessung.
Blania sagt, dass mittlerweile neuronale Netze diese Datenerfassung ersetzt hätten, man müsse also keine echten Menschen untersuchen, sondern könne die Daten synthetisch gewinnen. Die tatsächlichen biometrischen Daten seien nur für Trainingszwecke benötigt worden – soweit er wisse, aber nur im Firmenbüro. Man habe sich zwar zu Beginn die Option offengehalten, auch biometrische Daten zu erfassen, habe diese aber nie benötigt, sagt das Unternehmen auf Nachfrage.
Ein Stockwerk unter Blanias Konferenzzimmer sitzt Tiago Sada, 26, Worldcoins head of product, in einem kleinen Besprechungszimmer. Auch vor ihm steht einer der momentan zwischen 2000 und 3000 Dollar teuren Orbs, die in Deutschland produziert werden. Er hat sich Zeit genommen, um diesen im Detail zu erklären. «Es geht nur darum, dass der Orb lokal feststellen kann, ob du ein Mensch bist. Alles, was wir erfassen, wird gelöscht – was bleibt, ist der Iris-Code», sagt Sada, schwarzes Shirt, schwarze Hose, Dreitagebart.
Natürlich habe man in der Testphase «Menschen die Möglichkeit gegeben, uns mit ihren Daten zu unterstützen», sagt Sada. Er holt sein Smartphone aus der Hosentasche und öffnet die «Worldapp». In einem der Privatsphäre-Menüs deutet er auf einen Button: «Einmal drücken, alles ist gelöscht», sagt er. «Wir sind absolute Privatsphäre-Maximalisten. Heute kann jeder Nein sagen, der uns nicht mit seinen Daten helfen will.»
Seine Betonung auf «heute» macht stutzig. Denn die Testphase begann laut «MIT Technology Review» bereits ein Jahr vor der Veröffentlichung der App. Insofern hätte es damals auch keine Löschtaste gegeben. Das Unternehmen teilt dazu später mit: «Die Möglichkeit, Datenlöschungsanfragen zu stellen, stand den Nutzern schon immer zur Verfügung.» Mit der App sei dies den Nutzern aber vor einem Jahr noch leichter gemacht worden.
Was weder Sada noch Blania erwähnen: dass auch in der Testphase natürlich längst nicht mehr sie selbst die Scans ausführten, sondern «Orb-Operatoren», die als Subunternehmer für Worldcoin arbeiteten und einen Grossteil der Daten für das Unternehmen heranschafften. Es scheint sich ein Muster zu wiederholen, dem man in der KI-Branche oft begegnet: hier das diverse, junge Team im grossstädtischen Workingspace, das an einer superintelligenten Zaubermaschine forscht. Und hinter den Kulissen eine unsichtbare, gigantische Zahl an Menschen im Globalen Süden, die für die notwendigen Daten sorgen – prekär und mit wenig rechtlicher Absicherung.
Bei einer kritischen Nachfrage dazu unterbricht die Kommunikationschefin. Es gebe da «eine grundsätzliche Fehlwahrnehmung bezüglich der Entwicklungsländer, die man vielleicht mal aufschlüsseln sollte». Sie übergibt wieder Sada das Wort. Der stimmt zu, redet aber an der Kritik vorbei: Die «Fehlwahrnehmung» sei, dass Worldcoin speziell für Entwicklungsländer gedacht sei. «Es soll für alle sein», sagt Sada.
Nach exakt einer Stunde endet der Termin mit ihm, man müsse jetzt den kommenden Launch der Orbs in Deutschland vorbereiten. Wenn man die gerade in Sachen Datenschutz eher skeptischen Deutschen überzeugen könne, sei das ein massiver Erfolg, sagt Sada noch. Kommunikationschefin Hahn weist darauf hin, dass Apple und Google ja schliesslich auch bald eigene Formen von Iris-Scans anböten. «Es muss einfach diesen Moment geben, in dem etwas zum Teil der Alltagskultur wird, dann ist es plötzlich gar nicht mehr verrückt», sagt sie beim Abschied.
Wenige Tage später steht in einem Einkaufszentrum am Alexanderplatz in Berlin zwischen Apollo Optik und der Bäckerei Kamps ein Stativ mit einer silbernen Kugel.
Quentin Lichtblau ist freier Journalist in Deutschland. Er schreibt unter anderem für die «Süddeutsche Zeitung» und die «Zeit».