Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!

DatenschutzFAQErste-Hilfe-Team: kontakt@republik.ch.



Brot
·
· editiert

Ein besonders illustratives Experiment zum racial bias hat Algorithm Watch vorgelegt. Eine Google KI meldet:

  • Thermometer-Messpistole in einer dunkelhäutigen Hand = Handfeuerwaffe

  • Thermometer-Messpistole in einer hellhäutigen Hand = Fernglas

Mir graut ab einer Welt, in der dieses Verständnis automatisiert unter einem Deckmantel der Objektivität verschwindet. Guet Nacht am Sächsi wenn dazu, wie in Zürich, immer mehr Kameras installiert werden ohne die nötige Transparenz. Vielleicht richtet's ja Europa wieder mal für uns: Die Bürgerinitiative Reclaim Your Face für ein Verbot biometrischer Massenüberwachung läuft.

63
/
0

Liebe*r Anonymous, danke für dieses ergänzende Beispiel, welches auf erschreckende Art und Weise eine der Gefahren von Algorithmen aufzeigt. Mit freundlichen Grüssen!

12
/
0

Danke für diese Serie. Als Informatikerin im Studium bin ich froh zu hören, dass andere Frauen die Energie besitzen öffentlich über Ethik und Technik zu reden und aktiv die entsprechenden Probleme anzugehen.
Mit dem Studium ist bei mir noch mehr Verständnis gekommen, wo es überall Baustellen gibt. Und auch wie unterschiedlich meine Mitstudenten dies wahrnehmen.
Wie Deborah Raji identifiziere ich Ungerechtigkeit schnell, daher war mir Gerechtigkeit schon immer ein Herzensanliegen. Ich hoffe, dass ich in Zukunft mehr Energie haben werde, mich dafür einzusetzen. Für jetzt versuche ich es im Kleinen.

62
/
0

Danke fürs teilen, mir geht es als Physik- und Mathematik-Studentin ganz genauso. Vielleicht bewirken viele kleine Beiträge ja auch etwas :)

26
/
0

Das hoffe ich auch. Ist auch schön zu wissen, dass es anderen ähnlich geht :)

11
/
0

Liebe Frau O., danke für diese schöne Rückmeldung - und alles Gute auf Ihrem Weg!

7
/
1

Hoffentlich setzen sich Forscherinnen wie sie durch! Mein Unbehagen würde dadurch vielleicht etwas kleiner. Ich mag das „es ist halt unmöglich, die Inhalte ( oder was auch immer) zu kontrollieren, das ist auch nicht Aufgabe der Tech-Firmen…“ NICHT mehr hören.
Danke für diese Serie, ich freue mich schon auf den nächsten Teil!

45
/
1

Danke Frau S. - wir hoffen, Sie werden auch die kommenden Folgen der Serie mit Gewinn lesen. Herzlich! Bettina Hamilton-Irvine

7
/
0

Wichtiger Beitrag.
Zur Passage mit den Testdaten: Ich habe mit der auf das Gesicht beschnittenen Illustration eine kleine Google-Bildsuche gemacht. Ergebnis: Zuerst die Warnung: "Einige Suchergebnisse können anstößig sein. SafeSearch aktivieren und anstößige Ergebnisse ausblenden."
Darunter: "Mögliche verwandte Suchanfrage: for adult"
Dann zwei Wörterbuchdefinitionen zu "Adult" (z.B. "Adult Definition & Meaning - Merriam-Webster")
Dann eine Serie ähnlicher Bilder (dunkelhäutige Gesichter in ähnlichem Stil, die meisten weiblich, einige männlich, ein paar Kinder)
Dann unter dem Titel "Seiten mit übereinstimmenden Bildern" drei Links, davon ein Sexshop.
Wow. Oder besser: Q.E.D..

44
/
0

Kann ich bestätigen.

"Mögliche verwandte Suchanfrage: for adult"

Den Sexshop zeigt mir Google jedoch nicht.

2
/
0

Eigentlich bin ich mir gar nicht sicher, ob das ein gutes Beispiel für die Defizite maschinellen Lernens ist. Was, wenn die Google Bilderkennung das Bild korrekt übersetzt in «junge dunkelhäutige Frau» und die Fehlfunktion eigentlich bei der textbasierten Google-Suche liegt?

Sprich, wenn man direkt nach «junge dunkelhäutige Frau» suchen würde, erhielte man vielleicht dieselben Suchresultate. Das wäre nicht minder schlimm, wäre aber eine andere Art eines Programmfehlers.

Bei der Bilderkennung ist der Trainingsdatensatz entscheidend, während die Textsuche, soweit ich weiss, viel mehr «klassisch» durch ein von Menschen definiertem Regelwerk gesteuert wird. Dazu kommt vermutlich die traurige Realität, wie unsere Gesellschaft junge dunkelhäutige Frauen meistens im Internet abgebildet sieht. Der Fehler könnte also mehr darin liegen, dass die Google-Suchmaschine diese Verknüpfungen unreflektiert wiedergibt. Und nicht in den Trainingsdaten für die Bilderkennung.

Meinen Sie, da ist was dran?

0
/
0

Danke für den Einwand. Ja, die Gesamtheit der bei Google gespeicherten Bilder sind wohl die Trainingsdaten, und das Bild zeigt eine dunkelhäutige Frau. Wir können feststellen, dass dieses Bild mit "for adult" (und nicht mit "junge dunkelhäutige Frau") assoziiert wird, was im Englischen für "unangemessene Inhalte" steht, um den Begriff aus dem Artikel zu zitieren. Und ja, das Problem ist, dass der Algorithmus von Google eine "unreflektierte Verknüpfung" macht (aber bereits bei der Interpretation des Bildes) und somit den "Bias" - also die Wahrnehmungs-Verzerrung - verstärkt.
Ich habe soeben noch die Gegenprobe gemacht, indem ich das Bild verändert habe: Hellhäutig, blond, kleinere Nase und Mund, etwas schmaleres Gesicht. Dies wird folgendermassen assoziiert: "Mögliche verwandte Suchanfrage: hair design".

3
/
0
Frau eines Systemmanagers
·

Es ist noch nicht lange her, da meinte mein Mann, ich würde mich über die Ungerechtigkeit von Algorithmen aufregen, weil ich entweder zu wenig von der Neutralität der Zahlen verstehe, oder weil ich das alles viel zu emotional sehe... heute Morgen nun frage ich, welche Lektüre ihn so begeistere: die erste Folge von "Digital warriors" sei richtig gut! Also, Frauen und andere Minderheiten - es besteht noch Hoffnung! Bleiben wir emotional und empfindlich und skeptisch glatten Technologien gegenüber. Ein paar Männer werden sich ändern.

42
/
2
· editiert

Danke für Ihre Mut machenden Worte.

Meine Antwort auf das Argument der "Neutralität der Zahlen" wäre eben gerade, dass diese neutral sind. Sie filtern bestehende Ungerechtigkeiten und Diskrimierungen nicht heraus. Deshalb braucht es Menschen, die die Datensätze, Algorithmen, und deren Outcomes nach ethischen Grundsätzen bewerten.
Und diese Menschen tun dass momentan zu einem grossen Teil aus eigenem Antrieb, oft unbezahlt, gerade weil! sie emotional responsiv sind.
Wie schön wäre eine Welt in der dies als Stärke statt Schwäche gewertet würde.

21
/
0

Legendär ist, dass die Google Bilderkategorisierung zu Beginn sehr häufig Bilder von Menschen mit dunklerer Hautfarbe mit dem Begriff "Bild könnte Affen enthalten" klassifiziert hat.

Ich war damals fassungslos, als das in den (Tech-)Medien diskutiert wurde. Zeigt aber wunderbar auf, dass KI schlussendlich gar nicht Intelligent ist, sondern alles nur eine Frage der geeignetes Trainingsdaten ist - wie im Artikel auch wunderbar erklärt.

Weitere Beispiele sind die in USA eingesetzten Systeme zur Prognose, ob ein inhaftierter Straftäter nach der Entlassung wieder straffällig werden könnte, die bevorzugt Menschen mit nicht weisser Hautfarbe die vorzeitige Entlassung verwehren und dann auch noch von der Statistik anstelle einer tatsächlichen Persönlichkeitsanalyse bestärkt werden.

36
/
0

alles nur eine Frage der geeignetes Trainingsdaten ist

Nicht nur. Ein KI-Algorithmus kann auch auf einem ausgewogenen Datensatz systematische Fehler machen. Dies z.B., weil einfache Muster viel einfacher zu erkennen sind als differenzierte Zusammenhänge. Das ist auch ein Grund, wieso KI-Algorithmen häufig mehr biased sind als der Datensatz (jedoch normalerweise in dieselbe Richtung).

z.B.: https://www.sciencedirect.com/scien…00611#bib1

1
/
0
Cloud Infrastructure Engineer
·
· editiert

Je mehr Aufmerksamkeit ein Thema erhalte, je mehr Ressourcen hineinflössen, desto grösser sei die Gefahr der Verwässerung.

Das wäre dann das Pendant zum Begriff Greenwashing. Wichtig ist (so wie sie und hier die Republik es vormachen), dass die Wissensvermittlung nicht zu kurz kommt. So, dass 1. der Begriff "algorithmische Verzerrung" überhaupt von jemandem verstanden und 2. ein Verwässerungsversuch durchschaut werden kann.
Danke für diesen Artikel!

34
/
0

Danke Ihnen für diese Ergänzung, Herr M.!

3
/
0

Die Republik hat, wenn es mir Recht ist, bereits in einem früheren Artikel die Frage gestellt, ob man nicht zuerst über die Ethik reden müsste, bevor man über die Qualität der Algorithmen spricht. Die Frage wird auch hier wieder angeschnitten und ich hoffe, dass die Arbeit von Frau Raji dazu führen wird, dass ethische Überlegungen angestellt und der Einsatz von KIs grundsätzlich kritischer begleitet wird - und nicht nur, dass die Techfirmen lernen, ihre Trainingsdaten zu verbessern, um Kritik verstummen zu lassen.

Dass die Algorithmen besser sein müssen ist nämlich schon wahr, und da leistet Frau Raji gute Arbeit, aber für gewisse Einsatzzwecke dürften grundsätzlich keine Algorithmen zum Einsatz kommen, egal ob sie perfekt sind.

30
/
0
Lucia Herrmann
Community-Redaktorin
·
· editiert

Meinen Sie diesen Beitrag: «Wer sind wir? Warum künstliche Intelligenz immer ideologisch ist»?

(Edit: Link falsch gesetzt)

10
/
0

Ja, den meinte ich. Das Problem mit den Biases die sich in den trainierten Algorithmen verhärten, wird dort mMn sehr gut dargelegt.

Danke einmal mehr, Frau Herrmann.

6
/
0

Ich stimme Ihnen voll und ganz zu, Herr Z. Selbst perfekte Algorithmen ohne Biases sollten in ihrer Anwendung eingeschränkt werden. Die Frage ist, wie man dieses Problem angehen kann.

5
/
0

Danke - ich denke, es gibt nur eine Lösung: Klare, rechtlich verbindliche Regeln.

Alles andere (und es gibt durchaus ein paar lustige Ansätze mit adversarial neural nets, welche Bildelemente generieren, die für Menschen unverfänglich wirken, aber für AI total verwirrend sind) ist leider bestenfalls dann noch interessant, wenn man eine Revolution anzetteln muss und offen gegen die Staats- und Corpgewalt ankämpft. Wollen wir uns einen lebenswerten Staat erhalten, müssen wir diese Einschränkungen regulär in Gesetzen angehen.

4
/
0
Entwickler & Studi
·
· editiert

Sehr, sehr, sehr wichtiger Beitrag! Freue mich auf diese Serie. Vielen Dank.

Die Lösung ist meiner Ansicht nach verblüffend simpel:

  1. Eingesetzte Systeme und Software müssen Open-Source sein, damit jede und jeder prüfen kann wie sich ein Algorithmus verhält und evtl. sogar Fehler selbst beheben kann. (Gedächtnisprotokoll: Datensätze welche zum Trainieren von AI-Systemen eingesetzt werden, sollten wohl auch offengelegt werden. Plattform wo solche Datensätze von einer Community gepflegt würden und für solche Systeme zur Verfügung stünden wäre mächtig, gibts das schon?)

  2. Menschen/Kinder müssen so früh wie möglich mit Informatik in Kontakt gebracht werden um die dazu notwendigen Fähigkeiten zu erlangen und zu verstehen wie Computer(-systeme) funktionieren. Es ist herrlich unspektakulär. Damit meine ich nicht gamen, streamen o.ä., sondern Programmieren, Netzwerktopologien, Betriebssysteme und alle diese coolen Dinge. Es fägt, wenn man den Dreh erstmal raus hat ;)…

Ein Problem ist, dass für Ethik niemand bezahlt, weshalb eine Regulierung wohl unumgänglich ist. Solche Regulierungen und Standards sind jedoch nur effektiv umsetz- und überprüfbar, wenn die Systeme (oder zumindest deren Quellcode) offen vorliegen. Sprich; Open-Source sind.

30
/
2
ehemaliger Schüler
·

Lieber Joel

Ich stimme dir voll und ganz zu! Ich bin zurzeit 20 Jahre jung und würde mich zu denen zählen, die sich in der digitalen Welt gut zurecht finden – und doch weiss auch noch ich viel zu wenig. Ich glaube, dass das Problem darin zu finden ist, dass sich die Digitalisierung entlang des Schulsystems rasant entwickelt hat und von Letzterem nicht wirklich aufgenommen wurde. Natürlich hatte ich Informatikunterricht und lernte dort, wie ich eine Ebene in Photoshop anlegen kann, aber die Systematik hinter der ganzen Sache wurde nicht behandelt; obwohl es doch so schön sein müsste, in jungen Menschen das Interesse für's Hinter-die-Ecke-schauen zu wecken... Also wenn dir mal danach ist, unterrichte die Gesellschaft von morgen und mache das mutig und unkonventionell; ich schickte dann meine Kinder zu dir.

Herzlich
Tim

12
/
0

Lieber Tim,

Zu meiner Schulzeit war Informatikunterricht auch auf die Bedienung von Photoshop und Microsoft Office ausgelegt. Das ist tatsächlich nicht akzeptabel. Dieser Unterricht macht uns abhängig von BigTech Firmen. Ganz in deren Sinne. Weshalb wohl kriegen Schulen solche Produkte nachgeschmissen?
Du hast recht: das "Hinter-die-Ecke-schauen" sollte gefördert werden. Sonst fehlt unserer Gesellschaft die Fähigkeit, diesbezüglich kritisch zu denken.

11
/
0
Entwickler & Studi
·

Hi Tim, wenn's soweit ist sagst dus... freue mich ;) !

3
/
0
Cloud Infrastructure Engineer
·

Menschen/Kinder müssen so früh wie möglich mit Informatik in Kontakt gebracht werden

https://oreilly.de/produkt/ada-und-zangemann/

Das hat ein Freund von mir seinem Göttibub gekauft. Ein Anfang ist gemacht:)

6
/
2
· editiert

Danke Daniel für den Tipp! (und schön, dich hier wieder zu treffen :-))

3
/
1

"Denn ultimativ sei ihr Anliegen mit jenem der grossen Tech-Firmen unvereinbar."

Das ist ein wichtiger Punkt.

Die Geschäftsmodelle und Monopolstellungen dieser Firmen sind möglicherweise ein viel tiefer liegendes Problem. Ist es wirklich gut für die Menschheit wenn wir diesen Firmen zu perfekten Überwachungsalgorithmen verhelfen? Ist es nicht besser, solche Technologien grundsätzlich zu verbieten? Egal ob sie funktionieren oder nicht.

Klar, es notwendig, diesen Firmen und Algorithmen genauer auf die Finger zu schauen. Genauso ist es notwendig die Welt darauf zu sensibilisieren. Aber wir sollten uns bewusst sein dass diese Konzerne sehr stark darin sind, unsere Meinung zu beeinflussen. Es ist quasi deren Hauptgeschäft. Angebliches Bestreben, Gesichtserkennung bias-free zu machen dient vor allem der Beruhigung der Gesellschaft und dem Entgehen von Regulierung.

Das ganze erinnert mich an BP mit dem ökologischen Fussabdruck: Jener hat hauptsächlich den Zweck, vom Konzern abzulenken und die Gesellschaft mit sich selbst zu beschäftigen.

Das darf uns nicht nochmals passieren.

25
/
0

"Denn ultimativ sei ihr Anliegen mit jenem der grossen Tech-Firmen unvereinbar."

Ich denke keineswegs, dass Deborah Rajis Anliegen unvereinbar ist mit jenem der grossen Tech-Firmen. Wie Sie richtig schreiben, geht es ja gerade darum, den perfekten Algorithmus zu schaffen bzw. dem so nahe wie möglich zu kommen. Dazu gehört es natürlich auch, Minderheiten gut zu erfassen. Beispielsweise dürfte China grosses Interesse daran haben, eine Gesichtserkennungssoftware zu entwickeln, die genauso gut Uiguren erkennen und auseinander halten kann wie Han-Chinesen. Und die US-amerikanische Polizei wird Interesse daran haben, auch die Gesichter von people of color zuverlässig zu erkennen.

Ich sehe hier eine Parallele zur Diskussion um die Unzuverlässigkeit bzw. Fehleranfälligkeit von Killerdrohnen, wie sie neulich in der Republik in dem Interview «Drohnen verringern die politischen Kosten eines Krieges» geführt wurde. Auch hier wird kritisiert, dass die Technik fehleranfällig ist und zu Kollateralschäden führt. Doch das eigentliche ethische Problem wird auch hier nicht dadurch gelöst, dass man die Algorithmen bzw. die Technologie optimiert.

Unter diesem Aspekt liest sich Deborah Rajis folgender Satz anders, auch wenn er wohl nicht so gemeint war:

Raji [] frage sich zunehmend, ob sie eigentlich ein Teil des Problems sei, das sie lösen wolle.

10
/
0

Durchaus. Wenn wir uns in der Diskussion über die Fehlerrate von Killerdrohnen verlieren haben wir schon akzeptiert das es solche überhaupt geben darf.

Möglicherweise ist Raji tatsächlich ein Teil des Problems, das sie lösen will. Denn auf lange Sicht verhilft sie der extrem problematischen Technologie zu einem besseren Ruf und besserer Akzeptanz. Wie Sie sagen, aus dieser Sicht arbeitet sie ganz im Interesse des Überwachungskapitalismus.

Allerdings weiss ich zu wenig über ihre Publikationen und Aktivitäten um das genau beurteilen zu können.

5
/
0
Even Meier
(ex | they)
·

Gleichentags erscheint ein Artikel, mit einer Anleitung zum Kommentieren von Artikeln, der mit drei weissen, gebildeten Männern illustriert wird - und mein Hinweis auf die Parallelen zum Artikel hier wird mir Downvotes abgestraft.

Auch Menschen handeln basierend auf Trainingsdaten. Wie wichtig die hier beschriebene Arbeit, Kritik, Ausdauer! Danke, Republik! Danke, Forschende!

28
/
5
Chaoswesen
·
· editiert

Das war in meinem Verständnis doch Anspielung auf "die Physiker" von Dürrenmatt.

Du hast aber absolut recht dass Repräsentation wichtig ist und ich stimme dir zu, dass man ein besseres Beispiel hätte wählen können.

Ich hoffe du kannst aber dass du damit die Wahl etwas positiver einordnen.
Falls dir das eh klar war, dann hilft mein Beitrag natürlich nichts :)

4
/
0
Even Meier
(ex | they)
·

Ja, danke, der Link war mir klar. Es darf uns nur nicht verwundern, wenn Menschen, die nicht repräsentiert sind, nicht repräsentiert sind, hier: sich nicht einbringen. Und: Schlimmeres. Siehe Artikel, siehe Kommentare, siehe Links, siehe Leben ...

5
/
0
Informatikstudent
·
· editiert

Cool. Wie immer ist die Republik bei netzpolitischen Themen ganz vorne dabei.

Ein Problem ist, dass viele Algorithmen von weissen Männern stammen. Die Techbranche braucht unbedingt mehr Diversität und Vorbilder wie Deborah Raji. Das würde sicher helfen, fairere Systeme zu bauen.

Ich würde sehr gerne in einem vielfältigeren Umfeld arbeiten und studieren. In der Lehre waren zwei von fünfzehn Lernenden Frauen, davon blieb eine länger als das erste Jahr und hat auch abgeschlossen. In der Berufsschule und der BMS war ich in reinen Männerklassen. Jetzt im Studium mit ungefähr ~80 Studis kann man die Frauen an einer Hand abzählen. Das finde ich sehr schade.

Liebe Frauen, überlasst die Technik nicht den Männern. Macht mit und bestimmt mit! Wir profitieren alle davon.

23
/
0

Kann Ihnen nur zustimmen. Wenn ein Algorithmus schon bei mir (meinem Gesicht) nicht funktioniert, dann zeig ich ihn auch nicht meinem Arbeitskollegen oder Chef und ins Produkt kommt er erst recht nie.

Das soll nicht heissen, dass wir unsere Algorithmen nicht an rigorosen Testsets testen sollten, aber eine schlechte Idee kommt leider sehr viel weiter, wenn die Diversität hinkt.

4
/
0
Simon Reber
Software Entwickler, Familienvater
·

Auch dieses Problem werden wir nicht lösen können, solange die grossen Firmen einzig dafür existieren, ihren Kapitaleignern eine möglichst grosse Rente abzudrücken.
Eine Firma sollte sich zuallererst dafür interessieren, ihre Produkte in grösstmöglicher Qualität und zu einem erschwinglichen Preis anbieten zu können. Das aber ist mit dem Kasino der Börsen im Hintergrund nicht mehr möglich.
So beschränkt Apple ohne Zweifel, die Lebensdauer seiner Geräte, um auch in Zukunft hohe Umsätze erzielen zu können und wird von der Börse dafür reich belohnt. Das Gegenteil müsste der Fall sein. Apple gehört wegen unlauterem Wettbewerb und Ausnutzung seiner monopolartigen Stellung mit hohen Bussen belegt, damit die Aktien an Wert verlieren.
Das Gleiche gilt selbstverständlich für alle Grosskonzerne, von IT, Agro, Öl bis zur Pharma.
Die Staatengemeinschaft täte gut daran, die riesige Macht von Grosskonzernen zu begrenzen. Es wird nicht mehr lange dauern, bis die ersten sich eine Söldnerarmee leisten können, um ihre Ziele mit Gewalt durchzusetzen, die Öl und Agrarmultis exerzieren uns das ja bereits in der Dritten Welt vor.

19
/
0
Albert America
Grafik und Webdesign
·

Das wird interessant. Ich freue mich auf die weiteren Artikel von "Digital Warriors". Ich halte den bereits den Begriff "Künstliche Intelligenz" als irrführend. Es sind meist durch Algorithmen gesammelte Listen. Das ist vielleicht praktisch und gewinnträchtig, aber intelligent ist der Einsatz davon meist nicht. Informativ fand ich das Buch "Künstliche Intelligenz und der Sinn des Lebens" von Richard David Precht. Nicht nur Menschen die Programme entwickeln, sollen sich dazu äussern. Dazu sind die Auswirkungen von KI viel zu mächtig.

17
/
0

Es gibt den akkurateren Begriff "machine learning". Künstliche Intelligenz, so wie wir sie heute oft antreffen, ist ein Buzzword.

15
/
0
Rolf Wilhelm
IT Nerd
·
· editiert

Ganz meine Meinung. Von Intelligenz ist das alles sehr weit entfernt. Aber auch ein intelligenter humanoider Geist lernt durch Beispiele. Die Idee an sich ist also durchaus bestechend - nur sind wir in der Realität aktuell höchstens bei "Machine Learning" angekommen.

3
/
0

Danke für dieses Portrait und das sichtbar machen der Treiber der Tech Entwicklungen. Gerne mehr dazu.
Insbesondere die Abgrenzung von Ethik und Technik als Disziplinen und damit das Ausklammern wichtiger gesellschaftlicher Fragen scheint mir entscheidend und wichtig nachzugehen.
Was passiert da gerade? Entsteht hier ein Bewusstsein für diese Fragen, oder steht das Machbare des wirtschaftlichen Vorteils Willen im Vordergrund?
Wie weit instrumentalisiert hier die Politik Forschung? Und: Sind die Motive sozial inkludierend? Oder: Scheint es ein Ziel zu sein eben nicht inkludierend zu sein?
Gerne mehr zu diesen Themen.

PS: Was hilft zu wissen, ob jemand pinke Leggins trägt? Was macht das mit dem Leser? Soll die dargestellte Person damit charakterisiert werden? Gäbe es nicht andere Merkmale die es mehr verdienen erwähnt zu werden?

15
/
0

Die pinken Leggins sind in diesem Fall eine direkt bildliche Illustration, dass sie "fehl am Platz" wirkt, zumal sie selber den Blick dorthin richtet. Klar, das kann man auch (sehr wahrscheinlich) an ihrer Hautfarbe festmachen oder an ihrem Geschlecht, aber Ersteres käme imo noch viel schräger rüber und Letzteres wird ja dann direkt anschliessend auch gemacht.

15
/
0
Theologin/Pfarreiseelsorgerin
·
· editiert

Da startet ja eine spannende Beitragsreihe, auf die ich mich sehr freue. Danke! Von diesem Thema/der Problematik habe ich erstmals 2016 oder '17 im Rahmen von journalistischen Weiterbildungen zum Thema Machine learning/Datenjournalismus usw. gehört. Edit: es ist gut, dass es Aktivist:innen in dem Feld gibt und sie hör- und sichtbar werden!

15
/
1

Wer sich über andere starke nicht-Männer aus dem Technikbereich etwas informieren möchte, kann bei den Haecksen anfangen:
https://www.haecksen.org/memorials/

10
/
0
Christoph Pieren
Schon ein wenig altmodisch
·

Ich sehe, dass sich in dieser Debatte einige It Fachleute äussern. Und darum meine Frage: Ist die künstliche Intelligenz auf guten Wegen? Was sind die Ziele? Ich mit meiner wohl eher altmodischen Einstellung habe da eher Bedenken. Gesichtserkennung zur Überwachung, Maschinen die Menschen beurteilen, Bildbearbeitung zum Gleichmachen von Gesichtern oder Sonnenuntergängen. Irgendwie steckt doch hinter jeder Aufgabe eine Gesinnung, Motivation, Haltung der Auftraggeber und Entwickler.

7
/
2
Informatiker
·

Als Informatiker finder ich die Debatte oft zu wenig differenziert. Wie jede Technologie kann auch künstliche Intelligenz zu ganz verschiedenen Zwecken genutzt werden, die ethisch ganz anders zu beurteilen sind: Man kann ein M. benutzen, um damit zu morden, aber in der Hand eines Chirurgen kann es Leben retten.

Ist das M. jetzt gut oder böse? Ich würde sagen, das M. steht jenseits der Ethik, erst eine konkrete Anwendung kann ethisch beurteilt werden.

Nun ist es so, dass künstliche Intelligenz ziemlich investitionsintensiv ist, und diese Investition will irgendwie amortisiert werden. Deshalb dient künstliche Intelligenz oftmals kommerziellen Interessen. Aber das ist eine Verallgemeinerung, die nicht immer zutrifft. Und auch kommerzielle Interessen können für die Gesellschaft einen Mehrwert schaffen.

In der Öffentlichkeit (und erst recht in der politisch linken Öffentlichkeit) hört man vor allem von den Fällen, wo ein böser Konzern künstliche Intelligenz in verantwortungsloser Weise für seine kommerziellen Interessen nutzt, und dabei anderen Menschen schadet. Wenn ein Algorithmus hingegen gut funktioniert, oder zu hehren Zielen eingesetzt wird, ist er meistens keinen Presseartikel wert.

Und ja, es gibt auch solche Anwendungen. Zum Beispiel:

... und es gibt sicher noch weitere, ich bin im Thema nicht so tief drin.

Ich plädiere deshalb dafür, dass wir nicht das Werkzeug sondern seine Anwendung ethisch bewerten. Eine mit Machine Learning trainierte text-to-speech Engine kann sowohl dem Sehbehinderten beim Internet-Surfen helfen, wie auch zur automatischen Durchführung unerwünschter Werbeanrufe genutzt werden. Aber es ist die gleiche Software.

Selbst Gesichtserkennung, überall in der Kritik wegen Gefährdung der Privatsphäre in Verbindung mit Massenüberwachung des öffentlichen Raums, kann für die Früherkennung seltener Erbkrankheiten genutzt werden.

10
/
1
Simon Reber
Software Entwickler, Familienvater
·

Der Begriff künstliche Intelligenz ist sehr hochtrabend und wohl ein reines Marketing-Konstrukt.
Real gibt es so etwas nicht. Was wir haben sind zum einen Expertensysteme, die durch riesige Datenmengen und schiere Rechenpower so etwas wie Intelligenz simulieren und neuronale Netze, welche gezielt trainiert werden. Diese neuronalen Netze aber als KI zu bezeichnen ist stark übertrieben. Diese Programme müssen gezielt mit Daten gefüttert werden, bis sich die gewünschten Verhaltensweisen einstellen, welche sehr rasch wieder aus dem Ruder laufen können und daher ständig überwacht werden müssen.

Echte Intelligenz würde sich die Daten selbst beschaffen und sich selbständig Lösungen für die gestellte Aufgabe erarbeiten.
Die heute im Einsatz stehenden Systeme sind reine Sklaven, welche ständig von aussen auf Kurs gehalten werden. Sie haben keinerlei Selbständigkeit.

Von der Erschaffung einer echten KI sind wir sicher noch Jahrzehnte entfernt, wenn nicht sogar Jahrhunderte.
Solange ein einziges fehlendes '!' im Programmcode das Verhalten eines Programms völlig chaotisch werden lassen kann, solange werden wir keine KI erschaffen können.
Erst wenn der Programmcode rückgekoppelt sich selbst überprüft, wird so etwas wie KI realisierbar.
Und davon sind wir noch weit entfernt, weil sich damit alleine kein Geld verdienen lässt.

10
/
1
Informatiker
·

Ich glaube ihnen, dass sie Software-Entwickler sind, aber von KI scheinen sie nicht allzu viel zu verstehen. Ich bin ja selber auch kein Experte für dieses doch sehr spezialisierte Teilgebiet der Informatik, aber ein paar Dinge muss ich doch geraderücken:

Sie haben recht, dass KI primär ein Marketingbegriff ist, und für die professionelle Verwendung viel zu unscharf ist, weil es letztlich keine allgemein anerkannte Definition des Begriffs "Intelligenz" gibt. Fachleute sprechen deshalb von Machine Learning, da ist klarer was gemeint ist.

Dass Neuronale Netze "ständig überwacht werden müssen, damit sie nicht aus dem Ruder laufen" stimmt jedoch in dieser Allgemeinheit nicht, denn es gibt nicht nur Supervised Learning, sondern auch Unsupervised Learning.

Und wenn sie sich anschauen, was DeepMind mit AlphaZero erreicht hat:

In late 2017, we introduced AlphaZero, a single system that taught itself from scratch how to master the games of chess, shogi, and Go, beating a world-champion computer program in each case.

oder was die jetzt mit muZero tun:

The latest version of our algorithm, known as MuZero, takes these ideas one step further. It matches the performance of AlphaZero on Go, chess and shogi, while also mastering a range of visually complex Atari games, all without being told the rules of any game.

scheint mir ihre Prognose von "Jahrzehnte bis Jahrhunderte" doch etwas gar pessimistisch.

9
/
3

Der Begriff ist zu sehr "gehypet" von den Medien. Unterdessen ist schon jeder simple Algorithmus "KI" geworden. Dinge die ein Teenager in ein paar Stunden auf seinem Laptop gebastelt hat. An der Technologie wird wie wild geforscht und einige relativ eng definierte Szenarien können sehr gut gelöst werden und die neuronalen Netze haben teilweise auch schon übermenschliche Leistungen vollbracht (siehe zum Beispiel AlphaGo). Das sind tolle Errungenschaften und das ist eigentlich generell positiv.

Das "Problem" entsteht, wenn man die Technologie auf weniger eng definierte Szenarien anwendet. Gesichtserkennung ist relativ simpel für uns und erscheint relativ eng definiert. Es ist etwas schwerer für eine künstliche Intelligenz, aber bereits da sieht man Probleme auftauchen (siehe Artikel).

Beispiel:

Eine Person die in der Schweiz aufgewachsen ist, hat beispielsweise vielleicht Mühe Leute in China auseinander zu halten, alleine darum einfach, weil sie sich nicht gewohnt ist Asiaten zu sehen. Nach ein paar Wochen in China, ist aber das Problem schon viel einfacher geworden und die Person hat nicht ständig das Gefühl einen neuen Bekannten im Zug wieder zu erkennen. Die Person lernt die Unterschiede in chinesischen Gesichtern zu erkennen.

Mit den neuronalen Netzen verhält es sich recht ähnlich: Sie sind nur so clever wie die Daten, die man ihnen gefüttert hat.

Unterdessen sind diese Netze extrem gewachsen und vollbringen ungeheuerliche Aufgaben relativ gut (Autopilote im Strassenverkehr), aber gleichzeitig steigt auch deren Datenhunger und das Aufbereiten von Daten ist eine sehr kostspielige und aufwändige Arbeit.. und gerade da sparen viele halt. Datensätze zu bauen ist nicht "sexy" und wenn man beispielsweise historische Daten zur Hand nimmt, sind da immer altmodische Neigungen darin zu finden.

Das Hauptproblem meiner Meinung nach ist, dass neuronale Netzwerke uns ermöglichen Probleme zu lösen, wofür wir vorher nie einen Computer hätten brauchen wollen. Klar, ein PC kann schneller rechnen als wir, er druckt unsere Briefe schöner als wenn wir sie selber von Hand schreiben würden und er kann sich alles merken... aber Autofahren? Und wir sind noch daran zu verstehen was nun neu geht und was doch noch nicht so gut geht. Klar ist das ein riesiger Markt. (Relativ) plötzlich können Computer viel mehr als bisher? Klar springen da alle darauf auf. Vor allem die Datenkraken, die ja eh schon einen Haufen Daten gesammelt haben und nicht recht wissen wohin damit. Lösungen werden also etwas zu voreilig angepriesen, verkauft und angewendet.

Das Ziel? Geld zu verdienen mit billigen, neuen Lösungen, die heute noch manuell vollrichtet werden müssen. Aber auch hier ist es potentiell gefährlich, schlecht getestete Technologie auf den Markt zu bringen. Regulierungen sind also zu begrüssen, wie das auch bei anderen Technologien vor Problemen und Missbrauch schützt.

6
/
0

Vielen Dank für den tollen Artikel, ich freue mich schon auf den Rest der Serie! Ich kann zu dem Thema auch die Dokumentation "Coded Bias" auf Netflix sehr empfehlen.

8
/
0
Senior Policy & Advocacy Mgr
·

Liebe R. F., danke für den tollen Artikel – und überhaupt die Serie! Ich arbeite von zivilgesellschaftlicher Seite zur Thematik und bin überzeugt, dass es genau solche Beiträge wie den ihren braucht. Nur ein Punkt ist mir im Artikel aufgefallen, der m.E. falsch ist: "Mittlerweile ist die staatliche Anwendung von Gesichts­erkennungs­technologie im gesamten Land verboten." Dies ist in der USA schlicht nicht der Fall – die Technologie wird von mehreren staatlichen Behörden eingesetzt. Auch wenn mehrere Städte und Staaten sie verbieten (oder Anstrengungen in diese Richtung unternehmen), ist dies keineswegs für das ganze Land der Fall. Was ist hier gemeint, worauf beruft sich der Satz bzw. sollte dieser Satz nicht präzisiert werden?

7
/
0

Liebe Frau M., herzlichen Dank für Ihre Rückmeldung und die netten Worte. Sie haben Recht, das ist tatsächlich etwas unpräzise formuliert. Es geht hier um den Facial Recognition and Biometric Technology Moratorium Act of 2021, der am 15. Juni 2021 von Senator Edward Markey eingegeben wurde. Wir werden dies im Text präzisieren. Herzlichen Dank und freundliche Grüsse, R. F.

4
/
0
christian balke, der Fliegendruck
erst, einzig und letzter Fliegendruck
·

guter Artikel, anregend und ich freu mich auf Weiteren.
Ich verstehe mich als Teil dieser Selbstermächtigungsgruppe.
Frau Raji möchte nicht zuviel Wirbel "Je mehr Aufmerksamkeit ein Thema erhalte, ... desto grösser sei die Gefahr der Verwässerung. .."
Es nimmt mich wahrlich wunder, wie solch Geschäften politisch und gar weltweit geordnet werden soll! ("rechtlicher Standards, Regulierung – und der Emanzipation von jenen Bevölkerungs­gruppen, die heute am stärksten unter den negativen Effekten von Algorithmen leiden.")
In dieser Geschichte erhalten wir ein Bild auf Ami, Kanada, Megvii scheint bloss als Name auf.

4
/
0

Klar, politisch korrekte "humane" Algorithmen. Sinnvoll wäre es meiner Meinung nach nur noch, sich konsequent gegen solche leider nicht mehr bloss dystopischen Möglichkeiten der Massenüberwachung zu engagieren. Grundsätzlich hinterfragen, anstatt das System der künstlich intelligenten Gesichtserkennung zu fördern und zu perfektionieren.

3
/
0

Banale Kapitalismuskritik beiseite - der Mangel an Netzpolitik führt zu einem medialen Aufmerksamkeitsverlust für die Gefahren von unregulierten IT-Systemen.

Regulierung sollte die Schnittmenge aus den Interessen des freien Marktes und des Staates bilden.

Finden sie auch?

4
/
2

Toller Artikel, vielen herzlichen Dank liebe Roberta! Insbesondere, weil er Hoffnung macht und die Leser:in nicht in Resignation versinken lässt. Die (wie für die Republik üblich) zahlreichen Links im Artikel sind zudem echt wertvoll, finde ich!

Zum dahinterliegenden Grundproblem ein treffendes Zitat aus einem lesenwerten Beitrag von David Sommer zum Thema:

Zudem lernen alle datenbasierten Klassifikations-Algorithmen (also nicht nur neuronale Netzwerke) lediglich die Verteilung der Trainingsdaten, also das Klassifizieren basierend auf dem jeweiligen Input. Daher reproduzieren sie die gesellschaftlichen Konventionen, die implizit in die Trainingsdaten eingeschrieben sind. Durch die drohende Technologiegläubigkeit der Anwender, die Ausgaben der Algorithmen ohne grosses Hinterfragen zu verwenden, werden sich gesellschaftliche Probleme, wie z. B. Diskriminierung basierend auf Herkunft oder Geschlecht, sogar noch verstärken.

1
/
0
Masterstudent Informatik ETH
·

Es ist sehr befremdlich, wie dass eine seriöse Firma nichts unternimmt, wenn eine Mitarbeiterin auf eine offensichtliche, sogenannte „class imbalance“ aufmerksam macht. Das ganze Modell kann somit komplett nutzlos sein und ist nicht viel anderes als Schlangenöl.
Die Frau hätte eine Gehaltserhöhung statt ein Schulterzucken verdient. Völlig lächerlich wie extrem falsch viele Informatiker KollegInnen Machine Learning verstanden haben scheinen. Viele scheinen zu glauben, dass wenn das Teil einen guten Score hat, da auch automatisch pure Wahrheit herauströpfelt. Dabei ist es nur ein Haufen schwer kontrollierbarer Zahlen.

Grossartige Serie, ich habe euch gleich abonniert!

1
/
0