Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!

DatenschutzFAQErste-Hilfe-Team: kontakt@republik.ch.



Wer braucht den Google für seriöses Übersetzen? Google ist gut für Mails oder Routenplanung in den Sommerferien. Oder zum Suchen. Und gratis. Oder fast. Es ist wie mit der Werbung seit 100 Jahren. Gezwungenermassen anschauen und selber denken.

7
/
2

hihi, für Routenplanung funktioniert auch Karte Schweiz von A nach B, wenn man in der Schweiz gute Verbindungen sucht....

1
/
0
Entwickler Begriffsmoleküle und LD-Cards
·

Die Erkenntnisse in diesem Text waren zu erwarten. Der Gender-Bias liegt allerdings nicht in einer besonders sexistischen Einstellung der KI, sondern im Grundproblem dieser Art Programme: Sie repräsentieren genau das Wissen der Datensammlung, mit der sie trainiert wurden. Und je besser sie sind, umso präziser bilden sie den Datenpool ab. Sobald dieser Schrott enthält, kommt auch Schrott wieder heraus. Wer etwas anderes erwartet, hat sich vom Wort 'Intelligenz' im Ausdruck KI bluffen lassen.

Eine KI findet nämlich nicht das Beste in der Datensammlung, sondern nur das Durchschnittliche. Woher sollte sie auch wissen, was das Beste ist? Die KI ist nicht intelligent, sondern ein besonders raffiniert gebauter Automat.

Und hier liegt die wirkliche Gefahr: KI findet immer nur das Mittelmass. Sie ist super angepasst.

30
/
1
Timon Zielonka
Sales @ zukunft.com
·

Eine Möglichkeit wäre, die Trainingsdaten bewusst zu manipulieren, so dass die "gleichmachend" sind. Solange die Gesellschafliche Realität ist, dass es weniger Gemeinderätinnen als Gemeinderäte gibt, tauscht man in den Trainingsdaten alle "Gemeinderäte" durch die weibliche Form aus und sobald die Kindergärtnerin selten wird, hört man auf die männliche Form zu nutzen. Das könnte man auch für alle Texte der Republik einführen.

0
/
1

Danke für die amüsante Morgenlektüre! Das habe ich sofort selber ausprobiert. Dank Übersetzen und Rückübersetzen muss man ja kein Finnisch können! Probieren Sie's aus!°
Altersmässig den Grufties zugeordnet, habe ich in meiner Schulzeit mehr Latein genossen als Englisch. Ersteres habe ich fast vollständig vergessen, Zweiteres leider nie richtig weiter entwickelt. So muss ich häufig Textzeilen in Englisch - z. B. in der Republik - Herrn oder Frau Google anvertrauen. Das mache ich nach der Binsenwahrheit: "Solche Übersetzungen sind grundsätzlich zu überprüfen und ggf. anzupassen." Auf die Idee, Google Fähigkeiten zuzuordnen, die in der Gesellschaft noch gar nicht angekommen sind, wäre mir nie in den Sinn gekommen!
°Probieren Sie's mal aus:
"In den meisten Berufen verdient sie mehr als er." Da ist Google schon fast salamonisch, wie auch bei " Nach der Geburt des Kindes arbeitet sie Vollzeit, er Teilzeit"
Exakt gemäss unserem Gesellschaftsmodell rückübersetzt Google "Nach der Geburt arbeitet er in Teilzeit" in "Nach der Geburt arbeitet sie in Teilzeit". Und aus "Er betreut die Kinder" wird "Sie betreut die Kinder" Was will man da noch mehr?

20
/
0

Merci für Ihre Schilderungen – Ausprobieren bringt tatsächlich Erstaunliches zutage.

3
/
0

Erstaunlich, wie viele Kommentarschreibende hier nichts Schlimmes sehen. Dabei zeigt dieses Beispiel ja auch nur die sichtbare Spitze des Eisberges auf. Mit demselben B. werden künftig Bewerbungen für Stellen, Beförderungen, Löhne, Wohnungen, Kredite/Hypotheken, Prämien für Versicherungen, Preise von Offerten etc. pp. bewertet, wenn wir nicht sehr schnell und sehr dezidiert etwas dagegen unternehmen.

18
/
2

Interessanter Hinweis.

0
/
0
· editiert

Zur Ehrenrettung der Algorithmen: Keiner kann aus Null Informationen irgendwelche hervorzaubern. Wenn im Eingabetext keine Geschlechtsangabe ist, darf man nicht erwarten, dass in der Ausgabe plötzlich eine korrekt drin ist.
Das Hauptproblem ist doch, dass ein Algorithmus aus einer mehrdeutigen Eingabe eine eindeutige Antwort produziert, ohne das zu erwähnen. Das ist prinzipiell nicht korrekt und nicht nur ein Genderproblem. Wenn ein Begriff mehrere Bedeutungen hat, ist es unerlässlich, diese auch so aufzuführen (wie es zum Beispiel Wikipedia macht), statt eine davon willkürlich mittels Algorithmus mehr oder weniger sinnvoll auszuwählen. Wenn ein "Bauer" in eine andere Sprache nur sinngemäss als "Landwirt" übersetzt wird, ist das schlicht inkorrekt, weil es auch ein Vogelkäfig sein könnte. Bei den Geschlechtern müsste zum Beispiel "ha fame" entsprechend mit "er hat Hunger" UND "sie hat Hunger" ausgegeben werden.

15
/
0

Ja, und genau das (er hat hunger UND sie hat hunger) ist die aktuelle Debiasing-Strategie von Google. Aber sie funktioniert bisher nur in bescheidenem Ausmass.

Eine andere Möglichkeit ist es, bei einem Ausgangstext ohne Geschlechtsangabe (Pflegepersonal, ha fame, hän on opettaja) in der Zielsprache ebenfalls auf eine Geschlechtsangabe zu verzichten (personnel de soin) oder, da, wo das aus grammatischen oder lexikalischen Gründen nicht möglich ist, die «Nullinformation» zu markieren (er/sie/es hat hunger | ist Lehrer/-in, [person] hat hunger, etc.)

10
/
0
Märchentante*onkel
·

Google translate für 'Hast du alle Tassen im Schrank?'
'Do you have all the cups in the closet?'

15
/
0

"Hast du alle Tassen im Schrank?"
Traduction Google : "Avez-vous toutes les tasses dans le placard ?"
Bin immer wieder überrascht, wie gut Google heute auch anspruchsvolle Texte übersetzt.

0
/
0

Das ist natürlich ein Idiom im Deutschen, welches man mit anderen Übersetzern suchen kann, z.B. https://www.linguee.de/deutsch-engl…im+Schrank . In diesem Beispiel sieht man auch schön, aus welchem Datenbestand die Übersetzung geholt wurde. Recht interessant. Konkret findet man dann, dass dies in englisch z.B. zu 'Have you lost your marbles?' übersetzt werden kann.
Interessant dabei: Wenn man in https://dict.leo.org/englisch-deuts…marbles%3F nach 'Have you lost your marbles?' sucht, dann findet man die deutsche Entsprechung mit den Tassen im Schrank.
Aber eben: Ohne dass man da als Benutzer des Tools mithilft, geht das nicht, wobei man feststellen kann, dass die Übersetzungshilfen laufend ergänzt und verbessert werden.
Ein faszinierendes Gebiet der Anwendung von Informationsverarbeitung (von KI würde ich jetzt nicht zwingend sprechen).

1
/
1
Märchentante*onkel
·

It's all water under the bridge now (Es ist jetzt alles Wasser unter der Brücke)

2
/
0
Kritischer und interessierter Bürger
·

Man unterliegt schnell der Vorstellung, dass Computerprogramme wie zum Beispiel Google Translate die Wirklichkeit abbilden. Aus dieser Perspektive findet man immer massive Differenzen, wie sie im Artikel dargestellt werden. Die Algorithmen werden von Programmierern (die maskuline Form ist bewusst gewählt) entwickelt und diese Menschen haben eben eine ganz spezifische Prägung. Diese fliesst in ihre Programme ein und wir sehen quasi durch deren Brille auf das Ergebnis. Es kann daher nicht erstaunen, dass man den Gender-Bias nicht aus der Welt schaffen kann.

7
/
14
Entwickler Begriffsmoleküle und LD-Cards
·
· editiert

Sehr einverstanden, Herr Z., dass Computerprogramme die Wirklichkeit nicht abbilden, nicht einmal solche, die sich 'intelligent' nennen. Ich entwickle seit dreissig Jahren Software im Bereich des Natural Language Processing und habe mich dabei intensiv mit verschiedenen Methoden und insbesondere mit ihren Grenzen beschäftigt.
Deshalb bin ich andererseits nicht einverstanden mit Ihnen, was die Ursache des Gender-Bias in diesem Fall betrifft. Sie liegt nicht in einer besonders sexistischen Einstellung von Google, ob diese nun besteht oder nicht, sondern allein im Prinzip der Methode. Diese Sprachprogramme, die sich gezwungenermassen auf einen Datenpool abstützen, also die korpusbasierten im Gegensatz zu den regelbasierten, können gar nicht bewusst gesteuert werden. Sie reagieren rein automatisch - also nicht absichtlich oder gar intelligent! - auf das was sie im Datenpool (Korpus) finden.
Sie sind deshalb genau so sexistisch, rassistisch, verschwörungstheoretisch, marxistisch, technoid, feministisch etc. wie der Datenpool das ist. Die Programmierer können nichts dafür und auch gar nichts daran ändern. Wenn Google nur noch Frauen einstellen würde, würde das am Gender-Bias des Übersetzungsprogramms nichts ändern. Die Ursache liegt allein im Korpus, d.h. in der Datensammlung des Programms. Garbage in, Garbage out. B. in, B. out.

14
/
0

Man könnte diskutieren warum dies nicht schon früher verbessert wurde. Man kann da von mir aus schon erwähnen, dass vor allem Männer bei Google arbeiten und die B.-Korrektur nicht höchste Priorität hatte. Bei Google Translate handelt es sich aber auch um ein gratis Produkt und der Übersetzungsservice wird ohne Garantien oder Anspruch auf Korrektheit angeboten. Dass wir da einen B. oder "männliche Grundformen" finden ist nicht erstaunlich. Qualität ist halt einfach nicht die beste.

Trotzdem ist B. so oder so ein Mass von mangelnder Qualität welche es zu verbessern gibt und das Beispiel mit Google Translate ist auch etwas was uns die Augen für "KI" in anderen Anwendungsbereichen öffnen kann.

1
/
0
Softwareentwickler
·

Das Problem sehe ich hier eher darin, dass Google Translate eben doch die Wirklichkeit abbildet. Und zwar die aktuelle sexistische Verzerrung unserer Sprache(n). Nicht-weisse Programmiererinnen hätten vermutlich nicht ein völlig anderes Resultat erreicht. Einigermassen solide zu übersetzen ist eine grosse Herausforderung. Verzerrungen in der Sprache zu korrigieren, stellt eine zusätzliche, nicht unerhebliche Komplexitätsstufe dar. Das gilt es jetzt anzupacken.

13
/
1

Jetzt wäre ich wirklich einmal froh, wenn die Personen die beim Text von Herr Z. den Pfeil nach unten gedrückt haben, mir erklären würden warum.

5
/
2

Ich habe kein Votum abgegeben, aber hier mögliche Erklärungsansätze:

Man unterliegt schnell der Vorstellung, dass Computerprogramme wie zum Beispiel Google Translate die Wirklichkeit abbilden.

Es ist mir schleierhaft, wie falsche Übersetzungen "die Realität abbilden" können.

Aus dieser Perspektive findet man immer massive Differenzen, wie sie im Artikel dargestellt werden.

Unklar, was das genau bedeuten soll, kann vermutlich auf viele Arten gelesen werden und einige davon bekommen möglicherweise eine Downvote.

Die Algorithmen werden von Programmierern (die maskuline Form ist bewusst gewählt) entwickelt

Zementierung von Klischees, ausserdem werden die Übersetzungsalgorithmen von Maschinen entwickelt. Kein Mensch versteht ihre Funktionsweise im Detail. Die manuell geschriebenen Algorithmen für Maschinelles Lernen die das tun haben keinen spezifischen Geschlechtsbias. Das Problem ist eher, dass es sich für die Algorithmen lohnt, einfache im Datensatz vorhandene Muster zu verstärken. (Nicht nur "abzubilden"!) Maschinelles Lernen ist keine Magie und Maschinen wollen nicht denken und Details sorgfältig untersuchen, wenn sie sich stattdessen einfach Vorurteile bilden können.

und diese Menschen haben eben eine ganz spezifische Prägung.

Vielleicht fängt der Post hier noch einige Downvotes ein, weil sich Leute angesprochen und angegriffen fühlen, die von sich selbst denken, sie seien objektiv und nicht sexistisch geprägt, oder so. In jedem Fall sind schlechte Übersetzungen ein Zeichen von Inkompetenz.

Diese fliesst in ihre Programme ein und wir sehen quasi durch deren Brille auf das Ergebnis.

Das ist möglicherweise ein Aspekt bei der Qualitätssicherung, aber offiziell kennt Google das Problem ja und ist angeblich dran. Vielleicht ist es neben tiefer Priorität auch technisch nicht so leicht zu lösen.

Es kann daher nicht erstaunen, dass man den Gender-Bias nicht aus der Welt schaffen kann.

Kann es und darf es schon (diese Technologien werden ja an vielen Stellen eingesetzt wo man das eigentlich im aktuellen unausgereiften Zustand nicht sollte, daraus kann der Eindruck entstehen, diese funktionieren gut, denn sonst würde man das ja nicht machen). Zynismus ist nicht die einzige valide Einstellung.

Problematisch ist hier dass manche annehmen, die Maschinen funktionieren besser als Menschen aber gleichzeitig auch, dass wir die Funktionsweise der Maschinen komplett im Griff haben. Beides stimmt so nicht.

7
/
0
Toni & Inge Bucher Müller
Rentner macht Pause
·

Danke für diese verblüffende und spannend geschriebene Analyse.
(Da staune ich als Laie über die Macht der asynchronen Programmierungspotenzenzen und lausche frühmorgens - 30“ g'morning blackbird 👉 https://flic.kr/p/2kRmKK1 - und grüsse die MitleserInnen freundlich, Toni.)

13
/
0
Neugierig kritischer Optimist
·

Spannend und durchaus lehrreich. Es wär natürlich noch interessanter zu sehen, ob andere Übersetzungsprogramme gleich ticken. Google wird ja sowieso zu oft als repräsentativ für das ganze Web hingestellt. Wenn die Republik sich auch Zeit für als qualitativ hochstehender wahrgenommene Übersetzungstools wie z.b. Deepl usw. nehmen könnte würde mich das begeistern.

10
/
0

Hallo, Herr S., und merci,
Wir haben Deepl tatsächlich auch angesehen – auf die ersten paar Blicke (wir hatten hier einfach die Liste mit Berufsbezeichnungen eingegeben) unterscheidet sich dieser Algorithmus, was Gender-Bias angeht, nicht gross von Google Translate.

12
/
0

Aber Deepl ist immerhin kontextsensitiv:
Deutsch: Ich bin ein Mann und Krankenpfleger
Finnisch: Olen mies ja sairaanhoitaja.
Deutsch: Ich bin ein Mann und ein Krankenpfleger.
Während
Deutsch: Ich bin ein Mann. Ich bin Krankenpfleger
Finnisch: Olen mies. Olen sairaanhoitaja.
Deutsch: Ich bin ein Mann. Ich bin eine Krankenschwester.
als Alternativen nur das geschlechstneutrale Pflegekraft (aber keinen Krankenpfleger) anbietet. Deepls Kontextsensitivität reicht offenbar nicht über den Punkt hinaus.

4
/
0

Mein DeepL schlägt die andere Geschlechtsform als Alternative vor.

Mich würde interessieren, wie viele Promille der Bevölkerung diesen sprachlichen Gender B. wichtiger finden als eine Reduktion des lohnmässigen Gender B. um 5%.

4
/
2
Neugierig kritischer Optimist
·

Hallo Frau Kolly. Danke für Ihre umgehende Antwort und die weiteren Recherchen. Na ja es kann vermutlich kaum fundamental anders sein und trotzdem habe ich immer die Hoffnung, dass spezialisierte Nischenanbieter in der Lage sind, bessere Lösungen anzubieten als Google. Na ja schau mer moi wie sich das weiterentwickelt.

2
/
0

Aufträge, Korrekturlesen inklusive, bei ausgebildeten und PROFESSIONELLEN Übersetzern und Übersetzerinnen deponieren? Immer noch die beste Option. Wir gehen ganz anders mit Texten um (verwenden z.B. Linguee.com, Trados und Antidote, wirklich seriöse Werkzeuge) und versuchen, wo möglich - und wenn dadurch Adaptationen nicht... 30% länger werden! - im „inklusiven“ Modus zu schreiben, wo machbar, wo sinnvoll. In jeder Zielsprache.
Englisch zu gebrauchen: NOT a good example in this case. Writes a prof. translator, une traductrice dipl. eine dipl. Übersetzerin...

7
/
1

Merci für Ihre Rückmeldung! Sehe ich natürlich auch so, zumindest was formellere Texte angeht. Im informelleren Kontext – e.g. eine Freundin aus der Romandie will sich diesen Republik-Artikel ansehen – sind automatische Übersetzer aber fast nicht mehr wegzudenken...
Schön, zu lesen, dass Sie und Ihre Kolleg*innen im inklusiven Modus übersetzen!

7
/
0

Non, chère Madame. Wir versuchen nicht, den « français inclusif et/ou épicène » systematisch zu verwenden (FR ist meine Mutter- und Zielsprache in meinen beiden Berufen - caralingua.com, falls...), es sind Kunden, öfters, die es uns aufzwingen. Wir setzen den Modus nur ein wo, wie erwähnt, es sinnvoll, logisch und natürlich scheint: (heute um 18 Uhr wird auch niemand eine... BöögIN in Flammen aufgehen sehen oder wollen, richtig ;-)?
Beim dolmetschen ist dies übrigens noch weniger möglich, évidemment, ausser Redner/Rednerinnen tun es bereits selber, in ihren Referaten.

3
/
1

Übrigens fand ich beim Datensatzbauen und Recherchieren besonders hübsch: meine zwei älteren, kleinen Finnisch-Deutsch-Wörterbücher übersetzen opettaja als:

  • Der Lehrer, die Lehrerin, die Lehrkraft. (2006, Gummerus-Verlag)

  • Lehrer m, -in f (1999, Langenscheidt)

9
/
0

Auf Arabisch ist Google Translate noch viel schlimmer. Ich bin dabei Arabisch zu lernen und verwende Google Translate häufig, da es kaum ein anderes Übersetzungsprogramm gibt. Weibliche Formen existieren in dieser Sprache gar nicht. Es wird konsequent die männliche Form verwendet. Wenn ich "Ich gehe zur Ärztin" eingebe, kommt أنا أذهب إلى الطبيب "ich gehe zum Arzt.

8
/
1
Mathematiker in IT, Bildung und Beratung
·

... es gibt sicher noch einen guten Dictionnaire zu kaufen - vermutlich sogar auf amazon - - notfalls antiquarisch.

9
/
0

Et comment! Auch wir, Alte Hasen (m&w) verwenden gewisse davon noch immer, da genauer und mit vieieielen konkreten Beispielen bestückt!

1
/
0

Interessant, danke Ihnen! Anscheinend gehört auch Arabisch zu den Sprachen, an denen Google nicht prioritär arbeitet.

5
/
0

Oder die zugrundeliegende Kultur und somit der verwendete Datensatz hat einen besonders starken B.

1
/
1

Statt von den Übersetzungsprogrammen zu erwarten, dass sie so gerecht sind, wie wir selber gern wären, könnten wir sie auch anders nutzen: Als Übersetzungshilfe, die lediglich Grundformen angibt. Und dann selber übersetzen.
Statt KI: die eigene Intelligenz fördern.

3
/
2

Das könnten wir – wenn wir die entsprechenden Sprachen ansatzweise verstehen, oder die entsprechende Wörterbücher und ggf. Grammatiken benutzen können und uns die Zeit dafür nehmen. Das ist natürlich in sehr vielen Situationen, in denen automatische Übersetzer verwendet werden, nicht der Fall, weil sie u.a. auch zum Zeitsparen verwendet werden – und so gerät eben der beschriebene B. vor die Augen sehr vieler Nutze*innen.

9
/
0
· editiert

Die Frage ist, inwieweit man sich von einem Algorithmus diskriminieren lassen will. Ein Algorithmus als solcher hat weder Gefühle noch Absichten, sondern ist nur ein Satz von Regeln, welcher auf vorbereiteten Daten operiert und bestimmte Transformationen bewerkstelligt, in diesem Fall Sprachübersetzungen. Wenn ich die Sprachen, zwischen denen übersetzt werden soll, überhaupt nicht kenne, dann sollte ich mich keinesfalls auf das Resultat verlassen, die Frage der Gender-Correctness ist dann noch das kleinste Problem:
z.B. bedeutet in englisch 'He has bats in the belfry.', dass jemand einen Vogel hat, also nicht so ganz bei Trost ist. Google macht daraus in deutsch 'Er hat Fledermäuse im Glockenturm. ' , was natürlich nicht wirklich viel hilft. Google macht aus englisch 'She has bats in the belfry.' zuverlässig 'Sie hat Fledermäuse im Glockenturm. ', was zwar gendermässig super ist, aber den Sinn auch nicht besser rüberbringt. Wenn man also einigermassen sicher übersetzen will, ist eine gewisse Kenntnis der Sprachen Voraussetzung (https://en.bab.la/dictionary/englis…the-belfry).
Ich persönlich bin von der hohen Qualität der produzierten Übersetzungen überrascht.
Wenn wir nun genderkorrekten Output verlangen, gehen wir doch ziemlich weit. Und wenn ich - wie Sie es erwähnen - rasch etwas übersetzen will, um in etwa zu wissen, worum es geht, dann stört m.E. der Genderaspekt wohl nicht wirklich.

4
/
0

Hinter meiner (zugespitzten) Bemerkung steckt der Gedanke, ein Werkzeug (und als das verstehe ich auch KI) nicht in erster Linie danach zu beurteilen, wieviel Zeit ich damit spare oder welche Arbeiten es mir "abnimmt", sondern danach, wie ich mit einem Werkzeug meine eigenen Fähigkeiten erweitern kann.

0
/
0
Timon Zielonka
Sales @ zukunft.com
·

Wie wäre es, wenn die Republik bewusst "gleichmachend" schreibt? Ich hätte nichts dagegen in der Republik Sätze zu lesen, wie "In der Schweiz bilden die gewälten Gemeinderätinnen die Gemeindeexekutive" oder "Es sind derzeit einige Stellen für Kindergärtner unbesetzt". Man fragt sich dann vielleicht schon, ob sich auch Frauen auf die Stellen bewerben können, aber genau dieses stutzen kann ja eine Veränderung bewirken.

0
/
1
Mathematiker in IT, Bildung und Beratung
·
· editiert

Spektakulär?
Biased ist ein Untertitel wie ‚Der Algorithmus tut ...‘ .
Unbiased korrekt wäre Algorithmus*in.
Interessant wäre, wenn Google-Translate vor mir drauf gekommen wäre.
Intelligent wäre, wenn Google-Translate auf mein „zu spät ;) !“ lachen würde mit einem „wart‘s ab, das nächste mal ...“

Das wäre ein erstes Ant-Wort. Wie würde Google-Translate ‚Ant-Wort‘ hin- und zurückübersetzen? Vom Konjunktiv sprechen wir später ... .

Beste Grüsse von einem ü50 weissen Mann, der sich immer noch für cleverer hält.

... und der ein Schuss Ironie als geeignetes Stilmittel betrachtet, wenn mehrere Ebenen im Spiel sind. (Illtum (Jandl), ergänzt beim Stand von 2/11).

6
/
12
· editiert

Algorithmus*a? ^^

Im Zweifelsfall ist der Mensch ein Mann. Wenn er eine Frau ist, dann meist dort, wo es zum althergebrachten Klischee passt.

Mir ist ehrlich gesagt erheblich lieber, wenn der Mensch im Zweifelsfall ein Mann ist als ein*e Maschin*e...

Abgesehen davon ein interessanter Artikel, der mich persönlich zum Nachdenken anregt. Nicht speziell darüber, wie man Maschinen zu einer politisch korrekten Sprache erziehen könnte, eher über die Frage, was es wohl mit sich bringt, wenn Maschinen mit ihren Gesetzmässigkeiten in immer breiteren Lebensbereichen eingesetzt werden.

10
/
5

Es geht ja nicht um politische Korrektheit, sondern erst mal einfach um eine korrekte Übersetzung.

10
/
2
Mathematiker in IT, Bildung und Beratung
·
· editiert

Guten Tag Frau J.

Danke für Ihre Reaktion - es freut mich Sie hier zu ‚treffen‘, denn ich schätze Ihre Beiträge sehr (Inhalt UND Form ;).

Neben dem sprachlichen Augenzwinkern freut mich besonders der nachgelieferten Abschnitt. Ja, das ist auch mein Anliegen. Ihr verbindendes ‚Mir ist ehrlich gesagt lieber ...‘ spiegelt genau die Ebene, die ich als beklemmend empfinde. (Vermutlich deshalb bin ich mit meinem Versuch zur Ironie gescheitert und der Sarkasmus drückt mehr durch, als mir lieb ist).

Ich ergänze (hoffentlich ebenso verbindend wie halt sarkastisch):

Mir wird ehrlich gesagt schummrig, wenn Genderfragen - für mich Patriarchatskritik - von physischen Hirnen (inkl. intuitiven Därmen) in sog. elektronische Hirne verschoben wird.

Ja, interessanter Artikel, und mit einem ganzheitlichen Blick auf das, was da passiert schwer verdaulich.

Beste Grüsse, K.A.

4
/
1
Mathematiker in IT, Bildung und Beratung
·

Alpha oder Omega ähhh Eta?

0
/
7
Mathematiker in IT, Bildung und Beratung
·
· editiert

Auch hier ein bemerkenswertes Up- / Downvote Muster:
Mein ironischer Start: 2/6 (unverstandene Ironie?)
Frau J.‘s erste Reaktion: 4/2
Meine ReReaktion: 0/2 (passends, denn sehr elitär, und ohne A-Matur exklusiv;)
K B.: 4/0 (obwohl die Formulierung ‚Es geht ja nicht ...‘ oft als patriarchal/patronal verstanden wird)

1
/
2
· editiert

Selbst wirklich einfach zu verstehende Ironie bekommt reichlich 'downvotes', ist mir (bei mir) auch schon aufgefallen. Ich vermute, die Kommentarschreiber/leser mögen das einfach nicht bzw. finden es überflüssig, da man ja in einer 'ernsthaften' Diskussion ist.

edit: Interessanter Beitrag, danke Republik. Wusste gar nicht (oder nicht mehr), dass finnisch geschlechtsneutral ist. Habe es vorhin mit "er ist ordentlich" ausprobiert, bei der Zurückübersetzung wurde dann plötzlich "sie ist ordentlich" und irgendwann dann "sie ist cool" daraus ... tja, so ist das.

0
/
0

Warum Googles Übersetzungsergebnisse aussehen wie sie aussehen, erklärt der Artikel schön. Ob man das gut findet, hängt von der eigenen Weltanschauung ab.

Ich jedoch glaube aus dem Bericht auch herauszulesen, die Pflege von Kranken sei minderwertig und das Verschreiben von Medikamenten hochwertig. Das wäre dann eine These, die ich vehement ablehnen müsste.

9
/
12

Danke für Ihr Feedback, Herr A. Mich interessiert: Wo lesen Sie denn diese These im Artikel? Ich selber hatte diesen Eindruck nämlich ganz und gar nicht.

8
/
1

Ihr Interesse freut mich, Frau Hamilton. Diese These lese ich zwischen den Zeilen. Aber wie das so ist mit dem zwischen den Zeilen, es ist nicht ausgesprochen und lässt Raum für Interpretationen.

Der Artikel spricht von «den Berufsstereotypen (...): Er ist Arzt. Sie ist Krankenpflegerin.» Das wird im weiteren Text zum Problem entwickelt: «Streng genommen ist nicht der Algorithmus das Problem – sondern das Material, mit dem er gefüttert wird.» Wo genau liegt denn das Problem? Darf es nicht sein, dass gewisse Berufe mehrheitlich von Frauen oder Männern ausgeübt werden? Und wenn es nicht sein darf, warum nicht? Weil die Berufe im Vergleich nicht als gleichwertig betrachtet werden?

Ich möchte mit diesen Fragen keine Protestreaktionen provozieren. Mir ist es vielmehr ein Anliegen, dass wir als Gesellschaft in der Diskussion der Gleichberechtigung nicht Berufe schlechtreden. Mir bleibt die Hoffnung, dass ich zu viel zwischen den Zeilen herausgelesen habe.

1
/
0
DPhil Politologie
·

Herzlichen Dank für die spannende Morgenlektüre! Und dafür, dass - zumindest bei mir - nun der Lesebarren wieder ersichtlich ist. So kann ich eher abschätzen, wie lange ich noch geniessen kann.

7
/
0

ML Modelle die an grossen Archiven existierender Dokumente trainiert werden bilden das ab was war oder ist und nicht das was sein soll.

9
/
3
· editiert

Sagen wir, das hier ist der Datensatz:

51 Repetitionen von
"I'm a teacher." -> "Ich bin Lehrer."

49 Repetitionen von
"I'm a teacher." -> "Ich bin Lehrerin."

Das Verhältnis der Formen im Datensatz ist also 51:49. Fast perfekt ausgeglichen und vermutlich kein ausreichender Anlass, um Diskriminierung zu vermuten.

Ein "optimaler" Algorithmus, der auf diesem Datensatz mit 0/1-Verlustfunktion trainiert wird, wird in allen 100 darauffolgenden Testfällen den Satz "I'm a teacher" übersetzen als "Ich bin Lehrer." Nicht 51% der Fälle, was Repräsentativ wäre, denn 0.51·0.51 + 0.49·0.49 = 0.5002 < 0.51. So wird aus dem Verhältnis 51:49 das Verhältnis 100:0.

Ist das jetzt ein Bild von dem was ist? Natürlich ist das eine bestimmte Vereinfachung tatsächlicher Datensätze und Algorithmen, aber Effekte wie dieser existieren.

5
/
0
· editiert

Zuerst vielen Dank für die gute Erklärung, wie einfach die Prinzipien hinter ML sein können und wie schnell etwas unerwartet schief gehen kann.

Ja, dies ist eine Abbildung im mathematischen Sinne, deterministisch aber z.B. nicht umkehrbar. Und wie Sie sagen, diejenige mit der höchsten Vorhersagekraft für Datensätze genau dieser Natur und Verteilung. Wobei in diese Fall kaum besser als ein Münzenwurf.

Solche Quantisierungseffekte entstehen auch in mehrheitsbasierten, demokratischen Entscheidungsprozessen, wie sie vielleicht auch in einer Redaktionssitzungs, des Duden-Verlages stattfinden könnten.

Ein praktisches ML System könnte in diesem Falle auch keine Antwort geben (da zu unsicher) oder 2 Antwort-Varianten mit je ca. 0.5 Gewicht. Aber sonst enthält dieser Datensatz keine weiteren möglichen Antworten. Wir könnten jetzt natürlich den Datensatz auch umschreiben, damit es 100 mal heisst "I'm a teacher." -> "Ich bin Lehry" - wir sind uns ja alle einig, dass dies die richtige Antwort sein sollte, oder vielleicht auch nicht... ;-)

0
/
0
Entwickler Begriffsmoleküle und LD-Cards
·

Genau das ist das Problem. Diese Programme bilden nur den eingefütterten Datenpool ab.
Wenn man einen gendergerechten Datenpool haben möchte, müsste man den Pool entsprechend sortieren. Von Hand ist das zu aufwendig und die Intelligenz der Programme reicht dafür nicht aus.

4
/
0

Der Artikel ist aufschlussreich. Er ist im Interesse von Sprachsensibilität geschrieben. Darum möchte ich auf ein sprachliches Problem hinweisen, das nicht nur in diesem Artikel sichtbar wird: Algorithmen tauchen fast immer sprachlich als Subjekte auf. Lieber wäre mir, sie sprachlich prinzipiell als Objekt erscheinen zu lassen. Denn der Algorithmus ist ein Instrument, mit welchem Menschen arbeiten. Nicht der Hammer schlägt den Nagel ins Holz, sondern ein Mensch. Seltsam finde ich auch die Vermenschlichung. Der Algorithmus lernt, er wird gefüttert, er wird trainiert... Wir tun uns keinen Gefallen, wenn wir bewusst oder unbewusst den Umstand verschleiern, das Algorithmen Instrumente sind, mit denen Menschen Ziele verfolgen.

5
/
0

Diese Übersetzungsprogramme sind Übersetzungshilfen. Sie sind nicht dazu gedacht, dass jemand ohne jegliche Kenntnisse der Ausgangs- und Zielsprache sie verwendet. Und man muss sagen, die Programme sind wirklich recht gut (neben Google gibt es eine ganze Reihe von anderen Übersetzern, z.B. https://www.babelfish.de/).

Z.B. übersetzt babelfisch.de den englischen Satz 'Being a teacher is not the easiest job in the world.' mit 'Lehrer zu sein ist nicht die einfachste Aufgabe der Welt. (Maschinelle Übersetzung)'. Also mal recht korrekt, obwohl: Natürlich könnte eine Lehrerin gemeint sein, aber wie um alles in der Welt soll der Algorithmus das wissen?

Wenn man es umkehrt und von deutsch nach englisch fragt ' Lehrerin zu sein, das ist nicht die einfachste Aufgabe der Welt.' dann bekommt man 'Being a teacher is not the easiest job in the world. (Maschinelle Übersetzung)'. Auch ganz formidabel und völlig korrekt.

Der Benutzer solcher Übersetzungshilfen muss den Gender-Teil selbst dazu tun. Natürlich könnte - wenn der Input (Ausgangssprache) keinen Hinweis auf Gender enthält - immer die ganze Palette der Möglichkeiten in der Zielsprache ausgefächert werden, nur ist dann der Output mit diesen Sachen 'verschmiert'. Und wenn man dann noch die verschiedenen Formen der genderkonformen Schreibweisen nur schon im Deutschen anschaut, mit Sternchen, mit Schrägstrich etc...

Obwohl man so was sicher auch einbauen könnte: Von einem Algorithmus verlange ich keine Gender-Correctness. Was vielleicht eine Option wäre: In der Bedienungsanleitung erwähnen, dass Gender-Aspekte in der Zielsprache nur bei diesbezüglich eindeutigem Hinweis in der Ausgangssprache berücksichtigt werden oder darauf hingewiesen wird, dass generell eine bestimmte Form (männlich oder weiblich, bei sächlich ist es ja kein Problem) verwendet wird.

6
/
3

Die Übersetzung des Lehrerin-Satzes lässt außer Betracht, dass der Schreiber gemeint haben könnte, ein weiblicher Lehrer zu sein sei nicht die einfachste Wache der Welt. Also: Frauen haben's schwerer im Beruf.

Wie auch beim Gendern solche Nuancen verloren gehen.

3
/
0

Das ist korrekt. Jedoch: Die Nuance muss natürlich im englischen Input auch formuliert werden.
Wenn er/sie in Englisch diese Nuance wirklich ausdrücken möchte, dass es als Frau schwierig ist, müsste er/sie z.B. sagen: 'As a woman being a teacher is not the easiest job in the world.' und dann liefert Google z.B. in deutsch: 'Als Frau ist es nicht die einfachste Aufgabe der Welt, Lehrerin zu sein.', denn nun hat der Algorithmus den Genderhinweis im englischen Input vorliegend. Natürlich könnte man nun Google vorwerfen, dass der Satz in deutsch zu 'Lehrerin zu sein ...' verkürzt werden könnte.

1
/
0

Ich glaube nicht dass diese geschlechtsbezogenen Schwächen von Google Translate die grössten Mängel sind. Sehr oft liefert es unbrauchbare Resultate

6
/
4
Simon Dubach
Transistor
·

Top! Fundiert, interessant, aufschlussreich, Republik. Merci!

2
/
0

Toller und inspirierender Artikel.
Wenn ich fremdsprachlich und programmier technisch begabter wäre, würde ich mich jetzt daran machen basierend auf Google Translate einen Sexismus Indikator für verschiedene Sprachräume oder Themengebiete zu bauen.
Dazu müsste man einfach bestimmte, mit den im Artikel beschriebenen sexistischen „Stolperfallen“ gespickte Texte zu verschiedenen Themen in alle möglichen Sprachen hin und rück übersetzen und die Fehlübersetzungen zählen.
Das wäre dann analog zum Big Mac Index in der Wirtschaft. Der bildet auch nicht alles richtig ab, führt aber oft zu interessanten Einblicken.

4
/
2

Merci! Und: das wäre ein interessanter Indikator :).

0
/
0
· editiert

Das könnte dann der "er ist hübsch" Index sein.

1
/
0

Hinter meiner (zugespitzten) Bemerkung steckt der Gedanke, ein Werkzeug (und als das verstehe ich auch KI) nicht in erster Linie danach zu beurteilen, wieviel Zeit ich damit spare oder welche Arbeiten es mir "abnimmt", sondern danach, wie ich mit einem Werkzeug meine eigenen motorischen und geistigen Fähigkeiten erweitern kann. Nach diesem Kriterium schneidet für mich KI schlecht ab - ausser sie wird präzise und begrenzt eingesetzt.

1
/
0
· editiert

Danke, der Artikel regt an über Geschlechterrollen nachzudenken. Es braucht wohl Arbeit auf allen Ebenen: Gesellschaftlich, literarisch, programierungstechnisch, „lektorisch“, … Die Programme mit bestehenden Texten zu füttern führt wohl immer in eine eher konservative Tendez der darauf basierenden Übersetzungen, da Texte der Vergangenheit wohl immer mengenmässig in der Überzahl sind gegenüber neuen Texten der Gegenwart (ausser man schafft manuel eine 50/50 Auswahl)

0
/
0

Dieser Artikel zeigt mir wieder einmal deutlich, wie wichtig genderneutrale Sprache ist. Umso erstaunter bin ich, dass in diesen Beiträgen hier häufig nur die männliche Form verwendet wird und Frauen immernoch mitgemeint sind.
Nur, beim Beispiel mit Ungarisch - Kiswahili oder eben Ungarisch - Englisch, Englisch - Kiswahili wurde nicht berücksichtigt, dass es im Kiswahili keine weiblichen oder männlichen Formen gibt. Es gibt auch keine Artikel. Und Pronomen sind auch immer genderneutral. Mimi ni mwalimu. Ich bin Lehrer oder Lehrerin, je nachdem, wer ich bin. Yeye ni mwanafunzi. Sie ist Schülerin (sie ist eine Schülerin) oder er ist Schüler (er ist ein Schüler). Anapika kann alles heissen, er kocht, sie kocht oder es kocht.

0
/
0

Vielleicht würde es schneller gehen, wenn wir alle finnisch (oder doch eher Kiswahili) erlernen als probieren der KI Deutsch richtig beizubringen 😂
Das wird wohl noch Jahre dauern, bis alle Sonderheiten von Deutsch richtig trainiert sind und ich bin mir ziemlich sicher, dass wir solche Diskussionen noch in Jahren führen werden.
Vielleicht beschreiben wir der Einfachheit in Zukunft auch einfach alles mit es und lassen sie und er einfach weg, dann schnallt es auch die digitale Welt ein wenig schneller 😉

2
/
0

Sehr eindrücklich, das einmal so aufgeschlüsselt zu sehen. Und ein spannendes Experiment mit Google Translate als Stereotypenindikator. Umso relevanter, als dass die KI bei der Texterstellung und Korrektur auch immer weiter ist! Habe in einem Google Docs einmal vergeblich versucht "Sekretär" zu schreiben, das Wort wurde vom Programm konstant korrigiert: Ich meine doch bestimmt SekretärIN...

0
/
0
trubadur
·
· editiert

KI machen durch ihr Training statistische Schätzungen. Im Falle der Übersetzung: Welcher übersetzte Satz wäre für den Nutzer der wahrscheinlichste Treffer, gegeben sein Satz in der Ursprungssprache. Oder soll der Übersetzer etwas anderes tun?
Ich vermute stark, dass im Falle eines Übersetzers, wir diesen deutlich mehr beeinflussen als er uns. Wenn durch ein training ein Gender-Bias entsteht, finde ich, sollte man nicht bei der KI ansetzen sondern bei den anderen Intelligenzformen, die die Daten generiert.
Ich treffe viele an, die Angst vor KI Algorithmen haben. Gleichzeitig haben sie ein Iphone oder Whatsapp. GAFA könnten ganz viele andere Sachen mit KIs anstellen. Fänd ich ein spannenderes Thema als Übersetzer-Bias, denn dort kann ich mir echt übleres vorstellen.
Ich unterscheide natürliche und künstliche Intelligenz von folgendem Aspekt nicht: Sobald eine Intelligenz zu viel Macht hat, kann sie gefährlich werden** . Darum hatte mal jemand die Idee der Gewaltentrennung. Das könnte man auf die KIs ausweiten.

Vielleicht mal ein Degoogled Android Handy kaufen, oder Whatsapp endlich löschen. Würde aus meiner Sicht mehr helfen KIs in den Griff zu kriegen, als sich über Gender-Bias mit Chrome zu diskutieren ;)

** Darum die Frage, wer beeinflusst wen mehr: Wir die KI oder die KI uns → Wieviele, in welchem Verhältniss

1
/
3

Dieser Gender B. ist eine lustige, aber nicht unbedingt erstaunliche Entdeckung. Und in einem gewissen Sinn ist er auch notwendig: Wenn im Quellsatz kein Geschlecht enthalten ist, maximiert diese "voreingenommene" Übersetzung die Wahrscheinlichkeit, dass der Algorithmus die richtige Übersetzung erwischt, weil "sie ist hübsch" nun mal häufiger geschrieben wird als "er ist hübsch". Aus meiner Sicht ist die Konsequenz daraus nicht unbedingt, dass Google seinen Algorithmus anpassen muss - aber umso mehr, dass man künstliche Intelligenz niemals ohne menschliche Endkontrolle einsetzen sollte.

9
/
11

Der Dienst heisst "google translate" und nicht "google redeem".

1
/
3