Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!

DatenschutzFAQErste-Hilfe-Team: kontakt@republik.ch.



Timon Zielonka
Sales @ zukunft.com
·
· editiert

Vielen dank für das (für mich) sehr interessante Interview. Mir war ConceptNet bisher entgangen, obwohl ich die einzelnen Komponenten (json-ld, dbpedia, cyc) aktiv verfolge.

Im Februar traf ihre Kollegin Margaret Mitchell dasselbe Schicksal.

Eigentlich müsste man jetzt konsequent sein und alle Produkte dieser Firma boykottieren, bis beide wieder eingestellt sind. Wäre schön, wenn sich noch jemand finden würde, der das gleiche Ziel hat, denn ich habe derzeit noch nicht ganz die Konsequenz und Durchhaltewillen von Greta Thunberg.

Es ist ein gesellschaftliches Problem.

Das ist definitiv richtig. Erschreckend auch, dass das debiasing als "einfache" Arbeit in Billiglohnländer ausgelagert wird. Hier braucht es sehr viel mehr Aufmerksamkeit, die offenbar nicht einmal bei der Lesern der Republik übermässig gross ist, wie die Anzahl der Kommentare vermuten lässt.

8
/
0

Ein katastrophales Ereignis. «Don't be evil», right? Aber jetzt ja nicht mehr. Daran kann man gut sehen, dass Google nicht wirklich etwas an Diversität und Ethik liegt.

Eigentlich müsste man jetzt konsequent sein und alle Produkte dieser Firma boykottieren, bis beide wieder eingestellt sind.

Das wäre nur einer unter unzähligen Gründen, Google aktiv zu meiden. Ich fange hier jetzt nicht an, die aufzuzählen. Aber eine Mini-Liste von Alternativen gibt's:

  • Suche: DuckDuckGo, Startpage (liefert Google-Resultate)

  • YouTube: FreeTube (nur ein Desktop-Client für YT, aber nötig wenn der Content halt auf YT liegt), PeerTube, DTube

  • Gmail: Mailbox.org, Posteo

  • Google Drive: Nextcloud

  • Maps: OpenStreetMap (OsmAnd Maps)

  • Google Play Store: F-Droid

  • Translate: Deepl.com

  • Chrome: Firefox, Brave

3
/
0
Kritiker
·

Das Böse triumphiert allein dadurch, dass gute Menschen nichts unternehmen. Edmund Burke.

Da sind aber noch die ganzen Websites mit Tracker, Evercookies, Fingerprinting, ReCaptcha und Webfonts von Google,....

Einfach nur anderswo suchen bringt da nicht viel.

Komplettes "Degoogling" ist ein ganzes Stück Arbeit, aber durchaus machbar.

2
/
0
Timon Zielonka
Sales @ zukunft.com
·

Ich nutze bereits viele dieser Alternativen (z.B. auch e.foundation), aber bei der Suche habe ich noch Probleme. DuckDuckGo und viele andere nutzen ja auch wieder Google und sind daher aus meiner Sicht keine wirklich Alternative. Das beste, was ich bisher gefunden habe, ist yacy.net, aber der Index ist noch nicht sehr umfangreich.

0
/
1

Danke für die Zusammenstellung. Kürzlich habe ich das erste Mal in meinem Leben darüber nachgedacht, ob ich meinen Mitmenschen etwas in Videoform mitzuteilen habe, deshalb interessieren mich aktuell besonders Alternativen zu YouTube. PeerTube und DTube habe ich mir jetzt kurz angeschaut, PeerTube scheint mir nach einem ersten Blick auf die Frontseite eher zur schlüpftigen Sorte zu gehören, DTube sieht dagegen seriöser aus. Nunja, es ist noch nichts entschieden. Eine Frage noch: Warum ist Vimeo nicht auf Ihrer Liste?

0
/
0
· editiert

Debiasing ist und bleibt wohl für längeres Handarbeit. Was im Interview beschrieben ist mit der Wortnähe, ist das "unsupervised learning" nämlich das Lernen anhand von Beispielen, ohne zu wissen was sie bedeuten.

Ein simples Beispiel: Wir können 10000 Bilder von Katzen und 10000 Bilder von Hunden nehmen und sie alle beschriften mit "Hund" und "Katze". So lernt die KI wie Hunde und Katzen aussehen. Wenn wir auch schauen, dass da Dackel und Huskys etc. drin sind und nicht nur der gleiche Border Collie vom Nachbarn, generalisiert das Netzwerk sogar ziemlich gut, wenn wir dann Bilder von Katzen und Hunden zeigen, die es noch nicht gesehen hat. Das ist "supervised learning" weil wir die Bilder vorher beschriftet haben.

Das Beschriften (auch "labeling") ist wegen der grossen Datenmengen nicht immer möglich, da es Handarbeit wäre. Deshalb wird oft "unsupervised learning" benutzt. Also zeigen wir dem Netzwerk unbeschriftete Bilder und es findet die Unterschiede von sich aus raus.
So kann es sein, dass sich dann ein Dackel und ein Husky eher unterscheiden als Katzen und Hunde. Es könnte also dann einfach 2 Gruppen geben, eine mit Dackel und Katzen sowie eine mit Huskys und anderen grossen Hunden.
Oder schlimmer: Eine Gruppe mit Katzen und Hunden die von einer Menschenhand gestreichelt werden und solche, die nicht gestreichelt werden.

Das waren jetzt alle harmlose Beispiele, aber es scheint offensichtlich, dass systemische Diskriminierung sehr einfach Eingang findet in solche Systeme. Man muss dann von Hand eine "Strafe" einbauen für das Netzwerk, wenn es einen Zusammenhang zwischen negativ behafteten Begriffen und dem Geschlecht, Aussehen, Herkunft einer Person findet. Diese Zusammenhänge muss man erst finden, dann als unerwünscht einstufen, und dann bestrafen. Automatisieren lässt sich das zwar auch, aber offenbar ist da BigTech noch nicht so weit.

8
/
1
.
·
· editiert

(unwesentlich, aber fachlich falsch: Krebszellen kann man nicht im Röntgen sehen)

5
/
0

Sehr geehrter Herr S. – einen herzlichen Dank für Ihren Hinweis, wir haben die Stelle inzwischen korrigiert.

1
/
0

Ihr lieben Leute von der Republik, ihr müsst euch wirklich nicht wundern, wenn ihr in den Fokus der NSA geratet, weil ihr die Leute dazu drängt, dass sie, anstatt gläubig, wie es nach schweizer. Staatsdoktrin gelehrt wird, die Unfehlbarkeit der US- Computerin-dustrie und der amerikan. Regierungs-Beschlüsse dankbar und demütig entgegen zu nehmen, sogar noch anfangen, die technische Entwicklung und den segensreichen Fortschritt zu hinterfragen, ja sich selber sogar auch stets wieder Fragen nach Sinn Unsinn von "unumgäglichen Neuerungen zu stellen. Sepp, Grandson

8
/
7
· editiert

Nun ja. Was sollen diese Systeme koennen, was sollen sie lernen ? Ja, man kann ihnen eine heile Welt vorgaukeln, indem der Input gefiltert wird. Wie einem "Kind aus gutem Hause", welches vieles eben nicht kennt, weder davon gehoert hat, noch sich das vorstellen kann. Das Kind aus dem guten Haus kommt dann da raus und lernt innert sehr kurzer Zeit, dass die bisherige Welt nicht ganz stimmt. Bei einem selbstlernenden System koennte man nun diesen Schritt (theoretisch) unterdruecken, indem der Lernmodus bei Auslieferung abgeschaltet wird. Dann bleiben die Entscheidungen eben kindlich. Ja. wenn das genuegt ... ist ja auch gut.
Ein update kann ja spater zugekauft werden.

2
/
2
· editiert

Das De-biasen sollte man vergessen. Wie ein Kind findet so ein System den Bias von selbst raus. Allenfalls verkehrt herum. Im Sinne von .. "alle" mögen Zucker, nur Mama meint er sei schlecht.
Das Bias veraendern/unterdruecken fuehrt dann dazu, dass es Handlungen ohne sichtbare Ursache gibt. Die gibt es auch, wir nennen's Kultur.

1
/
1