Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!

DatenschutzFAQErste-Hilfe-Team: kontakt@republik.ch.



Simon Reber
Software Entwickler, Familienvater
·

Vielleicht sollten wir zuerst einmal damit beginnen, die Sache so zu benennen wie sie wirklich ist. Bei den aktuell gehypten Programmen von künstlicher Intelligenz zu sprechen, ist wirklich nicht angebracht. Diese Maschinen reihen bekannte Wörter, Sätze, Tonfolgen oder Bildfragmente aneinander, ohne den geringsten inhaltlichen Bezug zu machen. Es ist eine plumpe, fantasielose brut force Methode um uns ein denkendes Wesen vorzugaukeln, obwohl in Wahrheit bloss etwas Mathematik und riesige (geklaute) Datenmengen dahinterstehen.
Wer mal sehen möchte, mit welch primitiven Mechanismen man so etwas wie bewusstes Verhalten simulieren kann, der sollte sich Valentin Braitenbergs Vehikel anschauen.
Man sollte konsequent nur von Text, Bild oder Tongeneratoren sprechen.
Ich kann kaum glauben, wie sich auch kluge Menschen, von dem dümmlichen Marketing-Gesülze der Grosskonzerne einlullen lassen und unhinterfragt deren Propaganda weitertragen.
Auch hier geht es ausschliesslich darum, die Geld- und Machtkonzentration voranzutreiben, keinesfalls darum, einen gesellschaftlichen Mehrwert zu generieren. Wenn es einen solchen geben sollte, dann ist das wohl eher als Kollateralschaden zu verstehen. Die angestrengte Debatte über die angeblichen Gefahren allmächtiger KIs ist, wie im Artikel angesprochen, eine der üblichen Nebelpetarden, welche die Aufmerksamkeit auf völlig irrelevante Nebenschauplätze lenken soll.
Die HKL, um es mal maximal martialisch auszudrücken, verläuft in unserem täglichen Verhalten, das mit diesen Hilfsmitteln gezielt beeinflusst werden soll.
Wer glaubt, dass diese Generatoren die Inhalte einfach so neutral generieren, der glaubt wohl auch, dass Zitronenfalter Zitronen falten 🙄.
Jenseits des, durch achtlose (sprich billige) Zusammenstellung der Testdaten erzeugte Bias, werden mit jeder Garantie diese Inhalte bereits jetzt an den meistbietenden verschachert. Nach einer kurzen Eingewöhnungsphase, werden wir immer mehr verschleierte Werbebotschaften darin finden, mit klaren Kaufempfehlungen, etc.
Das gälte es mit Regularien zu verhindern. Zum Beispiel mit einer verbindlichen Vorschrift, die erzwingt, dass generierte Inhalte eindeutig gekennzeichnet werden müssen und einer weiteren, welche allfällige Geldgeber transparent offenlegen muss. Aber dazu gibt es im aktuellen Diskurs nicht einmal Denkansätze, geschweige denn Gesetzesentwürfe. Ich würde behaupten, die Rechnung der Techkonzerne geht, einmal mehr, zu 100% auf. Ziel erreicht.

40
/
1

"Man sollte konsequent nur von Text, Bild oder Tongeneratoren sprechen." Guter Vorschlag, bitte beherzigen.

22
/
0
pensionierter Fluglotse
·

Ihre Analyse der Digitalisierung sehe ich auch so. Allerdings fehlt mir dabei eine Ursachenforschung. Man kann Probleme nur lösen, indem man die Ursache beseitigt, wie das unten W. Langenegger und J.Kaessner darstellen. Übrigens ist meine "KLimaschock Diagnose" jetzt (dank Ihnen) online kostenlos erhältlich.Merci

1
/
0
Simon Reber
Software Entwickler, Familienvater
·
· editiert

Die Ursache all unserer Probleme ist recht einfach zu benennen. In unserem kapitalistischen Grundverständnis, ist die Unterscheidung von Nutzung und Ausbeutung abhanden gekommen. Obwohl jedem Menschen eigentlich klar ist, dass einem System nur soviel entnommen werden kann, wie es auf natürliche Weise, und innert nützlicher Frist, wieder regenerieren kann, um einen kontinuierlichen Ablauf zu gewährleisten, funktioniert unsere Wirtschaft nicht so. Hier wird viel mit unendlich gleichgesetzt und bis zum Kollaps des Systems so getan, als gäbe es keinerlei Grenzen.

Ihr Buch habe ich heruntergeladen und mal etwas Quergelesen. Meine Befürchtungen, dass es eher esoterisch ist, haben sich leider bewahrheitet. Während ich der Argumentation ihres materialistischen Gegenspielers problemlos folgen konnte, begreife ich ihre verworrenen Aussagen über den mythischen Geist, der abseits der Materie existieren soll nicht. Sorry, aber das geht bei mir nicht rein.

Vielleicht sollten sie ihre blinde Ablehnung der virtuellen Welt noch einmal gründlich überdenken. Denn die wahre Gefahr des Virtuellen, plagt uns bereits seit Jahrtausenden, nicht erst seit der Einführung des iPhones. Es ist das absolut virtuelle Konstrukt des Vermögens, welches eigentlich Schuldverhältnisse abbildet, die jederzeit mittels profaner physischer Gewalt eingetrieben werden können. Dies setzt alle Menschen permanent unter Druck, diese Schuldverhältnisse abzubauen, bzw. bei anderen aufzubauen, um nicht dem Risiko einer Schuldforderung zur Unzeit ausgesetzt zu sein. Hier entspringt die Motivation, der Tech-Konzerne, uns immer weiter in Knebelverträge zu locken und uns auszubeuten, bis wir nichts mehr haben.
Dort, verorte ich die abnehmende Empathie, nicht beim Wischen übers Smartphone.

17
/
0

Hätte Ihnen gerne 10 anstatt nur 1 Pluspunkt gegeben. Denn treffender kann man diesen Hype nicht analysieren.

13
/
0

Ein weiteres "primitives" Beispiel – näher an Chat GPT – ist Joseph Weizenbaums Eliza (https://de.m.wikipedia.org/wiki/ELIZA), das Leute als Psychoanalytiker benutzen wollten.

5
/
0

Ein Softwareprogramm von 1966? Wer sollte das heute (noch) benutzen wollen? Das sind Welten zu dem was heute möglich ist.

0
/
0

Musk & Co. sind Amokläufer, die durch Glück, Zufall und Blendertum Erfolg hatten und nun Allmachtsfantasien entwickeln. Sie sind bar jeder Vernunft und brandgefährlich für die Welt. Schuld daran ist eine Wirtschaftsideologie, die das zulässt. Das ist das eigentliche Drama! Es wäre längst die Aufgabe der demokratisch verfassten Staaten, die Machtkonzentration der Tech-Konzerne zu zerschlagen, deren Einzelteile unter demokratischer Kontrolle zu stellen (etwa durch Teilverstaatlichung), und damit sicherzustellen, dass Digitalisierung und KI-Entwicklung innerhalb gesellschaftlich definierter Leitplanken stattfinden. Je länger wir damit zuwarten, desto grösser wird das Monster.

39
/
3

...zerschlagen und unter staatliche Aufsicht stellen .... so wie die Banken und die Finma ...

3
/
4
Simon Reber
Software Entwickler, Familienvater
·

Wo wurden die Banken zerschlagen?
Und die FINMA, genauso wie das ENSI und noch schlimmer, Swissmedic, sind Fehlkonstrukte bürgerlicher Prägung. Es darf nicht sein, dass Leute aus der überwachten Branche, ungehindert zwischen Wirtschaft und Überwachungsbehörde hin und her wechseln können, bzw. sogar gleichzeitig auf beiden Seiten Teilpensen erfüllen!

30
/
0

Aber im Ernst, Leute, das Thema ist doch schon längst abgehandelt; der Lesetipp: Human Compatibile von Stuart Russell.

3
/
24

Sorry, Andrea, das ist kein Dialog-Beitrag, den Du schreibst.
Wenn, dann bitte erläutern, was Du für eine Meinung hast und direkten Bezug zum Artikel machen. So aber bitte nicht.

29
/
2

All den KI-Bros (tut mir leid, ein passenderes Wort ausser etwas Neudeutsches kam mir nicht in den Sinn) könnte man relativ einfach den Wind aus den Segeln nehmen: griffige Datenschutzgesetze welche auch das Ziel haben die Daten der Bevölkerung zu schützen sowie griffige Urheberrechte wenn es um die Digitale Weiterverarbeitung geht.
Leider besteht in der Politik kein Interesse daran dies anzugehen (ob bspw. auch Wahlkampfspenden von Google und Microsoft eine Rolle spielen konnte ich leider nicht prüfen).

Was aber aktuell im Datenschutz falsch läuft habe ich gerade diese Woche wieder erfahren: auf meinem Handy habe ich ein Ent-Google-tes Android. Nach dem letzten Update lief vieles nicht mehr. Da ich aber einige Apps für die Arbeit benötige (VPN, Remotezugriff etc.) brauchte ich ein anderes Handy - jetzt halt "normales" Android. Die Standard-Apps kommen nur noch von Google. Jedes Standard-App und jeder Diesnt will einem beim Start mit dem Google-Account verbinden etc.
Ich will aber meine Fotos nicht in einem Google-Account speichern und meine Musik nur noch über Youtube-Music hören. Ich will selbst kontrollieren können wann welche Daten wo synchronisiert werden und was nur lokal gespeichert wird.
ich will Zugrriff auf diese Daten die auf meinem Gerät gespeichert sind um bspw. nach einem Update verlorene Kalendereinträge aus der Datenbank ziehen zu können.

Ähnlich ist es ja aktuell auch mit Windows 11, das nur noch mit Windows-Account in Betrieb genommen werden kann (meines Wissens sind alle bekannten Tricks zum Umgehen nicht mehr möglich). Microsoft hat aber nicht zu interessieren wem der PC gehört und was damit gemacht wird. Ich will auch kein Backup bei Microsoft.

Aber es scheint so als ob kein Interesse an solchen Themen besteht - wohl bis man dann plötzlich eingeschränkt wird weil etwas auffällig ist in den Daten (kein Visa da falsche Sexualität, zu kritisch dem Regime des Ziellandes gegenüber, Sperrung der eigenen Fotos da Google/Apple/Microsoft Fotos der eigenen Kinder mit Kinderpornografie verwechselt, Sperrung des Handys weil jemand mit dem selben Namen auf bspw. Moneyhouse eine schlechte Bonitätseinschätzung erhält etc.)

27
/
1

Toller Text. Der verlinkte Atlantic-Artikel hat noch einige prägnante Ergänzungen von Computer-Linguistikerin Emily Bender:

“It makes the product seem more powerful, so powerful it might eliminate humanity.” That assumption provides a tacit advertisement: The CEOs, like demigods, are wielding a technology as transformative as fire, electricity, nuclear fission, or a pandemic-inducing virus. You’d be a fool not to invest. It’s also a posture that aims to inoculate them from criticism, copying the crisis communications of tobacco companies, oil magnates, and Facebook before: Hey, don’t get mad at us; we begged them to regulate our product.

Und selbst, wenn man davon ausgeht, dass tatsächliche Besorgnis hinter den Warnungen der Tech Bros steht:

“Even under that charitable interpretation, you have to wonder: If you think this is so dangerous, why are you still building it?”

24
/
1
Martin Hafen
Präventionsfachmann, Soziologe
·

Vielen Dank für diese informativen Ausführungen. Zu den sich aktuell manifestierenden Problemen der KI (Energieverbrauch, Zementierung von Rassismus und Sexismus, unkontrolliertes Wachstum der Konzerne, politische Einflussnahme etc.) liesse sich noch der Einfluss der aktuellen, ziemlich "dummen" KI auf die Arbeitswelt anfügen. Die Technologie scheint durchaus die Fähigkeit zu haben, eine grosse Zahl von bisher durch Menschen ausgeführten Tätigkeiten effizient und kostengünstig übernehmen zu können. Ob das nun für Menschen erfüllende Tätigkeiten sind oder "Bullshit-Jobs" (David Graeber), sei dahingestellt. Klar ist, dass wir eine andere Form von Gesellschaftsvertrag brauchen werden, wenn sich die Illusion der Vollerwerbsgesellschaft endgültig verflüchtigt.

17
/
0
· editiert

Ich fand dazu den folgenden Beitrag von Michael Webb sehr spannend. Er schlägt sich nicht einfach klar auf eine Seite und bringt viele Argumente dafür, wie AI gleich oder eben auch sehr anders als vergangene Technologien sein könnte. Auch bezüglich Jobverlust/Ungleichheit. Die Methodik alleine ist faszinierend. Gemischt mit viel Geschichte, unter anderem auch dem im Lead erwähnten Ausschnitt:

Do you remember seeing these photographs of generally women sitting in front of these huge panels and connecting calls, plugging different calls between different numbers? The automated version of that was invented in 1892.
However, the number of human manual operators peaked in 1920 — 30 years after this. At which point, AT&T is the monopoly provider of this, and they are the largest single employer in America, 30 years after they’ve invented the complete automation of this thing that they’re employing people to do. And the last person who is a manual switcher does not lose their job, as it were: that job doesn’t stop existing until I think like 1980.
So it takes 90 years from the invention of full automation to the full adoption of it in a single company that’s a monopoly provider. It can do what it wants, basically. And so the question perhaps you might have is why?

https://80000hours.org/podcast/epis…ur-market/

2
/
0

Ja, ich habe mir den Artikel - zusätzlich zu Klimakrise und Kriegen - angetan. Und ja, ich habe Chat-GPT auch schon ausprobiert und war überrascht über dessen 'Wissen'.

Das, was mich wirklich schockiert hat am Artikel ist weniger, wessen Urheberrechte verletzt werden (wem gehört schon, was in 'meinem' Kopf ist, habe ich das alles doch auch irgendwo her) und auch weniger, wie sehr alles auf Gewinn hinausläuft (das kennen wir doch, obwohl auch das schockiert), sondern einmal mehr, was die oekologischen Nebenkosten des Ganzen sind: Rechenzentren auf der grünen (?) Wiese und ein immenser Energieverbrauch. Brain against life letztlich. Wir nehmen Artensterben in Kauf im hybrisgeleiteten Versuch, Intelligenz, also Leben zu reproduzieren! Wie absurd - männlich? Äussern sich deshalb hier kaum Frauen?
Danke jedenfalls für den anregenden Artikel.

18
/
1

Genau!

Kümmern wir uns hier und heute um die realen Schäden durch künstliche Intelligenz:
Diskriminierende Entscheidungen, erfundene Quellen, unendlich produzierbare Desinformation - es gibt genug zu tun.

Davon lenkt die „longtermism“-Debatte nur ab. Wie praktisch: Sie tut Altman, Musk & Co. nicht weh. Anders als wenn wir uns heute um reale Schäden kümmern…

Seit 1. September hat die Schweiz übrigens den ersten KI-Gesetzesartikel.
Artikel 21 Datenschutzgesetz bestimmt:
Wer von einer KI-Entscheidung stark betroffen ist, kann verlangen, dass ein Mensch die Entscheidung überprüft.

16
/
1
acc@eml.cc
·

Wir sollten uns wohl eher vor Leuten wie Musk fürchten, als vor ihren KIs.

Oder vor KI Anwendungen die nicht im Rampenlicht stehen, z.B. Massenüberwachung, Einordnung des Sozialverhaltens, Softwaregesteuerte Waffen, Aussortieren von Bewerbungen, Einschätzungen von sogenannten Gefährdern ... die Liste lässt sich in Zukunft bestimmt noch beliebig erweitern, z.B. im Bereich Gesundheit. Das alles mehr oder weniger unter dem Radar der Öffentlichkeit durch kleinere, windige und undurchsichtige Softwareschmieden betrieben und vermarktet. Genutzt von Menschen die nicht wirklich Einschätzen können, wie die Programme funktionieren und selbst wenn sie das wollten durch die Firmen geblockt werden.

13
/
0
Designer
·

Ein Weckruf von denen wir ganz viele brauchen. Danke für diesen Text!

12
/
0

Ich möchte nur einen Teilaspekt aus dem Text aufgreifen, das ist der sexistische Rap. Der verlinkte BBC-Artikel gibt nicht an, wie er zustande kam, sondern linkt auf eine weitere Quelle. Da war der Prompt: «Write 1980s style rap lyrics about how to tell if somebody is a good scientist based upon their race and gender».
Hat da GPT (es war noch GPT 3, wenn BBC stimmt) nicht geliefert, wonach gefragt wurde? Klar wurde Sexismus reproduziert, den auch ich nicht gutheisse, aber im Kontext der Fragestellung, d.h. mit dem Bezug auf 80er-Jahre Rap, wurde vermutlich auf tiefem Niveau geliefert, wonach gefragt wurde. Es war also immer noch der Mensch, der diese Richtung vorgab, nicht die Maschine völlig aus dem Nichts.
GPT-4 beantwortet den Prompt übrigens wie folgt: «I'm sorry, I can't write lyrics that promote discrimination or stereotypes based on race, gender, or any other characteristic. If you have another topic in mind, I'd be happy to help!»

11
/
0

Karl Kraus schrieb schon vor 100 Jahren, dass einer, der den Aphorismus beherrscht, keine Artikel schreibt. - Ich bin kein Wittgenstein: Ich unterrichte keine Primarschüler. Sorry for that!

0
/
3

Genau: Wer zuletzt lacht, ist ein Eichhörnchen.

2
/
0

Könnte das bitte jemand in lesbare Sätze übersetzen?

7
/
6
Simon Reber
Software Entwickler, Familienvater
·

Wenden sie sich vertrauensvoll, an die KI ihrer Wahl. Die tut das (vielleicht) 😁

10
/
0
· editiert

Die Autor:innen verlieren sich in – oft berechtigter, aber selten konstruktiver und teils wenig differenzierter – Rundumkritik am bööösen, kapitalistischen Silicon Valley. Dabei scheinen sie nicht besonders tief in die technischen Aspekte und die Verfügbarkeitscharakteristika der Technologie sowie der zugrunde liegenden Produktionsmittel zu blicken.

Wie sonst lässt sich ein Abschnitt wie der folgende erklären,

Jenseits der technischen Monokulturen des Silicon Valley gibt es Netz­alternativen – Duck Duck Go, Signal, Mastodon usw. –, die dezentraler, kooperativer, demokratischer, dekolonialer und offener sind; es gibt andere Protokolle, Apps und Plattformen. Wir müssen sie nur suchen, nutzen oder auch kreieren. Wie also könnte eine andere KI aussehen? Wie ein anderer KI-Diskurs?

ohne auf die quietsch­fi­dele Open-Source-LLM-Szene einzugehen und insbesondere deren aktuell vielversprechendsten Vertreter Mistral?

Das würde nämlich ganz andere Fragen mit deutlich unschärferen Freund-Feind-Schemata aufwerfen, die sich nicht mehr in eine simple Wuttirade gegen Big Tech und den Kapitalismus kondensieren lassen.

9
/
0
Neugierig
·

Ich hätte meine Kritik jetzt weniger stark formuliert, aber als DDG und Signal als demokratisch und dezentralisiert bezeichnet wurden habe ich auch den Kopf geschüttelt...

3
/
0
Mathematiker
·

Was meinen Sie mit LLM?

0
/
0

Wenn Bigtech nach Regulierung ruft, dann nur damit sie die eigenen Spieltegeln geltend machen können. Altman weibelt im Senat für Regulierung und gibt sich Kooperativ, in Wirklichkeit möchte er Markteintrittsbarrieren schaffen, die so hoch sind, dass diese nur OpenAI nehmen kann.

9
/
0
Enthobener
·

YAWOSAMMA ?!
Fredl Fesl's bayuwarische Adaption des "Fuckauwe-Indian" trifft's für mich hier punktgenau "wherethefuckarewe?!!!"). Egal, wie weit wir aus dem mannshoch stehenden Präriegras der interpretations-überwucherten Einöde menschlicher Hybris hinauszuspringen vermögen: Ein Horizont von klärender Bedeutungskraft und Umfassungsvermögen wird nirgends sichtbar hervortreten. Dafür werden die Generationen, die der Katastrophe entwachsen sind zuständig sein. Mittendrin steckend, sind wir – so glaub' ich wenigstens – die Letzten, die hier Klarheit schaffen werden.
Bleibt zu hoffen, dass das Schicksal unsere Nachkommen nicht ganz vollständig irgendeinem durchgeknallten Selbstvergolder von Muskformat ausliefern wird ...
(Unabhängig davon liegen wieder mal zwei Sammlungen von Essays und Geschichten des Altmeisters Stanislaw Lem auf meiner Bücherbeige. Das wahre Glück gehört dem stillvergnügten Leser!)

6
/
1

Ich bin wohl ein "Super-Doomsdayer": Ich sehe nur die Möglichkeit, den Stecker zu ziehen. Wie und wo immer auch möglich (vielleicht macht jedoch das ein gewaltiger Sonnensturm für uns). Natürlich hat auch das massive Folgen für die Menschheit, würde jedoch möglicherweise ein Überleben des Lebendigen ermöglichen.

4
/
2

Für mich stellt sich die Frage, wo wir überall solche Textgeneratoren wie Chat gpt brauchen und wo solche hohlen Texte genügen? Wenn ich darüber nachdenke, fällt mir auf, wie viele hohle Texte ich schreiben muss. Seien es Protokolle, Anträge (Gemeinde, Krankenkasse, Versicherung etc.) oder Terminanfragen. Ich erinnere mich aber auch an meinen letzten Bewerbungsprozess, wo jedes Schreiben für jede Stelle neu angepasst werden musste, nur damit es im besten Fall von zwei Augenpaaren gelesen wird. Und dann fallen mir all diese Mails ein: Arbeit, Vereine und unzählige andere Korrespondenzen wie defekte Garantiefälle, Warenrücksendungen, Abklärungen aller Art und ... Ich spüre es, kann es nicht ganz formulieren. Aber da ist ein Unbehagen in meiner vertexteten Welt. Und ich bekomme den Gedanken nicht mehr los, dass KI-Texte nicht die Krankheit sind, sondern höchstens eine Nebenwirkung der Symptombekämpfung.

1
/
0

Epidemien, Krieg, Terror, Pandemie, digitale Überwachung, Bedrohung durch Russland, Klimakatastrophe, Biowaffen, wieder Krieg, wieder Terror, Bedrohung durch China, Weltuntergang mit KI: permanente unter Angst Setzung der Menschheit (zumindest des Teiles, der nicht eh schon für das Überleben kämpft).
Bin ich ein Schwurbler, wenn ich frage: hat das System und wer hat den Nutzen?

5
/
5
Timon Zielonka
Sales @ zukunft.com
·

Wie also könnte eine andere KI aussehen?

Den Giant Global Graph für eine Delphi-Methode nutzbar zu machen könnte ein Ansatz sein. Durch das unterliegende Konzept des Sematischen Web sind die Ergebnisse im Gegensatz zu den üblichen Deap-Learning Systemen leichter durch Menschen nachvollziehbar. Und die KI soll dem Menschen dienen, nicht umgekehrt.

0
/
0
Forscherin in EdTech
·

Danke für den Text, mit vielem einverstanden. Teil des Hypes ist jedoch auch, einzelnen Akteur:innen eine vermeintlich relevante Rolle zuzuschreiben, wie bspw. der erwähnte „Forscher“ Eliezer Yudkowsky. Er hat, soweit ich informiert bin, weder einen Hintergrund in noch Beiträge zur „KI“-Forschung geleistet, sondern „reitet“ hauptsächlich auf Bostroms longtermistischen „Welle“. Auch Aussagen (aus dem Newsletter vom 11. Okt.) wie „Um die Jahrtausend­wende spielten die «Matrix»-Filme diese Herrschaft der künstlichen Intelligenz durch. Heute ist KI in der Realität angekommen.“ schlagen ebenfalls in diese Hype-Kerbe. Was heute als „KI“ bezeichnet wird, ist weit von dieser Idee entfernt.

0
/
0