Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!

DatenschutzFAQErste-Hilfe-Team: kontakt@republik.ch.



Historikerin
·

Ich habe gerade die Kommentare hier nochmals durchgelesen und stelle fest, dass vor allem ein Gerangel drum stattfindet, wer definieren darf, was Intelligenz ist und dass es einigen offenbar wichtig ist, Meredith Whittakers Expertise in Frage zu stellen. Der zentrale Punkt, den sie anspricht, dass nämlich die Warnungen der Computerbranche vor den potentiellen Gefahren der AI möglicherweise nur Schaumschlägerei sind, um in der Aufregung lasche Regulierungen durchsetzen zu können, geht dabei leider vergessen. Beziehungsweise vielleicht zeigt die Kommentarsektion hiermit gerade, wie erfolgreich die Ablenkstrategie ist!

98
/
3
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Auch hier wieder: danke für die äusserst treffende Zusammenfassung. Mehr als "Whittaker wird sich irren" habe ich nämlich nicht gefunden an Gegenargumenten.

Die Lektüre von Linguistin Emily Bender ist hierzu sehr hilfreich. Sie kritisiert die Dystopie-malenden "AI Safety"-Warner/Big Tech Chefs, die die heutigen Risiken stark verharmlosen und eben lieber von existenzvernichtenden Systemen sprechen:

"‘AI Safety’ might be attracting a lot of money and capturing the attention of policymakers and billionaires alike, but it brings nothing of value. The harms being perpetrated today in the name of ‘AI’, through surveillance, inappropriate automation, displacement of accountability, labor exploitation, and further concentration of power, are urgent and demand attention (both academic and political). Setting up the work of the scholars, journalists, and activists like those I point to above as somehow equivalent to the ‘AI Safety’/TESCREAL clown car both devalues the work of the former and facilitates the latter’s grab for policymaker attention."

https://medium.com/@emilymenonbende…454a77220f

11
/
0
· editiert

Mehr Details zur FTX-Referenz im Artikel:
https://www.nytimes.com/2022/12/09/…rypto.html

Das EA in TESCREAL steht für "Effective Altruism".

Da ich in der Informatik-Begabtenförderung für Jugendliche engagiert bin, wurden wir im April dieses Jahr von einem Ableger dieser Ideologie kontaktiert.

Ausschnitt aus der Email:

We pay for all expenses including flights, housing, and food. We also grant students who are accepted into the fellowship a $10K scholarshipfor education and professional development regardless of if they attend the 11-day program or not.

Ausschnitt aus ihrer FAQ:

Why are you running this program? What are you inspired by?
The short answer:
‍We aim to transmit a culture inspired by scientific inquiry, with the ambition to tackle neglected global challenges. For instance, our staff strive for extreme intellectual honesty, emphasize probabilistic reasoning, and are interested in addressing large-scale issues such as potential risks from advanced artificial intelligence, future pandemics, or geopolitical instability. We are inspired by rationality and effective altruism, but see the Atlas community as an experiment in going beyond these communities.

Hierbei verlinkt rationality auf LessWrong. Der Gründer von LessWrong ist ein prominenter Verfechter des im Artikel beschriebenen "Longtermism".

Ich habe gegen die Bewerbung des Programmes an unsere Teilnehmenden entsprechend dann ein Veto eingelegt.

7
/
1

Den "AI Safety" Leute muss man nicht mal die böse Absicht der Ablenkung unterstellen. (Auch wenn das inzwischen vielleicht mitspielt.) Es macht schon genug Sinn, dass man in dieser super-privilegierten Bubble Gefahren nicht sieht, welche die Klasse der Mächtigen nicht betreffen.

Der verlinkte Artikel macht diesen Punkt: Das Silicon Valley habe einen Teufel in seinem eigenen Bild geschaffen. https://www.buzzfeednews.com/articl…ts-runaway

2
/
0
"Physiker"
·
· editiert

Wir sind auch ohne KI bereits der Macht der Big-Tech-Chefs verfallen. Die Erziehungsdepartemente fixen schon kleinste Schüler und Schülerinnen mit ihren Produkten an, soweit das deren Eltern oder Umfeld nicht schon getan haben. Der Kanton Bern stellt auf Microsoft's Office 365 um, die Bundesverwaltung dürfte schon lange verseucht sein. Viele meiner Bekannten sind den Produkten von Apple und Meta verfallen und sogar stolz drauf, und noch schlimmer von Musk, der gleich bei Autos, Internet und Weltraum mitmischt und teilweise den Markt beherrscht. Ich kann nicht mal ein Velo mieten oder gewisse Dinge bezahlen ohne ein Konto von Google oder Apple.
Aus meiner Sicht versagen die Behörden und Regierungen, egal welcher Partei. (Höchtens die Piratenpartei war diesbezüglich etwas umsichtiger.)

81
/
3
Advocatus Diaboli
·

Underrated post..
AI wird diesen Trend beschleunigen, aber die Basis dafür ist schon seit ca 10 Jahren da..

12
/
2
· editiert

So wohlig warm sich die Vorstellung anhören mag, dass existenzielle Risiken im Zusammenhang von KI nur ein "Mythos" sind, der von aktuellen Problemen ablenken soll - die Argumentation entbehrt leider jeglicher substanzieller Grundlage.

Eines der Kernargumente, die ich dem Interview entnehme ist, dass es keine "Evidenz" dafür gäbe, dass KI-Technologien jemals ein Bewusstsein erlange oder superintelligent sein werden.
Hierzu eine simple Frage:
Hat eine Atombombe ein Bewusstsein? Und ist die Antwort darauf in irgendwelcher Form relevant in der Beurteilung der Frage ob Atombomben existenzielle Risiken für die menschliche Spezies in sich bergen?

Dann betreffend Superintelligenz: Ich verstehe nicht ganz, in welcher Hinsicht die Frage nach Evidenz hier relevant sein soll. Evidenz würde erfordern, dass man aus bestehenden, uns bekannten Phänomenen empirisch mit einer gewissen Zuverlässigkeit gewisse zukünftige Eigenschaften/Verhaltensweisen eines Systems unter Betrachtung ableiten kann. Da wir es hier mit einer Technologie zu tun haben, die absolut präzedenzlos ist, ist auch die Frage nach Evidenz in diesem Kontext bedeutungslos wenn es um die Beurteilung von Risiken geht.
Als kleine Analogie: Aufgrund der ersten Laute, die ein Kind von sich gibt, gibt es absolut keine Evidenz, dass es jemals sprechen lernen wird. Das Konzept "Evidenz" macht in diesem Fall nur Sinn, wenn ich bereits die Entwicklung von anderen Kindern beobachtet habe und daraus schliessen kann, dass mit grosser Wahrscheinlichkeit auch dieses Kind mit der Zeit zu sprechen lernen wird. Derartige Vergleichsfälle haben wir mit KI schlicht und ergreifend nicht. Unter diesen Umständen dünkt mich deshalb die Annahme, der Mensch habe aus unerklärlichen Gründen den Gipfel der Intelligenz erreicht eher albern und ich würde deshalb "mythisches" Denken vielmehr bei Meredith Whittaker verorten als bei den Leuten, die von existenziellen Risiken von KI warnen (für einige der offensichtlicheren Risiken von KI, siehe bspw. https://www.safe.ai/ai-risk).

Desweiteren sehe ich nicht, inwiefern das Warnen vor existenziellen Risiken von aktuellen Problemen ablenken soll. Historische Entwicklungen zeichnen sich typischerweise durch Pfadabhängigkeit aus, d.h. wenn gewisse Technologien sich erstmal festgesetzt haben, dann kann man sie nicht mehr einfach aus der Gesellschaft entfernen, da sich diverse systemische Abhängigkeiten gebildet haben. Dass man sich deshalb so früh wie möglich mit derartigen existenziellen Risiken auseinandersetzt ist nichts anderes als das Mindeste an ansatzweiser Vernunft, zumal man Kursänderungen vornehmen muss, solange dies noch möglich ist (empfehlenswert in diesem Zusammenhang die Präsentation "The A.I. Dilemma" von den Machern von "The Social Dilemma" - zu finden auf Youtube).

Mit all dem obig geschriebenen will ich in keinster Weise kleinreden, inwieweit KI bereits aktuell all die von Frau Whittaker aufgelisteten - und unzähligen weiteren - Problemen mit sich bringt.

Und zu guter Letzt: Für diejenigen, die die Nerven haben, sich mit existenziellen Risiken von KI auseinandersetzen, kann ich https://mflb.com/ empfehlen. Die Seite führt eine Argumentation auf, weshalb das Erschaffen künstlicher generalisierter Intelligenz (wie es sich OpenAI und andere AI Labs auf die Fahne geschrieben haben) unweigerlich zum Aussterben jeglichen Kohlenstoff basierten Lebens führt - allein aufrgund unterschiedlicher Anforderungen des physikalischen Substrats (Silizium vs. Kohlenstoff) und die Tatsache, dass Silizium basierte Intelligenz in einem weitaus grösseren Bereich physikalischer Bedingungen persistieren kann. Wenn mir jemand substanzielle Argumente gegen die dort aufgeführte Argumentation nennen kann, wäre ich interessiert, diese zu hören - ich kann die Argumentation bislang nicht entkräftigen.

17
/
23
Historikerin
·

Mir scheint, es ist für Whittakers Argumentation eher unwichtig ist, ob dereinst selbständig denkende und sich reproduzierende Maschinen entstehen Oder von Menschen gebaut werden mögen. Sie warnt hier doch hauptsächlich davor, dass mit der Angst vor einer relativ diffusen Zukunft Politik fürs Heute gemacht wird: Indem man sich auf ein Problem konzentriert, lenkt man davon ab, andere anzugehen, hier die Frage der Machtverteilung und die Frage, wie die heutigen Systeme reguliert werden sollen. Wer bestimmt in welcher Weise über die vielen Daten und Möglichkeiten und wer hat keinen Einblick? Auch den Hinweis, dass hinter Systemen, die uns hier vollautomatisch erscheinen, in Wirklichkeit auch noch Menschen stecken, wenn auch ausgebeutete und fast unsichtbar gemachte, scheint mir interessant, um abzuwägen, wieviel von dem Diskurs über die intelligenten Maschinen einfach Wunschdenken ist - oder Ideologie. Die Warnung vor einer Lobby, die sich lieber selber "regulieren" möchte anstatt sich von der Gesellschaft sagen zu lassen, was sie darf, scheint mir wichtig und berechtigt.

55
/
1
Adrienne Fichter
Tech-Reporterin @ Republik
·

Auf den Punkt gebracht, Frau W. Vielen Dank!

20
/
0

Im Gegensatz zur obigen Analogie mit dem kindlichen Sprechen wissen wir z.B. bei ChatGPT ziemlich genau was dort im Hintergrund passiert: nämlich die Anwendung maschinellen Lernens. Das hat nun gar nichts mit Intelligenz zu tun (auch wenn versucht wurd dies durch den Begriff AI zu impliziern), aber viel mit Statistik. Warum diese Technik, deren Basis grosse Datenmengen und hohe Rechenpower ist, zu Intelligenz mutieren soll, erschliesst sich mir nicht. Hat wohl eher was mit Marketing zu tun.
Kümmern wir uns doch um die realen Probleme von maschinellem Lernen statt über irgendwelchen Silizium vs Kohlenstoff Mythen zu philosophieren.

40
/
3
· editiert

Diese Argumentation ist problematisch. Was ist denn Intelligenz? Es ist eine Eigenschaft, die bei biologischen Lebewesen als "emergent phenomenon" aus dem Feuern von unzähligen einzelnen Neuronen entsteht, von denen keins individuell intelligent ist. Ferner gibt es die kollektive Intelligenz, beispielsweise von Ameisenkolonien, bei der einzelne und vergleichsweise unintelligente Organismen durch komplexe Übermittlung von Botschaften Dinge vollbringen, die denen eines komplexeren und intelligenten Einzelorganismus in Nichts nachstehen.

Zu sagen, maschinelles Lernen hätte nichts mit Intelligenz sondern mit Statistik zu tun ist als würde man sagen, menschliches Lernen hat nichts mit Intelligenz, sondern mit elektrischen Impulsen und Neurotransmittern zu tun.

Diese Argumentation verkennt die Tatsache, dass ein Phänomen wie Intelligenz "emergent" ist, d.h. es ist mehr als die Summe seiner Teile und existiert auf einer anderen Ebene als diese. Auch wenn Artikel wie der "Stochastic Parrots" Artikel von Timnit Gebru sehr viele Lesende anziehen und auf den ersten Blick überzeugend klingen sehe ich nicht, warum Intelligenz nicht auch aus dem Substrat "Statistik" (bzw. Stochastik) entstehen kann, wenn sie offensichtlich aus der - einzeln betrachtet - komplett unintelligenten Reizung von biologischen Neuronen entstehen kann.

Man kann Intelligenz natürlich von vorne herein als eine Eigenschaft definieren, die nur Menschen oder Lebewesen überhaupt haben können - aber das ist ein Zirkelschluss und bringt uns einem wirklichen Verständnis davon, was Intelligenz eigentlich ist, keinen Schritt näher. Auch wenn abstruse Dinge wie IQ-Tests seit Jahrzehnten herumgeistern und in der psychologischen Forschung erschreckend oft eingesetzt werden, haben wir bis heute keine wirklich zufriedenstellende Definition von Intelligenz und können sie auch nicht umfassend messen (da KI-Systeme IQ-Tests relativ problemlos lösen können, sind sich hoffentlich mittlerweile alle einig, dass diese Intelligenz auch nur auf reduktive und ungenügende Weise erfassen - ich glaube niemand würde sagen, dass KI intelligent ist, weil sie IQ-Test lösen kann, selbst die grössten Verfechter von KI nicht).

11
/
3
· editiert

Ich habe Mühe Ihrer Argumentation zu Folgen. Leute, die an Large Language Models arbeiten sagen offen, dass sie nicht verstehen, was genau in ihren Modellen vor sich geht - was auch nicht wirklich verwunderlich ist zumal es fundamentale Limitationen gibt zu verstehen, was in solchen Modellen vor sich geht.

Zu sagen, dass man weiss, was im Hintergrund passiert, nämlich maschinelles Lernen ist in etwa vergleichbar mit der Aussage, man Wisse was im menschlichen Gehirn vor sich gehe, nämlich Biochemie. Der Informationsgehalt einer solchen Aussage ist ziemlich gering und sagt nichts über die relevanten Dynamiken des Systems und seiner Interaktion mit der Umwelt aus.

Zur Aussage, das habe nichts mit Intelligenz zu tun, sondern viel mit Statistik: Das ist schlicht und einfach eine Frage Ihrer Definition von "Intelligenz". Die Aussage ist deshalb für mich ebenfalls von geringem Informationsgehalt. Relevant für die Beurteilung existenzieller Risiken sind eher Fragen wie: "Zeigt das System in Interaktion mit seiner Umwelt konvergentes Verhalten zu gewissen (Ziel-)Zuständen? Welche Dynamiken formen und beeinflussen diese Zielzustände und was bedeutet das für die menschliche Spezies und Leben auf der Erde insgesamt? Auf welchen Grössen- und Zeitskalen kann das System in einem OODA loop operieren?"

Und zu Ihrer Bemerkung betreffend Silizium Kohlenstoff Mythos: Die verlinkte Seite ist eher weniger philosophischer Natur zumal sie relative klare Argumente für die These darlegt - ganz im Gegensatz zu Ihrer Diskreditierung der These als Mythos. Ich lade Sie deshalb ein, stattdessen eher auf deren Argumente direkt Bezug zu nehmen (wobei ich nicht sicher bin, ob diese Kommentarspalten der richtige Kontext dazu sind).

1
/
4
· editiert

Genau das ist das Problem. Nur weil der Hype aktuell den Interessen von Big Tech dient, basiert er deshalb nicht auf falschen Argumenten und bei den Gegenargumenten fehlt es an Grundlage.

Frau Whittakers (sorry für den falschen Namen, die Finger haben automatisch getippt, war keine Absicht) Argumente zur Verschlagwortung (und den Fehlern die dadurch in AI einprogrammiert würden) sind leider auch nur halb korrekt. Und die Möglichkeit einer Machtkonzentration bei Akteuren eines dezentralisierten Netzwerks ist leider echt auch kein gutes Argument für Zentralisierung.

Schade.

7
/
15
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Hallo Anonym 1. Also sie heisst eigentlich Meredith Whittaker
Sie haben jetzt ihren Punkt mit der Verschlagwortung nicht wirklich argumentativ dekonstruiert...?
Und Whittaker sagt nicht dass die Machtkonzentration pauschal ein Problem sei bei der Dezentralisierung, sondern sie differenziert: Dezentrale Infrastruktur bedeutet nicht dezentrale Machtverteilung.

Sie hat diese Frage für Signal beantwortet und hier ist das Argument glasklar: Für die Verfügbarkeit des Diensts braucht sie eine zentralisierte Architektur, um zeitnah in allen Regionen der Welt die Messenger-App anbieten zu können.

11
/
0

Sehr interessantes Interview. Mich würde noch interessieren, ob und welche Lösungsansätze sie hat, um mit der heutigen Macht der in Privatbesitz befindlichen Big Tech umzugehen? Wie könnte die Big Tech Architektur in «einer besseren Welt» aussehen? Eine reine Verstaatlichung kann es ja wohl kaum schaffen, wenn man sich den globalen Trend zur Schurkisierung von Staatsmächten vor Augen führt.

21
/
1
Fachperson
·

Anders als bis vor etwa 40 Jahren zahlen Grossunternehmen heute kaum Steuern. Sie müssten wieder einen angemessenen Anteil an die Steuern leisten.

45
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·

Vielen Dank, Herr Berger. Sie hat es nicht richtig ausgeführt, aber ich denke ihre Stossrichtung wäre es über griffigere Wettbewerbsgesetze zu gehen, so dass gewisse Datensammlungen und Ausweitung auf alle Branchen (bedingt durch den Netzwerkeffekt auch) eingehegt und/oder unter Aufsicht gestellt sind.

8
/
0

Danke. Das macht Sinn.

4
/
0

"Es gibt keine Evidenz dafür, dass KI-Technologien jemals ein Bewusstsein erlangen oder super­intelligent sein werden. Was uns Sorge machen sollte, sind die riesigen Infra­strukturen, die im Besitz dieser Warner sind." Warum sollten wir uns nicht um Beides Sorge machen? Kein "entweder - oder", sondern ein "sowohl - als auch" scheint mir angebracht. Da könnte sich die Frau Whittacker sehr irren - und das wäre dann tragischer als alles andere.

12
/
7
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Jein, ich denke Meredith Whittaker beantwortet das hier schön: "Und deshalb werden irgendwelche existenz­vernichtenden KI-Systeme der Zukunft herbei­fantasiert, damit wir uns nicht mit dem Jetzt beschäftigen. "

Es geht ja darum dass wir den Fokus (und auch die Energie) auf das Jetzt lenken sollen und die heutigen Machine Learning-Modelle, die teils mehr schlecht als recht funktionieren, regulieren, bevor wir sie auf den Markt schmeissen und auf die Menschheit loslassen. Der Blick in eine ungewisse Zukunft mit angeblichen Superrobotern lenkt uns ab davon dass diese umfangreichen Datensammlungen und Besitzstände heute schon ein Problem darstellen.

Letzten Endes geht es also um die Frage: worauf richten wir unsere gesamte politisch-regulatorische Power?

38
/
0

Weil die riesige Infrastrukturen, die riesige Datensammlungen und deren (mis)Brauch zwecks Profit schon da sind. Das andere steht, wenn überhaupt in den Sternen.

16
/
2

Da könnten Sie sich aber böse irren - das wäre dann deletär.

2
/
3

Interessant, wie alles begann: mit der Clinton Regierung, die nicht auf ihre Experten hörte. Sich dafür entschied, auf neoliberale Art die Besitzer dieser Technologien gewähren zu lassen, mit der Hoffnung, Hightech sei Balsam für die kränkelnde Wirtschaft. Im Interview fallen die Stichworte: Vernichtung der Menschheit durch KI. Als Warner treten die paar wenigen Besitzer der Big-Tech-Firmen mit riesigen Server-Infrastrukturen auf. Es fällt das Stichwort Ablenkungsmanöver, weil über die Macht dieser wenigen gesprochen werden sollte, über die Macht zu manipulieren.
Und ich springe von diesem Stichwort zur Klimakatastrophe: da würde ich mir unendlich reiche Warner, Aufregung und Betriebsamkeit wünschen. Wird KI die anrollende Klimakatastrophe abwenden? Nein. Wieviel CO2 wird im Zusammenhang mit Big Tech ausgestossen? Ich ahne, dass wir uns das alles lieber nicht so genau vorstellen möchten, weil wir uns so ohnmächtig fühlen. Dann lieber ein bisschen Aufreger konsumieren, uns auf ein Nebengeleise der grossen Probleme manövrieren und uns ablenken lassen. Danke für das Interview mit Meredith Whittacker, habe wieder viel gelernt. Schon fast hätte Musk mich überzeugt, denn wenn der warnt, dann ist es ernst....

36
/
1
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Allgemeine Bemerkung: das Interview wurde vor ein paar Wochen geführt. In der Zwischenzeit gibt es Update was den AI Act der EU und die Allzweck-KI-Modelle wie ChatGPT, Midjourney etc betrifft.

Sie werden offenbar nicht in der Hochrisiko-Kategorie eingestuft, jedoch müssen Entwickler*innen dieser Modelle umfangreiche Risikoprüfungen machen und alle Nutzungsszenarien antizipieren (was mir relativ unmöglich scheint). Zurzeit werden im EU-Trilog noch die letzten Details ausgehandelt.

Die von Whittaker postulierte Machtfrage - die beim AI Act fehlt - ist effektiv ein Versäumnis beim Versuch der EU KI Systeme angemessen zu regulieren. Denn solche Risikoprüfungen und Auflagen werden letzten Endes nur die grossen Big Tech-Konzerne erfüllen können. Was auch ganz in ihrem Interesse ist.

30
/
0
Informatik-Ingenieur und Ökonom
·

Unter dem medialen Druck eines Hypes voreilig und schlecht gemachte Regulierung ist ein echtes Problem.

Das Muster ist stets dasselbe: die von einem Trendthema wie künstliche Intelligenz, Plastikröhrchen oder Libra (der ehemaligen Kryptowährung von Facebook) ausgehende Gefahr wird von den Medien masslos aufgebauscht. Machtorientierte europäische Politiker und Behörden nehmen den Ball gerne auf und nutzen die Gelegenheit, sich als Retter aufzuspielen, indem sie möglichst stark reingrätschen. Ob die vorgeschlagene Regulierung in der Sache sinnvoll ist, ist dabei zweitrangig. Bis die Bürgerinnen und Bürger merken, dass beispielsweise die Cookie-Banner doch nicht so das gelbe vom Ei sind, ist längst das nächste Thema aktuell. Die missglückte Regulierung wird man aber nie wieder los, da sich mit der Verbesserung bestehender Gesetze in der Politik kein Blumentopf gewinnen lässt. Das Ziel der Politik ist leider oft nicht eine sinnvolle Regulierung, sondern öffentliche Aufmerksamkeit und Machtausweitung.

Die Schweiz steht hier mit ihrem Pronzipien-basierten und tendenziell zurückhaltenden Ansatz vergleichsweise gut da, kann sich aber leider oft nicht den internationalen Trends entziehen.

18
/
7
Brot
·
· editiert

Downvote wegen dem Cookie-Banner-Beispiel. Die Regulierung schreibt vor, die Zustimmung des Nutzers abzuholen, falls unnötig Daten gesammelt werden. Die Regulierung schreibt nicht vor, möglichst lästige Cookie-Banner auf allen Webseiten zu platzieren. Dafür sind allein die Firmen in der Umsetzung verantwortlich.

Vermutlich haben Sie recht, dass es eine bessere Regulierung gäbe, die solche Auswüchse nicht entstehen liesse. Aber ich finde, unser Groll sollte sich mehr auf die unnötige Datensammelwut richten, welche die Regulierung zu Tage gefördert hat. Nicht auf die Absicht, eine transparenzförderde Regulierung zu gestalten.

Würden nicht praktisch alle Webseiten unnötig Daten sammeln, gäbe es auch nicht überall Cookie-Banner.

21
/
0

... wobei ich beim Cookie-Banner nie verstanden haben, weshalb man nicht einfach den Do Not Track Header rechtlich für verbindlich erklärt hat. Das wäre eine einfachere, und deutlich benutzerfreundlichere Lösung gewesen. Insofern sehe ich die Zweckmässigkeit dieser Regulierung auch sehr kritisch.

24
/
0
Informatik-Ingenieur und Ökonom
·
· editiert

Sogar das EU-Parliament hat auf seiner eigenen Webseite ein Cookie-Banner. Offenbar ist hier nicht allein die Sammelwut der Firmen verantwortlich.

11
/
1

Die Cookie-Banner sind deshalb so schlimm für mich, weil die Datenschutzfreundliche Option meist auf eine Weise dargestellt wird, als wenn sie gar nicht verfügbar/deaktiviert sei und die für den Betreiber beste Option in hellen plakativem Design daher kommt. Und natürlich, dass es für die Variante mit einem Click nicht getan ist, sondern immer über Monster-Listen führt, die teilweise noch schlimm voreingestellt sind, so dass es hier noch weitere Interaktionen kommt.

Ich hatte auf Twitter mal zufällig eine kurze Diskussion mit dem deutschen Bundesdatenschützer, der genau das für nicht zulässig erklärt hat - nur scheint es niemanden zu interessieren, dagegen vorzugehen. Meiner Meinung nach wurde versäumt, den Betreibern vorzugeben, dass sie eine bestmögliche Datenschutzkonforme Option genauso prominent als "One Click" anbieten müssen wie die für das Marketing beste Möglichkeit. Ganz im Sinne des in Deutschland vorgeschriebenem Knopfes "Jetzt KOSTENPFLICHTIG bestellen" bei Online-Einkäufen.

6
/
0
Andreas Fischer
nachdenklich
·

Selten war ich nach einem Interview und dem hochwertigen Diskurs so verwirrt wie heute: auch nach mehrmaligem Lesen habe ich diese komplexen Zusammenhänge nicht begriffen, noch weniger die Konsequenzen daraus.
Ich kann weder die Handlungsoptionen noch die Bewertung überschauen und fühle mich sehr verunsichert. Da ist sogar die Klimaerwärmung einfacher zu verstehen... Bücher und Vorträge beleuchten meistens nur Teilaspekte. Könnten Sie bitte in einem nächsten Artikel die Optionen für die nächsten Schritte und deren langfristigen Konsequenzen aufzeigen?

7
/
5
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Guten Tag Herr Fischer. Helfen Sie mir, welche Zusammenhänge waren nicht verständlich? Zugegeben: eine gewisse Digitalaffinität ist bei der Lektüre des Interviews sicher Voraussetzung. Ich habe versucht bei den einleitenden Fragen die verschiedenen Konzepte (was zum Beispiel die von der EU geplante Chatkontrolle betrifft) nachvollziehbar zu erklären, bevor ich die Meinung von Frau Whittaker gefragt habe.

Ich denke ihre Kernbotschaft ist: Skeptisch und kritisch bleiben gegenüber den alarmistischen medialen Schlagzeilen, immer sich vor Augen halten wie KI-Systeme am Schluss gebaut sind, und als Bürger/in mehr darauf zu pochen, dass die Macht und Besitzfrage auf der politischen Agenda landet: Also wer verfügt über die Technik-Infrastruktur solche Modelle zu bauen, zu trainieren und wollen wir dass dies auch so bleibt? (ungehindertes Wachstum von Datenbeständen in den Händen einiger Weniger)

23
/
0
Andreas Fischer
nachdenklich
·

Es begann damit, wer nun für KI Regulierung a) will, b) nicht will, c) will - aber davor warnt und doch nicht will. Dann über Datenschutz und Messenger-Zentralisierung-Dezentralisierung bis zur Frage Infrastruktur - Macht - Grossinvestoren, die warnen vor ihren eigenen Produkten. Kurzum: ich war überfordert von der Dichte und Geschwindigkeit der Story.
Ihre obenstehende zusammengefasste Kernbotschaft als Quintessenz verstehe ich und teile sie auch. Nur, mit Skeptik habe ich noch keine Handlungsoption. Wie geht es weiter und wie betrifft mich das? Was kann ich mehr tun als vorsichtig sein?

5
/
0
Chance für ein Umdenken?!
·

Die interessante Frage, wie sich 'Intelligenz' definiert einmal beiseite gelassen, sehe ich als eine der grossen Gefahren der KI deren Potential für Manipulation, Framing, usw.

Auch wenn eine Unmenge an niedrigst-bezahlten Menschen für die Datenbasis der KI tätig sind: Die Algorithmen, welche dann an diese Datenbasis angelegt werden, sind m.E. ein recht grosses Einfallstor für Manipulationen aller Art. Da ist das unsägliche Werbeplakat der FDP mit der Ambulanz nur ein kleiner Abklatsch davon (klar, das selbe hätte man vielleicht auch mittels Photoshop bewerkstelligen können, aber die FDP prahlt ja selber mit dem Einsatz von KI für dieses Plakat...). Irgendwann werden wir dann die Realität nicht mehr von den Scheininformationen der KI unterscheiden können - und dann : Gute Nacht Freunde...

Mein Fazit: Es bräuchte dringendst eine intelligente (ja doch!) Regulierung durch den Staat, welcher als minimalste Bedingung die Kennzeichnung für KI-erzeugte Inhalte vorschreibt.

Herzlichen Dank für dieses Interview, welches doch sehr zum Nachdenken anregt!

23
/
0
Advocatus Diaboli
·

Kennzeichnung von KI Inhalten (natürlich elektronisch auslesbar) und Verlust sämtlicher Copyright privilegien wäre ein sinnvoller Anfang, aberes gilt das Motto:"Gute Idee, machen wir auch nicht!"

8
/
0

Weil die Leute, die Desinformation unters Volk bringen so gesetzestreu sind, dass sie sich an eine Kennzeichnungspflicht halten würden? Also ich habe meine Zweifel, ob eine solche Regulierung das Prädikat "intelligent" verdient ... und es ist ja nicht so, als würde eine Fälschung von Videos zwingend eine KI erfordern.

Ich denke wir werden ganz einfach etwas kritischer werden müssen, woher unsere Informationen stammen. Und ich denke, das Bild vom Papst im weissen Mantel hat diesbezüglich mehr geholfen als eine Kennzeichnungsungspflicht es jemals könnte.

1
/
3
Fachperson
·

Ein tolles Interview: Jedes Wort wahr. Das sollten Viele lesen!

22
/
4

Vielen Dank für das Interview Frau Fichter. Ich finde es sehr wichtig.
Dieser Satz von Meredith Whittaker lasst aufhorchen: "Es geht um die Nutzung grosser Datenmengen und um die Entwicklung statistischer Modelle, die Entscheidungen über uns und unsere Welt treffen sollen. Und dies soll ohne jede Rechenschaftspflicht gegenüber der Bevölkerung geschehen. Zum Nutzen dieser Profiteure - und nicht im Dienste des Gemeinwohls."

17
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·

Herzlichen Dank, Frau Wunderle!

2
/
0

Das Interview offenbart die Weltsicht einer in den USA ausgebildeten, evidenzgläubigen Technokratin. Genau dieser Mangel an tieferer Bildung, wie sie in Europa wenigstens noch vor kurzem üblich war und leider immer weniger hoch gewichtet wird, ist letztlich die Ursache des Hypes um und der Angst vor künstlicher Intelligenz (KI).
Wissen ist Macht und das, seit es Menschen gibt. Ob das Wissen zum Guten oder zum Schlechten angewendet wird, versuchen Gesetze und Vorschriften seit jeher zu regeln, die sich wiederum, je nach Anwendungsgebiet, an der Physik, Ethik oder Ästhetik orientieren. Für die letzten zwei existieren keine Naturgesetze, sondern sie sind steter Wandlung in ihrer Bedeutung und Ausgestaltung unterworfen. Der Anspruch von Religionen auch im Metaphysischen Gewissheiten und Normen zu schaffen, ist Geschichte und hat bekanntermassen zu keiner Zeit zu einer besseren Welt geführt. Der Glaube KI könne nun diese Lücke füllen und uns quasi zu Sklaven digitaler Mächte machen, welche es mit Vorschriften zu zügeln gilt, ist naiv.
KI hat mit Intelligenz nicht das geringste zu tun. KI erlaubt es, vorhandenes Wissen in unheimlicher Geschwindigkeit und nicht mehr unmittelbar nachvollziehbarer Weise nutzbar zu machen. Das ist nichts Neues. Die Erfindungen der Renaissance wie das Fernrohr oder des Buchdrucks, liessen auch zu jener Zeit das Wissen und dessen Verbreitung explodieren, sowohl zum Guten wie zum Schlechten. Leonardo da Vinci bot seinem Landesfürsten seine Kenntnisse für die Konstruktion von Kriegsmaschinen an und Galileo Galilei konstruierte jahrelang Fernrohre für die Aufklärung auf dem Schlachtfeld, bis er eines Nacts auf die Idee kam, es auf den nächtlichen Himmel zu richten und damit das Weltbild grundsätzlich zu verändern. Das Konzil von Trient, als Versuch der Kirche, die Deutungshoheit über die Welt wieder zurück zu erlangen, führte zum genauen Gegenteil. Nicht zuletzt deshalb, weil man galubte mit obskuren Regeln und dem Verbot von Büchern den Fortschritt aufhalten zu können.
Auch heute ist es doch so, dass sich Unternehmer und Politiker mit Wissen einen Vorsprung verschaffen (müssen), um Erfolg zu haben. Ob dies nun mit KI oder sonstwie geschieht, ist letztlich egal. Die bestehenden Masstäbe für die Sicherheit, Wahrhaftigkeit oder Sinnhaftigkeit von Produkten, Regelungen und Gesetzen müssen lediglich konsequent auch auf KI unterstützte Entscheidungen und Mechanismen angewendet werden.

6
/
16

Es geht nicht um Wissen, es geht um handeln. Wenn Ihr z.B Kindergeld entzogen wird und Sie dazu aufgefordert werden die Leistungen der letzten Jahren zurück zu Zahlen nur weil Sie einen Migrationshintergrund haben und das KI System das von den Behörden eingesetzt wird meint Menschen mit MH alle Betrüger seien, hätten Sie eine andere Auffassung vielleicht..

12
/
0

Sehr interessantes Interview. Ins Auge gesprungen ist mir das von Whittaker angesprochene Infrastrukturproblem. Die amerikanischen (und auch chinesischen) Techgiganten haben alle anderen damit abgehängt. Deswegen können sie "Gratisdienste" gegen Daten und Werbung anbieten. Deswegen sind sie erst in die Lage gekommen fortschrittliche KI Modelle zu trainieren. Solche Infrastrukturen geben ihnen einen schier unüberwindbaren Grössenvorteil. Es ist ihnen auch gelungen uns völlig davon abhängig zu machen. Ich fürchten den Tag an dem Google, Apple und Microsoft beschliessen die Zitrone auszupressen, denn wir könnten nichts dagegen tun. Es ist eine verrückte Welt - Leute sprechen auf der einen Seite z.T. von Selbsversorgung im Nahrungsmittelbereich, auf der anderen Seite weiss man nicht wie abhängig die Banken, Kassensysteme, der Staatsapparat, SRF, ... von den Infrastrukturen dieser Techgiganten ist.

12
/
0
Janik von Rotz
Denkt mit.
·
· editiert

Schön von einer Expertin zu hören, dass KI ein Machtinstrument ist und nicht unbedingt eine revolutionäre Technologie.

Mich würde interessieren wie Mrs. Whittaker den Standard https://matrix.org einordnet. Das ist (zumindest für mich) eine viel bedeutenderer Standard / Technologie.

11
/
1

Ich kann bei bestem Willen nicht verstehen, warm KI nicht auch eine revolutionäre Technologie sein soll. Wie kommen Sie da drauf? Eine Technologie, die schon jetzt vieles auf den Kopf stellt, soll "nicht revolutionär" sein? Was ist DANN noch revolutionär?

2
/
5

Ich suche einen demokratischen Charakter in den Organisationen, die diese Technologien vorantreiben. Das habe ich bis jetzt nur bei HuggingFace (https://huggingface.co/) gefunden. Bei OpenAI und Co geht es Richtung Closed Source und Business Model Entwicklung.

5
/
0

Zur Problematik der in der EU geplanten Chat-Kontrolle, die im Interview erwähnt wird, hier noch ein Erklärtext bei DNIP von vorgestern (also wirklich aktuell):
https://dnip.ch/2023/07/04/chatkont…ielleicht/

7
/
0
acc@eml.cc
·

Ich muss euch warnen, es wird irgendwann eine Sonneneruption geben, die alle Satelliten von Elon Musk zerstört... das ist der Mann, der vor der bösen SuperKI warnt, nur um einen Monat später anzukündigen, dass er eine eigene "Anti-Woke-KI" entwickeln will, weil ihm ihm ChatGPT zu "woke" ist. Wie soll man sowas ernst nehmen? Es ist ja auch nicht so, dass eine SuperDuperKI von sich aus in einem Ursumpf aus Silizium und Kupfer entsteht um dann die dummen Menschen auszulöschen. Menschen entwickeln sowas und machen dann dumme Sachen damit, also ist eigentlich der Mensch das Problem und nicht das Werkzeug.

11
/
5

Das ist so eine Sache, das mit dem Menschen und den Werkzeugen... Siehe Umweltzerstörung, oder Atombombe, oder Waffen, oder ..... "Eigentlich" - wie Sie schreiben - ist der Mensch das Problem, oder besser: wäre es. Doch was ist der Mensch und was will er? Und die KI mit den anderen Werkzeugen gleichzustellen, scheint mir eine grosse Unterschätzung - die KI (ausser die von Ihnen erwähnte extreme Sonneneruption "rettet" uns) ist deutlich potenter.

3
/
2
acc@eml.cc
·
· editiert

Ja, ich hab vorhergesehen dass jemand mit Waffen kommt und eigentlich müssten sie wissen, dass ich jetzt sage: Waffen wurden aber explizit zum Töten entwickelt ^.^
Gehen sie denn davon aus, dass so eine echte KI mit echten Gefühlen und so, zum Töten entwickelt würde? Und wäre es nicht auch im Bereich des Möglichen, dass sie sich schlicht weigern würde Lebewesen zu töten? Aber wohlgemerkt, wir diskutieren hier rein hypothetische Fragen... das ist etwas, was z.B. sehr viele kluge Science-Fiction Autoren bereits seit Jahrzehnten tun.

Was mir aber tatsächlich auffällt, KI hat das Potenzial einen handfesten Keil in die Bevölkerung zu treiben: in Befürworter und ebenso fanatische (btw.) Gegner. Das macht mir ehrlich gesagt mehr Sorgen als eine nicht existierende "echte" KI.

"Was will der Mensch?" ... ich frage mich vor allem: Was wollen Musk & Co.? Und die Antwort die ich mir darauf gebe, gefällt mir gar nicht.

1
/
0
Grossvater "Oekoterrorist"
·

Etwas spät gelesen: Interessantes Interview und dazu viele Beiträge, die nicht zufällig zu Fragen nach "Intelligenz", "Bewussein" , "maschinelles Lernen" etc. führen. Dabei irritiert mich, dass im Zuge der Digitalisierung die Sprache völlig verfälscht wurde (Virtuelle Realität , KI, Lernen etc.) und das Hauptproblem, nämlich die grundsätzliche Differenz zwischen Mensch und Maschine vergessen geht. Eine Maschine (Computer) arbeitet per Definition kausal determiniert und hat deshalb ebenfalls per Definition keine Absichten, keine Emotionen, kein "Wissen", keine Gedanken, kein Bewusstsein , kurz: keine Subjektivität. Eine Maschine kann deshalb nichts "lernen" oder "wollen". Mathematische Modelle sind keine neuronalen Netze und das vergrössern von Datenbanken und vermehren von Algorithmen ist kein "Denken". Wenn Maschine und Mensch trotzdem gleichgesetzt werden, wie das in der IT seit Jahrzehnten selbstverständlich ist, lässt sich über technische Entwicklung und Regulierung wegen totaler Sprachverwirrung gar nicht mehr vernünftig diskutieren. Trotz (oder wegen) KI "wissen" 80 Mio. Amerikaner, dass die Erde 6000 Jahre alt, Trump von Gott gesandt und Musk (mit seiner Weltraumvermüllung) ein "Hero" ist! D.h. : KI ist genauso schwarmdumm, wie die Menschen und deren verwendeten Daten. Eine wirklich intelligente KI müsste sich als Klimabrand-beschleuniger wegen sinnlosem Energieverschleiss sofort selbst beenden (zur Rettung der Menschheit!). Würde KI nicht nur die Menschheit, sondern das ganze (nicht die!) Leben auf dem Planeten retten wollen, müsste sie (die KI) die Erde vom Homo sapiens und dessen Maschinen befreien. Intelligenz???

3
/
0
Spezialist Digitales Lernen
·

Wohltuend an dem Interview ist ja gerade, dass es nicht auf irgendwelche im Augenblick schwer zu fassende Konvergenz-Szenarien fokussiert, sondern sich mit den konkreten Auswirkungen der Herstellung und Anwendungen des jetzigen Stands der Technologie befasst, was - wie Meredith Whittacker eindrücklich aufzeigt - problematisch genug ist und unbedingt unserer Aufmerksamkeit und Wachsamkeit bedarf. Meine Hypothese ist, dass ein guter Teil der Aufregung um zukünftige Gefahren dem Begriff „künstliche Intelligenz“ zuzuschreiben ist. Erst dadurch lassen sich diese Angstszenarien aufbauen, die sie zu ihrer Ablenkungshypothese führen, dir mir recht plausibel erscheint.
Statt in diesem Zusammenhang von künstlicher Intelligenz zu sprechen, wäre der Begriff „maschinelles Lernen“ wesentlich angebrachter. Genau darum handelt es sich nämlich bei der heutigen Technologie, durchaus eindrücklich genug. Und im Interview erfährt man, dass diesem maschinellen, d.h. automatisierten Lernen auch noch ganz beträchtlich von Hand nachgeholfen werden muss.
Wie bereits in anderen Kommentaren erwähnt, ist das Ganze ja nicht neu, sondern hat sich stetig an den jetzigen Punkt hin entwickelt. Möglich macht das alles erst die gigantische Datenbasis. die dahintersteht. In gewissem Sinne sehen wir nun einen Teil der Früchte der Datensammelwut der BigTech-Konzerne.
Und da beginnen nun meine ganz grossen Sorgen: Niemand ausser ganz wenigen privaten Unternehmen hat die Ressourcen (in einem ganz umfassenden Sinn), um solche Datensammlungen anzulegen, zu unterhalten und weiterzuentwickeln. Die Power und damit die Macht, die diese Datensammlungen ermöglichen, ist in keinster Weise demokratisiert. Und da muss m.E. die Politik einsetzen: Der Zugriff auf diese Daten und ihre Verwendung muss unbedingt öffentlich möglich sein, ansonsten ist kein Korrektiv zu den Aussagen, Schlussfolgerungen und Handlungen von BigTech möglich. Es sind diverse Szenarien denkbar, wie das erreicht werden könnte. Sicher ist, dass dies die Grundlagen legen würde, um in der weiteren Entwicklung der „künstlichen Intelligenz“ eine demokratische Mitsprache zu ermöglichen.

1
/
0
(durch User zurückgezogen)
(durch User zurückgezogen)

Das Interview gefällt mir gut, aber der Anfang scheint etwas holperige Argumentation zu gebrauchen. Die meisten angesprochenen Limitationen dieser "dummen Systeme" können mit besseren Trainingsmethoden, Datenpflege, Grösse und Struktur ausgemerzt werden.

Selbstverständlich besteht eine Gefahr, dass die Grosskonzerne keinen Anspruch auf wirklich clevere Systeme erheben und nicht die Sorgfalt üben um die Systeme biasfrei zu gestalten. Aber das ist nicht das Problem der Technologie, sondern von kapitalistischen Anreizen.

Die Wissenschaft kann diesen Systemen bei immer mehr Disziplinen übermenschliche Fähigkeiten antrainieren. Es gibt keinen fundamentalen Grund warum dies nicht auch zum Beispiel bei Sprachmodellen wie ChatGPT passieren wird. Es ist wichtig zu erkennen, dass wir noch nicht da sind und die Modelle mit Vorsicht geniessen. Dass Fernsehproduktionen bereits ihre Autoren feuern, weil sie glauben es brauche sie nicht mehr mit ChatGPT scheint tatsächlich gefährlich und wird zu einem noch einheitlichen Brei im Fernseher und Kino bringen. Aber ich seh da wieder nicht die KI als Problem, sondern der mangelnde Qualitätsanspruch dieser Firmen.
Ich sehe es eher als eine Chance, dass sich, wie beim Beispiel aus dem Artikel, Autisten vielleicht doch mal verstanden fühlen können, wenn diese Modelle übermenschliche Qualitäten erreicht haben. Schliesslich sind wir Menschen auch nicht unfehlbar und haben eigentlich andauernd Missverständnisse.

Einen weiteren Punkt, den ich erwähnen möchte, ist dass auch bei den generativen KI Modellen sich gezeigt hat, dass Open-Source sich mal wieder am meisten durchsetzt. So kann ich Sprachmodelle und Stable Diffusion auf meinem Laptop zuhause laufen lassen. Gratis, mal von den Strom- und Anschaffungskosten abgesehen. Aber diese Kosten halten sich in Grenzen von relativ normaler Benutzung. Qualitativ kommen die Open-Source Versionen den Modellen der grossen Konzerne sehr nah. Also immer noch dumm und nicht verlässlich, aber mit ihren Limitationen doch nützlich. Ich bin also auch nicht damit einverstanden, dass der KI-Hype nur Big-Tech etwas bringt.

9
/
11

Schon wieder ein KI Hype, diesmal zumindest von einer Fachfrau. Aufgehypt wird diesmal die Macht und Besitz Frage. Dazu...

  1. KI sind nur Algorithmen zur Mustererkennung

  2. Jeder kann's machen, die Konzepte sind bekannt.

  3. In weniger aufgehyptem Kontext laeuft schon Vieles, halt nicht so plakativ wie Science Fiction.
    Was die hier als so bedrohend dargestellte KI ausmacht sind die Daten, welche aber bereits existieren, resp gesammelt wurden und werden. Diese Daten sind aber nicht fehlerfrei, allenfalls sogar aus einem anderen Kontext. Was man vergessen sollte, ist eine KI mit Daten aus einem amerikanischen Kontext trainieren, und dann in einem europaeischen Kontext laufen lassen. Wobei es ja gar keinen europaeischen Kontext gibt. Das kann man alles gleich in die Tonne werfen. Verkuerzt ... es haengt alles an den Daten. Da haben die Amerikanischen Firmen einen Vorsprung. Solange sich hier in Europa aber niemand bemuessigt fuehlt Daten zu sammeln .. resp alles blockiert wird, die Amerikaner aber trotzdem sammeln ... bleibt das Gespenst eben am Himmel.

1
/
20
· editiert

Die Geschaeftsmodelle der grossen IT Firmen sind genial. Und spuelen jede Menge an Devisen in die Amerikanische Kasse. Binden jede Menge an Aktienkapital. Ich habe meine Muehe mit Jammerern, welche Google als negativ einstufen, aber Google Suche und Google Maps gratis nehmen. Ich bewundere deren Zuversicht etwas gratis zu geben und dann schon "etwas damit machen" zu koennen. Deren Konkurrenten von damals sind alle weg.
Daten sammeln bedeutet nebenbei nicht automatisch Daten ueber Menschen. Ohne neue Daten zu irgendwas gibt es keine neuen Erkenntnisse zu irgendwas.

2
/
8