Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!

DatenschutzFAQErste-Hilfe-Team: kontakt@republik.ch.



Vielen Dank für den Einblick in die aktuelle Regulierungsdiskussion.

Ich bin erschrocken als ich die mehr als dürftigen Ansätze zur Regulierung zum Einsatz von KI gelesen habe.

Bereits heute wird KI:

  • Eingesetzt von Banken und Versicherungen, intransparent und für den Kunden nicht sichtbar. So sind in der BRD die Algorithmen der SchuFa, die als Dienstleister für Banken Scoring über die Kreditwürdigkeit von Personen erstellt, geschützt. Ein Einblick ist nur in Form einer Score Auskunft möglich, nicht aber wie die Algorithmen diesen berechnen.

  • In Bayern sind seit 3 Jahren neue Polizei Gesetze in Kraft, die darauf abzielen predictive Crime Prevention einzuführen, mit Inhaftierungen bis zu 6 Monate ohne Einspruchsmöglichkeit auf blossem Verdacht hin.

  • In China ist Social Scoring eingeführt worden

  • In Grossbritannien ist Face Recognition in die extensive Videoüberwachung integriert.

  • In den USA wird der Wahlkampf von KI unterstützt (siehe Cambridge Analytica)

Die heutige Entwicklung mit DallE, Midjourney, ChatGPT erschüttert unsere Welt bereits heute tiefgreifend. Eine grosse Anzahl von kreativ Arbeitern fürchtet um ihre Existenz, vom Illustrator bis zum Texter.

Zudem sehen wir das mit diesen Werkzeugen bereits heute Fake News und Fake Science betrieben werden, also der freie Journalismus und die Wissenschaft selbst bedroht sind.

Und nicht zuletzt gibt es bereits die ersten Todesopfer von KI.
Die Radfahrerin in den USA, die nicht vom Autopiloten erkannt wurde und überfahren wurde.
Der belgische Familienvater der durch den Chat mit einem Bot Namens Eliza (welch Hohn) in den Selbstmord getrieben wurde.

Dieser Bereich gehört auf das schärfste reguliert durch Expertengruppen, angefangen mit den Gesetzen der Robotik von Isaac Asimov über die Kritik von Jo Weizenbaum bis hin zu den Arbeiten von Timnit Gebru zur Ethik von KI Modellen.

Eine Manifestation von Regularien und Entscheidungen die unser aller Leben betreffen, sich aber unserer Kontrolle entziehen, wie das Micro Trading der grossen Geldinstitute, führt unweigerlich in eine totalitäre Gesellschaft in der nur noch die herrschenden und reichen das Privileg der freien Entscheidung und des Einflusses haben.

4
/
3
Informatik-Interessierte
·

Danke für die guten Beispiele.

1
/
1
Martin Hafen
Präventionsfachmann, Soziologe
·

Es ist in der Schweiz bei den KI-Gesetzen das Gleiche wie bei den Umweltregulierungen: nur dem Big Business nicht auf die Füsse treten. Die "innenpolitischen Sachzwänge" bedingen diese wirtschaftliberale Haltung. - Wann, wann endlich beginnt die Schweizer Bevölkerung diese innenpolitischen Sachzwänge zu lockern? - Im nächsten Herbst bietet sich die nächste Möglichkeit.

60
/
2

Die öffentliche Gesundheit fällt auch in diese gewollte Regelwüste: weder Tabak, Alkohol, Zucker noch Medikamentenpreise sollen reguliert werden... alles ist auf "Mitwirken der Wirtschaft" aufgebaut. Leider sind Stimmen käuflich, und die Agenda des Wahlkampfes wahrscheinlich schon durchgeplant... aber die Hoffnung auf die Stimmbürger*innen stirbt zuletzt!

28
/
1
Chance für ein Umdenken?!
·

Ihnen ist 100%-ig zuzustimmen!
So lange wie wir eine 'bürgerliche' Mehrheit in unseren Parlamenten haben (v.a. SVP, FDP, GLP und grosse Teile der Mitte), so lange wird sich an dieser Wirtschafts-ind Geld-Hörigkeit rein gar nichts ändern. Es sind genau diese politischen Kreise, welche für geld-getriebene Lobby-Zückerli scheinbar sehr empfänglich sind....

Dann wollen wir einmal hoffen, dass sich die WählerInnen klar darüber werden, wer wofür steht und nicht auf die ewig lächelnden, gephotoshoppten Konterfei's und deren rein gar nichts sagenden Gemeinplätze abstützen. Helfen dabei kann auch eine Aufmerksamkeitsspanne, welche leicht über diejenige eines Goldfisches hinaus reicht...

20
/
1
Informatik-Ingenieur und Ökonom
·

Die Schweiz hat in ihrer Haltung recht. Die Technologieneutralität macht absolut Sinn. Wenn es Sinn macht, Bürgerinnen und Bürgern das Recht zu geben, dass eine KI-Entscheidung von einem Menschen angeschaut wird, weshalb sollte man das gleiche Recht verweigern verweigern, wenn die Entscheidung durch einen klassischen Algorithmus gefällt wird? Wieso soll es einen Unterschied machen, ob eine Urheberrechtsverletzung von einer künstlichen Intelligenz begangen wird, oder von einem herkömmlichen Computersystem?

Experten und Politiker nutzen neue Themen gerne, um sich wichtig zu machen. Und das geht besten, wenn sie sich als Retter der Bevölkerung aufspielen können. Das sollte einem bei der Beurteilung solche Vorschläge bewusst sein. Weiser ist es, erst mal abzuwarten und erst dann zu reagieren, wenn sich die angeblichen Probleme tatsächlich manifestieren. Dann kann man auch aus einer viel informierteren Lage heraus und zielgenauer regulieren.

10
/
32
Studentin in AI an der ETH
·
· editiert

Es macht schon einen Unterschied, ob eine Entscheidung von einem herkömmlichen, nachvollziehbaren Algorithmus, von einem einzelnen Menschen oder von einer KI gefällt wird.

Bei einem Algorithmus kann man es mathematisch nachvollziehen, wie es zu der Entscheidung kam und man korrigierend einschreiten (zum Beispiel bei diskriminierenden Modellen).

Bei einem Menschen werden die Entscheide nicht "in Serie falsch" gefällt. Also falls jemand diskriminierende Entscheide fällt, werden diese von einem Menschen in dieser Form in einer Organisation gefällt und sobald aber jemand anderes dieselbe Entscheidung fällen muss, kann die Entscheidung anders sein.

Eine KI erweckt den Schein "neutral" zu sein. Aber da muss man wissen wie eine KI funktioniert. Man gibt der Daten und "trainiert" sie (oder lässt sie lernen) anhand von den Daten und gibt ihr Feedback über ihre Entwicklung indem man den Output bewertet. Nur: die KI ist genauso biased wie ihre Daten, die sie bekommt, und da der Mensch sehr biased ist und die Daten für die KI sammelt und aufbereitet, ist die KI auch biased- einfach im Gegensatz zum Mensch ist sie das konsequent. Und dazu kommt, dass man bei grossen KI Modellen schwer nachvollziehen kann, wie die KI zu einem Schluss kommt. Das hat damit zu tun, dass es riesige Netzwerke mit teils Milliarden von Gewichten zwischen einzelnen "Knoten" (fachlich: Perceptrons) gibt und diese alle zu analysieren und nachzuvollziehen ist immer noch Bestandteil der Forschung. Das birgt Gefahren für Menschenrechte und die Demokratie, da die KI im Deckmantel als "neutrale Technologie" genauso diskriminierend sein (und das häufiger wie es einem lieb ist) und dann realen Schaden anrichten kann. Aktuell greift man korrektiv ein, indem man neue Regeln definiert z.B. bei ChatGPT: Fragen, die eine rassistische Äusserung provozieren mit einem Standardtext beantworten "As an AI language modell..." .
Es gibt genügend Studien zu den Biases von AI und auch Recherchen. Timnit Gebru ist eine AI Forscherin, die dazu ausgiebig geforscht hat, auch als es noch "uncool" war.

Ich selbst bin auch in diesem Gebiet und entwickle KI Modelle innerhalb meines Studiums und finde es genial, was KI alles hinbekommt, jedoch werde ich auch immer wieder mit den Fehlern von KI konfrontiert und bin teilweise auch verblüfft, wie "dumm" sie sein kann. Und wenn man Staaten und die Privatwirtschaft nicht dazu bringt, diese Gefahren zu kalkulieren und Biases auf ein gesetzliches Minimum zu reduzieren, passiert das, was sonst in der Privatwirtschaft passiert: Solange es der "ökonomisch wichtigen Mehrheit" was nützt, werden die benachteiligten Minderheiten ignoriert- zugunsten des Gewinns.
Anforderungen in diesem Bereich sind meiner Meinung nach innovationsfördernd, da man dann auch Gelder zur Verfügung stellt, um herauszufinden "wie Intelligent die KI" auch wirklich ist und nicht nur wie sehr nützt uns der Output, den sie liefert und war die korrekt laut unseren Testdaten (die, wie erwähnt, häufig auch biased sind).

Edit: Typos, Kommafehler

53
/
0
Anderer 60
·
· editiert

Danke für den Inhalt des Beitrags und ich sehe einen Grund, dass Sie hier anonym schreiben.

5
/
6

Ja, der Bias in den Trainingsdaten.
Der Fehler der ersten Versuche von Google, Bilder zu analysieren und dabei farbige Menschen als Affen zu definieren ist ein Klassiker auf dem Gebiet, glaube ich. Und das lag schlicht und ergreifend an der Tatsache, dass die Trainingsdaten für Menschen, die der Maschine zum Lernen vorgeworfen wurden, vorwiegend weisshäutige Menschen enthalten haben.

5
/
1

Vielen Dank für diese Ausführungen!

2
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·

Die Technologieneutralität macht für mich wenig Sinn bzw finde ich eine naive Prämisse, weil Technologie ja per se nie neutral ist. Designentscheidungen und Trainingsdatensätze haben Vorgeschichten und beinhalten Werte. Daher sind Regulierungsansätze im Entwicklungsstadium eines KI-Systems durchaus sinnvoll, es fragt sich halt wie sehr man hier in die Wirtschaftsfreiheit eingreifen darf und soll, ohne hier einen zu grossen bürokratischen Apparat aufzubauen. Auf der anderen Seite regulieren wir ja auch die Flugsicherheit. Ein Flugzeug darf erst nach vielen Audits und Prüfungen fliegen. Diese Denke wünsche ich mir auch bei Technologie-Themen.

27
/
2
Informatik-Ingenieur und Ökonom
·

Das Prinzip der Technologieneutralität macht Gesetze langlebig. Wenn es für jede neue Technologie neue Gesetze braucht, hat der Gesetzgeber was falsch gemacht. Auch schützt Technologieneutralität vor amtlicher Willkür, weil sie zu einer technologie-übergreifend konsistenten Anwendung der Gesetze führt. Es darf für einen Richter nicht darauf ankommen, ob ein Betrug per Telefax oder per TikTok begangen wurde.

Auch ist es sehr gefährlich, proaktiv zu regulieren. Ein staatlicher Eingriff sollte in einem liberalen Rechtssystem stets die ultima ratio sein, wenn alle anderen Mittel zur Hervorbringung von vernünftigem Verhalten versagt haben. Und nichts ist schwerfälliger als ein internationaler Standard. Wenn man die Entwicklung der künstlicher Intelligenz mittels internationaler Standards begleiten möchte, geht alles um mehrere Grössenordnungen langsamer voran, wie wenn man agil und lokal reagiert. Es ist gerade im Entwicklungsstadium einer neuen Technologie extrem wichtig, dass man in verschiedenen Ländern verschiedene Ansätze ausprobieren und testen kann, bevor eine unflexible regulatorische Monokultur geschaffen wird.

5
/
11

Es macht schon einen Unterschied, ob ein Mensch basierend auf dem Resultat eines computergestützten Prozesses entscheidet, oder der Prozess („die KI“) das ohne menschliches Zutun vollautomatisch macht. So oder so verstehe ich aber das Anliegen, gegebenfalls eine Zweitbeurteilung durch einen Menschen einfordern zu können. Diese Möglichkeit fehlt ja heute schon, vielleicht ist die KI-Diskussion ja eine Gelegenheit, hierzu eine Grundlage zu schaffen.

22
/
0
Fachperson
·

Ausgezeichnete Idee!

Das kommt. Jedenfalls bei folgenreichen Entscheidungen.

Ab 1. September gilt der Artikel 21 des neuen Datenschutzgesetzes.

Dann wird man genau eine solche Zweitbeurteilung durch einen Menschen einfordern können.
Oder, wie es im Artikel 21 heisst: "Die betroffene Person kann verlangen, dass die automatisierte Einzelentscheidung von einer natürlichen Person überprüft wird."

2
/
1

Anders gedacht: Warum den Fehler, dass ein Mensch keine Beurteilung einer Entscheidung durch einen Menschen einfordern kann, wiederholen? Spontan finde ich es falsch, egal ob es ein herkömmlicher Algorithmus war, der eine Entscheidung gefällt hat oder etwas, was aktuell als KI-basierter Algorithmus bezeichnet wird.

12
/
0
Informatik-Ingenieur und Ökonom
·

Der implizite Anspruch, es von Anfang an perfekt machen zu wollen, ist schädlich. Das ist nämlich nicht möglich. Stattdessen sollte man dann, wenn es konkrete Probleme gibt, auf diese reagieren. Beispielsweise kann man darüber nachdenken, ein Recht auf eine menschliche Entscheidung im Gesetz zu verankern, wenn jemand von einer social media Plattform automatisch gesperrt wurde. Das ist aber unabhängig davon sinnvoll, durch welche Technologie die automatische Entscheidung zustande gekommen ist. Es wäre auch nicht zu spät, dieses Recht für existierende System einzuführen.

9
/
0
Thomas Vogt
Software Entwickler, Running, Vater
·

Vorher oder gleichzeitig gibt es noch das grundlegendes Problem der allgemeinen Verfügbarkeit zu klären. Ich bin nach wenigen Stunden mit der API rumspielen schon am Limit und muss den Preisplan ändern. Die Preise sind nicht sehr hoch aber die werden steigen.

Bei OpenAI bezahlt man, im Moment, zb. nach Anzahl tokens (pro 1000). Diese Tokens sind Wörter oder Teile von Wörtern. Pay as you go... wie so oft ein scheinbar faires aber sehr unberechenbares Preismodell.

1
/
0
· editiert

Ich habe beruflich viele internationale Diskussionen (hauptsächlich innerhalb des UN-Systems) über Texte beobachtet, an denen die Schweiz teilgenommen hat und poste deshalb auch ausnahmsweise anonym. Die Schweizer Position in der KI-Frage scheint in eine ähnliche Richtung zu gehen: erstaunlich oft reicht die Schweiz ihre Änderungsanträge bei der Verhandlung internationaler Rechtstexte oder Übereinkommen gemeinsam mit Staaten wie den USA, Israel oder der Türkei ein. Eher selten schliesst sie sich den Änderungsanträgen der EU-Staaten an.

Dies scheint mir ein strategisches Spiel zu sein: da die CH im Zweifelsfall so oder so EU-Recht im Nachvollzug übernehmen muss, versucht sie auf internationaler Ebene den grösseren Rahmen in eine "liberalere" Richtung zu lenken. Damit nimmt die CH indirekt Einfluss auf den Rahmen, der dann die EU beeinflusst. In diesen Diskussionen sind die eingereichten Änderungsanträge auch oft überzeichnet, da man weiss, dass es Gegenvorschläge geben wird und man mit einer "krasseren" Position ins Rennen geht, als man realistischerweise durchbringen kann.

Letztendlich aber bin ich immer sehr ernüchtert darüber gewesen zu sehen, wie sehr sich die CH in diesen Diskussionen an den USA orientiert. Egal ob es um Arbeitsrecht, Wirtschaftsrecht, Menschenrechte oder jetzt halt KI geht. Es entsteht der Eindruck, als würde die CH am liebsten alles so machen wie die USA (einschliesslich Kommerzialisierung des Gesundheits- und Bildungssystems). Das entspricht aber glaube ich überhaupt nicht der Haltung der schweizerischen Wählerinnen und Wähler.

Aber eben, ich kann nicht beurteilen, inwiefern das alles einfach Verhandlungsstrategie ist und man nur versucht, den Text etwas mehr in eine bestimmte Richtung zu ziehen, indem man sich extrem positioniert.

44
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Vielen Dank für Ihre interessanten Gedanken und dass Sie Ihre Erfahrungen mit uns teilten. Wir kommen auch zum Schluss: die Schweiz fährt bei der Internet-Regulierung denselben Laissez-Faire-Kurs wie bei allen anderen Politikfeldern, siehe Grossbanken.

20
/
0

Ich habe lange in den USA gelebt und dort die Folgen des Laissez-faire - oder "every man for himself" wie man dort sagt - hautnah miterlebt. Nach der Rückkehr in die Schweiz ist mir wiederholt aufgefallen, wie erschreckend ähnlich die Schweiz und die USA in gewissen Belangen sind und wie selten das in der Schweiz angesprochen wird. Die Kommerzialisierung des Gesundheits- und Bildungssystems wurde bereits erwähnt. Die Macht der Wirtschaftsverbände, die Intransparenz beim Lobbying und Parteizugehörigkeit von Richtern sind andere Beispiele. Wer die republikanische Partei in den letzten 30 Jahren verfolgt hat, wird gewisse Züge in der SVP wieder erkennen. Es würde mich interessieren, woher die Laissez-faire Haltung der Schweiz eigentlich herkommt, wie sie sich entwickelt hat und wie stark sie jetzt durch Lobbying beeinflusst wird. Vielleicht ein Thema für Republik-Artikel?

26
/
0
Anderer 60
·

Danke für den Inhalt des Beitrags und für den Grund, dass Sie hier anonym schreiben.

9
/
7
Adrienne Fichter
Tech-Reporterin @ Republik
·

Könnten Sie mich vielleicht bitte kontaktieren, das wäre super: adrienne.fichter@republik.ch, PGP-Schlüssel: https://www.republik.ch/~adriennefichter Und: https://threema.id/3NTZN3ZU

0
/
0
IT-Unternehmer, Informatik Prof. i.R.
·
· editiert

Zuerst einmal herzlichen Dank an die Verfasserin für die sorfältige und umfangreiche Recherche. Wer sich selbst einmal auf den Webseiten des Bundes über den Stand der Digitalisierung in der Schweiz in all seinen Facetten schlau machen wollte, kann den dafür nötigen Aufwand abschätzen. Womit wir bei einem Grundsatzproblem wären. Getrieben vom rasenden Fortschritt in der Informatik und der dadurch ausgelösten digitalen Revolution, hinkt der Bundesrat und die Verwaltung den Entwicklungen stets hinterher und man versucht mit immer mehr Gremien, Arbeitsgruppem und Expertenräten Teilproblemen Herr zu werden oder sie zu beeinflussen. Jährlich werden drei Schwergewichtthemen bestimmt, die dann einem Departement zugewiesen werden, das damit meist vollkommen überfordert ist, wie z.B. das EDA mit dem Thema Digitale Souveränität der Schweiz, welches, ob Zufall oder nicht, drei Tage nach einem Hearing bei den GPKs beider Kammern Anfangs 2022, bei dem ich das Thema ansprach, diesem zugewiesen wurde.
Es wirkt sich nun gravierend aus, dass man es nie geschafft hat, eine digitale Strategie der Schweiz, die diesen Namen verdient, zu formulieren und alle politischen Entscheidungen und Aktivitäten danach ausrichten kann. Mit der jetzigen Arbeitsweise, ohne klare übergeordnete Ziele, werden wichtige Aspekte in den Entscheidfindungen regelmässig aus den Augen verloren. Die Frage ist, wie lange wir uns das, im wahrsten Sinne des Wortes, noch leisten können. Über kurz oder lang wird KI in jedem digitalen Produkt und jeder Informationswertschöpfungskette drin stecken. Genauso wie wir bei Lebensmitteln wissen wollen was drinsteckt, muss es auch bei digitalen Produkten so sein. Anders als bei Lebensmitteln, wo wir eine riesige Auswahl haben, sind wir aber in der IT mittlerweile auf dem Stand einer digitalern Kolonie, abhängig von einigen wenigen Grosskonzernen und -mächten, welche über Lizenzen an jedem Tastendruck der Schweizer BürgerInnen verdienen.
Im Moment hat die Schweiz nur für Lizenzen, einen jährlichen negativen Dienstleitungssaldo allein gegenüber den USA von 8 bis 10 Milliarden Franken. Dazu kommen der negative Saldo für digitale Produkte, Dienstleistungen, sowie Forschung und Entwicklung in etwa gleicher Höhe (Zahlen der Nationalbankstatistik). Da fragt man sich für was wir einen Wirtschaftsminister beschäftigen und was ein SECO den ganzen Tag macht. Auch das Parlament wäre gefordert, anstelle sich in einer Sondersitzung über Unausweichliches zu empören. Wobei auch diese unerfreuliche Rettung der CS letztlich ihren Ursprung nicht nur in der Gier der Banker hat, sondern ebenso im Mangel an geeigneten digitalen Risikomanagement-Tools.

35
/
1
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Herzlichen Dank, Herr W.! Ja es war in der Tat ein Dickicht von Papieren und Konzepten :-) Und alles verzettelt und verteilt auf verschiedene Departemente. Ich denke der Lead beim Thema KI und weiteren Technologien wird noch ein Streitthema sein, wie schon beim Bundesamt für Cybersecurity.

15
/
1

Wenn Elon Musk laut schreit sollte man vorsichtig hinhören.

Seine Warnung vor KI und die Forderung nach einem Moratorium klingt doch sehr hohl, wenn er gleichzeitig versucht sein eigenes KI Projekt voranzutreiben:

https://www.bloomberg.com/news/arti…ify%20wall

Wäre doch wahnsinnig praktisch wenn er die "Konkurrenz" für 6 Monate stoppen könnte.

32
/
0
Chance für ein Umdenken?!
·

Ich fasse meine Einstellung hier - vielleicht etwas naiv? - einmal zusammen:
Jeder Mensch hat das Recht, dass ihn/sie betreffende Entscheide auch durch einen Menschen vorgenommen werden und dass diese transparent nachvollziehbar sind.

Alles andere fände ich sehr dystopisch, weil letztendlich - wie bereits in Vielem - einem relativ kleinen Kreis von Menschen und Konzernen viel zu viel Macht eingeräumt wird.

30
/
0
Informatik-Interessierte
·

Ich glaube "transparent nachvollziehbar" ist hier das richtige Stichwort. Ein undurchsichtiger Entscheid von einem Menschen bringt mir auch nichts. Ich denke da zum Beispiel an die Wohnungsvergabe: irgendwie wählen die Verwaltungen die Kandidaten aus den Bewerbungsdossiers, aber aufgrund von welchen Kriterien?

5
/
0
Brot
·
· editiert

Mich nervt, dass Regulierung im Digitalen immer als innovationsfeindlich dargestellt wird. Eine Technologie, die ein freundliches Zusammenleben respektiert und fördert, ist auch eine Innovation. Nicht nur einfach alles, das irgendwie möglich ist, egal was die Konsequenzen sind.

Die Anthropologin Anna L. Tsing hat den - im besten Fall - naiven Optimismus dahinter toll beschrieben in einem Interview:

Wenn es zum Beispiel um eine Eisenbahnlinie geht, die bestimmte Auswirkungen hat, dann sollte das die Leute innehalten lassen, wenn jemand das nächste Mal eine Eisenbahnlinie bauen will! Ein Teil der Arroganz der Moderne, zumindest seit der Mitte des 19. Jahrhunderts, ist die Überzeugung, dass es keinen Grund gibt, irgendetwas zu bedauern.

Dass man all diese Dinge bauen würde und es nur zu einer besseren Welt führen würde, und dass man nicht darauf achten müsste, was sonst noch aus diesen Dingen, die gebaut wurde, entstehen könnte. Die Infrastruktur wurde sorglos geplant, gebaut und installiert.

Es ist durchaus nicht so, dass die Leute nicht wussten, dass bei der Errichtung eines Kernreaktors Strahlung austreten und Teil des Stoffwechsels von Pflanzen, Tieren und Menschen werden würde. Jeder wusste das. Aber sie dachten, wen kümmerts, es ist eine tolle Idee! Die Ingenieure werden das schon in den Griff kriegen, das ist eine wunderbare Sache!

Wenn «Swiss Finish» heisst, unter dem Deckmantel von «innovationsfreundlich» bestehende Machtstrukturen zu erhalten, verzichte ich lieber auf unseren Input in diesem wichtigen Vorhaben.

20
/
0
Anderer 60
·

Dass Sie anonym schreiben, verstehe ich nicht. Den Grund würde ich gerne wissen.

1
/
16
(durch User zurückgezogen)
Brot
·
· editiert

Genau dasselbe haben Sie schon vor vier Monaten gefragt... Ich denke, da ist einiges Material verlinkt, das meinen Standpunkt erläutert. Der hat sich in der Zwischenzeit nicht geändert.

11
/
0

Im Artikel steht:

Doch Microsoft und Google, denen die immer populärer werdenden grossen Sprach­modelle gehören

OpenAI, der aktuelle Platzhirsch, dem u.A. ChatGPT gehört, gehört weder Microsoft noch Google. Microsoft hat sich beteiligt, um ChatGPT-Funktionen in seinen Suchdienst Bing integrieren zu können.

Tatsächlich wurde OpenAI (u.A. mit Geld von Elon Musk) gegründet, um nicht-kommerziell tätig zu sein. Dies hat sich mittlerweile geändert, man möchte privatwirtschaftlich agieren.

17
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·

True, sorry der Fehler (Microsoft) hatte sich bei der Redigatur eingeschlichen und ich hab ihn nicht bemerkt. My Bad. Wird korrigiert!

12
/
0
Thomas Vogt
Software Entwickler, Running, Vater
·

Seit DSGVO stimmen die meisten Nutzer:innen aktiv allem zu was Webseiten sammeln wollen. Die EU und besonders Deutschland überzeugt mich überhaupt nicht mit ihren Regulierungsversuchen. Die Regulierungen für AI kommen ca 10 Jahre zu spät. Wenn man jetzt für 90% der Menschen den Zugang zu AI sperrt oder erschwert hilft das sich nicht. Besser wäre ein sehr offener Umgang damit. Der Zugang zu AI muss gewährleistet werden und erschwinglich bleiben. Die Entwicklung geht unvorstellbar schnell vorwärts.

4
/
3

Gerade weil es rasend schnell vorangeht, braucht es eine Diskussion darüber was wir als Gesellschaft wollen und welche Rechte gelten sollen (für die Anbieter wie auch für die Nutzenden bzw. Betroffenen). Transparente Entscheidungsprozesse sind für eine offene Gesellschaft zentral, diese durch Delegation an eine KI intransparent zu machen scheint mir eher gefährlich zu sein.

16
/
0
Fachperson
·

Ab 1. September gilt ein neuer Gesetzesartikel auch für Künstliche Intelligenz:

Der Verantwortliche informiert die betroffene Person über eine Entscheidung, die ausschliesslich auf einer automatisierten Bearbeitung beruht und die für sie mit einer Rechtsfolge verbunden ist oder sie erheblich beeinträchtigt (automatisierte Einzel- entscheidung).
Er gibt der betroffenen Person auf Antrag die Möglichkeit, ihren Standpunkt darzulegen. Die betroffene Person kann verlangen, dass die automatisierte Einzelentscheidung von einer natürlichen Person überprüft wird.

Das sind Absätze 1 und 2 von Artikel 21 des neuen Datenschutzgesetzes.

Das ist ein kleiner und vorsichtiger erster Schritt. Aber sinnvolle Gesetzgebung entsteht häufig so: durch Praxiserfahrung mit kleinen, vorsichtigen Schritten in mehreren Anläufen.

13
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Das stimmt! Allerdings gilt diese Bestimmung "nur" für KI, deren Entscheidungen unmittelbar direkt angewendet wird. Der Grossteil der meisten KI-Anwendungen hat nur Assistenz-Funktion, auch wenn sie von der/dem Anwender/-in wahrscheinlich (Confirmation Bias) nicht gross hinterfragt werden.

7
/
0
Senftube
·

Wenn Menschen ein Urteil von KI nicht mehr anfechten können, ist das das Gegenteil von Liberalismus. Wir sollten damit aufhören, Freiheit für das Kapital als Liberalismus zu bezeichnen oder nur schon das Adjektiv „liberal“ vor Politik zu setzen, die als „libertär“ zu bezeichnen wäre. Wir wollen ja weder Werbung für die FDP machen noch den positiven Liberalismus in ein schlechtes Licht rücken. Am Ende haben wir sonst einen Backlash gegen den Liberalismus wie den Trumpismus - der dann sogar noch die Abzocker weiter schützt, während er den gesellschaftlichen, nicht finanziellen Liberalismus aushöhlt.

12
/
0

Volle Zustimmung, liberale Politik ist nicht gleich "wirtschaftsfreundlich"!
Aus technischer Sicht finde ich (basierend auf was ich bisher gehört habe), dass "Anfechten" jedoch auf nicht-triviale und relevante Entscheidungen beschränkt sein sollte. Schon heute werden z.B. die Routen von Lieferwagen häufig rein algorithmisch bestimmt (ob man das jetzt KI nennt oder nicht) und diese Entscheidungen beeinflussen, wann Sie ihr Päckli bekommen...und ich vermute mal, es stört Sie weniger, dass Sie diese Entscheidungen in der Regel nicht anfechten können.

Um nun zu verstehen, ob die Schweizer Position jetzt "liberal" oder "libertär" ist, kommt es ja denke ich auf solche Details an (siehe dazu meine Frage von Gestern).

Denn es gibt ja z.B. auch Schweizer Kaffeemaschinen Hersteller, die die Sortierung von Kaffeeprodukten als "KI" verkaufen. Bei einer solchen "KI Entscheidungen" einen rechtlichen Anspruch auf Anfechtung festzuschreiben würde dann doch denke ich am Ziel vorbeischießen. Bei "relevanten Entscheidungen", wie Recruiting, Kredit Scoring, Versicherungen, Medizin, etc. ist ein Widerspruchsrecht natürlich essenziell.
Und nachdem die Relevanz einer automatisierten Entscheidung von der Anwendung/Kontext des Systems abhängt, kann ich mir bis jetzt schwer vorstellen, wie KI (insbesondere LLMs) unabhängig der Anwendung sinnvoll reguliert werden kann (daher die andere Frage von gestern).

1
/
0
Senftube
·

Da gebe ich Ihnen natürlich recht - der Teufel steckt im Detail. Mein Beitrag nutzt - ich hoffe nicht missbraucht - den Artikel natürlich zu einem generellen Aufruf.

1
/
0

Danke für diesen wichtigen Artikel, alle reden von KI, aber wenig hört man von der Schweiz und was sie vorhat, gut gibt es euch von der Republik.
Was hier im Artikel nur am Rande vorkommt, sind künstlich generierte Bilder, Filme. Ist das auch Gegenstand von Überlegungen? Gerade hat ja z.B. ein künstlich generiertes Bild einen Sony Camera Award gewonnen (Boris Eldagsen), der Künstler hat den Preis abgelehnt, und damit kommt hoffentlich Schwung in die Diskussion!

12
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Herzlichen Dank für Ihr Feedback! Ja wir haben mit dem Thema eingeführt und am Schluss wieder "ausgeleitet". Effektiv ist diese Allzweck-KI oder auch "Generative AI Tools" gerade ein wichtiges Thema bezüglich Datenschutz, Urheberrecht, Desinformation. Und Hauptstreitpunkt innerhalb der EU, denn man merkt jetzt: der Anwendungsansatz des AI Act funktioniert hier nicht, weil viele Praxisszenarien von ChatGPT, Midjourney &CO uns noch gar nicht bewusst sind.

Uns - dem Autor:innen-Team - war es aber auch wichtig darauf hinzuweisen dass das Thema über diese Tools hinausgeht: Recruiting, Gesichtserkennung, Kreditvergabe, Schulzuteilung, Arbeitslosengelder-Berechnung...bei vielen Anwendungsfeldern kommen KI-Anwendungen zum Einsatz "als Assistenz". Und der Einsatz wirft einige Fragen auf.

10
/
0
Advocatus Diaboli
·

Es gibt einen sehr, sehr gefährlichen Dreh, den alle AI betrifft: die Trainingsdaten sind zum Grösstenteil von ihren Urhebern nicht dafür freigegeben worden(Das Urheberrecht ist hier leider nicht gültig, da ja keine Kopien angelegt wurden, und so weit ich weiss, gibt es (noch) keine explizite Lizensierung für oder gegen die Nutzung als Trainingsdaten für AI).
Dies bedeutet:
Grosse, kapitalstarke Konzerne benutzen die massigen Daten, die im Internet "herumliegen" um ihre AIs zu trainieren, deren "Arbeit" sie dann verkaufen. Die eigentlichen Wertschöpfer gehen aber leer aus.
Dies ist bei den grafischen Künstlern ein grosses Thema und wird bald bei Journalisten und Autoren ankommen. Musiker sind natürlich auch betroffen und Universal versucht inzwischen gerichtlich, Streamingservices dazu zu bewegen AIs zu bannen.
Dies bedeutet im Endeffekt eine sehr grosse Umverteilung der Produktionsmittel von unten nach oben.
Leider ist unsere Politik nicht in der Lage, starke Schutzgesetze für Digitale Kulturgüter zu verfassen(Napster feiert nächstes Jahr 25. Geburtstag!), obwohl das von vielen Experten seit Jahrzehnten gefordert wird (vgl. u.a. Lawrence Lessig Free Culture, 2004).
Nun ist es sprichwörtlich zu spät: die AIs werde sich allen digitalen Content einverleiben und ihn endlos remixen, resamplen und "neues" daraus generieren.
Reiche Konzerne wie Universal können dagegen vorgehen, aber die eigentlich Kreativen werden untergehen.

9
/
1

Vielen Dank für den interessanten Artikel. Ich habe noch einen kleinen Hinweis zu "Ich will es genauer wissen": Der Europarat hat seit dem Ausschluss resp. Austritt Russlands nur noch 46 Mitgliedstaaten.

6
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·

Arrrg, danke! (und dummer Fehler, weil vermeidbar)

3
/
0

Liebe Co-Autoren. Danke für den spannenden Artikel. Man kann und soll über viele Aussagen diskutieren. Ich beschränke mich hier mal auf zwei Fakten, die vielleicht helfen, gewisse Aussagen im Artikel etwas in den Kontext zu stellen:

  1. Zum Thema „innovationsfreundliche“ Regulierung: Das Mandat des Europaratskomitees für die Verhandlungen über ein KI Abkommen hat zwei Elemente: 1. es soll auf den ER Standards zu Menschenrechten, Demokratie und Rechtstaatlichkeit basieren. 2. es soll „conducive to innovation“ sein. Das wurde 2021 von den - damals noch 47 ER Mitgliedstaaten so beschlossen. (kann man auf der Webseite des Comittee on Artificial Intelligence nachlesen).

  2. Zur Plateforme Tripartite: diese wurde von BAKOM 2003 als Multistakeholder Dialogplattform geschaffen und die Teilnahme steht seitdem jeder interessierten Person in der Schweiz offen. In der Regel nehmen mehr Personen aus Verwaltung, Zivilgesellschaft und Akademie an den Austauschmeeting teil als von der Privatwirtschaft. Auch das kommende Swiss IGF vom 13.6., an welchem KI, Daten- und Plattformthemen im Zentrum stehen, steht allen interessierten Personen offen - auch die Themen und Sessions werden nicht top-down sondern bottom-up von den Teilnehmenden selbst organisiert. Alle Interessierten sind herzlich eingeladen, mitzudiskutieren. ;-)

6
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·
· editiert

Lieber Herr S. Es freut uns dass der Vorsitzendes des KI-Komitees des Europarats höchstpersönlich im Republik-Dialog mitdiskutiert. :-)

Zu Punkt 1: Absolut, nur scheint uns die Schweiz gemäss den uns vorliegenden Edits/Kommentaren und Hintergrundgesprächen mit Beobachter-NGOS sich besonders mit viel Verve für Innovation und "Regulierung nur wo nötig" einzusetzen im Ländervergleich.

Zu Punkt 2: Genau, das schreiben wir ja hier: Mit der Plattform «Tripartite Suisse» schaffte das Bakom ein Forum für Unternehmen und weitere interessierte Akteure, die sich für Internet­regulierungen interessieren und sich dazu mit dem Bund austauschen wollen.

6
/
0

kleine Replik zu 2.: die PT wurde vom BAKOM als Dialogforum für „alle inTeressierten Personen/Akteure“ geschaffen. man bemerke den feinen Unterschied. Wir stellen alle Satakeholders auf die gleiche Ebene. Die Hervorhebung von „Unternehmen“ gegenüber den anderen Personen/Akteuren stammt von Ihnen - passt wohl besser ins Narrativ des Artikels ;-)

3
/
3
Grossvater "Oekoterrorist"
·

Grundsatzprobleme der Digitalisierung werden von den ahnungslosen Tunnelblick-Spezialisten des Silicon Valley (politisch korrekt für "Fachidioten") nicht erkannt. "Innovation" ist eine leere Floskel und heisst ja nur dass etwas neu ist, auch wenn die Menschheit daran zu Grunde geht (Klima). Geist-Materie- oder Mensch-Maschine-problem? Nie gehört! .....Wachstumsfalle? Keine Ahnung! .....Menschenrechte? profitschädigend!.....Regulierung? auch profitschädigend!....... Technikfolgeabschätzung? unnötig, Technik ist immer gut!....... real und virtuell? dasselbe! etc....etc...
Zur Sprachverwirrung bei KI: mathematische Modelle sind keine neuronalen Netze. Es gibt 20 verschiedene Modelle, die alle etwas anderes "lernen", das heisst, bei gleichem Input andere Outputs haben. Simulation genügt nicht, es muss dupliziert werden, um reale Ergebnisse zu erhalten. Neuronen bestehen aus lebenden Zellen und Gehirne (Lebewesen) lernen durch Sinneswahrnehmung und Erfahrung. Für schwarmdumme Fachidioten: programmiert doch mal die erste Liebe oder einen Sprung vom 10 Meter Brett in 14 Grad kaltes Wasser.

9
/
5
Chance für ein Umdenken?!
·

Danke für diesen köstlichen Beitrag, dem ich voll zustimmen kann!
'Innovation' ist auch m. E. so ein Totschlag-Wort, mit dem ziemlich euphemistisch nur das Positive gehyped wird. Alles andere, insbesondere deren problematischen Folgen, wird in neo-konservativer / neo-kapitalistischer Art unter den Teppich gekehrt, weil: Ja! Profit, Gewinn, Boni, Prestige, viel, viel wichtiger sind, als nachhaltiges, dem Menschen dienendes Wirtschaften.

Àpropos 'Technik': Das Wort kommt ja vom Griechischen 'Kind'. Und genau so sollte es doch bleiben, oder? Mit AI wird die Technik meiner bescheidenen Meinung nach eher zum 'Boss' ...

2
/
0
Grossvater "Oekoterrorist"
·

Danke für die Zustimmung. Und Sie haben völlig recht. "Boss" ist aber nur möglich, weil zu viele Menschen das (Nach)-Denken an die IT-Spezialisten delegieren. Die "wissen" von ganz wenig alles, aber von Zusammenhängen und Folgen der Technik oft nichts. Der Normalbürger könnte doch dank IT (Google&Co.) alles "wissen" und selbst denken. Leider ist da dieses "könnte". 80 Mio. Amerikaner (von 330) sind 4Std. online täglich und "wissen" trotzdem (oder gerade deswegen) absolut sicher, dass die Erde 6000 Jahre alt und Trump von Gott gesandt ist! Hier wird Intelligenz von Glauben und Emotionen übersteuert und es ist zu befürchten, dass das "menschlich" ist und auch für ChatBots gilt.

4
/
0
· editiert

Liebe Frau Fichter, Lieber Herr Oertli,
vielen Dank für den Artikel und die Übersicht der Schweizer Positionen.
Der Artikel hinterlässt bei mir den Eindruck, dass die Schweiz Rechte von Bürgerïnnen opfert um Unternehmen zu helfen. Ich bin nicht sicher, ob das wirklich die Intention ist, aber um die Ziele der Schweiz richtig verstehen zu können, bleiben bei mir Fragen zu einigen Details offen, v.a. wenn es um Kritik an der "wirtschaftsfreundlichen Position" geht (vielleicht habe ich es auch übersehen).

Besonders brisant: Die Schweiz setzt sich dafür sein, dass Bürger nur «wo angemessen» ein Widerspruchs­recht gegenüber Entscheidungen einer KI-Technologie haben sollen.

Welche Kriterien für "angemessen" werden denn da genannt? Denn je nachdem kann das auch eine sinnvolle Einschränkung sein, oder? Ein für mich einleuchtendes Beispiel war in der Vergangenheit z.B. wenn eine KI in einer Tabelle "nachschaut" wie viel Buße es für X km/h Geschwindigkeitsüberschreitung gibt und entsprechende Bescheide automatisiert erstellt werden. In diesem Fall ist das eine automatisierte "Entscheidung einer KI-Technologie", aber ohne Entscheidungsspielraum. Da würde ein "Recht auf menschliche Entscheidung" eher kontraproduktiv sein (Einspruch wegen Fehler etc. sind ja was anderes). Oder, wenn ein Algorithmus ausrechnet das in Strasse A ab jetzt Dienstags und nicht Montags der Müll abgeholt wird, weil das insgesamt die Wege der Müllabfuhr reduziert, dann kann das auch eine automatisierte Entscheidung sein, aber eine deren Auswirkung auf einen Menschen vernachlässigbar ist, würde ich sagen. Entsprechend fände ich es auch bei solchen "irrelevanten" Entscheidungen übertrieben ein Widerspruchsrecht zu fordern.
(Beide Kriterien würden aber bei dem genannten Beispiel der Kreditwürdigkeit nicht greifen)

Konnten Sie herausfinden wie die Schweiz sich da positioniert? Ich habe versucht den verlinkten Quellen zu folgen und bin leider nicht fündig geworden. Denn abhängig von von den Details erscheint mir die "wirtschaftsfreundliche" Position ja auch von meinem (naïven) Bürgerstandpunkt recht sinnvoll.

(Unabhängig davon finde ich es super, dass solche Themen in der Republik diskutiert werden. Spannend fände ich in dem Kontext auch noch eine Analyse zu alternativen des im Artikel genannten Ansatzes "Also nicht die Technik selbst soll reguliert werden, sondern deren Folgen", denn ich kann mir schwer vorstellen wie man ausgerechnet bei KI Technik Anwendungsunabhängig regulieren will).

4
/
0
Molekularbiologe PhD, Unternehmer
·

Vielen Dank, Frau Fichter und Herr Oertli. Das ist der Journalismus, den es zu erhalten gibt, wenn die Republik trotz aller Querelen hoffentlich trotzdem einen nachhaltigen Weg in die Zukunft findet. Akribisch recherchiert, mit einem breit gewobenen Teppich an Hintergrundswissen, das, wie auch in früheren Artikeln, eine nachhaltige Horizonterweiterung über blosse Aktualität hinaus bietet.

4
/
0
Adrienne Fichter
Tech-Reporterin @ Republik
·

Herzlichen Dank, Herr M.!

0
/
0

Vielen Dank für den Artikel. Bedenkend wie wenig Greifbares zum Thema vorhanden ist, ist eine enorme gesetzgeberische Geschäftigkeit sichtbar. Dabei ist das Thema schon älter. Meine Nachdiplomarbeit zum Thema Neuronale Netze datiert 30 Jahre zurück. Schon damals wurde ich beim Anmelden eines neuen Autos bei einer Versicherung damit vertraut gemacht, dass meine Wahl einer weissen Farbe viel Geld sparen täte. Weil eben weisse Autos gegenüber zB Roten viel weniger Unfälle machten. Ebenso Mercedes gegenueber BMW. Damals hiess der Vorgang noch Statistik auswerten. Mittlerweile heisst dasselbe Big Data. Irgendwann zeigte die Statistik, dass männlich, mitte 20, hubraumstarkes Auto, Balkanabstammung, ein stark erhöhtes Unfallrisiko zeigte. Was sich dann auch in den Prämien niederschlug. Das führte zu einem Aufschrei. Vorverurteilung. Das Ganze ist technisch relativ banal. Man lässt Software Muster in Daten erkennen, und die Software antwortet mit einem (Zuordnungs-/Daten-)Muster. Während früher noch eine Statistik zu etwas, zB der Farbe, erstellt wurde, muss man heute nichts mehr vorgeben, "erkenne Muster" und mit hinreichend Rechenleistung werden Muster erkannt. Implizit, dh nicht benannt, ist dann eine Sortierung nach Schadenwahrscheinlichkeit und Kosten. Eigentlich wäre das dann der Algorithmus, auch wenn er so nicht beschrieben wird, beschrieben werden kann. Muster aus den Daten erkennen und darauf trainieren. Mit denselben Daten wird eine trainierte Software auch zum selben, oder ähnlichen Muster kommen. Nur sind die Daten eben hier nicht publiziert. Die erhobenen Daten, auf welcher das Lernen der Software aufsetzt sind auch das Kapital der Firma/Behörde, da liegen die Kosten.
Bisher nichts Neues. Desgleichen mit der Angst mit 100er-lei Variationen von Falschinformation berieselt zu werden. Auch das haben wir schon seit - gefühlt immer - das machen die politischen Parteien. Frappant jeweils in der SRF Sendung "die Arena", individuelle Variation von Falschinformation desselben Themas.
Eigentlich ist es egal ob wir von und mit dieser neu aufgehypten Technologie lernen und profitieren wollen. Falls es irgendwann in einem anderen Kontext einen Nutzen zeigt, können wir sie dann ja teuer von extern zukaufen.
Dranbleiben.

3
/
1

Bin heute auf einen spannenden Beitrag zur Thematik aufmerksam geworden:
Bringen Fakes mehr Wahrheit?
https://www.ardaudiothek.de/episode…/12615949/

0
/
0

Wahrscheinlich ist es illusorisch, den Missbrauch von KI auch nur ansatzweise zu verhindern. Aber eine gute Sache ist diese Petition (die aus Deutschland kommt und angeblich international besser "läuft" als daheim) ja vielleicht trotzdem. Was meinen die Experten? https://www.change.org/p/artificial…_en-US%3A8

0
/
0
(durch User zurückgezogen)
(durch User zurückgezogen)