Wir sind die Republik – ein neues Modell im Schweizer Journalismus. Unser digitales Magazin ist unabhängig: keine Werbung, keine Klick-Wirtschaft, keine Kompromisse in der Qualität. Wollen Sie unabhängigen Journalismus unterstützen, freuen wir uns, Sie an Bord zu sehen.

Debatte

Wie behalten wir die Maschinen im Griff?

Diskutieren Sie mit Autorin Hanna Wick und IT-Spezialist Andreas Moor.

27.06.2018

Computer bestimmen unser Leben. Wir haben uns daran gewöhnt, dass ohne Smartphone nichts mehr läuft, dass Autos bald keine Fahrerin mehr benötigen, dass Drohnen Kriege führen und Roboter Seniorinnen betreuen. Wie ist es so weit gekommen, und wie sieht die Zukunft aus? Hanna Wick und Thomas Preusse sind in ihrer dreiteiligen Serie «Talk to the Machine» in die Tiefe gegangen, sie erzählen von den Anfängen des binären Codes bis zum aktuellen Stand in Sachen Artificial Intelligence (AI), sie zeigen, wie man programmiert, und sie hinterfragen Entwicklungen und Visionen.

Sind wir zu sehr von Maschinen abhängig? Oder nehmen sie uns genau die Arbeiten ab, die uns nur lästig sind und die sie sowieso besser können? Haben Sie Angst davor, dass Maschinen einmal besser funktionieren als das menschliche Gehirn? Und warum muss ich eigentlich selbst programmieren können?

Lesen Sie «Weltweite Webkunst», «Blick in die Blackbox» und «Programmier dich doch selbst!», und diskutieren Sie heute Mittwoch von 8 bis 11 Uhr intensiv mit Autorin Hanna Wick und IT-Spezialist Andreas Moor, danach sind die zwei in unregelmässigen Abständen in der Debatte dabei.

Wir freuen uns auf Ihre Beiträge!

Ihr Urteil?

Ihr Urteil lautet natürlich: Sie sind zur Freiheit verurteilt – lebenslänglich. Und zwar von Jean-Paul Sartre, der Konsumgüterindustrie, der liberalen Revolution von 1848, dem Feminismus, dem Historienfilm «Braveheart», Pippi Langstrumpf, der Verfassung, dem Zufall. Und von uns. Es wäre schön, wenn Sie sich die Freiheit nehmen würden, bei unserem Magazin an Bord zu kommen.


Noch nicht überzeugt? Jetzt probelesen
neu laden

Vielen Dank für diese engagierte Serie. Aber:
Eure sehr kurze Geschichte des Computers suggeriert eine Kontinuität von der Lochkarte bis zum heutigen Quantencomputer und weit darüber hinaus. Das ist – im Licht der heutigen Geschichtsschreibung und ihrer Methodologie – nicht nur zu einfach gedacht, sondern – schlicht falsch.
Geschichte gleicht in mancherlei Hinsicht der Evolution. In der Lochkarte ist der spätere Computer so wenig vorgebildet, wie der Mensch im Affen. Geschichte ist nicht Kumulation, sondern steter Wandel. Möglichkeiten werden realisiert, während andere nicht weiterverfolgt werden – oder erst spät neuerliche Relevanz erhalten. Angefangene Projekte werden plötzlich aufgegeben. Ideen von einem Kontext führen zu ungeahnten Konsequenzen in gänzlich anderen Feldern. Oder sie werden vergessen, werden überholt und wandeln sich. Gleichzeitig ist die Geschichte auch ein riesen grosser Friedhof ehemaliger Gedanken, Technologien und Praktiken. Welche Idee, welche Gedanken und welche Technologie sich am Ende durchsetzt, hängt von Zufall und Macht ab. Dass wir heute digitale, auf einem binären System funktionierende Computer haben, ist kein Sachzwang, das aus dem Ding namens Computer herrührt, sondern historische Kontingenz. Und erst dadurch dass wir heute binäre Computer haben, kann die Lochkarte als Urururgrossonkel des Computers erscheinen.
So besehen ist die Lochkarte nur eine Herkunft – und nicht der Ursprung – des heutigen Computers. Mindestens ebenso bedeutend für die Entwicklung des heutigen Computers ist die amerikanische Gegenkultur der 60er und 70er-Jahre. Dort entstand jene Ideologie, die das Fundament des Silicon Valleys bildet.
P.S.: Und wenn IBM als historisches Beispiel herhalten muss, bitte auch die dunklen Seiten im Auge behalten. Das Buch von Edwin Black «IBM and the Holocaust» sei mehr als empfohlen.

9

Und vielen Dank für diesen Artikel, der endlich einmal ein bisschen Klarheit schafft.

0

Mir macht die künstliche Intelligenz keine Angst, weil es diese nie geben wird. Angst macht mir, was diesbezüglich kommuniziert wird, nämlich dass sie existiert und was konsumiert wird. Wie zum Beispiel Alexa! Wirklich erschreckend! Das wird konsumiert und die die es konsumieren, wissen nicht was sie konsumieren. Früher wurden Geschichten zwischen zwei Buchdeckeln versorgt und jeder wusste, dass das Geschichten sind. Heute wird einfach jeder Ansatz von Fantasie als Wahrheit und Realität verkauft und jeder/jede glaubt es. Aus Faulheit. Aus Überforderung vielleicht oder auch einfach um dazu zu gehören. Das halte ich für brandgefährlich.

0

Die Kunst vom Programmieren ist in erster Instanz alle möglichen Fälle abzudecken. Warum ist jedes Programm fehlerhaft? Weil es in komplizierten Fällen kaum zu gewährleisten ist, dass wir alle z.T. seltene Ausnahmefälle erwischen. Üblicherweise schaffen wir es nur durch trial and error diese Rate auf bis zu 99% zu erhöhen . Die Luftfahrt wurde immer sicherer, weil man die Unfälle analysiert und Systeme, Kontruktion und Prozesse über Jahre optimiert hat. Wenn Software immer kompliziertere und lebenswichtigere Aufgaben übernehmen soll, werden die nicht abgedeckte Fälle zwangsweise zunehmen. Ich sehe (leider) nicht ein, wie Software diese kreative Aufgabe (Abläufe kreieren und Ausnahmehandling zwischen komplexe Systeme festlegen) ohne menschliche Hilfe übernehmen kann. Sogar wenn ich mich da irren würde, würden wir die Kontrolle über solch leistungsfähige (intelligente) Software verlieren. Das könnte besonders in grossen Städten zu dazu führen, dass wir im schlimmsten Fall die primären Bedürfnisse nicht mehr garantieren könnten.

3

Ich persönlich denke dass "KI" ev. aus einer ganz anderen Ecke kommen wird: https://www.sciencedaily.com/releas…090246.htm

1

Zu "Programmier dich doch selbst"
... aber was und für wen?
Die Herausforderung der Softwareentwicklung - und der Haupgrund warum Softwareprojekte mit 70%+ Wahrscheinlichkeit nicht wie geplant fertig gestellt werden - liegt ja nicht bei der Programmierung, sondern u.a. in der Schwierigkeit a) die diesbezüglichen Anforderungen zu definieren und b) die Software in bestehende Prozess zu integrieren. Wir sollten auch nicht vergessen, dass Software nicht komplexer werden sollte, als Benutzer mit vernünftigem Aufwand auf deren Verwendung geschult werden können. Was nützt uns Software die wir nicht mehr verstehen und damit auch nicht mehr testen können? Kann sie jemals Verantwortung übernehmen?
Guter Software kann man zutrauen, dass sie repetitive Arbeiten schneller und mit einer tieferen Fehlerquote verrichtet als Menschen. Das ist ihr Vorteil.
Wenn wir aber Software haben, bei der wir Qualität nicht mehr messen können und jederzeit damit rechnen müssen, dass sie sich völlig unvorhersehbar verhält, dann wird es für sie zwar isolierte Nischen geben, aber wohl keinen Platz in einer mit Allem verknüpften, immer interaktiveren Welt.
Aus meiner Sicht: Ja, es macht Sinn sich Gedanken in diese Richtung zu machen. Und vielleicht lernen wir ja wieder Neues auf dem Weg dahin. Maschinelle CodeOptimierung und Code-Generierung sind cool und nützlich, aber nichts Neues. Und darüber hinaus? Für mich vorerst mal ein Ding für's Labor. Schön wenn man noch ForschungsGelder dafür hat.

2

Zitat:
"Computer bestimmen unser Leben. Wir haben uns daran gewöhnt, dass ohne Smartphone nichts mehr läuft"
Also bei mir ist das nicht so. Meine kreativsten und produktivsten Momente habe ich ohne Computer und Smartphone. Bei mir läuft alles Bestens ohne Strom. Umgekehrt läuft's meist nicht mehr so toll. Man muss sich nur mal meine Posts reinziehen und dann wird jede(r) merken, dass es mir ohne Compi wohl bedeutend besser ginge ;-)

2

Grüezi mitenand

Lernende Computer: Einige Gedanken zu ‚Lernen‘ zwischen Morgenkaffee mit Republik, Dusche, Arbeitsweg mit Roller und Arbeit. Ich teile sie im Sinne einer CAPTCHA-mässigen Auswahl. Den Rest kann ich nicht teilen, da ich ihn vergessen habe.

  1. Vergessen.

  2. Wie ist der Prozess des Erlernens von Lernen zu verstehen. Lernen? Ein Prozess? Oder ein Lenrprozess?

  3. Daraus:

  • Spiegelneuronen

  • Prozess: Lat. procedere

  1. cedo, cedis, cedit, ... Konjugieren zeigt alte Form, mehr als Aktiv-Passiv.

  2. Daraus:

  • Entwicklungsgeschichte der Sprachen resp. deren Grammatik (Latein, Griechisch, Sanskrit -> Indogermanisch).

  • Grammatik als Raster (formale Reduktion) für Gedanken und Gefühle.

  1. N. Luhmann: Psychische Systeme (Gedanken) und Soziale System (Kommunikation)

Natürlich stellt sich die Frage ob so ein Beitrag (Inhalt und Form) in einer Debatte überhaupt anschlussfähig ist.
Und nun muss ich an meine (IT-) Arbeit

Herzliche Grüsse, K.A.

1

Mir scheint dass im Artikel zu wenig klar hervorgehoben wurde, dass "neuronale Netze" EIN "programmiertechnischer" Ansatz unter vielen ist, um KI-System zu realisieren, resp. scheint mir, dass "neuronales Netz" und "KI" im Artikel fälschlicherweise als Synonyme verwendet wurden.
Ausserdem sind "neuronale Netze" gut dokumentierte und in der Anlage verstandene Gebilde, was man von "KI" noch lange nicht behaupten kann, resp. ev. wohl auch nie können wird, wenn wir nicht mal in der Lage sind, unsere eigene Intelligenz nur an Hand von Beispielen, aber nicht als "Wesen an und für sich" zu erklären.
In der Praxis haben "neuronale Netze" ihre beschränkten Nischen, wo sie gut und immer besser funktionieren werden.
Von "KI" , insbesondere was das Intuitive und Kreative betrifft, erwarte ich weit mehr. Ausserdem wird sie anders "wachsen" als wir uns das im Moment noch denken und nicht einfach "funktionieren". Wenn wir KI nur auf neuronale Netze reduzieren, schiessen wir ihr vermutlich ins Bein. Aber vielleicht ist das auch keine schlechte Idee ;-)

1

Nun ja, was heisst im Griff? Schau ich mich so um, komme ich unweigerlich zum Schluss, dass die "Maschine Smartphone" die Menschen längst im Griff hat. Die Frage zukünftig ist also für Ottilie NormalverbraucherIn: Wieviel Abhängigkeit tolerieren wir noch. Spitz gesagt: "Das Volk" wird immer abhängiger (blöder?) und die Cracks, Konzerne und ProgrammiererInnen immer mächtiger?

6

Weniger Diskussionsbeitrag und mehr eine Rückmeldung zur Serie: Mehr davon! Thema und Gestaltung der Artikel haben mir enorm gut gefallen.

22

Vermutlich kann eine Maschine nur dann intelligent werden, wenn sie vergessen und sich ihre eigene Realität täglich neu schaffen kann, basierend auf einem zufälligen Konglomerat von Sensordaten, "neuronalen Erfahrungswerten“, Zielvorgaben, Irrtümern, Fehlern und Feedbacks etc. - also so etwas ähnliches wie ein Mensch. Würde man so einer Maschine die Welt anvertrauen wollen? Andererseits, viel schlimmer als derzeit könnte es wohl nicht werden. Der einzige Unterschied bestünde darin, dass Menschen (noch) sterben und mit ihnen ihre Macht und Verrücktheiten. Neurotische Maschinen würden wohl immer weitermachen und nur sehr schwer abschaltbar werden...

3

Hallo in die Runde! Wir freuen uns auf Ihre Inputs, Kritikpunkte, Fragen, Manifeste, Denkanstösse. Ich bin übrigens nicht der Meinung, dass jeder selbst programmieren können muss. Sie?

2

Ich gehöre zu der Spezies der „Mitgerätenredenden“. Ich habe gerade die Lektüre einer leichtfüssigen Dystopie hinter mir: Yuval Hararis Homo Deus. Das Einzige, was uns künftig noch von Maschinen unterscheiden werde, sei das Bewusstsein. Aber angesichts der immer ausgefeilteren selbstlernenden Technologie hege ich selbst daran meine Zweifel. Der Zweifel allerdings könnte das eine sein, was unser Hirn als echtes Proprium vorweisen kann. Darum: Immer schön (da-)hinterfragen. Danke für diesen schönen Beitrag. Nach Harari geradezu wohltuend: der Bezug zu Jacquard und das kleine Programmierspiel; es vermittelt einem etwas von Selbstwirksamkeit.

5

Der Artikel ist äußerst interessant und gut gemacht. Teil 1 und 2 sollte Pflichtlektüre sein für alle die Nullahnung von Computern haben und trotzdem ihr ganzes Sein von ihm abhängig machen. Und das sind viele!

1


seit 2018