Die Republik ist nur so stark wie ihre Community. Werden Sie ein Teil davon und lassen Sie uns miteinander reden. Kommen Sie jetzt an Bord!

DatenschutzFAQErste-Hilfe-Team: kontakt@republik.ch.



Ich erlaube mir, als Nächst-betroffene auf den Artikel zu reagieren. Mein Beruf ist Konferenzdolmetscherin ( «Sie werden auch bald ersetzt» habe ich schon ein paar Mal an Konferenzen gehört), und rasches Verstehen ist quasi mein Werkzeug. Das schriftliche Übersetzen von Texten mit Maschinen hat riesige Fortschritte gemacht; allerdings ist ohne Redigieren die Gefahr (immer noch?) gross, dass grober Unfug oder einfach Vorurteile verbreitet oder verstärkt werden (Beispiel: « secrétaire » eines Vereins wird bei männlichem Amtsinhaber mit «Geschäftsführer» übersetzt, bei einer Frau mit «Sekretärin». Zweites Beispiel: «ein engagierter Parlamentarier» wird zum « parlementaire engagé »; die «engagierte Parlamentarierin» zu « parlementaire dévouée »).

Was mich aber wirklich getriggert hat in dem Artikel, ist die Idee, auch UNSER Verstehen, sogar von Sprache, könnte womöglich eine Vorhersage von Wort zu Wort sein. Wäre dies die Wirklichkeit, so könnten meine Berufskolleginnen, -kollegen und ich vermutlich gar nicht dolmetschen. Mindestens bis ans Ende eines Satzes nehmen wir vorweg, was kommt (und verärgern auch im Alltag oft unser Umfeld, das seine Gedanken zusammenklaubt, um uns etwas mitzuteilen – und wir fallen den armen Personen ins Wort, schneiden es ihnen ab und beenden den Satz an ihrer Stelle. Fragen Sie unsere Kinder).

Bei automatischen schriftlichen Übersetzungen fällt oft auf, dass sie von Abschnitt zu Abschnitt komplett ihre Terminologie ändern. Hatten sie im ersten Abschnitt eine Kirche « l’église Peterskirche» genannt, so wird daraus im nächsten Abschnitt « l’église Saint Pierre », dann « la Peterskirche » usw. Das sind Indizien, anhand derer man schnell erkennt, ob ein Text maschinell übersetzt wurde bzw. nicht redigiert.

Dass beim Verstehen der Körper hilft, zeigt sich beim Dolmetschen z.B. daran, dass wir die Redenden sehen müssen und nicht nur hören, um wirklich gut und ohne übermässige Anstrengung dolmetschen zu können. Die Sprachmelodie, die Körperhaltung sind ein Teil des Inhalts. Auch wirkt es störend, wenn ein per Bildschirm sichtbarer Redner (seltener eine Rednerin) seine Lippen zeitversetzt zu dem bewegt, was wir hören.

Dann braucht es gewiss so etwas wie das sog. Weltwissen, das erwähnt wurde, aber auch ein Verständnis davon, was ein Text ist (vgl. oben, von Abschnitt zu Abschnitt), was eine Sprechsituation (wer spricht zu wem, aus welchem Grund, mit welcher Absicht; wer hat die Macht; was ist lustig und für wen…) usw.

Kurz, es bleibt spannend, gerade auch in unserem Beruf. Ich hoffe, dass auch meine jungen Kolleginnen und Kollegen noch lange darin glücklich bleiben werden.

69
/
0
christian balke, der Fliegendruck
erst, einzig und letzter Fliegendruck
·

grossartig, DANKE für diesen Bericht aus der Werkstatt, der Schmiede.

14
/
1

Vielen Dank! Auch die Übersetzungsdienste der Bundesverwaltung haben einmal KI-Sprachmodelle getestet und sind zum selben Ergebnis gekommen: Diese von KI erstellten Texte sind ohne nachfolgende Redaktion von schwacher Qualität - gerade dort, wo mehrere Deutungen des Ausgangstextes möglich sind.

6
/
0

Falls sie das Buch noch nicht kennen: Gadamer, "Wahrheit und Methode" unterstützt sie voll. Techniker tendieren zu schnell dazu, ein Modell als Realität zu verkaufen. Leider auch eine Konsequenz der aktuellen Wissenschaftsförderung.

1
/
1

Rein intuitiv sagt mir mein vor Fehlern nicht gefeites menschliches Gehirn, dass die Nutzung von KI nicht anders ablaufen wird als jeder bisherige Gebrauch von Automatisierung. Maschinen und Computer haben menschliche Aufgaben schneller und effizienter übernommen, Profite wurden maximiert, Macht etabliert.
Ich weiss noch, als die Computer aufkamen sprachen wir darüber, ob wir das gut fänden oder nicht, tatsächlich so als hätten wir eine Wahl gehabt, ob und wie wir mit ihnen leben wollten. Natürlich dachten wir auch: toll, wenn die Computer alle Arbeit machen werden, werden wir viel mehr freie Zeit und dennoch Geld haben. Heute muss ich darüber lachen, das Gegenteil war der Fall.
Als die Kassiererinnen im Supermarkt von Automaten ersetzt wurden, dachte ich: wo geht das durch Personalkosten eingesparte Geld hin? Zur Kundschaft, die die Arbeit nun selbst macht, ist es nicht zurückgeflossen, und schon garnicht zu den KassiererInnen, die nun keinen Job mehr haben. Dito mit Post/ Bank und etlichen anderen Arbeiten, die wir dank der Digitalisierung nun selber machen dürfen. Zugegeben etwas simple Beispiele in Anbetracht der Komplexität des Themas.
Aber geht es nicht auch heute bloss um die Automatisierung von Prozessen mit der selben Absicht wie man früher Maschienen baute? Nur dass es heute eben Denkleistungen und Entscheidungsprozesse sind, die automatisiert werden sollen. So unvermeidlich und faszinierend das ist, so überraschend Erkenntnisse villeicht sein werden, und so gut die Absichten dahinter Probleme zu lösen, so wird es die Tatsache nicht ändern, dass wir die neuesten Errungenschaften stets zum Vorteil der Einen, zum Nachteil der Andern - für das Beste oder Schlimmste, werden nutzen können. Solange wir nicht fähig sind solche essentiellen Entscheidungen zum Wohle aller zu fällen, wird uns wohl auch keine KI dazu befähigen. Zumindest was diese Lösung anbetrifft, also viel Rauch um nichts.

30
/
0

Ich habe mir die Zeit genommen und nachgeschaut, ob in der Schweiz Produktivität und Lohnniveau tatsächlich auseinander gehen (in der USA tun sie das nämlich dramatisch).
Hier die Schweizer Produktivität (+40% gegenüber 1990) und hier das Lohnniveau (etwa +35% gegenüber 1993).
So scheint in der Schweiz das Problem glücklicherweise weniger gross zu sein, dass Produktivitätssteigerung nur den Kapitaleignern zu Gute kommt.

Ich hoffe ich habe beim Vergleichen der Statistik keine Fehler gemacht.

3
/
2
Simon Reber
Software Entwickler, Familienvater
·

Das ist tatsächlich zu einfach. Für die 35% mehr Lohn, kann ich 2023 kaum 35% mehr kaufen. Denken wir nur an die Mieten und Krankenkassen, welche sinnigerweise nicht zur Teuerung gezählt werden, obwohl sie für geringverdiende oft mehr als die Hälfte des Einkommens verschlingen, welche enorm viel mehr vom Lohn wegfressen als 1993.
Der zweite Fehler ist, dass die sehr hohen Löhne viel, viel stärker als 35% gewachsen sind und mit ihrer schieren betragsmässigen Masse den Durchschnitt, aber auch den Median massiv verfälschen.
Für die Leute, welche 1993 knapp bei Kasse waren, hat sich die Situation eindeutig verschlechtert, während die parasitären Erben grosser Vermögen jedes Jahr fast 10% reicher werden. Ohne einen Finger krumm zu machen, wohlgemerkt.

18
/
0

Sehe ich das richtig, dass Sie mit den 35% nur die Nominallohnentwicklung angegeben haben? Falls ja: Die Reallohnentwicklung wäre das relevantere Mass.

1
/
0

Vielleicht eine Frage, die nur mit natürlicher Dummheit gestellt werden kann: Warum verbringen hochintelligente Menschen ihre ganze Zeit damit, künstliche Intelligenz zu erschaffen.
So faszinierend das sein mag, so frage ich mich doch, ob es nicht sinnvoller wäre, diese intelligenten Menschen würden direkt nach Problemlösungen suchen, statt nach einen KI, die das vielleicht, irgendwann in Zukunft, ähnlich gut kann?
Und wie viel natürliche Intelligenz könnte gefördert werden, wenn diese ganzen Ressourcen in Bildung (weltweit) gesteckt würden?

39
/
9

Weil wir an eine Grenze gestossen sind was mit direktem Problemlösen möglich ist. Es ist quasi unmöglich Objekte in einem Bild zu erkennen ohne maschinelles Lernen. Oder menschliche Sprache zu verstehen und so weiter.

Man kann natürlich schon sagen die ganze Forschung ist Müll und wir würden besser was anderes tun, aber da muss man meiner Meinung erstmal kritisieren was ganz viele andere Informatiker machen, die optimieren nämlich bei Google welche Werbeanzeigen geschaltet werden sollen. Das ist gesamtgesellschaftlich betrachtet klar Unsinn, im Gegensatz zu KI Forschung.

12
/
0

Und trotzdem hat das Werbungschalten erstaunlich viel mit "Verstehen von menschlichem Verhalten" (aber nicht unbedingt Verstand) zu tun. Schliesslich will man ja seine Kunden Benutzer Opfer dazu bringen mehr von einer Sache zu konsumieren und sich von seinem Geld zu trennen.

6
/
0

Das ist überhaupt keine dumme Frage! Sondern sie drückt GENAU DIE ESSENZ der menschlichen Intelligenz aus, die keine Maschine je erreichen wird, weil sie gefühllos ist.

14
/
3

Wobei wir Menschen ja auch Gefühle haben, die uns manchmal im Weg stehen ... ich denke da zum Beispiel an den Egoismus, dem wir die Klimaerwärmung zu verdanken haben ...

4
/
0

Provokante Frage: Inwiefern decken sich die Erwartungen an und die Wahrnehmung von maschineller Intelligenz mit den Erwartungen an Sklaven? Sie sollen sich an den Bedürfnissen der Meister orientieren, also deren Gefühle verstehen, und deren Willen gehorchen selber aber kein Recht auf Gefühle oder Willen haben.

2
/
0

Ob die Menschen, die sich mit KI beschäftigen wirklich hochintelligent sind, wage ich zu bezweifeln. Zweifellos sind sie sehr gescheit und hervorragend ausgebildet. Zur Intelligenz gehören aber noch ganz andere Eigenschaften, welche zugegebenermassen akkumuliert selten sind: z.B. Intuition, Empathie, Erfahrung und vor allem eine breite Bildung die den Wissenshorizont nicht nur im eigenen Fachbereich streift.
Das mag überheblich klingen, aber wenn man sich in der Welt umblickt, kann man nur zu dem Schluss kommen. Wer kann nur schon auf die Idee kommen, Kriege anzuzeltteln, Menschen zu diskriminieren, zu glauben der Markt regle das gedeihliche Miteinader der Menschheit oder mit Sparen löse man Probleme. Das Lösen von Problemen mittels Algorithmen ist faszinierend; ich habe selbst lange auf diesem Gebiet geforscht und etliche zu wirtschaftzlichem Erfolg gebracht. Mir selbst haben sie stets nur gezeigt, was ich alles noch nicht weiss und was ich wahrscheinlich auch bei bestem Bemühen, nie können werde.

8
/
2
Simon Reber
Software Entwickler, Familienvater
·

Das sind Leute, die sich für diese Problematik interessieren. Ob die in der Lage wären, andere Probleme, z.B. die notorische Ineffizienz unserer mechanischen und elektronischer Helfer zu verbessern, oder als Ausbilder ihr Wissen an andere weiterzugeben, ist zumindest fraglich.
Erfahrungsgemäss, sind Menschen dann besonders gut, wenn sie das tun, was ihnen Spass macht.

4
/
0
· editiert

Der Mensch ist biologisch am Ende der Fahnenstange, was Intelligenz angeht. Besonders auch, weil wir davor zurückschrecken, die naturgegebenen Limite umgehen/verschieben zu wollen (genetische Veränderungen/Enhancement durch Pharma etc.) Da ist bei KI noch ganz viel Luft nach oben.
Neuste Papers stellen Konzepte vor, die soviel "Arbeitsgedächtnis" haben, wie der Mensch in seinem ganzen Leben an Text liest. Es ist eine Frage der Zeit, dass diese Systeme tatsächlich intelligenter werden, nicht eine mystische.
Der folgende Comic summiert das gut: https://www.thekurzweillibrary.com/…artoon.jpg (passt übrigens perfekt zum Lead des Artikels, könnte man 1:1 auf ein Plakat schreiben.)

5
/
6
Simon Reber
Software Entwickler, Familienvater
·

Der Mensch ist absolut nicht am Ende der Fahnenstange. Solange wir es uns leisten fast die Hälfte unseres Intellektuellen Potenzials für profane Hausarbeit zu verschwenden, nach wie vor sehr viele Kinder nicht zur Schule gehen können, weil ein paar Millionen Leute glauben ihr Geschäft nur in eine goldene Kloschüssel verrichten zu können und jeden Monat mindestens einmal rund um den Globus reisen zu müssen, solange hat der Mensch in der Masse noch fast unendlich viele Reserven.
Natürlich scheint es ein Vorteil zu sein, ein perfektes Gedächtnis zu haben, nie etwas zu vergessen und das Wissen sämtlicher Universitäten dieser Welt unmittelbar abrufbar zu haben.
Nur, auch Maschinen kommen rasch an ihre Grenzen, in dieser Fülle innert wenigen Millisekunden das richtige zu finden und dieses richtig anzuwenden. Als Programmierer kann ich davon ein Liedchen singen.
Es gibt einen Grund, warum der Mensch (und das Tier) vergessen kann. Die Evolution hatte Millionen von Jahren Zeit. Wenn sich ein perfektes Gedächtnis im Alltag vollkommen bewähren würde, wären Elefanten nicht vom Aussterben bedroht, während sich die Menschheit Gedanken zur Überbevölkerung machen muss.

3
/
0

Die heutige Chance liegt darin, die jetzt zur Verfügung stehenden Algorithmen und die jetzt zur Verfügung stehende Rechenkapazität so zu nutzen, dass sie (ganz romantisch) unsere Welt besser machen.

Schade dass der Text sich so sehr in Trivia ergeht (na klar hat der Student lange Haare..), obwohl die Kernbotschaft (wo sehen wir heute die Grenze der KI?) wirklich interessant ist.

6
/
8

Diese "Trivia" sind für uns Menschen eben gerade wichtig, weil sie im vorliegenden Fall eine körperliche Information liefern, die in unserem Hirn zahlreiche weitere Verbindungen aktiviert und Wege des Verstehens öffnet. Dank diesem Teilchen zapfen wir bewusst oder unbewusst weitere Informationen (und/oder Vorurteile) an, denken weiter, mit offenem Ausgang, fügen schrittweise ein Gesamtbild zusammen. Ich muss mir bildlich vorstellen können, was das für Menschen sind, ich brauche subjektive Wertungsmöglichkeiten. Bin eben keine Maschine (aber Übersetzerin, dazu gehört viel intuitives Wissen).

24
/
5
· editiert

Die Menschen funktionieren nicht alle gleich. Perfekt sind für mich die 9‘ Daniel Bindswangers. Die 24‘ sind unendlich lang, trotz hübsch dekoriert, und mühsam.

2
/
0

James Bridle, britischer Installationskünstler und Technologie-Autor (siehe Sternstunde Philosophie vom 26. März 2023) sagt: "Intelligent ist nur, was die Menschen friedlich zusammenleben lässt" und postuliert damit eine neue Definition von "Intelligenz". Auch die Unterscheidung von "natürlich" und "künstlich" stellt er infrage und verortet uns Menschen ganz in der Natur: Während Milliarden von Jahren hat unser Planet Bedingungen erschaffen, die, sozusagen in letzter Minute, auch die Existenz von menschenähnlichen Wesen ermöglichte. Spuren dieser Entwicklung finden sich in jeder unserer Körperzellen, die wiederum mit unserem Hirn verbunden sind und dessen Funktionsweise mitbestimmen. Bridle stellt die ausschlaggebende Frage: "Wie kann eine Zukunft gebaut werden, in der Bäume, Tiere, Pilze, Menschen und künstliche Intelligenzen friedlich zusammenleben?" Unserem Körper ist die Antwort eingeschrieben: Ohne Kooperation und Solidarität wäre menschliches Leben nie entstanden, und ohne diese wird es keine Zukunft haben. Dies der KI zu vermitteln, ist die Herkulesaufgabe der Forschenden.

6
/
1

Tatsächlich scheinen wir ja bereits mit dieser Frage Mühe zu haben: "Wie kann eine Zukunft gebaut werden, in der Bäume, Tiere, Pilze und Menschen friedlich zusammenleben?"

15
/
0

Ich habe mal zu einem anderen Artikel folgendes geschrieben, was ich hier gerne wiedergeben möchte:

"Wäre die KI nicht auf "Werte", wie das Streben nach Wirtschaftswachstum und Profit von uns Menschen programmiert worden, sondern auf Gerechtigkeit, Gleichheit und Nachhaltigkeit, würde sie uns und unsere Umwelt nicht vernichten, sondern uns bloss an unserem (selbst)zerstörerischen Handeln hindern. So sieht das zumindest James Bridle in seinem Buch: Die unfassbare Vielfalt des Seins."

Ich glaube nicht, dass die Herkulesaufgabe darin besteht, irgendwann eine KI dazu zu bringen nach den Grundsätzen der Kooperation und Solidarität zu handeln, sondern eher darin, Investoren (Staaten, Firmen) zu finden, die eine KI-Forschung/Entwicklung in diese Richtung finanzieren wollen.

6
/
0

Vielen herzlichen Dank für diesen Artikel! Ich bin so froh um eine sachliche, konkrete Berichterstattung über Forschung in Bezug auf “KI”, anstelle dem Zelebrieren von Apokalypse- und/oder Welterlösungsphantasien....

15
/
0

Das Ganze ist ist hoffnungslos, solange man glaubt, dass KI je dazu fähig sein sollte, einen Menschen zu ersetzen. Der Grund ist einfach: Menschen agieren nicht primär intelligent, das heisst nach stets nachvollziehbaren Kriterien, sondern primär nach Gefühlen. Wenn es also je gelingen sollte, den menschlichen Verstand zu entschlüsseln, so ist damit noch gar nichts gewonnen, denn dieser wird stets begleitet und meist übersteuert von Regungen wie Liebe, Mitleid, Wut, Eifersucht, usw. zu denen eine Maschine niemals fähig sein wird, da es sich um irrationale Entscheidungsmechanismen handelt.
ChatGPD kann über kurz oder lang jede auf rein visueller Analyse basierende Kunstbetrachtung perfekt formulieren, aber es wird nie das Gefühl ausdrücken können, das ein Mensch bei der gleichen Tätigkeit empfindet.

16
/
1

Auch Gefühle kommen nicht von nichts. Während sie uns manchmal im Wege stehen, gibt es ja sicher einen Grund warum wir und auch andere Spezien Emotionen entwickelt haben. Sie müssen uns beim Überleben weitergeholfen haben (und tun es vermutlich immernoch).

Und wenn Emotionen nicht nur ein evolutionäres Überbleibsel sind, sondern uns tatsächlich auch heute noch behilflich sein sollten (was ich nicht infrage stellen will), dann gibt es auch keinen Grund anzunehmen, dass nicht auch eine künstliche Intelligenz ihre Version von Emotionen entwickeln könnte.

Vielleicht sind Emotionen aber auch eine "Abkürzung" wo unsere Informationsverarbeitung an ihre Grenzen stösst. Anstatt uns zu überlegen, was bei Unbekanntem oder Gefahr zu tun ist, kennen wir einfach nur Angst und die hilft uns dann beim Überleben, auch wenn sie uns oder der Gesellschaft nicht immer weiterhilft und sogar längerfristig Schaden zuführen kann (Stress, Panikattacken, Angst vor Ausländern, etc.). AKI kann es sich vielleicht irgendwann leisten über alles logisch nachzudenken ohne Abkürzungen zu benötigen.

6
/
0

Sie haben sicher Recht, dass auch Gefühle wie die von Ihnen erwähnten, durch reale Ereignisse ausgelöst werden können und im Unterbewusstsein abgespeichert werden, wo sie sich dann bei Bedarf zurückmelden. Vielleicht wird eine Maschine solche kausalen Zusammenhänge in einfachen Fällen auch rekonstruieren und prospektiv anwenden können. Spätestens wenn es aber um Gefühle geht für die es keine realen Massstäbe gibt, ist jeder Algorithmus am Ende. Wie möchten sie einer Maschine Eigenschaften wie Vertrauen, Liebe, Mitleid oder Humor beibringen, um sie ungefragt in eine Entscheidfindung einzubringen?

3
/
0

Das Schwierige an der Diskussion um KI sind die unterschiedlichen Interessenlagen der Beteiligten:

Startup-Foundern kann es völlig egal sein, ob sie irgendwann ein funktionierendes Produkt haben werden: Es reicht aus, das Startup rechtzeitig zum "unicorn" aufzuhübschen und zu einem Milliardenpreis zu verkaufen. Da ist die Versuchung gross, den grösstmöglichen hype zu inszenieren.

Unternehmen mit einem funktionierenden Produkt wünschen sich einen "moat", einen Burggraben um ihr Produkt, den Konkurrenten nicht überwinden können. Ein solcher "moat" kann dann auch aus Regulierung gebaut werden. Zum Beispiel, wenn man vor der KI-Weltherrschaft warnt...

14
/
1

Sehr anregender Beitrag. Intelligenz, ob künstlich oder menschlich, löst Probleme. Ich hatte eine Zeitlang den Eindruck, dass künstliche Intelligenz von vielen Menschen als wertvoller angeschaut wurde als menschliche. Der Artikel zeigt die momentanen und wohl noch länger dauernden Grenzen künstlicher Intelligenz in bezug auf Probleme auf, denen wir Menschen in immer grösserem Mass ausgesetzt sind. Ich meine damit alles, was mit der Klimaveränderung und der Bedrohung unserer Lebensgrundlagen zusammenhängt. Wahrscheinlich ist es doch so, dass mit der Bewirtschaftung enormer Datenmengen zur Förderung von KI sehr viel Macht oder zumindest das Versprechen von Macht verbunden ist und drum das Geld in diese Förderung und Forschung in Strömen fliesst. Melanie Mitchell sagt, wohin wir schauen müssen, wenn wir sehen wollen, wie Intelligenz, Problemlösung sich entwickelt: Babies und Kindern zuschauen. Und zwar denen, die nicht einfach mit Bildschirmen beschäftigt werden, sondern denen, die sich in einem Raum, mit all ihren Gliedmassen, in alle Richtungen bewegen können, die, die tasten, riechen, schmecken dürfen und die von anderen Kindern abschauen können, was die gerade an Neuem entdeckt haben. Wer hat diesem kindlichen Lernen, das eigentlich nichts kostet, nur einen sicheren Rahmen braucht, schon Wert beigemessen? Wäre es nicht gescheit, für jeden Betrag, der in die Förderung von KI gesteckt wird, den gleichen Betrag in das Bereitstellen von guten Lernumgebungen (inklusive nötige Sorgearbeit) für Menschenkinder zu stecken? Das wäre die Art science fiction die mir gefallen würde.

13
/
0

Ich finde den Begriff der KI grundsätzlich falsch, weil wir bei jeder Entscheidung oder Feststellung ein obligat-begleitendes Gefühl (auch Emotion genannt) dabei haben. Unser Denken, Entscheiden ist IMMER von Gefühlen begleitet: es interessiert uns etwas, es ist mir egal, ich kann dies oder jenes nicht ausstehen, oder ich liebe es, etc.).
Ein Algorhythmus ist aber eine grundsätzlich gefühllose Sache.
Darum kann er nie intelligent sein.
Ein zutrffender Name wäre Technisch Intelligenz. Diese kann ich ihm wirklich nicht absprechen.
Diese Unterscheidung hätte den Vorteil, dass wir sachlicher über TI (techn. Inzelligenz) reden könnten, und unsere Gefühle blieben draussen. Maschinen ind Chips haben nun mal keine.
Selbst die Humanwissenschaften tragen sich mit ihnen schwer, weil sie auch für diese nicht zu fassen sind
Also: Technische Intelligenz wäre zutreffender und damit auch weniger anmassend. Der Begriff verspricht damit nichts, was er ohnehin nicht halten kann.

10
/
1

Ich denke da anders. Der Evolutionstheorie zufolge stammt der Mensch von Einzellern ab, welche wir als nicht besonders intelligente gefühllose Wesen bezeichnen würden. Offensichtlich spielen Gefühle daher im Anfangsstadium der künstlichen Erzeugung von etwas Intelligentem keine grosse Rolle. Mit etwas Geduld und Ingenieurskünsten schafft es die Menscheit evtl. ja doch noch. Persönlich tendiere ich zur Ansicht, dass unser Gehirn nichts weiter als ein genialer Biocomputer ist. Ich sehe eigentlich nichts, was gegen diese Hypothese spricht. Heutige KI scheint jedoch immer noch weit entfernt vom menschlichen Gehirn zu sein. Bewundernswert wie Leute versuchen dies zu ändern.

4
/
3

"...dass unser Gehirn nichts weiter als ein genialer Biocomputer ist. Ich sehe eigentlich nichts, was gegen diese Hypothese spricht"
Meiner Ansicht nach ist der Zweifel an Ihrer Hypothese im ersten Satz enthalten: BIO-Computer, also LEBENDER Computer. Wir haben noch nicht mal wirklich verstanden, was "Leben" (im biologischen Sinn) bedeutet, und warum es sich z.B. behaupten "will" gegen Feinde, Umweltkräfte etc.
Ihre Hypothese setzt voraus, dass man das menschliche Hirn quasi isoliert als Steuerungseinheit des menschlichen Körpers betrachtet. Ich bezweifle, dass das eine sinnvolle Trennung ist bzw. dass es sinnvoll ist -vereinfacht ausgedrückt- zu sagen: Eigentlich ist eine KI und ein Gehirm dasselbe, nur ist das eine halt bei einem lebenden Körper eingebaut und das andere nicht. Eben das IST doch der Unterschied, bzw. überhaupt nicht dasselbe.

1
/
1

"Für echtes Verstehen brauche es vermutlich einen Körper."
Wie niedlich, dieses "vermutlich".

3
/
0
Gaby Belz
Jeden Morgen neu
·

Das ist genau der Satz den ich am faszinierendsten finde und über den weiter nachzudenken sich meiner Meinung nach lohnt. Vielleicht steckt darin eine Erkenntnis die uns hilft, endlich die Körper-Geist-Spaltung so zu überwinden dass wir auf ganz natürliche Weise körperlich durch die Welt gehen, Eindrücke aufnehmen, verarbeiten (emotional und geistig sind dann auch nicht mehr zwei getrennte Wege da voneinander abhängig) und reagieren.

9
/
0

Ja, in diesem "vermutlich" stecken zweieinhalbtausend Jahre Philosophiegeschichte (oder mehr).

9
/
0

Ich könnte mir vorstellen, dass man sogar noch einen Schritt weiter müsste: "... braucht es einen sterblichen Körper." Unser Verständnis und Verhältnis zur Welt wird durch diese Tatsache doch entscheidend geprägt.
Im Übrigen wundere ich mich immer, warum Leute, die postulieren, dass Computerhirne dereinst alles können, was auch ein menschliches Hirn kann, da dieses letzlich auch bloß ein biochemischer Prozessor sei, der einfach Daten verarbeitet, die dann Gedanken und Gefühle zum Resultat haben, über eine schlichte Tatsache hinwegsehen: Dass womöglich schon die unterschiedliche Bauweise eines biologischen und eines elektronischen Hirns es prinzipiell unmöglich macht, dass sie beide dasselbe tun, selbst wenn das Resultat dasselbe ist. Einfach ausgedrückt: Wenn ich gegen den Computer Schach spiele, machen er und ich nicht bzw. nur scheinbar dasselbe (und damit meine ich nicht mein mangelhaftes Spiel).
Das bekannte Schachproblem des Physikers Roger Penrose ist ein weiteres Besipiel, bei dem Computer scheitern: https://www.telegraph.co.uk/science…ciousness/

5
/
0
Simon Reber
Software Entwickler, Familienvater
·

Im Gegensatz zu ihnen, bin ich überzeugt, dass es möglich sein muss, ein technisches Konstrukt zu bauen, das dem menschlichen Gehirn ebenbürtig ist.
Bloss dürfen wir nicht vergessen, dass wir uns hier in den frühesten Fingerübungen zu diesem Thema befinden. Schon die grundlegendsten Grundlagen, die Digitalisierung, ist eine grobe Vereinfachung der analogen Funktionsweise eines Gehirns. Es ist völlig illusorisch zu glauben, dass nach weniger als hundert Jahren Entwicklung bereits ein Stand zu erreichen wäre, der mit dem Gehirn und Nervensystem eines höheren Säugetiers konkurrieren kann. Selbst in der Rechenleistung sind die schnellsten Systeme der Gegenwart nicht ansatzweise mit dem Gehirn einer Stubenfliege zu vergleichen. Vor allem wenn man den Energieverbrauch mit einbezieht.
Wir sollten nicht schon wieder dem Dünkel verfallen, dass wir etwas Besonderes seien.
Es ist noch keine hundert Jahre her, da war die ˋWissenschaftˋ überzeugt, dass Tiere kein Bewusstsein haben. Jedes Kind wusste es besser. Wie viele Generationen von Menschen waren sich sicher, dass der Mensch nicht fliegen kann. Wie viele sahen im Auto nur eine Spielerei für die Reichen. Und wie viele unterschätzten den Computer noch in den 90er Jahren des vorderen Jahrhunderts. Dass in nur zwei Jahrzehnten hier jeder Teenager einen Rechner mit der x-fachen Leistung damaliger Workstations in seiner Hosentasche mit sich herumträgt, war damals kaum vorstellbar.

3
/
1
Grossvater "Oekoterrorist"
·

Das Problem der KI-Entwickler ist, dass Maschinen (Rechenleistung) und Menschen (Hirn) gleichgesetzt und nichtphysische Phänomene (Bewusstseinsinhalte, freier Wille, Intentionen etc., also "Geist") als Produkt der Materie (Epiphänomen) betrachtet werden. Das schliesst aber "Subjektivität" (sprich: Wirkung von Geist auf Materie) per Definition aus, obwohl die gesamte menschliche Kultur inklusive Digitalisierung genau diese Wirkung von Geist auf Materie ist. Der Materialismus ist also offensichtlich falsch, d.h. eine Maschine hat per Definition keine Subjektivität, versteht nichts, weiss nichts, hat keine Absichten, keinen freien Willen und kann nicht Handeln. Wenn das von den KI-nerds nicht erkannt und AKI angestrebt wird, ist die Sprachverwirrung total und jeder Kommentar Unsinn.
Wenn Leistungen eines künstlichen Trägers von virtuellem Bewusssein den menschlichen Organismus übertreffen sollen (gemäss den Zielen der AKI), genügt die Simulation von einzelnen Teilfähigkeiten nicht, sondern das Ganze muss wenigstens dupliziert werden. Das müsste also ein Apparat sein, der die gesamte Evolution und alle individuellen Erfahrungen inklusive Denken, Fühlen, freien Willen etc. eines Menschen speichern und ausdrücken, sowie darauf basierend sinnvoll handeln können müsste. Wieso das wünschbar oder gar notwendig sein soll, ist äusserst fraglich. Schliesslich gibt es schon 8 Milliarden solcher Apparate.

11
/
2

Ich teile Ihre Skepsis bezüglich der Wahrheit materialistischer Theorien, denke aber, dass Ihre Argumentation nicht unproblematisch ist.

Materialismus ist nicht immer Epiphänomenalismus. Gewisse Materialist:innen würden die Existenz nicht-physischer Phänomene natürlich insgesamt leugnen.
Materialist:innen aller Arten würden ebenfalls bestreiten, dass es für Kultur, Digitalisierung, und alles mögliche sonst Geist braucht.

Ich rekonstruiere Ihr Argument wie folgt:
P1) Nicht-Physisches existiert.
P2) Nicht-Physisches wirkt auf die Materie.
P3) Kultur etc. ist nichts anderes als das Resultat dieser Wirkung.
P4) Kultur etc. existiert.
K) Der Materialismus ist falsch.

Keine Material:istin würde den Prämissen zustimmen, weshalb die Konklusion nicht zu überzeugen vermag.
Zurecht würde auch darauf hingewiesen, dass die Konklusion in den Prämissen enthalten ist (P1)), und das Argument also ungültig.

Wie Sie richtig schreiben: Ein gutes Argument für die Existenz von Nicht-Physischem sind wohl Bewusstseinsinhalte (ich denke insbesondere an Qualia), aber auch auch um deren Existenz wird gezankt.

Ich teile Ihre Intuition, dass der Materialismus offensichtlich falsch ist. Aber andere haben gegenteilige Intuitionen, und spüren förmlich seine offensichtliche Richtigkeit.
In den Diskussionen stellt sich dann raus, dass das alles nicht so klar und einfach ist.
Es scheint mir daher sehr gewagt, Probleme der KI an den Problemen des Materialismus aufzuhängen.

Nichts für Ungut. Viel Geist. :)

4
/
1
Grossvater "Oekoterrorist"
·

Interessante Argumente! Wir sprechen hier vom uralten und bis heute ungelösten psycho-physischen Problem (früher Leib-Seele-Problem) genannt. Für den Materialismus ergeben sich dabei grössere logische Unsinnigkeiten als für die meisten dualistischen oder gar esoterischen "Geist"-theorien. Das hat Hans Jonas schon 1981 in seinem brillianten Essay "Macht oder Ohnmacht der Subjektivität?" (Suhrkamp Taschenbuch 1513) logisch auseinandergenommen.
Zum "Geist": In meiner Welt gibt es zwei (und nur zwei!) grundsätzlich anders geartete Phänomene: 1. Materie in vielen Formen ,Zuständen und Dimensionen und 2. "Geist", nicht-physische Phänomene ,alles , was erscheint, aber nicht Materie ist (Bewusstsein, Gefühle, Formeln, Ideen, Absichten, Wort-Bedeutung, u.v.a.m.) und zwar unabhängig davon, was die Ursache ist ,ob Materie (Hirn) oder wieder "Geist". Wenn ich ein Haus plane und baue, oder als Bildhauer eine Statue forme, dann wirkt Geist auf Materie. Das gilt für praktisch das ganze Leben, ausgenommen für den Schlaf. Ganz egal, ob Materialismus oder sonst irgend eine Theorie stimmt, meine direkte Erfahrung ist ein Bewusstsein meines physischen Körpers, meines geistigen Selbst (Subjektivität) und meiner nicht-physischen Gedankeninhalte, welche Absichten erzeugen, die zu Handlungen (z.B. diesem Schreiben) führen. Was Materialisten "erfahren" kann ich nicht wissen, aber dass irgendjemand keine nicht-physischen Phänomene kennt, schein mir unmöglich.
Materialismus heisst, es gibt nur Materie und alles was "erscheint" ist physisch (oder physisch verursacht). das wirft aber bereits grösste logische Probleme auf. Die Druckerschwärze auf dem Papier oder die Schallwellen der Sprache sind physisch, Inhalt und Bedeutung NICHT. Wenn das trotzdem als rein "materiell" betrachtet wird, unterliegt alles den wissenschaftlichen Gesetzmässigkeiten der Materie, der PHYSIK. Dann sind alle Erscheinungen und Prozesse der "Welt" kausal-determiniert und eine geschlossene Abfolge von Ursache und Wirkung. Das schliesst per Definition Subjektivität aus. Diese gibt es für mich unzweifelhaft, wenn ich Bewusstsein habe.
Gibt es das nicht, kann nichts beeinflusst werden und die Evolution läuft einfach gemäss physikalischen Gesetzen ab. D.h. unsere Bemühungen sind dann obsolet (Klima!) und unser Gedankenaustausch nach Jonas: "......nur ein trügerischer Schein für das kausale Arbeiten der Körpermechanismen-ein zweckloser Trug des Bewusseins."
Glaubt das irgend Jemand? Wurde etwas lang, ist halt, wie sie richtig schreiben, nicht so klar und einfach.
P.S. Zustand Erde: Materialismus+Maschine+Turbokapitalismus=Klimakatastrophe, wegen Übersteuerung von "Geist" durch Emotionen beim Menschen.

3
/
1

Ich glaube, dass ich den Text verstanden habe. Aber was ist überhaupt verstehen? ;)

8
/
0
Molekularbiologin
·

Habe den Text verstanden. Und frage mich: wozu das Ganze? Geht es nur ums Verstehen menschlicher Intelligenz? Und sonst: wer braucht das?

9
/
4

Gut, wozu etwas zu gebrauchen ist, kann man bei vieler Grundlagenforschung fragen. Schlussendlich geht es meistens darum ein Konzept zu verstehen um es dann zu modellieren und damit dann Kontrolle über unser Leben und der chaotischen Welt um uns herum zu gewinnen.

Wozu wird denn an Molekülen geforscht? Und erst noch in der Biologie?

9
/
2
Molekularbiologin
·

Danke - ich hab nicht die Grundlagenforschung in Frage gestellt. Sondern die konkrete Anwendung…und die Verbissenheit, mit der versucht wird, die Maschine so intelligent wie den Menschen zu machen…

1
/
0

Sie antworten allgemein und Frau B. fragt speziell (glaub ich).

2
/
2
Simon Reber
Software Entwickler, Familienvater
·

Genauso, wie eine Bohrmaschine mir die mühselige Arbeit, den Bohrer zu drehen, abnimmt, und ich mich nur noch darum kümmern muss, dass das Loch am richtigen Ort, in der richtigen Grösse und Richtung entsteht, wird uns maschinelle Intelligenz mühsame Denkaufgaben abnehmen, damit wir uns mehr auf den kreativen Teil unserer Aufgabe konzentrieren können.
So wie ein Handwerker viele unterschiedliche Werkzeuge und Maschinen einsetzt, benutzen wir Programmierer viele unterschiedliche Programme, welche uns helfen schneller zu sein, Fehler zu vermeiden und die Übersicht zu behalten.
Maschinelle Intelligenz ist einfach ein weiteres Werkzeug, welches bei sinnvollem Einsatz das Ergebnis verbessert, die Zeit verkürzt um es zu erreichen, so wie jede andere Automation auch.
Davon aber, dass diese Maschinen eigene Ziele verfolgen, aus eigenem Antrieb etwas tun, sind wir noch weit, sehr weit entfernt.

3
/
0
· editiert

Interessant ist die Flexibilität. Dank der Plastizität meines Gehirns hat ein Teil des kaputten Teils nach dem Hirnschlag übernommen (leider nicht alles, aber lesen kann ich wieder) und mit Übungen (auch mit Physiotherapie, Körper und Geist zusammen) wieder vergrössert hat. Werden die Chips selber vergrössern?

6
/
0

Die Idee, die Maschine aus unzähligen Funktionen ein gewisses Verständnis für die Konzepte entwickeln zu lassen, hat François Chollet schon 2017 im erwähnten Deep-Learning-Lehrbuch formuliert (Auszüge davon in seinem Blog):

[Models] will be grown automatically rather than handcrafted by human engineers, using modular parts stored in a global library of reusable subroutines—a library evolved by learning high-performing models on thousands of previous tasks and datasets. As common problem-solving patterns are identified by the meta-learning system, they would be turned into a reusable subroutine—much like functions and classes in contemporary software engineering—and added to the global library. This achieves the capability for abstraction.

This global library and associated model-growing system will be able to achieve some form of human-like "extreme generalization": given a new task, a new situation, the system would be able to assemble a new working model appropriate for the task using very little data.

Für Ingenieure klingt das recht attraktiv:

When this starts happening, the jobs of machine learning engineers will not disappear—rather, engineers will move higher up the value creation chain. They will start putting a lot more effort into crafting complex loss functions that truly reflect business goals, and understanding deeply how their models impact the digital ecosystems in which they are deployed.

Übrigens auch lesenswert vom selben Autor: The limitations of deep learning. Hat mir sehr geholfen intuitiv zu erfassen, wieso «KI» keine Magie ist.

6
/
0
(durch User zurückgezogen)
ohne Rolle
·

Sehr spannender Beitrag, Danke dafür.

3
/
0
Software Engineer
·

Beim Lesen des Artikels beschleicht mich das Gefühl, dass die Forschung bislang kaum tiefgreifende Erkenntnisse hat - trotz ihrer Erfolge. Dieses Gefühl ist aber von Grund auf falsch und ist evtl. der starken Vereinfachung des Artikels geschuldet.

Richtig ist: Die Konzepte, welche für den Bau einer AGI (artificial general intelligence) nötig sind, sind längst bekannt und sogar mathematisch präzise formalisiert, siehe AIXI. Intelligenz hat erstaunlich viel mit Kompression gemeinsam.

Im Artikel wird erwähnt, dass ChatGPT etc. bloss next token predictors sind. Das stimmt, und das ist völlig ausreichend für allgemeine Intelligenz.

Was uns bisher immer noch fehlt, um mit AGI relevante Probleme zu lösen, ist viel mehr Rechenpower. Sonst würden wir sie bereits heute sehen. Pacman spielen kann sie jedenfalls schon heute, ohne dass ihr das jemand beigebracht hätte.

2
/
1
· editiert

Wenn die konzeptionellen Fragen alle schon gelöst sind, warum sind Sie denn intelligenter als ihr Computer? Sie schieben es auf fehlende Rechenleistung, aber ihr Gehirn hat eine Leistungsaufnahme von schlappen 20 Watt, deutlich weniger als der Prozessor ihres Computers (etwa 100 Watt). Würde ihr Computer gleich gut denken wäre er deutlich schlauer als sie ...

Davon sind wir weit entfernt. Nehmen wir mal GPT-3:

For context, the largest version of GPT-3 consisting of 175 billion parameters took 3640 pf-days to train. This means that the GPUs needed to conduct a petaflop of operations per day for almost 10 years! However, with the aid of parallelisation and a little help from Azure’s supercomputing cluster, predictions have placed the time to train this model at about 34 days. In contrast, training the same model on a single NVIDIA V100 GPU would take over 355 years.

Die Leistungsaufnahme einer NVIDIA V100 GPU liegt bei über 200 Watt. Mein Spracherwerb war in Teilzeitarbeit eines einzigen Gehirns in einigen Jahren erledigt. Warum braucht GPT-3 über tausend mal mehr Energie für den gleichen Lernprozess?

Also ja, da gibt es durchaus noch Luft nach oben. Aber bisher ist uns die Nachbildung menschlicher Intelligenz mit künstlichen Mitteln nur in sehr isolierten Teilbereichen gelungen (was würden sie von einem Menschen halten, der nur Pacman spielen kann?). Das Problem ist, dass wir nicht verstehen, wie unser Gehirn funktioniert. Ja klar, wir wissen da gibt es Neuronen und Axonen und Neurotransmitter, aber wir haben nur eine äusserst schwammige Vorstellung, wie daraus Intelligenz entsteht. Es ist schwer, etwas nachzubauen, von dem man nicht weiss, wie es funktioniert ...

In der Tat sind die sektoriellen Fortschritte, die wir in der Nachbildung natürlicher Intelligenz mit künstlichen Mitteln in den letzten Jahren erzielt haben, auch methodische Fortschritte. ChatGPT beispielsweise trägt nicht umsonst die angewandte Methode im Namen:

Generative pretraining (GP) was a long-established concept in machine learning applications,14 [15] but the transformer architecture was not available until 2017 when it was invented by employees at Google.[16] That development led to the emergence of large language models like BERT in 2018[17] and XLNet in 2019,[18] which were pre-trained transformers (PT) but not designed to be generative (they were "encoder-only").[19] Also around that time, in 2018, OpenAI published its article entitled "Improving Language Understanding by Generative Pre-Training," in which it introduced the first generative pre-trained transformer (GPT) system ("GPT-1").[20]

Deepfakes haben wir den Generative Adverserial Networks zu verdanken, Fortschritte in der Bilderkennung den Convolutional Neural Networks, und so weiter und so fort.

Aber Artificial General Intelligence? Da sind wir, auch bei gigantischen Serverfarmen, noch immer nicht angekommen. Und eine General Intelligence mit einer Leistungsaufnahme von 20 Watt?

Da staunt der Laie, und der Fachmann wundert sich.

3
/
0

Rein statistische Modelle (GPT-3, oder Datenkomprimierung) sind schon eine andere Kategorie wie Reinforcement Learning (Pacman lernen, oder in sehr geringerem Anteil auch ChatGPT). Letztere haben wenigstens theoretisch die Möglichkeit, etwas zu be-greifen (ein schönes Wort), also zu agieren statt nur zu beschreiben.

Ich denke es scheitert am Glaube, dass menschliche Intelligenz nur diese pure Fähigkeit wäre, ein mathematisch definiertes Ziel zu verfolgen. Wenn das so einfach wäre, woher kommen dann die Ziele, über die wir uns streiten? Ist es intelligentes Verhalten, auf nur ein einziges, klar definiertes Ziel hin zu arbeiten?

1
/
0
ein pulsierender Knoten im Netzwerk
·

Ist der Mensch so intelligent, dass er (!) etwas schaffen kann, das er mit seiner Intelligenz nicht mehr erfassen kann? Und geht er dann deshalb davon aus, dass das Ding ihm ebenbürtig ist?
Für mich hat es in der ganzen KI-Diskussion noch ein paar falsche oder zumindest einschränkende Prämissen, die wir uns bewusst machen sollten. Im Artikel und in der Diskussion werden sie zwar angedeutet, geraten aber zu rasch wieder aus dem Fokus.
Zum einen geht es immer um Sprache, also menschengemachte Symbolisierungen von Erlebnissen, Sinneseindrücken und Gefühlen. Im besten Fall kommen damit verstehensfördernde Modelle zustande, aber kaum werden wir damit etwas Neues finden, bloss die Reproduktion unserer eigenen Gebilde, immer limitiert durch unsere eigenen Wahrnehmungsorgane. Dass eine KI einen eigenen Körper für eigene Wahrnehmungen brauche, bildet das ab, aber da wird es schon ein wenig gruselig, oder? Vielleicht bräuchte sie dann auch eine eigene Persönlichkeit. Woher nehmen?
Weiter schwingt ein Verständnis von Menschen als Maschine mit, unser Gehirn als Denkmaschine, als Werkzeuge und schliesslich Objekte. Das wird schwierig aufrechtzuerhalten sein in einer Welt voller Organismen, die miteinander wechselwirken und sich selbst organisieren. So etwas wie Intelligenz ist in allen Organismen zu finden. Vielleicht wäre es sinnvoller diese Intelligenzen sich frei vernetzen zu lassen als sich auf das Konstruieren einer allmächtigen Maschine zu versteifen.
Ferner ist da immer wieder die Annahme, für das alles gebe es eine Formel, eine Zahl 42 oder ein für ein Einzelhirn verstehbares und skalierbares Prinzip. Was, wenn das schlicht Humbug ist? Wenn es keine Formel gibt? Und wenn es eine gäbe sie nichts mit unserer komplexen, vernetzten Welt zu tun hat?

Der einzige Weg den ich sehe zu einer „künstlichen“, besser vernetzten Intelligenz wäre das Zusamnenschliessen aller auf diesem Planeten lebenden Organismen zu einer organischen Superintelligenz wie es die Evolution seit Jahrmillionen tut. Dafür braucht es eine gute Balance von Fairness, Beteiligung, wechselseitigen Geschenken, Offenheit, Liebe und viiel Zeit.
Davon sind wir m.E. äonenweit entfernt.
Trotzdem spannend.

2
/
0

An einer Stelle musste ich stutzen. Denn Menschen haben gelegentlich ein anderes Verständnis als Maschinen es vielleicht entwickeln könnten: Vögel können fliegen? Viele Menschen würden das umgehend bejahen, bei längerem Nachdenken kämen aber Zweifel auf (bspw. Pinguine, von Jungvögeln im Nest reden wir noch gar nicht). Und sollte eine KI biologisch vollkommen korrekt bei einer Liste von Nüssen auch eine Erdbeere zeigen, wäre das erst einmal irritierend. Eine generelle KI müsste auch solche Dinge „verstehen“. Ich bin gespannt…

2
/
0

Vielen Dank für den aufschlussreichen Atikel. Meine Bemerkung dazu. Da sich die Wissenschaft bis heute kein Bild über unser Gendanken machen kann, schlage ich vor den Horizont zu erweitern. Mit Fragaen wie: Woher kommen unsere Gedanken? Sind sie im Kopf in der Materie? Wohl nicht! Sind sie in der Aussenwelt? Im Kosmos? Es ist wohl das Thema von Geist und Materie, was den Menschen seit Menschengedenken beschäftig.

2
/
0
Grossvater "Oekoterrorist"
·

Zu diesem Thema siehe den Gedanken-Austausch weiter oben zum uralten und ungelösten Geist-Materie-Problem zwischen L. B. (vermutlich Philosoph) und mir als Laien. Vielleicht könne Sie etwas beitragen?

0
/
0

Guten Tag Herr E.
Vielen Dank für Ihren Hinweis bezüglich Ihrem Gedankenaustausch mit L. B.. Leider kann ich diesem Austausch nichts weiterführendes Ergänzen. Vielleicht so viel: Ist der Mensch ein geistiges-sellisches Wesen oder wie die Maschine nur ein physisches Protukt das von Menschen (Geist) gebaut wurde? Wir bleiben drann.

0
/
0

Ich lernte, dass Intelligenz mich nur weiter bringt, wenn mein Ich, auf derselben Reifungsstufe, mein Herz sie sich unterordnen lässt. Wie löst denn der Computer seine Ambivalenzen auf?

2
/
2