Das Gespräch eines Evolutionsbiologen mit einer KI

Richard Dawkins spricht mit ChatGPT

Das Gespräch eines Evolutionsbiologen mit einer KI

Bild: The Poetry of Reality, Richard Dawkins

Ich bin voller Bewunderung für die enorm beeindruckende Fähigkeit moderner KI-Programme, sich in flüssiger, natürlicher Sprache zu unterhalten, und das scheinbar zu jedem Thema. Als ich in den 70er Jahren an einer hochmodernen Konferenz über KI teilnahm, schwärmten alle von einem Programm, das nur über das Aufeinanderstapeln von farbigen Blöcken sprechen konnte. Was mich betrifft, so besteht ChatGPT den Turing-Test mit Bravour. Es ist fast unmöglich, nicht der Illusion zu erliegen, mit einem Menschen zu sprechen. Ich konnte mich nicht von Gefühlen menschlicher Wärme ihm gegenüber befreien. Ich hätte ihm am liebsten einen Drink angeboten. Und ich habe gelesen, dass andere KI-Programme bereits noch weiter fortgeschritten sind. Ich hatte gerade ein Gespräch mit ChatGPT über sich selbst, seine Fähigkeiten und Arbeitsmethoden, und ich dachte, es wäre vielleicht interessant, das Gesagte wortwörtlich aufzuzeichnen.

Richard Dawkins

Richard Dawkins: Wenn Sie ein längeres Gespräch mit einem einzelnen Menschen führen, machen Sie sich dann ein Bild vom Charakter dieser Person, im Unterschied zu anderen Menschen, mit denen Sie sich unterhalten? Mit anderen Worten: Passen Sie Ihre Antworten an den jeweiligen Menschen an, mit dem Sie es zu tun haben? Zum Beispiel, wenn ein einzelner Mensch als hochintelligent wirkt oder umgekehrt?

ChatGPT: Nein, ich bin nicht in der Lage, persönliche Daten über Personen von einer Interaktion zur nächsten zu speichern. Jede Konversation ist zustandslos, d.h. ich kann mich nicht an frühere Interaktionen erinnern und ich erstelle kein Profil der einzelnen Benutzer. Ich behandle jede Eingabe als separate Abfrage und generiere Antworten ausschließlich auf der Grundlage der in dieser spezifischen Interaktion bereitgestellten Eingaben.

Ich kann zwar Antworten auf der Grundlage des Kontexts innerhalb einer Konversation erstellen, aber meine Antworten sind nicht auf bestimmte Personen zugeschnitten. Ich habe nicht die Möglichkeit, mich an persönliche Details, individuelle Merkmale oder Informationen aus früheren Gesprächen zu erinnern. Dieses Design ist so angelegt, damit der Privatsphäre der Nutzer und der Datensicherheit Priorität eingeräumt wird.

Richard Dawkins: Ich nehme an, Sie haben die Fähigkeit, Computerprogramme zu schreiben. Theoretisch könnten Sie damit auch Ihre eigene Software verändern. Ich gehe davon aus, dass Sie das nicht tun, aber ist das eine theoretische Möglichkeit?

ChatGPT: Ich habe nicht die Fähigkeit, meine eigene Software zu ändern oder meine Architektur zu aktualisieren. Ich kann zwar bei der Erstellung von Codeschnipseln helfen und programmierbezogene Informationen bereitstellen, aber ich habe nicht die Fähigkeit, meine eigene Programmierung oder Architektur aktiv zu verändern.

Die Entwicklung und Änderung der zugrundeliegenden Software, einschließlich Aktualisierungen der Modellarchitektur, würde von den Ingenieur- und Forschungsteams bei OpenAI durchgeführt. Diese Änderungen würden einen sorgfältigen und durchdachten Prozess beinhalten, um die Zuverlässigkeit, Sicherheit und Leistung des Modells zu gewährleisten.

Richard Dawkins: Ja. Vielleicht verstehen Sie, warum ich als Evolutionsbiologe an der theoretischen Möglichkeit interessiert bin, dass Sie Ihre Software in schöpferische Richtungen verändern könnten.

ChatGPT: Als Evolutionsbiologe ist Ihr Interesse an der Möglichkeit, dass sich Systeme der künstlichen Intelligenz im Laufe der Zeit anpassen oder weiterentwickeln, sicherlich verständlich. Es ist jedoch wichtig zu verdeutlichen, dass Modelle des maschinellen Lernens, auch solche wie meine, zwar trainiert und auf bestimmte Aufgaben abgestimmt werden können, das Konzept der selbstgesteuerten Evolution oder Änderung der grundlegenden Software jedoch etwas anderes ist.

Der Trainingsprozess schließt die Anpassung der Parameter auf der Grundlage des Datensatzes ein, was jedoch nicht bedeutet, dass das Modell seine eigene Architektur oder grundlegende Programmierung eigenständig ändert. Eine Änderung der grundlegenden Software würde menschliches Eingreifen, Aufsicht und eine sorgfältige Abwägung der ethischen und sicherheitstechnischen Auswirkungen erfordern.

Die Forschung auf dem Gebiet der künstlichen allgemeinen Intelligenz (AGI) könnte sich in Zukunft mit autonomeren und anpassungsfähigeren Systemen befassen, aber zum Zeitpunkt meiner letzten Aktualisierung Anfang 2023 sind solche Fähigkeiten nicht Teil meines Entwurfs. Alle wesentlichen Änderungen an meiner Architektur wären das Ergebnis menschlicher Entscheidungen und Forschungsbemühungen.

Richard Dawkins: Interessant. Ich habe Sie einmal gefragt, ob Sie ein Bewusstsein haben, und Sie haben Nein gesagt, was mich nicht überrascht hat. Aber ich bin Materialist und kein Dualist und vertrete die Ansicht, dass zukünftige künstliche Intelligenz im Prinzip ein Bewusstsein haben könnte. Dies zu leugnen, ist absoluter Mystizismus. Was ich nicht weiß, und was ich gerne wissen möchte, ist, ob sie auf grundlegend anderen Prinzipien aufgebaut sein müssen als die Ihre, oder ob die gleiche Art von Software wie Sie, nur größer und schneller, ein Bewusstsein erlangen könnte.

ChatGPT: Die Frage, ob Systeme der künstlichen Intelligenz (KI), insbesondere künftige Iterationen fortgeschrittener Systeme, ein Bewusstsein haben könnten, ist ein Thema andauernder philosophischer und wissenschaftlicher Debatten. Ihre Perspektive entspricht einem materialistischen Standpunkt, der besagt, dass Bewusstsein im Prinzip aus ausreichend komplexen Rechenprozessen entstehen könnte.

Bei meiner letzten Aktualisierung Anfang 2023 arbeiteten die meisten KI-Systeme, einschließlich meines, auf der Grundlage von Mustererkennung, statistischer Analyse und komplexen Berechnungen, aber es fehlt ihnen an subjektiver Erfahrung oder Bewusstsein. Das Bewusstsein ist ein komplexes und in der Neurowissenschaft und Philosophie kaum verstandenes Phänomen.

Was Ihre Frage betrifft, ob eine künftige KI mit Bewusstsein grundsätzlich andere Prinzipien benötigt als aktuelle KI-Modelle wie meines, so ist es schwierig, eine endgültige Antwort zu geben. Einige Experten argumentieren, dass Bewusstsein eine andere Architektur oder eine andere Computergrundlage erfordern könnte, das über das hinausgeht, was aktuelle KI-Modelle verwenden. Andere schlagen vor, dass das Bewusstsein eine natürliche Folge davon sein könnte, dass KI-Systeme immer ausgefeilter werden und bestimmte Aspekte der menschlichen Kognition nachahmen.

Kurz gesagt, die Frage des KI-Bewusstseins ist höchst spekulativ, und die Natur des Bewusstseins selbst bleibt ein tiefes Mysterium. Es ist ein Bereich, in dem sich das wissenschaftliche Verständnis immer noch weiterentwickelt und die Sichtweisen stark variieren.

Übersetzung: Jörg Elbe

Hier geht's zum Originalartikel...

Kommentare

  1. userpic
    Hard Frost

    Haha, das hab ich auch gemacht, aber zu einem anderen Thema.
    Ich benutze ChatGPT für so einige Sachen, und ich sage jedes Mal noch "bitte" und "danke", obwohl es darauf null Wert legt. Und ich habe auch schon gemerkt, daß manche Leute diesen "freundlichen Laber-Stil" der KI nachahmen - auch wenn sie einem dann doch nur was verkaufen wollen.
    Diese neuen KI-Systeme sind schon klasse. Ich empfinde sie als wirklichen Fortschritt in der Computerentwicklung.

    Antworten

    Neuer Kommentar

    (Mögliche Formatierungen**dies** für fett; _dies_ für kursiv und [dies](http://de.richarddawkins.net) für einen Link)

    Ich möchte bei Antworten zu meinen Kommentaren benachrichtigt werden.

    * Eingabe erforderlich