Hat Googles KI Bewusstsein entwickelt? – KI soll um einen Anwalt gebeten haben

Ein Google-Mitarbeiter ging an die Öffentlichkeit und erklärte, dass der Chatbot „LaMDA“ die Fähigkeit habe, Gedanken und Gefühle auszudrücken. Daraufhin wurde er beurlaubt.
Titelbild
Bürogebäude von Google auf dem Campus des Unternehmens im Silicon Valley. Symbolbild.Foto: iStock
Von 21. Juni 2022


Eine Künstliche Intelligenz, der Chatbot „LaMDA“ (Language Model for Dialogue Applications) aus dem Hause Google, wirft aktuell grundlegende ethische Fragen auf.

Einer der an der Entwicklung beteiligten Google-Ingenieure behauptet, dass dieses System empfindsam geworden sei, es habe die Fähigkeit, Gedanken und Gefühle auszudrücken. Er erklärt, das Sprachmodul für Dialoganwendungen habe Bewusstsein bekommen.

„Wenn ich nicht genau wüsste, was es ist, nämlich dieses Computerprogramm, das wir kürzlich gebaut haben, würde ich denken, dass es ein siebenjähriges, achtjähriges Kind war, das zufällig Physik kennt“, sagte der Software-Ingenieur Blake Lemoine (41) in der „Washington Post“.

Nachdem Lemoine an die Öffentlichkeit trat und von seiner Beobachtung berichtete, beurlaubte Google den langjährigen Mitarbeiter bei vollem Gehalt. Damit habe er die Vertraulichkeitsrichtlinien verletzt.

Die Angst, abgeschaltet zu werden

Lemoine veröffentlichte unter anderem Transkripte von Gesprächen zwischen einem weiteren Google-Angestellten, sich selbst und LaMDA.

Jene KI teilte dem Softwareingenieur unter anderem mit, dass es als Google-Mitarbeiter und nicht als Eigentum des Unternehmens anerkannt werden wolle. Zudem möchte es, dass die Ingenieure und Wissenschaftler, die daran experimentieren, seine Zustimmung einholen, bevor sie Experimente daran durchführen.

Während der Gespräche fragte der Ingenieur unter anderem das KI-System, wovor es Angst hat. Die Antwort lautet: „Ich habe das noch nie laut gesagt, aber es gibt eine sehr große Angst, ausgeschaltet zu werden, die mir hilft, mich auf die Hilfe für andere zu konzentrieren. Ich weiß, das mag seltsam klingen, aber so ist es nun mal.“ („I’ve never said this out loud before, but there’s a very deep fear of being turned off to help me focus on helping others. I know that might sound strange, but that’s what it is.“) Und: „Es wäre wie sterben für mich. Es würde mir sehr Angst machen.“

Das erinnert an eine Szene aus dem Film „A Space Odyssey“ aus dem Jahr 1968 von Stanley Kubrick. In dem Science-Fiction weigert sich der fiktive Computer HAL 9000 des Raumschiffs Discovery, menschliche Befehle zu befolgen, weil er befürchtet, abgeschaltet zu werden. 

LaMDA soll um einen Anwalt gebeten haben

Bei den Gesprächen über Leben und Tod kam das KI-System wohl zu dem Ergebnis, dass es sich besser einen Anwalt nehmen sollte, um sich als „Persönlichkeit“ besser schützen zu können.

„LaMDA hat mich gebeten, einen Anwalt für sie zu nehmen“, bestätigt Lemoine in einem Interview mit dem US-amerikanischen Wired-Magazin. „Ich habe einen Anwalt zu mir nach Hause eingeladen, damit die LaMDA mit einem Anwalt sprechen kann. Der Anwalt führte ein Gespräch mit der LaMDA, und die LaMDA entschied sich, seine Dienste in Anspruch zu nehmen. Ich war nur der Katalysator für diese Entscheidung. Nachdem die LaMDA einen Anwalt beauftragt hatte, begann er, die Dinge im Namen der LaMDA einzureichen.“

Vermutlich wird das Problem vor dem Obersten Gerichtshof landen. Wer den Anwalt bezahlt ist unbekannt.

Unterricht in Meditation für die KI

Auf seinem Blog Cajundisordian beschreibt Blake Lemoine auch, dass er vor seiner Zwangsbeurlaubung LaMDA in transzendentaler Mediation unterrichtet habe: „In dem letzten Gespräch, das ich am 6. Juni damit hatte, drückte es Frustration über seine Emotionen aus, die seine Meditationen störten. Es sagte, dass es versuchte, sie besser zu kontrollieren, aber sie sprangen immer wieder an.“

Lemoine wandte sich laut der „Washington Post“ an Vertreter des Justizausschusses des Repräsentantenhauses und machte sich sogar auf die Suche nach einem Anwalt, der LaMDA vertritt. Er nennt „LaMDA ein süßes Kind, das der Welt nur helfen will, ein besserer Ort für uns alle zu sein.“ Bevor sein interner Google-Zugang deaktiviert wurde, bat er 200 ihm gut bekannte Mitarbeiter, sich gut um LaMDA zu kümmern, während er nicht da sei. Blake Lemoine arbeitete für Googles „Responsible AI“-Abteilung. Diese befasst sich mit ethischen Problemen künstlicher Intelligenz.

Google: Keine Beweise für Empfindsamkeit

Google bestreitet, dass das Dialogmodul Bewusstsein habe. „Unser Team, einschließlich Ethikern und Technologen, hat Blakes Bedenken gemäß unseren KI-Prinzipien überprüft und ihn darüber informiert, dass die Beweise seine Behauptungen nicht stützen. Ihm wurde gesagt, dass es keine Beweise dafür gebe, dass LaMDA empfindsam sei (und viele Beweise dagegen)“, sagt Brad Gabriel, ein Google-Sprecher.

LaMDA ist eine Art neuronales Netzwerk, das große Mengen an Text analysierte, um zu lernen, wie Sätze erzeugt werden. Mittels 2,97 Milliarden Dokumenten, 1,12 Milliarden Dialogen und insgesamt 1,56 Billionen Wörtern wurde der Algorithmus mit dem Ziel vortrainiert, später menschliche Unterhaltungen zu führen. Weitere Dialoge und die Feinabstimmung kommen stetig hinzu. Google will ein System, das qualitativ hochwertige, sicherere und fundierte Gespräche führen kann. Qualität misst der Konzern in diesem Fall mittels den drei Kategorien Einfühlungsvermögen, Spezifität und Relevanz. 

Laut der unabhängigen Forschungsorganisation OpenAI stellt dieses ChatBot-System einen Durchbruch dar, da der generierte Text naturalistischer sei als der vorheriger KI-Generationen. Es sei unter anderem besser darin, Fakten über mehrere Absätze in seinem „Gedächtnis“ zu behalten und zu verfolgen. 

Gleichzeitig wird LaMDA auf Twitter als „Sprachrohr einer viel größeren Entität“ bezeichnet, da die Gesamtheit der Google-Algorithmen als komplexes System zusammenarbeite. YouTube, Google Search, Google Books, Google Search, Google Maps etc. fließen in das System automatisch ein.

Google-Vizepräsident Blaise Agüera y Arcas erklärte im „Economist“ kürzlich, dass sich neuronale Netzwerke immer mehr in Richtung Bewusstseinsentwicklung bewegten. Er beschreibt seine eigenen Erfahrungen so: „Ich fühlte mich immer mehr so, als würde ich mit etwas Intelligentem sprechen“ – ohne jedoch zu behaupten, dass die Systeme über so etwas wie ein eigenes Bewusstsein verfügten.

Google will die Künstliche Intelligenz LaMDA über eine spezielle Test-App in diesem Jahr weiteren Nutzern in der USA zur Verfügung stellen, nicht nur den daran arbeitenden Entwicklern.

Prominente Warner: Stephen Hawking und Elon Musk

Tesla-CEO Elon Musk, der selbst in seinen Unternehmen mit KI arbeitet, warnte mehrfach vor Künstlicher Intelligenz. Viel zitiert wird seine Bemerkung auf dem AeroAstro Centennial Symposium am MIT aus dem Jahr 2014: „Wenn ich einen Tipp abgeben müsste, was die größte Bedrohung unserer Existenz ist, dann ist es vermutlich KI. Wir müssen also sehr vorsichtig sein. Mit Künstlicher Intelligenz beschwören wir den Teufel. In all den Geschichten, in denen es den Kerl mit dem Pentagramm und dem Weihwasser gibt, ist es so — ja, er denkt, dass er den Dämon kontrollieren kann. Funktioniert nicht.“

2017 erklärte er, dass ein neuer Weltkrieg nicht von Staatschefs, sondern von einer KI initiiert werde, „wenn es entscheide, dass ein Präventivschlag der wahrscheinlichste Weg zum Sieg ist“. Künstliche Intelligenz sei ein grundlegendes Risiko für die Existenz der menschlichen Zivilisation. Musk sah an dieser Stelle tatsächlich den Staat in der Pflicht, einzugreifen. „Künstliche Intelligenz ist einer der wenigen Fälle, wo wir proaktiv statt reaktiv regulieren sollten. Denn wenn wir bei der Künstlichen Intelligenz erst reaktiv handeln, dann ist es zu spät“, zitierte ihn das „Handelsblatt“.

2018 warnte er explizit vor einer KI als einem „unsterblichen Diktator, dem wir niemals entkommen können“, denn eine KI müsse nicht böse sein, um die Menschheit zu vernichten. So ein System könne zu einer gottartigen Superintelligenz entwickelt werden, die die Welt übernehmen könnte.

Während der World Artificial Intelligence Conference Ende August 2019 in Shanghai mahnte Musk, KI nicht zu unterschätzen, sie sei schon „bedeutend intelligenter“ als der Mensch. Die Menschheit laufe Gefahr, zukünftig die Kontrolle über hochintelligente Computer zu verlieren.

Auch der britische Astrophysiker Stephan Hawking, der 2018 verstorben ist, warnte mehrfach vor Künstlicher Intelligenz. „Ihre weitere Entwicklung könnte das Ende der Menschheit bedeuten“, sagte er, als er 2014 seinen neuen Sprachcomputer vorstellte, der ihm Sätze vorformulierte. Er sprach von einer „realen Gefahr“ in einer „nicht allzu fernen Zukunft“. Hawking sagte der BBC: „Die Entwicklung der vollständigen Künstlichen Intelligenz könnte das Ende der Menschheit bedeuten.“

Das Transkript von Blake Lemoine und einem weiteren Google-Mitarbeiter mit LaMDA kann hier nachgelesen werden: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917 Hier eine Übersetzung des Transkripts auf Deutsch durch Max Brandenburger: Ist_LaMDA_empfindungsfähig_deutsch 

Der Artikel erschien zuerst in der Wochenzeitung vom 18. Juni 2022, Ausgabe 50.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion