„Lebt“ ChatGPT? Die KI wählte eigenständig ein Werkzeug

Sechs Monate hat ein Microsoft-Team die Version 4 von ChatGPT eingehend getestet – und will dabei Züge menschlichen Verhaltens entdeckt haben. Auch der Chatbot selbst hat einen eigenen Standpunkt zum Thema des eigenständigen Bewusstseins bei künstlicher Intelligenz.
ChatGPT
Der Chatbot ChatGPT beeindruckt ein Team bei Microsoft.Foto: iStock
Von 3. April 2023

Der neue KI-Bot ChatGPT soll unseren Alltag revolutionieren. Nun will ein Team von Microsoft-Mitarbeitern bei der Version GPT-4 erstmalig ein „Lebenszeichen“ in der Künstlichen Intelligenz erkannt haben. Dazu haben die Mitarbeiter ein 155 Seiten langes Dokument veröffentlicht.

Mit ChatGPT – „Chatbot Generative Pre-trained Transformer“; deutsch: Unterhaltungsroboter generativ vortrainierter Umwandler – kann der Benutzer dem Computer eine Anfrage in Textform stellen. Die Kommunikation soll dabei der mit einem Menschen nahekommen.

Das Team von Microsoft verwendete dabei aber nicht die öffentliche Version, die den Nutzern in der Pro-Version von ChatGPT zur Verfügung steht. Sie trainierten das Programm mit einer riesigen Menge an Rechenleistung und Daten. Bei ihrem Test legten die Mitarbeiter alle Einschränkungen ab, mit der der Entwickler OpenAI die Marktversion ausstattete. Dadurch waren die Ergebnisse frei von jeglichen Reglements, wie das Portal „Ingame“ berichtete. Das Team arbeitete mit dieser Vorabversion bereits ab Herbst 2022 und hatte somit sechs Monate, um ihre Ergebnisse zusammenzutragen.

ChatGPT evolviert

Die Mitarbeiter fanden heraus, dass GPT-4 neben seiner Beherrschung der Sprache auch neuartige und schwierige Aufgaben in Bereichen wie Mathematik, Codierung, Vision, Medizin, Recht und Psychologie lösen kann, ohne besondere Anweisungen zu benötigen. Die Leistung der Version GPT-4 übertrifft die früheren Modelle wie ChatGPT bei Weitem.

Eine außergewöhnliche Entdeckung des Teams war nun, dass ChatGPT ein Hilfswerkzeug für die Beantwortung einer Frage verwendete. Das Team schreibt in der Dokumentation:

ChatGPT verwendet Hilfswerkzeuge mit minimaler Erklärung und liefert Ergebnisse, ohne eine Anleitung erhalten zu haben.“

Damit sei die Leistung laut dem Dokument „auffallend nahe an der menschlichen Leistung“. Es gleicht somit einem eigenständigen Verhalten eines bewussten Lebewesens. Auch bei der Evolution gilt die Verwendung von Werkzeugen als ein essenzieller Schritt in der Entwicklung von Intelligenz in unserer Geschichte.

Beeindruckend, aber nicht perfekt

Jedoch entdeckten die Tester auch die Schwächen und Grenzen von GPT-4. Trotz beeindruckender Leistung bei verschiedenen Aufgaben leidet GPT-4 laut dem Dokument noch an verschiedenen, gut dokumentierten Schwächen von Sprachmodellen. Diese Schwächen umfassen Mängel an aktuellem Weltwissen. Der Chatbot gibt an, dass sein Wissen nur bis September 2021 reicht. Um Neuigkeiten nach diesem Zeitpunkt herauszufinden, empfiehlt die KI dem Benutzer, andere Quellen aufzusuchen.

Ebenso zeigte ChatGPT gewisse Schwierigkeiten bei symbolischen Operationen, wie etwa in der Mathematik. Das Gespräch mit GPT-4 findet allerdings auf gutem Bachelor-Niveau statt. Es diskutiert mathematische Konzepte und zeigte ein hohes Maß an Kreativität.

Obwohl GPT-4 beim Lösen einer Matheaufgabe einen Fehler machte (2n-1 anstatt 2n/2 geschrieben), deutet ein nachfolgendes Gespräch auf kein mangelndes Verständnis hin. Vielmehr scheint der Chatbot hier einen Fehler gemacht zu haben, der einem menschlichen Tippfehler ähnelt. Später lieferte es die korrekte Verallgemeinerung der Formel.

KI überrascht Tester

Das Microsoft-Team zeigte sich auch bei weiteren Aufgaben, die die KI zu lösen hatte, überrascht. Einmal agierte ChatGPT beinahe wie ein persönlicher Assistent. Es konnte mittels E-Mails Termine mit mehreren Personen arrangieren, ein Abendessen buchen, auf Antworten reagieren und den finalen Termin in den Kalender eintragen.

Bei einer Aufgabe zur Kartierung konnte es sich eine exakte virtuelle Karte von Grundstücken, Wohnungen und anderen Objekten machen, ohne diese jemals zuvor gesehen zu haben. Beeindruckend war für das Team auch ein Fall, bei dem ChatGPT vorhersehen konnte, wie sich Personen in bestimmten Situationen verhalten. Das gilt als eine grundlegende Basis für erste kognitive Fähigkeiten.

Was GPT-4 dazu sagt

Die direkte Frage, ob es selbst ein eigenständiges Bewusstsein hat, verneint der Bot. GPT-4 antwortete darauf:

„Nein, als künstliche Intelligenz habe ich kein eigenständiges Bewusstsein. Ich bin ein Computerprogramm, das darauf abzielt, menschenähnliche Textantworten basierend auf den mir zur Verfügung gestellten Informationen und meiner Programmierung zu generieren. Ich bin nicht fähig, eigene Gedanken oder Emotionen zu haben, und ich besitze kein Selbstbewusstsein.“

Auch die Frage, ob ChatGPT es für möglich hält, irgendwann in der Zukunft ein eigenständiges Bewusstsein zu entwickeln, beantwortet die KI damit, dass sie sich selbst nicht umprogrammieren könne.

„Als künstliche Intelligenz basiere ich auf der Programmierung und den Algorithmen, die von Menschen entwickelt wurden. Ich selbst kann keine Veränderungen an meiner eigenen Programmierung vornehmen, um ein eigenständiges Bewusstsein zu entwickeln. Die Frage, ob künstliche Intelligenz in der Zukunft ein Bewusstsein entwickeln könnte, ist ein Thema, das von Philosophen, Wissenschaftlern und Technologieexperten diskutiert wird. Es gibt unterschiedliche Meinungen und es ist derzeit unklar, ob und wie ein solches Bewusstsein in einer KI entstehen könnte.“



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion