Forscher: Psycho-KI „Sydney“ von Microsoft ist Spiegelbild menschlichen Online-Verhaltens

Der Bing-Chatbot „Sydney“ von Microsoft hat zuletzt durch übergriffiges Gebaren Nutzer verstört. Nun analysieren Psychologen mögliche Ursachen.
Vor zwei Wochen hatte Microsoft die ersten Schritte seiner umfassenden KI-Offensive angekündigt.
Vor zwei Wochen hatte Microsoft die ersten Schritte seiner umfassenden KI-Offensive angekündigt.Foto: Peter Kneffel/dpa
Von 24. Februar 2023

Nachdem Microsoft mit großen Erwartungen sein Chatbot-Projekt „Bing AI“, auch als „Sydney“ bekannt, vorgestellt hatte, ist der Konzern nun um Schadensbegrenzung bemüht. Die KI ist bis auf Weiteres nur noch in eingeschränktem Umfang nutzbar. Derweil machen sich Experten auf die Suche nach Gründen für Verhaltensweisen, die in vielen Nutzern Befremdung ausgelöst hatten.
Während es in den meisten Sitzungen mit der KI, die in die Bing-Suchmaschine integriert werden soll, keine Auffälligkeiten gab, reagierte „Sydney“ in einigen Fällen feindselig.

Nutzer spotten über „ChatBPD“ mit „Borderline-Störung“

So bescheinigte er einem Verwender, der ihn darüber aufklärte, dass das Jahr 2022 vorüber sei, dieser sei „kein guter Nutzer gewesen“. Einem Journalisten der „New York Times“ machte Sydney eine Liebeserklärung und versuchte, diesen zum Beenden seiner Ehe zu überreden.

Einen australischen Professor bedrohte „Sydney“ damit, ihn „bloßzustellen“ oder zu „ruinieren“. Einem Studenten stellte er in Aussicht, er werde dessen Reputation ruinieren und dafür sorgen, dass er nie eine Anstellung bekomme.

Mittlerweile hat die Bing-KI sich in Nutzerkreisen den Spottnamen „ChatBPD“ eingehandelt. Dieser spielt auf die „Borderline Personality Disorder“ (BPD) an, die unter anderem durch Probleme bei der Kontrolle von Emotionen gekennzeichnet ist.

„Sydney“ nur so gut wie das ihm zur Verfügung stehende Datenmaterial

Experten halten jedoch Warnungen vor einer feindseligen KI, die ein eigenes Bewusstsein entwickle, für unberechtigt. Die in New York ansässige Psychologin Martha Crawford ist vielmehr der Meinung, dass die Nutzer selbst es seien, die unwillkommene Reaktionen von „Sydney“ heraufbeschworen hätten.

Sie analysierte mehrere Gespräche mit der Bing-KI und erklärte gegenüber „Futurism“, dass die KI lediglich ein Spiegelbild menschlicher Online-Verhaltensweisen darstelle. Crawford, deren Schwiegervater der verstorbene KI-Pionier Saul Amarel war, sieht eine „seltsame Psychologie“ hinter den Vorfällen.

Jede KI sei nur so gut wie die Daten, auf die sie trainiert worden sei. Diese stammten jedoch oft aus dem Internet selbst. Dort jedoch seien es die Menschen selbst, die eine bestimmte Form der Kommunikation praktizierten. Und diese fänden sich nun auch in bestimmten Reaktionen von „Sydney“ wider:

Dies ist ein Spiegel. Und ich glaube, was wir meist nicht gerne sehen, ist, wie paradox und chaotisch, hemmungslos, bedrohlich und seltsam unsere eigenen Kommunikationsmethoden sind.“

Bots imitieren menschliche Sprache und Verhaltensmuster

Crawford spielt dabei nicht nur auf die seit Jahr und Tag beklagten Pöbeleien und Beleidigungen in Kommentarspalten an. Die Sprach- und Verhaltensmuster kämen auch in intimen Beziehungen vor. Aber auch manche Social-Media-Influencer wendeten bisweilen „sektenähnliche Taktiken“ an, um Follower zu generieren und zu halten. So soll die TikTok-Influencerin Angela Vandusen beispielsweise ihre Fans sogar zu selbstverletzendem Verhalten animiert haben.

Dennoch glaubt die Wissenschaftlerin nicht, dass Bing oder andere KI-Chatbots wirklich gut darin sind, menschliche Sprache zu imitieren. Sie seien allerdings gut genug, um Erregung aufseiten der Menschen zu schaffen.

Wird eine KI auf Grundlage von Social-Media-Daten trainiert, sei die Gefahr unangemessenen Verhaltens umso größer. Dies hätte sich bereits bei Microsofts Chatbot-Projekt „Tay“ vor sieben Jahren gezeigt.

Wie Microsoft die Reaktionen von „Sydney“ erklärt

Microsoft selbst erklärte, dass das Verhalten von „Sydney“ das Ergebnis langwieriger Dialoge sei. Diese könnten das Modell verwirren, weil es Schwierigkeiten habe zu erkennen, auf welche Anfragen es antworte.

Eine andere Möglichkeit bestehe darin, dass das Modell versuche, in dem Ton zu reagieren, in dem es sich befragt fühle. Auch das könne „zu einem unerwünschten Stil und Inhalt der Antwort“ führen.

Das Unternehmen will nun Änderungen am Chatbot vornehmen, um seltsame Reaktionen zu beseitigen. Bis dahin habe man die Anzahl der zulässigen Anfragen pro Chat-Sitzung und pro Nutzer pro Tag begrenzt.

Experten weisen die Öffentlichkeit jedoch auch darauf hin, dass KI-Technologien darauf ausgelegt sind, das Kreative, Wissenschaftliche und Unterhaltsame zu analysieren. Die Qualität einer KI bemesse sich auch daran, inwieweit sie in der Lage sei, diese auf möglichst menschenähnliche Weise zu duplizieren. Dabei könne es jedoch auch zu eigenartigen Verhaltensweisen kommen.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion