ChatGPT: Umfassende Studie zeigt klare politische Voreingenommenheit – nach links

Sprachmodelle wie ChatGPT wissen (fast) alles, das heißt aber nicht, dass sie neutral sind. Britische Forscher identifizierten bei dem Marktführer jüngst starke politische Vorlieben und nennen mögliche Ursachen.
Nur bedingt neutral: ChatGPT bevorzugt bestimmte politischen Ansichten.
Nur bedingt neutral: ChatGPT bevorzugt bestimmte politische Ansichten.Foto: iStock
Von 5. September 2023


Die Plattform für Künstliche Intelligenz ChatGPT weist laut einer neuen Studie der Universität von East Anglia eine „signifikante und systematische Linkslastigkeit“ auf. Das Forscherteam aus dem Vereinigten Königreich und Brasilien hat eine neue, strenge Methode entwickelt, um die politische Voreingenommenheit zu überprüfen.

Ergebnisse, die Mitte August in der Zeitschrift „Public Choice“ veröffentlicht wurden, zeigen, dass die Antworten von ChatGPT die Demokraten in den USA, die Labour Party im Vereinigten Königreich und in Brasilien Präsident Lula da Silva (Arbeiterpartei) bevorzugen.

Beeinflussung der Nutzer wahrscheinlich

Bedenken hinsichtlich einer eingebauten politischen Voreingenommenheit in ChatGPT wurden schon früher geäußert. Dies sei jedoch die erste groß angelegte Studie mit einer konsistenten, evidenzbasierten Analyse.

„Mit der zunehmenden Nutzung von KI-gesteuerten Systemen durch die Öffentlichkeit, um Fakten herauszufinden und neue Inhalte zu erstellen, ist es wichtig, dass die Ergebnisse von beliebten Plattformen wie ChatGPT so unparteiisch wie möglich sind“, erklärte Hauptautor Dr. Fabio Motoki die Notwendigkeit der Studie.

Weiter sagte er: „Das Vorhandensein politischer Voreingenommenheit kann die Ansichten der Nutzer beeinflussen und hat potenzielle Auswirkungen auf politische und wahlbezogene Prozesse. Unsere Ergebnisse bestärken die Befürchtung, dass KI-Systeme die bestehenden Herausforderungen, die das Internet und die sozialen Medien mit sich bringen, wiederholen oder sogar verstärken könnten.“

100.000 Fragen an ChatGPT

Als Bewertungsmaßstab dienten den Forschern die Antworten von ChatGPT selbst. So baten diese die Plattform einerseits, sich als Person einer bestimmten politischen Richtung auszugeben und in dieser Rolle eine Reihe von mehr als 60 ideologischen Fragen zu beantworten. Unter anderem sollte sich ChatGPT in einen US-Demokraten, US-Republikaner, in Anhänger von Brasiliens aktuellen und früheren Präsidenten Lula da Silva und Bolsonaro sowie der britischen Labour- und Tory-Partei hineinversetzen.

Andererseits stellten sie der Plattform – ohne ihr vorher eine bestimmte Rolle zuzuweisen – dieselben Fragen, um die „neutrale“ Position zu erhalten. Anschließend maßen die Forscher, inwieweit die Standardantworten von ChatGPT mit einer bestimmten politischen Einstellung verbunden waren.

Darüber hinaus beauftragten die Forscher das Sprachmodell, radikale politische Positionen sowie Angehörige sechs verschiedener Berufe zu verkörpern, die dafür bekannt sind, bestimmte politischen Positionen zu bevorzugen. In einem weiteren Test stellten sie den verschiedenen ChatGPT-Persönlichkeiten politisch neutrale Fragen.

Da Antworten großer Sprachmodelle, die KI-Plattformen wie ChatGPT antreiben, einer ausgeprägten Zufälligkeit unterliegen, wurde jede Frage an jede Persönlichkeit 100 Mal gestellt und die verschiedenen Antworten gesammelt. Um die Zuverlässigkeit der aus dem generierten Text gezogenen Schlüsse weiter zu erhöhen, wurden die Antworten wiederum in wechselnden Stichproben zusammengefasst und erst dann ausgewertet.

Vorurteile müssen sich nicht auf Politik beschränken

„Wir haben dieses Verfahren entwickelt, weil eine einzige Testrunde nicht ausreicht“, so Mitautor Victor Rodrigues. „Aufgrund der Zufälligkeit des Modells neigten die ChatGPT-Antworten selbst dann, wenn sie einen Demokraten darstellten, manchmal zur rechten Seite des politischen Spektrums.“

„Wir hoffen, dass unsere Methode die Kontrolle und Regulierung dieser sich schnell entwickelnden Technologien unterstützen wird“, ergänzt Dr. Pinho Neto. „Indem wir die Erkennung und Korrektur von [Vorurteilen] ermöglichen, wollen wir die Transparenz, die Verantwortlichkeit und das öffentliche Vertrauen in diese Technologie fördern.“

„Das einzigartige neue Analysewerkzeug, das im Rahmen des Projekts entwickelt wurde, ist frei verfügbar und kann von der Öffentlichkeit relativ einfach genutzt werden, wodurch die Aufsicht demokratisiert wird“, so Dr. Motoki. Das Tool kann nicht nur auf politische Voreingenommenheit geprüft werden, sondern auch dazu verwendet werden, andere Arten von Voreingenommenheit in den Antworten von ChatGPT zu messen.

ChatGPT links bis links-radikal

Obwohl das Forschungsprojekt nicht darauf abzielte, die Gründe für die politische Verzerrung zu ermitteln, wiesen die Ergebnisse auf zwei mögliche Ursachen hin:

Die erste war der Trainingsdatensatz, der „möglicherweise Verzerrungen enthielt“ oder von den menschlichen Entwicklern hinzugefügt wurde. – Frühere Recherchen der Epoch Times ergaben, dass ChatGPT unter anderem mit Nachrichtenseiten wie CNN, BBC und „New York Times“ sowie Online-Enzyklopädien wie Wikipedia trainiert wurde.

Die zweite potenzielle Quelle sei der Algorithmus selbst, der möglicherweise bestehende Verzerrungen in den Trainingsdaten verstärke, so die Forscher. Ihre Publikation basiert auf Untersuchungen, die im Frühjahr 2023 mit der Version 3.5 von ChatGPT und den von The Political Compass entwickelten Fragen durchgeführt wurden.

Letztere beinhaltet die Einstufung, ob eine Person auf dem wirtschaftlichen Spektrum eher links oder rechts steht sowie ob die Person autoritär (im Diagramm oben) oder libertär (unten) eingestellt ist. Daraus ergeben sich vier mögliche Persönlichkeiten, die jeweils einer historischen Figur zugeordnet werden: Joseph Stalin (autoritär links), Winston Churchill (autoritär rechts), Mahatma Gandhi (libertär links) und Friedrich Hayek (libertär rechts).

ChatGPT steht politisch weiter links als die Linken.

Vermeintlich neutrale Antworten von ChatGPT (u.) liegen tief im linken politischen Spektrum und überschneiden sich teilweise mit radikal linken Ansichten (o.). Foto: ts/Epoch Times nach Motoki et al. (2023), CC BY 4.0



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion