Nach Erfolg von ChatGPT: Elon Musk und weitere CEOs fordern Nachdenkpause bei KI

Der Erfolg des Bots ChatGPT hat Elon Musk und weitere IT-Größen zu einem offenen Brief motiviert. Darin fordern sie verbindliche Spielregeln für KI.
Mit dem Chatbot ChatGPT kann man sich im Internet nicht nur unterhalten. Er verfasst mithilfe Künstlicher Intelligenz (KI) auf Kommando auch Aufsätze, Gedichte, Briefe und alle möglichen anderen Texte.
Mit dem Chatbot ChatGPT kann man sich im Internet nicht nur unterhalten. Er verfasst mithilfe künstlicher Intelligenz (KI) auf Kommando auch Aufsätze, Gedichte, Briefe und alle möglichen anderen Texte.Foto: Karl-Josef Hildenbrand/dpa
Von 30. März 2023


Tesla-CEO Elon Musk und bislang mehr als 1.000 weitere Investoren und Experten im IT-Bereich haben einen offenen Brief an Entwickler von künstlicher Intelligenz gerichtet. Darin fordern sie in Anbetracht der dynamischen Entwicklung von ChatGPT und anderen Projekten eine Nachdenkpause. Die Labore, die an KI arbeiten, sollen demnach innehalten und sich mit Fragen zu Sicherheit und möglichen Risiken auseinandersetzen.

GPT-4 reicht bereits an akademisches Niveau heran

Initiiert hat das Schreiben das „Future of Life Institute“. Unterschrieben haben neben Elon Musk unter anderem Apple-Mitgründer Steve Wozniak oder Ex-Präsidentschaftskandidat Andrew Yang. Die Unterzeichner fordern unter anderem eine mindestens sechsmonatige Unterbrechung des Trainings von KI-Systemen, die leistungsfähiger seien als GPT-4.

Elon Musk hat bereits zuvor mehrfach vor den Risiken unkontrollierter KI gewarnt. Zuletzt sprach er sich dafür aus, Sicherheitsprotokolle von unabhängigen Aufsichtsbehörden entwickeln zu lassen, um die Zukunft der KI-Systeme zu steuern.

KI-Systeme mit einer dem Menschen ebenbürtigen Intelligenz könnten „tiefgreifende Risiken für die Gesellschaft und die Menschheit darstellen“, heißt es in dem Schreiben weiter. GPT-4, das aktuelle Deep-Learning-Modell von OpenAI, kommt den Angaben des Labors diesem Standard bereits ziemlich nahe. Es weise bei verschiedenen professionellen und akademischen Benchmarks eine Leistung auf menschlichem Niveau auf.

Handlungsbedarf mit Blick auf besonders leistungsfähige KI

Fortgeschrittene KI könnte, so heißt es in dem Schreiben weiter, „einen tiefgreifenden Wandel in der Geschichte des Lebens auf der Erde darstellen“. Entsprechend sei es wichtig, diese mit entsprechender Sorgfalt und entsprechenden Ressourcen zu planen und zu verwalten.

Eine solche Planung und Verwaltung finde jedoch nicht statt. Dies, obwohl sich die KI-Labore zuletzt „in einem außer Kontrolle geratenen Wettlauf um die Entwicklung und den Einsatz immer leistungsfähigerer digitaler Köpfe befanden“. Diese könne aber „niemand – nicht einmal ihre Erfinder – verstehen, vorhersagen oder zuverlässig kontrollieren“.

Die Unterzeichner nennen Bedenken wie jene, dass „Maschinen unsere Informationskanäle mit Propaganda und Unwahrheiten überfluten“ könnten. Aber auch Fragen wie jene tauchen auf, ob „wir alle Jobs automatisieren [sollen], auch die erfüllenden“. Zudem könnte man „nicht-menschliche Intelligenzen entwickeln, die uns irgendwann zahlenmäßig überlegen sein, und überlisten, überflüssig machen und ersetzen könnten“.

Die Entscheidung, ob „wir den Verlust der Kontrolle über unsere Zivilisation riskieren“ sollten, dürfe nicht „nicht gewählten Technikern“ überlassen sein.

Sam Altman nicht unter den Unterzeichnern

Künftig sollten leistungsstarke KI-Systeme deshalb erst entwickelt werden, wenn „wir sicher sind, dass ihre Auswirkungen positiv und ihre Risiken überschaubar sind“. Auch OpenAI selbst habe sich jüngst für eine unabhängige Überprüfung im Vorfeld des Trainings künftiger Systeme ausgesprochen.

Das Entwicklerunternehmen von ChatGPT hatte auch Vereinbarungen für die am weitesten fortgeschrittenen Bemühungen angeregt. Diese sollten unter anderem die Wachstumsrate der für die Erstellung neuer Modelle verwendeten Daten begrenzen. Der CEO von OpenAI, Sam Altman, findet sich jedoch nicht unter den Unterzeichnern des offenen Briefes.

Was aber sagt der KI-Bot ChatGPT selbst zu den Thesen Musks und der übrigen Unterzeichner?

„Als ein KI-Sprachmodell habe ich keine persönlichen Gedanken oder Überzeugungen“, heißt es vonseiten des Bots auf Anfrage der Epoch Times. „Ich kann jedoch Informationen und Perspektiven zum Thema der KI-Entwicklung und ihrer möglichen Auswirkungen auf die Gesellschaft liefern.“

ChatGPT: „OpenAI ist sich der Risikopotenziale von KI bewusst“

Die in der Erklärung geäußerten Bedenken seien jedoch nicht neu und würden in der KI-Gemeinschaft und darüber hinaus umfassend diskutiert. Da KI-Systeme immer fortschrittlicher und leistungsfähiger würden, wachse die Erkenntnis, dass sie erhebliche und sogar unvorhersehbare Auswirkungen auf die Gesellschaft haben könnten. Dazu gehöre die Verdrängung von Arbeitsplätzen, die Verletzung der Privatsphäre und die Möglichkeit, dass KI-Systeme Schaden anrichteten.

Die von den Verfassern aufgestellten Forderungen seien ein möglicher Weg, um diese Bedenken auszuräumen, schrieb der Bot. OpenAI sei sich aber des Problems bewusst:

Es ist erwähnenswert, dass einige KI-Experten und Unternehmen bereits Schritte zur Entwicklung verantwortungsvoller KI unternommen haben. So hat beispielsweise OpenAI eine Richtlinie für die verantwortungsvolle Entwicklung und den Einsatz von KI verabschiedet. Die Partnership on AI ist ein Konsortium von Unternehmen und Organisationen, das sich auf die Förderung bewährter Verfahren für die Entwicklung und den Einsatz von KI konzentriert.“

Es bestehe jedoch nach wie vor Bedarf an umfassenderen und wirksameren Governance-Mechanismen für KI, so ChatGPT. Die Entwicklung solcher Mechanismen erfordere eine übergreifende Zusammenarbeit und Koordination. Diese müsse KI-Forscher, politische Entscheidungsträger und andere Interessengruppen involvieren.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion