Vater von ChatGPT: „KI regulieren wie Atomwaffen“
Der Gründer von OpenAI, Sam Altman, hat sich in der Vorwoche Forderungen nach einer verbindlichen Regulierung von Künstlicher Intelligenz (KI) angeschlossen. Sein Unternehmen, in das Microsoft bereits 13 Milliarden US-Dollar investiert haben soll, hat Ende November ChatGPT vorgestellt. Der Chatbot, der auf Grundlage generativer KI operiert, hat innerhalb von nur zwei Monaten weltweit 100 Millionen Nutzer erreicht.
Chef von OpenAI fordert „globale Kontrollinstanz“ für KI
Der Erfolg des Bots hat nicht nur einen Wettlauf im Bereich generativer KI unter Großkonzernen ausgelöst. IT-Größen und Unternehmer wie Elon Musk haben Bedenken geäußert, eine nicht regulierte KI könnte ein unkontrollierbares Eigenleben entwickeln. Sie könne zum Sicherheitsrisiko werden und zum Instrument für Kriminelle und Terroristen. Außerdem könne sie den menschlichen Arbeitsmarkt erschüttern.
Goldman Sachs präsentierte im März eine Untersuchung, in der es hieß, generative KI könne weltweit „300 Millionen Arbeitsplätze der Automatisierung aussetzen“. Dies bedeute, dass diese dem Abbau unterliegen oder KI-Systeme sie ersetzen könnten.
Wie das „Handelsblatt“ berichtet, hat nun auch OpenAI-Chef Sam Altman eine strenge Regulierung von KI gefordert. Künstliche Intelligenz entfalte ein derartiges Machtpotenzial, dass es einer „globalen Kontrollinstanz“ bedürfe.
Aufgaben sollen ähnlich sein wie jene der IAEA
Während der Jahreskonferenz des Zahlungsabwicklers Stripe in San Francisco erklärte Altman am Mittwoch, 3. Mai:
Ich würde mir etwas Vergleichbares zur Atomenergiebehörde für Künstliche Intelligenz wünschen.“
Diese habe immerhin dazu beigetragen, dass es seit 1945 nicht mehr zu einem Einsatz von Atombomben als Waffe gekommen sei. Das habe „damals wohl kaum jemand für möglich gehalten“, äußerte Altman.
Zu den zentralen Aufgaben der IAEA gehört es unter anderem, Sicherheitsstandards für den Umgang mit nuklearem Material aufzustellen. Zudem überprüft die Einrichtung die Einhaltung dieser Standards und trägt Sorge dafür, dass die Technologie nicht zu militärischen Zwecken eingesetzt werde.
AGI schon Ende der 2030er? Experten zurückhaltend
Altman erklärte während der Konferenz, es sei bis Ende der Dekade mit dem Entstehen einer „Artificial General Intelligence“ (AGI) zu rechnen. Darunter sei eine KI zu verstehen, die in der Lage sei, jede intellektuelle Aufgabe verstehen und meistern zu können, zu der auch ein Mensch fähig ist. Ein solches System könne den wissenschaftlichen Fortschritt dramatisch beschleunigen, erklärte der OpenAI-Chef.
Andere Experten sind diesbezüglich mit ihren Einschätzungen hingegen zurückhaltender. Kristian Kersting, Professor für Machine Learning und KI an der TU Darmstadt, hält derzeit bestehende KI-Systeme sogar eher für „zu dumm“ als zu leistungsfähig.
ChatGPT und Co. seien zwar brillant in jenen Bereichen, auf die man sie trainiert habe. In ungewöhnlichen Kontexten seien sie jedoch schnell überfordert. Nutzer von ChatGPT können diese Einschätzung häufig bestätigen: In gut erschlossenen Bereichen wird die Qualität des Outputs umso besser, je präziser der Input („Prompt“) formuliert ist. OpenAI bietet dazu derzeit sogar unentgeltlich einen temporären Onlinelehrgang an.
Vor allem dort, wo Verwender mit wenig alltäglichen oder zu speziellen Fragen an den Bot herantreten, begnügt dieser sich jedoch mit Allgemeinplätzen oder erfindet sogar Angaben.
OpenAI will perspektivisch „weg vom reinen Chatbot“
Derzeit arbeitet unter anderem die EU an einem Regulativ zur Nutzung von KI. Ein vorliegender Entwurf definiert etwa KI zur Personalgewinnung oder zum Betrieb kritischer Infrastruktur als „hochriskant“. Wer mit solchen Systemen operiere, den sollen besonders hohe Anforderungen zu deren Überwachung und Kontrolle treffen. In Systemen mit geringeren Risikoeinschätzungen sollen diese Vorgaben weniger engmaschig sein.
Altman sieht für ChatGPT vor allem in den Bereichen Bildung und Interaktion mit anderen KI-Systemen Potenziale. Perspektivisch wolle auch OpenAI vom reinen Chatbot wegkommen.
Auf der jüngsten Hannover-Messe war der Einsatz von KI in der Industrieproduktion ein zentrales Thema. Dabei ging es unter anderem um Bereiche wie Qualitätskontrolle, Prozessoptimierung oder die Entwicklung angepasster Programmcodes.
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion