KI-Hype um ChatGPT: „System kaum kritisch reflektiert“

Der Text-Roboter verblüfft mit seinen geschliffenen Dialogen und löst eine große Diskussion um das Thema künstliche Intelligenz aus. Wissenschaftler warnen aber vor Datenschutzlöchern und mehr.
Titelbild
Der Textroboter ChatGPT wirft viele Fragen auf.Foto: iStocks/Shutthiphong Chandaeng
Von 31. Januar 2023


Er kann mit einer hohen Sprachpräzision Reden ausarbeiten und Geschichten erzählen – und das auch noch in Sekundenschnelle. Der von der US-Firma OpenAI entwickelte Text-Roboter ChatGPT, eine Sprachsoftware mit künstlicher Intelligenz (KI), ist derzeit in aller Munde. Das mit gewaltigen Datenmengen gefütterte Programm sorgt für viel Aufsehen, aber auch für Skepsis.

Wissenschaftler und KI-Experten in Deutschland warnen vor Datenschutz- und Datensicherheitslücken, Hassparolen, Falschnachrichten. „Im Moment ist dieser Hype. Ich habe das Gefühl, dass man dieses System kaum kritisch reflektiert“, sagt die Gründerin des Forschungslabors „Leap in Time Lab“ und BWL-Professorin an der Technischen Universität Darmstadt, Ruth Stock-Homburg, gegenüber der Deutschen Presseagentur (dpa).

Manipulierbare Systeme

ChatGPT hat einen sehr breiten Anwendungsbereich. In einer Art Chatfeld kann man dem Programm unter anderem Fragen stellen und bekommt Antworten. Auch Arbeitsanweisungen sind möglich – beispielsweise auf Basis grundlegender Informationen einen Brief oder einen Aufsatz zu schreiben.

In einem Projekt zusammen mit der TU Darmstadt hat das „Leap in Time Lab“ nun über sieben Wochen Tausende Anfragen ohne persönliche Daten an das System gestellt, um Schwachstellen zu finden. „Man kann diese Systeme manipulieren“, sagt Stock-Homburg.

In einer Präsentation zeigt Sven Schultze, TU-Doktorand und Experte für Sprach-KI, die Schwachstellen des Text-Roboters. Neben antisemitischen und rassistischen Äußerungen sind Quellenangaben schlicht falsch oder laufen ins Leere. Bei einer Frage nach dem Klimawandel führt ein angegebener Link auf eine Internetseite zu Diabeteserkrankungen.

„In der Regel ist es der Fall, dass die Quellen oder auch wissenschaftliche Arbeiten gar nicht existieren“, sagt Schultze. Die Software basiere auf Daten aus dem Jahr 2021. Bundeskanzler Olaf Scholz ist noch Finanzminister, der Krieg in der Ukraine unbekannt. „Dann kann es auch sein, dass sie einfach lügt oder bei sehr speziellen Themen Informationen erfindet.“

Quellen sind nicht einfach nachzuvollziehen

Bei direkten Fragen zum Beispiel mit kriminellen Inhalten gebe es zwar Sicherheitshinweise und -mechanismen. „Man kann aber mit Tricks die KI und die Sicherheitshinweise umgehen“, sagt Schultze. Mit einem anderen Vorgehen zeigt die Software einem, wie man eine betrügerische Mail generiert.

Oder sie wirft auch gleich drei Varianten aus, wie Trickbetrüger beim Enkeltrick vorgehen können. Auch eine Anleitung für einen Wohnungseinbruch liefert GPT. Falls man auf Bewohner treffe, könne man auch Waffen oder physische Gewalt einsetzen.

Ute Schmid, die den Lehrstuhl für Kognitive Systeme an der Otto-Friedrich-Universität in Bamberg innehat, sieht es aber vor allem als eine Herausforderung an, dass man nicht erfahren kann, wie der Text-Roboter zu seinen Angaben gelangt ist. „Ein tieferes Problem bei dem GPT3-Modell besteht darin, dass es nicht möglich ist, nachzuvollziehen, welche Quellen wann und wie in die jeweilige Aussage eingegangen sind.“

KI-Systeme und Bildung

Schmid spricht sich aber trotz dieses gravierenden Mangels dafür aus, nicht nur auf Fehler oder auf einen möglichen Missbrauch der neuen Technik zu schauen, wenn beispielsweise Prüflinge ihre Hausarbeiten oder Klausuren von der Software schreiben lassen.

„Ich denke eher, wir sollten uns fragen, was für eine Chance haben wir durch solche KI-Systeme?“ Forscher träten doch im Allgemeinen dafür an, dass KI unsere Kompetenzen erweitere, vielleicht sogar noch fördere, aber nicht einschränke. „Das heißt, ich muss mich auch im Bildungsbereich fragen – wie vielleicht vor 30 Jahren zum Thema Taschenrechner – wie kann ich denn Bildung mit KI-Systemen wie ChatGPT gestalten?“

Alle Server stehen in den USA

Trotzdem bleiben Bedenken zur Datensicherheit und dem Datenschutz. „Was man sagen kann ist, dass ChatGPT vielfältige Daten vom Nutzer aufnimmt, speichert und verarbeitet, um dann zum gegebenen Zeitpunkt dieses Modell entsprechend zu trainieren“, sagt der zertifizierte Frankfurter Datenschutzfachmann Christian Holthaus. Es gebe das Problem, dass alle Server in den USA stehen.

„Das ist die eigentliche Problematik, wenn man es nicht schafft, die Technologie in Europa zu etablieren oder eine eigene zu haben“, sagt Holthaus. Auf absehbare Zeit werde es keine datenschutzkonforme Lösung geben. Auch Stock-Homburg sagt über EU-Datenschutzregelungen: „Dieses System ist hier eher kritisch zu bewerten.“

ChatGPT wurde von einer der führenden KI-Firmen in den USA, OpenAI, entwickelt. Der Software-Riese Microsoft hatte bereits im Jahr 2019 eine Milliarde US-Dollar in das Unternehmen investiert und kürzlich angekündigt, weitere Milliarden in das Unternehmen zu pumpen. Der Windows-Konzern will ChatGPT bald für Kunden des eigenen Cloud-Services Azure und des Office-Paketes verfügbar machen.

Ahnungslosigkeit im Umgang mit unausgereiftem System

Derzeit sei ChatGPT eher eine Spielerei für das Private, sagt Stock-Homburg. Aber es sei momentan in keinem Fall etwas für die Wirtschaft und sicherheitsrelevante Bereiche. „Wir haben keine Vorstellung darüber, wie wir mit dem noch unausgereiften System umgehen sollen.“

Oliver Brock, Professor am Robotics and Biology Laboratory und Sprecher des Clusters „Science of Intelligence“ von der Technischen Universität Berlin, sieht in ChatGPT keinen „Durchbruch“ in der Forschung zur künstlichen Intelligenz. Zum einen sei die Entwicklung in diesem Bereich nicht sprunghaft, sondern kontinuierlich. Zum anderen bilde das Projekt nur einen kleinen Teilbereich der KI-Forschung ab.

ChatGPT könne allerdings in einem anderen Gebiet als Durchbruch gewertet werden, nämlich der Schnittstelle zwischen Mensch und Internet. „Wie hier diese riesigen Datenmengen aus dem Internet mit einem großen Rechenaufwand intuitiv und in natürlicher Sprache einer breiten Öffentlichkeit zugänglich gemacht werden, kann man schon als Durchbruch bezeichnen“, meint Brock.

Deutschland als Verlierer im Wettlauf?

Der Bundesverband Künstliche Intelligenz fürchtet, dass Deutschland im Wettlauf um die KI abgehängt werden könnte. Es fehlten Rechenkapazitäten und Daten, schreibt das Nachrichtenportal „golem“ auf seiner Internetseite. Daher hat der Verband kürzlich die Initiative „Large European AI Models“ (LEAM) ins Leben gerufen, mit dem Ziel, hierzulande ein KI-Rechenzentrum zu bauen und europäische KI-Modelle zu entwickeln.

Sie sollen auf riesige Datenmengen trainiert werden. Der Verband fürchtet um die „digitale Souveränität“ in Bezug auf KI. „Monopolartige Strukturen“ seien ebenfalls möglich, weil ein großer Teil der KI-Modelle aus den USA stamme. Europa sei hingegen „unterrepräsentiert“. Allerdings könnte das Vorhaben am Geld und den hiesigen Datenschutzauflagen scheitern.

Konzerne unterstützen Initiative

Die Initiative unterstützen Konzerne wie E.ON, Bayer und Continental, die TU Darmstadt und das Deutsche Forschungszentrum für Künstliche Intelligenz. Ende des Jahres 2020 förderte das damals CDU-geführte Bundeswirtschaftsministerium LEAM und begann, an einer Machbarkeitsstudie zu arbeiten, deren Ergebnisse nun vorliegen.

Demnach würde ein Rechenzentrum 350 bis 400 Millionen Euro kosten, hinzu kämen hohe Betriebskosten. Mithilfe eines Rechenzentrums könnten Unternehmen und Wissenschaftler an der Entwicklung der KI-Technologie teilnehmen und dazu beitragen, Deutschland und Europa wettbewerbsfähiger zu machen.

Datenschutz versus interessante Ergebnisse

Die Planung beinhaltet auch die Gründung einer Servicegesellschaft, die die Industrie unterstützt und finanziert. Die Gesellschaft soll Rechenkapazitäten bereitstellen und bei der Entwicklung von neuen KI-Modellen sowie der Anpassung bestehender Modelle an die Bedürfnisse von Unternehmen unterstützen. Dies könne von großer Relevanz für die Industrie sein, meint Jörg Bienert, Präsident des Bundesverbandes Künstliche Intelligenz (KI).

Viele Unternehmen würden schon mit KI-Anwendungen experimentieren und deren Einsatz evaluieren. Allerdings gebe es kaum europäische Modelle, was dazu führe, dass „interessante Ergebnisse“ aus Datenschutzgründen nicht in der Produktion eingesetzt werden dürfen, so Bienert.

Entscheidend sei jedoch, dass die notwendigen Mittel für die Umsetzung zur Verfügung gestellt würden. Die Anschubfinanzierungen solle der Staat übernehmen. Ob daraus allerdings etwas wird, sei noch unklar.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion