Datenschützer contra ChatGPT: Verbot des OpenAI-Bots auch in Deutschland möglich

Datenschutzbehörden mehrerer Bundesländer haben ein Verwaltungsverfahren gegen OpenAI initiiert. Im äußersten Fall droht ein deutsches Verbot von ChatGPT.
Auch die Datenschützer der Bundesländer nehmen den Chat-Roboter ChatGPT ins Visier.
Auch die Datenschützer der Bundesländer nehmen den Chat-Roboter ChatGPT ins Visier.Foto: Philipp Brandstädter/dpa
Von 22. April 2023

Der anhaltende Erfolg des KI-Bots „ChatGPT“ des US-Unternehmens OpenAI sorgt für Argwohn unter Datenschützern. Die KI-Taskforce der Bundesländer hat ein Musterschreiben an das US-Unternehmen aufgesetzt. Noch im Laufe der Woche wollen Datenschutzbeauftragte mehrerer Bundesländer dieses an den Microsoft nahestehenden Konzern richten.

Dem „Tagesspiegel“ zufolge steht auch ein Verbot des beliebten Dienstes in Deutschland im Raum. Ein solches hatte Italien vor einigen Wochen verkündet. Dort drohte die Datenschutzbehörde dem Betreiber Ende März ein Bußgeld von bis zu 20 Millionen Euro an.

Der Vorwurf: Es fehle an einer Rechtsgrundlage für das massenhafte Sammeln und das Speichern der Nutzerdaten von ChatGPT. Zudem verfüge der Bot nicht über Jugendschutzmaßnahmen – etwa eine effektive Alterskontrolle für Minderjährige.

Datenschützer wollen mehr über Datenquellen von ChatGPT wissen

Der Leiter der Taskforce, Dieter Kugelmann, hält ein Verbot auch in Deutschland für denkbar. Die Ausgangsposition sei keine wesentlich andere als in Italien. Kugelmann betonte, Datenschützer und Behörden müssten „wissen, wo die Daten herkommen“, die der Bot verwende:

Wenn personenbezogene Daten verwendet werden, auch als Trainingsdaten für die KI, dann bedarf es einer Rechtsgrundlage.“

Um ChatGPT zu trainieren, verwenden die Entwickler der KI eigenen Angaben zufolge ausschließlich öffentlich zugängliche Quellen. Dazu gehören Bücher, News-Artikel, aber auch Onlineforen und soziale Medien. Mithilfe dieser Daten ist es im Laufe der Entwicklung gelungen, den Bot zu menschenähnlicher Konversation zu befähigen.

Erste Zivilklagen wegen ChatGPT anhängig

ChatGPT ist in der Lage, auf Grundlage der Daten, auf die er trainiert ist, Texte zu generieren. Sein Schwesterprojekt DALL-E erzeugt nach Anforderung seiner Nutzerauch Bilder. Kritiker befürchten Datenschutzverletzungen oder Falschinformationen, die der Bot in Umlauf bringen könnte.

Allerdings weist OpenAI bereits auf seiner Startseite explizit darauf hin, dass man eine inhaltliche Richtigkeit der Antworten nicht garantieren könne. Zudem haben mittlerweile zahlreiche Nutzer herausgefunden, dass der Bot umso fehlerhafter antwortet, je spezieller die Anfragen sind.

Dennoch scheint man vielerorts auch in Deutschland überzeugt zu sein, dass Nutzer Aussagen der KI leichtfertig für bare Münze nehmen könnten. In Australien geht bereits ein Bürgermeister auf dem Zivilrechtsweg gegen Darstellungen in einer ChatGPT-Konversation vor.

Wissing will Verbot von ChatGPT abwenden

Datenschützer Kugelmann hält es aber für wenig wahrscheinlich, dass ein Vorgehen analog zu jenem in Italien in Deutschland zulässig wäre. Die dortige Vorgehensweise sei „riskant und rein rechtlich auf wackeligen Beinen“. Immerhin sei es für eine zielgerichtete Regulierung erforderlich, über nähere Kenntnisse zur Funktionsweise von ChatGPT zu verfügen.

Das eigentliche Problem aus Sicht der deutschen Datenschützer sei das „breitflächige Ausrollen der KI im Blindflug – ohne rechtliche Grundlage“. Dass OpenAI in der EU über keine Niederlassung verfüge, erschwere eine adäquate Regulierung.

Auch Bundesminister Volker Wissing will ein Verbot von ChatGPT verhindern. Allerdings bedürfe es eines „angemessenen und soliden Regulierungsrahmens“, erklärte er laut „Meedia“. Grundsätzlich sehe man „großes Potential in der Verwendung generativer KI“. Die Hochleistungssysteme sollen aber „Werte wie Demokratie und Transparenz“ als Leitplanken haben. Bis zum Ende des Jahres sollen die Gespräche zur Regulierung der KI auf EU-Ebene abgeschlossen sein.

„Ernie Bot“ der KP Chinas floppt

Obwohl ChatGPT offiziell in China noch nicht verfügbar ist, hat die dort regierende KP ihrerseits bereits ein Gesetz für KI-gestützte Software vorbereitet. Diese müsse eine „Sicherheitsüberprüfung“ vor ihrem öffentlichen Einsatz durchlaufen, berichtete „CNBC“. Außerdem müsse sie inhaltlich „wesentlichen sozialistischen Grundsätzen“ genügen.

Die Software dürfe etwa keine „staatsgefährdenden Inhalte“ verbreiten, ebenso wenig solche, die gefährlich für die „wirtschaftliche und soziale Ordnung“ seien. Es ist noch offen, wann das Gesetz in Kraft tritt. Entwickler müssten zudem „Unvoreingenommenheit“ und Konformität mit Urheberrechten garantieren.

Derzeit arbeiten mehrere chinesische Unternehmen an der Entwicklung einer mit ChatGPT vergleichbaren KI in China. Ein erster Versuch war der „Ernie Bot“ des regimenahen Baidu-Konzerns. Allerdings war dessen Bilanz offenbar durchwachsen – der Aktienkurs des Unternehmens gab im Umfeld des Roll-outs um zehn Prozent nach.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion