Datenschützer: Risiken von ChatGPT werden untersucht

ChatGPT sorgt für viel Begeisterung – und für Sorgen um mögliche Folgen. In Italien ist der Chatbot bereits vorerst gesperrt. Nun beschäftigen sich auch hiesige Datenschützer mit möglichen Risiken.
Titelbild
Was ist mit dem Datenschutz?Foto: iStock
Epoch Times5. April 2023

Die Datenschützer der Bundesländer nehmen einem Bericht zufolge den auf künstlicher Intelligenz basierenden  ChatGPT genauer unter die Lupe. „Die Taskforce KI der Datenschutzkonferenz hat das Thema übernommen“, sagte die Vorsitzende des Gremiums, Schleswig-Holsteins Datenschützerin Marit Hansen, dem Medienhaus Table.Media.

„Offensichtlich sind die Risiken umfassender als ‚nur‘ Datenschutz, so dass nicht nur Datenschutzaufsicht und Landesmedienanstalten gefordert sind, sondern auch Politik und Gesetzgebung“, sagte die Landesbeauftragte.

Es habe schon Datenpannen bei ChatGPT gegeben, Nutzer hätten die Anfragen fremder Menschen oder auch Unterhaltungen mit ChatGPT sehen können, sagte Hansen der dpa auf Nachfrage. „Das ist deswegen besonders bedenklich, weil sich einige Nutzende dem KI-System anvertrauen und sogar intime Fragen stellen“, sagte Hansen.

„Das wird dadurch begünstigt, dass ChatGPT sprachlich so auftritt wie ein angenehmer menschlicher Zeitgenosse.“ Zudem seien Fragen zur Einhaltung der Datenschutzgrundverordnung zu klären, etwa zur Verarbeitung personenbezogener Daten sowie zur Datensicherheit.

Keine verlässliche Suchmaschine

Hansen verwies zudem auf Fragen abseits des Datenschutzes, etwa wenn sich Menschen auf falsche Antworten verlassen – ein kritischer Punkt beispielsweise bei der Behandlung von Krankheiten. Zudem könnten Antworten manipulativ wirken oder Fragen „gefärbt beantwortet“ werden. „ChatGPT ist keine verlässliche Suchmaschine! So wird das Tool aber häufig genutzt“, sagte Hansen.

In Italien wurde der Bot vorläufig gesperrt. Die Datenschützer in Rom werfen dem Start-up OpenAI vor, dass es seinen Nutzern nicht mitteile, welche Informationen von ihnen gespeichert werden. Zudem habe das Unternehmen keine rechtliche Grundlage für die Sammlung und Speicherung der Daten.

Darüber hinaus gebe es keine adäquaten Filter oder Sperren für Kinder unter 13 Jahren, die laut Geschäftsbedingungen die Software ChatGPT nicht nutzen dürften. (dpa/red)



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion