Sicherheitsrisiken beim Erstellen von Passwörtern mit KI

Laut einer Umfrage würden 28 Prozent der Deutschen Künstliche Intelligenz für das Kreieren von Zugangscodes nutzen. Bundesregierung lehnt die Sperrung von ChatGPT ab.
Titelbild
Viele Menschen würden sich laut einer Umfrage von einer Künstlichen Intelligenz unterstützen lassen.Foto: Philipp Brandstädter/dpa
Von 4. April 2023


28 Prozent der Deutschen würden sich beim Erstellen von Passwörtern von einer Künstlichen Intelligenz (KI) unterstützen lassen. Das ist das Ergebnis einer Umfrage der E-Mail-Anbieter GMX und Web.de.  Das Risiko dabei sähen viele nicht, warnten die Experten am Montag gegenüber Agenturen. Eine KI-Anwendung könnte ihre Passwörter umgekehrt auch wieder leichter knacken.

Wer dennoch Passwörter durch eine KI wie ChatGPT erstellen oder prüfen lässt, sollte sie zumindest leicht abändern. So könnten sie nicht in einer KI gespeichert oder von einer anderen KI reproduziert werden, empfahlen die Experten von Web.de und GMX. Um Online-Konten „bestmöglich“ abzusichern, sollten Nutzerinnen und Nutzer für jeden Dienst ein eigenes starkes Passwort verwenden, es vertraulich behandeln und möglichst auch die Zwei-Faktor-Authentifizierung aktivieren.

Zugangsdaten oft leicht zu erraten

Ein Risiko ist auch die Verwendung persönlicher Informationen in Passwörtern: 40 Prozent der Befragten setzen laut Umfrage Daten wie Geburtstage (13 Prozent), Haustiernamen (elf Prozent) oder wichtige Jahrestage (elf Prozent) ein. Viele dieser Daten sind aber oft in Online-Netzwerken frei im Internet verfügbar, sodass sich Passwörter leicht erraten lassen. Mit Künstlicher Intelligenz werde das noch einfacher, warnten die Experten.

„Besonders gravierend ist diese Nachlässigkeit beim eigenen E-Mail-Postfach: Wenn Online-Kriminelle den Account übernehmen, dann kommen sie nicht nur an die E-Mail-Inhalte heran“, sagte Web.de-Geschäftsführer Jan Oetjen. Sie könnten oft auch die Passwörter bei anderen Diensten zurücksetzen oder mit der Identität ihrer Opfer im Netz einkaufen.

Fast jeder Dritte würde sich für Gesichtsscan entscheiden

Laut Umfrage können sich 41 Prozent ihre Passwörter merken. Fast ein Drittel (31 Prozent) notiert demnach Zugangsdaten auf einem Zettel. 19 Prozent verwenden Software wie einen Passwortmanager oder die Passwort-Speichern-Funktion auf dem Smartphone.

Viele wünschen sich der Umfrage zufolge mehr Einfachheit: Könnten die Deutschen Passwörter insgesamt ersetzen, würden sich 31 Prozent der Befragten für eine biometrische Lösung wie Fingerabdruck oder Gesichtsscan entscheiden.

Der Einsatz ist auch aus Sicht des Datenschutzes bedenklich. Die Europäische Datenschutz-Grundverordnung (DSGVO) beinhaltet daher verschiedene Vorgaben im Zusammenhang mit KI. Diese kommt bereits in vielen Bereichen des täglichen Lebens zum Einsatz. Dazu gehören etwa Gesichtserkennung mit Smartphone, Suchmaschinen, Social Media mit Algorithmen, Smart Home Geräte, Chatbots und vieles mehr. Doch gefährdet die Nutzung das Recht auf informationelle Selbstbestimmung, wie es im Grundgesetz festgeschrieben ist. Die DSGVO dient unter anderem dazu, dass diese Rechte weiterhin ihre Gültigkeit haben.

Die Bundesregierung will Deutschland an die Weltspitze der KI-Entwicklung bringen. Sie sehe sich in der Pflicht, eine verantwortungsvolle und gemeinwohlorientierte Nutzung von KI voranzubringen. An der freiheitlich-demokratischen Grundordnung orientierte ethische und rechtliche Grundsätze würden dabei beachtet.

Sperrung von ChatGPT wie in Italien möglich

Doch so einfach scheint der Weg nicht zu sein. So hält der Bundesdatenschutzbeauftragte Ulrich Kelber eine Sperrung des auf künstlicher Intelligenz (KI) basierenden Chatbots ChatGPT in Deutschland für denkbar. „Grundsätzlich ist ein entsprechendes Vorgehen auch in Deutschland möglich“, sagte eine Sprecherin von Kelber dem Handelsblatt. Sie bezog sich darauf, dass Italien als erstes westliches Land ChatGPT am Freitag aus Datenschutzgründen vorerst gesperrt hatte.

Weil es sich beim US-amerikanischen Betreiber „OpenAI“ um ein Unternehmen handele, falle dies in den Zuständigkeitsbereich der Landesdatenschutzbehörden. Gleichzeitig habe Kelbers Behörde die italienische Datenschutzaufsichtsbehörde bereits um „weiterführende Informationen“ zur Sperrung von ChatGPT gebeten, hieß es weiter. Diese würden dann an die zuständigen Landesdatenschutzaufsichtsbehörden und Landesmedienanstalten weitergegeben, erläuterte die Sprecherin.

DSGVO als Prüfungsmaßstab

Der frühere Datenschutzbeauftragte von Baden-Württemberg, Stefan Brink, kritisierte das italienische Vorgehen gegenüber dem Handelsblatt. Zwar nutze KI regelmäßig auch personenbezogene Daten zu Trainingszwecken. „Soweit die Daten allerdings aus dem Internet bezogen werden, überwiegen regelmäßig die berechtigten Interessen der Entwickler gegenüber Schutzbedürfnissen von Betroffenen“, gab er zu bedenken.

Das Bundesdigitalministerium lehnt eine Blockade von ChatGPT ebenfalls ab. „Wir brauchen kein Verbot von KI-Anwendungen, sondern Wege, Werte wie Demokratie und Transparenz zu gewährleisten“, sagte ein Sprecher des Ministeriums von Volker Wissing. Der Prüfungsmaßstab für ein behördliches Einschreiten sei die DSGVO, die in ganz Europa unmittelbar gelte.

An die Verordnung sowie an die Jugendschutzregel habe sich „OpenAI“ nicht gehalten, kritisierte hingegen die italienische Datenschutzbehörde.

Insbesondere habe das Unternehmen keine Rechtsgrundlage für das massenhafte Sammeln und Speichern personenbezogener Daten. Auch hole es keine Einwilligung der betroffenen Menschen ein. Zudem fehle es an Maßnahmen zum Jugendschutz, etwa einer effektiven Alterskontrolle für Minderjährige.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion