Skandal in Spanien: Teenager erstellen KI-generierte Nacktbilder junger Mädchen
Eine beunruhigende Entwicklung im Zusammenhang mit generativer KI erschüttert derzeit Spanien. In Almendralejo, einer 34.000-Einwohner-Stadt in der Extremadura, ist eine Reihe von Nacktbildern aufgetaucht, die minderjährige Mädchen zeigen. Die bis dato 20 bekannten Opfer sind zwischen elf und 17 Jahre alt. Erstellt wurden die Fake-Aufnahmen mithilfe einer Bilder-App aus dem Bereich der generativen KI.
Mutmaßliche Täter stammen aus der gleichen Stadt
Wie BBC berichtet, sind möglicherweise mindestens 28 Schülerinnen von den Deepfakes betroffen. Einige der Bilder fanden Verbreitung über Messenger-Dienste wie WhatsApp oder Telegram. In einem Fall gehen Ermittler sogar von einer versuchten Erpressung aus. Während einige Betroffene die Übergriffe verhältnismäßig gut wegstecken, wagen sich andere kaum noch aus ihren Häusern.
Die angefertigten Fakes stammen offenbar aus dem vergangenen Sommer. Öffentlich bekannt wurden die Vorfälle allerdings erst, als eine lokale Frauenärztin von deren Existenz Kenntnis erlangte und eine betroffene Familie darauf ansprach.
Die Polizei nahm Ermittlungen auf und stieß auf elf junge Männer aus der gleichen Stadt, die meisten ebenfalls noch im Teenageralter. Sie stehen im Verdacht, in den Vorfall involviert zu sein – entweder in die Herstellung der Aufnahmen selbst oder in deren Verbreitung.
KI macht Missbrauch fremder Fotos einfacher
Erst vor etwas mehr als zehn Jahren hatte ein tragisches Schicksal die potenziellen Folgen solcher Taten verdeutlicht. Im Oktober 2012 hatte sich in Kanada die 15-jährige Schülerin Amanda Todd das Leben genommen, nachdem ein niederländischer Cyberstalker sie mit Nacktaufnahmen erpresst hatte.
Das Mädchen hatte der Internetbekanntschaft zuvor eine Oben-Ohne-Aufnahme übermittelt. Der Niederländer wurde später zu mehreren Haftstrafen verurteilt: Er hatte Dutzende junger Mädchen aus mehreren Ländern auf diese Weise behelligt. Generative KI eröffnet potenziellen Tätern nun eine Vielzahl weiterer Möglichkeiten, unter Verletzung des Rechts am eigenen Bild an Aufnahmen zu gelangen oder junge Frauen zu belästigen.
Hadi Salman, ein Doktorand am „Massachusetts Institute of Technology“ (MIT), warnte im Juli dieses Jahres:
Im Moment kann jeder unser Bild nehmen, es nach Belieben verändern, uns in sehr schlecht aussehende Situationen bringen und uns erpressen.“
In vielen Fällen reicht es Tätern dabei aus, Bilder aus sozialen Medien zu kopieren und sich Zugang zu einer entsprechenden KI-gesteuerten Bilder-App zu verschaffen. Ein fingiertes Interview mit dem verstorbenen Apple-Gründer Steve Jobs hatte erst 2022 offenbart, wie Deepfake-Technologie den Missbrauch fremder Identitäten erleichtert.
MIT will mit PhotoGuard Schutz vor Deepfakes und anderem Missbrauch bieten
Salman selbst ist Teil eines Forscherteams, das an Gegenmaßnahmen arbeitet. Wie das „Technology Review“ berichtet, hat das MIT ein Tool namens „PhotoGuard“ entwickelt. Dessen Ziel ist es, Fotos auf eine Weise zu verändern, die vom Menschen nicht wahrnehmbar ist, aber gleichzeitig ihre Manipulation durch KI-Systeme zu verhindern.
Der Versuch, ein von PhotoGuard immunisiertes Bild mit einer auf einem generativen KI-Modell basierenden Bearbeitungs-App zu manipulieren, soll demnach zu einem unrealistischen oder verzerrten Ergebnis führen.
Das MIT-Team verwendet zwei verschiedene Techniken, um beispielsweise die Bearbeitung von Bildern mit dem Open-Source-Bildgenerierungsmodell Stable Diffusion zu verhindern. Mittels eines sogenannten Encoder-Angriffs soll PhotoGuard dem Bild nicht wahrnehmbare Signale hinzufügen. Diese sollen zur Folge haben, dass KI-Modelle dieses falsch kategorisieren.
Dazu kommt die Technik des sogenannten Diffusionsangriffs. Dieser soll bereits die Art und Weise, wie die KI-Modelle Bilder generieren, stören. Auch hier kommen geheime, codierte Signale zum Einsatz. Aufforderungen des Manipulators würden am Ende ignoriert und es entstünden unbrauchbare Bilder.
Böswilliger Einsatz von KI durch Ausbau von Gegenmaßnahmen erschwert
Führende KI-Unternehmen haben sich zudem im Rahmen einer freiwilligen Zusage gegenüber dem Weißen Haus dazu verpflichtet, Methoden zu entwickeln, um Betrug und Täuschung zu verhindern. Unter anderem OpenAI, Google und Meta wollen proaktiv an solchen arbeiten. Neben PhotoGuard gelten auch Wasserzeichen oder die vor allem von Künstlern verwendete Schutzmethode „Glaze“ als Anti-Manipulations-Tools.
Tools wie PhotoGuard verändern die Wirtschaftlichkeit und die Anreize für Angreifer, äußert Emily Wenger, Forscherin bei Meta. Sie machten es dadurch schwieriger, KI auf böswillige Weise einzusetzen:
Je höher die Messlatte liegt, desto weniger Menschen wollen oder können sie überwinden.“
Allerdings gibt es immer noch einen Wettlauf mit Cyberkriminellen, weil diese ihrerseits nach Wegen suchen, Tools wie PhotoGuard auszukontern. Zudem schütze dieses Programm zwar neue Bilder. Einen vollständigen Schutz vor Deepfakes biete es jedoch nicht, da immer noch alte Bilder von Nutzern für den Missbrauch verfügbar sein könnten.
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion