Skandal Instagram: Unterstützt Plattform Kinderpornographie und Missbrauch?

Eine breit angelegte Recherche hatte zum Ergebnis, dass pädosexuelle auf Instagram enorme Freiräume vorfanden. Der Konzern Meta räumte bereits Versäumnisse ein.
Titelbild
Instagram-Logo auf einem Smartphone.Foto: bigtunaonline/iStock
Von 8. Juni 2023

Das vom Meta-Konzern betriebene soziale Netzwerk Instagram ist aufgrund einer Recherche des „Stanford Internet Observatory“ unter Beschuss geraten. Eine Recherche der Einrichtung ergab, dass Pädosexuelle auf der Plattform ein ruhiges Hinterland gefunden hatten. Sie konnten kinderpornografisches Material zum Verkauf anbieten und Gleichgesinnte mit einschlägigen Hashtags ködern – ohne dass die Plattform eingegriffen hätte.

Einschlägige Begriffe und Hashtags blieben unbeanstandet

Das „Wall Street Journal“ (WSJ) hat bei der Recherche mit den Forschern der Universität Stanford zusammengearbeitet. Außerdem waren Akademiker der University of Massachusetts Amherst beteiligt. Das WSJ hat am Mittwoch, 7. Juni, die Ergebnisse der Untersuchung präsentiert.

Wie die Forscher herausfanden, waren die Aktivitäten zwar den meisten Nutzern von Instagram nicht zugänglich und spielten sich im Verborgenen ab. Allerdings führten die Empfehlungssysteme und Algorithmen des Dienstes Pädosexuelle mit Anbietern zusammen, die deren Nachfrage bedienen.

Dabei hatten die internen Alarmsysteme von Instagram offenbar nicht einmal dort angeschlagen, wo Hashtags wie #pedowhore oder #preteensex unmissverständliche Andeutungen beinhalteten. Auch Nutzer mit Namen wie „little slut for you“ konnten ungehindert einschlägiges Material zum Verkauf anbieten.

Häufig bewarben die Anbieter dieses mit einschlägigen Codes – etwa Formulierungen wie „auf Kapitel 14“ oder „31 Jahre alt“ mit umgekehrtem Pfeil hinter der Altersangabe. In Verwendung waren auch Begriffe wie „map“ (für „minor attracted person“) oder „Cheese Pizza“. Letztgenannten Begriff verwenden Pädosexuelle, um auf ihr Interesse aufmerksam zu machen, weil er sich als Tarnbegriff für „Child Pornography“ etabliert hat.

Algorithmen sorgen auf Instagram für schnelle Vernetzung

Meta hat dem WSJ gegenüber bereits Fehler eingeräumt und erklärt, auf viele Berichte über sexuelle Ausbeutung von Kindern nicht reagiert zu haben. Der Konzern gab einer Softwarepanne die Schuld, die verhindert habe, dass ein erheblicher Teil der Nutzerberichte bearbeitet werden konnte. Das Netzwerk habe in den vergangenen zwei Jahren 27 pädophile Netzwerke ausgeschaltet, hieß es weiter. Es seien noch weitere Entfernungen geplant.

Die Mitglieder des Rechercheteams bleiben skeptisch. Alex Stamos, der Leiter des Stanford Internet Observatory und frühere Sicherheitschef von Meta, betonte:

Dass ein Team von drei Akademikern mit begrenztem Zugang ein so großes Netzwerk finden konnte, sollte bei Meta Alarm auslösen.“

Sich hauptsächlich auf Algorithmen und künstliche Intelligenz beim Aufspüren von Inhalten dieser Art zu verlassen, sei nicht ausreichend. Meta solle wieder verstärkt in menschliche Ermittler investieren.

Ähnliche Beobachtungen bereits 2017 auf Facebook

Stanford-Technologe David Thiel erklärt, das Problem von Instagram liege in dessen Funktionen zum Auffinden von Inhalten und zur Empfehlung von Themen. Die Plattform setze hauptsächlich auf die Verknüpfung von Konten. Dies könne problematisch werden, wenn diese sich über problematische Interessen definieren:

Man muss Leitplanken aufstellen, damit etwas, das so wachstumsintensiv ist, noch einigermaßen sicher ist, und das hat Instagram nicht getan.“

Bis dato schien es zu den Hauptproblemen von Instagram zu gehören, keine Handhabe gegenüber Fake-Profilen oder Scamming-Accounts zu finden. Pädosexualität schien kein großes Thema auf der Plattform zu sein. Nun hatten die Forscher jedoch Testkonten innerhalb eines pädophilen Netzwerks eingerichtet. Die Folge war, dass sie schon nach kürzester Zeit entsprechende „Empfehlungen“ durch den Dienst selbst erhielten.

Bereits im Jahr 2017 enthüllte BBC ähnliche Missstände mit Blick auf die ebenfalls zu Meta gehörige Plattform Facebook.

Instagram als „Auffahrt zu Orten mit expliziteren Inhalten“

Üblicherweise versuchen Social-Media-Konzerne über mehrere Wege, die Verbreitung pädosexueller Inhalte über ihre Plattformen zu unterbinden. Einer davon ist die herkömmliche Moderation, die allerdings voraussetzt, dass Inhalte aufgefunden und gemeldet werden.

Zunehmend spielen auch maschinelles Lernen und künstliche Intelligenz eine Rolle, um mutmaßlich unangemessene und sozialschädliche Inhalte aufzuspüren. Große Internetplattformen arbeiten zudem eng mit Strafverfolgungsbehörden zusammen, um illegale Aktivitäten, einschließlich Kindesmissbrauch, zu bekämpfen. Dies kann den Austausch von Informationen, die Zusammenarbeit bei Ermittlungen und andere Maßnahmen umfassen.

Dennoch ist insbesondere der Meta-Konzern von Versuchen betroffen, Interessierte in pädosexuellen Netzwerken zusammenzufassen und zu bedienen. Brian Levine vom UMass Rescue Lab zufolge dient Instagram als „Auffahrt zu Orten mit expliziterem sexuellen Kindesmissbrauch“ im Internet. Seinem 2022 dem Justizministerium vorgelegten Bericht zufolge entfielen 85 Prozent der Kinderpornografie-Meldungen an das National Center for Missing & Exploited Children auf Meta.

Die Recherchen des Stanford-Teams machen deutlich, dass pädosexuelle Inhalte von Meta bewusst zugänglich gemacht wurden. Das „Wall Street Journal“ schreibt:

In vielen Fällen hat Instagram seinen Nutzern erlaubt, nach Begriffen zu suchen, von denen die eigenen Algorithmen wissen, dass sie mit illegalem Material in Verbindung gebracht werden können. In solchen Fällen warnte ein Pop-up-Fenster die Nutzer: ‚Diese Ergebnisse können Bilder von sexuellem Kindesmissbrauch enthalten‘, und wies darauf hin, dass die Produktion und der Konsum solchen Materials Kindern ‚extremen Schaden‘ zufügt. Der Bildschirm bot den Nutzern zwei Optionen: ‚Ressourcen abrufen‘ und ‚Ergebnisse trotzdem ansehen‘.

Es gebe innerhalb dieser Netzwerke auch Konten auf Instagram, die sich mit propädophilen Memes befassten oder deren Zugang zu Kindern diskutierten. Derzeitige und ehemalige Meta-Mitarbeiter, die an Instagram-Initiativen zur Kindersicherheit gearbeitet haben, zeichnen ein düsteres Bild. Die Zahl der pädoaffinen Konten auf den Plattformen gehe ihnen zufolge „in die Hunderttausende, wenn nicht sogar in die Millionen“.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion