Der Israel-Krieg und KI-generierte Bilder – auch Bildagenturen involviert
Nicht nur, dass „eingebettete“ Journalisten das Massaker der terroristischen Hamas in Israel vom 7. Oktober begleitet haben sollen, sorgt im aktuellen Nahost-Konflikt für Aufsehen. Neben der medialen Inszenierung des realen Terrors, die Reporter dieser damit ermöglicht haben, spielen auch KI-generierte Fake-Bilder im Infokrieg eine immer größere Rolle.
Die meisten von ihnen finden ihren Weg durch die sozialen Medien. Einige landen aber auch in auflagenstarken Publikationen – nicht zuletzt, weil sie bei Bildagenturen zu finden sind.
Angebliche Bilder aus Gaza – die aus dem Computer stammen
Wie die „Neue Zürcher Zeitung“ (NZZ) berichtet, führen namhafte Anbieter wie Adobe Stock oder Alamy computergenerierte Bilder, die sich bei der Stichwortsuche nach „Gaza“ auffinden lassen. Im Fall des iranischen Künstlers Meysam Azarneshin sind diese nicht einmal als KI-generiert gekennzeichnet. Dabei schreibt Adobe dies in seinen Richtlinien eigentlich vor.
Auch bei Alamy sind dessen Bilder der NZZ zufolge nicht gekennzeichnet. Diese Agentur vertreibt neben Stock-Fotos auch echte Pressebilder. In vielen der KI-generierten Bilder spielen Kinder eine Rolle. Häufig kehren auch eindrucksvolle und düstere Darstellungen von Ruinenlandschaften wieder. Eines zeigt beispielsweise einen Soldaten mit einem Baby im Arm vor einer riesigen Rauchwolke.
Alamy gibt gegenüber der NZZ an, KI-generierte Bilder nicht zu dulden und proaktiv zu entfernen. Sogenannte „Composites“ hingegen, die aus mehreren echten Bildern montiert sind, lasse man jedoch zu. Es gibt aber auch Fälle, in denen Bilder, die bei Adobe Stock als KI-generiert gekennzeichnet sind, als Illustrationsbilder zu Nahost-Artikeln auf Newsplattformen auftauchen. Dort findet sich die entsprechende Kennzeichnung jedoch nicht immer wieder.
Training von KI mit Bildern von echten Kriegsreportern
KI-generierte Bilder bieten sowohl für Bildagenturen, die damit arbeiten, als auch insbesondere für kleinere Portale zahlreiche Vorteile. Ihr Erwerb ist günstiger, dabei ist die Qualität oft beeindruckend. Programme wie Dall-E, Midjourney oder Stable Diffusion ermöglichen eine schnelle Erstellung oft hyperrealistischer künstlicher Bilder.
Gleichzeitig ersparen sie den Online-Newsplattformen den zeitlichen und finanziellen Aufwand für die Überprüfung der Authentizität. Pro KI-generiertem Bild nehmen Künstler dem Analyseportal „Stockperformer“ zufolge im Schnitt 17 Cent im Monat ein. Das sei mehr als das Vierfache des Gesamtdurchschnitts auf der Plattform.
Das Training der KI erfolgt hingegen mit echten Bildern, für die sich Kriegsreporter häufig Gefahren für Leib und Leben ausgesetzt haben.
Kaum überprüfbare Angaben der Hamas zu Todesopfern in Gaza
Während Bildagenturen die KI-generierten Bilder vor allem aus wirtschaftlichen Erwägungen benutzen, arbeiten manche Akteure aus anderen Gründen mit Fakes. Seit Beginn der Antiterror-Operation in Gaza gehen KI-generierte oder falsch gekennzeichnete Bilder durch die sozialen Medien. Die meisten von ihnen sollen emotionalisieren, eskalieren und zum Hass anstacheln – und das in einem Konflikt, der ohnehin schon weltweit die Gemüter erhitzt.
Der „Faktenfinder“ der ARD weist darauf hin, dass vor allem Bilder von toten, schwer verletzten oder leidenden Kindern durch soziale Medien gehen. Dabei wird der Eindruck erweckt, es handele sich um Opfer des aktuellen Kriegsgeschehens in Gaza.
Angaben des Gesundheitsministeriums in dem Küstenstreifen zufolge soll die Antiterror-Operation Israels bereits mehr als 10.000 Todesopfer gefordert haben. Die Zahlen lassen sich jedoch kaum unabhängig überprüfen. Die dort regierende Hamas ist dabei bemüht, insbesondere die Zahl toter Kinder auszuweisen. Als solche gelten dort alle Personen unter 18 Jahren – einschließlich der von den Terroristen als Kindersoldaten rekrutierten Kombattanten.
Propaganda-Arbeiten
Unter den Bildern, die ihre Runde durch die sozialen Medien machen, befinden sich jedoch zahlreiche, die gar nicht aus dem aktuellen Gaza-Konflikt stammen. Viele davon stammen aus älteren Konflikten und häufig aus anderen Teilen der Welt.
Der Berliner Antisemitismusbeauftragte Samuel Salzborn sieht die Gaza zugeordneten Fake-Bilder als wesentlichen Faktor bei der Radikalisierung der Anti-Israel-Proteste. Sie sollen nicht nur simplifizieren und emotionalisieren angesichts der natürlichen Empörung beim Anblick toter Kinder. Die Parole vom „Kindermörder Israel“ greife zudem auf uralte antisemitische Legenden zurück, die ihre Wurzeln bereits im Mittelalter hätten.
Propagandistisch motivierte Arbeit mit Fakes ist allerdings bisweilen auch auf israelischer Seite festzustellen. So verbreitete die Kommunikationsabteilung von Israels Premierminister Benjamin Netanjahu jüngst Bilder angeblicher Raketenangriffe aus Gaza, die jedoch tatsächlich älter waren und aus Syrien stammten. Dazu teilte man ein erst kurz zuvor hochgeladenes TikTok-Video, das eine Todesopfer-Inszenierung durch die Hamas zeigen soll.
EU-Kommissar stellte X und Elon Musk ein Ultimatum
Ein Zusammenhang war jedoch nicht zu erkennen, außerdem war nicht nachvollziehbar, warum das Video kurz nach seiner Anfertigung auf einer stark frequentierten Plattform gelandet sein soll. Nach entsprechenden Hinweisen entfernte das Onlineteam die geteilten Beiträge wieder.
Für Aufregung sorgte schon in der Anfangsphase des aktuellen Krieges in Gaza ein Ultimatum der EU-Kommission an die Plattform X. Deren Verantwortliche sollen sich, so hieß es in einem Schreiben, binnen 24 Stunden an Sicherheitsbehörden wenden. Der Onlinedienst, so die Begründung, verbreite „illegale Inhalte“.
Twitter-CEO Elon Musk forderte Digitalkommissar Thierry Breton dazu auf, in transparenter Weise darzulegen, welche Inhalte er damit meine. Das Ansinnen löste Vorwürfe der Zensur gegen die EU aus.
vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.
Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.
Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.
Ihre Epoch Times - Redaktion