Facebook, Google und Co – Antreten zum Zensur-Rapport bei der EU

EU-Vizepräsidentin Jourová fasste jüngst erste Erfahrungen mit dem „Kodex gegen Desinformation“ zusammen. Die „böswilligen Akteure“ säßen in Russland und versuchten „unseren Informationsraum mit Halbwahrheiten und Lügen zu verseuchen und ein falsches Bild davon zu vermitteln, dass die Demokratie nicht besser ist als die Autokratie.“
Titelbild
Věra Jourová, Vizepräsidentin der EU-Kommission und Kommissarin für Werte und Transparenz.Foto: Olivier Hoslet/EPA/dpa
Von 29. September 2023

Nach über sechs Monaten Datensammeln zog Věra Jourová, Vizepräsidentin der EU-Kommission, am 26. September eine erste Bilanz zum EU Anti-Desinformations-Kodex und seiner Wirksamkeit. Sie ist EU-Kommissarin für Werte und Transparenz.

Dabei bestätigt sich, was die „Welt“ im Januar schrieb: „Fast unbemerkt ist der ‚Digital Services Act‘ der EU in Kraft getreten. Offiziell soll er Internetnutzer vor ‚Hassrede‘ und ‚Desinformation‘ schützen. Tatsächlich ist er eine Blaupause zur Ausübung von Zensur. Autokratische Staaten in aller Welt kopieren das Instrument bereits.“

Proaktive Zensur: EU untergräbt Prinzip der Gewaltenteilung

Der Code of Practice on Disinformation oder auch Anti-Desinformations-Kodex der EU wurde entwickelt von den großen Konzernen wie Facebook, Google und Co zur Bekämpfung von „Desinformationen“.

Zukünftig soll dieser – nach verschiedenen Überarbeitungen – im Rahmen des Digital Services Act, abgekürzt DSA, als anerkannte „Milderungsmaßnahme“ für sehr große Onlineplattformen dienen. Unter „mildernden Maßnahmen“ sind proaktive Schritte oder Handlungen zu verstehen, die ergriffen werden, um potenzielle negative Auswirkungen oder Risiken zu verringern. Kurz: proaktive Zensur.

Laut Jourová hat der Kodex mittlerweile 44 Unterzeichner, darunter große Onlineplattformen wie Facebook, Google, YouTube, TikTok oder LinkedIn, aber auch die Werbewirtschaft und die Zivilgesellschaft. Diese Vielfalt der Akteure sei das „Herzstück des Kodex“, den sie als „gesamtgesellschaftlichen Ansatz“ sieht, der notwendig sei, um Desinformation und Informationsmanipulation im Internet zu bekämpfen.

Mit solcher Formulierungsakrobatik – die suggeriert, der Kodex sei ein lebendiges Wesen, noch dazu ein „gesamtgesellschaftliches“ – und immer neuen Gesetzen versucht die EU-Kommission, Entscheidungen unter ihre Kontrolle zu bringen, die bisher den Gerichten oblagen. Weitere Bausteine dazu sind der Digital Markets Act, der Data Governance Act, der Data Act und die KI-Verordnung.

Was in den USA noch von einzelnen Bundesstaaten unter dem Stichwort Zensurunternehmen, einer unheiligen Allianz aus Bundesregierung und Big Tech, angeklagt werden konnte, wird mit Inkrafttreten des DSA und des Anti-Desinformations-Kodex in der EU zu einer legalisierten Handlungsweise.

Das Prinzip der Gewaltenteilung in Legislative, Exekutive und Judikative gerät ins Wanken. Die (sozialen) Medien gelangen zunehmend unter die Kontrolle der EU-Kommissare. Und die ursprünglich als Korrektiv gedachte vierte Gewalt, die Medien, werden längst anderweitig kontrolliert.

Unternehmen an der kurzen Leine

Nicht ohne Stolz kündigte Jourová in ihrem Statement die Veröffentlichung der ersten vollständigen Berichte der großen Onlineplattformen an.

Es sei das erste Mal, dass Plattformen, die den Kodex unterzeichnet haben, mit so umfassenden Daten – über sechs Monate – über ihre Bemühungen zur Bekämpfung von Desinformation im Internet berichten. Die neue Berichtsrunde markiere eine weitere Etappe für den Kodex und bringe wichtige Neuerungen mit sich.

Desinformation an sich sei nichts Neues, fährt Jourová fort, und sie finde auch nicht nur auf Onlineplattformen statt. Aber mit der zunehmenden Digitalisierung hätten „böswillige Akteure neue Wege gefunden, um zu versuchen, unsere Demokratien zu untergraben“.

Diese Akteure sind nicht etwa die Kräfte, die bei Ausbruch von COVID-19 nachweislich Informationen zensiert und manipuliert haben.

Es sind auch nicht die Kräfte, die während des ersten Irakkrieges die Brutkastenlüge in die Welt gesetzt haben oder diejenigen, die die Welt heutzutage mit Falschinformationen zur Sprengung von North-Stream II überfluten.

Nein, die „böswilligen Akteure“ sitzen in Russland und versuchten „unseren Informationsraum mit Halbwahrheiten und Lügen zu verseuchen und ein falsches Bild davon zu vermitteln, dass die Demokratie nicht besser ist als die Autokratie.“

Heute sei dies eine millionenschwere Waffe der Massenmanipulation, die sich sowohl gegen die Russen selbst als auch gegen die Europäer und den Rest der Welt richte, fährt Jourová fort.

Aber was ist die russische „millionenschwere Waffe der Massenmanipulation“ im Vergleich zu EU-Ausgaben für Public Relations, die für Jahr 2018 bereits auf 2,9 Milliarden US-Dollar geschätzt wurden?

Und selbst die EU-Ausgaben verblassen gegen die Ausgaben der USA. Laut „Statista“ betrug das Gebühreneinkommen der führenden in den USA ansässigen PR-Agenturen im Jahr 2022 11,4 Milliarden US-Dollar. Darin sind noch nicht alle diesbezüglichen Ausgaben enthalten.

Desinformation? Die Brutkastenlüge der USA zum ersten Irakkrieg. Screenshot aus dem WDR-Beitrag „Erster Irakkrieg: Die Baby-Lüge der USA (1992) | WDR“

Verhaltenskodex „darf bei Wahlen nicht versagen“

All die PR-Ausgaben der EU beinhalten in den Augen Jourovás keine Gefahr der Desinformation.

Vielmehr müssten wir damit rechnen, dass „der Kreml und andere vor Wahlen aktiv werden“. Es seien diese „böswilligen Akteure [, die] versuchen werden, die Designmerkmale der Plattformen zur Manipulation zu nutzen“, so Jourová.

Sie wendete sich auch an die Unterzeichner des Kodex: „Die kommenden nationalen Wahlen und die Europawahlen werden ein wichtiger Test für den Kodex sein, bei dem die Unterzeichner der Plattformen nicht versagen dürfen. Die Plattformen müssen ihre Verantwortung ernst nehmen, insbesondere im Hinblick auf das Gesetz über digitale Dienste, das von ihnen verlangt, die von ihnen ausgehenden Risiken für Wahlen zu verringern.“

„Natürlich ist das Gesetz über digitale Dienste jetzt verbindlich, und alle sehr großen Onlineplattformen müssen es einhalten“, erklärt die EU-Kommissarin. Und weiter:

Der Kodex untermauert den DSA, denn unsere Absicht ist es, ihn in einen Verhaltenskodex umzuwandeln, der Teil eines Ko-Regulierungsrahmens für den Umgang mit Desinformationsrisiken sein kann.“

EU bestimmt undemokratisch, was Wahrheit und Lüge ist

Je enger diese Gesetze und Verordnungen geschnürt werden und je mehr Unternehmen in dieses digitale Korsett gezwungen werden, desto undemokratischer bestimmen Kräfte in der EU, was Wahrheit und was Lüge ist. Angeblich, um jeden Einzelnen vor dem zu schützen, was sie und der Apparat um sie herum für gefährlich halten.

Sollte es jedoch zu Unruhen kommen – und seien sie auch noch so berechtigt – würde dieser Apparat nicht zögern, die sozialen Medien abzuschalten, wie es vergleichbare Kräfte im Arabischen Frühling getan haben.

Was sind denn diese „gefährlichen Desinformationen“, vor denen die Menschen in Europa geschützt werden müssen?

Sind es die belegbaren Behauptungen, dass die NATO ihre Versprechen der Nichtausdehnung nach Osten nicht eingehalten hat?

Oder ist es der real vorhandene Hunter-Biden-Laptop, über den alle Informationen in den sozialen Medien unterdrückt wurden, weil sie russische Desinformation seien und die Donald Trump um seinen Wahlsieg gebracht haben?

Und wie kann man diese „gefährlichen Desinformationen“ identifizieren?

Jourová berichtet hier von sogenannten „Strukturindikatoren“, die von den am Kodex beteiligten Unternehmen entwickelt worden seien. Bislang seien diese aber nur „vielversprechend“ und stünden noch am Anfang der Entwicklung. Teilweise sei jeder Bericht im Mittel mehr als 200 Seiten lang und es brauche noch einige Zeit, diese vollständig zu bewerten. Als „Strukturindikationen“ gibt sie zum Beispiel an, wie leicht es ist, Desinformationsinhalte zu finden, wie viel Engagement solche Inhalte erhalten oder Indikatoren über Quellen.

Das böte einen „noch nie da gewesenen und neuartigen Einblick in die Desinformation auf Onlineplattformen“. Dieser sei entscheidend, um zu verstehen, wie effektiv die Bemühungen der Plattformen sind, diese Bedrohung noch effizienter zu bekämpfen.

Nun soll ein Pilotprojekt in drei Mitgliedstaaten der EU folgen, bei dem diese „Strukturindikatoren“ eingesetzt werden, um die Methodik zu evaluieren.

Jourová äußert sich auch zu X, dem ehemaligen Twitter. Es falle nicht mehr unter den Kodex und sei „die Plattform mit dem höchsten Anteil an Falschmeldungen/Desinformation“.

Antreten zum Rapport

Anschließend betrachtet Jourová die Ergebnisse der Desinformationsüberwachung und zitiert aus den eingereichten Berichten. Insbesondere sollten die Plattformen Desinformationen über den „russischen Krieg in der Ukraine“ überwachen.

So habe „YouTube zwischen Januar und April 2023 mehr als 400 Kanäle geschlossen, die an koordinierten Einflussoperationen beteiligt waren, die mit der vom russischen Staat gesponserten Internet Research Agency (IRA) in Verbindung stehen.“ Google habe außerdem Anzeigen von fast 300 Websites entfernt, die mit staatlich finanzierten Propagandaseiten in Verbindung stünden.

Facebook/Meta berichte, dass es seine Partnerschaften zur Faktenüberprüfung auf 26 Partner erweitert habe, die 22 Sprachen in der EU abdeckten. Und TikTok habe 832 Videos mit Bezug zum Krieg überprüft, von denen 211 entfernt wurden.

Microsoft hob hervor, dass seine Suchmaschine Bing Search bei fast 800.000 Suchanfragen im Zusammenhang mit der Krise entweder Informationen gefördert oder fragwürdige Informationen heruntergestuft habe.

Die Plattformen müssten aber noch „mehr Anstrengungen unternehmen und bessere Ergebnisse erzielen“, resümiert Jourová.

Zensurvorwürfe leicht gemacht mit KI

Dies gelte auch für die Risiken durch generative KI. Hier müssten die Plattformen Schutzmaßnahmen einführen, um die Nutzer über die synthetische Herkunft der eingestellten Inhalte zu informieren.

Das Potenzial solcher realistischen KI-Produkte für die Erstellung und Verbreitung von Desinformationen sei sehr groß. Im Zusammenhang mit Wahlen seien die Risiken besonders hoch.

Im Grunde verwendet inzwischen fast jeder mehr oder weniger künstliche Intelligenz für seine Veröffentlichungen. Das reicht von Bild- und Videomanipulationsmöglichkeiten, über die Erstellung von YouTube-Titeln und Titelbildern bis hin zur Nutzung von KI zur Textkorrektur. Generative KI kann inzwischen nicht nur zur Texterstellung genutzt werden, sondern auch zur Verschleierung des Textursprungs.

Deswegen ist KI besonders gut geeignet für Zensurvorwürfe. Man kann quasi jedem vorwerfen, KI eingesetzt zu haben, ohne sie zu deklarieren. Ihr Einsatz oder Nichteinsatz ist immer nur schwer nachweisbar.

Abschließend fasst Jourová zusammen, dass der Kodex eine nützliche und richtige Maßnahme sei. „Er unterstützt die Unterzeichner bei der Umsetzung des Gesetzes über digitale Dienste und bietet ein wichtiges Forum für den Dialog und die Erprobung von Ideen, die zur Erfüllung der gesetzlichen Verpflichtungen beitragen könnten.“

Dieser Beitrag stellt ausschließlich die Meinung des Verfassers dar. Er muss nicht zwangsläufig die Sichtweise der Epoch Times Deutschland wiedergeben.


Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion