Effektive Zensur bei Facebook schwer machbar – das Netzwerk wurde konzipiert, um Menschen zu verbinden

Facebook ist dafür gemacht, Menschen mit ähnlichen Interessen zusammenzuführen. Das funktioniert auch bei „unerwünschten“ Meinungen, wie zum Klima oder Impfungen. Änderungen des Algorithmus zur Bekämpfung von Missinformationen können dabei die tiefverwurzelte Grundfunktionalität nicht ausbremsen.
Facebook wurde dafür geschaffen, Menschen mit ähnlichen Interessen zu verbinden. Das verhindert eine effektive Zensur.
Facebook wurde dafür geschaffen, Menschen mit ähnlichen Interessen zu verbinden. Das verhindert eine effektive Zensur.Foto: iStock
Von 28. September 2023

UFOs, Klimawandel und Corona sind nur drei Themen, die in der Gesellschaft zunehmend kontrovers diskutiert werden. Nicht immer gilt dabei das Prinzip der freien Meinungsäußerung und Plattformen wie Facebook sind bemüht, die „falsche“ Meinung zu unterdrücken.

Wie effektiv die Kontrolle der vermeintlichen Missinformationen ist, hängt dabei maßgeblich von der Art der Information ab. Allerdings spielt auch die Plattform selbst eine Rolle:

So zeigten Forscher um David A. Broniatowski vom Institut für Daten, Demokratie und Politik der George Washington University (GWU), dass diese Zensur vonseiten Facebooks durch die grundlegenden Funktionsmerkmale der Plattform selbst untergraben wurden. Ihre Ergebnisse erschienen Mitte September in der Fachzeitschrift „Sciences Advances“.

Algorithmen von Facebook verbreiten Fake News

„Soziale Medienplattformen und die Steuerung durch Künstliche Intelligenz finden heute große Beachtung. Diese Diskussion konzentriert sich jedoch größtenteils entweder auf Inhalte oder auf Algorithmen. Um wirksam gegen Fehlinformationen und andere Onlineschäden vorzugehen, müssen wir über Inhalte und Algorithmen hinausgehen und uns auch auf Design und Architektur konzentrieren“, sagte David Broniatowski, außerordentlicher Professor für technisches Management und Systemtechnik der GWU. Weiter sagte der Hauptautor der Studie:

„Unsere Ergebnisse zeigen, dass das Entfernen von Inhalten oder das Ändern von Algorithmen unwirksam sein kann, wenn es nicht das ändert, wofür die Plattform konzipiert ist: den Nutzern die Möglichkeit geben, sich über gemeinsame Interessen […] auszutauschen und sich darüber zu verbinden.“

Facebook ist darauf ausgelegt, Gemeinschaften rund um die Dinge aufzubauen, die den Menschen wichtig sind. Um dies zu erreichen, werden verschiedene architektonische Merkmale verwendet, darunter Fanseiten, die für Marken und prominente Persönlichkeiten der Gemeinschaft werben, wodurch eine relativ kleine Gruppe von Personen ein großes Publikum erreichen kann.

Diese Gruppen sind ausdrücklich dafür gedacht, Gemeinschaften aufzubauen, in denen die Mitglieder der Gemeinschaft Informationen austauschen können – einschließlich der Frage, wie man auf „Fehlinformationen“ oder andere interessante Inhalte außerhalb der Plattform zugreifen kann. Die Algorithmen von Facebook tragen diese Inhalte sodann in die persönlichen Nachrichtenseiten der Gruppenmitglieder.

Grundfunktion bremste Zensurbemühungen

Broniatowski und Kollegen fanden heraus, dass Facebook erhebliche Anstrengungen unternommen hat, um während der Corona-Pandemie Inhalte von Impfgegnern zu entfernen. Dennoch habe die Interaktion mit derartigen Inhalten im Vergleich zu früheren Trends nicht abgenommen. Im Gegenteil, in einigen Fällen sei sie sogar gestiegen.

Gleichzeitig erkannten die Forscher eine Zunahme von Links zu Websites „mit geringer Glaubwürdigkeit und Links zu Fehlinformationen auf ‚alternativen‘ Social-Media-Plattformen wie Gab und Rumble, insbesondere in Anti-Impfgruppen“. Zudem seien die verbleibenden Anti-Impf-Inhalte auf Facebook „mehr statt weniger fehlinformativ“ geworden und „enthielten sensationslüsterne falsche Behauptungen über die Nebenwirkungen von Impfstoffen, die oft zu neu waren, um in Echtzeit auf Fakten überprüft zu werden“.

Ebenso habe es auch „Kollateralschäden“ gegeben, da Pro-Impfstoff-Inhalte als Folge der Richtlinien der Plattform möglicherweise ebenfalls entfernt wurden und impfbezogene Inhalte insgesamt politisch polarisierter wurden.

Und noch einen weiteren Punkt entdeckten Broniatowski und Kollegen: Die Produzenten von Anti-Impf-Inhalten nutzen die Plattform effektiver als die Produzenten von Pro-Impf-Inhalten. Obwohl beide über große Seitennetzwerke verfügten, koordinierten die Produzenten von Anti-Impf-Inhalten die Bereitstellung von Inhalten auf Seiten, in Gruppen und in den Newsfeeds der Nutzer besser.

Selbst als Facebook seine Algorithmen anpasste und Inhalte und Konten entfernte, um Fehlinformationen über Impfstoffe zu bekämpfen, hielt die Architektur der Plattform laut den Forschern dagegen.

„Äußerst besorgniserregendes“ Ergebnis

„Dieses Ergebnis – dass die Wahrscheinlichkeit, sich mit Fehlinformationen über Impfstoffe zu beschäftigen, vor und nach den umfangreichen Löschungsbemühungen von Facebook gleich hoch war – ist äußerst besorgniserregend. Es zeigt, wie schwierig es für uns als Gesellschaft ist, gesundheitliche Fehlinformationen aus dem öffentlichen Raum zu entfernen“, kommentiert Lorien Abroms, Professorin für öffentliche Gesundheit an der Milken Institute School of Public Health der GWU.

Ob die Einschätzung „Fehlinformation“ zum jetzigen Zeitpunkt haltbar ist, bleibt offen. Fakt ist, dass sich zahlreiche sogenannte „Verschwörungstheorien“ rund um Corona bewahrheitet haben. Dazu gehören die Herkunft des Virus, die (Un-)wirksamkeit der Corona-SpritzenUnregelmäßigkeiten in den Zulassungsstudien, zahlreiche und schwere NebenwirkungenAusbreitung der mRNAUmwandlung in DNA und ZellschädigungenVertuschung und Nichterfassung von Daten, das „Impf-Abo“fehlende Aufklärung vor sowie Behandlung nach den Impfungen und viele weitere.

Das „Haus“ Facebook verbindet, dafür wurde es gebaut

„Stellen Sie sich die Architektur von Facebook wie ein Gebäude vor“, erklärt Broniatowski. „Ein Flughafen ist so konzipiert, dass die Menschen einfach und sicher zu den Gates gelangen können, und ein Stadion ist so konzipiert, dass eine Gruppe von Menschen sicher für eine Show zusammenkommt. Wären diese Gebäude nicht so konzipiert, dass sie ein Gleichgewicht zwischen Reisen und Unterhaltung und Sicherheit herstellen, könnten Menschen routinemäßig zu Schaden kommen.“

„Stellen Sie sich die Struktur von Facebook auf die gleiche Weise vor: Sie ist so konzipiert, dass motivierte Menschen Gemeinschaften bilden und problemlos Informationen zu jedem beliebigen Thema austauschen können“, sagt Broniatowski und stellt fest, dass die Facebook-Architektur die Zensur zum Scheitern verurteilt.

Personen, die hoch motiviert sind, Anti-Impf-Inhalte zu finden und weiterzugeben, nutzen das System einfach so, wie es konzipiert ist.“

Wolle man diese Verhalten gegen die öffentliche Gesundheit oder andere Sicherheitsbedenken abwägen und die Menschen in eine Richtung lenken, müsse man die Architektur des Gebäudes ändern. Auf dem Weg dorthin raten die Forscher Facebook, eine Reihe von „Bauvorschriften“ einzuführen, die auf wissenschaftlichen Erkenntnissen zur Vermeidung von Onlineschäden basieren und die öffentliche Gesundheit und Sicherheit fördern.

Von Facebook und Pharma unterstützt

Die Studie „The Efficacy of Facebook’s Vaccine Misinformation Policies and Architecture During The COVID-19 Pandemic“ ist nach Angaben der Forscher die erste und einzige wissenschaftliche Bewertung der Wirksamkeit des Versuchs der weltweit größten Social-Media-Plattform, systematisch Fehlinformationen und fehlinformierende Konten zu entfernen.

Finanziert wurde die Arbeit von der John S. und James L. Knight Foundation durch einen Zuschuss an das GWU-Institut für Daten, Demokratie und Politik sowie von der National Science Foundation. Forscher der Johns Hopkins University haben ebenfalls zur Studie beigetragen. Bezüglich möglicher Interessenkonflikte heißt es darin:

Broniatowski „erhielt Beratungshonorare von Merck & Co. für die Teilnahme an den Merck Global Vaccine Confidence Expert Input Foren 2021 und 2022 und ein Vortragshonorar von der United Nations Shot@Life Foundation“. Der Vaccine Confidence Fund hat sich zum Ziel gesetzt, das Vertrauen in Impfungen und die Impfbereitschaft zu erhöhen. Finanzielle Unterstützung erfolgt dabei unter anderem durch Meta, dem Mutterkonzern von Facebook, und Merck, einem US-amerikanischen Pharmakonzern. Die Shot@Life Stiftung der Vereinten Nationen setzt sich wiederum dafür ein, dass „Kinder weltweit Zugang zu lebensrettenden Impfungen“ bekommen.

Andere Autoren erklärten keine konkurrierenden Interessen. Jedoch seien „die geäußerten Ansichten […] die der Autoren und spiegeln nicht die offizielle Position des U.S. Department of Health and Human Services oder der Regierung der Vereinigten Staaten wider“. Angesichts der jüngst wieder eingeführten Maskenpflicht in kalifornischen Krankenhäusern ist letztere Aussage durchaus fraglich.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion