So beschränkt Zensurgesetz von Heiko Maas die Meinungsfreiheit – Facebook, WhatsApp, Dropbox betroffen

Vor kurzem hat Heiko Maas den neuen Gesetzentwurf zur Bekämpfung von Hasskriminalität im Internet vorgestellt. Auf 29 Seiten wird beschrieben, wie in Zukunft „die Rechtsdurchsetzung in sozialen Netzwerken“ verbessert werden soll, damit „objektiv strafbare Inhalte“ „unverzüglich“ entfernt werden.
Titelbild
Unklar formuliert findet ein Jurist das Zensurgesetz von Justizminister Heiko Maas.Foto: Sebastian Gollnow/dpa
Von 29. März 2017

In einem Artikel für „Cicero“ hat Rechtswissenschaftler Alexander Peukert das neue, sogenannte „Netzwerkdurchsetzungsgesetz“ (NetzDG-E) genau unter die Lupe genommen. Er kommt zum Schluss, dass der Entwurf „problematische juristische Instrumente“ vorschlägt, um die Löschung von Inhalten zu erreichen.

Das Gesetz ist nach Angaben des Ministeriums notwendig, da „die Debattenkultur im Netz oft aggressiv, verletzend und nicht selten hasserfüllt ist (…) Hasskriminalität, die nicht effektiv bekämpft und verfolgt werden kann, birgt eine große Gefahr für das friedliche Zusammenleben einer freien, offenen und demokratischen Gesellschaft.“

Auch habe „nach den Erfahrungen im US-Wahlkampf“ die Bekämpfung von strafbaren Falschnachrichten („Fake News“) für die Bundesregierung hohe Priorität gewonnen. Im Blick hat Maas dabei vor allem die großen Player wie Facebook, YouTube und Twitter. Falls sie beanstandete Inhalte nicht zeitnah löschen, sollen sie mit Bußgeldern bis zu 50 Millionen Euro belegt werden können.

Zensurgefahr

Die Plattformen müssen nach dem bisherigen Entwurf nicht nur den originalen Tweet oder Post löschen, sondern alle seine Weiterverbreitungen. Außerdem müssen sie „wirksame Maßnahmen“ ergreifen, damit der Inhalt nicht wieder online erscheint.

Die Gesetzes-Autoren denken dabei an spezielle Filter und schreiben: „Solche Maßnahmen sind insbesondere zur Bekämpfung rechtswidriger Bilddateien technisch möglich und werden bereits heute von sozialen Netzwerken angewandt.“

Peukert spinnt den Gedanken weiter: Nicht nur Bilder, sondern auch einzelne Formulierungen und Wörter könnten auf diese Weise kriminalisiert und von vornherein nicht mehr ins Netz gelassen werden – auch wenn sie vielleicht in einem anderen und legalen (z.B. satirischen) Kontext stünden.

Er meint: „Solche Uploadfilter gelten zu Recht als besonders effektive und damit gefährliche Zensurinstrumente. Die Verpflichtung zu ihrem Einsatz kommt einer allgemeinen Überwachungspflicht gleich, die mit dem Europarecht (Artikel15 der E-Commerce-Richtlinie 2000/31) unvereinbar ist.“

Gerichtsverfahren nicht öffentlich

Heikel findet er auch das nichtöffentliche Gerichtsverfahren ohne Beweisaufnahme, welches erfolgt, sobald das Bundesamt für Justiz der Ansicht ist, dass ein Inhalt rechtswidrig ist. Das Amtsgericht Bonn soll dann in einer „Vorabentscheidung“ die „Rechtswidrigkeit“ des Inhalts feststellen.

Wenn es zur gleichen Auffassung kommt wie das Bundesamt für Justiz, kann dieses einen Bußgeldbescheid wegen unterlassener Löschung ausstellen. Falls das Gericht andere Meinung ist, wird das Verfahren eingestellt.

Die Internetkonzerne werden einen solchen Bußgeldbescheid in der Regel akzeptieren und nicht anfechten, meint Peukert. Schließlich wissen sie ja, dass ein Gericht bereits darüber entschieden hat und ihre Chancen schlecht stehen. „Zur öffentlichkeitswirksamen Klärung der Rechtswidrigkeit von Inhalten“ durch einen regulären Gerichtsprozess werde es dann nur selten kommen, schätzt er.

Der Jurist vermutet, dass hier „ein Sonderverfahren etabliert“ werden soll, um den Kampf gegen Hass und „Fake News“ nicht in der Öffentlichkeit zu führen. Es gäbe alternative Konzepte, die den Sprecher einbeziehen und Diskussionen über strittige Inhalte ermöglichen, so Peukert. Er wirft dem Gesetzentwurf vor, Kommunikation zu unterbinden, statt zu ermöglichen.

Auch Messenger wären betroffen

Die Website „Netzpolitik.org“ merkte an, dass durch die weite Definition des Gesetzentwurfs auch Messenger wie WhatsApp und Datenspeicherdienste wie Dropbox betroffen wären.

Das Justizministerium sagte zwar, dass diese nicht darunter fielen. „Am Ende zählt aber nur der Gesetzestext“, so Netzpolitik.

Rechtswidrigkeit wird neu definiert

Problem Nr. 1 ist jedoch, dass Strafbarkeit und Rechtswidrigkeit neu definiert werden. Zwar hinterlasse das Gesetz den Eindruck, als gehe es allein um die effektive Durchsetzung von bereits geltendem deutschen Strafrecht und es gebe gar keine „neuen“ Eingriffe in die Meinungsfreiheit, so Peukert. Dies stimme aber nicht. An mehreren Stellen sei die Rede davon, dass „objektiv strafbare“ Taten verhindert werden sollen.

Es gehe offenbar darum, ob eine Äußerung als solche unwahr, beleidigend oder volksverhetzend sei. Die Rolle des Sprechers sei dabei irrelevant (hier werden normalerweise Unterscheidungen getroffen, ob eine Äußerung vorsätzlich – wie im Fall von Verleumdung – oder „wider besseres Wissen“ erfolgte).

14 Straftatbestände werden als „rechtswidrige Inhalte“ aufgelistet. Diese sind: §§ 86, 86a, 90, 90a, 111, 126, 130, 140, 166, 185 bis 187, 241 oder 269 des Strafgesetzbuchs.

Peukert meint, dass im Sinne des NetzDG-E eine Äußerung gegebenenfalls auch dann als rechtswidrig gelten könnte, wenn sie im konkreten Fall nicht strafbar ist, weil der Sprecher weder vorsätzlich noch schuldhaft handelte.

Da das NetzDG-E Äußerungen abstrakt beurteilt (auf ihre objektive Unwahrheit oder ihren Beleidungs-, Beschimpfungs- oder Verleumdungsgehalt hin) ergibt sich ein weiteres Problem: Die Grenze zwischen rechtmäßigem und rechtswidrigem Verhalten bleibt unklar.

Dem Gesetz geht es vor allem darum, ein bestimmtes Verfahren im Umgang mit rechtswidrigen Inhalten verpflichtend zu machen.

Die Absicht des Sprechers interessiert nicht

Der Regelungsansatz des Entwurfs ist so abstrakt, dass der Sprecher dort nur am Rande vorkommt. Nutzer sollen einen Hass-Beitrag dem Netzwerkbetreiber melden und dieser soll ihn löschen. Staatsnahe, damit beauftragte Beschwerde- und Überwachungsstellen (wie z.B. Jugenschutz.net) sollen überwachen, dass die Löschung zeitnah erfolgt.

Das Gesetz will erreichen, dass offensichtlich rechtswidrige Inhalte innerhalb von 24 Stunden gelöscht werden. Weniger offensichtliche, aber strittige Inhalte, sollen innerhalb von sieben Tagen gelöscht werden. In solchen strittigen Fällen könnten die sozialen Netzwerke den Sprecher kontaktieren und um eine Stellungnahme bitten. Mit Sanktionen sind diese Handlungsoptionen jedoch nicht hinterlegt, weshalb sich die Netzwerke den Aufwand folgenlos sparen und vorsorglich löschen können, so Peukert.

Nach einer Löschung sind Facebook und Co. lediglich verpflichtet, den Sprecher begründet darüber zu informieren. Der Nutzer könne dann laut NetzDG-E „Schritte zur Wahrung seines Rechts auf Meinungsfreiheit zeitnah einleiten“.

Welche Schritte das sein sollen, wird nicht genannt und Peukert vermutet, dass Nutzer eher in andere Foren abwandern werden, als gerichtlich einen „Freischaltungsanspruch“ durchzufechten, von dem „äußerst zweifelhaft“ sei, ob er zivilrechtlich überhaupt durchsetzbar sei.

Hier zur „Cicero“-Analyse von Alexander Peukert.

Hier das „Netzwerkdurchsetzungsgesetz“ (NetzDG-E) als PDF lesen.



Kommentare
Liebe Leser,

vielen Dank, dass Sie unseren Kommentar-Bereich nutzen.

Bitte verzichten Sie auf Unterstellungen, Schimpfworte, aggressive Formulierungen und Werbe-Links. Solche Kommentare werden wir nicht veröffentlichen. Dies umfasst ebenso abschweifende Kommentare, die keinen konkreten Bezug zum jeweiligen Artikel haben. Viele Kommentare waren bisher schon anregend und auf die Themen bezogen. Wir bitten Sie um eine Qualität, die den Artikeln entspricht, so haben wir alle etwas davon.

Da wir die Verantwortung für jeden veröffentlichten Kommentar tragen, geben wir Kommentare erst nach einer Prüfung frei. Je nach Aufkommen kann es deswegen zu zeitlichen Verzögerungen kommen.


Ihre Epoch Times - Redaktion