Meinungsfreiheit auf Twitter und Co
US-Milliardär Elon Musk übernimmt das soziale Netzwerk Twitter für 44 Milliarden Dollar. Anschließend will er Twitter von der Börse nehmen. Was bei den einen für Entsetzen sorgt, löst bei anderen Jubelschreie aus. Der Grund: Musk will auf Twitter die maximal mögliche Meinungsfreiheit gewährleisten und damit dem Trend von Kontrolle in sozialen Netzwerken entgegenwirken. Doch wäre ein derart meinungsfreiheitlicher Raum in Deutschland überhaupt denkbar?
Genau wie in den USA ist die Meinungsfreiheit in Deutschland ein Grundrecht, das große Wertschätzung genießt. Sie gilt gemeinhin als konstitutives Prinzip für freiheitlich demokratisch verfasste Staaten. In Art. 5 Abs. 1 GG heißt es: “Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten und sich aus allgemein zugänglichen Quellen ungehindert zu unterrichten… Eine Zensur findet nicht statt.“ Auch im EU-Recht und auf internationaler Ebene ist die Meinungsfreiheit normiert und soll staatliche Stellen daran hindern, die Meinungen der Bürger zu kontrollieren.
Eine mittelbare Drittwirkung und damit Bindung auch von Privaten an die Meinungsfreiheit wird insbesondere bei marktbeherrschenden Plattformen sozialer Medien mit besonderer Bedeutung für die Meinungsbildung gesehen. Somit müssen sich auch Twitter und Co an die Meinungsfreiheit halten.
Deshalb stellt die Löschung von kritischen Inhalten ein besonderes Problem dar.
Äußerungen dürfen nicht ohne Weiteres gelöscht werden. Ein Problem in diesem Zusammenhang ist Overblocking durch Content-Filter, wobei eigentlich legale Inhalte aufgrund eines sehr weit programmierten Filters gelöscht werden. Das Motiv der Plattformbetreiber für die Nutzung eines zu weiten Filters ist in der Regel die Vermeidung von bußgeldbewehrten Verstößen gegen gesetzliche Vorschriften. Gleichzeitig ist zu beachten, dass die Vermeidung von Gesetzesverstößen auch von den Plattformbetreibern als Vorwand genutzt werden kann, um interessengeleitete Löschungen zu rechtfertigen. Gesetzgeberische Vorschriften, die die Löschung von Internetbeiträgen vorschreiben, können also sowohl zu gesetzlich induzierten als auch zu vorsätzlichen Verstößen gegen die Meinungsfreiheit führen.
Die Pflichten der Plattformbetreiber
So könnte man auf die Idee kommen, dass Musks Vision von einem libertären Twitter aus grundrechtlicher Perspektive durchaus sinnvoll ist, indem durch eine Laissez-faire-Politik Overblocking vermieden und die Meinungsfreiheit hochgehalten wird. Allerdings unterliegen soziale Netzwerke ab einer bestimmten Größe regulierenden einfachgesetzlichen Vorschriften, so dem Netzwerkdurchsetzungsgesetz (NetzDG) und dem Medienstaatsvertrag (MStV), die ein verfassungsrechtlich gerechtfertigtes Mindestmaß von Einschränkungen der Meinungsfreiheit vorgeben.
Das NetzDG verpflichtet die Plattformbetreiber gem. § 3 Abs. 1 und 2 NetzDG zur Einführung eines Verfahrens zum Umgang mit Beschwerden, bei dem offensichtlich rechtswidrige Beiträge innerhalb von 24 Stunden gesperrt oder gelöscht werden müssen. Rechtswidrige Inhalte sind gem. § 1 III NetzDG solche, die den Tatbestand der §§ 86, 86a, 89a, 91, 100a, 111, 126, 129 bis 129b, 130, 131, 140, 166, 184b, 185 bis 187, 189, 201a, 241 oder 269 des Strafgesetzbuches erfüllen und nicht gerechtfertigt sind. In nicht offensichtlich rechtswidrigen Fällen müssen sie den Beitrag innerhalb von sieben Tagen prüfen und ihn dann im Falle der Rechtswidrigkeit entfernen. Auch muss gem. § 2 NetzDG halbjährlich ein Bericht zum Umgang mit Beschwerden über rechtswidrige Inhalte veröffentlicht werden, wodurch eine verstärkte Selbstkontrolle forciert wird.
Als Anbieter von Medienintermediären werden Plattformbetreiber darüber hinaus wegen ihres großen Einflusses auf die Meinungsbildung nach den §§ 92 ff. des Medienstaatsvertrags reguliert. Der Medienstaatsvertrag sieht im Gegensatz zum NetzDG keine konkrete Vorgehensweise zum Umgang mit Nutzerbeiträgen vor und stellt stattdessen allgemein sicher, dass das soziale Netzwerk diskriminierungsfrei funktioniert. Zur Sicherung der Meinungsvielfalt sollen systematische, etwa durch den Algorithmus des Netzwerks bedingte Behinderungen vermieden werden. Umgesetzt wird dies durch Transparenzpflichten und eine bußgeldbewehrte Kontrolle durch die Landesmedienanstalten.
Der gerade erst von der EU beschlossene Digital Services Act (DSA) sorgt zukünftig für eine umfassende Vereinheitlichung der Regulierung von Online-Diensten auf europäischer Ebene. Gleichzeitig hält er allerdings in Bezug auf den Umgang mit Meinungsbeiträgen in sozialen Netzwerken aus deutscher Sicht wenig Änderungen bereit. Das liegt daran, dass Deutschland mit dem NetzDG schon vor einigen Jahren vorgeprescht ist und dabei in einigen Punkten noch weiter geht als der DSA. Ob das NetzDG dennoch bestand haben wird, bleibt abzuwarten. Das zuständige Bundesministerium für Digitales und Verkehr hat bereits angekündigt, ein Digitale-Dienste-Gesetz zu erlassen und die bestehenden nationalen Gesetze umfänglich zu überarbeiten.
Konkretes Vorgehen gegen rechtswidrige Inhalte
Wenn ein Nutzer eine Beschwerde über einen in seinen Augen rechtswidrigen Beitrag abgibt und dieser wird nicht entfernt, kann er sich an das für die Überwachung des NetzDG zuständige Bundesamt für Justiz richten. Dieses überprüft die Rechtswidrigkeit der Inhalte im Sinne von § 1 III NetzDG vor einem Gericht. Wird die Rechtswidrigkeit bejaht, kann ein Bußgeld gegen den Plattformbetreiber von bis zu 50 Mio. Euro verhängt werden. In bestimmten Fällen können sich Nutzer auch an die Landesmedienanstalten, die Strafverfolgungsbehörden und die Beschwerdestellen der Netzwerkverbände richten. Nutzer von sozialen Netzwerken haben also stets die Möglichkeit, gegen rechtswidrige Beiträge vorzugehen.
Das NetzDG bestimmt hingegen nichts zum Umgang mit Beschwerden von Nutzern, deren Beiträge fälschlicherweise gesperrt oder gelöscht wurden. Das Overblocking durch die Plattform-Filter oder eine falsche Einschätzung im Beschwerdeverfahren ist mithin nicht bußgeldbewehrt. Übereifrig löschende Plattformen haben es aus dieser Perspektive also einfacher als ihre untätig bleibenden, liberaleren Konkurrenten. Dazu kommt, dass es den Plattformen wegen der Berufsausübungsfreiheit grundsätzlich auch erlaubt ist, bestimmte strengere, über das Gesetz hinausgehende Community-Regeln aufzustellen. Dies hat der BGH gerade erst im Zusammenhang mit einem Urteil zu Hassrede auf Facebook festgestellt (BGH, 29.07.2021 – III ZR 179/20 und III ZR 192/20). Gleichzeitig hat der BGH Facebook im Fall von Sperrungen und Löschungen wegen Verstoßes gegen die Community-Regeln dazu verpflichtet, den Betroffenen den Grund der Sperrung oder Löschung zu nennen und die Möglichkeit zur Gegenäußerung zu geben. Derartige Sperrungen und Löschungen wird es also zukünftig weiter geben, sie können im Interesse der Meinungsfreiheit aber nicht kommentarlos und ohne Beanstandungsmöglichkeiten vollzogen werden.
In der Handhabung mit den Community-Regeln kann es also tatsächlich noch reell große Unterschiede zwischen den sozialen Netzwerken geben. Auch die Reichweite der Filter zur Löschung von rechtswidrigen Beiträgen können sich unterscheiden, wobei das NetzDG bzw. der Digital Services Act hier effektiv ein Mindestmaß an Kontrolle vorgeben. Spielraum für eine unterschiedlich weite Durchsetzung der Meinungsfreiheit haben die Plattformen aber allemal, auch wenn sich die libertären Betreiber angesichts der Bußgeldstruktur einem größeren Risiko ausgesetzt sehen als die weitläufig sperrenden und löschenden Netzwerke.