Jürgen Habermas ist unzufrieden. Als vor 60 Jahren sein Strukturwandel der Öffentlichkeit
Zugespitzt heißt das: Während es vor einem halben Jahrhundert wegen mächtiger Medien keine eigene Meinung mehr gab, gibt es nun vor lauter Meinungen keine öffentliche Meinung mehr. Wir alle kommunizieren, können es aber nicht wirklich. In Habermas’ Worten: „Wie der Buchdruck alle zu potenziellen Lesern gemacht hatte, so macht die Digitalisierung heute alle zu potenziellen Autoren. Aber wie lange hat es gedauert, bis alle lesen gelernt hatten?”
Nicht gesagt, aber gemeint: Wir sind noch nicht reif dafür, zu allem eine Meinung zu haben und zu äußern. Das erscheint (wenn auch an anderen Stellen wieder abgeschwächt) doch demokratiepolitisch bedenklich, zumal die demokratische Herausforderung wohl nicht im 80. Facebook-Katzenfoto, dem TikTok-Tanz oder dem überästhetisierten Instagram-Dessert zu verorten ist. Es sind nicht primär die vielen Inhalte, die Meinungsbildungsprozesse herausfordern, sondern die Eigengesetzlichkeiten der Plattformwirtschaft mit ihren auf Wertextraktion optimierten Empfehlungsalgorithmen.
Step 1: Solve Free Speech
Elon Musk ist auch unzufrieden. Er wird 45 Milliarden Dollar ausgeben, um den Kurznachrichtendienst Twitter zu kaufen. Das ist viel Geld. Und er hat viel mit Twitter vor: Er möchte aus dem besonders unter Politiker*innen und Medienmenschen beliebten (weltweit aber vergleichsweise kleinen) Dienst das digitale Äquivalent eines öffentlichen Forums machen und free speech sicherstellen. Wäre das eine Entwicklung, die Habermas gefallen könnte? Eher nicht, und da hilft auch nicht, dass Axel Springer-CEO Mathias Döpfner Musk in privaten Nachrichten beipflichtet und ihm etwas blauäugig schreibt: „Step 1.) Solve Free Speech”.
Leider ist das nicht so einfach. Zunächst ist die Sicherung von free speech eine regulatorische Herausforderung, die nicht gelöst werden kann; sie ist ein sogenanntes
Recht und Regeln
Zunächst aber: Welches Recht, welche Regeln gelten in Online-Kommunikationsräumen, und wie werden sie durchgesetzt? Grundsätzlich gelten die Allgemeinen Geschäftsbedingungen der Plattformen, ihre Gemeinschaftsstandards; das ist in privaten Offline-Räumen, wie im Aldi um die Ecke, auch nicht anders. In der Tat sind Facebook und TikTok aber nicht wie der Aldi, da die Regelsetzung und Regeldurchsetzung – durch menschliche wie weit überwiegend algorithmische Moderation – Teil des Plattformangebots ist. Die Regeln, die algorithmische Aufmerksamkeitslenkung und die Moderation sind zusammen genommen die “special sauce” der jeweiligen Plattform, ihr Coca-Cola-Rezept. (Daher sind sie auch gegenüber Transparenzanforderungen an die automatisierten Empfehlungssysteme eher zurückhaltend). Die internen Regeln – dies darf nicht vergessen werden – sind ein Teil des Plattformdesigns, das auch
Sodann gilt – im deutschen Rechtsraum, den man auch nicht verlässt, wenn man Online-Angebote nutzt – deutsches Recht. Plattformen, die hier aktiv sind, müssen sich daher an deutsches Recht halten. Dass manche, wie Telegram, dies nicht tun, ist kein Geltungsproblem, sondern ein Problem der effektiven Anwendung bzw. Rechtsverfolgung. (Hier nach neuem Recht zu rufen, ist regelmäßig nicht zielführend; besser ist die Professionalisierung der forensischen Ausbildung der Polizei sowie finanziell gut ausgestattete Schwerpunktstaatsanwaltschaften).
Die Plattformen haben zu einem großen Teil nationales Recht in ihre internen Regeln überführt, sodass sie regelmäßig nur nach Gemeinschaftsstandards prüfen (was etwa die niedrigen Meldequoten von Verstößen gegen das Netzwerkdurchsetzungsgesetz erkärt). Manche Inhalte verstoßen nur gegen interne Regeln, sind also nicht rechtswidrig – wie etwa der größte Teil von Desinformation, manche Schimpfwörter und Nacktheit. Auch diese Inhalte – „lawful, but awful” – können besonders im Aggregat, und wenn sie algorithmisch verstärkt werden, zu einem Problem werden. An diesen Inhalten entzündet sich die Debatte um die „Zensur” durch Plattformen (die keine „Zensur” ist, zumindest nicht im Rechtssinn, weil Zensur nur von Behörden ausgeübt werden kann). Hinsichtlich dieser Inhalte können Plattformen, was unlängst der Bundesgerichtshof bestätigt hat, strenger sein, als dies das Gesetz vorschreibt. Sie müssen lediglich bei der Moderation bestimmte Verfahrensrechte einhalten, etwa die User, deren Inhalte sie löschen möchten, informieren: ex post, wenn es um einzelne Inhalte geht, ex ante, wenn ein ganzer Account dran glauben soll.
Desinformation: Wer weiß schon, was wahr ist
Elon Musk will mehr Freiheit auf Twitter. Er meint damit alle Inhalte, die legal sind. Das ist ein Problem, denn der größte Teil von Desinformation – wie etwa falsche Aussagen zur Effektivität von Corona-Impfungen – ist nicht illegal, sonderneinfach sozial abträglich. In einem Gutachten für die Landesmedienanstalt Nordrhein-Westfalen haben Expert*innen des Leibniz-Instituts für Medienforschung aus Hamburg aufgezeigt, warum eine Regulierung von Desinformation zu schwierig ist. Zum einen ist Wahrheitsfindung keine Aufgabe des Staates, sondern ein gesellschaftlicher Prozess kommunikativer Konstruktion; zum anderen sind diskursunterstützende Ansätze nötig, die über klassische Regelungsformen nicht verfolgt werden können. Selbst Fact-Checking-Verfahren, Hinweise und Warnungen können für rechtmäßige Inhalte nicht zur gesetzlichen Pflicht gemacht werden. Die Expert*innen schlagen stattdessen vor, Maßnahmen zur Vertrauensförderung in journalistisch-redaktionell gestaltete Inhalte durch Forderungen zur Einhaltung von Sorgfaltspflichten zu setzen. Entsprechende Pflichten könnten dann auch für nicht-journalistische Akteure mit hoher Meinungsbildungsrelevanz – Politiker*innen, Influencer*innen - gelten.
In diese Richtung geht auch Jürgen Habermas im Neuen Strukturwandel. Er fordert Mindeststandards für die Qualität von Online-Texten. Das mag zwar als grundsätzliche Forderung vertretbar sein, lässt sich aber, wie hier ausgeführt, rechtlich nicht bewerkstelligen (wie übrigens für Texte im Offline-Bereich auch nicht). So erscheint es doch schwierig, die von Habermas angedachte Haftung der Plattformen für die Verbreitung von falschen Informationen europa- und verfassungsrechtskonform auszugestalten. In jedem Fall setzt der Rechtsakt über Digitale Dienste (DSA) hier neue Akzente und erhöht die Rechenschaftspflicht der Plattformakteure, die etwa jährlich berichten müssen, welche Maßnahmen sie gegen Inhalte treffen, die demokratiegefährdend oder gesundheitsschädigend sind. Darüber hinaus haben Plattformen ein wachsendes Eigeninteresse, gegen koordinierte inauthentische Kommunikationen vorzugehen, und haben zuletzt etwa nach dem Angriff Russlands auf die Ukraine gezeigt, dass sie sehr schnell reagieren können, um Desinformation – hier durch die russischen Staatsmedien – zu entfernen. Das bringt uns zum Deplatforming.
Deplatforming
Das Internet verschafft jedem von uns ein Podium. Aber wissen wir es zu nutzen? Nein, meint Jürgen Habermas, der Traum von der direkten deliberativen Demokratie, so Habermas, sei ausgeträumt. Doch dürfen die Plattformen entscheiden, wem das Podium entzogen wird?
Wie gezeigt, sind Plattformen grundsätzlich berechtigt, von den Nutzer*innen eines Netzwerks die Einhaltung bestimmter Kommunikationsstandards zu verlangen, die über die Anforderungen des nationalen Rechts hinausgehen. Das haben für den deutschen Rechtsraum mehrfach Höchstgerichte bestätigt. Sie können sich das Recht vorbehalten, bei einem Verstoß gegen ihre Gemeinschaftsstandards Beiträge zu entfernen und das betreffende Nutzerkonto zu sperren. Um jedoch einen interessengerechten Ausgleich zwischen den kollidierenden Grundrechten zu schaffen, ist es erforderlich, dass sich die Plattformen in den Geschäftsbedingungen verpflichten, die betroffenen Nutzer*innen zumindest nachträglich über die Entfernung eines Beitrags und vorab über eine beabsichtigte Sperrung des Benutzerkontos zu informieren, ihnen den Grund für die Maßnahme mitzuteilen und ihnen Gelegenheit zur Stellungnahme zu geben, woraufhin gegebenenfalls eine neue Entscheidung ergeht. Gerade die Pflicht zur Begründung von Entscheidungen, die algorithmisch prädeterminiert sind, ist noch nicht fertig gedacht.
Der Freiheitsschutz ist auch dem Bundesgerichtshof wichtig: „Die Grundrechte von Facebook sind mit denen der Nutzer so abzuwägen, dass die Grundrechte der Nutzer die größtmögliche Wirkung entfalten."
Die Welt ist schwierig genug. Zumindest die Regeln müssen klar sein. Die zweite Anforderung des Gerichts an die Moderation von Inhalten zielt auf die Größe von Facebook ab: Wenn ein Unternehmen die freie Meinungsäußerung von Millionen von Menschen einschränken will (wie ein Staat), muss es sich an die Anforderungen eines ordentlichen Verfahrens halten (wie ein Staat). Das ist „Grundrechtsschutz durch Verfahren".
Deliberative Demokratie im Netz
Blicken wir nach vorne: Mit Sorge sieht Jürgen Habermas eine Gesellschaft, die zerborsten in „Halböffentlichkeiten“ ihre gemeinsamen Bezugspunkte verliert. Die Räume, in denen kommuniziert wird, scheinen eine eigenartige „[...] anonyme Intimität zu gewinnen: Nach bisherigen Maßstäben können sie weder als öffentlich noch als privat, sondern am ehesten als eine zur Öffentlichkeit aufgeblähte Sphäre einer bis dahin dem brieflichen Privatverkehr vorbehaltenen Kommunikation begriffen werden.”
Doch wer soll nun die Demokratie im digitalen Zeitalter retten? Für Jürgen Habermas ist es klar: der Staat. In einem ebenfalls im Neuen Strukturwandel abgedruckten Essay schließt er mit einer Erinnerung an die Verantwortung des Verfassungsrechts für die Stabilisierung der Wahrheitsordnung einer Gesellschaft: „Es ist keine politische Richtungsentscheidung, sondern ein verfassungsrechtliches Gebot, eine Medienstruktur aufrechtzuerhalten, die den inklusiven Charakter der Öffentlichkeit und einen deliberativen Charakter der öffentlichen Meinungs- und Willensbildung ermöglicht.”
Das trifft zu: Der Staat wird in der komplexen Gesellschaft von heute nicht primär als Gefährder von Freiheit, sondern auch als deren Garant gesehen. Diese Garantiefunktion ist gerade in einer Demokratie besonders wichtig. Demokratien beruhen darauf – hier sind wir wieder auf Habermas’ ureigenem Spielfeld –, dass sich alle Bürger*innen kommunikativ entfalten können. Dazu braucht es einer Kommunikationsordnung, die gegen Gefahren von innen wie außen abgesichert ist. Die Kommunikationsfreiheit und die Medienfreiheiten sind also in einem System verschiedener Verbürgungen zu verorten. Wie die Hamburger Medienrechtler Keno Potthast und Wolfgang Schulz in einem Gutachten für die Berlin-Brandenburgischen Akademie der Wissenschaften schreiben, braucht die Demokratie im Lichte des Grundgesetzes den Staat zur Sicherung des Funktionierens einer freien und offenen, individuellen und öffentlichen Meinungsbildung.
Die Zukunft der Demokratie im Digitalen
Der Staat allein ist indes nicht genug: Die Plattformen haben erkannt, dass sie ihre Regeln und Moderationspraxen zunehmend legitimieren müssen, um sich gesellschaftlichem Druck und regulatorischer Kontrolle zu entziehen. Aktuell testen sie verschiedene Modelle: Ein großes soziales Netzwerk hat ein Oversight Board eingerichtet, das bei inhaltlichen Entscheidungen und algorithmischen Empfehlungen helfen soll. Das gleiche soziale Netzwerk experimentiert mit deliberativen Prozessen in großem Maßstab. Ein Spiele-Label experimentiert mit Spielerräten, die den Programmierern helfen sollen, spannende Spieldesign-Entscheidungen zu treffen. Der Beirat des deutschen öffentlich-rechtlichen Fernsehens möchte ein Bürgergremium einrichten, um mehr Einfluss auf Programmentscheidungen zu nehmen. Die größte Online-Wissensplattform der Welt, Wikipedia, lässt seit ihrer Gründung ihre User über inhaltliche Konflikte entscheiden.
All diese Beispiele haben ein grundlegendes Ziel: Es soll sichergestellt werden, dass Entscheidungen über Kommunikationsregeln und deren Durchsetzung durch eine breitere Beteiligung besser und differenzierter ausfallen und als legitim angesehen werden. Das setzt natürlich auch eine informierte Öffentlichkeit voraus, die bereit ist, sich zu beteiligen, die interessiert ist, die erkennt, dass wir alle Stakeholder der sich entwickelnden neuen Medienrealität sind. Wir haben ein „stake”, ein wertunterlegtes Teilhabeinteresse, an den Ergebnissen der Regulierung von Plattformen. Vor diesem Hintergrund ist ein Publikationsorgan wie te.ma bedeutsam, besonders mit Blick auf die systematische Verknüpfung zwischen Wissenschaften und Öffentlichkeit.