te.ma ist seit dem 01. August 2024 bis auf Weiteres inaktiv und befindet sich im Archiv-Modus. Alle Publikationen sind weiter zugänglich. Der Kommentarbereich ist jedoch abgeschaltet. Bestehende Nutzerkonten bleiben bis 31. Juli 2025 weiter zugänglich, neue Nutzerkonten können nicht mehr angelegt werden. Unser Newsletter wird nicht mehr weiter bespielt.

SPECIAL INPUT: Matthias C. Kettemann

Digitale Demokratie by Design: Was Habermas stört und Elon Musk freut

Die Regeln für Plattformen sind vorhanden und auch in Geltung. Angesichts der Eigengesetzlichkeiten der Plattformwirtschaft fehlt es jedoch an der effektiven Anwendung und Durchsetzung dieser Regeln. Matthias C. Kettemann, Forschungsgruppenleiter am Humboldt-Institut für Internet und Gesellschaft sowie am Leibniz-Institut für Medienforschung, diskutiert den Zusammenhang und gibt Einblicke in den aktuellen Stand der Debatte.

Meta-te.ma

Jürgen Habermas ist unzufrieden. Als vor 60 Jahren sein Strukturwandel der Öffentlichkeit1 erschien, sah er die individuelle Kommunikation und die partizipative Kultur in Gefahr durch Massenmedien, Film, Funk und Fernsehen. Passive Zuhörer*innen und Zuschauer*innen würden sich nicht mehr demokratisch engagieren, sondern nur noch konsumieren. Fast forward ins Jahr 2020: Film, Funk und Fernsehen verlieren an Publikum, die Kommunikation ist so partizipativ wie nie zuvor. Ist für Habermas ein goldenes Zeitalter deliberativer Politik angebrochen? Mitnichten: Im jüngst erschienenen Neuen Strukturwandel der Öffentlichkeit und die deliberative Politik2 identifiziert er eine neue Gefahr, nämlich dass sich die politische Öffentlichkeit in den stark und sehr individuell kuratierten Plattformen gar nicht mehr finden kann. 

Zugespitzt heißt das: Während es vor einem halben Jahrhundert wegen mächtiger Medien keine eigene Meinung mehr gab, gibt es nun vor lauter Meinungen keine öffentliche Meinung mehr. Wir alle kommunizieren, können es aber nicht wirklich. In Habermas’ Worten: „Wie der Buchdruck alle zu potenziellen Lesern gemacht hatte, so macht die Digitalisierung heute alle zu potenziellen Autoren. Aber wie lange hat es gedauert, bis alle lesen gelernt hatten?”3 

Nicht gesagt, aber gemeint: Wir sind noch nicht reif dafür, zu allem eine Meinung zu haben und zu äußern. Das erscheint (wenn auch an anderen Stellen wieder abgeschwächt) doch demokratiepolitisch bedenklich, zumal die demokratische Herausforderung wohl nicht im 80. Facebook-Katzenfoto, dem TikTok-Tanz oder dem überästhetisierten Instagram-Dessert zu verorten ist. Es sind nicht primär die vielen Inhalte, die Meinungsbildungsprozesse herausfordern, sondern die Eigengesetzlichkeiten der Plattformwirtschaft mit ihren auf Wertextraktion optimierten Empfehlungsalgorithmen.

Step 1: Solve Free Speech

Elon Musk ist auch unzufrieden. Er wird 45 Milliarden Dollar ausgeben, um den Kurznachrichtendienst Twitter zu kaufen. Das ist viel Geld. Und er hat viel mit Twitter vor: Er möchte aus dem besonders unter Politiker*innen und Medienmenschen beliebten (weltweit aber vergleichsweise kleinen) Dienst das digitale Äquivalent eines öffentlichen Forums machen und free speech sicherstellen. Wäre das eine Entwicklung, die Habermas gefallen könnte? Eher nicht, und da hilft auch nicht, dass Axel Springer-CEO Mathias Döpfner Musk in privaten Nachrichten beipflichtet und ihm etwas blauäugig schreibt:  „Step 1.) Solve Free Speech”. 

Leider ist das nicht so einfach. Zunächst ist die Sicherung von free speech eine regulatorische Herausforderung, die nicht gelöst werden kann; sie ist ein sogenanntes wicked problem. Auch die öffentliche Gesundheit oder der Klimawandel können nicht gelöst werden. Notwendig sind vielmehr parallel zu ergreifende, individuell schützende und strukturstabilisierende Maßnahmen. Zur Sicherung von Meinungsäußerungsfreiheit und eines lebhaften politischen Diskurses (denn die institutionelle Dimension der free speech wird oft gerne vergessen) ist gerade nicht ein Weniger an Regulierung und ein Mehr an Freiheit nötig. Wenn Elon Musk Donald Trump und Kanye West (dessen Inhalte bei Instagram wegen antisemitischer Äußerungen in ihrer Verbreitung reduziert bzw. entfernt wurden) wieder auf Twitter zulässt, liegt darin wohl nur formal ein Gewinn an Meinungsfreiheit. Das kann man schön an den Phänomenen von Desinformation (Was darf gesagt werden?), Deplatforming (Wer bestimmt, wer eine Stimme hat?) und Deliberation (Wie machen wir die Kommunikationsräume demokratischer?) zeigen.

Recht und Regeln

Zunächst aber: Welches Recht, welche Regeln gelten in Online-Kommunikationsräumen, und wie werden sie durchgesetzt? Grundsätzlich gelten die Allgemeinen Geschäftsbedingungen der Plattformen, ihre Gemeinschaftsstandards; das ist in privaten Offline-Räumen, wie im Aldi um die Ecke, auch nicht anders. In der Tat sind Facebook und TikTok aber nicht wie der Aldi, da die Regelsetzung und Regeldurchsetzung – durch menschliche wie weit überwiegend algorithmische Moderation – Teil des Plattformangebots ist. Die Regeln, die algorithmische Aufmerksamkeitslenkung und die Moderation sind zusammen genommen die “special sauce” der jeweiligen Plattform, ihr Coca-Cola-Rezept. (Daher sind sie auch gegenüber Transparenzanforderungen an die automatisierten Empfehlungssysteme eher zurückhaltend). Die internen Regeln – dies darf nicht vergessen werden – sind ein Teil des Plattformdesigns, das auch Empfehlungsalgorithmen und die Praxis der Plattformregulierung umfasst.

Sodann gilt – im deutschen Rechtsraum, den man auch nicht verlässt, wenn man Online-Angebote nutzt – deutsches Recht. Plattformen, die hier aktiv sind, müssen sich daher an deutsches Recht halten. Dass manche, wie Telegram, dies nicht tun, ist kein Geltungsproblem, sondern ein Problem der effektiven Anwendung bzw. Rechtsverfolgung. (Hier nach neuem Recht zu rufen, ist regelmäßig nicht zielführend; besser ist die Professionalisierung der forensischen Ausbildung der Polizei sowie finanziell gut ausgestattete Schwerpunktstaatsanwaltschaften). 

Die Plattformen haben zu einem großen Teil nationales Recht in ihre internen Regeln überführt, sodass sie regelmäßig nur nach Gemeinschaftsstandards prüfen (was etwa die niedrigen Meldequoten von Verstößen gegen das Netzwerkdurchsetzungsgesetz erkärt). Manche Inhalte verstoßen nur gegen interne Regeln, sind also nicht rechtswidrig – wie etwa der größte Teil von Desinformation,  manche Schimpfwörter und Nacktheit. Auch diese Inhalte – „lawful, but awful” – können besonders im Aggregat, und wenn sie algorithmisch verstärkt werden, zu einem Problem werden. An diesen Inhalten entzündet sich die Debatte um die „Zensur” durch Plattformen (die keine „Zensur” ist, zumindest nicht im Rechtssinn, weil Zensur nur von Behörden ausgeübt werden kann). Hinsichtlich dieser Inhalte können Plattformen, was unlängst der Bundesgerichtshof bestätigt hat, strenger sein, als dies das Gesetz vorschreibt. Sie müssen lediglich bei der Moderation bestimmte Verfahrensrechte einhalten, etwa die User, deren Inhalte sie löschen möchten, informieren: ex post, wenn es um einzelne Inhalte geht, ex ante, wenn ein ganzer Account dran glauben soll. 

Desinformation: Wer weiß schon, was wahr ist

Elon Musk will mehr Freiheit auf Twitter. Er meint damit alle Inhalte, die legal sind. Das ist ein Problem, denn der größte Teil von Desinformation – wie etwa falsche Aussagen zur Effektivität von Corona-Impfungen – ist nicht illegal, sonderneinfach sozial abträglich. In einem Gutachten für die Landesmedienanstalt Nordrhein-Westfalen haben Expert*innen des Leibniz-Instituts für Medienforschung aus Hamburg aufgezeigt, warum eine Regulierung von Desinformation zu schwierig ist. Zum einen ist Wahrheitsfindung keine Aufgabe des Staates, sondern ein gesellschaftlicher Prozess kommunikativer Konstruktion; zum anderen sind diskursunterstützende Ansätze nötig, die über klassische Regelungsformen nicht verfolgt werden können. Selbst Fact-Checking-Verfahren, Hinweise und Warnungen können für rechtmäßige Inhalte nicht zur gesetzlichen Pflicht gemacht werden. Die Expert*innen schlagen stattdessen vor, Maßnahmen zur Vertrauensförderung in journalistisch-redaktionell gestaltete Inhalte durch Forderungen zur Einhaltung von Sorgfaltspflichten zu setzen. Entsprechende Pflichten könnten dann auch für nicht-journalistische Akteure mit hoher Meinungsbildungsrelevanz – Politiker*innen, Influencer*innen - gelten.

In diese Richtung geht auch Jürgen Habermas im Neuen Strukturwandel. Er fordert Mindeststandards für die Qualität von Online-Texten. Das mag zwar als grundsätzliche Forderung vertretbar sein, lässt sich aber, wie hier ausgeführt, rechtlich nicht bewerkstelligen (wie übrigens für Texte im Offline-Bereich auch nicht). So erscheint es doch schwierig, die von Habermas angedachte Haftung der Plattformen für die Verbreitung von falschen Informationen europa- und verfassungsrechtskonform auszugestalten. In jedem Fall setzt der Rechtsakt über Digitale Dienste (DSA) hier neue Akzente und erhöht die Rechenschaftspflicht der Plattformakteure, die etwa jährlich berichten müssen, welche Maßnahmen sie gegen Inhalte treffen, die demokratiegefährdend oder gesundheitsschädigend sind. Darüber hinaus haben Plattformen ein wachsendes Eigeninteresse, gegen koordinierte inauthentische Kommunikationen vorzugehen, und haben zuletzt etwa nach dem Angriff Russlands auf die Ukraine gezeigt, dass sie sehr schnell reagieren können, um Desinformation – hier durch die russischen Staatsmedien – zu entfernen. Das bringt uns zum Deplatforming.

Deplatforming 

Das Internet verschafft jedem von uns ein Podium. Aber wissen wir es zu nutzen? Nein, meint Jürgen Habermas, der Traum von der direkten deliberativen Demokratie, so Habermas, sei ausgeträumt. Doch dürfen die Plattformen entscheiden, wem das Podium entzogen wird?

Wie gezeigt, sind Plattformen grundsätzlich berechtigt, von den Nutzer*innen eines Netzwerks die Einhaltung bestimmter Kommunikationsstandards zu verlangen, die über die Anforderungen des nationalen Rechts hinausgehen. Das haben für den deutschen Rechtsraum mehrfach Höchstgerichte bestätigt. Sie können sich das Recht vorbehalten, bei einem Verstoß gegen ihre Gemeinschaftsstandards Beiträge zu entfernen und das betreffende Nutzerkonto zu sperren. Um jedoch einen interessengerechten Ausgleich zwischen den kollidierenden Grundrechten zu schaffen, ist es erforderlich, dass sich die Plattformen in den Geschäftsbedingungen verpflichten, die betroffenen Nutzer*innen zumindest nachträglich über die Entfernung eines Beitrags und vorab über eine beabsichtigte Sperrung des Benutzerkontos zu informieren, ihnen den Grund für die Maßnahme mitzuteilen und ihnen Gelegenheit zur Stellungnahme zu geben, woraufhin gegebenenfalls eine neue Entscheidung ergeht. Gerade die Pflicht zur Begründung von Entscheidungen, die algorithmisch prädeterminiert sind, ist noch nicht fertig gedacht.

Der Freiheitsschutz ist auch dem Bundesgerichtshof wichtig: „Die Grundrechte von Facebook sind mit denen der Nutzer so abzuwägen, dass die Grundrechte der Nutzer die größtmögliche Wirkung entfalten."4 Erstens muss es objektive Gründe für die Entfernung von Inhalten und die Sperrung von Nutzerkonten geben. Obwohl Facebook für die allgemeine Kommunikation und den Informationsaustausch genutzt wird, darf das Netzwerk nicht willkürlich bestimmte (z.B. politische) Meinungen verbieten. Ein Verbot politischer Werbung wäre jedoch noch in Ordnung. Ein komplettes Verbot politischer Äußerungen wäre nach dieser Lesart ein Verstoß gegen die Kommunikationsrechte der Nutzer*innen. Umgekehrt müssen die Gemeinschaftsstandards objektive und klare Regeln enthalten, die wenig bis keinen Spielraum für Interpretationen lassen. Mit anderen Worten: Wenn Facebook etwas verbieten will, sollte jeder verstehen können, worum es sich dabei handelt. 

Die Welt ist schwierig genug. Zumindest die Regeln müssen klar sein. Die zweite Anforderung des Gerichts an die Moderation von Inhalten zielt auf die Größe von Facebook ab: Wenn ein Unternehmen die freie Meinungsäußerung von Millionen von Menschen einschränken will (wie ein Staat), muss es sich an die Anforderungen eines ordentlichen Verfahrens halten (wie ein Staat). Das ist „Grundrechtsschutz durch Verfahren". 

Deliberative Demokratie im Netz

Blicken wir nach vorne: Mit Sorge sieht Jürgen Habermas eine Gesellschaft, die zerborsten in „Halböffentlichkeiten“ ihre gemeinsamen Bezugspunkte verliert. Die Räume, in denen kommuniziert wird, scheinen eine eigenartige „[...] anonyme Intimität zu gewinnen: Nach bisherigen Maßstäben können sie weder als öffentlich noch als privat, sondern am ehesten als eine zur Öffentlichkeit aufgeblähte Sphäre einer bis dahin dem brieflichen Privatverkehr vorbehaltenen Kommunikation begriffen werden.”5 Wir sagen dazu „hybride Räume”, weil private Regeln und öffentlichkeitsrelevante Kommunikation zusammenfallen. Und in genau diesen Räumen wird die Zukunft der digital vermittelten Demokratie verhandelt.

Doch wer soll nun die Demokratie im digitalen Zeitalter retten? Für Jürgen Habermas ist es klar: der Staat. In einem ebenfalls im Neuen Strukturwandel abgedruckten Essay schließt er mit einer Erinnerung an die Verantwortung des Verfassungsrechts für die Stabilisierung der Wahrheitsordnung einer Gesellschaft: „Es ist keine politische Richtungsentscheidung, sondern ein verfassungsrechtliches Gebot, eine Medienstruktur aufrechtzuerhalten, die den inklusiven Charakter der Öffentlichkeit und einen deliberativen Charakter der öffentlichen Meinungs- und Willensbildung ermöglicht.”6

Das trifft zu: Der Staat wird in der komplexen Gesellschaft von heute nicht primär als Gefährder von Freiheit, sondern auch als deren Garant gesehen. Diese Garantiefunktion ist gerade in einer Demokratie besonders wichtig. Demokratien beruhen darauf – hier sind wir wieder auf Habermas’ ureigenem Spielfeld –, dass sich alle Bürger*innen kommunikativ entfalten können. Dazu braucht es einer Kommunikationsordnung, die gegen Gefahren von innen wie außen abgesichert ist. Die Kommunikationsfreiheit und die Medienfreiheiten sind also in einem System verschiedener Verbürgungen zu verorten. Wie die Hamburger Medienrechtler Keno Potthast und Wolfgang Schulz in einem Gutachten für die Berlin-Brandenburgischen Akademie der Wissenschaften schreiben, braucht die Demokratie im Lichte des Grundgesetzes den Staat zur Sicherung des Funktionierens einer freien und offenen, individuellen und öffentlichen Meinungsbildung. 

Die Zukunft der Demokratie im Digitalen 

Der Staat allein ist indes nicht genug: Die Plattformen haben erkannt, dass sie ihre Regeln und Moderationspraxen zunehmend legitimieren müssen, um sich gesellschaftlichem Druck und regulatorischer Kontrolle zu entziehen. Aktuell testen sie verschiedene Modelle: Ein großes soziales Netzwerk hat ein Oversight Board eingerichtet, das bei inhaltlichen Entscheidungen und algorithmischen Empfehlungen helfen soll. Das gleiche soziale Netzwerk experimentiert mit deliberativen Prozessen in großem Maßstab. Ein Spiele-Label experimentiert mit Spielerräten, die den Programmierern helfen sollen, spannende Spieldesign-Entscheidungen zu treffen. Der Beirat des deutschen öffentlich-rechtlichen Fernsehens möchte ein Bürgergremium einrichten, um mehr Einfluss auf Programmentscheidungen zu nehmen. Die größte Online-Wissensplattform der Welt, Wikipedia, lässt seit ihrer Gründung ihre User über inhaltliche Konflikte entscheiden. 

All diese Beispiele haben ein grundlegendes Ziel: Es soll sichergestellt werden, dass Entscheidungen über Kommunikationsregeln und deren Durchsetzung durch eine breitere Beteiligung besser und differenzierter ausfallen und als legitim angesehen werden. Das setzt natürlich auch eine informierte Öffentlichkeit voraus, die bereit ist, sich zu beteiligen, die interessiert ist, die erkennt, dass wir alle Stakeholder der sich entwickelnden neuen Medienrealität sind. Wir haben ein „stake”, ein wertunterlegtes Teilhabeinteresse, an den Ergebnissen der Regulierung von Plattformen. Vor diesem Hintergrund ist ein Publikationsorgan wie te.ma bedeutsam, besonders mit Blick auf die systematische Verknüpfung zwischen Wissenschaften und Öffentlichkeit. 

Fußnoten
6

Jürgen Habermas: Strukturwandel der Öffentlichkeit. Untersuchungen zu einer Kategorie der bürgerlichen Gesellschaft. Suhrkamp, Berlin, 1962.

Jürgen Habermas: Ein neuer Strukturwandel der Öffentlichkeit und die deliberative Politik. Suhrkamp, Berlin, 2022.

Ebd., S. 46.

Habermas, Neuer Strukturwandel, S. 62.

Ebd., S. 67.

Tags

Verwandte Artikel

Wicked problems („vertrackte” oder auch „fiese” Probleme) zeichnen sich dadurch aus, dass Lösungsansätze eines ihrer Teilprobleme selbst wiederum einen – oft nur ungenügend prognostizierbaren – Einfluss auf die gesamte Problemlage haben und dabei alle Faktoren voneinander abhängig sind. Daher gelten sie als extrem schwer lösbar bzw. durch planmässiges Handeln nicht vollständig lösbar.

Ein algorithmisches Empfehlungssystem ist ein Softwaresystem, welches eine Vorhersage darüber trifft, wie stark das Interesse von Usern an einem Objekt ist, um die für die jeweilige Person relevantesten Inhalte anzuzeigen. Diese Inhalte können zum Beispiel Produkte eines Webshops, Audiodateien auf Streaming-Plattformen oder Filme sein.

Diskussionen
0 Kommentare
Es gibt neue Kommentare!
Te.ma befindet sich im Archiv-Modus und daher ist die Kommentarfunktion deaktiviert.

Noch keine Kommentare

te.ma sammelt keine Cookies. Um mit der Allgemeinen Datenschutzgrundverordnung (DSGVO) übereinzustimmen, müssen wir dich aber informieren, dass von uns eingebundene externe Medien (z.B. von YouTube) möglicherweise Cookies sammeln. Mehr dazu in unserer Datenschutzerklärung.