Die Autor*innen haben sich 81 Studien angesehen, in denen verschiedene Methoden im Umgang mit Falschinformationen im digitalen Raum experimentell überprüft wurden. Es handelt sich dabei sowohl um Präventionsmaßnahmen als auch um Versuche, Falschinformationen nachträglich zu korrigieren. Eingeteilt werden die Methoden in drei verschiedene Gruppen: Refutation, Nudging und Boosting.
Refutation-Methoden stellen wohl die bekannteste und direkteste Strategie dar, mit Fake News und Verschwörungserzählungen umzugehen. Ziel ist hier die nachträgliche, argumentative Widerlegung von Falschinformationen. Die Autor*innen unterscheiden dabei zwischen Debunking, der gezielten Korrektur von einzelnen Lügen und Mythen, und Rebuttals, bei denen entweder der faktische Kontext eines komplexen Themenfeldes beleuchtet wird (thematisches Rebuttal) oder rhetorische Taktiken entlarvt werden, die versuchen, wissenschaftliche Fakten zu verschleiern (technisches Rebuttal). Im digitalen Raum können Debunkings und Rebuttals beispielsweise durch journalistische Angebote bereitgestellt werden, vor allem aber auch in Form von Faktenchecks auf sozialen Medien. Plattformen wie Facebook, Twitter und TikTok haben bereits mit derartigen Formaten experimentiert. Und in der Tat zeigt die Forschung, dass Online-Faktenchecks dazu beitragen können, dass Menschen ihre Einstellungen zu bestimmten Falschinformationen korrigieren.
Jede Methode hat ihre Nachteile
Der größte Nachteil der Methode ist jedoch, dass Faktenchecks nur nachträglich eingesetzt werden können. Sind Falschinformationen erst einmal in der Welt, halten sie sich dort in der Regel hartnäckig. Außerdem setzten Faktenchecks die Aufmerksamkeit von User*innen voraus – ebenso wie die Bereitschaft, ihnen grundlegend zu vertrauen und sich aktiv damit auseinanderzusetzen. Die Frage ist also, ob und wie man das Verhalten von User*innen gezielt in diese Richtung lenken könnte. Hier kommen Nudging-Strategien ins Spiel. Dabei geht es darum, die Architekturen von Online-Medien so anzulegen, dass ein selbstständiges und kritisches Verhalten von User*innen begünstigt wird. Die Autor*innen führen in diesem Zusammenhang drei Methoden an: Accuracy Prompts, Frictions und die Arbeit mit sozialen Normen.
Accuracy Prompts sind kurze Hinweise, die Menschen daran erinnern, sich kritisch mit Inhalten auseinanderzusetzen. Sie lenken die Aufmerksamkeit von User*innen auf ein genaues Lesen. Frictions gehen in diesem Ansatz noch weiter. Es handelt sich um Strategien, die Prozesse auf einer Webseite gezielt verlangsamen, beispielsweise mit dem Ziel, einem unüberlegten Teilen von Artikeln vorzubeugen. Schließlich versuchen andere Nudging-Strategien, soziale Normen zu nutzen. Ähnlich wie Onlineshops zum Kauf bestimmter Produkte verleiten, indem sie zeigen, wer oder wie viele andere Menschen diesen Artikel schon gekauft haben, so könnten – zumindest der Idee nach – auch Newsportale und soziale Medien dazu anregen, vertrauenswürdige Quellen zu bevorzugen.
Im Gegensatz zu Refutation-Strategien sind Nudgings hochgradig skalierbar. Hier muss nicht in jedem Einzelfall ein Faktencheck erfolgen, sondern die Nudging-Architektur nur einmal angelegt werden. Die Effektivität konnte dabei experimentell nachgewiesen werden: Wenn Menschen aufgefordert werden, Überschriften vor dem Teilen kritisch zu überprüfen, teilen sie weniger Falschmeldungen.
Auch Nudging-Strategien bringen jedoch Nachteile mit sich. Die Autor*innen weisen darauf hin, dass insbesondere die bewusst verlangsamenden Friction-Modelle ethische Fragen aufwerfen – denn sie steuern das Verhalten von User*innen, ohne dass dies transparent gemacht wird. So ergeben sich auch Möglichkeiten für den Missbrauch. Wer bestimmt, wer, wo, wie den Zugang zu Informationen verlangsamen darf?
Klassisches Verfahren: Methodenkompetenz stärken
Schließlich besprechen die Autor*innen verschiedene Boosting-Strategien. Als solche bezeichnen sie Methoden, die darauf abzielen, den Menschen die Kompetenzen an die Hand zu geben, Nachrichten kritisch zu überprüfen und Falschinformationen besser zu erkennen. Dazu gehört klassischerweise die Stärkung von Medienkompetenz, beispielsweise durch Techniken des lateralen Lesens – also der Überprüfung von Fakten durch die selbstständige Suche nach weiteren Quellen – oder einer Sensibilisierung für rhetorische Strategien von Wissenschaftsleugnung.
Auf die Frage, welche Strategien in welchen Kontexten wirksamer sind als andere, kann die Toolbox aus methodischen Gründen keine Antworten liefern. Die verschiedenen Interventionen können nur schwer miteinander verglichen werden, da ihre Wirksamkeit in den verschiedenen Studien nach unterschiedlichen Kriterien gemessen und bewertet wurde. Auch konnte die Effektivität von einzelnen Maßnahmen nicht lückenlos nachgewiesen werden – dafür waren viele der Studien zu klein und zu lokal. Vor allem wurden in den seltensten Fällen die Langzeiteffekte in den Blick genommen. Ob also einzelne Methoden nur einen momentanen Erfolg in der Laborsituation brachten oder Menschen ihren Umgang mit Informationen nachhaltig verändert haben, darüber gibt es meist keine Daten.
Die Toolbox bietet jedoch einen wertvollen Blick auf die aktuelle Forschungslage und viele wertvolle Hinweise, wie sich die Forschung in die konkrete Praxis von Onlinemedien übersetzen lässt. Sie liegt nicht nur als wissenschaftliches Paper vor, sondern auch in Form eines kleinen Online-Portals. Hier können wissenschaftliche Daten zu den verschiedenen Methoden gezielt angesteuert werden.