te.ma ist seit dem 01. August 2024 bis auf Weiteres inaktiv und befindet sich im Archiv-Modus. Alle Publikationen sind weiter zugänglich. Der Kommentarbereich ist jedoch abgeschaltet. Bestehende Nutzerkonten bleiben bis 31. Juli 2025 weiter zugänglich, neue Nutzerkonten können nicht mehr angelegt werden. Unser Newsletter wird nicht mehr weiter bespielt.

Mit Methode gegen Fake News

Inhalte

Intro

Geschrieben von Dennis Yücel

Bei te.ma veröffentlicht 27.06.2024

te.ma DOI 10.57964/et7j-3d50

Geschrieben von Dennis Yücel
Bei te.ma veröffentlicht 27.06.2024
te.ma DOI 10.57964/et7j-3d50

Der Umgang mit Verschwörungserzählungen und Falschinformationen scheint derzeit eine der größten politischen Herausforderungen in liberalen Demokratien. Ein internationales Team aus Expert*innen hat nun eine Toolbox erarbeitet, um Falschinformationen evidenzbasiert zu kontern.

Die Autor*innen haben sich 81 Studien angesehen, in denen verschiedene Methoden im Umgang mit Falschinformationen im digitalen Raum experimentell überprüft wurden. Es handelt sich dabei sowohl um Präventionsmaßnahmen als auch um Versuche, Falschinformationen nachträglich zu korrigieren. Eingeteilt werden die Methoden in drei verschiedene Gruppen: Refutation, Nudging und Boosting.

Refutation-Methoden stellen wohl die bekannteste und direkteste Strategie dar, mit Fake News und Verschwörungserzählungen umzugehen. Ziel ist hier die nachträgliche, argumentative Widerlegung von Falschinformationen. Die Autor*innen unterscheiden dabei zwischen Debunking, der gezielten Korrektur von einzelnen Lügen und Mythen, und Rebuttals, bei denen entweder der faktische Kontext eines komplexen Themenfeldes beleuchtet wird (thematisches Rebuttal) oder rhetorische Taktiken entlarvt werden, die versuchen, wissenschaftliche Fakten zu verschleiern (technisches Rebuttal). Im digitalen Raum können Debunkings und Rebuttals beispielsweise durch journalistische Angebote bereitgestellt werden, vor allem aber auch in Form von Faktenchecks auf sozialen Medien. Plattformen wie Facebook, Twitter und TikTok haben bereits mit derartigen Formaten experimentiert. Und in der Tat zeigt die Forschung, dass Online-Faktenchecks dazu beitragen können, dass Menschen ihre Einstellungen zu bestimmten Falschinformationen korrigieren.

Jede Methode hat ihre Nachteile

Der größte Nachteil der Methode ist jedoch, dass Faktenchecks nur nachträglich eingesetzt werden können. Sind Falschinformationen erst einmal in der Welt, halten sie sich dort in der Regel hartnäckig. Außerdem setzten Faktenchecks die Aufmerksamkeit von User*innen voraus – ebenso wie die Bereitschaft, ihnen grundlegend zu vertrauen und sich aktiv damit auseinanderzusetzen. Die Frage ist also, ob und wie man das Verhalten von User*innen gezielt in diese Richtung lenken könnte. Hier kommen Nudging-Strategien ins Spiel. Dabei geht es darum, die Architekturen von Online-Medien so anzulegen, dass ein selbstständiges und kritisches Verhalten von User*innen begünstigt wird. Die Autor*innen führen in diesem Zusammenhang drei Methoden an: Accuracy Prompts, Frictions und die Arbeit mit sozialen Normen.

Accuracy Prompts sind kurze Hinweise, die Menschen daran erinnern, sich kritisch mit Inhalten auseinanderzusetzen. Sie lenken die Aufmerksamkeit von User*innen auf ein genaues Lesen. Frictions gehen in diesem Ansatz noch weiter. Es handelt sich um Strategien, die Prozesse auf einer Webseite gezielt verlangsamen, beispielsweise mit dem Ziel, einem unüberlegten Teilen von Artikeln vorzubeugen. Schließlich versuchen andere Nudging-Strategien, soziale Normen zu nutzen. Ähnlich wie Onlineshops zum Kauf bestimmter Produkte verleiten, indem sie zeigen, wer oder wie viele andere Menschen diesen Artikel schon gekauft haben, so könnten – zumindest der Idee nach – auch Newsportale und soziale Medien dazu anregen, vertrauenswürdige Quellen zu bevorzugen. 

Im Gegensatz zu Refutation-Strategien sind Nudgings hochgradig skalierbar. Hier muss nicht in jedem Einzelfall ein Faktencheck erfolgen, sondern die Nudging-Architektur nur einmal angelegt werden. Die Effektivität konnte dabei experimentell nachgewiesen werden: Wenn Menschen aufgefordert werden, Überschriften vor dem Teilen kritisch zu überprüfen, teilen sie weniger Falschmeldungen.

Auch Nudging-Strategien bringen jedoch Nachteile mit sich. Die Autor*innen weisen darauf hin, dass insbesondere die bewusst verlangsamenden Friction-Modelle ethische Fragen aufwerfen – denn sie steuern das Verhalten von User*innen, ohne dass dies transparent gemacht wird. So ergeben sich auch Möglichkeiten für den Missbrauch. Wer bestimmt, wer, wo, wie den Zugang zu Informationen verlangsamen darf? 

Klassisches Verfahren: Methodenkompetenz stärken

Schließlich besprechen die Autor*innen verschiedene Boosting-Strategien. Als solche bezeichnen sie Methoden, die darauf abzielen, den Menschen die Kompetenzen an die Hand zu geben, Nachrichten kritisch zu überprüfen und Falschinformationen besser zu erkennen. Dazu gehört klassischerweise die Stärkung von Medienkompetenz, beispielsweise durch Techniken des lateralen Lesens – also der Überprüfung von Fakten durch die selbstständige Suche nach weiteren Quellen – oder einer Sensibilisierung für rhetorische Strategien von Wissenschaftsleugnung.

Auf die Frage, welche Strategien in welchen Kontexten wirksamer sind als andere, kann die Toolbox aus methodischen Gründen keine Antworten liefern. Die verschiedenen Interventionen können nur schwer miteinander verglichen werden, da ihre Wirksamkeit in den verschiedenen Studien nach unterschiedlichen Kriterien gemessen und bewertet wurde. Auch konnte die Effektivität von einzelnen Maßnahmen nicht lückenlos nachgewiesen werden – dafür waren viele der Studien zu klein und zu lokal. Vor allem wurden in den seltensten Fällen die Langzeiteffekte in den Blick genommen. Ob also einzelne Methoden nur einen momentanen Erfolg in der Laborsituation brachten oder Menschen ihren Umgang mit Informationen nachhaltig verändert haben, darüber gibt es meist keine Daten.

Die Toolbox bietet jedoch einen wertvollen Blick auf die aktuelle Forschungslage und viele wertvolle Hinweise, wie sich die Forschung in die konkrete Praxis von Onlinemedien übersetzen lässt. Sie liegt nicht nur als wissenschaftliches Paper vor, sondern auch in Form eines kleinen Online-Portals. Hier können wissenschaftliche Daten zu den verschiedenen Methoden gezielt angesteuert werden.

Re-Paper

Eingeschränkter Zugang
Eingeschränkter Zugang bedeutet, dass das Material nicht ohne weiteres öffentlich zugänglich ist.
Verwandte Artikel
Diskussionen
3 Kommentare
Es gibt neue Kommentare!
Te.ma befindet sich im Archiv-Modus und daher ist die Kommentarfunktion deaktiviert.
Total 0

Hm. Ich sage es mal ganz bold: Ich halte diesen ganzen Kampf gegen “fake news” für zwar gut gemeint, aber naiv und wirkungslos. Gegen diejenigen Fakes, die wirklich ein Problem sind, z. B. im Rahmen von Kriegspropaganda oder politischer Propaganda, hilft die Kombination von klassischer Berichterstattung und investigativem Journalismus mehr als alles “Debunking”. Und wer Verschwörungstheorien glauben will, den erreicht Factchecking & Co sowieso nicht – im Gegenteil, die Factchecker werden dann selbst als Teil der “Mainstream-Medien-Blase” wahrgenommen.

Das grösste Problem ist aber m. E., dass die meisten wirklich relevanten Angelegenheiten, in denen man sich Faktenklarheit wünscht, eben diese Klarheit prinzipiell gar nicht hergeben. Der Philosoph Eric Winsberg hat kürzlich das Buch Falsehoods Fly: Why Misinformation Spreads and How to Stop It (Paul Thagard) rezensiert und schreibt:

“Ich glaube, dass viele derjenigen, die sich an dieser Denkweise [des Kampfes gegen fake news] beteiligen, einen grundlegenden Fehler begehen. Der Fehler besteht darin, ganze Gruppen von Behauptungen, deren erkenntnistheoretische Grundlagen sehr unterschiedlich sind, zu einem Alles-oder-Nichts-Paket zusammenzufassen. Außerdem werden dabei oft erkenntnistheoretische und moralische Belange miteinander vermengt.”

Das ist für mich der Hauptpunkt: Fakten sind, sofern es um politisch relevante Angelegenheiten geht, immer etwas Hochkompliziertes, oft durch und durch von Ungewissenheiten durchzogen. Wenn dann ein Debunking daherkommt und sagt, so oder so ist es, und basta, dann demonstriert der Autor damit eigentlich nur, dass er nicht tief genug in die Materie eingestiegen ist.

Hier ist noch ein anderer kritischer Essay zu diesem Thema von Dan Williams: Misinformation poses a smaller threat to democracy than you might think.

Hören wir doch mit dem Versuch auf, als Medienschaffende unsere Leser ständig pädagogisierend an die zu Hand nehmen. Sie brauchen das nicht, und wir machen sie dadurch auch nicht zu besseren demokratischen Bürgern, sondern im Gegenteil, wir sorgen dafür, dass ihre eigene Urteilskraft erschlafft. Wir tun mehr für die Demokratie, wenn wir bei komplexen Sachverhalten Zweifel und Kontroversen mit darstellen und transparent machen, und bei den wenigen plumpen Fakes auf gute Berichterstattung und die Urteilskraft der Lesenden selbst setzen.

Sorry, ich wollte hier eine Frage formulieren und habe jetzt ein Statement draus gemacht.

Total 1

Ich stimme dir in vielen Punkten zu, und das ich den Artikel hier vorgestellt habe war auch nicht, weil ich völlig davon überzeugt bin, sondern im Gegenteil, teilweise auch um die oftmalige Hilflosigkeit vieler “evidenzbasierter” Ansätze darzustellen. Allerdings muss ich auch sagen, dass “Debunking” nur einen kleinen Teil der hier vorgestellten Methoden darstellt, und vieles mehr in die Richtung geht, die du dir vorgestellst. Von den Autoren hier beispielsweise “Rebuttal” genannt, wo es eben oft darum gehen kann, den kontroversen Charakter von komplexen Sachverhalten aufzumachen. Ansätze, die auf eine Stärkung der Urteilskraft von Lesern abzielen, werden auch diskutiert.

Letztlich können für mich solche, ich sage mal, “Verkomplizierungsansätze” das Problem aber nicht lösen. Selbst wenn man annimmt, dass weitere Teile der Bevölkerung über die zeitlichen, motivationalen und intellektuellen Ressourcen verfügen in die Feinheiten von Themen wie dem Klimawandel oder der Funktionsweise von MRNA-Impfstoffen einzusteigen - dass jemand als Laie die Notwendigkeit verspürt, weitreichenden wissenschaftlichen Konsensen selbst auf den Grund zu gehen, aufzudröseln was Latour als “Blackbox” bezeichnet, ist für mich mehr Symptom eines eklatanten Vertrauensverlusts in gesellschaftliche Problemlösungskompetenzen als Ansatz zu dessen Bewältigung.

Total 1

Mit deinem letzten Satz legst du m. E. genau den Finger in die Wunde. “[D]ass jemand als Laie die Notwendigkeit verspürt, weitreichenden wissenschaftlichen Konsensen selbst auf den Grund zu gehen, […] ist für mich mehr Symptom eines eklatanten Vertrauensverlusts in gesellschaftliche Problemlösungskompetenzen als Ansatz zu dessen Bewältigung.”

Einerseits glaube ich, dass das Konsensuelle in der Wissenschaft gerade im öffentlichen Diskurts in einer Weise überbetont und überstrapaziert wird, die es schon fast zu einer Illusion werden lassen. Es gibt viel mehr Dissens als Konsens in so gut wie allen Disziplinen. Indem man sich politisch auf einen vermeintlichen Konsens beruft, untergräbt man die Erkenntnis-Autorität der Wissenschaft eher, anstatt sie zu stärken.

Aber vor allem: Ja, selbst wenn ein eigenmächtiges, individuelles “Herumbohren” Symptom eines Vertrauensverlusts in die gesellschaftlichen Problemlösungskompetenzen ist – was macht man dann?

Ich denke da immer in Richtung der sozialen Rollen. Die “Arbeitsteilung” in Expertenrolle hier, Laienrolle da scheint offenbar nicht mehr zu funktionieren. Es gibt bereits jetzt etwas wie “citizen experts”, die eben gerade durch dieses Herumdröseln an den black boxes entstehen. Science Youtubers, allerlei Blogger, auch Wissenschaftsjournalisten. Und die sind im mixed-media System, in dem social media immer wichtiger wird, bereits wichtige Meinungsmacher. Gerade für sie scheint mir die “Verkomplizierung” tausendmal wichtiger, und letztlich auch irgendwann wirkungsvoller, als Debunking und das Insistieren auf Eindeutigkeiten. (Was der Artikel ja auch nicht predigt, gut dass du da nochmal drauf hinweist, ich habe das in meiner Reaktion etwas arg reduziert.)

te.ma sammelt keine Cookies. Um mit der Allgemeinen Datenschutzgrundverordnung (DSGVO) übereinzustimmen, müssen wir dich aber informieren, dass von uns eingebundene externe Medien (z.B. von YouTube) möglicherweise Cookies sammeln. Mehr dazu in unserer Datenschutzerklärung.