Verschwörungstheorien Verschwörungstheorien
Die Coronavirus-Pandemie ist eine regelrechte Pandemie an Verschwörungstheorien – auch begünstigt durch die Sozialen Medien. (Bild: Kalaidos FH)

Wer hat’s erfunden? Bill Gates. Denken sich zumindest Scharen an Verschwörungstheoretikern im Internet, die überzeugt sind, dass Bill Gates die Coronavirus-Pandemie verursacht hat, um der gesamten Weltbevölkerung über eine Zwangsimpfung einen GPS-Chip einzupflanzen – damit wir alle auf Schritt und Tritt überwachbar werden. Nicht schlecht für einen vermeintlichen Computernerd wie Bill Gates.

Die Coronavirus-Pandemie ist auch eine regelrechte Pandemie an Verschwörungstheorien. Egal, ob es um die Entstehung des Virus, die gesundheitlichen Risiken von Covid-19 oder um die gesellschaftlichen und politischen Antworten auf die Pandemie geht: Um das Coronavirus ranken sich unzählige Mythen und unbelegte Thesen. Dieser Umstand ist nicht komplett verwunderlich, denn Verschwörungstheorien sind intuitive Denkstützen und Erklärungsansätze für unwahrscheinliche, einschneidende Ereignisse. Wir sind grundsätzlich alle anfällig für verschwörungstheoretisches Denken, denn Verschwörungstheorien liefern einfache Erklärungen in komplexen Situationen.

Doch die schiere Wucht der Verschwörungstheorien, mit denen wir heutzutage als Gesellschaft konfrontiert sind, kann nicht allein durch unsere Suche nach Antworten in ungewissen Zeiten erklärt werden. Eine zentrale Rolle spielen auch die modernen Verbreitungskanäle von Verschwörungstheorien: Soziale Medien und sonstige Online-Plattformen begünstigen das Wuchern verschwörungstheoretischen Unkrauts.

Die fragwürdigen Businessmodelle der Techgiganten

Das Internet hat den öffentlichen Diskurs ein Stück weit “demokratisiert”: Heute kann sich jede und jeder mit wenig Aufwand öffentlich äussern und ein Publikum finden. Es ist grundsätzlich zu begrüssen, dass klassische Massenmedien nicht mehr die alleinigen Gralshüter öffentlicher Kommunikation sind. Die Kehrseite der Medaille ist aber, dass wir heutzutage dank des Internets auch jeden noch so irrationalen Quatsch ungefiltert in die Welt hinausposaunen können.

Für sich genommen sollte das aber kein fundamentales Problem darstellen. Menschen verbreiten online Unsinn, aber Menschen kritisieren solchen Unsinn auch; und überhaupt sind Verschwörungstheorien ja nur ein kleiner Bruchteil unserer Online-Kommunikation. Wie kommt es dann, dass Verschwörungstheorien im Internet trotzdem eine derartige “Viralität” entwickeln, so dass grosse Teile der Bevölkerung damit in Kontakt kommen? Eine wichtige Rolle spielt das Geschäftsmodell von Social Media und sonstigen Plattformen.

Der Facebook-Chef Mark Zuckerberg und Konsorten behaupten gerne, dass das einzige Ziel ihrer Social-Media-Plattformen sei, Menschen einander näher zu bringen – ein geradezu altruistisches Motiv. Die Realität ist aber eine andere. Soziale Medien sind so aufgebaut, dass sie uns maximal lange an den Bildschirm kleben, um einerseits maximal viele Daten über uns zu sammeln, und um uns andererseits maximal viel Werbung vorzusetzen. Dieses Prinzip beschreibt die Autorin und Forscherin Shoshana Zuboff treffend als Überwachungskapitalismus.

Damit dieser Mechanismus möglichst gut funktioniert und wir möglichst lange auf die Bildschirme starren, bedienen die Plattformen gezielt unseren Confirmation Bias, also unseren Bestätigungsfehler. Das, was wir bereits glauben, wollen wir tendenziell auch weiter glauben. Diese kognitive Verzerrung ist menschlich und universal, aber auf den Online-Plattformen wird sie zusätzlich befeuert, indem uns immer mehr vom Gleichen aufgetischt wird.

Das typische Beispiel hierfür ist die Videoplattform YouTube. Der Empfehlungs-Algorithmus bei YouTube ist auf die Maximierung des sogenannten Engagement ausgelegt, und das funktioniert am besten, wenn thematisch möglichst ähnliche Videos empfohlen werden. Das macht Sinn: Wenn ich ein Rezept für vegane Pfannkuchen anschaue, ist es wahrscheinlich, dass mich auch weitere vegane Rezepte interessieren könnten. Mein Engagement wird mit Vorschlägen für weitere vegane Rezepte also sehr wahrscheinlich grösser ausfallen als mit Rezepten für Hackbraten.

Das Problem mit dieser algorithmischen Selektion ist, dass sie bei im weitesten Sinn politischen Themen in sogenannten Filterblasen münden kann, wie Eli Pariser bereits 2011 warnte. Wenn Leute online zufällig über Verschwörungs-Content stolpern, schlagen die Algorithmen automatisch weiteren Verschwörungs-Content vor – und so unscheinbar beginnt eine Verschwörungsspirale. Es gibt zudem Evidenz, dass insbesondere YouTube nicht nur ähnliche, sondern bisweilen auch zunehmend extremere Inhalte vorschlägt. Damit sind Online-Filterblasen potenziell nicht nur ein Ort der weltanschaulichen Einfalt, sondern auch der Radikalisierung.

Was ist zu tun?

Angesichts der Verschwörungsspiralen auf den sozialen Plattformen könnte man reflexartig nach Eingriffen wie Moderation und Löschung rufen. Doch diese sanfte Form der Zensur ist doppelt unvorteilhaft. Erstens gibt es keine guten Gründe, anzunehmen, dass die Betreiber der Plattformen wirklich systematisch sauber einschätzen können, welche Inhalte klar verschwörungstheoretisch sind und welche nicht. Zweitens zeigt nicht zuletzt die Coronavirus-Pandemie, dass sich die verschwörungstheoretischen Inhalte einfach auf andere Plattformen wie zum Beispiel halbprivate Räume auf WhatsApp und Telegram verlagern, wo wir kaum einen Einblick ins irrationale Geschehen haben.

Der bessere Umgang mit Verschwörungstheorien ist darum, diese aktiv aufzugreifen und zu diskutieren. Verschwörungstheorien sind kein Randphänomen mehr, das man totschweigen oder einfach ins Lächerliche ziehen könnte. Stattdessen sollten wir, wie die Psychologen Stephen Lewandowsky und John Cook empfehlen, Verschwörungstheoretikern und ihren Theorien mit Wohlwollen und Empathie begegnen, in der Sache aber kritisch auf sachliche Ungereimtheiten und logische Unschlüssigkeiten verweisen. Das beste Mittel gegen schlechte Argumente sind und bleiben gute Argumente.


Quellen und weiterführende Informationen:

Kaiser, J., & Rauchfleisch, A. (2018). Unite the right? How YouTube’s recommendation algorithm connects the U.S. far-right. https://medium.com/@MediaManipulation/unite-the-right-how-youtubes-recommendation-algorithm-connects-the-u-s-far-right-9f1387ccfabd

Kovic, M., & Füchslin, T. (2018). Probability and conspiratorial thinking. Applied cognitive psychology, 32(3), 390-400. https://doi.org/10.1002/acp.3408

Lewandowsky, S., & Cook, J. (2020). The conspiracy theory handbook. Fairfax, Virginia: Center for Climate Change Communication, George Mason University. https://www.climatechangecommunication.org/conspiracy-theory-handbook/

Pariser, E. (2011). The filter bubble: What the Internet is hiding from you. London: Penguin UK.

Ribeiro, M. H., Ottoni, R., West, R., Almeida, V. A., & Meira Jr, W. (2020). Auditing radicalization pathways on youtube. In Proceedings of the 2020 conference on fairness, accountability, and transparency (pp. 131-141). https://arxiv.org/pdf/1908.08313.pdf

The Economist, (2020). Fake news is fooling more conservatives than liberals. Why? https://www.economist.com/international/2020/06/03/fake-news-is-fooling-more-conservatives-than-liberals-why

Zuboff, S. (2019). The age of surveillance capitalism: The fight for a human future at the new frontier of power (first edition). New York: PublicAffairs.

Facebook Twitter Xing LinkedIn WhatsApp E-Mail