Die Forderung nach aufrichtiger Information für eine vertrauensvolle Demokratie

Filterblasen und echokammern

Das Internet hat jedem Benutzer eine beeindruckende Menge an Informationen nur einen Klick entfernt gestellt. Durch soziale Netzwerke und Foren hat das Internet auch die Möglichkeit eröffnet, sich mit einer großen Anzahl von geographisch weit entfernten Personen zu unterhalten und zu debattieren. Die Zutaten – Informationen und Debatten – schienen also vorhanden zu sein, damit die Entwicklung des Internets unsere Demokratien neu belebt. Das Web hätte jedoch eher zur Entstehung von „Demokratien der Leichtgläubiger“[1] als zu „Wissensgesellschaften“[2] geführt, und soziale Netzwerke würden eigentlich die Polarisierung der Meinungen anstatt einem besseren Verständnis divergierender Standpunkte begünstigen.

Zwei Phänomene, die aus dem Funktionieren des Internet entstanden sind, werden oft beschuldigt, zu dieser Situation beigetragen zu haben: „Filterblasen“ und „Echokammern“. In diesem Artikel stellen wir diese beiden Begriffe, die oft in den Medien erwähnt aber selten gut verstanden werden, sowie einige Kritiken vor, die an ihnen geübt wurden.

[1] Bronner, G. (2013). La démocratie des crédules. Presses universitaires de France.

[2] Bindé, J., Demarais, L. & Plouin, J. (2005). Vers les sociétés du savoir. UNESCO-Weltbericht / UNESCO-Referenzbuchreihe.

Aurélien Brest
Forschungsleiter in Kognitive Psychology Bei Der Fondation Descartes

I – Die Filterblasen

Eine „Filterblase“ bezeichnet den Mechanismus zum Filtern der Information, die der Internetbenutzer bekommt. Laut dem Internetexperten Eli Pariser entstehen Filterblasen aus Personalisierungsvorrichtungen von Online-Inhalten und würden Internetbenutzer intellektuell isolieren und die Vielfalt der Informationen, denen sie ausgesetzt sind, verringern (Eli Pariser, The Filter Bubble: What the Internet is Hiding from You, Penguin Press, 2011) 1 Zum Beispiel wird der Facebook-Newsfeed einer Person, die ein starkes Interesse an Katzen gezeigt hat, mit Inhalten über Katzen gefüllt. Diese Operation wird von den Algorithmen der digitalen Plattformen verwaltet, die die Interessen ihrer Benutzer bestimmen, indem sie die Informationen zu ihrem Online-Verhalten untersuchen.

Am Anfang werden einfache Informationen über die Benutzer gesammelt: Alter, Geschlecht, hinzugefügte Kontakte. Die neuen Medien des Internets haben aber mehrere Werkzeuge integriert, die es heute ermöglichen, viel genauere Informationen über ihre Benutzer zu sammeln. Das sind zum Beispiel die Schaltflächen „Teilen“, „Gefällt mir“, „Abonnieren“, usw., die die Algorithmen über das Online-Verhalten der Benutzer informieren. Facebook hat zum Beispiel 2009 seine Schaltfläche „Gefällt mir“ eingeführt. Eine Woche später hatten 50.000 Websites diese Schaltfläche in ihre Architektur integriert (Kris Olin, Facebook Advertising Guide, 2010). Dank dem Vorhandensein dieser Schaltfläche auf vielen Websites kann Facebook viele Informationen über seine Benutzer sammeln. Wenn der Benutzer zum Beispiel auf die Schaltfläche „Gefällt mir“ unter einem mit Katzen verbundenen Produkt klickt, sendet er Facebook einen Hinweis auf seine Geschmäcke und Vorlieben. Im Gegenzug stellt Facebook ihm mehr Inhalte über Katzen vor.

Die Algorithmen der neuen Medien sind also in der Lage, ihren Benutzern immer mehr personalisierte Inhalte zu empfehlen. Und je häufiger Benutzer diese Websites besuchen, desto personalisierter und interessanter sind die Informationen für sie. Daher versteht man, dass Personalisierungsalgorithmen ein entscheidendes Thema für digitale Plattformen sind: Sie sind der Schlüssel zu ihrem Geschäftsmodell. Dank diesen Algorithmen können nämlich Plattformen Unternehmen die Möglichkeit anbieten, gezielte Werbung für ihre Produkte zu machen – die Werbung stellt die Haupteinnahmequelle für digitale soziale Netzwerke dar 2. Die Unternehmen sind ihrerseits dazu bereit, beträchtliche Summen zu investieren, um eine wirksame zielgerichtete Werbung sicherzustellen 3.

Schädliche Auswirkungen auf die Benutzer?

Laut Eli Pariser hätte die Personalisierung der Information im Internet eine schädliche Auswirkung auf Internetbenutzer: Sie würden nicht mehr Informationen ausgesetzt, die ihre Interessen erweitern oder ihre Überzeugungen und Meinungen infrage stellen könnten. Mit anderen Worten: Internetbenutzer würden sich nach und nach in eine Filterblase einschließen, die jegliche abweichende Information kurzschließt und ihre Neugierde verarmen lässt.

Natürlich gab es schon vor dem Durchbruch des Internets Medien, die hochspezialisierte Informationen anboten oder redaktionell stark ausgerichtet waren. Sie wollten es aber gar nicht verbergen. Facebook, Youtube (das zu Google gehört) und andere ähnliche Plattformen stellen sich allerdings weder als spezialisierte Medien noch als Medien vor, sondern als einfache Content-Hosting-Plattformen. Mit anderen Worten, die Spezialisierung und Orientierung der angebotenen Information erfolgt teilweise ohne Wissen des Benutzers. Eli Pariser veranschaulicht diesen Punkt, indem er sein Google-Suchergebnis zum Wort „Ägypten“ mit dem eines seiner Freunde vergleicht. Ihm zeigt Google Ergebnisse zur Politik, während touristische Links seinem Freund vorgeschlagen werden. Mit anderen Worten, der Algorithmus bildet zwei verschiedene Weltanschauungen, die sich auf die Schlussfolgerungen stützen, die die Algorithmen aus den gesammelten persönlichen Informationen ziehen.

Eli Pariser meint, dass diese Personalisierungsfilter teilweise verantwortlich für die besonders starke politische Polarisierung in den Vereinigten Staaten zwischen Liberalen und Konservativen sind. Nachdem sie mit ultra-personalisierten politischen Informationen konfrontiert wurden, würden Individuen am Ende nichts mehr mit ihren politischen Gegnern teilen, was jegliche Möglichkeit zur Errichtung eines öffentlichen Raums im politischen Sinne des Wortes – das heißt eines Debattenraums, dessen Funktionieren die Einigung auf einen Mindestsockel von Fakten und Informationen voraussetzt – verhindern würde.

Filterblasen, ein umstrittenes Konzept

Während die Personalisierung der Information tatsächlich eine Besonderheit der Internetmedien ist, bestreiten einige Forscher die Existenz oder die wirkliche Tragweite der Filterblasen, die daraus entstehen sollen. Richard Fletcher, Forscher am Reuters Institute und Mitautor des jährlichen Berichts über digitale Information 4, differenziert die negative Auswirkung, die Eli Pariser auf die Algorithmen digitaler Plattformen zurückführt, und stellt die Idee in Frage, dass die politische Polarisierung in den Vereinigten Staaten mit der Personalisierung der Information verbunden ist 5. Seine Argumentation beruht auf einer Reihe von wissenschaftlichen Artikeln, die er zu diesem Thema verfasst hat.

Seinen Darlegungen zufolge, wenn Personalisierungsalgorithmen unseren Informationshorizont verarmen lassen, bedeutet dies, (1) dass wir in digitalen sozialen Netzwerken weniger vielfältigen Informationen als offline ausgesetzt werden, und (2) dass diese Verarmung ohne unser Wissen stattfindet. In der Datenbank der jährlichen großen Umfrage Reuters Institute Digital News Report konnte Fletcher allerdings Folgendes beobachten:

  1. Individuen, die soziale Netzwerke benutzen, ohne die Absicht zu haben, sich dadurch über das Zeitgeschehen zu informieren, wären in der Tat einer größeren Vielfalt an Informationsquellen ausgesetzt als Individuen, die soziale Netzwerke überhaupt nicht besuchen. Im Gegensatz zur Filterblase-Theorie wären also Individuen, die kein Interesse an Nachrichten in sozialen Netzwerken zeigen, trotzdem einem breiteren Spektrum von Informationsquellen ausgesetzt als Individuen, die soziale Netzwerke überhaupt nicht benutzen. Soziale Netzwerke würden eigentlich die Informationsquellen der Individuen erweitern und sind weit entfernt davon, sie auf eine begrenzte Anzahl von Informationsquellen (im Zusammenhang mit ihren Vorlieben) zu beschränken 6.
  2. Individuen, die Suchmaschinen benutzen, um sich zu informieren, wären einer größeren Vielfalt in der politischen Ausrichtung der vorgeschlagenen Informationen ausgesetzt als Individuen, die keine Suchmaschine benutzen 7.

Im Gegensatz zu Parisers Verständnis ist Fletcher daher der Meinung, dass soziale Netzwerke die Sichtbarkeit der Medien für Individuen – und davon gäbe es viele –, die sich nicht besonders für das Zeitgeschehen interessieren, erhöhen. Diese Individuen wären diesen Nachrichten gegen ihren Willen ausgesetzt, weil die Algorithmen der sozialen Netzwerke Informationen sichtbar machen, die diese Personen andersfall nicht gesucht hätten.

Und Fletcher warnt uns. Ohne Personalisierung der Information durch Algorithmen wären wir in Wirklichkeit eher konservativ in der Art und Weise, wie wir uns informieren. Mit anderen Worten, wir würden dazu neigen, aus Gewohnheit wenige Informationsquellen auszuwählen (einen oder zwei Fernsehkanäle, eine einzige Zeitung, usw.). Die Benutzung von digitalen sozialen Netzwerken und Internet-Suchmaschinen wäre eigentlich eine Gelegenheit, uns Informationsquellen auszusetzen, die wir niemals spontan besucht hätten.

II – Die Echokammern

Fletcher und Pariser einigen sich auf die Beobachtung der starken politischen Polarisierung in den Vereinigten Staaten: Die Anhänger der beiden politischen Seiten scheinen heute unversöhnlich zu sein. Wenn man allerdings Fletchers Argumentation folgt, würde diese Polarisierung nicht daraus entstehen, dass amerikanische Bürger in Filterblasen eingeschlossen sind, ganz im Gegenteil! Laut seiner Studien, je mehr wir mit Informationen konfrontiert werden, die unseren Gedanken widersprechen, desto eher würden wir dazu neigen, unsere ursprüngliche Position zu stärken. Dies ist eine psychologische Reaktion, die auch von anderen Forschern dokumentiert wurde 8.

Für viele andere Analysten wäre die Radikalisierung der Meinungen im Internet jedoch weitgehend auf so genannte Echokammern zurückzuführen. Im Internet würden Individuen dazu neigen, sich bevorzugt mit anderen Personen zu unterhalten, mit denen sie gemeinsame Interessen und ähnliche Meinungen teilen. So würden sich virtuelle Gemeinschaften bilden, in denen Menschen Informationen austauschen und erhalten, die auf ihre Interessen und Überzeugungen ausgerichtet sind. Diese Gemeinschaften werden als Echokammern bezeichnet, denn die Stimme jedes Mitglieds würde vor allem an die der anderen Mitglieder anknüpfen. Da Echokammern als Resonanzkörper für die Weltanschauung der Menschen funktionieren, würden sie die Radikalisierung der Geister begünstigen.

Einer der emblematischen Fälle dieses Abdriftens der Echokammern ist die Gemeinschaft der „Incels“. Diese Gemeinschaft entstand aus Männern, die keine romantische Partnerin finden konnten und sich online versammelten, um ihre emotionalen Sorgen zu besprechen. Einige Mitglieder der Gemeinschaft begannen schnell, zunehmend frauenfeindliche Meinungen zu äußern. Die Incels-Gruppe hat dann einem klassischen Schema der Radikalisierung gefolgt: Auftauchen von Anführern, zunehmende virulente Behauptung der Gruppenidentität, allmählicher Ausschluss anderer Gruppen, Isolation 9. Am Ende wurde eine echte frauenfeindliche politische Theorie innerhalb dieser Gemeinschaft entwickelt. Einige Jahre nach der Entstehung ihrer Gemeinschaft begingen mehrere Incels Angriffe gegen Frauen, denen vorgeworfen wurde, die direkte Ursache all ihres Unglücks zu sein 10.

Zahlreiche Analysten arbeiten daran, Echokammern im Internet zu identifizieren und ihr Funktionieren zu verstehen. Hier ist eine Abbildung:

Diese Karte zeigt die Beziehung zwischen den verschiedenen amerikanischen Medien im sozialen Netzwerk Twitter. Je größer der Punkt für ein bestimmtes Medium, desto häufiger wird dieses Medium von anderen Medien auf Twitter zitiert. Medien, die weit vom Zentrum der Karte entfernt sind, werden in erster Linie von anderen Medien mit einer ähnlichen politischen Orientierung zitiert. Und umgekehrt: Je näher ein Medium am Zentrum der Karte liegt, desto mehr wird er von Medien mit unterschiedlichen politischen Linien zitiert. Auf dieser Karte stellt man eine politische Polarisierung zwischen den amerikanischen Medien fest. Auf der linken Seite des politischen Spektrums werden die populärsten Medien (Huffington Post, New York Times, Washington Post) von Medien zitiert, die der amerikanischen demokratisch-liberalen politischen Linie (der von Barack Obama und Joe Biden) eher nahestehen. Auf der rechten Seite des Spektrums werden die populärsten Medien (Fox News, Breibart) vor allem von Medien zitiert, die der republikanisch-konservativen Linie (der von Donald Trump) nahestehen.

Wenn Medien mit der gleichen politischen Orientierung sich gegenseitig häufig zitieren und dieselben Nachrichten und Analysen verbreiten, besteht die Gefahr, dass ihre Leser eine sehr partielle und parteiische Auslegung der Nachrichten entwickeln. Es ist das, was einige Analysten befürchten: Die Mediensphäre in den Vereinigten Staaten würde dazu neigen, sich in zwei gigantische Echokammern zu spalten, die schematisch die beiden mehrheitlichen politischen Linien in den Vereinigten Staaten vertreten. Da die Anhänger jeder dieser Linien möglicherweise dazu neigen, sich vor allem im entsprechenden Echokammer zu informieren, könnte dies zur Entstehung eines extrem polarisierten politischen Feldes führen, in dem die beiden Lager nicht mehr miteinander kommunizieren 11.

Können wir aber hier auch betrachten, dass die Architektur der sozialen Netzwerke für die Entstehung dieser Echokammern verantwortlich ist? Eine der Zweideutigkeiten der Analyse, die von Axel Bruns zu Recht aufgeworfen wurde 12, liegt in der Verwechslung zwischen dem Phänomen der Echokammern und dem der Filterblasen. Im Gegensatz zu dem, was der Titel des Artikels, woraus die obige Karte kommt, vermuten lässt, stellt die Polarisierung der Mediengemeinschaft in den Vereinigten Staaten keine Filterblase dar, denn es sind nicht die Twitter-Algorithmen, die die Art und Weise organisieren, wie die Medien sich gegenseitig folgen oder zitieren.

Der zentrale Punkt von Axel Bruns und Richard Fletcher ist, dass das Internet weder informationelle noch ideologische Isolation bildet. Im Gegenteil polemisieren Vertreter gegnerischer Lager stark über verschiedene Themen in sozialen Netzwerken, Trollkampagnen zur Schwächung des Gegners werden organisiert, echte Gegendemonstrationen zum Protest gegen das andere Lager werden organisiert, usw. Mit anderen Worten: Wenn es tatsächlich eine wachsende Polarisierung in den sozialen Netzwerken gibt, materialisiert sie sich weder in der Isolierung jeder Seite in einer Filterblase noch durch Echokammern, sondern in intensiven virtuellen Konfrontationen.

Für die Analysten, die die Nützlichkeit der Konzepte der Filterblase und der Echokammern kritisieren, ist es wichtig, zu verstehen, was Individuen mit Informationen, die mit ihrer Meinung nicht übereinstimmen, machen, und Mittel zur Verwandlung der sozialen Netzwerke in einen öffentlichen Debattenraum anstatt einem Konfrontationsort zu finden.

  1. Siehe auch: Pariser, Eli. Eli Pariser Nous Met En Garde Contre « Les Bulles de Filtres » En Ligne.  https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles?language=fr.[]
  2. Facebook hat zum Beispiel im ersten Quartal 2019 fast 15 Milliarden Dollar an Werbeeinnahmen erhaltet. Die Werbeeinnahmen stellen mehr als 99% seiner Einnahmequellen dar: https://s21.q4cdn.com/399680738/files/doc_financials/2019/Q1/Q1-19-Press-Release.pdf[]
  3. Um mehr über die Wirtschaft der Plattformen zu erfahren, siehe: Citton, Y. (Ed.) (2014). L'économie de l'attention: nouvel horizon du capitalisme? La Découverte.[]
  4. Nic Newman, Richard Fletcher, Antonis Kalogeropoulos, and Rasmus Kleis Nielsen. “Reuters Institute Digital News Report” (2019), Reuters Institute for the Study of Journalism.  https://ora.ox.ac.uk/objects/uuid:18c8f2eb-f616-481a-9dff-2a479b2801d0/download_file?file_format=pdf&safe_filename=reuters_institute_digital_news_report_2019.pdf&type_of_work=Report[]
  5. Zu diesem Punkt siehe den Text von Axel Bruns: It’s not the technology, stupid: “How the ‘Echo Chamber’ and ‘Filter Bubble’ metaphors have failed us.” In International Association for Media and Communication Research, 2019- 07-07.[]
  6. Fletcher, R., & Nielsen, R. K. (2018). Are people incidentally exposed to news on social media? A comparative analysis. New media & society, 20(7), 2450-2468.[]
  7. Fletcher, R., & Nielsen, R. K. (2018). Automated serendipity: The effect of using search engines on news repertoire balance and diversity. Digital Journalism, 6(8), 976-989.[]
  8. Siehe insbesondere: Tucker, J. A., Guess, A., Barberá, P., Vaccari, C., Siegel, A., Sanovich, S., ... & Nyhan, B. (2018). Social Media, Political Polarization, and Political Disinformation: A Review of the Scientific Literature. March 19, 2018, http://dx.doi.org/10.2139/ssrn.3144139[]
  9. Zum Thema: Hogg, M. A., & Adelman, J. (2013). Uncertainty-Identity Theory: Extreme Groups, Radical Behavior, and Authoritarian Leadership. Journal of Social Issues, 69(3), 436–454. doi:10.1111/josi.12023 []
  10. Für weitere Informationen über diese Gemeinschaft, siehe: https://fr.wikipedia.org/wiki/Incel[]
  11. Diese Theorie wurde von einem Forschungsteam der Harvard-University gründlich analysiert: Faris, Robert M., Hal Roberts, Bruce Etling, Nikki Bourassa, Ethan Zuckerman, and Yochai Benkler. 2017. “Partisanship, Propaganda, and Disinformation: Online Media and the 2016 U.S. Presidential Election.” Berkman Klein Center for Internet & Society Research Paper. https://dash.harvard.edu/bitstream/handle/1/33759251/2017-08_electionReport_0.pdf?sequence=9&isAllowed=y[]
  12. Bruns, A. (2019). Filter bubble. Internet Policy Review, 8(4).[]
Den Artikel teilen
Stiftungsfonds für die Gründung der Fondation Descartes
8, Avenue du Président Wilson 75116 Paris.
usercrossmenuchevron-rightchevron-down-circle linkedin facebook pinterest youtube rss twitter instagram facebook-blank rss-blank linkedin-blank pinterest youtube twitter instagram