Mythos #22: Wir leben alle in Filterblasen.
Sebastian Randerath

Mythos: Filterblasen bestimmen unser gesamtes Leben. Politische, soziale und wirtschaftliche Probleme wie der Aufstieg des Populismus, Hate Speech, Fake News, zunehmender Kapitalismus und sogar Depressionen werden durch die Personalisierung von Suchmaschinen und Social-Media-Plattformen sowie durch Mikrotargeting verursacht. Filterblasen und Echokammern schaffen unsichtbare Blasen, die die Nutzer*innen voneinander trennen.

 

Stimmt’s? Begrifflich existieren Filterblasen (# 21). Im Jahr 2009 erweiterte Google seine Suchwerkzeuge um Algorithmen, die durch individuelle Nutzerdaten personalisiert wurden. 2011 behauptete Eli Pariser, dass dies bedeute, dass es kein (gemeinsames) „Standard‑“Google-Suchergebnis mehr gebe. Er bezeichnete dies als Filterblase, als einen Raum innerhalb von Suchalgorithmen und Social-Media-Plattformen, der mithilfe von Daten für individuelle Nutzer*innen eine bestimmte Blase personalisiere. Angesichts der Reichweite großer Plattformen wie Facebook, Google, Alibaba und Baidu sind Modelle der Datenakkumulation und des Mikrotargetings heute Teil eines neuen datengetriebenen Kapitalismus (Srnicek 2016).

Heute werden anhand von Parisers Filterblase diverse soziale, wirtschaftliche und digitale Phänomene, darunter die Zunahme von Populismus, Hate Speech, Fake News, zunehmendem Kapitalismus und sogar Depressionen, erklärt. Oftmals wird das Konzept der Echokammer, das lange vor der Filterblase existierte und bereits von Marshall McLuhan zur Beschreibung der Selbstbestärkungsmechanismen in Stammeskulturen eingesetzt wurde (McLuhan/Norden 1969: 72), missbraucht, um das Konzept der (bewussten oder automatischen) Trennung von abweichenden Weltanschauungen auf Social-Media-Plattformen auszudehnen. Filterblasen und Echokammern wurden zu schwer fassbaren Konzepten, um verschiedene und komplexe Phänomene der Entscheidungsfindung und öffentlichen Meinungsbildung zu simplifizieren.

Etliche Studien zur öffentlichen Meinungsbildung belegen, dass durch Beziehungen in sozialen Medien verursachte Netzwerkeffekte (# 41) und andere Kommunikationsstrukturen einen weitaus stärkeren Einfluss auf die öffentliche Meinungsbildung durch Plattformen haben als algorithmische Filterung (Haim et al., 2018). Auch existiert kein direkter empirischer Beweis, dass personalisierte Filterung Einfluss auf die Beziehungsnetzwerke und die Herausbildung öffentlicher Meinungen hat (Krafft et al. 2018), und sogar die direkten Auswirkungen der Algorithmen auf die Personalisierung selbst sind vernachlässigbar (Feuz/Fuller/Stalder 2011). Politische Segmentierungen in populistischen Diskussionen über soziale Medien werden hauptsächlich durch die Dynamik des Populismus selbst, Netzwerkeffekte oder Social Bots verursacht und nicht direkt durch Filteralgorithmen (Dreyer/Schulz, 2019; Leistert 2017). Filterblasen in Suchalgorithmen sind nicht die eigentliche Ursache für Netzwerkeffekte, Hate Speech, Populismus oder Fake News, sondern sie sind lediglich eine Metapher zur Simplifizierung dieser komplexen Prozesse geworden.

 

Stimmt also nicht! Filterblasen bestimmen unser Leben nicht. Die personalisierte Filterung durch Algorithmen führt nicht zu öffentlicher Meinungsbildung und hat lediglich vernachlässigbare Auswirkungen auf die Suchergebnisse großer Suchmaschinen. Das Konzept wird hauptsächlich als Metapher verwendet, um die Komplexität der sozialen, wirtschaftlichen und technologischen Dynamik auf Plattformen und in der öffentlichen Diskussion zu reduzieren, ist aber darüber hinaus von geringem Wert.

 


Quelle: Mario Haim, Andreas Graefe, Hans-Bernd Brosius, Burst of the filter bubble? Effects of personalization on the diversity of Google News, Digital Journalism (2018) 6 (3), 330‑343; Martin Feuz, Matthew Fuller und Felix Stalder, Personal Web Searching in the Age of Semantic Capitalism: Diagnosing the Mechanisms of Personalisation, First Monday (2011) 16 (2), doi:10.5210/fm.v16i2.3344.