Die Filterblase oder Filterblase (von engl .: filter bubble ) ist ein Konzept des Internetaktivisten Eli Pariser . Die „Filterblase“ bezeichnet laut Pariser sowohl die Filterung der Informationen, die über verschiedene Filter zum Internetnutzer gelangen; und der Zustand „ intellektueller und kultureller Isolation “, in dem er sich befindet, wenn die Informationen, nach denen er im Internet sucht, aus einer ohne sein Wissen vorgenommenen Personalisierung resultieren .
Nach dieser Theorie wählen Algorithmen „diskret“ die für jeden Internetnutzer sichtbaren Inhalte aus, basierend auf verschiedenen über ihn gesammelten Daten . Jeder Internetbenutzer würde auf eine wesentlich andere Version des Webs zugreifen. Er würde in eine einzigartige „ Blase “ eingebaut , optimiert für seine vermeintliche Persönlichkeit. Diese Blase würde letztendlich sowohl durch Algorithmen als auch durch die Entscheidungen des Internetnutzers („Freunde“ in sozialen Netzwerken, Informationsquellen usw.) aufgebaut.
Eli Pariser glaubt, dass dieses Phänomen in sozialen Netzwerken und über Suchmaschinen weit verbreitet ist . Seiten wie Google , Facebook , Twitter oder Yahoo! zeigen nicht alle Informationen an, sondern nur die für den Benutzer ausgewählten, und zwar hierarchisch nach seinen vermeintlichen Veranlagungen (einschließlich ideologischer und politischer). Basierend auf verschiedenen Daten ( Verlauf , Klicks , soziale Interaktionen) sagen diese Websites voraus, was für sie am relevantesten ist. Sie stellen ihm dann die relevantesten Informationen zur Verfügung (auch aus kommerzieller und Werbesicht), wobei die für sie weniger relevanten Informationen weggelassen werden. Wenn die Algorithmen der Meinung sind, dass Informationen für einen Internetnutzer nicht relevant sind, werden sie ihm einfach nicht präsentiert.
Das seit den 2010er Jahren publik gemachte Konzept der Filterblasen steht in der Kritik wegen der Bedeutung, die es Algorithmen und technischen Anpassungsmaßnahmen beimisst. Eine Studie zum Beispiel relativiert die Auswirkungen des Platzens von Filterblasen auf unsere Fähigkeit, uns selbst zu hinterfragen und erinnert an den immer noch großen Einfluss des Fernsehens.
Dank des Internets wachsen die potenziell verfügbaren Informationen weiter: Theoretisch werden sie immer zugänglicher, was es einem proaktiven Internetnutzer ermöglichen würde, viele Ansichten zu entdecken, die sich von seinen eigenen unterscheiden. Aber paradoxerweise ist nach Bakshy et al. (2015) und anderen Autoren wird der tatsächliche Zugang zu Presseinformationen, Meinungen und Informationen zunehmend durch Suchmaschinenalgorithmen und/oder über soziale Netzwerke gefiltert .
Forscher haben gezeigt, dass bei Facebook eine algorithmische Filterung gefolgt von einer Peer-Filterung den freien Willen des Internetnutzers einschränkt, indem ihm ein Großteil der Informationen nicht präsentiert wird (und insbesondere sein Zugang zu Informationen eingeschränkt wird. Daten oder Interpretationen, die a priori seine schwieriger für ihn zu übernehmen) und oft nur einen Teil der Facetten einer Information zu präsentieren. Die kurzen Informationen, die von Millionen von Nutzern Peer-to-Peer geteilt werden, stammen tatsächlich größtenteils aus Quellen, die mit der Ideologie oder den Vorlieben der Internetnutzer übereinstimmen. Leser stoßen in ihren Newsfeeds auf 15 % weniger Querschnittsinhalte (aufgrund algorithmischer Rankings) und klicken 70 % weniger leicht auf Informationen aus für sie ungewöhnlichen Quellen.
Wie in einer Echokammer würde dieses Phänomen dazu neigen, sich selbst zu erhalten, indem es hauptsächlich die Meinungen , Überzeugungen und Perspektiven des Benutzers reproduziert , indem ein Teufelskreis gebildet wird .
Ein Nutzer einer bestimmten politischen Orientierung würde mehr Inhalte sehen, die dieser Orientierung zuträglich sind. Er wäre weniger widersprüchlichen Standpunkten ausgesetzt, weil die Algorithmen für ihn die relevantesten Inhalte auswählen würden, die ihn am meisten ansprechen. Beispielsweise würde einem Internetnutzer, der von der Site als „ links “ identifiziert würde, weniger „ richtiger “ Inhalt angeboten.
Ähnliche Abfragen können dann sehr unterschiedliche Ergebnisse liefern. Nehmen wir zum Beispiel an, dass zwei Personen, einer eher politisch rechts und der andere eher links, nach dem Begriff "BP" suchen. „Rechte“ Nutzer finden Informationen zu Investitionen in British Petroleum . „Linke“ Nutzer erhalten Informationen über die Ölpest im Golf von Mexiko . Gleiches gilt für die Präsentation von Informationen zu einem Krieg, zum Beispiel dem Irak-Krieg oder neuerdings auch Informationen an Unterstützer von Donald Trump in den USA.
Die Filterblase kann soziale Beziehungen und soziale Netzwerke beeinflussen und umgekehrt. In einigen sozialen Netzwerken würde die algorithmische Personalisierung die am wenigsten relevanten Nachrichten verbergen, die vom Benutzer am wenigsten angeklickt würden. Je weniger wir mit einem Facebook- „ Freund “ interagieren, desto weniger sichtbar sind die Nachrichten, die er an uns veröffentlicht, desto geringer ist die Wahrscheinlichkeit, dass wir mit ihm interagieren. Pariser hebt das „Verschwinden“ von Nachrichten seiner konservativen Freunde aus seinem Facebook-Aktivitätsfeed hervor. Während er konservative "Freunde" hinzugefügt hatte, um ihre Meinung zu lesen, schlug die Personalisierung keine Beiträge dieser Leute mehr vor. Dem Algorithmus zufolge war dies für Pariser irrelevant: Er sollte diese Meinungen nicht anklicken oder lesen .
Die Filterblase würde somit das Informationsfeld des Internetnutzers verkleinern; Laut A Saemmer (2017) geben viele Studierende an, die Presse ausschließlich oder hauptsächlich online zu konsultieren, indem sie den Links ihrer Freunde in sozialen Netzwerken folgen, also ohne die „Titelseite“ oder die Zusammenfassung der Zeitungen zu konsultieren.
Laut Messing (2012) kann in einem sozialen Netzwerk eine stärkere soziale Unterstützung zu einem Buzz führen , der die Wahrscheinlichkeit erhöht, dass ein Internetnutzer Inhalte liest, die ihm sonst nicht präsentiert worden wären, was in gewissem Sinne zu sein anfängliches selektives Engagement ausgleichen. Dennoch schätzt Katharine Viner , Chefredakteurin der Zeitung The Guardian , 2016 in einem langen und seither ausführlich kommentierten Artikel, dass das Digitale unser Verhältnis zu den Fakten massiv erschüttert hat und insbesondere die sozialen Netzwerke maßgeblich dafür verantwortlich sind ( populistische ) Befürworter des britischen Referendums über die EU-Mitgliedschaft , obwohl sie selbst zugegeben haben, dass ihre Argumente falsch waren. Wenn soziale Netzwerke gerne mit Gerüchten und "wahren Lügen" hausieren, sagt Viner, dann liege es an den Filterblasen, die je nach besuchten Seiten die Nutzer auf das lenken, was sie zu besuchen gewohnt sind und die z verstärken ihre Meinungen, anstatt ihr kritisches Denken anzuregen .
Der Erfolg des Social Web und die daraus resultierende Informationsüberflutung provozierten schnell die Notwendigkeit, Informationen zu sortieren und die Filterkapazitäten von interaktiven Plattformen zu entwickeln. Suchmaschinen wie Google oder soziale Netzwerke wie Facebook oder Twitter sind so programmiert, dass sie so genannte „relevante“, also für den Nutzer wahrscheinlich interessante Informationen hervorheben und als weniger relevant erachtete Informationen ausblenden. Die Popularität von sozialen Netzwerken liegt in dieser Fähigkeit, dem Benutzer interessante Inhalte schnell und effizient zu präsentieren. Die Filterung funktioniert dank der Implementierung eines Algorithmus . Der Informatiker Gérard Berry spricht "von einer Art und Weise, sehr detailliert zu beschreiben, wie man vorgeht, um etwas zu tun". Im Internet etablieren Algorithmen eine Hierarchie in der Darstellung von Inhalten auf der Benutzeroberfläche. Sie beeinflussen jeweils den Zugang zu Informationen auf ihre Weise und bieten jedem Benutzer ein spezifisches und personalisiertes Erlebnis. In sozialen Netzwerken sind es beispielsweise „Likes“ oder „Retweets“, die dazu führen, dass bestimmte Inhalte gegenüber anderen hervorgehoben werden, die dann als weniger relevant eingestuft werden.
Im sozialen Netzwerk Twitter wurde seit 2016 ein neuer algorithmischer Thread eingeführt. Benutzer, die zuvor Tweets (im Netzwerk erstellte Posts) gesehen haben, werden in antichronologischer Reihenfolge angezeigt, stattdessen werden diese Posts in einer vom Algorithmus festgelegten Präferenzreihenfolge angezeigt. Der Algorithmus steuert die Auswahl von Tweets nach mehreren Kriterien, unter denen erwähnt werden kann: die Anzahl der Retweets (die Anzahl der erneuten Veröffentlichungen des Tweets im Netzwerk), wenn der Benutzer in starker Interaktion mit der Person steht, die twittert oder wenn es einer seiner Favoriten ist. Der Algorithmus bewertet also die Relevanz eines Tweets und zeigt oben im Feed diejenigen an, die den Internetnutzer am ehesten interessieren. Die restlichen Tweets erscheinen wie zuvor in antichronologischer Reihenfolge. Konkret ist die chronologische Neuordnung des Netzes durch die Einführung von zwei neuen Abschnitten gekennzeichnet. Erstens die "Ranked Timeline" oder "Ranked Timeline", die nach ein bis zwei Stunden Nichtnutzung des Netzwerks relevante Tweets oben im Feed anzeigt. Und der Abschnitt „Möglicherweise“, der das alte „In Ihrer Abwesenheit“ ersetzt, der als ergänzende Funktion präsentiert wird und weniger aktuelle Tweets auflistet, da er erst einige Tage nach der letzten Verbindung erscheint. Der Beitrag dieses neuen Algorithmus zu Twitter ist laut der Firma vielfältig . Durch die Einführung eines Algorithmus kann Twitter seine Nutzer und deren Interaktion im Netzwerk besser kennenlernen. Dann ist es möglich, die Inhalte nutzergerecht anzupassen und so die Dynamik, das Engagement und die Aufmerksamkeit auf der Plattform zu steigern. Schließlich ist das System komplex genug, um jedem Twitter-Nutzer ein personalisiertes Erlebnis zu bieten, ohne dass er sich beim Einloggen immer wieder den gleichen Tweets gegenübersieht.
Das soziale Netzwerk hat weltweit mehr als eine Milliarde Nutzer. Deshalb ist es für die 2004 von Mark Zuckerberg erstellte Website unmöglich , alles zu zeigen, was "unsere Freunde" im Netz posten: Facebook muss die Informationen auswählen. Es ist einem Algorithmus namens EdgeRank zu verdanken, der 2006 entwickelt und 2011 zugunsten des Newsfeed-Ranking-Algorithmus aufgegeben wurde, dass das soziale Netzwerk seine Informationen anhand von 100.000 Parametern sortiert.
Unter diesen Parametern sind die vier bekanntesten:
Das Ziel von Facebook ist es, jedem Nutzer zu zeigen, was ihn am meisten interessiert. Und was ihm gefallen, kommentieren oder leichter teilen wird. Das Ziel ist es, die meisten Reaktionen von der Verbraucherseite des sozialen Netzwerks zu erzeugen. Facebook wählt daher Inhalte aus, die für Internetnutzer wahrscheinlich von Interesse sind. Der Algorithmus wird mit verschiedenen Schritten fortfahren, die jedem Beitrag eine Relevanzbewertung zuordnen und somit bestimmen, ob er auf Facebook veröffentlicht wird oder nicht. Zuerst wird eine Reihe von Fragen gestellt wie: Welche Geschichten wurden von den Freunden gepostet? Wer hat diese Geschichten gepostet? Wie reagieren wir auf diese Inhalte? Ebenso das Interesse an dieser Veröffentlichung. All diese Fragen werden dann jedem Beitrag im sozialen Netzwerk nachempfunden. Die von Verbrauchern auf der Website veröffentlichten Beiträge werden dann auf ihre Bedeutung hin analysiert. Wie zum Beispiel: Kommentare und Tags von Freunden, wann wurde der Beitrag veröffentlicht, negatives Feedback an den Autor, wie oft die Beiträge veröffentlicht werden ...
Danach macht der Algorithmus mehrere Vorhersagen:
Alle diese Kriterien werden mit der Tatsache analysiert, ob es sich bei der Veröffentlichung um einen Clickbait (bedeutet wörtlich „ Clickbait “), Nacktheit oder nicht handelt. Beide Faktoren können sich negativ auf den Beitrag auswirken. Jeder Beitrag erhält eine Punktzahl entsprechend den verschiedenen Faktoren, mit denen er analysiert wurde. Dieser Score wird jeder Person persönlich zugeordnet und ist daher mit unserem Profil, unseren Beziehungen und unseren Gewohnheiten im sozialen Netzwerk verknüpft.
Seit der Übernahme durch Facebook im Jahr 2012 sind die Prinzipien des Algorithmus von Instagram denen von Facebook nachempfunden. Die Veröffentlichung von Veröffentlichungen im Feed erfolgt nun anhand von 3 Kriterien und nicht in einer antekchronologischen Reihenfolge.
Die Popularität der Posts und das Engagement sind die wichtigsten Kriterien. Dieser Algorithmus wurde implementiert, damit Internetbenutzer im Netzwerk interagieren. Stories (ephemere Veröffentlichungen) sind ein Feature, das auf dem Prinzip des sozialen Netzwerks Snapchat basiert . Aber im Gegensatz zu dieser werden Instagram Stories nach dem Algorithmus eingestuft, der Facebook-Daten verwendet. Der Algorithmus von Instagram ändert die Reihenfolge, in der die Beiträge erscheinen, da es so aussieht, als würden die Leute nur 30% ihres Feeds sehen und 70% verpassen. Deshalb sendet der Algorithmus die Veröffentlichungen zurück, die den Internetnutzer potenziell interessieren könnten und folgen somit nicht mehr der Chronologie der Veröffentlichungen.
YouTube unterscheidet sich von anderen sozialen Netzwerken dadurch, dass es eine Video-Hosting-Site ist. Es gelingt ihm jedoch, Nutzer in eine Filterblase zu stürzen. Sein Algorithmus wählt Inhalte für Internetnutzer aus und stärkt so deren Meinung. Am Ende des Betrachtens eines Videos auf der Plattform bietet der Algorithmus dem Internetnutzer eine Empfehlung, andere als ähnlich beschriebene Inhalte anzusehen. Diese Funktion hält den Betrachter in der gleichen Idee, ohne ihn mit gegensätzlichen Inhalten zu konfrontieren.
Nach welchen Kriterien werden die Inhalte zum Ansehen bestimmt?
Die Site hat eine Kategorie "Trends", in der verschiedene Arten von Videos angeboten werden. Der Algorithmus bietet uns diese Kapseln an, weil er der Meinung ist, dass der Inhalt von guter Qualität ist. Damit das Computerprogramm die Qualität eines Videos beurteilen kann, analysiert es die durchschnittliche Wiedergabezeit der Nutzer. Je länger ein Video angesehen wird, desto wahrscheinlicher ist es, dass es guten Inhalt hat, den der Algorithmus den Zuschauern dann bietet.
Im Jahr 2020 veröffentlichte ein Forscherteam des Marc Bloch Centers eine Studie in der Zeitschrift PLoS ONE, die zeigt, dass Videos mit einer großen Anzahl von Aufrufen dazu neigen, Filterblasen zu fördern – d diejenigen mit einer geringen Anzahl von Ansichten bieten vielfältigere Vorschläge.
Generell kann die Einführung von Algorithmen in sozialen Netzwerken zu Risiken führen. Tatsächlich sind Wissenschaftler wie der Soziologe Dominique Cardon der Ansicht, dass Algorithmen in sozialen Netzwerken dazu neigen, die Realität zu reproduzieren und bestehende soziale Strukturen aufrechtzuerhalten. So drängen diese sozialen Netzwerke ihre Nutzer dazu, bereits konsultierte Inhalte zu konsumieren, was zu einer Art Aufteilung der Nutzer in ihrem eigenen Konformismus führen kann: Sie sehen nur die Inhalte, die ihnen gezeigt werden, sie würden dann riskieren, ihre Gliedmaßen einzuschließen in einer "Filterblase".
YouTube-Filterblasen lassen manche Leute glauben, dass die Erde flach ist (Platosphäre), in der Gemeinschaft der Platisten.
Angesichts dieser Situation existieren mehrere Lösungen oder erscheinen möglich. Jeder könnte sein "Recht auf Information" besser durchsetzen und freiwillig aus seiner Filterblase herauskommen, indem er freiwillig auf andere Sichtweisen, auch gegen die eigenen, trifft und auch zum Beispiel einen kritischen Blick kultiviert Studieren von Standpunkten, die in Peer-Review-Artikeln zum Ausdruck gebracht werden, die nach der Hitze des Gefechts veröffentlicht wurden, beispielsweise über Google Scholar .
Der Europäische Gerichtshof für Menschenrechte erinnerte am 8. Juli 1976 daran, dass „der allgemeine Grundsatz jeder rechtlichen und ethischen Behandlung von Informationen auf einer klaren Unterscheidung zwischen Meinung und Information beruhen muss. Der erste betrifft die Äußerung von Gedanken, Überzeugungen und Werturteilen, der zweite betrifft Daten und Fakten, Fakten, die Gegenstand von Informationen sein können „oder von Bedeutung sein können .
Der CEO von Facebook , Mark Zuckerberg , hat das Ausmaß dieses Phänomens auf der von ihm mitbegründeten Plattform heruntergespielt, aber das Unternehmen hat noch damit begonnen, an Maßnahmen zu arbeiten, um seine Auswirkungen zu begrenzen.
Vor allem in den USA wurden auch spezialisierte Websites eingerichtet, die es jedem ermöglichen, sich dieses Phänomens bewusst zu werden, wie zum Beispiel allsides.com oder hifromtheotherside.com .
Einige nicht personalisierte Suchmaschinen argumentieren, dass ihr Mangel an ideologischer Sortierung der Suchergebnisse dazu beiträgt, Filterblasen zu bekämpfen. Da keine personenbezogenen Daten erhoben oder ausgewertet werden, kann auch keine Filterblase erstellt werden. Dies ist beispielsweise bei Qwant oder Ecosia der Fall . Schließlich wurden Erweiterungen für die Webbrowser Google Chrome oder Mozilla Firefox entwickelt , um Filterblasen hervorzuheben und bestimmte Informationen zu kontextualisieren.
In Frankreich bietet die Zeitung Le Drenche zu allen Themen zwei unterschiedliche und gegensätzliche Meinungen mit dem erklärten Ziel, Filterblasen zu bekämpfen; es ist eine bekannte journalistische Technik, die unter dem Deckmantel der Neutralität jedoch manchmal dazu neigt, zu privilegieren, sogar die Extreme zu Lasten nuancierter Standpunkte und / oder des Meinungspluralismus zu suchen.
Die Medienberichterstattung über die Filterblasentheorie von Eli Pariser soll kritisch sein, aber andere Lesarten sind möglich. Für André Gunthert in Was wäre, wenn wir mit den Filterblasen aufhören würden? (André Gunthert ist Dozent an der École des Hautes Etudes en Sciences Sociales (EHESS), wo er den Lehrstuhl für visuelle Geschichte innehat), „Das Auswahlsystem von Facebook ändert die Exposition gegenüber Inhalten nur um 1%. Politik der gegnerischen Lager“; er erteilt Dominique Cardon das Wort, nach dem „die Blase wir erschaffen. Durch einen typischen Mechanismus der sozialen Reproduktion. Der wahre Filter ist die Wahl unserer Freunde, mehr als der Facebook-Algorithmus. "