„Social Bots können den Filterbubble-Effekt verstärken“

Bewegen wir uns in sozialen Netzwerken tatsächlich in einer Filterblase, die nur unsere eigenen Ansichten widerspiegelt? Sven Stahlmann hat während seines Studiums an der Universität zu Köln den Filterbubble-Effekt auf Facebook untersucht – Teil 7 unserer Interviewreihe zum Thema Fake News.

Interview von Alina Tjart

journalist: Der Stanford-Psychologe Michal Kosinski behauptet in einem Interview mit der taz, dass es früher mehr Filterblasen gab als heute. Stimmen Sie zu?
Sven Stahlmann: Dem stimme ich nicht zu. Klar, früher gab es auch Filterbubble in dem Sinne, dass man nicht mit jedem auf der Welt kommunizieren konnte. Meiner Meinung nach stimmt es aber nicht, dass früher alle Menschen gleichgesinnt waren. Ein Dorf oder eine Stadt stellt zwar eine geschlossene Gruppe dar, jedoch teilen die Menschen in dieser Gruppe nicht zwingend die gleichen Einstellungen. Das heißt, man hat immer noch einen politischen Diskurs, der über ideologische Grenzen hinausgeht.

Was hat sich geändert?
Heute findet man die Filterbubble online. Dort treffen sich Individuen aus der ganzen Welt, die aber haargenau die gleiche ideologische Meinung teilen. Das wird durch die Personalisierung von Facebook und anderen sozialen Netzwerken verursacht.

Welche Auswirkungen hat die Filterbubble auf unsere Gesellschaft?
Die Filterbubble kann mehrere negative Effekte haben. Einerseits können sogenannte Echokammern entstehen, wenn gleichgesinnte Individuen, die beispielsweise die gleiche politische Meinung teilen, nur noch miteinander verkehren. Das kann zu extremistischen Einstellungen führen, da Halbwahrheiten womöglich nicht aufgeklärt werden können und somit radikale Ansichten Zustimmung erhalten.

Woher kam Ihr Interesse an der Filterbubble?
Das Interesse entstand hauptsächlich durch die US-Wahl 2016 und den Wahlkampfzwischen Hillary Clinton und Donald Trump. Damals hatte ich analysiert, welcher der beiden Kandidaten stärker in den Sozialen Medien vertreten ist. Dabei bin ich unweigerlich auf die Themen Filterbubble und Fake News gestoßen.

Sind Sie der Meinung, Donald Trump hat sich durch den Einsatz von Falschmeldungen einen Vorteil bei seiner Wahlkampagne verschafft?
Ich glaube, nicht Trump selbst. Vielmehr nutzten seine Wähler Fake News als eine Art Werkzeug, um Trump in seinem Wahlkampf weiterzubringen.

Studien zeigen: Je häufiger eine Fake News wiederholt konsumiert wird, desto wahrscheinlicher ist es, dass sie geglaubt wird. Verstärkt der Algorithmus von Facebook diesen Prozess?
Auf jeden Fall. Durch die Filterbubble werden Fake News nicht aufgeklärt, weil einem nur der Inhalt gezeigt wird, der mit der eigenen Ideologie übereinstimmt.

Sie haben den Algorithmus von Facebook untersucht. Wie sortiert er meinen News Stream?
Facebook entscheidet anhand von unterschiedlichen Komponenten, ob mir ein Beitrag angezeigt wird oder nicht. Beispielsweise wird analysiert, wer gepostet hat und in welcher Verbindung diese Person zu mir steht. Wenn ich oft mit einer Person auf Facebook interagiere, werden mir ihre Beträge vermutlich angezeigt.

Das heißt, unsere Freunde beeinflussen den Nachrichtenfluss auf Facebook stark?
Ja. Aber es hängt auch stark davon ab, was ich anklicke. Nehmen wir an, ich klicke häufig auf Links der Rheinischen Post. Wenn jemand anderes einen Artikel dieser Zeitung postet, ist die Wahrscheinlichkeit höher, dass mir sein Post angezeigt wird.

Was taucht noch in meiner Filterblase auf?
Wenn ein Beitrag besonders oft im Netzwerk angeklickt wurde, landet er wahrscheinlich in meinen News Feed. Hier spricht man von der Viralität eines Posts. Außerdem werden ältere Beiträge abgewertet, sodass sie nach einer Zeit nicht mehr angezeigt werden. Somit spielt die Aktualität ebenfalls eine Rolle. Es gibt natürlich noch weitere Faktoren, die den Algorithmus beeinflussen. Das sind aber die wichtigsten Komponenten, die auch selbst von Facebook veröffentlicht worden sind.

Sie haben eine eigene Simulation dieser Filterungseffekte erstellt. Zu welchen Ergebnissen sind Sie gekommen?
Die Simulation hat gezeigt, dass die genannten Komponenten den Filterungseffekt einerseits verstärken, andererseits aber auch schwächen können. Beispielsweise verstärkt das eigene Klickverhalten die Filterbubble enorm, da mir nur Beitrage angezeigt werden mit denen ich ideologisch übereinstimme. Die Voraussetzung dafür ist natürlich, dass ich vorwiegend auf Sachen klicke, die mit meiner Meinung konform sind. Der Bezug zu meinen Freunden kann den Effekt ebenfalls verstärken. Wenn ich also Freunde habe, die überwiegend rechts sind, entwickelt sich die Filterbubble entsprechend in diese Richtung.

Was verringert den Effekt?
Bewertet Facebook einen Beitrag anhand seiner Aktualität, setzt kein Filterungseffekt ein. Denn hier kann jeder Beitrag angezeigt werden – egal ob der Inhalt mit meiner Ideologie übereinstimmt oder nicht. Mit der Viralität sieht es ähnlich aus. Wird mir ein viraler Post angezeigt, berücksichtigt Facebook nicht nur meine Ansichten, sondern auch die Meinungen des gesamten Netzwerks.

Das bedeutet, der Algorithmus von Facebook ist nicht ausschließlich darauf ausgelegt, die Filterbubble zu verstärken?
Genau. Ob die Filterbubble tendenziell geschwächt oder verstärkt wird, hängt davon ab, wie stark die einzelnen Komponenten gewichtet werden. Das kann Facebook selbst steuern.

Kann die Viralität eines Posts durch Social Bots verfälscht werden, sodass der Filterbubble-Effekt wieder verstärkt wird?
Richtig, die Viralität kann durch den Einsatz von Social Bots stark beeinflusst werden. Bots können aber auch über die Aktualität Einfluss nehmen. Ist die Aktualität für ein Thema sehr wichtig, wird mir immer nur das Neueste angezeigt. Das ist besonders vorteilhaft für Spammer, die dadurch eine hohe Reichweite erzielen können. So können Bots die den Filterbubble-Effekt verstärken.

Können Fake News und Social Bots den Wahlkampf in Deutschland beeinflussen und auch radikale Parteien in den Vordergrund stellen?
Ich kann mir gut vorstellen, dass radikale Parteien wie die AfD einen Nutzen daraus ziehen. Vor allem, wenn die Fake News nicht als solche erkannt werden.

Muss man den Filterbubble-Effekt ernst nehmen?
Man sollte diesen Aspekt immer im Hinterkopf behalten. Die Gefahr besteht darin, dass die Filterung unbewusst verläuft. Nehmen wir an, ich kaufe eine Zeitung und lese nur den Sportteil. Damit habe ich mein Informationsangebot bewusst gefiltert und kann, wenn ich will, immer noch zum Kulturteil der Zeitung wechseln. Bei Facebook ist das anders: Wenn ich überwiegend auf Sportartikel klicke und mich nicht für den Kulturteil interessiere, wird mir dieser wahrscheinlich nicht mehr angezeigt. Somit habe ich keine Möglichkeit mehr, etwas über Kultur zu erfahren.


Zur Person:
Sven Stahlmann absolvierte sein Studium der Wirtschaftsinformatik als Jahrgangsbester. Neben mehreren Deutschlandstipendien erhielt er den Dean‘s Award, der bei ausgezeichneten Leistungen an Studenten verliehen wird.

Hier geht es zur Übersichtsseite der Interviewreihe „Fake News“.

Die Redaktion - 4.9.2017