„Kreuznacher Neuigkeiten“ (1) (Links, siehe unten) hat mich auf einen sehr interessanten Artikel bei Spiegel ONLINE (2) aufmerksam gemacht, der irgendwie auch so ein wenig mit meinem Artikel „Facebook-Fast-Food-Sodbrennen“ (3) zusammenhängt. Es geht darum, dass durch die in Facebook verwendeten Filter-Techniken, Inhalte für den Nutzer mittlerweile so stark gefiltert, oder auch „nach seinen Interessen ausgerichtet“ werden, dass er quasi fast nur noch zu sehen bekommt, was sowieso auf seiner Wellenlänge liegt, oder seinen Neigungen entspricht.
Inhalte und Meinungen von Kontakten, die nicht in dieses Muster fallen, werden von den FB-Filter-Techniken nach und nach aussortiert. Im Artikel steht zu lesen:
Es stimmt: Facebook zeigt standardmäßig jedem Nutzer eine andere, von Algorithmen berechnete Auswahl der Ereignisse in ihrem sozialen Umfeld an. Meldungen von jenen Menschen und Quellen nämlich, mit denen die Nutzer „am häufigsten interagieren“ – so die vage Facebook-Formulierung. Das ist schon seit 2009 so. Erstaunlich an den immer wiederkehrenden Unmutsäußerungen von Mitgliedern ist vor allem das: Die Menschen merken monatelang nicht, dass Software für sie entscheidet, was relevant ist. Erst in dem Augenblick, in dem ihnen dieser Filter bewusst wird, fühlen sich einige bevormundet, getäuscht, entmündigt.
– aus: (2)
Ich habe dies selber schon in jo$ kaos-i-lator (4) bemerkt, denn für den kleinen kaos-i-lator gibt es eine sogenannte Fan-Page in Facebook. Das ist mittlerweile unumgänglich, denn eine Menge Leser bewegen sich fast ausschließlich noch innerhalb von Facebook. Will man solche Leser erreichen, muss man dorthin.
Jetzt war es aber so, dass ich bei einer Unterhaltung mit entfernten Bekannten, einen Artikel im kaos-i-lator erwähnte, der eine Lösung für eins ihrer Computer-Probleme bereithielt. Woraufhin klar wurde, dass der Bekannte sich vor geraumer Zeit kaos-i-lator-Artikel angesehen hat, nun aber länger schon keinen Artikel mehr angeklickt hatte. Daraufhin sind wohl heimlich still und leise die Benachrichtigungen aus meiner Timeline zu neuen kaos-i-lator-Artikeln aus seiner Timeline verschwunden, und er wusste überhaupt nicht, dass dort fast täglich neue Artikel erscheinen. Soweit zu meiner Erfahrung mit diesen Filtermechanismen.
Würde dieser Artikel also jetzt in jo$ kaos-i-lator erscheinen, hätte ich die kuriose Situation, dass vermutlich genau die Menschen, für die dieser Artikel ja gerade interessant wäre, ihn nie zu Gesicht kriegen. Im Spiegel-Artikel steht dazu ein guter Satz: „Wer Katzen mag, sieht eben keine Hundefotos.“ Diesen Umstand mag man jetzt mit Recht für eine kleine unbedeutende Seite wie den kaos-i-lator mit einem Schulterzucken abtun, aber in einem anderen Zusammenhang, wird dieses Phänomen doch interessant.
Der Spiegel-Artikel führt jetzt nämlich noch weiter, in dem er auf die gesellschaftliche und politische Dimension dieses Effekts eingeht, der mitnichten nur auf Facebook begrenzt ist. Das muss auch gesagt werden. Alle großen Netz-Firmen bedienen sich ähnlicher Techniken. Doch dazu muss ich kurz ausholen: Gestern schrieb ich etwas zum Phänomen der „Guttenberg“-Diskussion innerhalb von Facebook (5), denn die altvorderen Netzaktivisten machen sich derzeit Gedanken, inwieweit innerhalb von Facebook politischer Diskurs, politische Beteiligung und politische Willensbildung betrieben werden, oder eben nicht. Fakt ist ja, dass mittlerweile quer durch alle politische Überzeugungen Menschen in Facebook angekommen sind, und dort Meinung und Stimmung kundgeben. Diese Diskussion ist sicherlich richtig und wichtig. Sie kriegt aber durch die angesprochenen Filtermechanismen eine ganz neue Dimension, weil der langfristige Effekt offensichtlich der ist, dass man durch das fremdbestimmte Filtern aus dem Empfangsspektrum Andersdenkender ganz langsam und sachte ausgeblendet wird. Es sei denn, man sucht wiederum aktiv nach dem vermeintlich Uninteressanten. So entsteht möglicherweise unbewusst eine verzerrte Wahrnehmung, zumindest der digitalen Wirklichkeit.
Letztlich verstärkt der Facebook-Filter die Weltsicht des jeweiligen Nutzers. Wer sich diesen Mechanismus nicht bewusst macht, könnte den Eindruck gewinnen, die ganze Facebook-Welt sei fast einer Meinung – seiner. Eli Pariser schreibt gerade ein Buch über die „Filter Bubble“, wie er die Auswirkungen der Filter-Algorithmen nennt. Bei seinem Vortrag sprach er von einer „unsichtbaren algorithmischen Redaktion“ des Webs. Seine Befürchtung: „Wir bewegen uns in eine Welt, in der das Internet uns nur Dinge zeigt, von denen es denkt, dass wir sie sehen müssen, nicht aber, was wir sehen sollten.“
– aus: (2)
Man darf das jetzt sicherlich nicht überbewerten, denn im realen Leben filtern wir doch auch alle selbst: Ich kaufe keine BILD und ich lese keine BILD – fertig. Ich gehe nicht zu McDonalds und drum esse ich auch nichts von dort – fertig. Sprich, ich kriege in der Regel nicht mit was bei BILD geschrieben und bei McDonalds verkauft wird. Der Unterschied ist aber, dass hier selber filtere, und so, zumindest ein bewusster Entscheidungs-Prozess vorangegangen ist.
Ich sag’s mal zur Sicherheit: Ich gebe hier nur meine bisherigen Gedanken zu diesem Thema weiter. Das ist bei weitem nicht alles zu Ende gedacht. Interessant ist das Thema aber allemal und so darf ein Denkanstoss schon mal sein. Es führt mich auch auf meine Gedanken im „Facebook-Fast-Food-Sodbrennen“-Artikel (3) zurück: Man kann hier nicht nur der Technik die Schuld geben und erwarten, dass die Technik-Abteilungen bei Facebook und Konsorten unsere Wahrnehmung besser regulieren. Man sollte sich, wenn man schon diese Medien und Firmen nutzt, deren Arbeitsweisen und Bedingungen klar machen, und dann entsprechend seine Aktivitäten gestalten. Das Internet bewusster und dosierter nutzen ist, glaube ich, mittelfristig eine der wichtigsten Übungen für uns alle.
Links zu diesem Artikel: