Facebook-User*innen können bald selbst entscheiden, welche Quellen sie für vertrauenswürdig halten. Dadurch sollen weniger Fake News angezeigt werden. Doch wer kann schon wirklich objektiv beurteilen, welche Seiten zu sehen sein sollen? Ein Kommentar.
Die Falschnachrichten sind seit 2016 ein Problem: Während des Präsidentschaftswahlkampfs in den USA haben Accounts aus Russland erfundene Nachrichten verbreitet und dadurch versucht, das Wahlergebnis zu beeinflussen. Darauf hat Facebook reagiert: Das Unternehmen hatte Medienexpert*innen eingestellt, die “Fake-News-Seiten” kennzeichnen sollten. Doch dieses Experiment ging nach hinten los. Die gekennzeichneten Seiten wurden noch häufiger angeklickt als vorher.
Mark Zuckerberg hat deshalb am Freitag (19.02.2018) eine neue Änderung des Algorithmus vorgestellt: Noch in dieser Woche wird manchen Facebook-Nutzer*innen aus den USA eine Umfrage angezeigt. Darin sollen sie entscheiden, welchen Quellen sie vertrauen und welchen nicht. Es wird nicht nur nach Seiten gefragt, die sie selbst abonniert haben, sondern auch nach welchen, die sie eventuell nicht kennen. Seiten, die besonders oft als vertrauenswürdig eingeschätzt wurden, sollen öfter im News Feed aller Nutzer*innen angezeigt werden. Die Gesamtzahl der angezeigten Nachrichten werde nicht verändert, sagt Zuckerberg. Wenn der neue Algorithmus funktioniert, sollen die Umfragen bald auch international durchgeführt werden.
https://www.facebook.com/zuck/posts/10104445245963251?pnref=story
„Es gibt zu viel Sensationsgier, Falschinformation und Polarisierung in der heutigen Welt. Deshalb ist es wichtig, Nachrichten mit Qualität in den Newsfeed eines jeden Nutzers zu bringen, um eine gemeinsame Basis zu schaffen”, schreibt Zuckerberg.
Wie objektiv bewerten die User*innen?
Laut Zuckerberg hat Facebook für die Umfrage eine “vielfältige und repräsentative Stichprobe” ausgewählt. Genauere Angaben macht er dazu nicht.
Man kann nur hoffen, dass die Stichprobe wirklich alle Bevölkerungsgruppen und Meinungen in repräsentativer Anzahl widerspiegelt.
Denn Menschen suchen sich ihre Nachrichten selten objektiv aus. Meistens folgen sie Seiten und lesen Nachrichten, die ihrer eigenen Meinung entsprechen.
Das bestätigte eine Studie des IMT Forschungszentrums in Lucca. Darin wurde der News-Konsum von 376 Millionen Facebook-Nutzern zwischen 2010 und 2015 ausgewertet.
Der News-Konsum auf Facebook ist von selektiver Präsentation dominiert
heißt es in der Studie. Die Nutzer*innen lesen nur wenige Nachrichtenquellen und teilen hauptsächliche Posts dieser Seiten.
Die werden wiederum durch den Facebook-Algorithmus verstärkt im persönlichen Newsfeed angezeigt. Dadurch fühlen sich die Menschen in ihrer Meinung noch mehr bestätigt – das ist das Phänomen der “Echokammer”. Die Gefahr besteht darin, dass Nutzer*innen sich nur noch in dieser Kammer bewegen und sich nicht mehr mit Fakten der Gegenseite auseinandersetzen. Eine differenzierte Meinungsbildung ist nicht mehr möglich.
Der Kommunikationswissenschaftler Martin Emmer von der Freien Universität Berlin erklärte diesen Effekt in einem Interview mit der Heinrich-Böll-Stiftung:
Letztendlich steckt dahinter eine Technologie, (…) die eigentlich die Leute auf diesen sozialen Netzwerken halten will, die Nutzerbedürfnisse möglichst optimal befriedigen will, eher aus einer ökonomischen Perspektive heraus. Aus einer Dienstleisterperspektive will man natürlich die Bedürfnisse der Kunden befriedigen.
Je nachdem, wie die Stichprobe aufgebaut ist, sind manche Meinungen also stärker vertreten als andere. Das würde sich auf das Umfrageergebnis und damit auf den Algorithmus auswirken.
Doch selbst wenn die Umfrage wirklich repräsentativ ist, können die Quellen nicht objektiv bewertet werden: Es könnte sein, dass manche Menschen bestimmte Seiten nicht kennen und diese dann als “nicht vertrauenswürdig” bewerten, obwohl sie es wären. Oder dass das Ranking von Fake-Accounts manipuliert wird. Davon gibt es rund 270 Millionen auf Facebook, wie die Plattform im dritten Quartalsbericht 2017 angibt. Zu diesen Fake-Accounts zählen allerdings auch falsch kategorisierte Profile (wenn Unternehmen zum Beispiel ein Privatkonto statt einer eigenen Seite nutzen) und Zweit-Accounts von realen Personen.
Facebook übernimmt keine Verantwortung
Die Vergangenheit hat gezeigt, dass die Nutzer*innen anscheinend nicht selbst entscheiden können, welche Seiten vertrauenswürdig sind. Deshalb gab es schließlich die Debatte über die Fake-News und Echokammern, deshalb hat Facebook Expert*innen eingestellt. Und jetzt sollen diese Nutzer*innen bestimmen, welche Seiten in den Newsfeeds angezeigt werden?
Mark Zuckerberg macht es sich mit dieser Entscheidung einfach: Er gibt die Verantwortung über die Inhalte ab und macht klar, dass Facebook nur die Plattform ist, auf der Inhalte verbreitet werden können. Das ist die unbequeme Wahrheit.
Beitrags- und Teaserbild: Kayla Velasquez/unsplash.com, lizenziert nach CCO.