Gerade jetzt in Zeiten von Corona und der digitalen Lehre macht der gemeine Student doch nichts lieber als Prokrastinieren – alles Wichtige aufschieben. Also ab auf YouTube: „Philipp Amthor vs. Kevin Kühnert“ die Diskussion in der Stern-Diskuthek. Danach schlägt der Algorithmus “Meme Politiker vs. Meme Politiker” vor. Gute Empfehlung, YouTube, danke für die 48 Minuten Ablenkung. Was kommt als Nächstes?
Schauen wir mal: „Blackrock – Die unheimliche Macht eines Finanzkonzerns“. Eine Arte-Dokumentation. Eineinhalb Stunden über die Machenschaften des größten Vermögensverwalters der Welt. Und schon tauchen in den Empfehlungen Videos von Tichys Einblick auf. „Verfassungsgericht rügt EZB – Was ist los mit unserem Geld?“, klingt erstmal interessant. Danach ist es jedoch nur noch ein Klick bis zu Videos der AfD-Fraktion Schleswig-Holstein, denen von Klimaleugnern und der angeblichen Klärung der Frage, wo die Reptiloiden in der Hohlwelt wohnen.
Online-Content trägt immer mehr dazu bei, dass sich Menschen radikalisieren. Die Corona-Krise stärkt diesen Trend: Die Welt leidet unter einem Virus, das noch wenig bekannt ist. Was heute als bewiesen gilt, stimmt morgen doch nicht mehr. Die Politik sagt das Eine, der Drosten-Podcast das Andere. Wo kommt das Virus her? Seit wann ist es in Europa? Unklar. Bei so komplexen Themen sehnen sich Menschen nach vermeintlich einfachen Erklärungen. Und die liefert ihnen Online-Content, oft zu finden auf Portalen wie KenFM oder den Telegram-Kanälen der inzwischen zahlreichen bekannten Verschwörungstheoretikern wie Xavier Naidoo. So wird das Virus beispielsweise als Biowaffe dargestellt, mit dem die schattenhafte Elite, wer auch immer das genau sein soll, die Weltbevölkerung auf einige hundert Millionen Menschen dezimieren wollen. Oft unterliegt diesen Theorien antisemitisches Gedankengut.
Oft verstehen die Menschen gar nicht, was sie sich da im Moment anschauen: So ist es bei Videos über Aliens, die zusammen mit Hitler auf dem Mond leben, für die Meisten relativ offensichtlich, dass man rechten Gedankengut auf den Leim gegangen ist. Bei den eher moderaten Formaten, wie Tichys eurokritischen Talks, wissen viele nicht, dass sie schon auf dem Weg zu eben solchen Videos sein könnten.
Die Kommentarspalten: ein Ort für den Erstkontakt zu Radikalen
Vor allem Jugendliche sind besonders gefährdet. Sie hatten wegen ihres geringen Alters mitunter noch nicht die Zeit und Möglichkeit, eine ausreichende Medienkompetenz aufzubauen, um rechten Content als solchen zu entlarven. Zudem neigen Jugendliche noch mehr als Erwachsene dazu, vorschnell Schlüsse zu ziehen. Dann ordnen sie die Eindrücke, die sie erfahren, so ein, dass sie in ihre Vorstellungen passen. Diese Fehlschlüsse können dazu führen, dass sie Informationen und Quellen falsch bewerten. Viele Jugendliche haben aber auch noch keinen festen Platz in ihrem sozialen Umfeld oder der Gesellschaft gefunden. „Kinder und Jugendliche suchen nach Wahrheiten, nach Orientierung und Anerkennung“, sagt Bernd Wagner von EXIT Deutschland, einer Organisation für den Ausstieg aus der rechtsextremen Szene.
Und genau diese Suche nutzen die Radikalisierer. Denn simple Antwort- und Erklärungsmuster, zum Beispiel auf Youtube, sind gefragt: Laut der Langzeitstudie Medienvertrauen der Universität Mainz vertrauen knapp ein Viertel der Deutschen den klassischen Medien gar nicht mehr und weniger als die Hälfte glauben ihnen uneingeschränkt. „Das öffnet die Jugendlichen dann auch für extremistische Angebote“, so Wagner. Und auch wenn noch kein Amokläufer nur durch YouTube zu seiner Tat gedrängt wurde, sind vor allem die Kommentarspalten ein beliebter Ort für den Erstkontakt geworden, wie der Unesco-Report „Youth and Violent Extremism on Social Media“ aus dem Jahr 2017 zeigt. Wenn also in einem Kommentar unter, zum Beispiel, einem Video der Tagesschau leicht kritische Tendenzen zu erkennen sind, empfehlen Rechte dem Kritiker alternative, moderat rechte oder auch rechtsextreme Informationsangebote und Anlaufstellen. Und je extremer das Ausgangsvideo, desto extremer natürlich auch die Folgeempfehlungen.
Youtube verdient auch mit Videos von Klimaleugnern Geld
Jetzt wäre es natürlich einfach, zu sagen „Naja es werden ja nicht viele Jugendliche gezielt auf YouTube nach rechtsradikalen Videos suchen“. Aber so einfach ist es leider nicht. Laut einer Studie aus dem Jahr 2018 nutzen 86 Prozent aller Jugendlichen unter 19 Jahren in Deutschland YouTube, fast die Hälfte davon täglich. Hiervon geben immerhin 36 Prozent an, sich bei ihrer Zeit auf der Videoplattform von der „Empfohlene Videos“-Funktion leiten zu lassen. Laut Youtube entstehen sogar fast zwei Drittel des anfallenden Traffics auf diese Art. Die Konsumenten übergeben also die Kontrolle über das, was sie sehen, an eine Maschine, den Youtube-Algorithmus. Aber warum empfiehlt der YouTube-Algorithmus Videos von Klimaleugnern, Verschwörungstheoretikern und sogar von bekennenden Neonazis? Die Antwort ist einfach, die Erklärung umso komplexer: maximale Kundenbindung.
So sähe zum Beispiel eine Art analoger Kaffee-Algorithmus so aus: „1. Prüfe, ob noch Kaffee in der Tasse ist 2. Wenn Ja, trinke einen Schluck. Wenn Nein, fülle die Tasse auf 3. Gehe zurück zu 1.“
Bei der Contentpersonalisierung passiert vom Prinzip her nichts anderes, nur eben mit einer enormen Anzahl an Arbeitsschritten und Datenpunkten.
Dass Youtube die User möglichst lange auf der Plattform halten will, geht aus dem Geschäftsmodell der Google-Tochter hervor. Je länger Nutzer auf Youtube sind, desto mehr Daten lassen sie da, sodass sie individuell passend mit Werbung bespielt werden können, mit das Unternehmen Geld verdient. Um so mehr und mehr Gewinn zu machen, haben sich die Menschen hinter der Videoplattform immer neue Wege einfallen lassen, um mit den perfekt passenden Videos die Nutzer auf der Seite zu halten. Während in den frühen 10er-Jahren die empfohlenen Videos noch diejenigen waren, die einfach am meisten geklickt wurden, steht heute ein sogenanntes neuronales “Machine Learning”-System hinter den Videoempfehlungen. Damit bekommt jeder Nutzer seine persönliche Empfehlung.
Wie genau die Empfehlungen funktionieren, gibt Youtube nicht preis. Das Unternehmen begründet dies mit der extremen Personalisierung und Geschwindigkeit des Algorithmus. Datenjournalist Michael Kreil, der sich viel mit Rechtsradikalen im Internet beschäftigt, denkt, dass mehr hinter YouTubes offizieller Begründung steckt: Würde YouTube veröffentlichen, wie der Algorithmus funktioniert, würden in kürzester Zeit extrem viele sinnentleerte Videos entstehen, die einzig dafür ausgelegt sind, nach den Anforderungen des Algorithmus als das perfekte nächste Video gewertet zu werden.
Seit 2018 Kritik an YouTube
Rechtsextreme wissen, wie sie ihren Content auf Online-Plattformen verkaufen können. Sie nutzen Suchmaschinenoptimierung und eine reißerische Aufmachung. An sich funktioniert es ähnlich wie bei Boulevardmedien: Stark emotional aufgeladene Bild- und Textsprache, das Spiel mit Ängsten und einfache Erklärungen werden genutzt und sorgen für viele Klicks. Außerdem ist es wichtig, dass sich Menschen mit dem Inhalt des Videos auseinandersetzen. Wenn also in den Kommentaren unter einem Video viel diskutiert wird, ist dies ein Zeichen für den Algorithmus, dass dies ein relevantes und somit empfehlenswertes Video ist. Hierbei ist irrelevant, ob die Diskussion in den Kommentarspalten auch konstruktiv ist. Und hat man erst einmal ein paar solcher Videos gesehen, ist man wie Alice im Wunderland in den Kaninchenbau gefallen. Der Algorithmus registriert, dass man Content dieser Art gesehen hat, empfiehlt als nächstes Video wieder so etwas, registriert, dass man wieder Content dieser Art gesehen hat und empfiehlt als nächstes Video erneut so etwas. Ein Teufelskreis, der Nutzer im Kaninchenbau gefangen hält.
Schon im Jahr 2018 gab es erste Studien, in denen Youtubes Umgang mit rechtsextremem Inhalt kritisiert wurde. Dem britischen Guardian gegenüber reagierte die Google-Tochter damals: „YouTube ist eine offene Plattform, auf der jeder Videos für ein globales Publikum posten kann, solange diese Inhalte den Community-Richtlinien entsprechen.“ Auf eine Anfrage von KURT wurde lediglich per automatisch generierter Antwort auf diese Richtlinien verwiesen. In den Richtlinien ist ausschließlich von Videos die Rede, die explizit zu Hass oder Gewalt gegen bestimmte Personengruppen aufrufen. Ob diese Videos Ideologien transportieren, die Hass vermitteln, ist dort kein Thema.
Meldet ein Nutzer einen Beitrag, übernimmt Youtube ab diesem Zeitpunkt die Haftung über den möglicherweise illegalen Inhalt, ist also gegebenenfalls dazu verpflichtet, den Beitrag zu löschen. Passiert dies nicht, würde sich die Plattform strafbar machen. Youtube muss also prüfen, ob der Beitrag zu löschen sind. Grundsätzlich gelte da die Meinungsfreiheit, sagt Anwältin für Medienrecht, Eva Streicher. Was aber nicht erlaubt ist: zum Beispiel Volksverhetzung oder Beleidigungen, die nicht von der Kunst-, Satire- oder Meinungsfreiheit gedeckt sind.
Youtube muss das Löschen von Videos begründen
Zudem stimmt man bei der Accounterstellung den Allgemeinen Geschäftsbedingungen der Plattform zu. Hierzu gehört auch das virtuelle Hausrecht von YouTube, die sogenannte Netiquette. Also ein Regelwerk, in dem steht, was geht und was nicht. So sind nach einem Urteil des Oberlandesgerichtes Dresden auch einige Aussagen verboten, die nicht explizit gegen das Gesetz verstoßen: “Aussagen über die Minderwertigkeit einer Personengruppe, die implizieren, dass eine Person oder Gruppe körperliche, geistige oder moralische Defizite aufweist” oder “Ausdrücke der Verachtung oder ihre bildliche Entsprechung” können ebenfalls Gründe für die Sperrung von Nutzern sein. Youtube muss aber auch aufpassen, nicht zu weit zu gehen: „Eine unangemessene Benachteiligung der Nutzer sehen die Gerichte meist, wenn Löschungen willkürlich, also ohne sachlichen Grund, vorgenommen werden. Auch vorschnelle und dauerhafte Sperren werden meist als unverhältnismäßiger Eingriff gewertet und sind damit rechtswidrig“, sagt Streicher.
In der Corona-Krise sind Falschinformationen oft noch gefährlicher als zuvor. Wenn Menschen zum Beispiel fälschlicherweise denken, sie seien immun, weil sie jeden Tag eine Knolle Knoblauch essen und deswegen keinen Abstand mehr zu anderen halten müssten, kann sich das Virus schneller ausbreiten. Um dagegen vorzugehen, verlinkt Youtube zum Beispiel, unter allen Videos, die mit Corona zu tun haben, die Weltgesundheitsorganisation. Bei falschem oder verschwörerischem Inhalt werden die Videos “geshadowbanned”. Das heißt, sie sind über Suche schwieriger zu finden oder tauchen weiter unten in den Empfehlungen auf. Eine Taktik, die eigentlich 2017 im Kampf gegen den Terror entwickelt wurde, um Propagandamaterial des IS kleinzuhalten. Dieser Effekt greift aber meist erst, nachdem ein Video viral gegangen ist.
Und so tun andere gesellschaftliche Akteure etwas zum Schutz der Jugend. Und das müsse man, sagt Datenjournalist Kreil, „ganz schnell machen, weil wir die Leute sonst verlieren.” “Weil wir das 20, 50 oder sogar 70 Jahre verpennt haben, haben wir auch schon viele Leute an den Rassismus verloren.“ Das große Stichwort dabei ist “Aufklärung”: zum einen eine Aufklärung über die Strategien der Rechten und zum anderen Aufklärung im Bereich der Medienkompetenz. „Und das darf sich nicht auf die Schule beschränken“, so Kreil. In Dortmund gibt es zum Beispiel das DoNeM, das Dortmunder Netzwerk Medienkompetenz, unter dem sich städtische und andere Akteure zusammengefunden haben und Programme zur Bildung der Medienkompetenz anbieten. An der TU selbst gibt es die Forschungsstelle Jugend-Medien-Bildung, die zu diesem Thema forscht. Aber auch Organisationen, wie die Amadeu Antonio Stiftung, bieten on- und offline Materialien zur Info über Rechtsextreme im Internet an.
Beitragsbild: Fotomontage aus Flickr (Bill Gates), Pixabay (Reptiloid) und YouTube-Screenshot (Angela Merkel)