Studie untersucht weitverbreitete Annahme

Extremistische Videos: Radikalisiert der Youtube-Algorithmus wirklich User?

Vom Katzenvideo zur Verschwörungstheorie? Laut einer aktuellen Studie werden problematische Videos nur sehr selten von Nutzerinnen und Nutzern gesehen.

Vom Katzenvideo zur Verschwörungstheorie? Laut einer aktuellen Studie werden problematische Videos nur sehr selten von Nutzerinnen und Nutzern gesehen.

Erst das Katzen-Video, dann absurde Verschwörungstheorien über Aliens? Wer den Youtube-Algorithmus entscheiden lässt, welche Videos als nächstes abgespielt werden, bekommt teilweise unerwartete Inhalte zu sehen. Davon berichten zumindest immer wieder einige Nutzerinnen und Nutzer. Sie beschweren sich teils sogar über extremistische Videos mit sexistischen und rassistischen Inhalten, die ihnen Youtube vorgeschlagen haben soll. Folglich lautet die häufige Annahme: Der Youtube-Algorithmus kann Userinnen und User radikalisieren. Doch wie häufig Menschen wirklich derartige Inhalte sehen, war bislang weitgehend unklar.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Forschende haben diese Theorie untersucht und kommen in einer Studie zu dem Ergebnis: Videos mit extremistischen und alternativen Inhalten werden anders als angenommen nur von wenigen Nutzerinnen und Nutzern gesehen. Das berichtet eine Forschergruppe der University of New York im Fachblatt „Science Advances“. Alternative Videos sind laut der Studie solche, die diskreditierende Ansichten legitimieren wollen, indem sie sie als marginalisierte Standpunkte darstellen. Der Youtube-Algorithmus scheine Userinnen und User aber nicht durch seine Vorschläge auf alternative oder extremistische Videos zu führen.

Youtube schlägt extremistische Videos vor allem dann vor, wenn man sie ohnehin schon sieht

Die Forschenden befragten fast 1200 Menschen und werteten zwischen Juli und Dezember 2020 ihr Nutzungsverhalten aus. Dazu mussten die Teilnehmenden ein Add-on in ihrem Browser installieren. Das Ergebnis der Analyse: Youtube schlägt Nutzerinnen und Nutzern nur sehr selten extremistische oder alternative Videos vor, wenn sie sich nicht schon vorher derartige Videos anschauten und Känale abonnierten, die diese veröffentlichen – oder entsprechende Ansichten vertraten. Von den Probandinnen und Probanden, auf die das zutrifft, sahen nur gut drei Prozent extremistische oder alternative Videos durch einen Youtube-Vorschlag.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

Wer aber schon vorher alternativen and extremistischen Kanälen folgte oder Videos mit solchen Inhalten sah, bekommt der Studie zufolge mit hoher Wahrscheinlichkeit auch entsprechende Vorschläge für weitere derartige Videos von Youtube. Wenn diejenigen Teilnehmenden ein alternatives Video sahen, war das nächste vorgeschlagene und angesehene Video zu 54 Prozent der Fälle ein anderes alternatives oder ein extremistisches Video. Bei extremistischen Videos folgten sogar in fast 74 Prozent der Fälle solche Inhalte. Allerdings machten diese Teilnehmenden nur einen geringen Anteil aus: Insgesamt sahen nur 15,4 Prozent der Teilnehmenden im Untersuchungszeitraum überhaupt alternative Videos und nur 6,1 Prozent extremistische Videos – dazu zählen auch die Aufrufe, die nicht von Youtube vorgeschlagen wurden.

Extremistische Videos: Auch wenige Interessenten sind „große Herausforderung für Demokratie“

Wissenschaftlerinnen und Wissenschaftler um Joachim Allgaier lobten die Arbeit der Forschenden und sagten, dass sie den Stand der Forschung gut abbilde. „Die Hinweise verdichten sich, dass Durchschnitts-Userinnen und -User auf YouTube in der Regel nicht (mehr) durch die algorithmisierte Kuratierung zu immer extremeren Inhalten hingeleitet werden“, sagte Joachim Allgaier, Professor für Kommunikation und Digitalisierung an der Hochschule Fulda. Dennoch wiese die Studie darauf hin, dass auf YouTube nach wie vor etliche zum Teil sehr extreme Inhalte zu finden seien, die von einer engagierten Gruppe von Nutzerinnen und Nutzern auch stark nachgefragt würden.

Tatsächlich verbrachten vor allem die Studienteilnehmenden, die alternative Kanäle abonnierten, deutlich mehr Zeit mit alternativen Videos: Pro Woche waren es im Schnitt mehr als eine Stunde. Zum Vergleich: Wer keine abonnierte, schaute im Schnitt gerade einmal 12 Sekunden pro Woche. Abonnenten von einem extremistischen Kanal schauten im Schnitt 15 Minuten lang pro Woche entsprechende Videos – wer sie nicht abonnierte, verbrachte durchschnittlich nur 24 Sekunden damit.

Weiterlesen nach der Anzeige
Weiterlesen nach der Anzeige

„Selbst wenn nur ein kleiner, aber überzeugter Kreis an Personen durch die Algorithmen an noch mehr problematische Inhalte herangeführt wird, ist auch das eine große Herausforderung für die Demokratie“, sagt Josephine Schmitt vom Center for Advanced Internet Studies in Bochum im Hinblick auf die Studienergebnisse. Sie hält es für wichtig, dass Mediennutzerinnen und -nutzer für die Funktionsweisen von Algorithmen sensibilisiert werden – und sie dazu befähigt werden, extremistische Botschaften zu erkennen.

Mehr aus Digital

 
 
 
 
 
Anzeige
Anzeige

Verwandte Themen

Letzte Meldungen

 
 
 
 
 
 
 
 
 

Spiele entdecken