Videos von Donald-Trump-Auftritten führen zu Inhalten von Holocaust-Gegnern, Videos von Bernie Sanders zu Theorien über geheime US-Regierungsbehörden – Diese Beobachtung machte die amerikanische Journalistin Zeynep Tufekci, die in ihrem Berufsalltag viel auf YouTube recherchiert. In einem Artikel in der New York Times erklärt sie, wie der Algorithmus der Video-Plattform den Nutzern immer extremere Inhalte vorschlägt, als sie ursprünglich gesucht haben. „YouTube könnte eines der machtvollsten Radikalisierungsinstrumente des 21. Jahrhunderts sein”, resümierte sie.
Weiterführende Informationen
Während Tufekcis Erkenntnisse eine Debatte über die Funktionsweise des YouTube-Algorithmus entfacht haben, machen sie auch auf ein anderes, bereits lange bekanntes Problem aufmerksam: Als offene Plattform bietet YouTube Nutzern eine Bühne, die Falschinformationen und nicht belegte Thesen verbreiten, die vom Publikum womöglich gar nicht objektiv eingeordnet werden können. Ein User, der sich etwa einen Wahlkampfauftritt von Hillary Clinton ansieht und anschließend automatisch zu einem verschwörungstheoretischen Beitrag über die Anschläge vom 11. September 2001 weitergeleitet wird, hat eventuell gar nicht das Hintergrundwissen, um diesen als Falschinformation zu enttarnen.
An dieser Stelle will YouTube nun ausbessern: Verschwörungstheoretische Inhalte sollen zwar nicht gelöscht, jedoch mit zusätzlichen Informationen versehen werden. Wie CEO Susan Wojcicki während einer Podiumsdiskussion auf dem „South By Southwest”-Festival in Austin, Texas, erklärte, sollen problematische Videos in Zukunft Wikipedia-Textboxen, sogenannte „Informationshinweise”, erhalten. „Wenn es Videos gibt, die sich auf Verschwörungen konzentrieren – und wir verwenden eine Liste bekannter Internet-Theorien von Wikipedia – dann werden wir ein Begleitelement mit Informationen von Wikipedia verwenden, das zeigt, dass es Informationen über die Angelegenheit gibt”, so Wojcicki.
Umstrittene Quelle
Die YouTube-Chefin demonstrierte das neue Feature an Beiträgen über die Mondlandung und Chemtrails. Unter den Videos erscheint mit dem neuen Feature ein Textabschnitt inklusive weiterführendem Link zu Wikipedia. Anfänglich soll sich die in den kommenden Wochen startende Funktion nur auf die populärsten Verschwörungstheorien beschränken, zu denen es bereits viele Beiträge gibt, und später weiter ausgebaut werden. Dabei ist Wikipedia als Informationsquelle durchaus umstritten: Zwar ist die Online-Enzyklopädie umfangreich, da die Beiträge jedoch von Laien mit teilweise nicht verifizierten Informationen verfasst werden, wird die Plattform oftmals, wie in vielen Universitäten, nicht als wissenschaftliche Quelle anerkannt.
New from @YouTube – CEO Susan Wojciki announces a feature to fight conspiracy theories w/ related links to news, Wikipedia #sxsw pic.twitter.com/sLtjdQNqbu
— Maureen Fitzgerald (@movandy) 13. März 2018
In den vergangenen Monaten wurde YouTube bereits mehrmals wegen der Ausstrahlung hetzerischer und gewalttätiger Inhalte auf der Plattform kritisiert. Einzelne Werbekunden zogen ihre Clips zurück, nachdem diese vor problematischen Videos gezeigt wurden. Der Konzern reagierte mit einer Anpassung seiner Monetarisierungsregelungen, die etwa „umstrittene Themen und sensible Ereignisse” als „für die meisten Werbetreibenden nicht geeignete Inhalte” klassifizieren.