“Ich weiß das klingt verrückt. Und ich dachte zu 100 Prozent, es ist Bullshit. Bis ich mir das wirklich genauer angeschaut habe.” Diese Worte sagt YouTube-Star Shane Dawson – bevor er von geheimen Laserwaffen der US-Regierung spricht, die verheerende Waldbrände ausgelöst haben sollen.
Von dieser und weiteren Verschwörungstheorien erzählt der YouTuber mit über 20 Millionen Abonnenten in einer losen Videoreihe. Was Dawson da erzählt ist so unterhaltsam wie Gruselgeschichten am Lagerfeuer – und häufig extrem irreführend.
Videos by VICE
In einem fast zweistündigen Video namens “Conspiracy Theories with Shane Dawson” von Ende Januar spricht der YouTuber etwa davon, dass iPhones alles aufnehmen, was wir sagen – ein Gerücht, das bereits ausführlich widerlegt wurde. Dawson spricht außerdem von der Theorie, dass die App Zepeto Gespräche mitschneidet. Ein kurzer Blick in die Smartphone-Systemeinstellungen und die Datenschutzrichtlinien der App zeigt jedoch, dass die App das nicht tut.
Dawson erwähnt, dass es sich um Theorien, nicht um Fakten handelt. Am Montag postete er ein weiteres Video, “Investigating Conspiracy Theories with Shane Dawson”. Hier geht er dem Gerücht nach, dass die US-amerikanische Fastfood-Kette Chuck E. Cheese’s übriggebliebene Pizzastücke einfach den nächsten Gästen auftischt. Die Firma bestreitet das. Außerdem interviewt Dawson eine Freundin, die berichtet, sie und ihr Sohn seien Opfer von Menschenhandel geworden.
Unterhaltung ist Dawson wohl wichtiger als Fakten
Lange nicht alle Themen, die Dawson unter dem Titel “Verschwörungstheorien” abhandelt, sind tatsächlich welche. Er spricht auch über täuschend echt manipulierte Videos, sogenannte Deepfakes, über die Motherboard bereits ausführlich berichtet hat. Oder er klärt über die Tricks auf, mit denen Supermärkte ihre Kunden dazu bringen, möglichst viel einzukaufen. Beides sind Dinge, die sich durch Fakten belegen lassen.
Offenbar geht es Dawson in allen der Videos darum, unterhaltsam zu sein, Tatsachen sind dabei schlicht nicht so wichtig.
Wie viele andere YouTuber und YouTuberinnen hat Dawson erkannt, dass fragwürdige oder extreme Äußerungen auf YouTube belohnt werden – mit vielen Views, Likes und Kommentaren. Dawsons Video von Ende Januar wurde über 30 Millionen Mal angesehen, der zweite Teil, der seit wenigen Tagen online ist, über 17 Millionen Mal. Was treibt ihn an?
“Es ist fast unmöglich, die Motivationen eines einzelnen Influencers herauszufiltern”, sagt die Kommunikationswissenschaftlerin Becca Lewis, die als Doktorandin politische Subkulturen im Internet erforscht. Sie gehört zur New Yorker Forschungsgruppe Data & Society, die sich auf ihrer Website als unabhängiges Non-Profit-Institut vorstellt. “Einige Trends auf YouTube zeigen, dass Hetze, Politik und Verschwörungstheorien die Zuschauerzahlen nach oben treiben”, sagt Lewis. Die Forscherin sieht darin einen direkten finanziellen Anreiz, diese Inhalte zu produzieren.
Radikale Videos, loyale Zuschauer
In ihrem Bericht “Alternative Influence: Broadcasting the Reactionary Right on YouTube” erklärt Lewis, dass nicht nur YouTuber ihr Publikum durch entsprechende Inhalte radikalisieren können, sondern dass es auch umgekehrt funktioniert: Besonders hohe Zuschauerzahlen können YouTuber dazu animieren, immer extremere Videos zu posten.
“Auf YouTube gibt es einfache Feedback-Schleifen, bei denen sich Influencer ein Publikum aufbauen, das bestimmte Inhalte fordert und diese dann auch belohnt”, schreibt Lewis. “Für viele politische Influencer gilt: Je radikaler ihre Inhalte werden, desto radikaler und loyaler wird auch ihr Publikum.”
“Große Marken haben Angst, dass jemand nicht mehr brandsafe sein könnte.” – YouTube-Manager Daniel van Kampen
Andererseits kann es auch ein Problem sein, wenn YouTuber für mehr Klicks und Kommentare einen auf Verschwörungstheorien machen. “Das ist aus wirtschaftlicher Sicht definitiv schlecht. Sowas schadet deiner PR”, sagt YouTube-Manager Daniel van Kampen im Gespräch mit Motherboard. Er managt zum Beispiel die deutschen YouTube-Stars Simon Desue, ApoRed und Flying Uwe. PR-Manager würden auch Schauspielern raten, sich nicht über Politik zu äußern, weil sie damit schnell in Teufels Küche kommen könnten.
Das Problem: Wer fragwürdige Dinge von sich gibt, könnte sich künftige Deals mit Werbepartnern verbauen. “Kooperationspartner wollen Influencer, die möglichst wenig konfliktbehaftet sind. Große Marken haben Angst, dass jemand nicht mehr brandsafe sein könnte, dass sie also unter dem Ruf des Influencers leiden”, sagt van Kampen. Langfristig könnte die Strategie, mit provokativen Inhalten Geld zu machen, seiner Meinung nach nicht aufgehen.
Auch auf VICE: Er überlebte einen Amoklauf, jetzt wollen Verschwörungstheoretiker sein Leben zerstören
Dawson profitiert derzeit von seinen Verschwörungs-Videos
Bei Dawson sind aktuell noch keine negativen Auswirkungen zu erkennen. Zwar hatte YouTube alle Werbung von seinem Video vom 30. Januar entfernt, wenige Stunden nachdem er es gepostet hatte – diese Sperre dauerte jedoch nur einen Tag. Als wir das Video heute in der Redaktion aufrufen, erscheint davor ein 20-sekündiger Werbeclip, und das Video wird durch mehrere Werbeblöcke unterbrochen.
Dawson wird zudem weiterhin offenbar von Firmen wie Honey oder SeatGeek unterstützt, die in seinen Videos auftauchen. Denn Dawson bewegt sich mit den Videos in einer Grauzone, wie das US-Magazin The Verge beschreibt: Die Verschwörungstheorien werden lediglich als mögliche Wahrheiten dargestellt. Damit vermeidet er, von YouTube abgestraft zu werden. Vom Publikum wird Dawson jedenfalls belohnt. Obwohl er seit fast zehn Jahren YouTube-Videos produziert, darunter Vlogs, Produkttests und Features, gehören gleich zwei Videos mit dem Titel “Mind Blowing Conspiracy Theories” zu seinen zehn erfolgreichsten. Dawson scheint in Kauf zu nehmen, dass er damit seinen Zuschauern vielleicht Zweifel zu Themen einflüstert, bei denen es überhaupt nichts zu zweifeln gibt.
Dawson ist nicht der einzige Influencer, der in seinen Videos mit extremen Ansichten spielt. Im vergangenen Jahr zeigte ein Beispiel aus Deutschland, wie erfolgreich Verschwörungstheorien auf YouTube sein können. Der YouTuber Simon Unge postete im März 2018 plötzlich Videos, in denen er Milch als Gift bezeichnete und Massentierhaltung mit dem Holocaust verglich. Ob Unge diese Videos von Anfang an als Satire oder Troll-Aktion betrachtet hat, lässt sich nicht abschließend sagen. Jedenfalls ist der Satz “Milch ist Gift” bis heute ein Running Gag für alle, die viel auf YouTube unterwegs sind, und Videos von und über Unge beherrschten tagelang die YouTube-Trends.
Laut Becca Lewis versuchen viele YouTuber mit Aktionen wie diesen einen Balanceakt: Wie können sie mit maximal kontroversen Inhalten ihre Views in die Höhe treiben, ohne gemäßigte Zuschauer abzuschrecken oder unauthentisch zu wirken?
YouTube will Videos mit Verschwörungstheorien eigentlich abstrafen
“Vor allem Leute, die politische Inhalte posten, werden schnell in eine bestimmte Schublade gesteckt. Viele YouTuber flirten mit radikalen Aussagen. Aber sie wollen ein größeres Publikum erreichen, als sie es als bekennender Weißer Nationalist könnten.” Einige YouTube würden sogar politisch streitbare Videos nur für kurze Zeit posten und dann wieder löschen.
Natürlich ist es auch möglich, dass YouTuber sich mit Verschwörungstheorien beschäftigen, weil sie tatsächlich daran glauben oder sich ernsthaft daran abarbeiten wollen. Dawson beispielsweise schrieb auf Twitter, er habe einige seiner Videos zu Verschwörungstheorien auch wieder gelöscht. Das seltsame an dem Tweet: Es ist eine Antwort auf einen Tweet von YouTuber Paul Joseph Watson, der auch Autor der Website InforWars ist. Auf der Seite werden auch rechte und rechtsextreme Standpunkte vertreten; Infowars-Betreiber Alex Jones wurde unter anderem von YouTube, Facebook und Spotify verbannt. “Ich liebe deine Arbeit!!”, schreibt Dawson im Tweet an Watson.
“YouTube hat sich immer als als Alternative zu traditionellen Medien positioniert.” – Kommunikationswissenschaftlerin Becca Lewis
Ende Januar kündigte YouTube in einem Blogpost an, dass Videos über Verschwörungstheorien künftig nicht mehr in den Empfehlungen auftauchen sollen. Wenige Tage zuvor hatte Buzzfeed in einer Recherche gezeigt, wie schnell man durch YouTubes Empfehlungen in eine Spirale gerät: Schaut man ein Video mit verschwörungstheoretischen Inhalten, werden immer mehr Videos mit ähnlichen Inhalten empfohlen – ein Problem, das auf der Videoplattform bereits seit Jahren besteht.
Als Beispiele für grenzwertige Inhalte, die YouTube künftig nicht mehr empfehlen will, nennt die Plattform “Videos, die angebliche Heilmittel gegen eine schwere Krankheit anpreisen, behaupten, die Erde sei eine Scheibe oder falsche Behauptungen über geschichtliche Ereignisse wie den 11. September aufstellen”. Gesperrt werden sollen die Videos allerdings nicht, solange sie nicht gegen YouTubes Richtlinien verstoßen. Das neue System will YouTube zuerst in den USA testen.
Becca Lewis glaubt nicht, dass diese Maßnahme ausreicht, um YouTuber daran zu hindern, zunehmend extreme Standpunkte zu vertreten. Dafür spiele das Feedback der Zuschauer eine viel zu zentrale Rolle auf der Plattform. “YouTube hat sich immer als als Alternative zu traditionellen Medien positioniert”, sagt Lewis. Deshalb ziehe YouTube viele Menschen an, die traditionellen Medien misstrauen, etwa weil sie extrem rechte Ansichten haben – und sich besonders für Verschwörungstheorien interessieren.
Mitarbeit: Johannes Drosdowski
Dieser Artikel ist zuerst auf der englischsprachigen Seite von Motherboard erschienen.
Folge VICE auf Facebook, Instagram und Snapchat.