Tiktok, einst nur als harmloses Tool fĂŒr Tanzvideos und Schminktutorials bekannt, hat sich mittlerweile zu einer zentralen Informationsquelle fĂŒr viele junge Menschen entwickelt â mit Risiken und Nebenwirkungen. Eine erschreckende Erkenntnis zeigt ein Selbstversuch zweier SRF-Journalist:innen, welche die Gefahr untersuchten, die von der Plattform ausgehen kann.
Im Selbstversuch der Journalist:innen wurde ein fiktives Tiktok-Profil eines 16-jĂ€hrigen Jugendlichen namens «Remo» erstellt. Zu Beginn war seine For-You-Page, der Hauptinhaltsstrom von Tiktok, gefĂŒllt mit verhĂ€ltnismĂ€ssig harmlosen Videos: BoxkĂ€mpfe, inspirierende Zitate â typische Inhalte, die viele Jugendliche ansprechen. Doch bereits nach wenigen Minuten und nur einem einzigen Like fĂŒr ein Boxkampfvideo verĂ€nderten sich die VorschlĂ€ge drastisch. Der Algorithmus, gesteuert von KĂŒnstlicher Intelligenz, begann gewalttĂ€tige Inhalte wie Verfolgungsjagden, PolizeieinsĂ€tze und UnfĂ€lle anzuzeigen. Was als vermeintlich unschuldige Interaktion begann, entwickelte sich rasant zu einer Flut von gewalttĂ€tigen und politischen Inhalten. Bereits nach einer Viertelstunde sah «Remo» Aufnahmen von BegrĂ€bnissen, trauernden Menschen und zunehmend religiösen, teils apokalyptisch wirkenden Szenen. Nach etwa einer halben Stunde tritt ein Mann in einem Video auf und erklĂ€rt, welche Verhaltensweisen einen «guten Muslim» ausmachen und welche nicht.
Der Versuch gipfelte nach etwa einer Stunde in Videos von Diktatoren wie Saddam Hussein und Muammar al-Gaddafi sowie verstörenden Kriegsbildern. Die Journalist:innen brachen den Versuch nach einer Stunde ab, schockiert ĂŒber das Tempo der Radikalisierung.
Dieser Selbstversuch illustriert, wie gefÀhrlich Tiktok sein kann. Jugendliche verbringen oft mehrere Stunden tÀglich auf solchen Plattformen und die Inhalte, die ihnen angezeigt werden, haben einen direkten Einfluss auf ihre Wahrnehmung der Welt.
Constantin Winkler vom Peace Research Institute Frankfurt bestĂ€tigt im SRF-Artikel, dass das Internet ein zentraler Ort fĂŒr die Radikalisierung von Menschen unter 30 Jahren ist, ganz besonders bei den unter 20-JĂ€hrigen. Die Kombination aus der hohen Nutzung sozialer Medien und den raffinierten Algorithmen, die auf maximale Interaktionen abzielen, schafft eine gefĂ€hrliche Dynamik, in der junge Menschen unbewusst in radikale Denkmuster gedrĂ€ngt werden. Im aktuellen Sicherheitsbericht des Nachrichtendienstes des Bundes wird dieses PhĂ€nomen ebenfalls explizit erwĂ€hnt. Insbesondere im Bereich Dschihadismus, aber auch im Bereich des gewalttĂ€tigen Rechtsextremismus sei in der Schweiz eine Zunahme der Radikalisierung MinderjĂ€hriger festzustellen. Diese erfolge online, in kurzer Zeit und könne bis zur VerĂŒbung eines Terroranschlags fĂŒhren, hĂ€lt der Nachrichtendienst fest.
Angesichts dieser Entwicklungen wird die Bedeutung von Medienkompetenz immer klarer. Jugendliche mĂŒssen lernen, die Inhalte, die ihnen online begegnen, kritisch zu hinterfragen. Doch das ist leichter gesagt als getan, da viele Jugendliche nicht oder nur oberflĂ€chlich verstehen, wie Algorithmen funktionieren und ihren Informationsfluss beeinflussen. Sie sind sich oft nicht bewusst, dass diese Systeme gezielt Inhalte ausspielen, um ihre Aufmerksamkeit zu fesseln und sie lĂ€nger auf der Plattform zu halten.
Hier setzt die Arbeit von YouMedia an: Mit Hosts, die auf Augenhöhe mit den Jugendlichen kommunizieren. Und es werden genau solche Themen in einem zugÀnglichen und verstÀndlichen Format diskutiert.
AufklÀrung ist dringend notwendig. Denn: Der Tiktok-Versuch von SRF zeigt, wie rasch und stark Jugendliche beeinflusst werden können. In diesem Video erklÀrt YouMedia-Host Jenny wie sie Newsquellen hinterfragt und zeigt, dass AufklÀrung durchaus auch mit anderen Inhalte wie beispielsweise Beauty-Content vermittelt werden kann.
Tiktok ist nicht die einzige Plattform, auf der Radikalisierung durch Algorithmen gefördert wird. Auch andere Social Media-Angebote funktionieren so. Youtube und Facebook etwa sind berĂŒchtigt fĂŒr ihre Filterblasen, in denen Nutzer immer extremere Inhalte angezeigt werden, je lĂ€nger sie sich auf der Plattform aufhalten. Diese Filterblasen sind gefĂ€hrlich, weil sie den Usern das GefĂŒhl geben, dass die von ihnen konsumierten Informationen die einzige Wahrheit darstellen. Und mit der steten Wiederholung wird Ausserordentliches und Extremes als normal wahrgenommen. In diesem Video erklĂ€rt YouMedia-Host Destan ausfĂŒhrlich wie Filterblasen funktionieren. Jugendliche sind besonders anfĂ€llig fĂŒr diese Mechanismen, da ihre Weltanschauung noch in der Entwicklung ist und sie nach Orientierung suchen.
Verantwortlich fĂŒr die Lösung dieses Problems sind nicht nur die Nutzerinnen und Nutzer selbst, sondern auch die Plattformen. Tiktok, Youtube und andere soziale Netzwerke mĂŒssten stĂ€rker in die Verantwortung genommen werden, was die Verbreitung von Desinformation und extremistischen Inhalten angeht. Algorithmen, die darauf ausgelegt sind, Interaktionen zu maximieren, sollten transparenter werden, und es mĂŒsste Mechanismen geben, die verhindern, dass Jugendliche in radikale Filterblasen geraten.
Doch bis solche Massnahmen ergriffen werden und wirken, ist es entscheidend, dass die AufklĂ€rung vorangetrieben wird. Sei es in Schulen, welche Medienkompetenz vermitteln oder Eltern, die den Medienkonsum ihrer Kinder aufmerksam begleiten. Und auch Jugendliche selbst mĂŒssen lernen, kritisch mit den Inhalten umzugehen, die sie online konsumieren.