Wer sich schlecht fühlt, sucht heute als Erstes im Internet Hilfe. Viele Jugendliche am liebsten auf Tiktok. Die App, die durch Tanzvideos bekannt wurde, hat sich längst zu einer Plattform entwickelt, auf der junge Menschen auch von ihren Depressionen, Angstzuständen oder Suizidgedanken erzählen. Sie finden dort Hilfe, Rat und vor allem Gemeinschaft mit Menschen, denen es ähnlich geht. Eigentlich gut.

Doch die Gefahr ist, davon erdrückt und vereinnahmt zu werden. Das haben Rechercheure des deutschen Magazins «Der Spiegel» herausgefunden. Die Journalistinnen und Journalisten scrollten einige Zeit durch traurige Videos und bereits nach einer halben Stunde spielte ihnen die App nur noch solche Inhalte zu. Eine Welt aus Liebeskummer, Einsamkeit, Verzweiflung, Tod. Drückt Tiktok hilfesuchende Jugendliche erst recht in eine Depression?

Tiktok wächst mit rasanter Geschwindigkeit. Zwei Drittel der Jungen und Mädchen zwischen 12 und 19 Jahren in der Schweiz nutzen Tiktok täglich oder mehrmals die Woche. 2020 waren es gut 50 Prozent, 2018 nur 5 Prozent. Nur noch Instagram ist beliebter.

Herzstück von Tiktok ist der Für-Dich-Feed. Dort werden Videos ausgespielt, die der Tiktok-Algorithmus empfiehlt. Basierend auf den jeweiligen Interessen der Nutzenden 
sind die Inhalte individuell auf jede Person zugeschnitten.

Wie genau der Algorithmus funktioniert, der dem Für-Dich-Feed zugrunde liegt, weiss aber niemand ganz genau. Nicht einmal Tiktok selbst. Auch wenn man den dahinterliegenden Code offenlegen würde, wäre er schwer nachvollziehbar. «Auch die meisten Menschen mit dem technischen Verständnis dafür würden ihn nicht verstehen», sagt Angela Müller, Leiterin von Algorithmwatch Schweiz. Es gebe nicht nur einen Algorithmus, sondern es seien immer Dutzende von Algorithmen, die mit einer Unmenge von Daten zusammenspielen.

Entscheidend ist die Sehdauer von Videos

Trotzdem lassen sich einige Aussagen treffen. Entscheidend für den Algorithmus sind vor allem Signale wie die Dauer, wie lange Nutzende ein Video schauen, und wie sie damit interagieren. Das zeigen interne Dokumente von Tiktok.

Die Recherche des «Spiegels» bestätigte dies. Die Journalistinnen und Journalisten sahen sich Videos mit traurigen oder erschreckenden Inhalten wiederholt an, thematisch andere Videos scrollten sie weiter. Der Algorithmus von Tiktok spielte nur anhand der Sehdauer der Videos schon nach kurzer Zeit sehr ähnliche Inhalte aus.

«Trifft man etwas immer wieder an, erscheint es einem immer glaubwürdiger und wichtiger und man wird ihm gegenüber unkritischer.»

Daniel Süss, Medienpsychologe

Bereits nach zehn Minuten drehten sich mehr als 80 Prozent der Videos um Einsamkeit, Depressionen, Liebeskummer und Suizidgedanken. Nach einer halben Stunde lag der Anteil bei mehr als 90 Prozent. Die Journalisten befanden sich in einem sogenannten «Rabbit Hole». Der Begriff steht metaphorisch dafür, dass man sich so tief in einem Thema verliert, dass man nicht mehr herausfindet – wie in einem Kaninchenbau.

Wenn Nutzende in Rabbit Holes abrutschen, können zu viele ähnliche Inhalte in der Menge problematisch werden. «Trifft man etwas immer wieder an, erscheint es einem immer glaubwürdiger und wichtiger, und man wird ihm gegenüber unkritischer», sagt der Medienpsychologe Daniel Süss. Bei belastenden Themen könne es das Weltbild negativ beeinflussen und Probleme verstärken.

Süss relativiert aber auch ein Stück weit. Normalerweise hätten Menschen mehrere und verschiedene Interessen. «Ein Experiment, bei dem man nur zu einem Thema auf einer bestimmten Plattform sucht, erfasst eigentlich nicht das übliche Verhalten eines durchschnittlichen Nutzenden.»

Es sei auch immer davon abhängig, wie die Nutzenden mit den Inhalten umgehen. Jugendliche seien häufig auf verschiedenen Plattformen unterwegs, suchten aktiv nach neuen Inhalten und beachteten nicht nur, was ihnen empfohlen werde. Es gebe in den sozialen Medien auch Inhalte, die helfen, aus einer negativen Dynamik herauszukommen. «Beispielsweise können Botschaften von jemandem, der eine Essstörung überwunden hat, anderen auch helfen», sagt Süss.

Das Umfeld ist besonders wichtig

Besonders wichtig ist dabei das Umfeld der Nutzenden. «Wenn Familie und Freunde andere Haltungen vertreten, dann ist man den Botschaften aus den sozialen Medien nicht einfach ausgeliefert», so Süss. Gefährlich sei es, wenn man sonst keine soziale Unterstützung hat oder im Umfeld eine problemverschärfende Haltung da ist.

Verantwortung tragen die Plattformen aber trotzdem. «Es zeigt sich regelmässig, dass Plattformen wissen, welche Auswirkungen ihre algorithmischen Empfehlungssysteme haben. Oft betreiben sie auch aussagekräftige interne Forschung dazu, veröffentlichen sie aber nicht», sagt Angela Müller von Algorithmwatch.

«TikTok kann nicht einfach einen Hebel umlegen und dann zielgenau steuern, was sich ändert»

Angela Müller, Leiterin AlgorithmWatch Schweiz

Tiktok kennt die Kritik – und hat Besserung versprochen. Sie wollen die Inhaltsempfehlungen auf dem Für-Dich-Feed diversifizieren. Also vermehrt auch andere Inhalte ausspielen und Neues vorschlagen. Doch ist das glaubwürdig?

Tiktok agiert in erster Linie im Interesse des Unternehmens. Wenn Anpassungen des Algorithmus dazu führen, dass Nutzende weniger Zeit auf der Plattform verbringen, könne ihnen dadurch weniger Werbung ausgespielt werden, sagt Müller. Das helfe dem Geschäftsmodell nicht.

Andererseits ist es aber auch kein attraktives Angebot, «wenn etwas zu eng wird und keine Überraschungen oder neue Perspektiven bietet», sagt Medienpsychologe Daniel Süss. Die Nutzenden können das langweilig finden. 

Anpassungen am Algorithmus sind aber auch für das Unternehmen selbst komplex. «Tiktok kann nicht einfach einen Hebel umlegen und dann zielgenau steuern, was sich ändert», sagt Angela Müller.

Der Beobachter-Newsletter – wissen, was wichtig ist.

Das Neuste aus unserem Heft und hilfreiche Ratgeber-Artikel für den Alltag – die wichtigsten Beobachter-Inhalte aus Print und Digital.

Jeden Mittwoch und Sonntag in Ihrer Mailbox.

Jetzt gratis abonnieren