Ihr Browser ist veraltet. Bitte aktualisieren Sie Ihren Browser auf die neueste Version, oder wechseln Sie auf einen anderen Browser wie ChromeSafariFirefox oder Edge um Sicherheitslücken zu vermeiden und eine bestmögliche Performance zu gewährleisten.

Zum Hauptinhalt springen

Wirkung von Social Media«Es gibt eine wirklich dunkle Seite von Tiktok, die Erwachsene nicht sehen»

Ein schmaler Grat zwischen Spass und Trauer: Der Algorithmus von Tiktok kann sowohl Freude als auch Depressionen hervorrufen oder verstärken. 

«Unsere Mission ist es, Kreativität zu inspirieren und Freude zu bereiten», heisst es im Selbstporträt von Tiktok. In letzter Zeit gibt die Plattform aber immer mehr Anlass zu ernsten Sorgen: Mitte Februar letzten Jahres stellte sich ein 16-jähriger amerikanischer Teenager im Städtchen Bayport südöstlich von New York auf die Schienen, die durch das Dörfchen hindurchführen. Zuvor war der Jugendliche mit rund eintausend Videos über Suizid, Hoffnungslosigkeit und Selbstverletzung bombardiert worden. Sein Fall war auch bei der Anhörung von Tiktok vor dem US-Kongress Ende März ein Thema.

Tiktok sieht sich in den USA einer Vielzahl von Zivilklagen gegenüber. So vertritt das sogenannte «Social Media Victims Law Center» sechzig Fälle, in denen soziale Medien Essstörungen, Drogenabhängigkeit, Depressionen oder Suizid verursacht haben. Laura Marquez-Garrett, eine der Anwältinnen des Zentrums, erklärte gegenüber Bloomberg, dass die Klagen Tiktok vorwerfen, dass sein Algorithmus darauf ausgelegt sei, die Schwachstellen seiner User zu finden und auszunutzen: «Es gibt eine wirklich dunkle Seite von Tiktok, die die meisten Erwachsenen nicht sehen. Sie können ein Kind und einen Elternteil im selben Raum haben, die zusammen Tiktok auf ihren Handys ansehen, und Sie würden ein völlig anderes Produkt sehen. Unsere Kinder sterben. Sie entwickeln schädliche Abhängigkeiten von diesen Produkten und erleben beispiellose Raten von Depressionen, Angstzuständen und Suizid. Wie viele 16-Jährige, die sich umbringen, braucht es noch, bis die Leute erkennen, dass das nicht in Ordnung ist?»

Tiktok unterscheidet sich von anderen Social-Media-Plattformen wie Youtube oder Instagram dadurch, dass es primär von seinem Empfehlungsalgorithmus betrieben wird. Dieser zeigt den Usern auf ihrem Kanal Videos an, von denen er glaubt, dass sie ihren aktuellen Vorlieben entsprechen. Plattformen wie Youtube oder Instagram zeigen hingegen hauptsächlich Beiträge von Konten an, denen ein User folgt.

Diese extreme Zuspitzung auf die aktuelle Interessen- und Gefühlslage kann Tiktok im Idealfall zu einer Bereicherung machen, im schlechtesten Fall hingegen zu einem Kaninchenloch mit negativen Inhalten, aus dem man nur schwer wieder herauskommt, wie Forscher der University of Minnesota anlässlich einer soeben erschienenen Studie herausfanden, wie das amerikanischen Wissenschaftsmagazin «SciTech» schreibt.

In der Echokammer: Die perfide Logik des Algorithmus

Der Tiktok-Algorithmus ist darauf ausgelegt, anhand einer detaillierten Analyse von jedem Wischen, Liken, Kommentieren, erneuten Ansehen und Folgen die Empfehlungen für neue Videos zu verfeinern, um die User möglichst lange in der App und am Schauen zu halten. Je länger die User die App pro Tag nutzen, desto grösser die Werbeeinnahmen. Wenn der Algorithmus merkt, dass Videos über Depression zu einem starken Social-Media-Engagement führen, dann wird er einem User immer mehr Inhalte zu diesem Thema empfehlen. Es entsteht eine Echokammer des eigenen Empfindens, das immer weiter verstärkt und überhöht wird.

Bedenken zur Programmierung der sogenannten «Recommendation Engine» von Tiktok werden seit mehreren Jahren geäussert. Charles Bahr, ein ehemaliger Anzeigenverkaufsleiter von Tiktok Deutschland, warnte seine Vorgesetzten bereits 2020 vor den psychischen Gefahren für Jugendliche, da der Algorithmus den Usern der Generation Z Ströme von Videos über Depression und Suizidverherrlichung zuschicke, wie Bloomberg berichtet.

Gefühlsmanipulation: Collage von Videos, mit denen der depressive Jugendliche aus Payport konfrontiert wurde. 

Nachdem Bahr sich in seinen Posts als Tiktok-Mitarbeiter zu erkennen gegeben hatte, erhielt er von seinen Followern immer mehr Videos weitergeleitet, die problematische Inhalte wie Selbsttötungen und Selbstverletzungen zeigen. Sein Account begann sich langsam, aber sicher in Richtung eines Profils zu entwickeln, dem immer mehr verstörende Videos empfohlen werden: «Immer mehr Inhalte zu Depressionen, Suizid und Selbstverletzung kamen auf.» An manchen Tagen sei er deshalb von seinen Emotionen übermannt worden und habe Weinkrämpfe gekriegt.

Bahr empfahl dann anlässlich eines Treffens mit der Kommunikationsabteilung von Tiktok Europa, dass das Unternehmen die Videoempfehlungen gerade bei Jugendlichen positiver gestalten sollte: «Obwohl wir junge Menschen dazu inspirieren, auf Tiktok ihr kreativstes Selbst zu sein, gibt es eine gewaltige Gemeinschaft junger Menschen, die verunsichert ist und nicht weiss, wie es weitergehen soll.» Diese psychisch labilen User gelte es durch einen angepassten Algorithmus zu schützen.

Tests zeigen Einseitigkeit der Programmierung auf

Das «Wall Street Journal» führte im Sommer 2021 eine eigene Untersuchung durch, um die Logik des Algorithmus hinter Tiktok besser zu verstehen. 100 automatisierte Userprofile wurden erstellt und mit unterschiedlichen Interessen ausgestattet. Ein Bot, der auf Traurigkeit und Depressionen programmiert war, kriegte nach nur 36 Minuten zu 93 Prozent Videos empfohlen, die sich mit Bedrücktheit beschäftigen. Anfänglich werden eine grosse Bandbreite an Themen und momentan virale Videoclips angezeigt. Der französische Datenwissenschaftler Guillaume Chaslot, der für das «Wall Street Journal» den Versuch begleitete, erklärte gegenüber der Zeitung, dass 90 bis 95 Prozent der Klicks auf Tiktok durch die hinter der Software stehende «Recommendation Engine» erzeugt worden seien. Bei Youtube seien es rund 70 Prozent.

«Was wir auf Tiktok sehen, ist sehr ähnlich wie das, was wir auf Youtube gesehen haben. Im Grunde erkennt der Algorithmus, dass der deprimierende Inhalt nützlich ist, um den User auf der Plattform zu halten, und empfiehlt darum immer mehr traurige Videos. Der Algorithmus drängt die Leute also zu immer extremeren Inhalten, damit er sie zu noch längeren Betrachtungszeiten bringen kann», wie Chaslot gegenüber dem «Wall Street Journal» ausführte.

Tiktok erklärte gegenüber Bloomberg, dass das Unternehmen Posts verbiete, die Themen wie Suizid und Selbstverletzung verherrlichen würden. 40’000 Moderatoren und speziell dafür programmierte firmeneigene KI seien dafür trainiert, Inhalte mit solchem Themenschwerpunkt zu entfernen. Im letzten Quartal von 2022 habe Tiktok 97 Prozent dieser Videos herausgefiltert, bevor andere User sie hätten sehen können.

Verschlimmerung durch die Pandemie

Die Corona-Pandemie hat die Debatte über die Wirkungsweise von manipulativen Algorithmen verschärft. Eltern begannen sich Sorgen über die Auswirkungen der Isolation auf ihre Kinder zu machen. Im Dezember 2021 veröffentlichte der Gesundheitsbeauftragte der US-Regierung, Vivek Murthy, ein Warnschreiben über eine drohende Krise der psychischen Gesundheit bei Jugendlichen. Er betonte, dass die zunehmenden Fälle von Hoffnungslosigkeit und Suizidgedanken bei Teenagern sowohl mit der Pandemie als auch mit sozialen Medien in Verbindung gebracht werden könnten. Zu vielen Jugendlichen würden auf den Plattformen suggeriert, dass sie «nicht gut genug aussehen, nicht beliebt genug, klug genug oder reich genug» seien, wie die «New York Times» berichtete. Er forderte Social-Media-Unternehmen auf, ihre Algorithmen so umzugestalten, dass die psychische Gesundheit von Jugendlichen gestärkt und nicht geschwächt wird.

Der Algorithmus will zu einer möglichst langen Nutzungsdauer verführen: Jugendliche sind für die manipulativen Eigenschaften von sozialen Medien besonders empfänglich. 

Psychologen weisen darauf hin, dass es für Teenager wegen ihrer sich noch in Entwicklung befindenden Hirnstrukturen schwieriger ist, dem manipulativen Drängen der Social-Media-Algorithmen, die auf möglichst lange Benutzungsdauern abzielen, zu widerstehen. Ihr präfrontaler Kortex, der für Entscheidungsfindung, Urteilsvermögen und Impulskontrolle verantwortlich ist, ist noch nicht vollständig ausgebildet.

Laut einer Umfrage des amerikanischen Meinungsforschungsinstituts Pew Research Center von 2022 gab eine überwiegende Mehrheit der Befragten an, dass sie Social Media insgesamt positiv erlebten. Aber fast die Hälfte sagte zudem, sie fühlten sich von den Dramen, die sie dort vorfänden, überwältigt, und mehr als ein Viertel der Studienteilnehmer sagte, dass sie sich durch die sozialen Medien in ihrem wirklichen Leben schlechter fühlten.

Tiktok als Dopaminmaschine

Die Forscher der University of Minnesota, die soeben ihre Studie über die psychischen Auswirkungen von Tiktok anlässlich einer aktuellen Konferenz in Hamburg veröffentlicht haben, betonen in ihrer Untersuchung die ambivalente Haltung, welche die Social-Media-Plattform bei vielen Usern hervorruft: «Tiktok ist eine riesige Plattform für Inhalte zur psychischen Gesundheit. Menschen neigen dazu, sich zu sozialen Medien hingezogen zu fühlen, um Informationen und andere Menschen zu finden, die ähnliche Situationen durchmachen. Viele unserer Teilnehmer sprachen darüber, wie hilfreich diese Informationen zur psychischen Gesundheit waren. Aber aufgrund der Art und Weise, wie der Feed funktioniert, wird er ihnen irgendwann immer mehr denselben Inhalt liefern. Und dann kann es von hilfreich zu beunruhigend und triggernd werden», wie Ashlee Milton, Erstautorin der Studie, gegenüber «SciTech» sagte.

Die Wissenschaftler fanden heraus, dass es für die User extrem schwierig wird, aus schädlichen Spiralen mit negativen Inhalten zu entkommen, wenn sie einmal in sie hineingeraten sind. Zwar enthält die Tiktok-Oberfläche eine Schaltfläche «Nicht interessiert», aber die Studienteilnehmer betonten, dass diese keinen wesentlichen Unterschied in den Inhalten machte, die in ihren Feeds angezeigt wurden.

«Einer unserer Teilnehmer bezeichnete die For-You-Seite scherzhaft als ‹Dopamin-Spielautomaten›», erklärte Milton gegenüber «SciTech». «Sie sprachen darüber, dass sie weiter scrollen würden, nur um zu einem guten Post zu gelangen, weil sie nicht mit einem schlechten Post enden wollten. Es ist wichtig, dass User erkennen können, was passiert, und sagen können: ‹Okay, jetzt reicht es, das brauch ich nicht.›»