Breaking News

Selbstversuch: Wie Tiktok uns radikalisiert.


Tiktok hat die Macht, unsere politischen Meinungen zu prägen — doch was passiert eigentlich, wenn der Algorithmus uns in eine Bubble drängt? Genau das haben zwei RG-Schülerinnen getestet.

von Aline Hedinger und Lynn Kretz

Schon länger ist Tiktok mehr als nur eine Plattform für Tanzvideos und Trends. Mittlerweile hat es sich auch zu einem Ort für politische Diskussionen und Gespräche entwickelt. Durch den Einfluss der angeschauten Videos geraten Nutzer:innen oft in „Filterblasen“ , „Echokammern“ oder „Bubbles“; weil sie sich spezifische Videos länger angeschaut oder einzelne sogar geliked haben. In den Echokammern werden ihnen anschliessend nur noch Inhalte gezeigt, die im Algorithmus gespeichert sind. Dies sind Videos mit ähnlichem Inhalt, wie die zuvor angeschauten oder geliketen. Somit werden irgendwann nur noch einseitige Informationen wiedergegeben und es werden entgegengesetzte Ansichten ausgeblendet. Dies führt zu verstärkten und radikaleren Meinungsbildungen, vor allem unter den jüngeren Nutzer:innen, da diese oft über weniger Informationen und Wissen verfügen. Jedoch betrifft dieser beschränkte Horizont nicht nur jüngere, sondern Menschen jeder Alterstufe. Doch wie gefährlich ist dieser Prozess eigentlich wirklich? Wird durch diese „Bubbles“ die Radikalisierung schlimmer, oder können die auch als Chance für politische Bildung und Austausch genutzt werden?

Mit dem Tiktok-Algorithmus haben zwei RG Schülerinnen experimentiert. Zuerst haben sie sich je einen neuen fake Account, mit ähnlichem Namen und Alter, erstellt. Danach haben sie beide entgegengesetzte politische Ansichten ausgewählt und anschliessend nur die Videos mit dem Inhalt angeschaut und gepusht. Ein Video wird nicht nur durch Liken und Kommentieren gepusht, sondern auch schon durch das simple Anschauen eines Videos. Tiktok analysiert den Inhalt der gepushten Videos und prägt den Algorithmus mit den Informationen, was dazu führt, dass viele ähnliche Videos später vorgeschlagen und angezeigt werden. Den Schülerinnen wurde nach kurzer Zeit klar, dass die ForYou-Seite nur noch Videos aus der gewünschten politischen Bubble anzeigt und dazu auch noch die entgegengesetzten Meinungen ausgeblendet hat. Dies widerspiegelt genau die Folge der Echokammern, die auf Tiktok speziell verwendet werden.

Darstellung von zwei virtuellen Echokammern

Die oben stehende Darstellung widerspiegelt, wie sich diese „Bubbles“ oder „Echokammern“ in der virtuellen Welt präsentieren. Auch wenn der Pool der Informationen enorm ist, wird nur eine spezifische Ansicht gezeigt. Die beschränkten Informationen führen nicht nur zur Radikalisierung, sondern auch zu ganz vielen Fake News und Gerüchten, da es irgendwann schwer wird, die Informationen in Echte oder Erfundene einzuordnen, wenn man nur einseitige Informationen und beschränktes Wissen besitzt.

Zusammensetzung der vorgeschlagenen Videos im politisch rechten Spektrum.
Zusammensetzung der vorgeschlagenen Videos im politisch linken Spektrum.

Das obere Bild zeigt eine Collage aus einem Abschnitt der empfohlenen Videos auf der ForYou page. Es wird sichtbar, dass nur rechte Politik vorgeschlagen und dem Viewer angezeigt wird. Auf der unteren Collage hingegen werden nur politisch linke Videos dem Viewer. .

Dieses Experiment zeigt, wie schnell TikToks Algorithmus politische Inhalte filtert und Nutzer:innen in bestimmte Bubbles lenkt. Dadurch kann der Eindruck entstehen, dass es nur eine Wahrheit gibt, während andere Meinungen fast nicht mehr sichtbar sind. Ist das eine Gefahr oder einfach eine neue Art des Informationsaustausches ist? Klar ist jedoch, dass soziale Medien unsere politischen Ansichten beeinflussen können. Wie stark dieser Einfluss wirklich ist und welche Folgen er langfristig hat, bleibt eine interessante Frage.

About Aline Hedinger

Check Also

Ein Streifzug durch den Second Hand-Dschungel

Beim Wort Second-Hand, denken viele an schmutzige und stinkende Socken. Doch das sagen nur diejenigen, …