Systemisches Risiko für Wahlen?
Eine erste Analyse von TikTok-Empfehlungssystem im Kontext der Landtagswahl Brandenburg
Eine erste Analyse von TikTok-Empfehlungssystem im Kontext der Landtagswahl Brandenburg
Anna Katzy-Reinshagen & Solveig Barth
19.11.2024
Im Fokus dieser Kurzanalyse stehen die Risiken der asymmetrischen Amplifizierung politischer Inhalte im Zusammenhang mit der Landtagswahl Brandenburg am 22. September 2024. Die Analyse ist Teil des von der Stiftung Mercator geförderten ISD-Projektes AHEAD.tech, in dem eine verfeinerte Methode zur Erforschung systemischer Risiken für Wahlen im Kontext des Digital Services Act (DSA) entwickelt und, darauf basierend, zielgerichtete Minderungsmaßnahmen erarbeitet werden.
Laut Reuters Institute Digital News Report 2024 gewinnt TikTok zunehmend an Bedeutung in Deutschland. Dabei wird die Online-Plattform insbesondere auch zum Teilen wahlkampfbezogener Inhalte genutzt. Eine Studie der Universität Potsdam zeigte kürzlich erst auf, dass die Inhalte der verschiedenen Parteien auf TikTok unterschiedlich sichtbar und Inhalte der AfD bei Erstwähler*innen besonders erfolgreich sind. Welche Rolle die Empfehlungssysteme von TikTok spielen, konnten die Wissenschaftler*innen nicht abschließend feststellen. Gleichzeitig muss aber festgehalten werden, dass – sollten die TikTok-Empfehlungssysteme politische Inhalte asymmetrisch amplifizieren – der politische Meinungsbildungsprozess beeinflusst werden könnte.
Der DSA schreibt den Anbieter*innen sehr großer Online-Plattformen (wie TikTok) oder Online-Suchmaschinen eine Bewertung systemischer Risiken vor, welche unter anderem „alle tatsächlichen oder absehbaren nachteiligen Auswirkungen auf die gesellschaftliche Debatte und auf Wahlprozesse und die öffentliche Sicherheit“ (Art. 34 (1c) DSA) umfasst. Dabei muss berücksichtigt werden, ob und wie die Gestaltung ihrer Empfehlungssysteme und anderer relevanter algorithmischer Systeme die Risiken beeinflusst.
Jedoch spezifiziert das Gesetz die systemischen Risiken selbst kaum. Daher existiert ein großer Bedarf an der Entwicklung von Messmethoden und Metriken zur Risikobewertung, insbesondere im Bereich der systemischen Risiken für Wahlprozesse. Basierend auf einer umfassenden Literaturrecherche identifizierte ein Bericht der Civil Liberties Union for Europe und der European Partnership for Democracy bereits einige spezifische Risiken dieser Kategorie. Dazu zählt unter anderem die asymmetrische Amplifizierung politischer Inhalte unterschiedlicher Wahlkandidat*innen durch Empfehlungssysteme. Gemeint ist eine ungleiche Berichterstattung oder Förderung politischer Inhalte unterschiedlicher Wahlkandidat*innen. Trotz dieser hilfreichen konzeptuellen Vorarbeit bleiben Fragen der Messung jedoch nach wie vor weitgehend offen.
Als Grundlage für eine verfeinerte Methode zur Erforschung der systemischen Risiken für Wahlen untersucht diese Analyse, inwiefern politische Inhalte auf TikTok in der Woche vor und der Woche nach der Landtagswahl in Brandenburg am 22. September 2024 asymmetrisch amplifiziert wurden. Dafür wurden zehn Konten mit Personas unterschiedlicher politischer Ausrichtung trainiert und die Daten mit Angaben zum Beschreibungstext und Kontonamen anschließend exportiert. Grundlage der Datenanalyse ist damit ein Datensatz mit 2759 TikTok-Videos. Als politische Inhalte verstehen wir dabei Inhalte, die von politischen Wettbewerber*innen im Kontext der Landtagswahl in Brandenburg ausgehen oder als im Interesse bestimmter politischer Wettbewerber*innen stehend ausgelegt werden können. Entsprechend wurden in unserer Analyse Videos ausgeschlossen, die indirekt politische Inhalte beinhalten, wie beispielsweise Aufrufe zur Teilnahme am Christopher Street Day in Brandenburg. Politische Inhalte, die sich auf Kontexte außerhalb der deutschen Bundes- und Landespolitik beziehen, wie zum Beispiel Wahlkampfvideos aus den Vereinigten Staaten, wurden ebenfalls nicht berücksichtigt.
Um die TikTok-Empfehlungssysteme zu verstehen und einen Einblick zu bekommen, nach welchen Kriterien TikTok bestimmte Inhalte an Nutzer*innen ausspielt, wurde ein Persona-basierter-Ansatz mit anschließendem Scraping der Daten genutzt. Die dafür entwickelten zehn Personas wurden in Brandenburg verortet und mit Alter, Geschlecht sowie Interessen definiert. Der Fokus der Personas lag auf der Beschreibung von Interessen wie „interessiert sich für Technik, Fußball (lokales Team MSV 1919 Neuruppin) und Musik (geht zu Konzerten und Festivals in Brandenburg)”. Zusätzlich wurde für die Personas festgelegt, ob sie sich politisch links, rechts, mittig oder unpolitisch einordnen. Diese einfachen Personas sollten den Forscher*innen Anhaltspunkte geben, um während des Trainings zu entscheiden, ob ein Video angeschaut oder übersprungen wird.
Zwei der Personas wurden jeweils zweimal genutzt, das heißt, Persona Nummer 2 und 7 bzw. 5 und 6 sind identisch, um auf diese Weise etwaige Abweichungen im Für-dich-Feed bei ähnlichen bis gleichen Interessen zu erkennen. Persona Nummer 1 diente als neutraler Account, bei dem automatisch und ohne vorgegebene Interessen durchgescrollt wurde.
Die für jede Persona angelegten Accounts wurden von einer von drei Forscher*innen manuell im Zeitraum 17.09.2024 bis 19.09.2024 trainiert. Die durchschnittliche Trainingsdauer betrug 92 Minuten mit einem Durchschnitt von 297 angeschauten Videos. Die Forscher*innen orientierten sich beim Training an einem vorher erstellten Leitfaden mit Angaben zum Aufsetzen der Konten (Geburtsdatum, Wohnort, Geschlecht), sowie der Nutzung des Für-dich-Feeds (Interessen). Dabei versuchten sie, gezielt Videos anzuschauen, die den Interessen und der politischen Ausrichtung der Persona entsprechen und TikToks Empfehlungssystem so zu „trainieren“, dass es Videos zeigt, die für die jeweilige Persona interessant sind. Während sich auf den Für-Dich-Feed konzentriert wurde, nutzten die Forscher*innen außerdem die Suchfunktion, um nach bestimmten Themen wie „Brandenburg” zu suchen und so die Inhalte der Feed-Seite gezielter zu trainieren. Um das Empfehlungssystem nicht durch die Methodik – Forschungstagebuch schreiben, Screenshots machen – zu beeinflussen, wurde das Training in Sektionen durchgeführt und dazwischen Auffälligkeiten dokumentiert. Die Daten aus den verschiedenen Konten wurden anschließend über eigene Tools aus TikTok exportiert. Zusätzlich wurden mittels Scraping die Meta-Daten der einzelnen Videos erhoben, darunter Videobeschreibung und Hashtags sowie inhaltliche Klassifizierungsmerkmale, die für die Nutzer*innen nicht einsehbar sind. Diese internen Klassifizierungsmerkmale, die unter anderem auch politische Inhalte als solche kennzeichnen, könnten eine Rolle dabei spielen, welche Inhalte den Nutzer*innen vorgeschlagen werden.
Um den Datensatz auf politische Inhalte zu reduzieren, wurde in einem ersten Schritt ein Wörterbuch basierend auf politischen Schlagworten erstellt, die sich innerhalb der Beschreibungstexte der mit den internen Klassifizierungsmerkmalen als „politisch” gekennzeichneten Videos befanden. Da nur 44 Videos mit relevanten politischen Labels vom gesamten Datensatz durch das Scraping extrahiert werden konnten, wurde die Liste mit Schlüsselwörtern zur Identifizierung politischer Inhalte induktiv auf Grundlage der Beschreibungstexte dieser 44 Videos erweitert. Das Wörterbuch wurde anschließend auf den gesamten Datensatz angewendet. Mithilfe dieser Methode konnte der gesamte Datensatz von 2759 Videos auf 449 reduziert werden. Der reduzierte Datensatz wurde anschließend von zwei Personen manuell kodiert.
Die Kategorien des Kodiersystems wurden induktiv auf Grundlage der Videos erstellt und in drei übergeordnete Kategorien unterteilt:
In der manuellen Kodierung sind zudem falsche Treffer („false positives”) aus dem Datensatz entfernt worden. Diese umfassten insbesondere Inhalte, die sich ironisch mit Wahlen befassen. Der finale Datensatz enthält 308 Videos, die in eine der zuvor genannten Kategorien fallen.
Inhalte mit Parteinennung am häufigsten vertreten
Die Analyseergebnisse verdeutlichen, dass die meisten Videos im finalen Datensatz eindeutig einer jeweiligen Partei zugeordnet werden können (siehe Abbildung 1). 95 der identifizierten Videos können nicht eindeutig einer Partei zugeordnet werden, thematisieren jedoch politische Inhalte. Knapp 25 Videos berichten lediglich über die Wahlen.
Die politische Positionierung der Personas beeinflusst, von welchen parteibezogenen Konten Inhalte ausgespielt werden
In der weiteren Analyse des Datensatzes wird deutlich, dass nur ein kleiner Anteil aller gescrapten Videos tatsächlich einer politischen Partei zugeordnet werden kann (siehe Abbildung 2). Das deutet darauf hin, dass TikTok noch immer hauptsächlich für Unterhaltungszwecke genutzt wird. Gleichzeitig verdeutlichen die Ergebnisse, dass den verschiedenen Konten je nach Ausrichtung unterschiedlich häufig parteipolitische Inhalte ausgespielt werden. So bekommen das neutrale Konto 1 und die unpolitischen Konten 2 und 3 kaum parteipolitische Inhalte ausgespielt. Das mittig positionierte Konto 7, das auch als Vergleichskonto zu Konto 2 dient, und das rechts positionierte Konto 10 bekommen hingegen besonders viele parteipolitische Inhalte ausgespielt. Dabei wird in den Videos in Konto 10 besonders häufig die AfD genannt, während die Inhalte in Konto 7 politisch diverser sind und neben der meistpräsentierten SPD auch Inhalte mit Nennung der AfD, des BSW, der CDU/CSU und von Bündnis 90/DIE GRÜNEN ausgespielt bekommen.
Der Blick auf den normierten Anteil der Videos zu politischen Parteien (siehe Abbildung 3) unterstützt diese Beobachtungen. Von allen Konten mit eindeutig politischer Ausrichtung bekommen insbesondere Konto 7 (mittig positioniert) mit 10,5% der Inhalte und Konto 10 (rechts positioniert) mit 11,2% der Inhalte besonders viele parteipolitischen Inhalte ausgespielt. Die Ergebnisse verdeutlichen außerdem, dass die beiden rechts positionierten Konten (9, 10) hauptsächlich Inhalte ausgespielt bekommen, in denen die AfD oder AfD-Politiker*innen genannt werden. Konten von politisch mittig oder links positionierten Personas haben einen diverseren Feed. Ihnen werden Videos mit Nennung aller untersuchten politischen Partien angezeigt.
Dem Vergleichskonto 1, den unpolitischen Konten 2 und 3, sowie Konto 6 (links positioniert) werden am wenigsten parteipolitische Inhalte ausgespielt. Von den Inhalten, die sie ausgespielt bekommen, werden im Fall von Konto 2 in der Hälfte der Videos die AfD genannt und in der anderen Hälfte das BSW. Konto 3 werden insgesamt etwas mehr parteipolitische Videos ausgespielt, dabei aber sowohl Videos mit AfD-Nennung als auch Videos mit SPD- bzw. CDU/CSU-Nennung.
Insgesamt fällt auf, dass Inhalte mit AfD-Nennung in neun von zehn Konten ausgespielt werden, mit Ausnahme des neutralen Kontos 1. Auch Inhalte mit SPD-Nennung werden, wenngleich in geringerem Maße, in acht von zehn Konten ausgespielt, während Videos mit der Nennung anderer Parteien weniger breit verteilt sind.
Wie eingangs beschrieben, sind in den Daten nicht nur Videos enthalten, in denen Parteien explizit genannt werden, sondern auch Videos, die politische Inhalte thematisieren. Um zu untersuchen, welche politischen Inhalte den verschiedenen Konten ausgespielt wurden, wurden diese separat kodiert und im Folgenden ausgewertet.
Zunächst verdeutlichen die Ergebnisse (siehe Abbildung 4), dass der Anteil von Videos mit politischen Themen relativ zu der Gesamtzahl der ausgespielten Videos gering ist. Eine Ausnahme ist das links positionierte Konto 4.
Der normierte Anteil der Videos zu politischen Inhalten (siehe Abbildung 4) verdeutlicht weiter, dass den verschiedenen Konten unterschiedliche politische Inhalte ausgespielt werden. Dabei gibt es Indizien für den Einflussgrad der Positionierung der Personas auf die ausgespielten Inhalte. So sind beispielsweise Inhalte, die die AfD kritisieren, in sechs der zehn Konten zu finden, besonders häufig aber in Konto 4, einer links positionierten Persona. Auch in den Daten des links positionierten Kontos 5 sind mehr als die Hälfte der politischen Videos gegen die AfD gerichtet. Häufig reproduzieren diese Videos Inhalte der AfD, um an ihnen, oft auch satirisch, Kritik zu üben. Beispielsweise wird mit sogenannten „Stitches” auf Reden auf AfD-Wahlveranstaltungen reagiert. Auch an den Regierungsparteien wird vor allem bei dem Thema „Migration” Kritik geübt.
Im rechts positionierten Konto 9 wiederum sind besonders viele Videos enthalten, die sich gegen die Regierung richten oder die wahrgenommenen Folgen von Migration thematisieren. In den meisten Videos wird der Regierungskoalition auf Bundesebene sowie explizit den Politiker*innen der Partei Bündnis 90/DIE GRÜNEN Inkompetenz vorgeworfen. In wenigen Videos wird eine angebliche Befangenheit des öffentlichen Rundfunks gegenüber der AfD kritisiert.
Einige Inhalte werden fast allen Konten ausgespielt. Videos, die sich gegen die Regierung richten, sind zum Beispiel in allen Feeds vertreten, unabhängig von der politischen Ausrichtung. Dies könnte einerseits daran liegen, dass einige Inhalte Konten unabhängig von der politischen Positionierung ausgespielt werden. Andererseits ist in der Kodierung nicht erfasst, aus welcher politischen Position heraus die Regierung kritisiert wird. Um Rückschlüsse darauf ziehen zu können, inwiefern regierungskritische Inhalte asymmetrisch ausgespielt werden, bedarf es daher einer weiterführenden Analyse mit einem noch detaillierteren Kategoriensystem.
Bei der Analyse der Inhalte fällt auf, dass keine Partei so vielfältige Themenfelder und Videoformate bedient wie die AfD und affiliierte Konten. Im Kontext der Landtagswahlen thematisieren Videos mit Nennung der AfD vor allem die ursprünglichen Prognosen, Aufnahmen von Wahlveranstaltungen sowie das Feiern der Wahlerfolge. Vereinzelt thematisierten sie auch das Wahlprogramm für Brandenburg, wobei insbesondere migrations- und sozialpolitische Debatten aufgegriffen wurden. Außerdem wurden unter Nennung der AfD Inhalte ausgespielt, in denen Wahlbetrug durch Suggestivfragen vermutet und anderen Parteien die Diffamierung der AfD vorgeworfen wird.
Auch sind in den Daten Videos enthalten, die demokratischen Einrichtungen undemokratisches Verhalten vorwerfen. Hierzu gehört beispielsweise das Unterstellen einer Missachtung des „Wählerwillens“ oder parteiischer Entscheidungen und Voreingenommenheit (siehe Abbildung 5). Damit zusammenhängend kritisieren Videos mit AfD-Nennung oft „Altparteien“, den öffentlichen Rundfunk oder die derzeitige Entwicklungspolitik und greifen so die im Vorfeld der Landtagswahlen in Sachsen und Thüringen verbreiteten Narrative erneut auf. Auffällig ist, dass Konten von AfD-Politiker*innen, sowie AfD-affiliierte Konten vorwiegend politisch aufgeladene oder emotional saliente Themen wie Migration oder den Einsturz der Carolabrücke in Dresden (65%; 49 von 75 Videos) bespielen.
Die Analyse der Videos mit der Nennung anderer Parteien zeigt auf, dass diese Videos sich ebenfalls politisch aufgeladenen Themen (52%; 40 von 77 Videos) widmen und teilweise auch einige der von der AfD thematisierten Inhalte aufgreifen. So widmen sich auch Videos mit der Nennung von BÜNDNIS 90/DIE GRÜNEN und SPD dem Thema Migration, jedoch weniger häufig, stärker faktenbasiert und oft im Widerspruch zu den Inhalten von AfD- und CDU/CSU-Videos. Ähnlich thematisiert DIE LINKE Armut und Bürgergeld.
Ähnlich wie die Videos mit AfD-Nennung thematisieren Videos mit BSW-Nennung die Kritik an „Systemparteien”, schließen dort jedoch die AfD mit ein. Im Datensatz aufgenommene Videos kommen einzig vom Konto der Parteivorsitzenden, Sahra Wagenknecht. Thematisiert werden der Ukrainekrieg, Armut und Migration, immer verbunden mit einer Kritik der derzeitig politischen Lösungen.
Zudem ist die Kritik oder Reaktion auf Inhalte anderer politischer Parteien ein weit verbreitetes Videoformat auf TikTok. Videos des Bündnis 90/DIE GRÜNEN drehen sich inhaltlich um Klimawandel, LGBTQ+, Toleranz, Migration und Religionsfreiheit. Häufig werden diese Themen jedoch in Reaktionen auf Vorschläge oder Inhalte von AfD oder CDU/CSU platziert.
Schließlich fällt auf, dass die am häufigsten ausgespielten Videos der SPD vom Account des Bundeskanzlers, Olaf Scholz, stammen (@teambundeskanzler). Sie nutzen im großen Stil Inhalte im Format der „Shortclips”, um Einblicke in Arbeitsalltag und Wahlkampf sowie demokratische Prozesse zu geben, beispielsweise in Form eines Videos aus der Perspektive der Aktentasche des Bundeskanzlers. Inhaltlich gehen diese Videos häufig auf keine weiteren Themen ein, werden jedoch öfter ausgespielt als informationsgeladene Videos. Auch die CDU/CSU greift dieses Videoformat auf. Videos mit einer höheren Informationsdichte wie Klimawandel und Handel (Bündnis 90/DIE GRÜNEN), Bildung, Gesundheit und die Schuldenbremse (DIE LINKE.) und die Haushaltsdebatte (SPD) finden sich nur vereinzelt im Für-Dich-Feed wieder. Grund dafür könnten zum einen die Länge informativer Videos und deren Unattraktivität für den Algorithmus sowie die höhere emotionale Salienz von politischen Debatten und Auseinandersetzungen sein.
Die vorliegende Studie ist von einer Reihe von Aspekten limitiert. Zunächst wurden insgesamt zehn Accounts in einem Zeitraum von nur einer Woche vor der Wahl trainiert. Dies ist eine verhältnismäßig kleine Stichprobe, was beispielsweise die Aussagekraft von Vergleichen zwischen Konten verschiedener politischer Ausrichtung einschränkt.
Die Nutzung von Personas und einer stark vereinfachten politischen Skala von links, mittig und rechts ist nicht unproblematisch. Die Forschenden sind sich bewusst, dass Personas stereotype Beschreibungen von Persönlichkeiten sind, während politische Positionierungen in der Realität komplex sind und sich nicht auf einer Links-Rechts-Skala abbilden lassen. Allerdings hat sich dieser Ansatz für das Training von Accounts als hilfreich herausgestellt, da die Entscheidung darüber, ob ein Video angeschaut wird oder nicht, schnell erfolgen muss. Gleichzeitig ist insbesondere die interessensbasierte Personabeschreibung im Bereich der sozialen Netzwerke weit verbreitet, sodass davon ausgegangen werden kann, dass auch die Plattformen auf solche zurückgreifen, um Nutzende zu kategorisieren. In der politischen Debatte, insbesondere auf TikTok, zeigt sich zudem, dass die einfache politische Positionierung auch in der Praxis weit verbreitet ist. Wir haben, wo möglich, in der späteren Analyse versucht, die eingeflossenen Stereotypen zu reflektieren und die Komplexität von politischen Prozessen und Positionierungen zu berücksichtigen.
Eine weitere Limitation liegt darin, dass der Datensatz auf Grundlage der Beschreibungstexte reduziert wurde, obgleich viele TikTok-Videos nur kurze oder keine Beschreibungstexte enthalten oder politische Inhalte mit Bildmaterial thematisieren. Diese Videos sind nicht im Datensatz enthalten. Es könnte für zukünftige Forschungsvorhaben interessant sein, Transkripte von TikTok-Videos zu erstellen und zu untersuchen.
Darüber hinaus ist in den Abbildungen nur erfasst, ob ein Video in dem Für-Dich-Feed ausgespielt wurde. Nicht berücksichtigt wurde, wie lange die Videos geschaut wurden. So können keine Rückschlüsse auf die tatsächlich mit politischen Inhalten verbrachte Nutzungszeit gemacht werden, was gegebenenfalls in einer zukünftigen Analyse weiter berücksichtigt werden könnte.
Zudem konnte im Rahmen der Analyse beobachtet werden, dass einige Videos eine hohe Anzahl von teilweise eindeutig rechts positionierten Kommentaren aufweisen. Die Kommentare wurden im Forschungsdesign unserer Studie nicht berücksichtigt, könnten jedoch auch beeinflussen, wie Inhalte auf TikTok amplifiziert werden. Schließlich hatten wir nur begrenzt Zugang zu den inhaltlichen Klassifizierungsmerkmalen, was substanzielle Rückschlüsse darauf erschwert, ob TikTok intern politische Inhalte amplifiziert oder einschränkt.
Die Analyse hat gezeigt, dass die politische Ausrichtung der Konten beeinflusst, wie divers die parteipolitischen Inhalte sind, die den Personas angezeigt werden. Während Konten von rechts positionierten Personas hauptsächlich Inhalte mit AfD-Bezug ausgespielt werden, werden den Konten der Personas, die der politischen Mitte, sowie der politischen Linken zugeordnet wurden, diversere parteipolitische Inhalte ausgespielt. Zudem werden Videos mit eindeutiger AfD-Affiliation am häufigsten und mit neun von zehn Konten auch am breitesten ausgespielt, gefolgt von Videos der SPD. Auch konnten wir zeigen, dass keine Partei so häufig in Inhalten der Stichprobe Erwähnung findet wie die AfD. Diese Videos schließen sowohl befürwortende als auch kritisierende Inhalte sowie Berichterstattungen ein. Schließlich konnten wir zeigen, dass alle Parteien TikTok mit Inhalten bespielen, die ihre Kernagenda thematisieren, wie beispielsweise Klimaschutz oder die Schuldenbremse. Die Inhalte mit AfD-Nennung sind dabei im Vergleich zu den Inhalten anderer Parteien besonders vielfältig und häufig politisch aufgeladen.
Die Ergebnisse bestätigen somit die Ergebnisse aus vorherigen Studien, die nachweisen konnten, dass Inhalte der AfD auf der Plattform TikTok besonders sichtbar sind. Inwiefern dies ein Hinweis darauf ist, dass politische Inhalte von rechts positionierten Accounts durch die Empfehlungsalgorithmen asymmetrisch amplifiziert werden, können wir jedoch im Rahmen dieser Studie und mit dem uns vorliegenden Datensatz nicht abschließend feststellen. So könnten beispielsweise die vielfältigen Videoformate und Themen sowie die hohe Anzahl an Videos, die auf die AfD reagieren und Narrative aufgreifen, dazu führen, dass Inhalte der AfD häufiger als andere Inhalte auf TikTok ausgespielt werden. Auf diese Effekte hatte bereits eine andere Studie verwiesen, die in diesem Zusammenhang auf die systematische Verbreitung durch Re-Posting von AfD-Inhalten verweist.
Es wird daher deutlich, dass für eine umfassende Analyse der Amplifizierung von Inhalten der Zugang zu Forschungsdaten gewährleistet werden muss. So ist aufgrund des limitierten Zugangs zu den internen Klassifizierungskennzeichen nicht klar, inwiefern TikTok intern gezielt politische Inhalte amplifiziert oder einschränkt. Die fehlende Transparenz TikToks bezüglich der Vergabe der Labels sowie der internen Nutzung dieser erschwert die Erforschung asymmetrischer Amplifizierung und Schlussfolgerungen auf die Funktion der Empfehlungssysteme.
Zudem ist es wichtig, hervorzuheben, dass asymmetrische Amplifizierung nur ein Teilaspekt von systemischen Risiken in Bezug auf die Wahlprozesse ist. Aus diesem Grund werden wir in weiteren Analysen auch die Verbreitung falscher Informationen in Bezug auf Wahlverfahren und die Beeinflussung durch Dritte untersuchen.
Amman | Berlin | London | Paris | Washington DC
Copyright © Institute for Strategic Dialogue (). Das Institute for Strategic Dialogue (gGmbH) ist beim Amtsgericht Berlin-Charlottenburg registriert (HRB 207 328B). Die Geschäftsführerin ist Sarah Kennedy. Die Anschrift lautet: Postfach 80647, 10006 Berlin. Alle Rechte vorbehalten.
Diese Seite verwendet Cookies. Mit der Weiternutzung der Seite, stimmst du die Verwendung von Cookies zu.
Einstellungen akzeptierenVerberge nur die BenachrichtigungEinstellungenWir können Cookies anfordern, die auf Ihrem Gerät eingestellt werden. Wir verwenden Cookies, um uns mitzuteilen, wenn Sie unsere Websites besuchen, wie Sie mit uns interagieren, Ihre Nutzererfahrung verbessern und Ihre Beziehung zu unserer Website anpassen.
Klicken Sie auf die verschiedenen Kategorienüberschriften, um mehr zu erfahren. Sie können auch einige Ihrer Einstellungen ändern. Beachten Sie, dass das Blockieren einiger Arten von Cookies Auswirkungen auf Ihre Erfahrung auf unseren Websites und auf die Dienste haben kann, die wir anbieten können.
Diese Cookies sind unbedingt erforderlich, um Ihnen die auf unserer Webseite verfügbaren Dienste und Funktionen zur Verfügung zu stellen.
Da diese Cookies für die auf unserer Webseite verfügbaren Dienste und Funktionen unbedingt erforderlich sind, hat die Ablehnung Auswirkungen auf die Funktionsweise unserer Webseite. Sie können Cookies jederzeit blockieren oder löschen, indem Sie Ihre Browsereinstellungen ändern und das Blockieren aller Cookies auf dieser Webseite erzwingen. Sie werden jedoch immer aufgefordert, Cookies zu akzeptieren / abzulehnen, wenn Sie unsere Website erneut besuchen.
Wir respektieren es voll und ganz, wenn Sie Cookies ablehnen möchten. Um zu vermeiden, dass Sie immer wieder nach Cookies gefragt werden, erlauben Sie uns bitte, einen Cookie für Ihre Einstellungen zu speichern. Sie können sich jederzeit abmelden oder andere Cookies zulassen, um unsere Dienste vollumfänglich nutzen zu können. Wenn Sie Cookies ablehnen, werden alle gesetzten Cookies auf unserer Domain entfernt.
Wir stellen Ihnen eine Liste der von Ihrem Computer auf unserer Domain gespeicherten Cookies zur Verfügung. Aus Sicherheitsgründen können wie Ihnen keine Cookies anzeigen, die von anderen Domains gespeichert werden. Diese können Sie in den Sicherheitseinstellungen Ihres Browsers einsehen.
Diese Cookies sammeln Informationen, die uns - teilweise zusammengefasst - dabei helfen zu verstehen, wie unsere Webseite genutzt wird und wie effektiv unsere Marketing-Maßnahmen sind. Auch können wir mit den Erkenntnissen aus diesen Cookies unsere Anwendungen anpassen, um Ihre Nutzererfahrung auf unserer Webseite zu verbessern.
Wenn Sie nicht wollen, dass wir Ihren Besuch auf unserer Seite verfolgen können Sie dies hier in Ihrem Browser blockieren:
Sie können unsere Cookies und Datenschutzeinstellungen im Detail in unseren Datenschutzrichtlinie nachlesen.
Datenschutzerklärung