Zwei Forscher kreieren einen Social-Media-Kanal mit 500 Nutzern und schauen, was passiert. […] Die Studienautoren fanden heraus, dass auch in einer kleinen Simulation eines sozialen Netzwerks drei wesentliche Funktionsstörungen, die soziale Medien grundsätzlich hätten, aufträten: ideologische Homogenität, ungleiche Verteilung der Aufmerksamkeit und die Verstärkung extremer Stimmen und Meinungen. Das Netzwerk, das die beiden für ihre Untersuchung erstellten, ähnelt vom Aufbau her der Plattform X (vormals Twitter). 500 simulierte Benutzer, basierend auf Künstlicher Intelligenz (KI), besaßen dort Profile, politische Haltungen und konnten Beiträge posten, teilen und sich gegenseitig folgen.
„Wir gingen davon aus, dass wir sorgfältig Algorithmen oder Verhaltensregeln entwerfen müssten, um Polarisierung, Echokammern und Ungleichheit der Aufmerksamkeit zu reproduzieren“, sagt Petter Törnberg gegenüber der F.A.Z. „Tatsächlich entstanden diese Muster jedoch einfach aus der Grundstruktur des Postens, Repostens und Followens in einem sozialen Netzwerk.“ Einwenden kann man allerdings, dass die 500 Nutzer nicht echt sind, sondern mit KI simuliert wurden.
Da die KI-Sprachmodelle mutmaßlich auch mit Social-Media-Daten gefüttert wurden, die durch Algorithmen beeinflusst sein dürften, könnten diese durch eingebettete soziale Vorurteile beeinflusst sein. Dieses mögliche Manko räumen die Studienautoren auch ein […]
Auf Krawall und Polarisierung angelegte Algorithmen oder fehlende Moderation sind nach den Erkenntnissen der Studie also nicht die einzige Erklärung für die Bildung von Echokammern oder die hohe Aufmerksamkeit für extreme und negative Meinungen.
Philipp Schröder, faz.net, 29.08.2025 (online)