Große Plattformen wie Meta, Google und TikTok verstärken ihre Maßnahmen gegen politische Fehlinformationen. Meta hat politische Werbung auf Facebook und Instagram gestoppt. Google pausierte ähnliche Anzeigen auf YouTube. TikTok verzichtet seit 2019 vollständig auf politische Werbung. Diese Schritte sollen Chaos nach einer potenziell langwierigen Auszählung verhindern.
Experten bezweifeln jedoch die Wirksamkeit dieser Maßnahmen. Sie kritisieren, dass Fehlinformationen durch Algorithmen weiterhin weite Verbreitung finden. Kritiker warnen, dass kurzfristige Werbepausen das tieferliegende Problem nicht lösen. Plattformen müssten mehr tun, um schädliche Inhalte dauerhaft zu bekämpfen.
Maßnahmen und Kritik an Social-Media-Plattformen
Meta verlängerte seine Werbepause über die Wahlnacht hinaus. Google und TikTok betonen ihre Richtlinien gegen manipulative Inhalte. TikTok kennzeichnet unbestätigte Behauptungen und entfernt problematische Beiträge. X, ehemals Twitter, erlaubte 2023 wieder politische Werbung, was Bedenken auslöste.
Fehlinformationen verbreiten sich oft durch organische Reichweite, verstärkt durch algorithmische Mechanismen. Experten sehen darin eine anhaltende Bedrohung für demokratische Prozesse. Besonders problematisch ist die Schwächung der Moderationsrichtlinien, etwa durch X unter Elon Musk.
Notwendigkeit langfristiger Strategien
Plattformen wie YouTube, Meta und TikTok investieren in Wahlintegrität, etwa durch Verweise auf vertrauenswürdige Quellen. Dennoch bleibt die Durchsetzung von Richtlinien unzureichend. Die Kritik an Algorithmen, die polarisierende Inhalte bevorzugen, reißt nicht ab. Experten fordern konsequentere Maßnahmen gegen die anhaltende Verbreitung von Fehlinformationen.