Automatisierte Sperrungen sorgen für Empörung
Meta gab bekannt, dass ein technischer Fehler zur fehlerhaften Sperrung mehrerer Facebook-Gruppen führte. Das Unternehmen arbeite laut eigener Aussage an einer Lösung. Zahlreiche Gruppenadministratoren erklärten, sie hätten automatische Mitteilungen über angebliche Regelverstöße erhalten. Diese Meldungen führten zur sofortigen Löschung ihrer Gruppen, ohne dass ein Mensch den Fall prüfte.
Auch Instagram-Nutzer berichteten über ähnliche Sperren. Viele machten Metas künstliche Intelligenz für die Fehlentscheidungen verantwortlich. Meta sprach lediglich von einem Problem bei Facebook-Gruppen und bestritt eine umfassendere Störung.
Beliebte Gruppen verschwinden vorübergehend
Eine Meme-Gruppe mit mehr als 680.000 Mitgliedern wurde fälschlich wegen angeblicher Verbindung zu gefährlichen Gruppen gelöscht. Nachdem der Gründer öffentlich protestierte, stellte Meta die Gruppe wieder her. Auch ein Administrator einer KI-Gruppe mit 3,5 Millionen Mitgliedern meldete eine Sperre seiner Gruppe und seines persönlichen Kontos. Meta erklärte später, die Sperrung sei durch einen Fehler im automatisierten System entstanden.
Petition und Online-Proteste gegen Metas Praxis
Eine Petition mit dem Titel „Meta deaktiviert Konten grundlos ohne menschlichen Support“ sammelte bereits rund 22.000 Unterschriften. In einem populären Reddit-Forum teilen viele Nutzer persönliche Berichte über unerklärliche Sperrungen. Einige verloren Seiten mit emotionalem Wert, andere ihre beruflichen Plattformen. Manche berichteten sogar über Anschuldigungen, sie hätten gegen Kinderschutz-Richtlinien verstoßen.
Zahlreiche Nutzer beschwerten sich darüber, dass nach einer Sperrung kein Kontakt zu Meta möglich sei. Sie kritisierten, dass automatisierte Systeme ohne Kontrolle schwerwiegende Entscheidungen träfen. Die gemeldeten Vorfälle konnten bislang nicht unabhängig überprüft werden.
Meta erklärt Vorgehen und verweist auf Transparenzbericht
Meta verteidigte sich in einer Stellungnahme. Das Unternehmen betonte, es reagiere auf tatsächliche Regelverstöße und ermögliche bei Fehlern Einspruch. Meta erklärte, man nutze sowohl Technik als auch menschliche Prüfer zur Moderation. Es gebe keine Hinweise auf eine Zunahme fehlerhafter Entscheidungen. Instagram bestätigte, dass KI eine zentrale Rolle bei der Inhaltskontrolle spiele. In manchen Fällen komme zusätzlich ein Mensch zum Einsatz.
Schwere Verstöße führen laut Meta zur sofortigen Sperrung. Darunter fallen auch KI-generierte Inhalte mit menschenähnlicher Darstellung oder fiktive Abbildungen. Das Unternehmen überwacht außerdem verdächtiges Verhalten, etwa wenn Erwachsene wiederholt von Jugendlichen gemeldet werden oder auffällig suchen. Solche Konten verlieren den Kontakt zu Minderjährigen oder werden gelöscht.
Meta veröffentlicht regelmäßig Berichte zur Regelumsetzung. Im Zeitraum Januar bis März verzeichnete der Konzern 4,6 Millionen Maßnahmen wegen Missbrauchsinhalten. Das ist der niedrigste Wert seit Anfang 2021. Der nächste Bericht soll in wenigen Monaten erscheinen.