Der Technologiekonzern Meta hat Klage gegen Joy Timeline HK Limited aus Hongkong eingereicht. Das Unternehmen steht hinter der App CrushAI, die mithilfe künstlicher Intelligenz Nacktbilder auf Basis realer Fotos erzeugt. Nach Metas Angaben umging der Entwickler gezielt die Werberichtlinien und verbreitete massenhaft sexualisierte Inhalte über Facebook und Instagram.
Mehr als 87.000 Anzeigen mit sexualisierten KI-Bildern geschaltet
Joy Timeline setzte laut Klageschrift ein ausgeklügeltes System ein: Über 170 Geschäftskonten und mindestens 135 Facebook-Seiten steuerte das Unternehmen Anzeigen, die gegen Metas Standards verstießen. Gesteuert wurde das Netzwerk von über 55 Personen. Die Werbung war auf Nutzer in den USA, Großbritannien, Australien, Kanada und Deutschland ausgerichtet.
In vielen Anzeigen versprach die App, mit wenigen Klicks Kleidung von Fotos zu entfernen. Inhalte dieser Art verstoßen direkt gegen Metas Verbote zu nicht-einvernehmlicher Nacktheit und sexueller Ausbeutung.
Künstliche Intelligenz als Werkzeug für digitale Entkleidung
Die App CrushAI warb mit Sprüchen wie „Ein Klick macht sie nackt“ oder „Lade ein Bild hoch und sieh mehr“. Nutzende konnten ein Gesichtsfoto hochladen und ein scheinbar entkleidetes Bild generieren. Obwohl Meta solche Inhalte explizit verbietet, erschienen sie tausendfach auf den Plattformen.
Politik reagiert mit scharfer Kritik an Metas Aufsicht
Nach Enthüllungen mehrerer Tech-Portale wurde bekannt, dass der Großteil des App-Traffics über Meta-Plattformen lief. Dies führte zu öffentlicher Empörung und politischen Konsequenzen. US-Senator Dick Durbin forderte Meta-CEO Mark Zuckerberg schriftlich auf, zu erklären, wie es zu diesen massiven Regelverstößen kommen konnte.
Gesetzgeber verschärfen die Regeln für Deepfakes
Immer mehr prominente Persönlichkeiten, darunter Taylor Swift und Alexandria Ocasio-Cortez, wurden Opfer von KI-generierten Deepfakes. Auch Schülerinnen in den USA waren betroffen. Als Reaktion trat der „Take It Down Act“ in Kraft, der Plattformen verpflichtet, solche Inhalte schnell zu entfernen und deren Verbreitung zu verhindern.
Neue Erkennungssysteme sollen problematische Werbung stoppen
Meta gab an, eine neue Technologie entwickelt zu haben, die typische Begriffe, Emojis und Formulierungen solcher Anzeigen erkennt. Auch wenn Anzeigen selbst keine Nacktheit zeigen, können die Systeme auffällige Inhalte identifizieren. Die Entwicklung erfolgte mit externen Expertenteams und zielt darauf ab, Verstöße frühzeitig zu stoppen.
Betreiber tricksen mit neuen Domains und neutralen Bildern
Laut Meta passen die Verantwortlichen der App ihre Methoden ständig an. Sie umgehen Filter durch neue Webseiten und verwenden zunächst harmlose Motive. Dies mache die Erkennung besonders schwierig. Die Verantwortlichen handelten dabei hauptsächlich aus wirtschaftlichem Interesse.
Branchenweite Zusammenarbeit über das Programm Lantern
Meta beteiligt sich am Projekt „Lantern“, einer Initiative der Tech Coalition. Ziel ist es, mit anderen Unternehmen Informationen über verdächtige Apps zu teilen und gemeinsam gegen Missbrauch durch KI-Technologien vorzugehen. Der Schwerpunkt liegt auf dem Schutz Minderjähriger vor sexueller Ausbeutung im Netz.
Weniger automatische Inhaltskontrolle sorgt für Kritik
Zuletzt hat Meta seine automatisierten Kontrollsysteme zurückgefahren. Nur noch Inhalte mit extremem Schadenspotenzial wie Terrorismus, Kindesmissbrauch oder Betrug werden automatisch entfernt. Alles Weitere muss manuell gemeldet werden. Sicherheitsfachleute kritisieren, dass damit Inhalte wie Deepfakes zu spät entdeckt werden.
Meta fordert Entschädigung und will weiteren Missbrauch verhindern
In der Klageschrift fordert Meta 289.000 US-Dollar Schadenersatz – für technische Maßnahmen, Ermittlungen und Reaktionen gegenüber Aufsichtsbehörden. Ziel sei es, Joy Timeline dauerhaft vom Schalten von Werbung auszuschließen und künftige Regelumgehungen zu unterbinden.