Meta spricht von Freiwilligkeit – Nutzer sehen keine Wahl
WhatsApp nennt die neue KI-Chatfunktion freiwillig, obwohl sie sich nicht aus der App entfernen lässt.
Das Meta-AI-Symbol – ein blauer Kreis mit bunten Farbtupfern – erscheint dauerhaft im Chatfenster unten rechts.
Ein Fingertipp darauf öffnet einen Assistenten, der Fragen mithilfe künstlicher Intelligenz beantwortet.
Viele Nutzer empfinden das als störend und kritisieren, dass sie die Funktion nicht deaktivieren können.
Ähnlich erging es Microsoft mit der Funktion „Recall“, die nach massiver Kritik ebenfalls abschaltbar gemacht wurde.
WhatsApp betont, dass es auf Rückmeldungen hört und Nutzern mit solchen Funktionen mehr Möglichkeiten bieten will.
Meta vergleicht den KI-Chatbot mit anderen festen Bestandteilen wie „Status“ oder „Kanälen“ in der App.
Zeitgleich führte Meta neue Schutzmaßnahmen für jugendliche Nutzerkonten auf Instagram ein.
In den USA wird KI getestet, um Falschangaben beim Alter von Jugendlichen auf der Plattform zu erkennen.
Nicht für alle verfügbar – viele Nutzer verwirrt
Nicht alle sehen das KI-Symbol – der Rollout erfolgt nur in bestimmten Ländern schrittweise.
Sogar innerhalb derselben Region kann es Unterschiede in der Verfügbarkeit geben.
Oben in WhatsApp erscheint außerdem eine neue Suchleiste mit dem Hinweis „Meta AI fragen oder durchsuchen“.
Diese Funktion gibt es auch in Facebook Messenger und Instagram, ebenfalls Plattformen von Meta.
Die KI nutzt Metas Sprachmodell Llama 4, ein groß angelegtes System zur Textgenerierung.
Bevor man den Assistenten verwendet, erscheint ein Hinweistext, der Meta AI als freiwillig beschreibt.
Man kann zum Beispiel das Wetter erfragen – die Antwort erfolgt schnell und ausführlich.
Allerdings kam es zu Fehlern: Eine Wetteranfrage zu Glasgow lieferte auch Infos zu London.
Experten und Nutzer schlagen Alarm wegen Datenschutzbedenken
In sozialen Netzwerken wie X, Bluesky und Reddit äußern europäische Nutzer deutliche Kritik.
Kolumnistin Polly Hudson beschwerte sich darüber, dass der KI-Chat nicht deaktivierbar sei.
Der KI- und Datenschutzexperte Dr. Kris Shrishak kritisierte Meta scharf und sprach von Missbrauch.
Er wirft dem Unternehmen vor, Menschen ohne Zustimmung als Versuchspersonen zu nutzen.
Seiner Meinung nach darf niemand gezwungen werden, mit künstlicher Intelligenz zu interagieren.
Shrishak warnt davor, dass Metas KI-Systeme auf Basis privater Daten und illegal beschaffter Bücher trainiert wurden.
Er vermutet, dass Meta mit dieser Funktion neue Datenquellen erschließen möchte, um rechtliche Lücken zu umgehen.
Eine Recherche ergab, dass Meta möglicherweise Millionen Bücher über die Plattform Library Genesis bezog.
Autorenverbände weltweit protestieren und fordern politische Gegenmaßnahmen.
Meta steht derzeit wegen unerlaubter Nutzung von Werken vor Gericht – mehrere Autoren haben Klage eingereicht.
Meta verweigerte eine Stellungnahme zur Recherche über die Herkunft der Trainingsdaten.
Datenschützer warnen vor neuen Risiken beim Nachrichtenaustausch
Bei der ersten Nutzung erklärt WhatsApp, dass Meta AI nur die direkt gesendeten Nachrichten einsehen kann.
Meta betont, dass persönliche Chats durch Ende-zu-Ende-Verschlüsselung geschützt bleiben.
Die britische Datenschutzbehörde überwacht die Einführung der KI-Funktion und den Umgang mit Nutzerdaten.
Sie weist darauf hin, dass Vertrauen Voraussetzung für Innovation mit persönlichen Informationen sei.
Wer personenbezogene Daten für KI verwendet, muss alle gesetzlichen Vorgaben einhalten – besonders bei Kindern.
Dr. Shrishak betont: Bei der Kommunikation mit Meta AI ist Meta selbst das Gegenüber – nicht ein Kontakt.
Er rät, niemals vertrauliche Inhalte mit der KI zu teilen.
Auch Meta warnt in seinen Hinweisen davor, sensible Informationen einzugeben, die weiterverwendet werden könnten.