Der Chatbot Grok von Elon Musks xAI verbreitete unzuverlässige Informationen zum zwölftägigen Krieg zwischen Israel und Iran. Die Digital Forensic Research Lab (DFRLab) stellte fest: Grok beantwortete viele Anfragen fehlerhaft und widersprüchlich
Zwischen dem 13. und 24. Juni analysierten die Forschenden rund 130.000 Grok-Beiträge auf X. Etwa ein Drittel davon versuchte, falsche Behauptungen oder ungeprüftes Material zu verifizieren. Grok tat sich schwer mit Faktenchecks, Bildanalysen und der Vermeidung unbelegter Aussagen.
KI erkennt Fälschungen nicht zuverlässig
Zwei KI-erzeugte Videos klassifizierte Grok fälschlicherweise als authentisch. Eines zeigte angeblich Schäden am Flughafen Ben Gurion nach einem iranischen Angriff. Grok änderte seine Antwort mehrfach innerhalb weniger Minuten.
Zuerst behauptete der Bot, das Video zeige echte Zerstörung durch einen Houthi-Angriff. Später erklärte er, es handle sich um Aufnahmen aus Teheran nach israelischen Luftangriffen. Beide Aussagen stimmten nicht.
KI-Bots verbreiten unbelegte Gerüchte
Während der Kämpfe zirkulierten viele Falschmeldungen. Eine davon behauptete, China habe Militärflugzeuge nach Iran geschickt. Grok und der Chatbot Perplexity verstärkten dieses Gerücht.
Die Behauptung beruhte auf fehlerhaft interpretierten Daten von Flightradar24. Medien griffen sie auf, die KI-Bots verbreiteten sie weiter. Laut DFRLab überfordert das schnelle Nachrichtentempo viele KI-Systeme.
Experten warnen: Wenn Nutzer sich auf Bots verlassen, beeinflussen deren Antworten das öffentliche Verständnis von Konflikten.