Elon Musks Plattform X (ehemals Twitter) will künftig KI-Chatbots einsetzen, um Community Notes zu verfassen, die Beiträge auf der Plattform faktisch einordnen sollen. Bisher wurden diese Notizen von Menschen erstellt.
X beschreibt den Einsatz von KI als Fortschritt, um die Informationsqualität im Internet zu verbessern. Die von der KI verfassten Notizen sollen weiterhin von Nutzern geprüft werden, bevor sie veröffentlicht werden. Ziel sei eine Kombination von „AI hilft Menschen, Menschen entscheiden“, so Keith Coleman, Vizepräsident bei X.
Kritik: „Bots bearbeiten die Nachrichten“
Der ehemalige britische Digitalminister Damian Collins warnte, dass X mit diesem Schritt „Bots die Nachrichten bearbeiten lässt“ und damit das Risiko steige, dass „Lügen und Verschwörungstheorien“ verbreitet würden. Es bestehe die Gefahr einer industriellen Manipulation dessen, was Nutzer sehen und worauf sie vertrauen.
Auch Andy Dudfield von Full Fact sieht das Risiko, dass KI-Notizen ohne sorgfältige menschliche Überprüfung veröffentlicht werden könnten, was die Qualität der Faktenchecks gefährde.
Samuel Stockwell vom Alan Turing Institute betonte, dass KI zwar helfen könne, die große Menge an Inhalten zu überprüfen, KI-Chatbots aber häufig Kontext und Nuancen nicht erfassen und dennoch überzeugend falsche Antworten geben könnten – eine gefährliche Kombination ohne wirksame Schutzmechanismen.
Vertrauen in menschliche Faktenchecker höher
Forschung zeigt, dass Nutzer menschlich verfasste Community Notes als vertrauenswürdiger empfinden als einfache Warnhinweise. Eine Analyse des Center for Countering Digital Hate ergab, dass vor der US-Wahl 2024 in 75 % der Fälle korrekte Community Notes nicht angezeigt wurden, da Nutzer diese nicht hochvoteten. Irreführende Posts sammelten so mehr als 2 Milliarden Aufrufe.
Teil eines Branchentrends
X folgt damit einem Trend in der Techbranche, menschliche Faktenchecker durch automatisierte Systeme zu ersetzen:
- Meta kündigte im Januar an, in den USA keine menschlichen Faktenchecker mehr einzusetzen.
- Google will nutzergenerierte Faktenchecks in Suchergebnissen weniger priorisieren.
X selbst kritisierte in einem begleitenden Forschungspapier professionelle Faktenchecks als langsam und wenig vertrauenswürdig und sieht KI als schnellere, ressourcenschonende Lösung. Vertrauen entstehe nicht durch den Autor, sondern durch die Bewertung durch die Nutzer, heißt es.
Fazit
Der Einsatz von KI als Faktenchecker auf X birgt Chancen für Effizienz, gleichzeitig jedoch erhebliche Risiken für die Verbreitung von Fehlinformationen, wenn menschliche Qualitätskontrollen fehlen oder unzureichend sind. Kritiker warnen, dass ohne wirksame Schutzmaßnahmen KI-Notizen selbst zur Verbreitung von Desinformation beitragen könnten.