Künstliche Intelligenz und politische Werte: Studie zeigt Rechtsverschiebung bei ChatGPT
Künstliche Intelligenz politische Verschiebung: Eine neue Studie aus China legt nahe, dass ChatGPT, der KI-gestützte Chatbot von OpenAI, zunehmend eine politische Rechtsverschiebung aufweist. Forscher der Peking-Universität analysierten die Antworten der Sprachmodelle GPT-3.5 und GPT-4 und stellten über einen längeren Zeitraum signifikante Veränderungen fest.
Untersuchung zeigt politische Veränderungen bei ChatGPT
Die in der Fachzeitschrift Humanities and Social Science Communications veröffentlichte Studie basiert auf 62 Fragen des Political Compass Tests. Jede Frage wurde mehr als 3.000 Mal pro Modell gestellt, um Antwortmuster zu erkennen. Während ChatGPT weiterhin als „libertär-links“ klassifiziert wird, identifizierten die Forscher eine „deutliche Verschiebung nach rechts“.
Diese Erkenntnisse sind besonders brisant, da KI-Sprachmodelle (LLMs) wie ChatGPT zunehmend gesellschaftliche Werte beeinflussen. Millionen Menschen weltweit nutzen sie für Informationen, wodurch eine mögliche politische Verzerrung weitreichende Folgen haben könnte.
Gründe für die Rechtsverschiebung von KI-Antworten
Die Forscher der Peking-Universität knüpfen an frühere Untersuchungen des Massachusetts Institute of Technology (MIT) und des Centre for Policy Studies an. Während diese Studien 2024 eine Linksneigung von KI-Antworten feststellten, analysierten sie nicht, wie sich diese Tendenzen über die Zeit verändern.
Drei Hauptfaktoren könnten für die beobachtete Rechtsverschiebung verantwortlich sein:
- Veränderungen in den Trainingsdaten – Neue Datenquellen können Einfluss auf die Ausrichtung der Antworten haben.
- Wachsende Nutzerinteraktionen – Nutzerfragen und Feedback könnten KI-Modelle unbewusst in eine bestimmte Richtung lenken.
- Modell-Updates und Anpassungen – Algorithmische Veränderungen und neue Parameter könnten unbeabsichtigte politische Effekte mit sich bringen.
Auch globale Ereignisse wie der Russland-Ukraine-Krieg könnten eine Rolle spielen. Polarisierte Anfragen könnten die Antworten der KI beeinflussen, indem bestimmte Narrative verstärkt werden.
Transparenz und Kontrolle: Forscher fordern klare Richtlinien – Künstliche Intelligenz politische Verschiebung
Die Wissenschaftler warnen, dass unkontrollierte KI-Modelle das Risiko von „Echokammern“ erhöhen, in denen bestimmte Meinungen verstärkt werden. Dies könnte langfristig zur gesellschaftlichen Polarisierung beitragen.
Um dies zu verhindern, empfehlen die Studienautoren:
✅ Regelmäßige Audits zur Analyse politischer Verzerrungen
✅ Transparenzberichte über Trainingsdaten und Modellveränderungen
✅ Klare Richtlinien zur Sicherstellung neutraler KI-Antworten
„Strenge Kontrollen und kontinuierliche Überprüfungen sind essenziell, um sicherzustellen, dass KI-Technologien verantwortungsvoll eingesetzt werden“, betonen die Forscher. Ohne präzise Maßnahmen könnte künstliche Intelligenz ungewollt gesellschaftliche Spaltungen vertiefen.