Eine Datenschutzorganisation hat eine Beschwerde gegen OpenAI eingereicht. Der Grund ist eine Falschinformation, die ChatGPT über einen norwegischen Mann verbreitet hat. Die österreichische Organisation Noyb wirft OpenAI vor, gegen europäische Datenschutzgesetze verstoßen zu haben, indem falsche persönliche Daten ausgegeben wurden.
KI-Fehlinterpretation führt zu rechtlichen Schritten
Arve Hjalmar Holmen stellte ChatGPT eine Frage zu seiner eigenen Person. Die KI gab daraufhin eine völlig falsche Antwort und behauptete, er sei wegen Mordes an zwei seiner Söhne verurteilt worden. Zudem habe er einen dritten Sohn ermorden wollen und eine 21-jährige Haftstrafe erhalten.
Obwohl das Verbrechen frei erfunden war, enthielt die Antwort korrekte persönliche Informationen. ChatGPT nannte Holmens Heimatstadt sowie die Anzahl und das Geschlecht seiner Kinder richtig. KI-Fehlinformationen, auch als Halluzinationen bekannt, entstehen oft durch ungenaue oder voreingenommene Trainingsdaten.
Noyb legte der norwegischen Datenschutzbehörde Datatilsynet eine Screenshot-Aufnahme der Falschinformation vor. Allerdings entfernte die Organisation das genaue Datum der Interaktion. Inzwischen hat OpenAI das Modell überarbeitet. Wenn man heute nach Holmen fragt, gibt ChatGPT die falsche Mordanklage nicht mehr aus.
Trotz dieser Anpassung bleibt Noyb besorgt. Die Organisation befürchtet, dass die falschen Daten weiterhin im System von OpenAI vorhanden sind. Da ChatGPT Benutzerdaten für zukünftige Trainingszwecke speichert, hat Holmen keine Möglichkeit zu überprüfen, ob die falschen Informationen dauerhaft gelöscht wurden.
Datenschutzorganisation fordert Maßnahmen gegen OpenAI
Noyb hat eine offizielle Beschwerde bei Datatilsynet eingereicht. Die Organisation argumentiert, dass OpenAI gegen Artikel 5(1)(d) der DSGVO verstoßen hat. Dieser verlangt, dass Unternehmen korrekte und aktuelle personenbezogene Daten verarbeiten.
Noyb fordert, dass OpenAI die falschen Informationen vollständig löscht. Zudem soll das Unternehmen sein KI-Modell anpassen, um ähnliche Fehler in Zukunft zu vermeiden. Darüber hinaus fordert Noyb eine Geldstrafe gegen OpenAI, um die Einhaltung der Datenschutzgesetze sicherzustellen.
Holmen äußerte große Besorgnis über die Fehlinformation. Er befürchtet, dass Menschen die falsche Behauptung für wahr halten könnten, selbst wenn OpenAI die Fehler korrigiert. „Manche Leute denken: Wo Rauch ist, da ist auch Feuer. Das ist, was mir am meisten Angst macht,“ sagte er.
Die Noyb-Datenschutzanwältin Kleanthi Sardeli kritisierte KI-Unternehmen für ihren laxen Umgang mit Datenschutzgesetzen. „Ein Disclaimer macht das Gesetz nicht ungültig. KI-Firmen können die DSGVO nicht einfach ignorieren,“ betonte sie. Sie warnte zudem davor, dass KI-Fehlinformationen ernsthaften Reputationsschaden anrichten können, wenn sie nicht korrigiert werden.
Dieser Fall könnte einen wichtigen Präzedenzfall für den Umgang von KI-Unternehmen mit persönlichen Daten schaffen. OpenAI hat sich bislang nicht zu der Beschwerde geäußert.