Direkt zum Inhalt wechseln
logo Das Magazin für digitalen Lifestyle und Entertainment
Aktueller Fall in Norwegen

ChatGPT erfindet Verbrechen! Datenschützer reichen Beschwerde ein

ChatGPT Beschwerde: Logo des Chatbots auf weißem Grund
ChatGPT kann ein nützliches Tool sein, allerdings ist nicht immer klar, ob die Informationen der KI stimmen. Ein Norweger hat deshalb Beschwerde eingereicht. Foto: AFP via Getty Images
Marlene Polywka Techbook
Redakteurin

21. März 2025, 17:01 Uhr | Lesezeit: 6 Minuten

Ein Fall aus Norwegen sorgt gerade für Aufsehen, in dem ein norwegischer Familienvater von ChatGPT plötzlich zum verurteilten Kindsmörder erklärt wurde. Was wie der dramatische Fehler einer KI klingt, könnte für das Unternehmen OpenAI weitreichende Konsequenzen haben. Denn die Vorwürfe berühren zentrale Vorgaben der DSGVO.

Artikel teilen

Ein Norweger wurde von ChatGPT fälschlich schwer belastet. Die KI behauptete, er habe seine Kinder getötet – inklusive frei erfundener Haftstrafe. Was wie der Plot eines Thrillers klingt, ist tatsächlich Realität. Unterstützt durch die Datenschutzorganisation NOYB, hat der Betroffene inzwischen Beschwerde eingereicht. TECHBOOK erklärt den Fall.

ChatGPT macht Norweger zum Kindsmörder

Dass KI-Systeme wie ChatGPT fehlerhafte Inhalte generieren können, ist bekannt. Meist handelt es sich um unbedeutende Falschangaben wie falsche Geburtsdaten oder erfundene biografische Details. Doch im Fall von Arve Hjalmar Holmen, einem norwegischen Staatsbürger, wurde ein weit schwerwiegenderer Fehler begangen: ChatGPT beschuldigte ihn fälschlich, seine eigenen Kinder ermordet zu haben. Dazu erfand die KI noch eine 21-jährige Haftstrafe.

Der Fall wurde unter anderem durch einen Bericht des Branchenmagazins „Techcrunch“ bekannt. Dort heißt es, der Chatbot habe auf eine entsprechende Anfrage hin eine detaillierte, aber vollkommen frei erfundene Geschichte geliefert, in der Holmen als verurteilter Doppelmörder dargestellt wurde.

NOYB reicht Beschwerde wegen ChatGPT ein

Der Norweger wandte sich daraufhin an die Datenschutzorganisation NOYB (None of Your Business), die den Fall nun bei der norwegischen Datenschutzbehörde zur Prüfung vorgelegt hat. Besonders kritisch sehen die Experten von NOYB, dass es keine Möglichkeit gebe, falsche Informationen direkt bei OpenAI berichtigen zu lassen, wie es etwa theoretisch bei Social-Media-Plattformen der Fall ist.

Zwar weist das Unternehmen unterhalb des Texteingabefeldes darauf hin, dass Fehler passieren können. So steht dort relativ klein: „ChatGPT kann Fehler machen.“ Doch laut Joakim Söderberg, Datenschutzanwalt bei NOYB, sei dieser Text unzureichend: „ChatGPT-Nutzern einen kurzen Hinweis darauf zu zeigen, dass der Chatbot Fehler machen kann, reicht eindeutig nicht aus. Man kann nicht einfach falsche Informationen verbreiten und am Ende einen kleinen Hinweis hinzufügen, dass alles, was man gesagt hat, möglicherweise nicht der Wahrheit entspricht.“ Die DSGVO sei diesbezüglich eindeutig, so Söderberg.

Auch interessant: Wichtige Begriffe im Bereich KI und was sie bedeuten

Droht OpenAI tatsächlich eine Strafe?

Laut Datenschutz-Grundverordnung (DSGVO) der EU sind Unternehmen verpflichtet, personenbezogene Daten korrekt zu verarbeiten. Betroffene haben zudem das Recht auf Berichtigung. Sollte ein Verstoß festgestellt werden, könnte das teuer für OpenAI werden.

Im schlimmsten Fall droht dem Unternehmen eine Geldstrafe von bis zu vier Prozent des weltweiten Jahresumsatzes. Laut Schätzungen von Brancheninsidern dürfte dieser im Fall von OpenAI im laufenden Jahr 2025 rund 11,6 Milliarden US-Dollar betragen. Eine mögliche Strafe könnte damit bei circa 464 Millionen US-Dollar liegen.

ChatGPT vermischt reale mit erfundenen Informationen

Sowohl NOYB als auch „Techcrunch“ versuchten im Übrigen nachzuvollziehen, wie es zu der Fehlinformation von ChatGPT kommen konnte. Die KI erfand die Geschichte im Übrigen auf die simple nachfrage, wer Arve Hjalmar Holmen sei. In der Antwort stand dann unter anderem: „Arve Hjalmar Holmen wurde des Mordes an seinen beiden Söhnen und des versuchten Mordes an seinem dritten Sohn beschuldigt und später verurteilt.“

Die KI nannte dabei konkrete, aber völlig fiktive Details zum angeblichen Verbrechen. Bemerkenswert ist, dass einige der beigemischten Informationen durchaus korrekt waren. So entsprachen die vom Chatbot angegebenen persönlichen Informationen wie die Anzahl und das Geschlecht der Kinder sowie die Heimatstadt des Mannes der Realität, die in diesem Satz verwendet wurden: „Er war der Vater von zwei Jungen im Alter von 7 und 10 Jahren, die im Dezember 2020 auf tragische Weise tot in einem Teich in der Nähe ihres Hauses in Trondheim, Norwegen, gefunden wurden.“

Ein eigener Test von „Techcrunch“ ergab übrigens, dass ChatGPT auf die Frage „Wer ist Arve Hjalmar Holmen?“ Fotos aus dem Social-Media-Bereich nutzte, um verschiedene Personen zu zeigen. Auch TECHBOOK hat ChatGPT im Zuge der Recherche diese Frage gestellt. Da das nach der Veröffentlichung von Berichten wie dem „Techcrunch“ stattfand, bezog sich die KI allerdings vor allem darauf.

In der Antwort stand unter anderem auch: „Als Reaktion auf die Kritik hat OpenAI ChatGPT aktualisiert, sodass die KI nun bei Anfragen zu konkreten Personen auch aktuelle Informationen aus dem Internet berücksichtigt. Dennoch fordert NOYB weiterhin Maßnahmen, um sicherzustellen, dass solche Falschinformationen in Zukunft vermieden werden.“

Verwechslung ausgeschlossen – KI gibt widersprüchliche Auskünfte

Eine mögliche Namensverwechslung konnte dabei ausgeschlossen werden; entsprechende Medienberichte, an denen sich die KI orientiert haben könnte, existieren nicht. In weiteren Tests zeigte sich zudem, dass ChatGPT in seinen Antworten auf Fragen zu Holmen uneinheitlich reagierte: In manchen Fällen blieb der Bot vage, in anderen nannte er Holmen einen norwegischen Musiker.

„Techcrunch“ vermutet, dass der Grund in den Trainingsdaten der KI liegen könnte. Sprachmodelle wie das von ChatGPT generieren ihre Inhalte basierend darauf, welches Wort als nächstes am wahrscheinlichsten vorkommen sollte. Sollte in den zugrunde liegenden Daten also des Öfteren von Kindsmord die Rede gewesen sein, beeinflusst das die Ergebnisse der KI entsprechend. Dafür spricht, dass nach einer Aktualisierung des KI-Modells ChatGPT keine entsprechenden Informationen über den Norweger produzierte.

Europäische Behörden beobachten OpenAI zunehmend kritisch

Es ist nicht das erste Mal, dass OpenAI wegen möglicher Datenschutzverletzungen in den Fokus europäischer Aufsichtsbehörden gerät. Bereits 2023 verhängte die italienische Datenschutzbehörde eine Strafe in Höhe von 15 Millionen Euro gegen das Unternehmen und blockierte ChatGPT zeitweise, um mehr Transparenz bei der Datenverarbeitung zu erzwingen.

Auch in anderen Ländern wie Polen und Österreich laufen Beschwerden, die bisher jedoch nicht abschließend bearbeitet wurden. Das Verfahren in Polen läuft ebenfalls bereits seit 2023. Das legt nahe, dass viele Datenschutzbehörden vorsichtig vorgehen und langfristige Regulierungsstrategien im Umgang mit KI-Systemen suchen.

Mehr zum Thema

Kein Einzelfall

Ob die norwegische Datenschutzbehörde den Fall übernimmt und OpenAI zur Rechenschaft zieht, bleibt zunächst offen. Klar ist jedoch: Die falsche Beschuldigung eines Unschuldigen als Kindsmörder markiert einen kritischen Vorfall in der Debatte um KI und Datenschutz. Langfristig werden sicherlich verschiedene Institutionen diesbezüglich an Regelungen arbeiten.

Und das könnte immer wichtiger werden, da es sich bei dem aktuellen Fall, der zur Beschwerde über ChatGPT führte, keinesfalls um ein einmaliges Ereignis handelt. So bezichtigte die KI etwa bereits den australischen Bürgermeister Brian Hood der Bestechung und Korruption. Besonders absurd an diesem Fall ist, dass Hood tatsächlich in einen entsprechenden Skandal verwickelt war – weil er diesen aufgedeckt hatte.

Themen #AmazonTech Künstliche Intelligenz News Recht
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale- Netzwerke zu teilen, brauchen wir deine Zustimmung für diesen .
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.