13. April 2023, 15:12 Uhr | Lesezeit: 4 Minuten
Über das Forum Reddit sind Nacktfotos verkauft worden – allerdings keine realen Fotos von unbekleideten Menschen. Es handelt sich um Bilder, die von einer KI erzeugt wurden. Das sorgt nun für Diskussionen.
Unter der Überschrift „F19 Feeling pretty today“ (dt. „Fühle mich heute hübsch“) findet man auf Reddit das vermeintliche Bild einer Frau. „Claudia“ ist scheinbar eine junge Brünette mit großen grau-grünen Augen, mittellangen dunklen Haaren und sehr makelloser Haut, die für das Selfie in einem Zimmer posiert, das ein Wohnzimmer sein könnte. Nur: Claudia ist keine echte Person. Das Bild wurde von einer Künstlichen Intelligenz (KI) generiert und im Anschluss, wie viele weitere, über die Plattform Reddit verkauft. Mittlerweile wurde das entsprechende Konto gemeldet – doch die Fotos sind immer noch erhältlich. Und es gibt auch reichlich Diskussionsstoff.
Nacktbilder von KI bei Reddit
Den Grundstein für diese Geschichte hat eigentlich ein Projekt zweier Informatikstudenten gelegt. Sie hatten gemeinsam ein KI-Programm namens „Stable Diffusion“ gestartet. Ziel war es, mithilfe einer KI und auf Basis von Texteingaben möglichst realistisch erscheinende Bilder zu generieren – scheinbar mit Erfolg.
Denn wie die beiden dem Magazin Rolling Stone berichteten, nahmen sie tatsächlich gut 100 US-Dollar mit Nacktfotos von „Claudia“ ein. Der Reddit-Account sei dabei wohl „als Scherz“ gemeint. „Wir hätten ehrlich gesagt nicht gedacht, dass es so viel Anklang finden würde“, gaben die beiden an. Neben „Anklang“ wird auch Kritik an dem Vorgehen laut.
Diskussion über KI-Nacktbilder
Ein Teil der nun neu entfachten Diskussion in der Debatte um KI-generierte Abbildungen ist, dass die KI zum Trainieren Bilder realer Personen braucht – Personen, die diesem Verwendungszweck wahrscheinlich nicht explizit zugestimmt haben. Außerdem lassen sich via KI auch Bilder realer Personen noch realistischer verändern als mit Programmen wie Photoshop. Von Megastar Keanu Reeves etwa gibt es einen fiktiven Instagram-Account, auf dem der Schauspieler scheinbar alle möglichen witzigen Dinge tut. Auch dieser Content ist nicht real.
Ein weiteres aktuelles Beispiel liefern auch die sogenannten virtuellen Influencer. Der fiktiven „Imma“ folgen auf Instagram 400.000 Konten. Zwar ist aus ihrer Profilbeschreibung und vor allem auch in ihren Videos erkennbar, dass es sich um eine KI-generierte Person handelt. Auf den Bildern ist das jedoch weniger eindeutig. Zudem sind darauf oft echte Menschen zu sehen, die scheinbar mit der KI-generierten Person interagieren.
„Imma“ macht Werbung, teilt mit ihren Followern scheinbar ihre Gedanken- und Gefühlswelt. Unter einem Post heißt es etwa: „Ist es nicht schwierig für jemanden, das wahre Ich zu kennen? Erreichen meine aufrichtigen Gefühle jemanden? Ich möchte, dass du mein wahres Ich verstehst …“ Das Unternehmen hinter dem Account kreiert eine komplette Geschichte um die virtuelle junge Frau mit dem rosafarbenen Bob. Sie geht auf Veranstaltungen, hat Streit mit ihrem Bruder, einen Job.
Ein Problem in dieser Art der Darstellung und Emotionalität ist laut Medienexperte Oliver Zöllner vom Stuttgarter Institut für Digitale Ethik oft die fehlende Transparenz. Wie die Programme dahinter arbeiten, sei nicht immer klar. Auch sei nicht für jeden direkt erkennbar, dass es sich nicht um reale Personen handeln würde, so Zöllner gegenüber der Nachrichtenagentur dpa. Nicht zu vernachlässigen ist laut dem Experten zudem das recht undurchsichtige „Geschäftsmodell der Datengewinnung und -ausbeutung“. Im Fall der KI-Nacktbilder bei Reddit war den Käufern offenbar nicht bewusst, dass die Bilder keine echten Menschen zeigen.
Hände, Licht, … Hinweise, an denen man ein mit KI bearbeitetes Bild erkennen kann
Emily Pellegrini, Sika Moon, … Laufen KI-generierte Erotikmodels echten Onlyfans-Stars den Rang ab?
„Nudify“-Apps Missbrauch mit KI-generierten Nacktbildern nimmt zu – Anwalt klärt über Rechte auf
KI könnte die Porno-Branche verändern
Eine weitere Problematik bei KI-Nacktbildern wird oft mit der Porno-Industrie verknüpft, wo „Deepfakes“ häufiger auftreten. Dabei wird das Gesicht einer Person ohne deren Zustimmung mithilfe von KI in pornografische Inhalte eingefügt. Die Opfer sind meist Frauen. Doch Nacktbilder von Personen, die komplett KI-generiert sind, könnten auch eine Veränderung anstoßen. Das sehen auch die beiden Studenten so, die die fiktiven „Claudia“ erschaffen haben. „Die Person, die die Bilder kauft, ist ja zufrieden mit dem Ergebnis ist, da sie ja nach Pornos gesucht hat (…). Wir haben nie gesagt, dass es Bilder von einer echten Person sind und die Käufer haben nie wirklich danach gefragt. Sie haben es einfach angenommen.“
Mittlerweile ist das anders. Seit die Beiträge von „Claudia“ gemeldet wurden, sind ihre Posts mit einem entsprechenden Hinweis versehen. Ein Moderator des Forums weist außerdem explizit darauf hin, dass solche KI-generierten Inhalte nicht gegen die Regeln der Plattform verstoßen würden. Und nicht jeder stört sich an den KI-Nacktfotos.
Tatsächlich gibt es inzwischen sogar Communitys explizit für pornografische Inhalte von KIs. Das bietet unter anderem den Vorteil, dass die persönlichen Vorlieben der Nutzer anders bedient werden können. Das zeigt sich am Beispiel von „Claudia“. Die Texteingabe lautete hier: „Ohne Make-up mit schwarzen Haaren, schulterlangen Haaren, einfachem Hintergrund, glattem Haar, Ponyfrisur“. Mehr war nicht nötig für die Erstellung eines entsprechenden Bildes.