1. Mai 2024, 15:20 Uhr | Lesezeit: 2 Minuten
Beworben werden sie als harmlose Prank-App oder auch explizit als pornografisches Auszieh-Tool. Nun geht Apple gegen sogenannte „Nudify“-Apps in seinem App Store vor. Der ausschlaggebende Hinweis dafür kam allerdings von außerhalb.
Erst im Januar hatten X-Nutzer unzählige pornografische Deepfakes von Taylor Swift verbreitet, sodass X (ehemals Twitter) kurzzeitig den Namen der Sängerin sperrte. Datenschützer und Frauenrechtsaktivisten fordern daher Unternehmen, die Suchmaschinen, Social-Media-Plattformen und App-Stores betreiben, auf, stärker gegen sogenannte „Nudify“-Apps und die Verbreitung von pornografischen Deepfakes vorzugehen. Apple hat nun einen ersten Schritt in diese Richtung unternommen und einige „Nudify“-Apps aus seinem App Store gelöscht.
„Nudify“-Apps aus App Store entfernt
Hintergrund für Apples jüngstes Aktivwerden war die Recherche der Journalisten von 404 Media. Sie hatten den Tech-Konzern per Link-Verweis auf konkrete „Nudify“-Apps in Apples App Store aufmerksam gemacht. Insgesamt drei Apps habe Apple, laut 404 Media, daraufhin gelöscht. „Nudify“-Apps richten sich hauptsächlich an eine männliche Zielgruppe; die Apps werden dann genutzt, um überwiegend von Frauen und Mädchen ohne deren Zustimmung KI-generierte Nacktbilder zu erstellen und diese zu verbreiten. Im vergangenen Jahr verzeichneten„Nudify“-Apps einen starken Nutzeranstieg. Währenddessen unternehmen Suchmaschinen wie Google, Bing und Yahoo kaum etwas gegen die KI-Nacktbilder.
Was früher der gefälschte „Rache-Porno“ war, ist heute ein pornografisches Deepfake. Der Deutsche Juristinnenbund kritisiert, dass die aktuelle Rechtslage in Deutschland die Betroffenen nicht ausreichend vor dieser Form der bildbasierten sexualisierten Gewalt schütze.
Und auch in der Praxis gibt es neben den psychischen Belastungen für die Betroffenen zahlreiche Probleme. Ist das Material einmal online, haben sie nur wenige Möglichkeiten, vollständig dagegen vorzugehen. Google bietet allerdings ein Meldeformular von nicht einvernehmlichen intimen Aufnahmen sowie ein Antragsformular auf die Entfernung von gefälschter Pornografie.
KI-generierte Deepfakes Suchmaschinen unternehmen kaum etwas gegen gefälschte Promi-Nacktbilder
„Nudify“-Apps Missbrauch mit KI-generierten Nacktbildern nimmt zu – Anwalt klärt über Rechte auf
KI-generierte Bilder Taylor Swift Opfer von pornografischen Deepfakes – so reagiert X
Vernachlässigt Apple seine eigenen Richtlinien?
Die Recherchen von 404 Media legen nahe, dass Apple nicht zuverlässig gegen „Nudify“-Apps in seinem App Store vorgeht, obwohl sie gegen Apples Richtlinien verstoßen. Apples App Review ist ein Leitfaden für App-Entwickler, der unter anderem verunglimpfende, diskriminierende und demütigende Inhalte verbietet. Aber auch „offensichtlich sexuelles oder pornografisches Material“ ist im App Store nicht erlaubt. Das dürfte „Nudify“-Apps, die solchen Content erstellen können, eigentlich einschließen.
Unklar ist bislang, wieso Apps, die gegen Apples Richtlinien verstoßen, überhaupt Zugang zum App Store erhalten haben – und wieso Apple sie scheinbar nicht selbstständig auffinden und löschen konnte. Eine Anfrage von TECHBOOK dazu blieb bislang unbeantwortet. Dennoch ist es ein wichtiger erster Schritt, dass Apple gegen die gemeldeten „Nudify“-Apps vorgeht.