10. Februar 2024, 9:12 Uhr | Lesezeit: 5 Minuten
Wie so viele KI-Produkte sind Deepfakes ein zweischneidiges Schwert. Einerseits können sie höchst unterhaltsam sein, andererseits aber auch brandgefährlich. TECHBOOK erklärt, was genau Deepfakes sind und wo die Risiken liegen.
Generative KIs können nicht nur Texte produzieren, sondern auch Bilder, Videos und Audio-„Aufnahmen“ generieren. Insgesamt bezeichnet man von KI erstelltes oder bearbeitetes – man könnte auch sagen: manipuliertes – Material als Deepfake. Mittlerweile sind viele generative KIs so leistungsfähig, dass ihre Deepfakes täuschend echt wirken. Damit entfalten sie ein großes Potenzial, sowohl für unterhaltsame Spielereien als auch für betrügerische und unlautere Absichten.
Übersicht
So entstehen täuschend echte Bilder
Zu den wohl bekanntesten KI-Bildgeneratoren gehören beispielsweise Dalle-E, Midjourney, Leonardo.ai, Adobe Firefly und Canva. Zunächst werden die Bildgeneratoren mit Bilddaten trainiert, zum Beispiel mit den Porträt-Fotos echter Menschen. Dann treten zwei neuronale Netzwerke gegeneinander an, um in Echtzeit das Porträt einer fiktiven Person zu generieren. Das eine neuronale Netz berechnet dabei aus all den möglichen erlernten menschlichen Merkmalen – Gesichtsformen, Hauteigenschaften und Augenfarben bis hin zu Frisuren – ein neues Gesicht.
Anschließend bewertet das zweite neuronale Netz das Ergebnis gemäß den eigenen Erfahrungswerten aus den Trainingsdaten. Besteht das Fake-Gesicht den „Realitätscheck“, wird es als fertig ausgegeben. Sonst muss das erste Netz noch einmal nacharbeiten. Das Ergebnis sind meist überzeugend echte „Fotos“. Je nach Prompt (Sprachbefehl) könnte die KI aber auch Gemälde im Stile von Frida Kahlo produzieren, ein neues Logo für TECHBOOK oder ein Filmplakat für einen fiktiven Space-Western entwerfen.
Lesen Sie auch: Missbrauch mit KI-generierten Nacktbildern nimmt zu – Anwalt klärt über Rechte auf
Deepfakes und Desinformation
Zu mehr als 90 Prozent sind die Deepfakes so realistisch, dass man sie leicht für authentisch halten kann. So ging beispielsweise 2023 ein Bild von Papst Franziskus im weißen Daunenmantel viral, genauso wie ein „Foto“ von Donald Trumps angeblicher Verhaftung. In diesen Kontexten sind Deepfakes nicht nur eine amüsante Spielerei, sondern könnten gezielt zur Desinformation und Hetze eingesetzt werden.
Bisher gehörte zu einer guten Medienkompetenz, Collagen zu erkennen und Bilder in ihren Kontext einzuordnen – besonders dann, wenn sie zuvor aus diesem Kontext herausgerissen wurden. Mittlerweile muss man noch kritischer mit Bildern umgehen. War es schon zuvor schwierig, bestimmte Fotos, z. B. aus Kriegs- oder Krisengebieten zu verifizieren, wird das in Zukunft noch schwerer werden.
Doch auch wenn die KIs mittlerweile ziemlich gut sind, sind die Ergebnisse oft nicht perfekt. Manchmal erkennt man gefakte Bilder von Menschen an einer fehlerhaften Gesichtssymmetrie, Texturfehlern auf der Haut oder seltsamen Übergängen im Hintergrund. Gelegentlich zeigen Deepfakes Fehler bei komplexer Kleidung, sodass einer Person plötzlich ein Basecap-Schirm aus der Stirn wächst. Auch mit der richtigen Anzahl von Fingern und Zehen scheint die KI hin und wieder Probleme zu haben. Um für die Nutzerinnen und Nutzer dennoch Klarheit über die Authentizität eines Bildes oder Videos zu schaffen, hat die EU den AI Act beschlossen. Dieser sieht unter anderem vor, dass Deepfakes als solche gekennzeichnet werden müssen.
Doch selbst mit einer Kennzeichnung werden Deepfakes viele Branchen, insbesondere im kreativen Bereich, stark beeinflussen. Gerade in der Kunst-, Kultur- und Musikszene gibt es Debatten über die Bedrohung von Künstlerinnen und Künstlern durch KI-generierte Werke, die in nur wenigen Sekunden produziert werden. Außerdem werfen Kunst- und Kulturschaffende KI-Unternehmen wie OpenAI vor, ihre urheberrechtlich geschützten Texte, Bilder etc. unerlaubt als Trainingsdaten genutzt zu haben.
Auch interessant: Netflix verfälscht originales Bildmaterial in Dokumentation
Mit Deepfakes gegen Sprachbarrieren
Es gibt jedoch auch zahlreiche positive Einsatzmöglichkeiten von Deepfakes. Beispielsweise testet Spotify die Funktion Voice Translation, bei der eine KI die Stimmen von Podcastern täuschend echt imitiert und in eine andere Sprache übersetzt. Diese Funktion ist zwar bisher nur für einzelne große Podcasts verfügbar, könnte aber theoretisch dabei helfen, globale Sprachbarrieren abzubauen. Einen ähnlichen Beitrag leisten Apps wie HeyGen, die nicht nur übersetzen, was ein Sprecher in die Kamera spricht, sondern auch noch Stimme und Gesichtsmimik anpassen.
Eine andere, eher spielerische Anwendung findet sich in der Ahnenforschung. Auf X teilen Nutzerinnen und Nutzer zahllose KI-Animationen, die von einem Ahnenforschungsportal stammen. Das Unternehmen bietet seinen Kundinnen und Kunden die Möglichkeit, selbst hochgeladene Porträts mit Kopf- und Augenbewegungen und hier und da auch mit einem Lächeln zu animieren. Das Ganze nennt sich Deep Nostalgia und funktioniert auch mit Gesichtern von Gemälden oder Plastiken. Wer also ein altes Familienfoto zum Leben erwecken möchte, kann das mithilfe von KI tun.
Lesen Sie auch: 12 wichtige Begriffe im Bereich KI und was sie bedeuten
„Nudify“-Apps Missbrauch mit KI-generierten Nacktbildern nimmt zu – Anwalt klärt über Rechte auf
KI-generierte Bilder Taylor Swift Opfer von pornografischen Deepfakes – so reagiert X
Künstliche Intelligenz Wie diese Website täuschend echte Fake-Gesichter erzeugt
Steigender Missbrauch durch Deepfakes
Deepfakes mögen zwar eine technische Errungenschaft sein, doch sie werden auch zunehmend für Betrug, Verleumdung und Pornografie eingesetzt. Beispielsweise kann man Phishing-Benachrichtigungen mithilfe von KI zunehmend überzeugender gestalten. Auch Telefonanrufe mit den gefälschten Stimmen von Verwandten sind längst kein Hexenwerk mehr. Hinzu kommt, dass sich erst langsam ein Bewusstsein für die großen Möglichkeiten von Deepfakes entwickelt. Besonders gut gemachte Video-Deepfakes überzeugen Personen leicht, wenn diese nicht für die Gefahren sensibilisiert sind.
Ein blühendes Geschäftsfeld ist außerdem der Bereich Deepfake-Pornografie. Angefangen bei Software-Anbietern, die spezifische KI-Generatoren zur Verfügung stellen, über pornografische Verbreitungsplattformen, schlecht regulierte soziale Netzwerke und Google-Suchen. Der Nutzer-Anteil von sogenannten Nudify-Apps ist zuletzt stark angestiegen und immer wieder landen Fälle von nicht einvernehmlich erstellter und verbreiteter Deepfake-Pornografie in den Schlagzeilen. Betroffen sind nicht nur Stars wie Taylor Swift, sondern auch „gewöhnliche“ Mädchen und Frauen – mit verheerenden persönlichen Folgen.
So groß das Potenzial von Deepfakes und die Begeisterung an der Leistungsfähigkeit von KIs auch sind, braucht es doch klar Regulierungen, die Missbrauch und Betrug effektiv verhindern. Noch aber scheint sich die Technik deutlich schneller zu entwickeln als die gesetzlichen Rahmenbedingungen.