Direkt zum Inhalt wechseln
logo Das Magazin für digitalen Lifestyle und Entertainment
Künstliche Intelligenz

Möglichkeiten und Gefahren von Deepfakes

KI-generierte Bilder sind oft nicht so einfach als solche zu erkennen.
KI-generierte Bilder sind oft nicht so einfach als solche zu erkennen. Foto: picture alliance / CHROMORANGE | Christian Ohde

10. Februar 2024, 9:12 Uhr | Lesezeit: 5 Minuten

Wie so viele KI-Produkte sind Deepfakes ein zweischneidiges Schwert. Einerseits können sie höchst unterhaltsam sein, andererseits aber auch brandgefährlich. TECHBOOK erklärt, was genau Deepfakes sind und wo die Risiken liegen.

Artikel teilen

Generative KIs können nicht nur Texte produzieren, sondern auch Bilder, Videos und Audio-„Aufnahmen“ generieren. Insgesamt bezeichnet man von KI erstelltes oder bearbeitetes – man könnte auch sagen: manipuliertes – Material als Deepfake. Mittlerweile sind viele generative KIs so leistungsfähig, dass ihre Deepfakes täuschend echt wirken. Damit entfalten sie ein großes Potenzial, sowohl für unterhaltsame Spielereien als auch für betrügerische und unlautere Absichten.

So entstehen täuschend echte Bilder

Zu den wohl bekanntesten KI-Bildgeneratoren gehören beispielsweise Dalle-E, Midjourney, Leonardo.ai, Adobe Firefly und Canva. Zunächst werden die Bildgeneratoren mit Bilddaten trainiert, zum Beispiel mit den Porträt-Fotos echter Menschen. Dann treten zwei neuronale Netzwerke gegeneinander an, um in Echtzeit das Porträt einer fiktiven Person zu generieren. Das eine neuronale Netz berechnet dabei aus all den möglichen erlernten menschlichen Merkmalen – Gesichtsformen, Hauteigenschaften und Augenfarben bis hin zu Frisuren – ein neues Gesicht.

Anschließend bewertet das zweite neuronale Netz das Ergebnis gemäß den eigenen Erfahrungswerten aus den Trainingsdaten. Besteht das Fake-Gesicht den „Realitätscheck“, wird es als fertig ausgegeben. Sonst muss das erste Netz noch einmal nacharbeiten. Das Ergebnis sind meist überzeugend echte „Fotos“. Je nach Prompt (Sprachbefehl) könnte die KI aber auch Gemälde im Stile von Frida Kahlo produzieren, ein neues Logo für TECHBOOK oder ein Filmplakat für einen fiktiven Space-Western entwerfen.

Lesen Sie auch: Missbrauch mit KI-generierten Nacktbildern nimmt zu – Anwalt klärt über Rechte auf 

Deepfakes und Desinformation

Zu mehr als 90 Prozent sind die Deepfakes so realistisch, dass man sie leicht für authentisch halten kann. So ging beispielsweise 2023 ein Bild von Papst Franziskus im weißen Daunenmantel viral, genauso wie ein „Foto“ von Donald Trumps angeblicher Verhaftung. In diesen Kontexten sind Deepfakes nicht nur eine amüsante Spielerei, sondern könnten gezielt zur Desinformation und Hetze eingesetzt werden.

Bisher gehörte zu einer guten Medienkompetenz, Collagen zu erkennen und Bilder in ihren Kontext einzuordnen – besonders dann, wenn sie zuvor aus diesem Kontext herausgerissen wurden. Mittlerweile muss man noch kritischer mit Bildern umgehen. War es schon zuvor schwierig, bestimmte Fotos, z. B. aus Kriegs- oder Krisengebieten zu verifizieren, wird das in Zukunft noch schwerer werden.

Doch auch wenn die KIs mittlerweile ziemlich gut sind, sind die Ergebnisse oft nicht perfekt. Manchmal erkennt man gefakte Bilder von Menschen an einer fehlerhaften Gesichtssymmetrie, Texturfehlern auf der Haut oder seltsamen Übergängen im Hintergrund. Gelegentlich zeigen Deepfakes Fehler bei komplexer Kleidung, sodass einer Person plötzlich ein Basecap-Schirm aus der Stirn wächst. Auch mit der richtigen Anzahl von Fingern und Zehen scheint die KI hin und wieder Probleme zu haben. Um für die Nutzerinnen und Nutzer dennoch Klarheit über die Authentizität eines Bildes oder Videos zu schaffen, hat die EU den AI Act beschlossen. Dieser sieht unter anderem vor, dass Deepfakes als solche gekennzeichnet werden müssen.

Doch selbst mit einer Kennzeichnung werden Deepfakes viele Branchen, insbesondere im kreativen Bereich, stark beeinflussen. Gerade in der Kunst-, Kultur- und Musikszene gibt es Debatten über die Bedrohung von Künstlerinnen und Künstlern durch KI-generierte Werke, die in nur wenigen Sekunden produziert werden. Außerdem werfen Kunst- und Kulturschaffende KI-Unternehmen wie OpenAI vor, ihre urheberrechtlich geschützten Texte, Bilder etc. unerlaubt als Trainingsdaten genutzt zu haben.

Auch interessant: Netflix verfälscht originales Bildmaterial in Dokumentation

Mit Deepfakes gegen Sprachbarrieren

Es gibt jedoch auch zahlreiche positive Einsatzmöglichkeiten von Deepfakes. Beispielsweise testet Spotify die Funktion Voice Translation, bei der eine KI die Stimmen von Podcastern täuschend echt imitiert und in eine andere Sprache übersetzt. Diese Funktion ist zwar bisher nur für einzelne große Podcasts verfügbar, könnte aber theoretisch dabei helfen, globale Sprachbarrieren abzubauen. Einen ähnlichen Beitrag leisten Apps wie HeyGen, die nicht nur übersetzen, was ein Sprecher in die Kamera spricht, sondern auch noch Stimme und Gesichtsmimik anpassen.

XIAOMI Redmi Pad SE

Eine andere, eher spielerische Anwendung findet sich in der Ahnenforschung. Auf X teilen Nutzerinnen und Nutzer zahllose KI-Animationen, die von einem Ahnenforschungsportal stammen. Das Unternehmen bietet seinen Kundinnen und Kunden die Möglichkeit, selbst hochgeladene Porträts mit Kopf- und Augenbewegungen und hier und da auch mit einem Lächeln zu animieren. Das Ganze nennt sich Deep Nostalgia und funktioniert auch mit Gesichtern von Gemälden oder Plastiken. Wer also ein altes Familienfoto zum Leben erwecken möchte, kann das mithilfe von KI tun.

Lesen Sie auch: 12 wichtige Begriffe im Bereich KI und was sie bedeuten

Mehr zum Thema

Steigender Missbrauch durch Deepfakes

Deepfakes mögen zwar eine technische Errungenschaft sein, doch sie werden auch zunehmend für Betrug, Verleumdung und Pornografie eingesetzt. Beispielsweise kann man Phishing-Benachrichtigungen mithilfe von KI zunehmend überzeugender gestalten. Auch Telefonanrufe mit den gefälschten Stimmen von Verwandten sind längst kein Hexenwerk mehr. Hinzu kommt, dass sich erst langsam ein Bewusstsein für die großen Möglichkeiten von Deepfakes entwickelt. Besonders gut gemachte Video-Deepfakes überzeugen Personen leicht, wenn diese nicht für die Gefahren sensibilisiert sind.

Ein blühendes Geschäftsfeld ist außerdem der Bereich Deepfake-Pornografie. Angefangen bei Software-Anbietern, die spezifische KI-Generatoren zur Verfügung stellen, über pornografische Verbreitungsplattformen, schlecht regulierte soziale Netzwerke und Google-Suchen. Der Nutzer-Anteil von sogenannten Nudify-Apps ist zuletzt stark angestiegen und immer wieder landen Fälle von nicht einvernehmlich erstellter und verbreiteter Deepfake-Pornografie in den Schlagzeilen. Betroffen sind nicht nur Stars wie Taylor Swift, sondern auch „gewöhnliche“ Mädchen und Frauen – mit verheerenden persönlichen Folgen.

So groß das Potenzial von Deepfakes und die Begeisterung an der Leistungsfähigkeit von KIs auch sind, braucht es doch klar Regulierungen, die Missbrauch und Betrug effektiv verhindern. Noch aber scheint sich die Technik deutlich schneller zu entwickeln als die gesetzlichen Rahmenbedingungen.

Themen Künstliche Intelligenz
Technik-Angebote entdecken bei kaufDA
Logo KaufDA
Anzeige
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale- Netzwerke zu teilen, brauchen wir deine Zustimmung für diesen .
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.