27. April 2024, 8:40 Uhr | Lesezeit: 6 Minuten
Mithilfe von Künstlicher Intelligenz (KI) kann man heutzutage Bilder bearbeiten oder sogar komplett erstellen. Die Technologie dahinter wird immer besser, wenn man weiß, worauf man achten muss, kann man aber trotzdem oft noch erkennen, ob ein Bild echt oder eben KI-generiert beziehungsweise -bearbeitet ist. TECHBOOK verrät, auf welche Stellen und Aspekte Sie besonders achten sollten.
Ist dieses Bild echt oder eine Fälschung? Diese Frage müssen sich Internetnutzer inzwischen immer häufiger stellen. Dabei kann es sich um vermeintlich „harmlose“ Fälle handeln wie bei den Bildern von Prinzessin Kate und ihren Kindern. Es kann aber auch generelle Fragen der Glaubwürdigkeit aufwerfen wie im Fall der scheinbar von Netflix bearbeiteten Bilder in einer True-Crime-Dokumentation. KI-bearbeitete Bilder werden aber auch zunehmend zur Desinformation eingesetzt; man kann sich also nicht mehr auf das verlassen, was man sieht. Doch wie kann man gegebenenfalls erkennen, ob ein Bild von einer KI bearbeitet wurde?
Übersicht
Von KI bearbeitete Bilder sind längst weitverbreitet
Prinzipiell muss man bei dieser Thematik natürlich unterscheiden, ob ein Bild beispielsweise komplett mittels KI erstellt wurde, beispielsweise mit Programmen wie Midjourney. Denn auch bereits lange etablierte Bearbeitungssoftware wie Photoshop setzt schon längst auf Künstliche Intelligenz, um bestimmte Effekte hervorzurufen.
Partielle Bildbearbeitung ist ein bekanntes und auch anerkanntes Mittel in der professionellen Fotografie. Eine knittrige Kleiderfalte oder Hautunreinheiten wegzuretuschieren, ist nicht nur in sozialen Netzwerken längst gängig. Problematisch wird es aber dann, wenn inhaltlich Dinge verändert und als Realität abgebildet werden.
Ein Beispiel: Man sieht in den sozialen Netzwerken das Bild eines bekannten Politikers in einer unvorteilhaften Situation, in der er etwa einer dubios aussehenden Person die Hand schüttelt. Solche Bilder werden immer häufiger generiert, um etwa politischen Gegnern zu schaden. Ebenfalls ein wiederkehrendes Beispiel: gefakte Nacktbilder großer Stars. So war etwa Taylor Swift Opfer von pornografischen Deepfakes. Und nicht nur Promis sind davon betroffen. Mit der richtigen Software, beispielsweise in sogenannten „Nudify“-Apps, kann jedes Bild im Internet so verändert werden, dass es die Person in einer völlig erfundenen Situation zeigt.
Probleme mit KI-generierten Bildern
Das ist vor allem dann heikel, wenn entsprechende Inhalte nicht als solche gekennzeichnet sind. Eigentlich müssen Publisher – genau wie übrigens auch im Textbereich – immer einen Hinweis setzen, dass KI an der Erstellung beteiligt war. Das passiert allerdings nicht immer. Und auch Privatpersonen, die ein Bild mit einem solchen Programm bearbeiten, machen das nicht immer kenntlich. Im schlimmsten Fall werden zudem die Persönlichkeitsrechte der Betroffenen verletzt und es kommt zu schlimmer Verleumdung.
Das BSI (Bundesamt für Sicherheit und Informationstechnik) beschreibt in diesem Zusammenhang mehrere problematische Szenarien:
- Überwindung von Sicherheitsverfahren
- Social Engineering
- Desinformationskampagnen
- Verleumdung
Damit Sie erkennen können, ob ein Bild echt und KI-bearbeitet ist, lohnt es sich, selbstständig auf einige Punkte zu achten.
KI-Bilder mit einigen Hinweisen erkennen
Ein guter Anlaufpunkt sind immer die Hände und Finger einer abgebildeten Person. Oft sieht die Haltung auf KI-generierten Bildern unnatürlich aus und es fehlt ein Finger – oder da ist plötzlich einer zu viel. Auch Augen sind für eine KI schwierig abzubilden. Schauen Sie deshalb genau die Lichtreflexe und auch auf die Wimpern. Auch zu perfekte Ergebnisse mit völlig symmetrischen Wimpern sind in der Regel nicht real. Apropos Licht: Schauen Sie immer genau auf die Lichtverhältnisse im Bild. Stimmen die Schatten mit dem Lichtwurf überein? Ist dieser generell realistisch? Passen auch gegebenenfalls die Reflexe auf spiegelnden Oberflächen dazu?
Weitere Hinweise bei menschlichen Objekten finden sich zudem oft bei den Haaren der Person. Ist etwa der Scheitel übermäßig stark gezeichnet? Oder kommt Ihnen die Struktur merkwürdig vor? Oft entdeckt man beim genauen Hinschauen dann auch einige Haare, die sich scheinbar verselbstständigt haben und ohne Verbindung zum Kopf im Bild „schweben“. Auch ein Blick auf den Mund der Personen kann sich lohnen. Oft ist beispielsweise der Übergang von Lippen zu Zähnen etwas unscharf oder die Zähne wirken generell zu überzeichnet.
Auf die Details kommt es an
Bei den eben genannten Hinweisen ging es ausschließlich um das Erkennen von KI-Bildern, die menschliche Personen zeigen. Das fällt den meisten etwas einfacher, weil wir es gewohnt sind, in unserem Alltag Menschen zu sehen. Unstimmige Details fallen so schneller auf. Auf dem Bild einer Eule wüssten hingegen bereits weniger Leute, welche Details gegebenenfalls ungewöhnlich oder sogar unmöglich sind.
Generell gilt aber auch hier: Augen auf für die Details. Es lohnt sich, vor allem die Stellen anzuschauen, die besonders kleinteilige Objekte zeigen wie etwas das Gefieder der Eule. Bei Landschaftsfotos können das beispielsweise auch Äste sein. So können feine Aststrukturen auf KI-generierten Bildern unnatürliche Formen und Verbindungen aufweisen. Oft treten in diesem Zusammenhang auch Probleme mit Kontrast und Klarheit auf. Einzelne Strukturen sind plötzlich leicht verschwommen, wie das bei einem echten Foto nicht der Fall wäre.
Oft sind besonders feingliedrige Strukturen wir etwa Blätter oder Grashalme zudem sehr repetitiv. Es kann also sein, dass man bestimmte Ausschnitte immer wieder sieht. Lichtverhältnisse sind auch in diesem Fall ein guter Hinweis, um KI-Bilder zu erkennen. Verweisen Lichtstrahlen wirklich auf ein gemeinsames Zentrum? Ergibt der Schattenwurf in diesem Zusammenhang Sinn?
Aktuell ist es beispielsweise auch so, dass Künstliche Intelligenz generell Probleme mit der korrekten Darstellung von Schrift und anderen Zeichen hat. Diese wirken oft etwas verwaschen oder ergeben sogar überhaupt keinen Sinn. Sehen Sie also in einem Bild im Hintergrund Ziffern oder Zeichen, dann zoomen Sie nach Möglichkeit näher heran und begutachten Sie den Bildausschnitt genau.
Zunehmendes Phänomen Wie erkenne ich KI-generierte Menschen in Videos?
Skandal um KI-Einsatz Netflix verfälscht originales Bildmaterial in Dokumentation
Künstliche Intelligenz Möglichkeiten und Gefahren von Deepfakes
Weitere Maßnahmen zum Erkennen von KI-Bildern
Neben diesen Hinweisen, die man in den Bildern selbst finden kann, kann man zudem auch abseits dessen etwas recherchieren, um den Ursprung eines Bildes zu verifizieren. Haben Sie das Bild beispielsweise in einem sozialen Medium gefunden, dann werfen Sie einen Blick auf das Profil, das es gepostet hat. Findet man dort ähnliche Bilder und wenn ja, in welcher Qualität?
Ist auf einem solchen Bild etwa eine bekannte Person zu sehen, kann man auch die Nachrichten checken. Berichten etwa seriöse Medien über die gezeigten Vorkommnisse? Es lohnt sich auch, das Bild zu speichern und dann über die Einstellungen die Meta-Daten zu checken. Aus diesen sind unter anderem der Entstehungszeitpunkt und der Urheber ersichtlich. KI-Programme wie DALL-E kennzeichnen ihre Bilder dort auch entsprechend. Eine weitere Möglichkeit, KI-Bilder zu erkennen, ist die Rückwärtssuche bei Google. Damit können Sie herausfinden, wer ein Bild zuerst gepostet hat und wo es sonst noch zu finden ist.
Das alles setzt allerdings voraus, dass man sich permanent kritisch mit dem Gesehenen auseinandersetzt. Man kann sich eben nicht mehr darauf verlassen, dass das Abgebildete wirklich die Realität widerspiegelt. Experten gehen davon aus, dass die Verwendung von KI-Bildern noch deutlich zunehmen wird. Deshalb ist es wichtig, auf gewisse Hinweise zu achten und stets die Sinnhaftigkeit eines Bildes und einer Information zu hinterfragen.
Ein wichtiger Hinweis an dieser Stelle: KI-Technologie entwickelt sich zurzeit sehr schnell. Das gilt auch für Bild-KI. Details, die vor einigen Monaten noch offensichtlich als unecht zu erkennen waren, wirken heute bereits deutlich realistischer. Deshalb sind die genannten Hinweise keine Garantie dafür, ein KI-generiertes Bild auch direkt als solches zu erkennen.