Direkt zum Inhalt wechseln
logo Das Magazin für digitalen Lifestyle und Entertainment
Optische Täuschung

Googles Künstliche Intelligenz verwechselt Schildkröte mit Gewehr

Schildkröte im Wasser
Objekte, die für den Menschen einfach zu erkennen sind, stellen KI-Systeme oft noch vor Herausforderungen. Foto: Getty Images
TECHBOOK Logo
TECHBOOK Redaktion

10. November 2017, 14:03 Uhr | Lesezeit: 3 Minuten

Unser Alltag wird immer mehr von Computern bestimmt. Wie leicht diese sich austricksen lassen, zeigen nun Forscher in den USA – mit einer optischen Täuschung für Googles Künstliche Intelligenz.

Artikel teilen

Eigentlich sind Computer da, um uns das Leben zu erleichtern: Selbsteinparkende Autos sollen uns langwieriges Umherrangieren ersparen, automatische Gesichtserkennung das Freischalten unserer Smartphones vereinfachen und digitale Assistenten wie Siri und Alexa uns mit Infos und Tipps für den Alltag versorgen. Doch so gut Computersysteme die menschlichen Hirnfunktionen auch imitieren können, in manchen Angelegenheiten sind sie uns bis heute unterlegen – denn auch die ausgeklügeltsten Algorithmen und fortschrittlichsten künstlichen neuronalen Systeme lassen sich austricksen.

Google-KI hält Schildkröte für Gewehr

So haben Sicherheitsforscher des Massachusetts Institute of Technology (MIT) nun bewiesen, dass sie mit geringem Aufwand die Künstliche Intelligenz (KI) von Google austricksen können – mit schwerwiegenden Folgen. Für ihre Versuchsreihe druckten die Forscher ein 3D-Modell einer gewöhnlichen Schildkröte. Während das KI-System das Tier ursprünglich problemlos erkennen konnte, reichten bereits kleine optische Änderungen, um es zu verwirren: Die augenscheinlich ganz normale Schildkröte wurde plötzlich als Gewehr identifiziert.

Youtube Platzhalter
An dieser Stelle findest du Inhalte von Drittanbietern
Um mit Inhalten von Drittanbietern zu interagieren oder diese darzustellen, brauchen wir deine Zustimmung.

Um die optische Täuschung für Googles Bilderkennungsprogramm Inception-v3 zu erschaffen, mussten die Forscher lediglich die Farbe des Schildkröten-Modells etwas ändern. Für das menschliche Auge ist dieser Unterschied kaum zu erkennen, für das KI-System, das Pixel nutzt, um Formen und letztendlich Objekte identifizieren zu können, machten die Änderungen jedoch einen großen Unterschied. Wie gefährlich diese als „Adversarial Examples” bezeichneten Manipulationen theoretisch sein können, ist bereits seit 2013 bekannt. Das aktuelle Experiment ist jedoch der erste Fall, in dem es gelang, ein KI-System in der Praxis mit einem dreidimensionalen Objekt zu überlisten. Ein ähnlicher Test gelang dem Forschungsteam mit einem Baseball, der von dem Bilderkennungsprogramm als Espresso identifiziert wurde.

Mehr zum Thema

„Echter Grund zur Sorge“

„Das beweist endgültig, dass Adversarial Examples ein echter Grund zur Sorge sind, denn sie könnten alltägliche KI-Systeme manipulieren. Daher müssen wir herausfinden, wie wir uns dagegen schützen können”, erklärt Forscher Anish Athalye vom ausführenden LabSix am MIT gegenüber Motherboard. Konkrete Gefahren könnten etwa entstehen, indem bei selbstfahrenden Autos die Erkennung von Straßenschildern manipuliert wird. Mit präparierten Koffern könnten Angreifer außerdem die Sicherheitsscanner in Flughäfen austricksen und gefährliche Objekte schmuggeln – denn genauso wie eine harmlose Schildkröte mit ein wenig Arbeit in eine gefährliche Schusswaffe verwandelt werden kann, ist auch das Gegenteil möglich.

Top-Artikel zum Thema
google-verstecken

Bei ihren Untersuchungen hatten die Forscher des MIT jedoch einen entscheidenden Vorteil gegenüber anderen Angreifern: Sie hatten selbst Zugriff auf den von ihnen attackierten Algorithmus und konnten seine Schwachstellen somit einfach herausfinden, untersuchen und ausnutzen. Wie Quartz berichtet, sollen nun auch weitere Experimente mit unbekannten Systemen folgen.

Themen Google Künstliche Intelligenz

Sie haben erfolgreich Ihre Einwilligung in die Nutzung unseres Angebots mit Tracking und Cookies widerrufen. Damit entfallen alle Einwilligungen, die Sie zuvor über den (Cookie-) Einwilligungsbanner bzw. über den Privacy-Manager erteilt haben. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit Tracking und Cookies entscheiden.

Bitte beachten Sie, dass dieser Widerruf aus technischen Gründen keine Wirksamkeit für sonstige Einwilligungen (z.B. in den Empfang von Newslettern) entfalten kann. Bitte wenden Sie sich diesbezüglich an datenschutz@axelspringer.de.