Direkt zum Inhalt wechseln
logo Das Magazin für digitalen Lifestyle und Entertainment
Nutzer von Google Gemini „fast vergiftet“

Vorsicht beim Kochen mit KI – Anleitungen sind nicht immer sicher

Mann versucht sich am Kochen mit KI
Beim Kochen mit KI ist Vorsicht geboten. Denn offenbar können Gemini und Co. in ihren Anleitungen Fehler mit womöglich schweren Folgen unterlaufen. Foto: Getty Images
Freie Redakteurin

21. Juni 2024, 12:15 Uhr | Lesezeit: 5 Minuten

Kochrezepte gibt es im Internet zuhauf, und darunter längst auch solche, die mithilfe von Künstlicher Intelligenz (KI) geschrieben wurden. Darüber hinaus ermöglichen auf der Technologie basierende Bots wie Google Gemini oder ChatGPT, konkrete Fragen zu Gerichten und deren Zubereitung zu stellen. Doch die Antworten sind mit höchster Vorsicht zu genießen. TECHBOOK geht genauer auf die Tücken beim Kochen mit KI ein.

Artikel teilen

Für die Dienste einer KI gibt es in der Küche zahlreiche sinnvolle Anwendungsgebiete. So verfügt etwa ChatGPT über den Modus Pantry Chef: einen „virtuellen Koch“, erklärt der Chatbot, „der Rezepte aus Ihrer Speisekammer kreiert“. Das kann hilfreich sein, wenn man mal nicht weiß, was man aus vorrätigen Zutaten zubereiten könnte. Ebenso, wenn man schon eine ungefähre Idee hat, sich bei der Ausführung aber noch nicht ganz sicher ist, lässt sich die KI zurate ziehen. Ein Nutzer von Google Gemini will genau das getan haben – und nun von Glück reden können, das Produkt der Anleitung nicht probiert zu haben.

Kochanleitung von Gemini hätte zu Vergiftung führen können

„Google Gemini hat versucht, mich zu töten.“ So dramatisch betitelt ein Nutzer mit dem Namen Puzzleheaded_Spot401 seinen Erfahrungsbericht bei der Plattform „Reddit“. Er habe die Google-KI gefragt, ob er Olivenöl mit Knoblauch versetzen könnte, ohne das Ganze zu erhitzen – er wollte ein aromatisiertes Speiseöl herstellen. Gemini bejahte das ausdrücklich und stellte dem Nutzer zudem eine ausführliche Schritt-für-Schritt-Anleitung zur Verfügung. Diese sah vor, den geschälten Knoblauch zusammen mit Olivenöl in ein Einmachglas zu geben und bei Zimmertemperatur durchziehen zu lassen. Den Behälter zwischendurch ein wenig zu schütteln könne laut den Vorgaben dabei helfen, dass sich das Aroma gut verteilt. Nach einer Woche sollte man das Öl durch ein dünnes Tuch sieben und in einen sauberen Behälter umfüllen. Es halte nun für mehrere Wochen, so Gemini.

Der Nutzer habe die Schritte befolgt, berichtet er auf „Reddit“. Doch nach drei bis vier Tagen bemerkte er innerhalb des Einmachglases das Aufsteigen kleiner Kohlensäurebläschen. „Es stellte sich heraus, dass ich eine Botulismus-Kultur gezüchtet hatte“, erklärt er. Wie er zwischenzeitlich herausgefunden habe, sei das eine verbreitete Gefahr beim Einlegen von Gemüse und speziell Knoblauch in Olivenöl.

Nervengifte, die schwere Erkrankungen auslösen können

Tatsächlich. Auch das Bundesministerium für Risikobewertung (BfR) geht auf seiner Website auf die gesundheitlichen Risiken ein, die „selbst hergestellte Kräuteröle und in Öl eingelegtes Gemüse“ bergen sollen. Demnach bieten „Bedingungen ohne Anwesenheit von Sauerstoff“, wie sie also etwa in einem luftdicht verschlossenen Behälter herrschen, ein ideales Milieu für das Bakterium Clostridium (C.) botulinum, und aus diesem können Nerventoxine entstehen. Nehmen Menschen diese Gifte über die Nahrung auf – das geschehe besonders häufig über verdorbenes Fleisch und Fisch –, können sie sich mit Botulismus infizieren. Dabei handelt es sich um eine schwerwiegende Erkrankung, die über Übelkeit und Erbrechen bis hin zu Doppelsehen sowie „Atemlähmung und Ersticken bei vollem Bewusstsein“ führen können.

Puzzleheaded_Spot401 sei entsprechend froh, die Entwicklung seines Kräuteröls zwischendurch kontrolliert zu haben. Andernfalls hätte er es wohl nichts ahnend serviert und seine „gesamte Familie hätte sich den Tod geholt“.

Nicht die erste falsche Empfehlung von Google Gemini

Dass einer KI mal Fehler unterlaufen können, ist wohl nicht weiter verwunderlich. Programme wie Gemini ziehen sich Daten an verschiedensten Stellen im Netz. Anders als Suchmaschinen, die verschiedene Lösungen präsentieren, fassen sie die gefundene Ergebnisse zu einer scheinbar ultimativen Antwort zusammen. Letztendes ist diese aber nur das, was sie selbst auf einem für sich selbst entwickelten Weg und – ohne tatsächlichen (Menschen-)Verstand – für richtig erachtet hat.

So konnte es kürzlich etwa passieren, dass die Google-KI einem Nutzer die Verwendung von Kleber empfahl, damit auf seiner DIY-Pizza der Käse besser halte (TECHBOOK berichtete). Grundlage hierfür war ein ursprünglich scherzhaft gemeinter Kommentar auf der Plattform „Reddit“, den der Bot offensichtlich für seriös erachtete.

Kochen mit KI – auf eigene Gefahr

Das Beispiel mit der Knoblauchöl-Anleitung ist objektiv betrachtet vielleicht das schlimmere, da hier ernsthafte Gefahren drohen und der Fehler – anders als bei der absurden Kleber-Pizza – für Laien kaum zu erahnen ist. Beim aktuellen Beispiel greift auch Googles Entschuldigung von damals nicht wirklich. Eine Sprecherin hatte dem Technik-Portal „The Verge“ erklärt, dass Fehler auf „allgemein sehr ungewöhnliche Anfragen“ zurückzuführen seien. Die Herstellung von Kräuteröl ist aber nun nicht gerade special interest.

Ein großer Haken: „LLM (Large Language Models, Anmerkung der Redaktion) geben immer eine professionell klingende Antwort“, schreibt auch ein „Reddit“-Nutzer unter Puzzleheaded_Spot401s Post. Anders als bei Menschen, denen man Unsicherheit anmerken könne, lassen die Dienste keinen Zweifel an der Verlässlichkeit ihrer Auskunft zu. Es ist somit auch schwer, eine Empfehlung auszusprechen. Diese müsste schließlich lauten, jeden harmlosen Tipp an einer vertrauenswürdigen Stelle noch einmal gegenzuchecken. Klar ist, dass man bei offiziellen Anstalten wie z. B. dem oben genannten BfR auf der sicheren Seite ist.

Wie dieser beachtliche Fehler Gemini unterlaufen konnte: fraglich. Die Existenz von Botulismus ist per se kein Geheimnis, Informationen dazu finden sich überall im Netz.

Mehr zum Thema

Knoblauchöl-Rezept von ChatGPT auch nicht sicher

TECHBOOK hat testweise ein Knoblauchöl-Rezept bei ChatGPT, dem Chatbot von OpenAI, angefragt. Hier wird sehr wohl auf die möglichen Gefahren hingewiesen – am Ende der Anleitung. „Um das Risiko von Botulismus zu vermeiden, solltest du hausgemachtes Knoblauchöl im Kühlschrank aufbewahren und innerhalb von einer Woche verbrauchen“, heißt es hier. Womöglich erst seit Bekanntwerden des Gemini-Fails?

ChatGPT schlägt verschiedene Zubereitungswege vor. Einer davon sieht das Erhitzen des Öls vor, der andere nicht. Geht es jedoch nach dem BfR, lassen Amateure das mit der Kräuteröl-Eigenherstellung am besten ganz. Denn auf Basis der in der Literatur vorliegenden Daten komme das Institut zu dem Schluss, dass die Verfahren im Privathaushalt „nicht sicherstellen können, dass die Vermehrung von Clostridium (C.) botulinum und die Bildung von Botulinumtoxin in den Produkten generell unterbunden wird“.

Themen Google Künstliche Intelligenz News
Technik-Angebote entdecken bei kaufDA
Logo KaufDA
Anzeige
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale- Netzwerke zu teilen, brauchen wir deine Zustimmung für diesen .
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.