20. Februar 2024, 12:11 Uhr | Lesezeit: 3 Minuten
KI-basierte Chatbots können in vielen Bereichen eine große Erleichterung und Hilfe sein. Doch wer haftet eigentlich, wenn ein Chatbot Schaden anrichtet? Ein Gericht in Kanada urteilte nun über einen Kundenservice-Chatbot, der einen Rabatt zu falschen Bedingungen versprach.
Auf den Websites vieler großer Unternehmen ist er mittlerweile Standard: Der kleine Chatbot – oft mit keckem Namen – der plötzlich aufploppt und seine Hilfe anbietet. Diese KI kann eine Entlastung für den Kundenservice sein und Nutzern schnell hilfreiche Antworten liefern. Doch auch KI machen Fehler, wie ein Fall aus Kanada zeigt. Das kürzlich gefällte Gerichtsurteil macht allerdings klar, bei wem die Verantwortung für die Fehler eines Kundenservice-Chatbots liegt.
Kundenservice-Chatbot berät mit falschen Informationen
November 2022: Wegen des Todes seiner Großmutter musste Jake Moffatt kurzfristig von Vancouver nach Toronto fliegen. Die Fluggesellschaft Air Canada bietet in solchen Fällen sogenannte „Bereavement fares“ (Trauerfall-Tarife) an, die einen Rabatt auf kurzfristig gebuchte Tickets ermöglichen. Um sich die Suche zu erleichtern, fragte Moffatt den Chatbot der Airline nach den Bedingungen dieser Trauerfall-Tarife. Er könne zunächst ein Vollpreisticket kaufen und innerhalb der nächsten 90 Tage seinen Anspruch auf teilweise Rückerstattung einreichen, so die sinngemäße Antwort der KI.
Moffatt verließ sich auf die Aussage des Kundenservice-Chatbots, kaufte zwei Flugtickets, wollte im Nachgang einen Rabatt von etwa 520 Euro geltend machen und erlebte eine böse Überraschung. Denn der Chatbot hatte sich geirrt. Wer einen Trauerfall-Tarif von Air Canada nutzen möchte, muss dies direkt beim Ticketkauf deutlich machen. Im Nachhinein gewährt die Fluggesellschaft diesen Rabatt nämlich nicht.
Air Canada haftet für alle Informationen
Vom Kundenservice-Chatbot getäuscht und von Air Canada auf seinen Kosten sitzen gelassen, zog Moffatt vor Gericht. Die zentrale Frage war dabei: Hat Air Canada das Verfahren zur Inanspruchnahme von Trauerfall-Tarifen fahrlässig falsch dargestellt – liegt also eine fahrlässige Täuschung vor? Interessanterweise verteidigt sich Air Canada mit der Behauptung, die Fluggesellschaft sei nicht für Informationen haftbar, „die von einem seiner Agenten, Bediensteten oder Vertreter – einschließlich eines Chatbots – bereitgestellt werden.“ Damit suggeriert Air Canada, „dass der Chatbot eine eigenständige juristische Person ist, die für ihre eigenen Handlungen verantwortlich ist.“
„Dies ist ein bemerkenswertes Argument“, kommentiert das Gericht – mit einem Anflug von Ironie? Tatsächlich wird sich die Frage in Zukunft wohl häufiger stellen, wer die Verantwortung für das „Handeln“ von KI übernimmt. In diesem Fall aber verzichtet das Gericht auf eine ausufernde Diskussion über den juristischen Status von Chatbots und gibt stattdessen eine simple wie einleuchtende Antwort: „Auch wenn ein Chatbot eine interaktive Komponente hat, ist er doch nur ein Teil der Website von Air Canada. Es sollte für Air Canada klar sein, dass es für alle Informationen auf seiner Website verantwortlich ist. Es macht keinen Unterschied, ob die Informationen von einer statischen Website oder einem Chatbot stammen.“
Erstmals bei einer deutschen Bank DKB stellt Kundensupport komplett um! Das sind die Folgen für Bankkunden
Nutzer von Google Gemini „fast vergiftet“ Vorsicht beim Kochen mit KI – Anleitungen sind nicht immer sicher
Dienste werden schlauer Die KI-Neuheiten von Googles Entwicklerkonferenz
(Kundenservice-)Chatbots müssen verlässliche Informationen liefern
Letztlich bedeutet das, dass sich Kundinnen und Kunden auf die Aussagen von Kundenservice-Chatbots verlassen können müssen. In dem Gerichtsprozess dürften Jake Moffatt zudem die Screenshots geholfen haben, die er von seiner Unterhaltung mit dem Chatbot gemacht hat. Eine Pflicht der Kundinnen und Kunden, die Informationen, die eine Unternehmens-KI bereitstellt, noch einmal zu verifizieren, sieht das Gericht dagegen nicht.
Finanziell gesehen ging es in dem Fall Moffatt v. Air Canada um Kleinigkeiten – zumindest aus Unternehmensperspektive. 812,02 kanadische Dollar, etwa 558 Euro, Schadensersatz und Gerichtsgebühren muss die Airline Moffatt nun zahlen.