Direkt zum Inhalt wechseln
logo Das Magazin für digitalen Lifestyle und Entertainment
Gericht in Kanada entscheidet

Airline muss für Fehler seines Kundenservice-Chatbots zahlen 

Symbolbild: Startendes Flugzeug von Air Canada vor einer Bergkette
Ein kanadisches Gericht urteilte über einen Kundenservice-Chatbot, der falsche Rabatte versprach. Foto: picture alliance / ZUMAPRESS.com | Bayne Stanley
Natalie Wetzel, TECHBOOK
Werkstudentin

20. Februar 2024, 12:11 Uhr | Lesezeit: 3 Minuten

KI-basierte Chatbots können in vielen Bereichen eine große Erleichterung und Hilfe sein. Doch wer haftet eigentlich, wenn ein Chatbot Schaden anrichtet? Ein Gericht in Kanada urteilte nun über einen Kundenservice-Chatbot, der einen Rabatt zu falschen Bedingungen versprach.

Artikel teilen

Auf den Websites vieler großer Unternehmen ist er mittlerweile Standard: Der kleine Chatbot – oft mit keckem Namen – der plötzlich aufploppt und seine Hilfe anbietet. Diese KI kann eine Entlastung für den Kundenservice sein und Nutzern schnell hilfreiche Antworten liefern. Doch auch KI machen Fehler, wie ein Fall aus Kanada zeigt. Das kürzlich gefällte Gerichtsurteil macht allerdings klar, bei wem die Verantwortung für die Fehler eines Kundenservice-Chatbots liegt.

Kundenservice-Chatbot berät mit falschen Informationen

November 2022: Wegen des Todes seiner Großmutter musste Jake Moffatt kurzfristig von Vancouver nach Toronto fliegen. Die Fluggesellschaft Air Canada bietet in solchen Fällen sogenannte „Bereavement fares“ (Trauerfall-Tarife) an, die einen Rabatt auf kurzfristig gebuchte Tickets ermöglichen. Um sich die Suche zu erleichtern, fragte Moffatt den Chatbot der Airline nach den Bedingungen dieser Trauerfall-Tarife. Er könne zunächst ein Vollpreisticket kaufen und innerhalb der nächsten 90 Tage seinen Anspruch auf teilweise Rückerstattung einreichen, so die sinngemäße Antwort der KI.

Moffatt verließ sich auf die Aussage des Kundenservice-Chatbots, kaufte zwei Flugtickets, wollte im Nachgang einen Rabatt von etwa 520 Euro geltend machen und erlebte eine böse Überraschung. Denn der Chatbot hatte sich geirrt. Wer einen Trauerfall-Tarif von Air Canada nutzen möchte, muss dies direkt beim Ticketkauf deutlich machen. Im Nachhinein gewährt die Fluggesellschaft diesen Rabatt nämlich nicht.

Air Canada haftet für alle Informationen

Vom Kundenservice-Chatbot getäuscht und von Air Canada auf seinen Kosten sitzen gelassen, zog Moffatt vor Gericht. Die zentrale Frage war dabei: Hat Air Canada das Verfahren zur Inanspruchnahme von Trauerfall-Tarifen fahrlässig falsch dargestellt – liegt also eine fahrlässige Täuschung vor? Interessanterweise verteidigt sich Air Canada mit der Behauptung, die Fluggesellschaft sei nicht für Informationen haftbar, „die von einem seiner Agenten, Bediensteten oder Vertreter – einschließlich eines Chatbots – bereitgestellt werden.“ Damit suggeriert Air Canada, „dass der Chatbot eine eigenständige juristische Person ist, die für ihre eigenen Handlungen verantwortlich ist.“

„Dies ist ein bemerkenswertes Argument“, kommentiert das Gericht – mit einem Anflug von Ironie? Tatsächlich wird sich die Frage in Zukunft wohl häufiger stellen, wer die Verantwortung für das „Handeln“ von KI übernimmt. In diesem Fall aber verzichtet das Gericht auf eine ausufernde Diskussion über den juristischen Status von Chatbots und gibt stattdessen eine simple wie einleuchtende Antwort: „Auch wenn ein Chatbot eine interaktive Komponente hat, ist er doch nur ein Teil der Website von Air Canada. Es sollte für Air Canada klar sein, dass es für alle Informationen auf seiner Website verantwortlich ist. Es macht keinen Unterschied, ob die Informationen von einer statischen Website oder einem Chatbot stammen.“

Mehr zum Thema

(Kundenservice-)Chatbots müssen verlässliche Informationen liefern

Letztlich bedeutet das, dass sich Kundinnen und Kunden auf die Aussagen von Kundenservice-Chatbots verlassen können müssen. In dem Gerichtsprozess dürften Jake Moffatt zudem die Screenshots geholfen haben, die er von seiner Unterhaltung mit dem Chatbot gemacht hat. Eine Pflicht der Kundinnen und Kunden, die Informationen, die eine Unternehmens-KI bereitstellt, noch einmal zu verifizieren, sieht das Gericht dagegen nicht.

Finanziell gesehen ging es in dem Fall Moffatt v. Air Canada um Kleinigkeiten – zumindest aus Unternehmensperspektive. 812,02 kanadische Dollar, etwa 558 Euro, Schadensersatz und Gerichtsgebühren muss die Airline Moffatt nun zahlen.

Themen Künstliche Intelligenz News Recht
Technik-Angebote entdecken bei kaufDA
Logo KaufDA
Anzeige
Deine Datensicherheit bei der Nutzung der Teilen-Funktion
Um diesen Artikel oder andere Inhalte über Soziale- Netzwerke zu teilen, brauchen wir deine Zustimmung für diesen .
Sie haben erfolgreich Ihre Einwilligung in die Nutzung dieser Webseite mit Tracking und Cookies widerrufen. Sie können sich jetzt erneut zwischen dem Pur-Abo und der Nutzung mit personalisierter Werbung, Cookies und Tracking entscheiden.