Ein bemerkenswerter Gerichtsfall
In einer ungewöhnlichen Auseinandersetzung vor dem Zivilentscheidungstribunal (Civil Resolution Tribunal, CRT) in British Columbia stand Air Canada im Mittelpunkt, als das Unternehmen versuchte, sich von den Fehlinformationen seines eigenen Chatbots zu distanzieren. Die überraschende Argumentation, dass der Online-Chatbot eine „separate rechtliche Einheit“ sei, sorgte für Aufsehen beim Tribunal.
Die Tragödie eines fehlgeleiteten Kunden
Im Fokus des Gerichtsverfahrens stand Jake Moffatt, dem Air Canada angewiesen wurde, 812 Dollar zu erstatten. Dieser Betrag sollte die Differenz zwischen den Tarifen für Trauerfälle und den 1.630,36 Dollar decken, die Moffatt für Flugtickets nach dem Tod seiner Großmutter gezahlt hatte. Der entscheidende Punkt dabei war, dass Moffatt sich auf die Beratung des Chatbots von Air Canada verlassen hatte, als er die Tickets kaufte.
Nachdem Moffatt bereits gereist war, versuchte er vergeblich, eine Rückerstattung zu erhalten. Das Unternehmen behauptete, dass die Tarife für Trauerfälle nicht für bereits abgeschlossene Reisen gelten, obwohl diese Information an anderer Stelle auf der Webseite zu finden war. Der Chatbot hatte jedoch das Gegenteil behauptet. Trotz Vorlage eines Screenshots mit den irreführenden Ratschlägen des Chatbots zeigte sich Air Canada wenig einsichtig.
Die Entscheidung des Tribunals
Das CRT urteilte, dass Air Canada nicht die erforderliche Sorgfalt walten ließ, um die Genauigkeit seines Chatbots zu gewährleisten. Dabei wurde betont, dass es für den Kunden unzumutbar ist, zwischen korrekten und inkorrekten Informationen auf der Webseite zu unterscheiden. Dieser Fall markiert eine Rarität in der kanadischen Rechtsprechung, da nur wenige Fälle dokumentiert sind, in denen fehlerhafte Ratschläge von Chatbots rechtlich thematisiert wurden.
Die Debatte um Unternehmensverantwortung
Moffatts Fall hebt die Diskussion um die Verantwortung von Unternehmen für die Informationen, die ihre digitalen Assistenten bereitstellen, erneut hervor. In einer Zeit, in der Chatbots und künstliche Intelligenz zunehmend in den Kundenservice integriert werden, stellt sich die Frage nach der Haftung und Sorgfaltspflicht von Unternehmen im Umgang mit diesen Technologien. Dieser Fall könnte wegweisend sein und Unternehmen dazu anregen, ihre Chatbots sorgfältig zu überwachen und sicherzustellen, dass sie genaue und konsistente Informationen liefern.