Flugreise Chatbot führt Kunde in die Irre

Ein Streit um verbilligte Flugtickets landete vor einem Zivilgericht.
Ein Streit um verbilligte Flugtickets landete vor einem Zivilgericht.

Warum Air Canada für Falschinformation haften und Rabatt gewähren muss.

In der schönen neuen Welt voller künstlicher Intelligenz (KI) wird man irgendwann rundum betreut von schlauen Computerassistenten, die einem lästige Aufgaben abnehmen und das Leben leichter machen. Das ist zumindest die Verheißung. Seit wir ChatGPT als das neueste KI-Wunderwerk kennengelernt haben, wissen wir aber auch, dass diese erstaunlichen Maschinen gelegentlich ziemlichen Unsinn verzapfen können. Ganz verlassen kann man sich nicht auf die Angaben. Wenn immer mehr Interaktion über solche Chatbots erfolgt, kann das zum Problem werden.

So geschehen bei Air Canada. Die Fluglinie setzt auf ihrer Website ein Programm ein, mit dem Kunden im Dialog Auskünfte erhalten können. Diese Sprachautomaten kennt man auch von anderen Seiten, sie entlasten die Mitarbeiter aus Fleisch und Blut in einer Telefonzentrale (und kosten die Unternehmen kein Gehalt). Sie sind häufig rudimentärer als etwa ChatGPT; wie viel KI im Fall von Air Canada drin steckt, ist nicht bekannt und nicht entscheidend.

Kunde Jake Moffatt konsultierte den Chatbot in November 2022, als er von Vancouver zur Beerdigung seiner Großmutter fliegen wollte. Air Canada bietet bei Trauerfällen Rabatte an. Der virtuelle Mitarbeiter empfahl Mister Moffatt, die Vergünstigung nachträglich innerhalb von 90 Tagen zu beantragen, wenn es schnell gehen müsse. So ging er vor, buchte für Hin- und Rückflug nach Toronto kurzfristig Tickets für jeweils um die 800 kanadische Dollar (550 Euro) und bat nur wenige Tage später um eine teilweise Rückerstattung. Es ging um etwa die Hälfte des Preises.

„Eine bemerkenswerte Einlassung“

Air Canada allerdings weigerte sich zu zahlen, im Nachhinein könne man die Spezialtarife nicht erhalten. Der Chatbot habe dazu irreführende Angaben gemacht, in seiner falschen Antwort jedoch sei ein Link zu einer anderen Internetseite mit den korrekten Buchungsbedingungen enthalten gewesen. Es gingen noch ein paar E-Mails hin und her, ohne dass es zu einer Einigung kam. Der Fall landete schließlich vor dem Civil Resolution Tribunal.

Das ist ein spezielle kanadische Schlichtungsstelle zur Beilegung ziviler Streitigkeiten, die Entscheidungen sind gerichtlich durchsetzbar. Ein mit der Sache betrauter unabhängiger Rechtsexperte des Tribunals konnte die Argumentation des Unternehmens nicht nachvollziehen, wie aus den Akten hervorgeht. Air Canada deute an, der Chatbot sei eine separate rechtliche Einheit und man sei nicht für dessen Informationen haftbar zu machen. Das sei „eine bemerkenswerte Einlassung“, befand Christopher C. Rivers. Er erachtete hingegen die Auskunft als „fahrlässige Falschdarstellung“ und sprach dem Kunden insgesamt 812 Dollar zu.

Eine Besonderheit des Civil Resolution Tribunals ist es übrigens, dass die Fälle komplett online abgewickelt werden. Erst wenn die streitenden Parteien sich nicht untereinander einigen, entscheidet ein Mitglied des Gerichts. Über den Einsatz von Chatbots ist dabei noch nichts bekannt.

x