Wer haftet, wenn der Chatbot fantasiert?
Rund ums Thema künstliche Intelligenz ist rechtlich noch vieles unklar. Was klar ist: Bei Chatbots schieben die Firmen ihre Verantwortung auf die Konsumenten ab.
Veröffentlicht am 2. Juni 2025 - 14:57 Uhr
Was geschieht, wenn der Chatbot falsche Angaben macht?
In der Schweiz gibt es kein Gesetz, das künstliche Intelligenz gesamthaft regelt. Auch einen Bundesgerichtsentscheid gibt es nicht. Vieles ist also noch unklar.
Erst kürzlich berichtete der Beobachter über einen Fall, in dem der Chatbot von Ricardo eine falsche Auskunft gegeben hatte. Auch der «Tages-Anzeiger» machte einen Fall öffentlich, in dem sich der Salt-Chatbot geirrt hatte. Weder Ricardo noch Salt wollten für den Fehler einstehen. Beide Unternehmen machten geltend, dass sie ihre Haftung in den allgemeinen Geschäftsbedingungen ausgeschlossen hätten.
Ist es so einfach? Der Beobachter beantwortet die wichtigsten Fragen rund ums Thema Haftung und künstliche Intelligenz.
Dürfen Firmen die Haftung ausschliessen?
Ja, das dürfen sie. Es gibt sogar einen Gesetzesartikel dazu. Artikel 100 des Obligationenrechts hält fest, dass man die Haftung ausschliessen kann. Nur wer grobe Fehler macht, haftet trotzdem.
Grob fahrlässig könnte beispielsweise ein Unternehmen handeln, das einen Chatbot anbietet, der auf einfache und klare Fragen wiederholt falsche Antworten gibt.
Reicht ein Haftungsausschluss in den allgemeinen Geschäftsbedingungen?
Ja. Die Haftung kann man auch über die allgemeinen Geschäftsbedingungen (AGB) ausschliessen, auch wenn diese normalerweise niemand liest. Man könnte sich allerdings fragen, ob man die Chatbot-Nutzungsbedingungen nicht vorab akzeptieren müsste – also bevor man überhaupt beginnt, mit der künstlichen Intelligenz zu chatten. Oder ob die Firmen im Chatfenster einen Hinweis auf die AGB oder den Haftungsausschluss platzieren müssten.
Ähnliche Bestimmungen gelten bereits bei Onlinekäufen. Gemäss der sogenannten Button-Lösung muss der Preis – als wesentlicher Vertragsbestandteil – in unmittelbarer Nähe des Bestell-Buttons platziert sein. Warum also nicht auch ein Hinweis auf einen Haftungsausschluss, wenn es um Auskunft und Informationen geht?
Gibt es Urteile aus dem Ausland?
Das erste Urteil, das sich mit einem Chatbot auseinandergesetzt hat, kommt aus Kanada. Dort fragte ein Kunde den Chatbot der Fluglinie Air Canada nach einem Rabatt. Seine Grossmutter war gestorben, und er wollte kurzfristig ein Ticket buchen. Tatsächlich gibt es Fluggesellschaften, die den Kundinnen in solchen Situationen entgegenkommen.
Der Chatbot riet dem trauernden Enkel, ein Ticket zum Normalpreis zu buchen und sich für den Rabatt später bei Air Canada zu melden. Ein Fehler. Der Kunde hätte das vergünstigte Ticket schon vor Abflug kaufen müssen. Die Airline wollte ihm keinen Rabatt gewähren.
Das Gericht sah das anders. Es hielt fest, dass das Unternehmen für Informationen seines Chatbots haftet – genauso wie für die Informationen auf der Website.
- «Tages-Anzeiger»: Wer haftet, wenn der Chatbot eine falsche Auskunft gibt?
- Fedlex: Obligationenrecht, Wegbedingung der Haftung, Art. 100
- Schiedsgericht British Columbia, Kanada: Moffatt v. Air Canada, 2024 BCCRT 149 (CanLII)
- Hintergrundgespräch: Martin Steiger, Experte für Recht im digitalen Raum