Wer haftet, wenn KI im Marketing einen Fehler macht – und warum das eine Führungsfrage ist
KI macht den Fehler, aber das Unternehmen unterschreibt ihn. Wer haftet, wenn ein Sprachmodell falsche Inhalte ausspielt? Die Antwort ist juristisch klar und organisatorisch oft ungeklärt.
Im Februar 2024 musste die kanadische Fluggesellschaft Air Canada vor Gericht eine Niederlage hinnehmen, die sich in der Rückschau wie eine Lehrstunde liest.
Ihr Chatbot hatte einem Kunden falsche Auskunft über Sondertarife gegeben. Das Unternehmen verweigerte die Erstattung und versuchte im Prozess eine bemerkenswerte Verteidigungslinie: Der Chatbot sei keine Stimme des Unternehmens, sondern eine eigenständige juristische Person, verantwortlich für ihre eigenen Aussagen. Das Schiedsgericht in British Columbia folgte dieser Argumentation nicht. Der Chatbot sei Teil der Unternehmenswebsite, urteilte das Gericht. Was dort steht, steht im Namen von Air Canada – unabhängig davon, ob ein Mensch oder eine Maschine es formuliert hat (Moffatt v. Air Canada, 2024 BCCRT 149).
Das ist keine Kuriosität aus einem anderen Rechtsraum. Es ist ein Vorbote.
Die eigentliche Frage ist keine rechtliche
Dass KI-Fehler beim Unternehmen landen, das sie einsetzt, ist juristisch inzwischen gut belegt. Das Landgericht Kiel kam 2024 zum selben Schluss (LG Kiel, Az. 6 O 151/23). Der EU AI Act definiert Unternehmen, die KI-Systeme beruflich nutzen, ausdrücklich als Betreiber, die in eigener Verantwortung handeln (EU AI Act, Art. 3 Nr. 4, 2024). Eine KI hat keine Rechtspersönlichkeit. Sie kann nicht haften. Wer sie einsetzt, haftet stattdessen.
Das ist der rechtliche Rahmen. Er ist für Führungskräfte eigentlich keine Neuigkeit.
Die eigentlich beunruhigende Frage ist eine andere: Wer in Ihrem Unternehmen trägt gerade diese Verantwortung? Und weiß diese Person das überhaupt?
Marketingabteilungen arbeiten heute mit KI-Systemen, die Texte formulieren, Kampagnen steuern, Kundenanfragen beantworten. Die Ausgabe erscheint auf der Website, im Newsletter, im Kundenservice-Chat. Sie trägt den Namen des Unternehmens. Aber wer hat sie freigegeben? Wer hat geprüft, ob sie stimmt? Und wenn niemand geprüft hat – weil der Prozess das nicht vorsieht – wer trägt dann die Verantwortung für das Ergebnis dieser Leerstelle?
Gerichte haben dafür einen Begriff: Organisationsverschulden. Sie fragen nicht, ob die KI den Fehler gemacht hat. Sie fragen, ob das Unternehmen einen Prozess hatte, der den Fehler hätte verhindern können.
Die Illusion der Tool-Zertifizierung
Viele Unternehmen arbeiten mit der impliziten Annahme, dass der Einsatz etablierter KI-Tools ein Stück Verantwortung abgibt. Dass ein Anbieter wie OpenAI oder Microsoft für die Korrektheit seiner Modellausgaben mitverantwortlich ist. Diese Annahme hält einer Überprüfung nicht stand.
Der KI-Hersteller haftet dafür, dass das System die vertraglich vereinbarte Beschaffenheit aufweist. Ob die Ausgaben im konkreten Anwendungsfall korrekt, vollständig oder für den jeweiligen Verwendungszweck geeignet sind, ist keine Frage der Produktgarantie – das ist eine Frage der Nutzung (Kliemt.blog, 2025). Ein zertifiziertes Tool bedeutet nicht: geprüfter Output. Es bedeutet: geprüfte Architektur unter definierten Bedingungen. Was ein Marketingteam daraus macht, liegt außerhalb dieser Bedingungen.
In der Praxis bedeutet das: Wer KI-generierte Inhalte veröffentlicht – Produkttexte, Kampagnen, Kundenkorrespondenz – trifft eine redaktionelle Entscheidung. Diese Entscheidung liegt bei Menschen. Wenn sie niemand trifft, weil der Prozess sie nicht vorsieht, haftet das Unternehmen für das Ergebnis dieser Leerstelle.
Eine Marketing-Agentur erlebte das konkret: Sie hatte eine Kampagne vollständig automatisiert über eine KI-Plattform generiert und ausgespielt. Als sich herausstellte, dass einige der generierten Anzeigen diskriminierende Inhalte enthielten, haftete die Agentur – nicht wegen des KI-Fehlers selbst, sondern weil weder eine Prüfinstanz noch eine Freigabe vorgesehen war. Das Gericht wertete das als Organisationsverschulden (hortmannlaw.com, 2025).
Was das für Führungskräfte bedeutet
Die Frage „Wer haftet für die KI-Entscheidung?" ist deshalb keine Frage, die Rechtsabteilungen allein beantworten können. Sie ist eine Frage der Unternehmensorganisation – und sie landet, wenn es ernst wird, auf dem Schreibtisch der Geschäftsführung.
Zwei Punkte sind dabei besonders relevant.
Erstens: Verantwortung ist nicht delegierbar. Weder nach unten in der Hierarchie noch nach außen zu einem Softwareanbieter. Dass eine Mitarbeiterin oder ein Mitarbeiter einen KI-Output freigegeben hat, entbindet die Führungsebene nicht. Dass ein renommierter Anbieter das Modell gestellt hat, entbindet das Unternehmen nicht. Im Ernstfall wird gefragt, welche Kontrolle das Unternehmen hatte – nicht, wer das Werkzeug gebaut hat.
Zweitens: Die relevante Frage ist nicht, ob KI eingesetzt wird. Sondern ob die Verantwortungskette dafür beschrieben ist. Wer prüft KI-generierte Inhalte vor Veröffentlichung? Welche Entscheidungen darf KI autonom treffen, welche nicht? Was passiert, wenn etwas eskaliert? Diese Fragen sind keine Compliance-Aufgabe. Sie sind Führungsaufgabe.
Air Canada dachte, der Chatbot sei eine eigene Einheit. Das Gericht sah das anders. Der Chatbot war Air Canada.
Quellen
- Moffatt v. Air Canada, 2024 BCCRT 149 – Urteil des Civil Resolution Tribunal of British Columbia, Februar 2024: haufe.de
- LG Kiel, Az. 6 O 151/23, Urteil 2024: getlaw.de
- EU AI Act, Verordnung (EU) 2024/1689, Art. 3 Nr. 4: handelskammer-hamburg.de
- Kliemt.blog: „Wer haftet bei der Nutzung von KI?", Februar 2025: kliemt.blog
- hortmannlaw.com: „KI-Vertragspflichten in Agenturen – Haftung für automatisierte Fehler", 2025: hortmannlaw.com