Wer haftet bei Fehlern von KI-Systemen?

Wer trägt die Verantwortung, wenn KI falsche Entscheidungen trifft oder Schäden verursacht?

29.05.2025

Blog Cover Image
Blog Cover Image
Blog Cover Image

Mit dem zunehmenden Einsatz von Künstlicher Intelligenz rückt eine zentrale Frage in den Fokus von Geschäftsleitungen und Aufsichtsgremien: Wer trägt die Verantwortung, wenn KI falsche Entscheidungen trifft oder Schäden verursacht?

Die kurze Antwort lautet: Nicht die KI – sondern immer ein Mensch oder ein Unternehmen.

KI haftet nicht

Nach europäischem Recht ist Künstliche Intelligenz kein Rechtssubjekt. Sie kann weder verantwortlich handeln noch haftbar gemacht werden. Unabhängig vom Automatisierungsgrad bleibt die Verantwortung stets bei natürlichen oder juristischen Personen, die KI einsetzen, betreiben oder in Verkehr bringen.

Grundprinzip der Haftung

Die Haftung orientiert sich nicht daran, wer den Fehler technisch verursacht hat, sondern daran, wer die Kontrolle, Auswahl oder Nutzung des Systems verantwortet. Der EU AI Act verstärkt dieses Prinzip, ersetzt aber bestehende Haftungsregeln nicht.

Blog Image - 1
Blog Image - 1
Blog Image - 1

Wer konkret haftet – je nach Konstellation

Das Unternehmen als Betreiber

In der Praxis liegt die Hauptverantwortung fast immer beim Unternehmen, das das KI-System einsetzt. Das gilt insbesondere dann, wenn die KI Entscheidungen vorbereitet, Prozesse steuert oder Ergebnisse liefert, auf deren Basis gehandelt wird.

Fehlende Kontrolle, unzureichende Dokumentation oder unklare Zuständigkeiten können als Organisationsverschulden gewertet werden.

Geschäftsführung und Management

Geschäftsführer und Vorstände haften nicht für jeden einzelnen Fehler, aber sehr wohl für mangelnde Aufsicht, fehlende Governance oder unzureichende Risikobewertung. KI wird damit zu einem klassischen Thema der Unternehmensleitung – vergleichbar mit IT-Sicherheit oder Compliance.

Hersteller und Anbieter von KI-Systemen

Anbieter haften dann, wenn ein Fehler auf Produktmängel, fehlerhafte Modelle oder unzureichende Sicherheit zurückzuführen ist. Voraussetzung ist jedoch, dass das System vertragsgemäß und bestimmungsgemäß eingesetzt wurde.

Sobald Unternehmen KI anpassen, weitertrainieren oder anders nutzen als vorgesehen, verschiebt sich die Haftung regelmäßig zurück zum Anwender.

Mitarbeiter und Anwender

Einzelne Mitarbeiter haften in der Regel nicht persönlich, solange sie im Rahmen ihrer Aufgaben handeln. Entscheidend ist, ob klare Vorgaben, Schulungen und Kontrollmechanismen existieren. Fehlen diese, liegt das Risiko erneut auf Unternehmensebene.

„Human in the Loop“ schützt nicht automatisch

Oft wird angenommen, dass eine menschliche Endentscheidung die Haftung reduziert. Das ist nur bedingt richtig.

Wenn Entscheidungen faktisch auf KI-Empfehlungen beruhen und diese nicht realistisch überprüfbar sind, kann sich ein Unternehmen nicht darauf berufen, dass „ein Mensch am Ende entschieden hat.

Entscheidend ist nicht die formale Freigabe, sondern die tatsächliche Kontrollfähigkeit.

Blog Image - 2
Blog Image - 2
Blog Image - 2

Neue Anforderungen durch den EU AI Act

Der EU AI Act verschärft die Lage indirekt. Er führt keine neue Haftung ein, erhöht aber die Erwartung an Nachvollziehbarkeit, Dokumentation und Risikomanagement.

Fehlt diese Struktur, wird es im Schadensfall deutlich schwerer, die eigene Sorgfaltspflicht nachzuweisen.

Wann Haftungsrisiken real werden

Haftungsfragen werden nicht bei experimentellen Tests relevant, sondern dann, wenn KI:

– produktiv eingesetzt wird

– Geschäftsprozesse beeinflusst

– Entscheidungen vorbereitet oder automatisiert

– mit sensiblen oder kritischen Daten arbeitet

– externen Einfluss hat (Kunden, Partner, Öffentlichkeit)

Ab diesem Punkt ist KI kein IT-Thema mehr, sondern ein Governance- und Managementthema.

Fazit

Bei KI-Fehlern haftet nicht die Technologie, sondern die Organisation dahinter. Verantwortung entsteht dort, wo KI eingesetzt, gesteuert oder nicht ausreichend kontrolliert wird.

Unternehmen, die frühzeitig klare Zuständigkeiten, Transparenz und Steuerungsmechanismen schaffen, reduzieren nicht nur regulatorische Risiken – sie sichern auch ihre Entscheidungsfähigkeit in einer zunehmend KI-gestützten Realität.

Blog Image - 4
Blog Image - 4

Newsletter abonnieren

Newsletter abonnieren

Newsletter abonnieren