KI-Haftung: Rechtliche Verantwortung bei KI-Schäden in der EU
Kernaussage: KI-Haftung regelt, wer bei Schäden durch KI-Systeme rechtlich verantwortlich ist. Die EU arbeitet an einem spezifischen KI-Haftungsrahmen, der die Beweislast zu Gunsten Geschädigter verschiebt und neue Risiken für Entwickler und Deployer schafft.
Was ist KI-Haftung?
KI-Haftung bezeichnet die rechtliche Verantwortlichkeit für Schäden, die durch KI-Systeme verursacht werden. Die Frage ist komplex, weil KI-Entscheidungen schwer nachvollziehbar sind ("Black Box"), die Ursachenkette oft mehrere Beteiligte umfasst und klassische Haftungsregeln für Produkte und Dienstleistungen nicht ohne Weiteres auf autonome KI-Systeme anwendbar sind.
In der EU setzt sich der KI-Haftungsrahmen aus mehreren Schichten zusammen: dem bestehenden Produkthaftungsrecht, der überarbeiteten Produkthaftungsrichtlinie (2024), der geplanten KI-Haftungsrichtlinie sowie dem EU AI Act, der durch seine Compliance-Anforderungen indirekte Haftungsrisiken schafft.
Der EU-Haftungsrahmen für KI
Überarbeitete Produkthaftungsrichtlinie
Die 2024 überarbeitete Produkthaftungsrichtlinie dehnt den Produktbegriff explizit auf Software und KI-Systeme aus. Hersteller haften für fehlerhafte Produkte — also auch für fehlerhafte KI. Eine wichtige Neuerung: Die Beweislast kann bei besonders komplexen oder undurchsichtigen Systemen erleichtert werden.
KI-Haftungsrichtlinie (geplant)
Die geplante EU KI-Haftungsrichtlinie sieht eine verschuldensabhängige Haftung vor, kombiniert mit einer Beweislasterleichterung für Kläger: Wer einen Schaden durch ein KI-System erlitten hat und Zugang zu Beweismitteln benötigt, kann diese unter bestimmten Voraussetzungen beim Betreiber einfordern.
Haftungsrisiken durch EU AI Act
Neben direkter Haftung schafft der EU AI Act indirekte Haftungsrisiken: Unternehmen, die Compliance-Pflichten nicht einhalten, erhöhen ihr Risiko, bei einem Schadensfall haftbar gemacht zu werden.
Hauptrisikoträger
- Anbieter (Provider): Haften für fehlerhafte Modelle, mangelnde Dokumentation und nicht erfüllte Konformitätspflichten.
- Deployer: Haften für unzureichende menschliche Aufsicht, unsachgemäße Nutzung und mangelnde Mitarbeiterschulung.
- Nutzer (in B2C-Kontexten): Können bei grob fahrlässigem Umgang mit KI-Systemen mitverantwortlich sein.
Praxisbeispiele im DACH-Kontext
Finanzberater in München: Ein Vermögensberater nutzt ein KI-Tool für Anlageempfehlungen. Führt die Empfehlung zu erheblichen Verlusten, kann der Berater haftbar werden — insbesondere wenn er nicht nachweisen kann, dass er die KI-Ausgabe kritisch geprüft und den Kunden über den Einsatz von KI informiert hat.
E-Commerce-Händler in Wien: Ein Online-Händler setzt KI für dynamische Preisgestaltung ein. Wenn die KI diskriminierende Preise setzt (z. B. höhere Preise für bestimmte Postleitzahlen), drohen Haftungsrisiken nach Diskriminierungsrecht.
Wie Knowlee Haftungsrisiken reduziert
Knowlee implementiert Human-in-the-Loop-Mechanismen, die sicherstellen, dass finale Entscheidungen immer von einem Menschen getroffen werden. Vollständige Audit-Trails dokumentieren, wer wann welche KI-Empfehlung gesehen und genehmigt hat — entscheidend für die Verteidigung im Haftungsfall.
FAQ
Wer haftet bei einem Schaden durch eine KI-Empfehlung — der Anbieter oder der Nutzer? In der Regel haften beide anteilig, abhängig davon, ob der Schaden auf einem Fehler des Modells oder auf einer unsachgemäßen Nutzung beruht. Die konkrete Haftungsverteilung hängt vom Einzelfall und den vertraglichen Regelungen ab.
Kann man KI-Haftung vertraglich ausschließen? Teilweise. Haftungsausschlüsse für Vorsatz und grobe Fahrlässigkeit sind in der EU unwirksam. Auch Verbraucherrechte können nicht vertraglich eingeschränkt werden.
Wie schützt man sich als Unternehmen gegen KI-Haftungsrisiken? Durch: EU-AI-Act-Compliance, vollständige Dokumentation, menschliche Überwachung kritischer Entscheidungen, klare Verträge mit KI-Anbietern und entsprechende D&O- oder Cyber-Versicherungen.