EU AI Act: Das europäische KI-Gesetz verständlich erklärt

Kernaussage: Der EU AI Act (Verordnung 2024/1689) ist das erste umfassende KI-Gesetz weltweit. Er klassifiziert KI-Systeme nach Risikoklassen und verpflichtet Unternehmen zu Transparenz, Dokumentation und menschlicher Aufsicht — mit Bußgeldern bis 35 Mio. Euro bei Verstößen.

Was ist der EU AI Act?

Der EU AI Act ist die rechtlich verbindliche Verordnung der Europäischen Union zur Regulierung von Systemen der künstlichen Intelligenz. Er wurde am 1. August 2024 in Kraft gesetzt und gilt ab dem 2. August 2026 vollumfänglich für alle Unternehmen, die KI-Systeme im EU-Markt entwickeln, vertreiben oder einsetzen.

Als Verordnung — nicht als Richtlinie — gilt der AI Act unmittelbar in allen 27 EU-Mitgliedsstaaten, ohne nationale Umsetzungsgesetze zu erfordern. Sein extraterritorialer Wirkungsbereich erfasst auch Unternehmen außerhalb der EU, wenn ihre KI-Systeme Personen innerhalb der EU betreffen.

Die vier Risikoklassen

Inakzeptables Risiko (verboten)

Bestimmte KI-Anwendungen sind vollständig verboten, darunter: KI-basiertes Social Scoring durch Behörden, biometrische Echtzeit-Fernüberwachung in öffentlichen Räumen sowie KI, die menschliches Verhalten durch unterschwellige Techniken manipuliert. Diese Verbote gelten seit Februar 2025.

Hohes Risiko

KI-Systeme in sensiblen Bereichen wie Personalentscheidungen, Kreditvergabe, Bildungsbewertung, kritische Infrastruktur und Strafverfolgung fallen in diese Kategorie (Anhang III). Sie unterliegen strengen Pflichten: Konformitätsbewertung, technische Dokumentation, Registrierung in der EU-Datenbank, Risikomanagementsystem und menschliche Aufsicht.

Begrenztes Risiko

Systeme mit spezifischen Transparenzpflichten, vor allem Chatbots und Deepfake-Generatoren. Nutzer müssen darüber informiert werden, dass sie mit einem KI-System interagieren.

Minimales Risiko

Die große Mehrheit der KI-Anwendungen fällt hierunter (z. B. Spam-Filter, Empfehlungssysteme). Keine zwingenden Pflichten, aber freiwillige Verhaltenskodizes sind möglich.

Wichtige Fristen

Datum Geltende Bestimmungen
August 2024 Inkrafttreten
Februar 2025 Verbote für inakzeptable Risiken, KI-Kompetenzpflicht (Art. 4)
August 2025 Pflichten für GPAI-Modelle (Titel VIII)
August 2026 Vollumfängliche Anwendung aller Bestimmungen

Praxisbeispiele im DACH-Kontext

Automobilhersteller in Stuttgart: Das KI-gestützte Assistenzsystem zur Fahrzeuginspektion wird als Hochrisikosystem klassifiziert. Das Unternehmen führt eine vollständige technische Dokumentation durch und registriert das System in der EU-Datenbank für Hochrisiko-KI.

Personalberatung in Zürich: Eine Recruiting-Software, die Bewerber automatisch rankt, fällt unter Anhang III. Der Anbieter muss eine Konformitätsbewertung durchführen und sicherstellen, dass HR-Entscheider alle KI-Empfehlungen prüfen und freigeben.

Wie Knowlee den EU AI Act umsetzt

Knowlee wurde mit dem Human-in-the-Loop-Prinzip als Grundlage entwickelt — alle KI-generierten Aktionen im Vertrieb und Recruiting werden einem menschlichen Entscheider zur Freigabe vorgelegt. Die Plattform führt vollständige Audit-Trails aller KI-Entscheidungen und erfüllt damit die Dokumentationspflichten nach Artikel 12 und 26 des EU AI Acts.

FAQ

Wer muss den EU AI Act einhalten? Alle Unternehmen, die KI-Systeme im EU-Markt anbieten, einsetzen oder deren Outputs Personen in der EU betreffen — unabhängig vom Unternehmenssitz.

Welche Sanktionen drohen bei Verstößen? Bis zu 35 Mio. Euro oder 7 % des weltweiten Jahresumsatzes für Verstöße gegen verbotene Praktiken; bis zu 15 Mio. Euro oder 3 % für sonstige Verstöße gegen Hochrisikopflichten.

Betrifft der AI Act auch KI-Systeme, die intern genutzt werden? Ja, sofern diese Systeme unter die Hochrisikokategorien fallen oder verbotene Praktiken darstellen. Rein intern genutzte Niedrigrisikosysteme sind weniger stark reguliert.