KI-Recruiting unter AI Act: Annex III Hochrisiko-Klassifikation operativ
Aktualisiert April 2026 · KI-Recruiting · Autor Matteo Mirabelli
Hinweis: Dieser Beitrag dient ausschließlich der Information und stellt keine Rechtsberatung dar. Für die rechtssichere Einführung KI-gestützter Recruiting-Systeme empfehlen wir die Konsultation einer auf Arbeits-, Datenschutz- und IT-Recht spezialisierten Kanzlei sowie der Bundesnetzagentur als zuständiger Marktüberwachungsbehörde.
Mit dem 2. August 2026 wechseln in Deutschland eingesetzte KI-Recruiting-Systeme aus dem regulatorischen Graubereich in eine klar geregelte Hochrisiko-Klasse. Die Verordnung (EU) 2024/1689 — bekannt als AI Act — ordnet in Annex III Punkt 4 Systeme zur Personalauswahl, Bewertung von Bewerbern und Verteilung von Aufgaben oder Beförderungen ausdrücklich als Hochrisiko-Systeme ein. Anbieter und Betreiber unterliegen ab diesem Zeitpunkt einer technischen, organisatorischen und dokumentarischen Pflichtenkette, die jede deutsche Personalabteilung, jeden HR-IT-Verantwortlichen und jede Geschäftsführung operativ angeht.
Dieser Beitrag erklärt, was Annex III Punkt 4 konkret abdeckt, welche Pflichten daraus für deutsche Unternehmen entstehen, wie die Bundesnetzagentur die Marktüberwachung gestaltet und mit welcher operativen Architektur HR-Teams die Konformität erreichen — ohne ihre Recruiting-Roadmap zu zerstören.
Annex III Punkt 4 — der präzise Geltungsbereich
Annex III Punkt 4 erfasst zwei Unterkategorien von Beschäftigungs-KI:
(a) "KI-Systeme, die für die Einstellung oder Auswahl natürlicher Personen verwendet werden sollen, insbesondere für die gezielte Veröffentlichung von Stellenangeboten, die Sichtung oder Filterung von Bewerbungen und die Bewertung von Bewerbern".
(b) "KI-Systeme, die für Entscheidungen über die Bedingungen von Arbeitsverhältnissen, die Beförderung oder Beendigung vertraglicher Arbeitsbeziehungen, die Aufgabenzuteilung auf Grundlage individuellen Verhaltens, individueller Persönlichkeitsmerkmale oder individueller Eigenschaften sowie die Überwachung und Bewertung der Leistung und des Verhaltens von Personen in solchen Verhältnissen verwendet werden sollen".
Damit fallen praktisch alle marktüblichen Recruiting- und HR-Tech-Anwendungen in den Hochrisiko-Bereich, sobald sie KI-Komponenten enthalten: CV-Parsing mit Ranking-Funktion, automatisierte Vorauswahl, KI-gestützte Interview-Auswertung, Skill-Matching-Algorithmen, Active-Sourcing-Empfehlungssysteme, Performance-Scoring, interne Mobility-Vorhersagen.
Die Schwelle ist niedrig. Bereits ein einziger Funktionsbaustein, der eine Personalentscheidung beeinflusst, qualifiziert das Gesamtsystem als Hochrisiko-KI. Die in vielen Anbieter-Marketing-Materialien suggerierte Idee, ein "Decision-Support-Tool" entgehe der Klassifikation, weil die finale Entscheidung beim Recruiter bleibt, ist juristisch nicht tragfähig — Art. 6 Abs. 3 AI Act bestätigt, dass auch unterstützende Systeme erfasst sind, sofern sie das Ergebnis materiell prägen.
Die Pflichtenkette für Anbieter (Art. 16 ff. AI Act)
Anbieter eines Hochrisiko-Recruiting-Systems — typischerweise der Software-Hersteller — tragen die Hauptlast der AI-Act-Pflichten:
- Risikomanagementsystem nach Art. 9: kontinuierliche Risikoidentifizierung, -bewertung und -minderung über den Lebenszyklus.
- Datengouvernanz nach Art. 10: Trainings-, Validierungs- und Testdaten müssen relevant, repräsentativ, fehlerfrei und vollständig sein. Bias-Examination ist Pflicht, nicht Option.
- Technische Dokumentation nach Art. 11 und Annex IV: Systembeschreibung, Modellarchitektur, Trainingsmethoden, Performance-Metriken, Limitationen, vorhersehbare Fehlanwendungen.
- Aufzeichnungspflicht nach Art. 12: automatische Protokollierung der Systemnutzung mit nachvollziehbaren Logs.
- Transparenz nach Art. 13: Bedienungsanleitung mit klaren Angaben zu Zweck, Genauigkeit, Robustheit, Cybersecurity und Limitationen.
- Menschliche Aufsicht nach Art. 14: Design-seitige Einbindung der menschlichen Letztentscheidung.
- Genauigkeit, Robustheit, Cybersecurity nach Art. 15.
- Konformitätsbewertung nach Art. 43 und CE-Kennzeichnung.
- Eintragung in der EU-Datenbank für Hochrisiko-KI nach Art. 49.
- Post-Market-Monitoring nach Art. 72.
Die Pflichtenkette für Betreiber (Art. 26 AI Act)
Betreiber — also deutsche Unternehmen, die das System einsetzen — tragen eine zweite Pflichtenebene:
- Nutzung gemäß Bedienungsanleitung des Anbieters; Abweichungen erzeugen Mitverantwortung als Quasi-Anbieter.
- Sicherstellung qualifizierter menschlicher Aufsicht; die zuständigen Personen müssen geschult, befugt und ressourcenseitig in der Lage sein, die KI-Ausgabe zu überprüfen und zu überstimmen.
- Eingangskontrolle der Eingabedaten: Sicherstellung, dass die Daten dem vorgesehenen Zweck entsprechen und ausreichend repräsentativ sind.
- Aufzeichnung der automatisch generierten Logs mindestens sechs Monate.
- Information der betroffenen Beschäftigten und ihrer Vertretungen vor der Inbetriebnahme (Art. 26 Abs. 7).
- Datenschutz-Folgenabschätzung nach Art. 35 DSGVO mit AI-Act-spezifischer Erweiterung.
- Information der Bewerbenden über die Hochrisiko-KI-Verwendung im Bewerbungsverfahren.
Das deutsche Implementierungsspezifikum: Art. 26 Abs. 7 verlangt die Information der Beschäftigtenvertretung — in deutschen Mittel- und Großbetrieben heißt das den Betriebsrat. Damit setzt der AI Act die Mitbestimmung nach §87 BetrVG normativ in Bewegung. Wer das nicht mit einer Betriebsvereinbarung absichert, betreibt das System rechtswidrig.
Die deutsche Marktüberwachungs-Architektur
Die Bundesnetzagentur (BNetzA) ist als nationale Marktüberwachungsbehörde für KI in Deutschland designiert. Sie übernimmt drei Kernaufgaben:
- Marktüberwachung der Hochrisiko-KI-Systeme einschließlich Stichproben, Audits und Sanktionsbescheiden.
- Erste Anlaufstelle für Beschwerden über nichtkonforme KI-Systeme.
- Schnittstelle zur EU-Datenbank für Hochrisiko-KI sowie zur Koordinierung mit anderen nationalen Behörden.
Parallel bleiben für den Datenschutzteil die Landesdatenschutzbeauftragten zuständig — LfDI BW, BayLDA, BlnBDI, HmbBfDI und ihre Pendants. Bei Beschäftigungsdaten greift §26 BDSG, der über DSGVO Art. 88 hinausgeht und die Beweislast auf den Arbeitgeber verschiebt.
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) übernimmt die technische Beratungsrolle für Konformitätsbewertungs-Kriterien, insbesondere zu Cybersecurity-Anforderungen nach Art. 15 AI Act. Die Bundesländer bauen zusätzlich eigene Aufsichts- und Beratungsstrukturen auf — Bayern und Nordrhein-Westfalen sind hier weiter als andere.
Die Sanktions-Architektur ist scharf: Art. 99 AI Act sieht Bußgelder bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes vor. Für deutsche Mittelständler bedeutet das, dass ein einziger Marktüberwachungsfall mit Verbotsverfügung den HR-Betrieb für Monate lahmlegen kann.
ISO/IEC 42001 als methodischer Rahmen
ISO/IEC 42001 ist die internationale Norm für KI-Managementsysteme. Sie bietet die organisatorische Struktur, in der die AI-Act-Pflichten zusammenlaufen — vergleichbar zu ISO 27001 für Informationssicherheit. Für Recruiting-Systeme empfehlen sich vier ISO-42001-Module:
- AI Impact Assessment: über die DSFA hinaus eine KI-spezifische Bewertung der Auswirkungen auf Bewerbende, Beschäftigte und betroffene Dritte. Die Methode adressiert Bias, Erklärbarkeit, Robustheit, gesellschaftliche Effekte.
- AI System Lifecycle Management: dokumentierte Prozesse für Modell-Updates, Daten-Refreshes, Re-Training, Performance-Monitoring.
- AI Supplier Management: Bewertung der Anbieter entlang ihrer eigenen AI-Act-Konformität, mit Audit-Rechten und Vertragsklauseln.
- AI Incident Management: Vorfallprozess für Bias-Eskalationen, Modellfehler, Cybersecurity-Vorfälle, Marktüberwachungs-Anfragen.
Eine ISO/IEC 42001-Implementierung deckt einen großen Teil der AI-Act-Pflichten methodisch ab und erleichtert die Konformitätsbewertung. Sie ist zwar keine direkte AI-Act-Vermutungswirkung, wird aber von Aufsichtsbehörden und Auditoren als positiver Nachweis ernst genommen.
Die operative Umsetzung im deutschen Mittelstand
Mittelständische Personalabteilungen müssen drei operative Schichten parallel aufsetzen:
Schicht 1 — Anbieter-Governance
Vor dem Vertragsabschluss prüft das HR-IT-Team die AI-Act-Konformität des Anbieters anhand einer strukturierten Checkliste:
- Vorliegen der technischen Dokumentation nach Annex IV.
- Eintragung in der EU-Datenbank für Hochrisiko-KI.
- CE-Kennzeichnung mit Konformitätsbewertungs-Beleg.
- Bedienungsanleitung mit den nach Art. 13 erforderlichen Inhalten.
- Bias-Audit-Bericht des Anbieters mit reproduzierbarer Methodik.
- Auftragsverarbeitungsvertrag nach Art. 28 DSGVO mit BDSG-§26-Annex.
- Datenresidenz EU/DE.
Anbieter, die einen oder mehrere dieser Punkte nicht erfüllen, sind ab dem 2. August 2026 für deutsche Hochrisiko-Anwendungen disqualifiziert.
Schicht 2 — Interne Governance
Die deutsche HR-Organisation muss intern eine vollständige AI-Act-Betreiber-Architektur aufbauen:
- AI Officer oder funktionsäquivalente Rolle mit klar definierten Zuständigkeiten.
- DPIA-Prozess mit AI-Act-Erweiterung.
- Bias-Monitoring-Prozess mit definierten Schwellenwerten und Eskalationswegen.
- Mitbestimmungsprozess mit dem Betriebsrat, abgesichert durch Betriebsvereinbarung.
- Information der Bewerbenden über die KI-Verwendung, abgestimmt mit der DSB.
- Schulung aller Recruiter zur AI Literacy nach Art. 4 AI Act.
- Vorfall-Prozess mit Schnittstellen zu BNetzA, Landesdatenschutzbehörde und Anbieter.
Schicht 3 — Technische Implementierung
Die technische Schicht muss vier Funktionalitäten standardmäßig liefern:
- Vollständiger Audit-Trail jeder algorithmischen Bewertung mit reproduzierbarer Aufzeichnung der Eingabedaten, Modellausgaben und menschlichen Letztentscheidung.
- Erklärungsschicht, die jede Score-Vergabe in eine textuelle Begründung übersetzt — sowohl für Bewerbende (Art. 22 DSGVO) als auch für interne Audits.
- Bias-Monitoring-Dashboard mit konfigurierbaren Schwellenwerten und automatischer Eskalation an DSB und Betriebsrat.
- Konfigurations-Schicht für menschliche Aufsicht: jede ablehnende Eignungsentscheidung muss durch eine berechtigte Person freigegeben werden, mit Aufzeichnung der Begründung.
Knowlee-Positionierung als Hochrisiko-AI-Act-konformer Recruiting-Layer
Knowlee ist als AI-Act-konforme KI-Recruiting-Plattform konzipiert. Die Architektur adressiert die Hochrisiko-Anforderungen aus Annex III Punkt 4 nicht als nachträgliche Compliance-Schicht, sondern als Kern-Designprinzip.
Im Anbieter-Modus liefert Knowlee:
- Vollständige technische Dokumentation nach Annex IV, einschließlich Trainingsdaten-Provenienz und Performance-Metriken.
- CE-Kennzeichnung und Konformitätsbewertung nach Art. 43.
- Eintragung in der EU-Datenbank für Hochrisiko-KI.
- Pre-Deployment- und kontinuierliches Bias-Audit mit reproduzierbarer Methodik.
- Bedienungsanleitung mit den Art. 13-Inhalten und einer deutschen Sprachversion.
- Audit-Trail jeder algorithmischen Bewertung mit DSGVO-konformer Aufzeichnung.
Im Betreiber-Support liefert Knowlee:
- Betriebsvereinbarungs-Vorlage und 21-Tage-Mitbestimmungspfad mit dem Betriebsrat.
- DPIA-Vorlage mit AI-Act-Erweiterung.
- AI Literacy Schulungspaket für Recruiter nach Art. 4 AI Act.
- Vorlage für die Information der Bewerbenden über die KI-Verwendung.
- Audit-fertige Reporting-Schicht für DSB und Betriebsrat.
Der Knowlee-Stack integriert sich als KI-Layer über bestehenden Bewerbermanagement-Systemen — Personio, SAP SuccessFactors, Workday, Softgarden — und vermeidet einen Datenmigrations-Großeingriff, der in der deutschen Betriebsrats-Praxis selten konsensfähig ist.
Zeitplan bis zum 2. August 2026
Mai 2026 — Anbieter-Auswahl mit AI-Act-Checkliste; Vertragsverhandlung mit Konformitäts-Garantien.
Juni 2026 — DPIA-Erstellung mit AI-Act-Erweiterung; Auftakt mit Betriebsrat; Schulung der Recruiter.
Juli 2026 — Betriebsvereinbarung verabschiedet; technische Integration abgeschlossen; Bias-Pre-Deployment-Audit dokumentiert.
- August 2026 — Hochrisiko-Pflichten greifen; Knowlee oder vergleichbarer Anbieter im Regelbetrieb; Eintragung in der EU-Datenbank vollzogen; Erstes Quartals-Reporting an Betriebsrat und DSB vorbereitet.
Wer im Mai 2026 noch keinen konsolidierten Plan hat, läuft Gefahr, im August 2026 entweder das System zurückzubauen oder mit erheblichen Bußgeldrisiken weiterzulaufen.
Schlussfolgerung
Annex III Punkt 4 verändert die deutsche KI-Recruiting-Landschaft grundlegend. Hochrisiko ist kein Etikett für Marketingbroschüren, sondern eine vollständige Pflichtenkette, die Anbieter und Betreiber gleichermaßen trifft. Personalabteilungen, die jetzt in eine konforme Architektur investieren, bauen einen Betriebsrat-vertretbaren, BNetzA-prüffesten und DSB-zustimmungsfähigen Stack — der zugleich die KI-Effizienzgewinne hebt. Die anderen riskieren Bußgelder, Marktverbote und einen Reset der HR-Roadmap. Knowlee unterstützt diesen Übergang mit einer AI-Act-konformen Architektur, die für den deutschen Markt entworfen wurde.
Quellen und Referenzen
- Verordnung (EU) 2024/1689 (AI Act): Annex III Punkt 4, Art. 6, Art. 9-15, Art. 16 ff., Art. 26, Art. 43, Art. 49, Art. 72, Art. 99.
- Bundesdatenschutzgesetz (BDSG), §26.
- Betriebsverfassungsgesetz (BetrVG), §87 Abs. 1 Nr. 6.
- DSGVO, Art. 22, Art. 28, Art. 30, Art. 32, Art. 35, Art. 88.
- Bundesnetzagentur (BNetzA): Konsultationspapiere zur Marktüberwachung von KI-Systemen.
- BSI: Empfehlungen zur Cybersecurity von KI-Systemen.
- BfDI-Stellungnahmen zu KI im Beschäftigungskontext.
- ISO/IEC 42001:2023 Information technology — Artificial intelligence — Management system.
- AGG, §§1, 6, 7, 22.
- Bitkom-Praxishilfen zu KI im Personalmanagement.
Verwandte Beiträge
- KI-Recruiting in Deutschland: Leitfaden 2026
- KI-Bewerbermanagement und Betriebsrat: Mitbestimmung nach §87 BetrVG
- KI-Recruiting und AGG: Diskriminierungsrisiken und Bias-Audit
- BDSG §26 und KI-Bewerberdaten: Beschäftigtendatenschutz operativ
- EU AI Act in Deutschland: Leitfaden für Unternehmen 2026
- AI Act Hochrisiko-Systeme: Compliance-Checkliste
- ISO/IEC 42001 Zertifizierung in Deutschland