EU AI Act in Österreich: Zuständigkeiten, Stand der Umsetzung 2026
Aktualisiert April 2026 · KI Compliance · Autor Matteo Mirabelli · Land: Österreich
Die EU-KI-Verordnung 2024/1689 wirkt EU-weit unmittelbar — sie ist eine Verordnung, kein zur Umsetzung verpflichteter Rechtsakt. Trotzdem benötigt jeder Mitgliedstaat eine nationale Marktüberwachungsstruktur, die meldenden Stellen, Sanktionsregelungen und das Zusammenspiel mit bestehenden Aufsichten regeln. Deutschland hat die Bundesnetzagentur (BNetzA) als Lead designiert. Österreich ist Stand April 2026 noch in der Diskussion. Für Unternehmen ist das relevant, weil unklare Zuständigkeit operative Unsicherheit erzeugt.
Dieser Leitfaden ordnet ein, was am 2. August 2026 für Hochrisikosysteme tatsächlich gilt, welche österreichischen Behörden in Frage kommen, und was Anbieter und Betreiber unabhängig von der nationalen Designation jetzt vorbereiten sollten. Er ist für Compliance-Verantwortliche, IT-Leitungen und Geschäftsführer in österreichischen Unternehmen geschrieben.
Was der AI Act 2026 in Österreich bewirkt
Die Verordnung 2024/1689 ist am 1. August 2024 in Kraft getreten. Die Anwendbarkeit der Pflichten ist gestaffelt: Verbote unzulässiger Praktiken (Art. 5) seit 2. Februar 2025; Pflichten für GPAI-Modelle (allgemeine Zwecke) seit 2. August 2025; Pflichten für Hochrisikosysteme nach Anhang III ab 2. August 2026; Pflichten für Hochrisikosysteme nach Anhang I (Produktsicherheits-Kontext) ab 2. August 2027.
Für österreichische Unternehmen heißt das: ab August 2026 unterliegen Personalauswahl-KI, Kreditbewertung, Bildungs-KI, kritische Infrastruktur, Strafverfolgung und Migrationsverwaltung den Hochrisiko-Pflichten — Konformitätsbewertung, technische Dokumentation, Risikomanagement, Datengouvernance, Aufzeichnungspflichten, Transparenz, menschliche Aufsicht, Genauigkeit, Robustheit, Cybersicherheit. Bußgelder reichen bei schwerwiegenden Verstößen bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes (Art. 99).
Welche österreichischen Behörden in Frage kommen
Die Verordnung verlangt von jedem Mitgliedstaat: eine notifizierende Behörde (Art. 28), eine oder mehrere Marktüberwachungsbehörden (Art. 70), und gegebenenfalls eine Behörde für Grundrechte-Konsultation. Stand April 2026 hat Österreich noch keine offizielle Designation veröffentlicht. Wahrscheinlich sind:
Datenschutzbehörde (DSB) für die Hochrisiko-Bereiche, in denen Personenbezug dominiert: Personalauswahl-KI, Bildungs-KI, Bonitätsbewertung. Die DSB hat bereits operative Praxis im Schnittfeld DSGVO/AI Act.
KommAustria (Kommunikationsbehörde Austria) für KI-Systeme im Medien-, Plattform- und Telekommunikationsbereich. KommAustria ist bereits zuständig für Medien-Aufsicht und hat Algorithmus-Erfahrung aus der DSA-Umsetzung.
Sektorale Aufsichten je nach Anwendungsfeld: die FMA (Finanzmarktaufsicht) für KI in Finanzdienstleistungen, das Bundesministerium für Inneres für sicherheitsrelevante KI, das Bundesministerium für Soziales bei sozialer Sicherung, das BMK für Verkehrs-KI.
Eine zentrale KI-Servicestelle wurde 2024 in der RTR-GmbH eingerichtet (KI-Servicestelle der RTR), die Beratung leistet, aber nicht zwangsläufig die formale Marktüberwachungsrolle übernimmt.
Für österreichische Anbieter und Betreiber heißt das aktuell: Der Compliance-Aufwand ist sektorübergreifend zu organisieren. Wer ein Hochrisikosystem in Personalauswahl betreibt, wird voraussichtlich primär mit der DSB kommunizieren; bei Banken-KI mit der FMA; bei Medien-KI mit KommAustria. Eine reine "Single-Point-of-Contact"-Hoffnung ist nicht realistisch.
Pflichten für Anbieter (Art. 16–22 AI Act)
Anbieter — also Hersteller oder Inverkehrbringer eines Hochrisikosystems — haben die Hauptlast. Bis 2. August 2026 muss vorliegen:
Ein Risikomanagementsystem (Art. 9) über den gesamten Lebenszyklus, identifiziert, bewertet und mindert Risiken systematisch.
Eine Datengouvernance (Art. 10): Trainings-, Validierungs- und Testdatensätze sind relevant, repräsentativ und auf Bias geprüft.
Eine technische Dokumentation (Art. 11) mit allen Anhang-IV-Inhalten: Systembeschreibung, Designentscheidungen, Hardware/Software-Komponenten, Datenanforderungen, Bewertung, Validierung, Überwachung.
Aufzeichnungspflichten (Art. 12) für automatische Protokollierung über die Lebensdauer.
Transparenz und Information für Betreiber (Art. 13) in einer Form, die den Betreiber in die Lage versetzt, das System richtig zu nutzen.
Menschliche Aufsicht (Art. 14) als integrierte Designanforderung — Stop-Funktionen, Override-Mechanismen, Verständlichkeit der Ausgaben.
Genauigkeit, Robustheit und Cybersicherheit (Art. 15) mit dokumentierten Performance-Werten.
Konformitätsbewertung (Art. 43) je nach Hochrisikokategorie, oft als interne Kontrolle oder unter Beteiligung einer notifizierten Stelle.
CE-Kennzeichnung (Art. 48) und EU-Konformitätserklärung (Art. 47).
Registrierung in der EU-Datenbank (Art. 49, 71) vor Inverkehrbringen.
Pflichten für Betreiber (Art. 26 AI Act)
Betreiber — österreichische Unternehmen, die ein Hochrisikosystem einsetzen — haben einen geringeren, aber weit unterschätzten Pflichtenkreis.
Nutzung gemäß Anbieteranweisungen. Der Betreiber muss das System wie spezifiziert betreiben, einschließlich der menschlichen Aufsichtsanforderungen.
Eingangsdaten-Kontrolle. Der Betreiber muss sicherstellen, dass die Eingangsdaten relevant und repräsentativ sind, soweit er sie kontrolliert.
Aufzeichnungen. Der Betreiber muss die automatisch erzeugten Protokolle aufbewahren, mindestens sechs Monate, soweit nicht anders rechtlich geregelt.
Information der betroffenen Personen über den Einsatz des Systems, in Übereinstimmung mit Art. 26 Abs. 11.
Datenschutz-Folgenabschätzung (Art. 27 AI Act) für bestimmte Hochrisiko-Anwendungen, ergänzend zur DSGVO-DSFA.
Meldepflicht bei schwerwiegenden Vorfällen (Art. 73) an Anbieter und Marktüberwachungsbehörde.
Einbindung des Betriebsrats, soweit ArbVG einschlägig — siehe unseren Leitfaden zu Arbeitsverfassungsgesetz und Betriebsrat.
Anhang III — die acht Hochrisiko-Bereiche
Anhang III des AI Act listet acht Bereiche, in denen KI-Systeme als hochriskant eingestuft sind, sofern sie bestimmte Funktionen erfüllen.
1. Biometrische Identifikation und Kategorisierung außerhalb des Verbotsbereichs nach Art. 5.
2. Kritische Infrastruktur im Verkehr, Wasser, Gas, Wärme, Strom, digitale Infrastruktur.
3. Bildung und Berufsausbildung bei Zugang, Zuweisung, Bewertung.
4. Beschäftigung, Personalauswahl, Workforce-Management — direkt einschlägig für KI-Recruiting und KI-Performance-Tools.
5. Wesentliche private und öffentliche Dienste einschließlich Bonitätsbewertung, Notrufpriorisierung, Versicherungsbewertung.
6. Strafverfolgung bei Risikobewertung, Polygraph, Beweisbewertung.
7. Migration, Asyl, Grenzkontrolle bei Risikobewertung, Antragsbearbeitung.
8. Justiz und demokratische Prozesse bei Rechtsanwendung, Wahlbeeinflussung.
Für österreichische Unternehmen sind in der Praxis Anhang III Z 4 (Beschäftigung) und Z 5 (Bonität, Versicherung) am häufigsten relevant.
ISO 42001 als strukturelle Antwort
Die ISO/IEC 42001 ist ein managementsystematischer Standard für AI-Risk-Management. Wer ISO 42001 zertifiziert ist, hat das AI-Act-Risikomanagement (Art. 9), die Datengouvernance (Art. 10), die Aufzeichnungspflichten (Art. 12) und die Aufsichtsmechanismen (Art. 14) bereits in einem auditierbaren Rahmen umgesetzt. Für österreichische Anbieter siehe unseren Leitfaden zu ISO 42001-Zertifizierung in Österreich.
ISO 42001 ist keine Pflicht nach AI Act, aber praktisch der schnellste Pfad zur belastbaren Konformitätsbewertung. Notifizierte Stellen werden voraussichtlich ISO 42001 als Indiz für Konformität anerkennen, formal bleibt der AI Act aber autoritativ.
Vergleich mit Deutschland
Drei Unterschiede prägen die operative Praxis 2026.
Lead-Behörde. Deutschland hat die Bundesnetzagentur (BNetzA) als Lead-Marktüberwachungsbehörde benannt, ergänzt um BSI für technische Konformität und Landesdatenschutzbeauftragte für deployer-seitige Datenverarbeitung. Österreich hat noch keine offizielle Designation; die DSB ist der wahrscheinlichste Kandidat für den größten Teil des Anhang III, ergänzt um KommAustria und sektorale Aufsichten.
Geschwindigkeit der Designation. Deutschland hat die Designation seit Ende 2024 strukturell abgeschlossen. Österreich ist langsamer. Für österreichische Unternehmen heißt das, sich an mehrere Aufsichten heranzutasten, statt einen klaren Single-Point-of-Contact zu haben.
Sanktionsregelungen. §41 BDSG-Äquivalente Bußgelder werden in Österreich über das DSG abgewickelt. Die DSB hat in der Vergangenheit moderater agiert als einzelne deutsche Landesbehörden, aber die Sanktionspraxis ab 2026 wird von der EU-AI-Act-Vorgabe getrieben — Bußgelder bis 35 Mio. EUR sind in beiden Ländern strukturell möglich.
Wer ein KI-Compliance-Programm aus Deutschland nach Österreich überträgt, sollte die fehlende DE-BNetzA-Lead-Struktur in der Eskalationskette berücksichtigen und früh Kontakt zur DSB sowie zur KI-Servicestelle der RTR aufnehmen.
Was Sie 2026 jetzt tun sollten
Inventarisierung. Listen Sie alle KI-Systeme im Unternehmen, mit Klassifikation nach AI-Act-Risikoklasse. Für Hochrisikosysteme: Anbieter, Datenflüsse, Anhang-III-Zuordnung.
Anbieter-Kontakte. Schreiben Sie Ihre KI-Anbieter an: bis wann liegt die EU-Konformitätserklärung vor? Welche technische Dokumentation? Welche notifizierte Stelle?
Pflichten-Roadmap. Erstellen Sie eine 90-Tage-Roadmap bis 2. August 2026: Risikomanagement-Dokumentation, Aufzeichnungspflichten, Information betroffener Personen, Schulung.
Kontakt zur Aufsicht. Reichen Sie bei der DSB eine Anfrage ein, sobald Sie ein Hochrisikosystem identifiziert haben. Die DSB wird Auskunft geben, ob sie für Ihren Bereich primär zuständig ist.
Betriebsvereinbarung. Falls Personalauswahl oder Workforce-Management betroffen, koordinieren Sie mit dem Betriebsrat — siehe ArbVG-Leitfaden.
FAQ
Gilt der AI Act auch für Schweizer Anbieter, die in Österreich vertreiben? Ja. Art. 2 AI Act regelt die extraterritoriale Anwendung: Anbieter aus Drittstaaten, die Hochrisikosysteme in der EU in Verkehr bringen oder deren Output in der EU verwendet wird, fallen unter die Verordnung. Schweizer Anbieter benötigen einen EU-Vertreter (Art. 22).
Was ist mit GPAI-Modellen? GPAI-Pflichten gelten seit 2. August 2025. Anbieter wie OpenAI, Anthropic, Google haben technische Dokumentationen veröffentlicht, die nachgelagerten Anbietern die Compliance erleichtern.
Welche Dokumentation muss ich als Betreiber 2026 vorlegen können? Mindestens: Bezeichnung des Systems, Anbieter, Konformitätsdokumentation des Anbieters, eigene Folgenabschätzung, Aufzeichnungen über Vorfälle, Schulungsnachweise.
Was passiert bei einer Beschwerde? Die zuständige Marktüberwachungsbehörde (in Österreich voraussichtlich DSB, KommAustria oder sektoral) prüft, fordert Unterlagen an und kann bei Verstößen Anordnungen treffen oder Bußgelder verhängen.
Wie verhält sich Knowlee zum AI Act? Wir hosten in der EU, bereiten ISO-42001-Zertifizierung vor und liefern technische Dokumentation in Anhang-IV-Form. Hinweis: Knowlee ist Anbieter dieser Plattform — diese Erwähnung erfolgt zur Transparenz im Rahmen des Interessenkonflikts.
Schluss
Der AI Act wirkt 2026 in Österreich auch ohne abgeschlossene nationale Designation. Wer auf die offizielle Behördenbenennung wartet, verliert sechs Monate. Anbieter und Betreiber, die jetzt Risikomanagement, Dokumentation und Aufsichtsmechanismen aufbauen — idealerweise mit ISO 42001 als Rückgrat — vermeiden die Hektik des Frühherbstes 2026.
Wenn Sie evaluieren möchten, wie Knowlees Plattform AI-Act-konform in Ihre Vertriebs- oder HR-Pipeline passt, buchen Sie eine Demo. Wir zeigen Anhang-IV-Dokumentation, Risk-Reports und Audit-Trails am konkreten Beispiel.
Hinweis: Dieser Beitrag ist informativer Natur und ersetzt keine Rechtsberatung.
Verwandte Artikel: DSGVO in Österreich: KI-Bewerber · ArbVG und Betriebsrat · ISO 42001-Zertifizierung in Österreich · EU AI Act in Deutschland