GPAI – General Purpose AI: Regulierung von Allzweck-KI-Modellen
Kernaussage: GPAI (General Purpose AI / Allzweck-KI) bezeichnet KI-Modelle, die für eine breite Palette von Aufgaben einsetzbar sind — insbesondere Large Language Models. Der EU AI Act regelt diese Modelle in einem eigenen Kapitel mit spezifischen Transparenz- und Sicherheitspflichten.
Was ist GPAI?
General Purpose AI (GPAI) oder Allzweck-KI bezeichnet KI-Systeme und -Modelle, die nicht für einen einzigen, eng definierten Zweck entwickelt wurden, sondern für eine Vielzahl unterschiedlicher Aufgaben eingesetzt werden können.
Das prominenteste Beispiel sind Large Language Models (LLMs) wie GPT-4, Claude oder Gemini: Sie können Text generieren, Code schreiben, Dokumente zusammenfassen, Fragen beantworten, Analysen erstellen und vieles mehr — alles mit demselben Grundmodell.
Die regulatorische Besonderheit von GPAI liegt darin, dass diese Modelle oft als Basis für andere KI-Systeme dienen. Wenn ein LLM in ein Hochrisiko-KI-System integriert wird, entstehen Compliance-Anforderungen auf mehreren Ebenen.
GPAI im EU AI Act (Titel VIII)
Der EU AI Act widmet GPAI-Modellen ein eigenes Kapitel (Titel VIII, Artikel 51–56), das ab August 2025 gilt. Die Kernpflichten:
Für alle GPAI-Modell-Anbieter
- Technische Dokumentation: Transparenz über Training, Fähigkeiten, Einschränkungen und Testverfahren.
- Urheberrechts-Compliance: Nachweis, dass bei Training keine Urheberrechtsverletzungen begangen wurden.
- Information für nachgelagerte Anbieter: Bereitstellung ausreichender Informationen für Unternehmen, die das GPAI-Modell in eigene Systeme integrieren.
Zusätzlich für systemische GPAI-Modelle
Modelle, die einen bestimmten Schwellenwert an Rechenleistung beim Training überschreiten (10^25 FLOPs), gelten als "systemisches Risiko" und unterliegen zusätzlichen Anforderungen:
- Adversarielle Tests (Red-Teaming)
- Meldepflichten bei schwerwiegenden Vorfällen
- Cybersicherheitsmaßnahmen
Relevanz für Unternehmen, die GPAI nutzen
Wer ein GPAI-Modell in eine eigene Anwendung integriert, muss prüfen, ob die nachgelagerte Anwendung als Hochrisikosystem einzustufen ist. In diesem Fall sind die Hochrisiko-Pflichten des EU AI Acts zu erfüllen — auch wenn das Grundmodell selbst kein Hochrisikosystem ist.
Praxisbeispiel im DACH-Kontext
Legaltech-Startup in Wien: Integriert GPT-4 in eine Vertragsanalyse-Software für Anwaltskanzleien. Sie müssen prüfen, ob die Anwendung als Hochrisikosystem gilt (Anhang III, Rechtspflege), und sicherstellen, dass das GPAI-Modell die EU-AI-Act-Transparenzpflichten für GPAI-Anbieter erfüllt. Zudem müssen sie ihren Kunden ausreichende Informationen über die Modellbeschränkungen bereitstellen.
Wie Knowlee GPAI-Modelle einsetzt
Knowlee nutzt führende GPAI-Modelle als Reasoning-Engine seiner KI-Agenten. Die Plattform abstrahiert die Modellkomplexität für Kunden und stellt sicher, dass alle GPAI-bezogenen Compliance-Anforderungen auf Plattformebene erfüllt werden — Kunden müssen sich nicht selbst um die Modell-Compliance kümmern.
FAQ
Ist jedes LLM ein GPAI-Modell? De facto ja, aber die regulatorische Definition im EU AI Act stellt auf die Vielseitigkeit und das Trainingsverfahren ab. Sehr kleine, domänenspezifische Modelle können aus der GPAI-Definition herausfallen.
Müssen Nutzer von GPAI-APIs (z. B. OpenAI API) eigene GPAI-Compliance betreiben? Nein. Die GPAI-Pflichten nach Titel VIII richten sich an die Anbieter der Modelle. Nutzer-Unternehmen (Deployer) unterliegen den Pflichten für ihre eigene nachgelagerte Anwendung — nicht für das Grundmodell.
Was passiert, wenn ein GPAI-Anbieter die EU AI Act-Pflichten nicht erfüllt? Bei systemischen GPAI-Modellen kann die EU-Kommission direkte Durchsetzungsmaßnahmen ergreifen, einschließlich Bußgelder bis 3 % des weltweiten Jahresumsatzes.