GPAI – General Purpose AI: Regulierung von Allzweck-KI-Modellen

Kernaussage: GPAI (General Purpose AI / Allzweck-KI) bezeichnet KI-Modelle, die für eine breite Palette von Aufgaben einsetzbar sind — insbesondere Large Language Models. Der EU AI Act regelt diese Modelle in einem eigenen Kapitel mit spezifischen Transparenz- und Sicherheitspflichten.

Was ist GPAI?

General Purpose AI (GPAI) oder Allzweck-KI bezeichnet KI-Systeme und -Modelle, die nicht für einen einzigen, eng definierten Zweck entwickelt wurden, sondern für eine Vielzahl unterschiedlicher Aufgaben eingesetzt werden können.

Das prominenteste Beispiel sind Large Language Models (LLMs) wie GPT-4, Claude oder Gemini: Sie können Text generieren, Code schreiben, Dokumente zusammenfassen, Fragen beantworten, Analysen erstellen und vieles mehr — alles mit demselben Grundmodell.

Die regulatorische Besonderheit von GPAI liegt darin, dass diese Modelle oft als Basis für andere KI-Systeme dienen. Wenn ein LLM in ein Hochrisiko-KI-System integriert wird, entstehen Compliance-Anforderungen auf mehreren Ebenen.

GPAI im EU AI Act (Titel VIII)

Der EU AI Act widmet GPAI-Modellen ein eigenes Kapitel (Titel VIII, Artikel 51–56), das ab August 2025 gilt. Die Kernpflichten:

Für alle GPAI-Modell-Anbieter

  • Technische Dokumentation: Transparenz über Training, Fähigkeiten, Einschränkungen und Testverfahren.
  • Urheberrechts-Compliance: Nachweis, dass bei Training keine Urheberrechtsverletzungen begangen wurden.
  • Information für nachgelagerte Anbieter: Bereitstellung ausreichender Informationen für Unternehmen, die das GPAI-Modell in eigene Systeme integrieren.

Zusätzlich für systemische GPAI-Modelle

Modelle, die einen bestimmten Schwellenwert an Rechenleistung beim Training überschreiten (10^25 FLOPs), gelten als "systemisches Risiko" und unterliegen zusätzlichen Anforderungen:

  • Adversarielle Tests (Red-Teaming)
  • Meldepflichten bei schwerwiegenden Vorfällen
  • Cybersicherheitsmaßnahmen

Relevanz für Unternehmen, die GPAI nutzen

Wer ein GPAI-Modell in eine eigene Anwendung integriert, muss prüfen, ob die nachgelagerte Anwendung als Hochrisikosystem einzustufen ist. In diesem Fall sind die Hochrisiko-Pflichten des EU AI Acts zu erfüllen — auch wenn das Grundmodell selbst kein Hochrisikosystem ist.

Praxisbeispiel im DACH-Kontext

Legaltech-Startup in Wien: Integriert GPT-4 in eine Vertragsanalyse-Software für Anwaltskanzleien. Sie müssen prüfen, ob die Anwendung als Hochrisikosystem gilt (Anhang III, Rechtspflege), und sicherstellen, dass das GPAI-Modell die EU-AI-Act-Transparenzpflichten für GPAI-Anbieter erfüllt. Zudem müssen sie ihren Kunden ausreichende Informationen über die Modellbeschränkungen bereitstellen.

Wie Knowlee GPAI-Modelle einsetzt

Knowlee nutzt führende GPAI-Modelle als Reasoning-Engine seiner KI-Agenten. Die Plattform abstrahiert die Modellkomplexität für Kunden und stellt sicher, dass alle GPAI-bezogenen Compliance-Anforderungen auf Plattformebene erfüllt werden — Kunden müssen sich nicht selbst um die Modell-Compliance kümmern.

FAQ

Ist jedes LLM ein GPAI-Modell? De facto ja, aber die regulatorische Definition im EU AI Act stellt auf die Vielseitigkeit und das Trainingsverfahren ab. Sehr kleine, domänenspezifische Modelle können aus der GPAI-Definition herausfallen.

Müssen Nutzer von GPAI-APIs (z. B. OpenAI API) eigene GPAI-Compliance betreiben? Nein. Die GPAI-Pflichten nach Titel VIII richten sich an die Anbieter der Modelle. Nutzer-Unternehmen (Deployer) unterliegen den Pflichten für ihre eigene nachgelagerte Anwendung — nicht für das Grundmodell.

Was passiert, wenn ein GPAI-Anbieter die EU AI Act-Pflichten nicht erfüllt? Bei systemischen GPAI-Modellen kann die EU-Kommission direkte Durchsetzungsmaßnahmen ergreifen, einschließlich Bußgelder bis 3 % des weltweiten Jahresumsatzes.