GPAI — IA à Usage Général : Obligations Enterprise et Chaîne de Valeur
Point clé : Les obligations GPAI du Règlement IA s'appliquent depuis août 2025. Si votre organisation utilise des LLMs dans des workflows de production, les obligations réglementaires concernent votre fournisseur de modèle directement — mais votre responsabilité de déployeur en aval est réelle et documentable.
Définition
GPAI (General-Purpose AI, IA à usage général) est le terme juridique du Règlement IA de l'UE (Article 3(63)) pour les modèles d'IA capables d'effectuer une large gamme de tâches distinctes — ce que le secteur appelle LLMs ou modèles fondamentaux. Les modèles GPAI sont soumis depuis le 2 août 2025 aux obligations du Titre VIII du Règlement.
Ce glossaire complète l'article IA d'Usage Général (GPAI) avec un focus sur les obligations pratiques pour les organizations déployeurs plutôt que pour les fournisseurs de modèles.
La Chaîne de Responsabilité GPAI
Fournisseur de Modèle (OpenAI, Anthropic, Google, Mistral…)
Responsable des obligations de documentation technique, du résumé des données d'entraînement, de la politique de conformité droit d'auteur, et — pour les modèles à risque systémique — des tests adversariaux et du reporting d'incidents au Bureau de l'IA européen.
Intégrateur / Déployeur (votre organisation)
Responsable de vérifier que le fournisseur de modèle GPAI respecte ses obligations avant d'intégrer le modèle dans un système de production. Si vous déployez un système à haut risque basé sur un modèle GPAI non conforme, la responsabilité remonte jusqu'à vous.
Ce que les Déployeurs Doivent Vérifier
Avant d'intégrer un modèle GPAI dans un système en production :
Documentation technique : Le fournisseur dispose-t-il d'une documentation technique conforme à l'Article 53 ? Est-elle accessible pour audit ?
Résumé des données d'entraînement : Le fournisseur a-t-il publié un résumé suffisamment détaillé des sources de données d'entraînement ?
Politique droit d'auteur : Le fournisseur a-t-il une politique documentée de conformité au droit d'auteur européen ?
Statut risque systémique : Le modèle est-il désigné comme présentant un risque systémique (calcul > 10²⁵ FLOPs) ? Si oui, les obligations supplémentaires (Articles 55-56) sont-elles respectées ?
Accord contractuel : Le contrat avec le fournisseur inclut-il des clauses sur la fourniture d'informations en cas d'audit réglementaire ?
Documentation Enterprise Recommandée
Pour chaque modèle GPAI en production, maintenir un registre des modèles utilisés avec : identifiant du modèle (nom, version), fournisseur, date d'intégration, cas d'usage, niveau de risque du cas d'usage, statut de conformité GPAI vérifié du fournisseur, et lien vers la documentation technique fournisseur.
Knowlee maintient ces métadonnées au niveau du job dans state/jobs.json — chaque workflow qui utilise un LLM déclare le modèle utilisé et son statut de conformité.
FAQ
Q : Ma PME est-elle concernée par les obligations GPAI ? Si vous utilisez des LLMs dans des workflows qui affectent des personnes (recrutement, crédit, santé, droit) : oui, les obligations s'appliquent à votre cas d'usage, pas seulement à la taille de votre organisation.
Q : Les fournisseurs de modèles publient-ils leur documentation technique GPAI ? Progressivement. Anthropic, OpenAI et Google publient des model cards et des system cards qui couvrent partiellement les exigences. La conformité complète à l'Article 53 reste en cours pour la plupart des grands fournisseurs.
Q : Que faire si mon fournisseur de modèle n'est pas conforme aux obligations GPAI ? Documenter vos vérifications et les lacunes identifiées. Dans les cas à haut risque, envisager des fournisseurs alternatifs conformes ou des modèles open-source déployables en interne avec une gouvernance complète.