IA d'Usage Général (GPAI) — Définition et Obligations Réglementaires

Point clé : L'IA d'usage général (ou GPAI, pour General-Purpose AI) est le terme juridique du Règlement (UE) 2024/1689 — le Règlement IA — pour les modèles comme GPT-4, Claude et Gemini : des systèmes capables d'effectuer un large éventail de tâches plutôt qu'une seule fonction définie. Depuis le 2 août 2025, les fournisseurs de modèles GPAI sont soumis à des obligations contraignantes en vertu du Titre VIII du Règlement, quel que soit leur pays d'établissement.

Qu'est-ce que l'IA d'Usage Général ?

L'IA d'usage général (GPAI) est un modèle d'IA entraîné sur de grandes quantités de données à grande échelle qui affiche une généralité significative et peut effectuer de façon compétente un large éventail de tâches distinctes. Aux termes de l'Article 3(63) du Règlement (UE) 2024/1689, un modèle GPAI se caractérise par son étendue : ce n'est pas un système conçu et optimisé pour un usage unique et restreint, mais un système pouvant être intégré dans une grande variété d'applications en aval dans différents secteurs.

Le terme « usage général » est la terminologie réglementaire juridique de l'UE pour ce que le secteur appelle plus communément les modèles fondamentaux (foundation models) ou les grands modèles de langage (LLM). Les modèles GPT d'OpenAI, Claude d'Anthropic, Gemini de Google DeepMind, Llama de Meta et les modèles open-weight de Mistral sont tous des modèles GPAI au sens du Règlement. La définition s'applique tant aux systèmes textuels qu'aux systèmes multimodaux, pour autant qu'ils présentent la généralité de fonction requise.

Pourquoi Cela Importe

Les modèles GPAI se trouvent au sommet de la chaîne d'approvisionnement en IA. Lorsque les entreprises intègrent une API de modèle GPAI dans leurs produits ou flux de travail, elles s'appuient sur une infrastructure que le législateur européen a spécifiquement identifiée comme potentiellement risquée si elle n'est pas correctement documentée, testée et gouvernée. Les entreprises qui s'appuient sur des modèles GPAI héritent d'une exposition à la conformité : si le fournisseur n'a pas satisfait à ses obligations en vertu de l'Article 53, le déployeur en aval ne peut pas se fier à ce modèle comme composant conforme dans une application à haut risque.

La date d'applicabilité d'août 2025 pour les obligations GPAI est l'échéance de conformité la plus imminente dans le calendrier du Règlement IA — elle précède la date d'application générale complète du 2 août 2026.

Obligations Principales des Fournisseurs de Modèles GPAI

Le Règlement établit un cadre à deux niveaux pour les modèles GPAI en fonction du risque systémique.

Tous les fournisseurs de modèles GPAI doivent (Article 53) :

  • Préparer et maintenir une documentation technique couvrant la méthodologie d'entraînement, les sources de données, les ressources de calcul utilisées et les résultats des évaluations
  • Produire et mettre à disposition un résumé du contenu utilisé pour entraîner le modèle, avec suffisamment de détails pour permettre l'évaluation de la conformité au droit d'auteur en vertu de la Directive sur l'exploration de textes et de données (Directive 2019/790)
  • Mettre en œuvre une politique de conformité avec le droit d'auteur de l'UE, y compris le respect des désinscriptions exercées par les titulaires de droits
  • Mettre à disposition des fournisseurs en aval toutes les informations nécessaires pour que ceux-ci puissent remplir leurs propres obligations en vertu du Règlement

Les modèles GPAI désignés comme présentant un risque systémique sont soumis à des obligations supplémentaires (Articles 55–56) :

La désignation de risque systémique s'applique aux modèles entraînés avec une puissance de calcul dépassant 10²⁵ FLOPs. Pour ces modèles :

  • Des tests adversariaux et du red-teaming doivent être conduits avant et après la publication
  • Les incidents graves et les quasi-incidents doivent être signalés au Bureau de l'IA européen
  • Des mesures de cybersécurité adaptées au profil de risque systémique du modèle sont obligatoires
  • Les fournisseurs doivent évaluer et atténuer les risques systémiques potentiels pour les processus démocratiques, les infrastructures critiques et les droits fondamentaux au niveau de l'UE

Modèle Fondamental, GPAI et Modèle Frontier : Distinctions

Ces trois termes sont fréquemment confondus mais ont des connotations différentes :

  • Modèle GPAI est le terme juridique européen au sens de l'Article 3(63). Il désigne tout modèle d'IA répondant à la définition, indépendamment de sa taille ou de ses capacités.
  • Modèle fondamental (foundation model) est le terme de recherche en ML pour les grands modèles pré-entraînés servant de base au fine-tuning et aux applications en aval. Il se recoupe largement avec le GPAI, même si la définition juridique est déterminante.
  • Modèle frontier est un terme non réglementaire désignant les modèles les plus capables, à la frontière de ce qui est techniquement réalisable. Les modèles frontier relèvent généralement du niveau de risque systémique en vertu du Règlement.

Comment Knowlee Aborde la Conformité GPAI

La structure de gouvernance de Knowlee est directement alignée sur le niveau de conformité GPAI. Pour chaque modèle d'IA utilisé dans les flux de travail en production, Knowlee enregistre l'identité du modèle, la version, le fournisseur et le statut de conformité documenté dans les métadonnées de niveau processus. Lorsqu'un flux de travail fait appel à un modèle GPAI, cet appel est capturé dans l'audit trail avec horodatage et contexte — permettant aux déployeurs de démontrer, lors de tout contrôle réglementaire, quel modèle a été utilisé, quand et dans quelles conditions de gouvernance.

Termes Associés