Littératie de l'IA — L'Obligation Article 4 pour les Entreprises de l'UE
Point clé : La littératie de l'IA n'est pas une initiative RH accessoire. En vertu de l'Article 4 du Règlement européen sur l'intelligence artificielle — applicable depuis février 2025 — toute organisation qui déploie ou utilise des systèmes d'IA doit s'assurer que son personnel dispose d'un niveau adéquat d'alphabétisation en matière d'IA. La non-conformité est un risque d'enforcement documenté.
Définition
La littératie de l'IA, au sens réglementaire établi par l'Acte IA de l'UE, désigne l'ensemble des compétences, connaissances et compréhension qui permettent aux personnes qui déploient, exploitent ou sont affectées par des systèmes d'IA d'utiliser ces systèmes de façon compétente, d'évaluer leurs limites et d'exercer un jugement éclairé sur les décisions assistées par l'IA.
L'Article 4 du Règlement 2024/1689 stipule : « Les fournisseurs et les déployeurs de systèmes d'IA prennent des mesures pour faire en sorte, dans toute la mesure du possible, que leur personnel et les autres personnes s'occupant du fonctionnement et de l'utilisation des systèmes d'IA pour leur compte possèdent un niveau suffisant d'alphabétisation en matière d'IA, eu égard à leurs connaissances techniques, à leur expérience, à leur formation et à leur éducation, ainsi qu'au contexte dans lequel les systèmes d'IA sont destinés à être utilisés. »
Ce n'est pas la littératie numérique générale. Il s'agit d'une obligation spécifique, contextuelle, liée aux systèmes d'IA qu'une organisation déploie effectivement — et elle s'applique aussi bien aux développeurs qu'aux utilisateurs métier.
Pourquoi Cela Importe : Conséquences Réglementaires et Opérationnelles
L'Article 4 est entré en vigueur dans le cadre du calendrier d'application anticipée de l'Acte IA le 2 février 2025. Cela signifie que l'obligation de littératie est active maintenant, sans attendre l'échéance de conformité complète du 2 août 2026 pour les systèmes à haut risque.
Les conséquences pratiques sont significatives. Les autorités nationales compétentes (les nouveaux organismes de surveillance de l'IA mandatés par l'Article 70) peuvent demander des preuves des programmes de littératie IA lors d'audits. Les déployeurs de systèmes d'IA à haut risque — dans le recrutement, le crédit, l'éducation, les forces de l'ordre — font face au contrôle le plus élevé. L'incapacité à démontrer que le personnel exploitant des systèmes à haut risque a reçu une formation de littératie IA adaptée à son rôle constitue une lacune de conformité documentée pouvant déclencher une enquête.
Au-delà de l'enforcement, il existe une dimension opérationnelle. Les organisations où le personnel ne peut pas évaluer de manière critique les résultats des systèmes d'IA — identifier les hallucinations, comprendre la confiance du modèle, savoir quand escalader — subissent des erreurs évitables. La littératie IA est le contrôle qui empêche les erreurs assistées par IA de devenir des incidents métier.
Ce que Signifie « Niveau Adéquat » en Pratique
L'obligation de l'Article 4 est délibérément calibrée. Elle ne demande pas à chaque employé de comprendre l'architecture des réseaux de neurones. Elle exige un « niveau adéquat » eu égard à :
- Les connaissances techniques et l'expérience — Un développeur déployant un modèle a une base plus élevée qu'un agent du service client utilisant un outil de réponse assistée par IA.
- La formation et le parcours éducatif — La formation formelle en IA/ML satisfait une partie de l'exigence ; des programmes structurés en entreprise sont nécessaires pour le personnel sans ce background.
- Le contexte d'utilisation — Le personnel exploitant un filtre anti-spam à Risque Minimal a besoin de beaucoup moins de formation en littératie que le personnel s'appuyant sur un système d'IA à Haut Risque pour la présélection de candidatures.
En pratique, les exigences de littératie varient selon le rôle et la classe de risque des systèmes d'IA concernés. Une unique « Journée de sensibilisation à l'IA » à l'échelle de l'entreprise ne satisfait pas l'Article 4 pour le personnel exploitant des systèmes d'IA à Haut Risque. L'obligation requiert une formation substantielle et différenciée par rôle, documentable et produisible sur demande d'audit.
Quatre catégories de population ont des exigences minimales distinctes :
- Développeurs et déployeurs — compréhension de la classification des risques, des limites du modèle, des sources de biais et de la documentation de gestion des risques au titre de l'Article 9
- Utilisateurs métier des systèmes d'IA à Haut Risque — formation spécifique au système sur les résultats, les procédures de dérogation et les obligations de documentation
- Dirigeants et responsables de la gouvernance IA — sensibilisation stratégique aux obligations de l'Acte IA, préparation à l'audit et responsabilité au niveau du conseil d'administration
- Employés concernés — droits à la transparence de base et voies de réclamation
Cas Limites et Concepts Associés
La littératie de l'IA n'est pas identique à la montée en compétences IA. La littératie au titre de l'Article 4 établit le niveau minimum de conformité — le seuil en dessous duquel la non-conformité juridique commence. La montée en compétences décrit le développement de capacités opérationnelles IA au-delà de ce seuil, vers une véritable fluidité opérationnelle.
La gouvernance IA fournit le cadre organisationnel dans lequel les programmes de littératie IA opèrent. Une gouvernance sans littératie est une documentation sans compréhension ; une littératie sans gouvernance n'a pas de structure de responsabilité.
La Perspective Knowlee
Démontrer la conformité à l'Article 4 lors d'un audit nécessite deux pistes de preuves liées : les registres de formation montrant qui a reçu quel programme de littératie, et les registres opérationnels montrant qui a utilisé quel système d'IA à quel niveau de risque. La seconde piste est celle où la plupart des entreprises présentent des lacunes.
Les métadonnées de gouvernance du registre de jobs de Knowlee fournissent précisément cette seconde piste. Chaque exécution d'agent dans Knowlee enregistre l'opérateur responsable, la classification du risque du système d'IA, les catégories de données concernées et la décision de supervision humaine à chaque étape. Cela signifie qu'une entreprise gérant ses workflows IA via Knowlee peut croiser ses registres de formation en littératie avec son journal d'activité opérationnelle IA — produisant le dossier complet de preuves requis par un audit de l'Acte IA sans avoir à reconstituer les enregistrements a posteriori.