AI Act : classification des risques d'un système IA
Mis à jour avril 2026 · AI Compliance · Auteur Matteo Mirabelli
La classification d'un système IA selon l'AI Act est l'étape la plus importante de la démarche de conformité — et la plus souvent mal exécutée. Une mauvaise classification entraîne soit un sur-investissement (traiter en risque élevé un système risque limité) soit une non-conformité (traiter en risque limité un système qui aurait dû être classé risque élevé). Cet article propose la grille de classification par catégories, illustrée d'exemples concrets, et signale les zones de frontière qui exigent l'avis d'un conseil. Disclaimer : informatif, pas conseil juridique.
Les quatre niveaux
1. Pratiques interdites (Article 5). Notation sociale par autorité publique ; manipulation subliminale causant préjudice ; exploitation de vulnérabilités (âge, handicap, situation sociale) ; identification biométrique à distance en temps réel dans les espaces publics par autorité (avec exceptions strictes) ; reconnaissance des émotions au travail ou en éducation (avec exceptions médicales/sécurité) ; catégorisation biométrique sur critères protégés ; police prédictive individuelle ; bases de données de reconnaissance faciale par scraping non ciblé.
2. Risque élevé (Article 6 + Annexe III). Systèmes IA dans des secteurs réglementés (machines, jouets, dispositifs médicaux, automobile etc.) listés en Annexe I, plus systèmes IA listés en Annexe III dans les domaines suivants : biométrie, infrastructures critiques, éducation, emploi (recrutement, évaluation), accès aux services essentiels (crédit, assurance, prestations sociales), application de la loi, immigration, justice et processus démocratiques.
3. Risque limité (Article 50). Systèmes IA qui interagissent avec des personnes physiques (chatbots, assistants), systèmes de génération de contenu (deepfakes notamment), systèmes de catégorisation biométrique non interdits, systèmes de reconnaissance d'émotions hors interdiction. Obligations de transparence.
4. Risque minimal. Tout le reste. Pas d'obligation spécifique au-delà du droit commun (RGPD, propriété intellectuelle, etc.).
Exemples concrets
Pratiques interdites : système RH qui infère l'humeur émotionnelle d'un candidat en entretien (sauf cadre médical) ; système marketing qui détecte les enfants pour les manipuler.
Risque élevé : système de pré-tri de candidatures (recrutement, Annexe III point 4), système de scoring de crédit (accès services essentiels, Annexe III point 5), système d'aide à la décision médicale, système biométrique d'authentification (sauf exception).
Risque limité : chatbot client, agent commercial outbound, génération de contenu marketing, assistant de rédaction.
Risque minimal : filtre antispam, optimisation de stock, recommandation produit non décisionnelle.
Les zones de frontière
Marketing prédictif → Risque élevé ? Si la « personnalisation » devient décision automatisée affectant significativement la personne (refus d'avantage commercial substantiel), oui.
Support client IA → Risque limité ou élevé ? Risque limité si simple assistance ; risque élevé si décision sur accès à un service essentiel.
SDR IA → Risque limité ? Oui dans la majorité des cas. Glissement possible si scoring décisionnel affectant la personne.
Outils RH → Toujours risque élevé ? Tous ceux qui interviennent dans recrutement, évaluation, allocation, oui. Outils purement administratifs (gestion paie sans décision IA), non.
Détection de fraude → Variable. Application de la loi = risque élevé ; détection commerciale interne sans effet sur les personnes externes = risque limité ou minimal.
Méthode de classification
Étape 1 — Décrire le système. Finalité, fonctionnement, données utilisées, sortie produite, utilisateur final, effet sur les personnes.
Étape 2 — Vérifier les pratiques interdites. Check-list Article 5.
Étape 3 — Vérifier secteurs Annexe I et II. Si le système est composant d'un produit listé en Annexe I.
Étape 4 — Vérifier Annexe III. Si le système entre dans l'un des huit domaines.
Étape 5 — Sinon vérifier obligations de transparence Article 50.
Étape 6 — Sinon classifier risque minimal, mais documenter le raisonnement.
AI Act + ISO 42001 en pratique
La classification se documente dans le registre des systèmes IA, élément central d'ISO/IEC 42001. Voir ISO 42001 France et registre systèmes IA haut risque. Pour les systèmes risque élevé, la documentation technique exhaustive (Annexe IV de l'AI Act) est obligatoire. Voir conformité AI Act guide.
CNIL : la classification AI Act n'évacue pas les obligations RGPD. Voir CNIL et AI Act.
Knowlee porte la classification au niveau de chaque tâche, ce qui permet à une même plateforme d'héberger des composants risque limité et risque élevé sans contamination. Informatif, pas conseil juridique.
FAQ
Qui classifie ? L'opérateur déployant principalement, en lien avec le fournisseur du système.
Peut-on contester une classification ? Oui, par documentation argumentée. Audit externe peut trancher.
Une plateforme = une classification ? Non. Classification par cas d'usage / par tâche.
Risque élevé peut-il devenir risque limité ? Si la finalité ou les caractéristiques évoluent, oui. Mais la requalification doit être documentée.
Mistral est-il un GPAI ? Oui, modèle à usage général soumis aux obligations GPAI.
Sanction si mauvaise classification ? Variable selon gravité et caractère délibéré.
Conclusion
La classification AI Act est un acte technique exigeant rigueur et documentation. Knowlee — plateforme souveraine européenne — porte la classification par tâche, conforme AI Act + ISO 42001, compatible Mistral, alignée CNIL. Documentez votre conformité dès le design.