Annexe III du Règlement IA — Référence des Cas d'Usage IA à Haut Risque
Point clé : L'Annexe III du Règlement (UE) 2024/1689 — le Règlement IA — est la liste de référence définitive des huit secteurs d'application de l'IA classés à haut risque pour les droits fondamentaux et la sécurité. Si votre organisation utilise l'IA dans les décisions d'embauche, le crédit, l'éducation ou l'accès aux services, l'Annexe III est le point de départ de toute détermination de conformité.
Qu'est-ce que l'Annexe III du Règlement IA de l'UE ?
L'Annexe III du Règlement (UE) 2024/1689 est la liste énumérée de huit catégories d'applications d'IA autonomes que le législateur européen a classées comme à haut risque. Tout système d'IA relevant d'une catégorie de l'Annexe III est un système d'IA à haut risque, ce qui signifie qu'il entraîne les obligations de conformité les plus lourdes du Règlement pour le fournisseur (développeur/distributeur) et le déployeur (l'organisation qui l'utilise).
Cette entrée est une référence de consultation pour les catégories de l'Annexe III. Pour le processus de classification utilisé pour déterminer si un système d'IA spécifique est à haut risque, voir Classification des Risques IA. Pour les obligations de conformité complètes attachées aux systèmes de l'Annexe III, voir Systèmes d'IA à Haut Risque. Pour l'application sectorielle en matière d'emploi et de RH, voir AI Act Annexe III : Emploi et RH.
Les Huit Catégories de l'Annexe III
Les huit catégories suivantes sont spécifiées à l'Annexe III du Règlement (UE) 2024/1689. L'Article 6(2) dispose que les systèmes d'IA destinés à être utilisés aux fins énumérées à l'Annexe III sont à haut risque, sous réserve de l'exception de l'Article 6(3) pour les systèmes qui ne posent pas de risque significatif pour la santé, la sécurité ou les droits fondamentaux.
1. Identification biométrique et catégorisation Systèmes d'IA utilisés pour l'identification biométrique à distance de personnes en temps réel ou a posteriori dans des espaces accessibles au public, ou IA catégorisant des individus sur la base de données biométriques pour déduire des caractéristiques protégées telles que les opinions politiques, les convictions religieuses, la race ou l'orientation sexuelle.
2. Gestion et exploitation des infrastructures critiques Systèmes d'IA utilisés comme composants de sécurité dans la gestion et l'exploitation des infrastructures de trafic routier, d'approvisionnement en eau, de gaz, de chauffage et de fourniture d'électricité.
3. Éducation et formation professionnelle Systèmes d'IA utilisés pour déterminer l'accès ou l'affectation à des établissements d'enseignement, allouer des étudiants, évaluer des compétences, évaluer des résultats d'apprentissage ou surveiller des candidats lors d'examens.
4. Emploi, gestion des travailleurs et accès au travail indépendant Systèmes d'IA utilisés dans le recrutement ou la sélection de personnes physiques (y compris la publication d'offres d'emploi, le filtrage des candidatures, l'évaluation et le filtrage des candidats), dans les décisions de promotion et de licenciement, dans l'attribution de tâches, dans la surveillance et l'évaluation des performances et des comportements. C'est la catégorie la plus directement pertinente pour les plateformes d'IA en entreprise utilisées dans les contextes commercial, RH et de recrutement.
5. Accès et jouissance des services privés essentiels et des services et prestations publics essentiels Systèmes d'IA utilisés pour évaluer la solvabilité de personnes physiques ou pour établir le prix des produits d'assurance, pour allouer des services d'urgence (police, ambulance, pompiers), et pour évaluer l'admissibilité aux prestations et services étatiques essentiels.
6. Activités répressives Systèmes d'IA utilisés par les autorités compétentes pour des évaluations individuelles du risque, des systèmes de type polygraphe, l'évaluation de la fiabilité des preuves, le profilage d'individus dans les enquêtes pénales, l'analyse criminelle prédictive et la prévision de la récidive.
7. Gestion de la migration, de l'asile et du contrôle aux frontières Systèmes d'IA utilisés dans l'évaluation du risque de ressortissants de pays tiers aux fins de visa ou d'asile, la vérification de documents de voyage, l'évaluation du risque de migration irrégulière et l'évaluation des menaces à la sécurité.
8. Administration de la justice et processus démocratiques Systèmes d'IA utilisés pour assister les autorités judiciaires dans l'établissement des faits, l'interprétation de la loi et l'application du droit à des faits spécifiques. Inclut également l'IA utilisée pour influencer le comportement des électeurs et l'issue des élections.
L'Exception de l'Article 6(3)
Tout système d'IA relevant nominalement d'une catégorie de l'Annexe III n'est pas automatiquement soumis au régime de conformité à haut risque. L'Article 6(3) prévoit qu'un système autrement compris dans l'Annexe III n'est pas classé à haut risque s'il ne pose pas de risque significatif pour la santé, la sécurité ou les droits fondamentaux. Les organisations souhaitant se prévaloir de l'exception de l'Article 6(3) doivent documenter leur raisonnement.
Comment Knowlee Aborde l'Annexe III
Les fonctionnalités d'intelligence commerciale et de recrutement de Knowlee opèrent dans la zone de la Catégorie 4 de l'Annexe III — emploi et gestion des travailleurs. Knowlee aborde cela directement en appliquant un contrôle humain sur chaque classement de candidats ou décision sur des données d'employés assistée par l'IA, satisfaisant à l'exigence de contrôle humain de l'Article 14. Knowlee génère également la documentation opérationnelle — journaux d'audit par décision, identification du modèle, métadonnées de confiance — dont les déployeurs ont besoin en vertu de l'Article 26.