Classificazione dei Sistemi AI per Livello di Rischio: Guida all'AI Act UE
Punto chiave: L'AI Act europeo divide i sistemi AI in quattro categorie di rischio — inaccettabile, alto, limitato, minimo — con obblighi radicalmente diversi per ciascuna. Classificare correttamente i propri sistemi AI è il primo passo obbligato per qualsiasi impresa che operi nell'UE.
Cos'è la Classificazione dei Sistemi AI per Rischio?
Il Regolamento europeo sull'intelligenza artificiale (AI Act, Regolamento UE 2024/1689) adotta un approccio basato sul rischio: più un sistema AI può danneggiare persone o diritti fondamentali, più stringenti sono i requisiti che deve soddisfare. La classificazione avviene in base a due dimensioni principali: il settore di applicazione e la funzione svolta dal sistema.
Questa tassonomia interessa qualsiasi organizzazione che sviluppi, importi, distribuisca o utilizzi sistemi AI nell'Unione Europea, indipendentemente da dove ha sede il fornitore.
Come Funziona
Rischio Inaccettabile — Vietati
Pratiche AI che minacciano valori fondamentali dell'UE, vietate senza eccezioni:
- Sistemi di social scoring da parte di enti pubblici
- Manipolazione subliminale per alterare il comportamento delle persone
- Sfruttamento delle vulnerabilità di gruppi specifici (bambini, disabili, anziani)
- Identificazione biometrica in tempo reale in spazi pubblici (con eccezioni limitate per forze dell'ordine)
- Riconoscimento delle emozioni in luoghi di lavoro e istituti scolastici (con eccezioni)
Rischio Alto — Obblighi Estesi
Sistemi che possono influenzare significativamente la vita delle persone in settori critici. Includono:
- Infrastrutture critiche — Energia, acqua, trasporti
- Istruzione e formazione professionale — Selezione degli studenti, valutazione degli apprendimenti
- Occupazione e gestione dei lavoratori — Selezione del personale, valutazione delle performance, promozioni, licenziamenti
- Servizi privati e pubblici essenziali — Scoring creditizio, valutazione del rischio assicurativo
- Law enforcement — Profilazione predittiva, analisi di prove
- Migrazione e asilo — Valutazione delle domande
- Amministrazione della giustizia — Supporto alle decisioni giudiziarie
Per questi sistemi, i fornitori devono implementare: sistema di gestione della qualità, documentazione tecnica, registrazione degli eventi (logging), trasparenza e informazione agli utenti, supervisione umana, accuratezza e robustezza verificate, registrazione nel database europeo.
Rischio Limitato — Obblighi di Trasparenza
Sistemi che interagiscono con persone o generano contenuti:
- Chatbot e assistenti virtuali (devono dichiarare di essere AI)
- Sistemi che generano deepfake o contenuti sintetici (devono etichettarli)
- Sistemi di emozione recognition con scopi diversi da sicurezza
Rischio Minimo — Nessun Obbligo Aggiuntivo
La maggior parte delle applicazioni AI ricade qui: filtri spam, AI nei videogiochi, sistemi di raccomandazione di contenuti, traduzione automatica, strumenti di produttività. Sono incoraggiati codici di condotta volontari.
Applicazioni Business
Generali e Allianz Italia — I modelli di pricing assicurativo basati su variabili demografiche o comportamentali rientrano nella categoria ad alto rischio (servizi essenziali). Richiedono documentazione tecnica, registrazione nel database UE e meccanismi di supervisione umana prima di ogni decisione che incide significativamente sul contraente.
Recruiting nelle aziende italiane — Qualsiasi sistema AI che selezioni, filtri o valuti candidati in modo automatizzato — inclusi gli ATS con AI — è esplicitamente elencato tra i sistemi ad alto rischio. Le imprese devono registrare questi sistemi, documentarne il funzionamento e garantire la revisione umana delle decisioni.
PMI lombarde e il credito — I sistemi di credit scoring usati da banche e istituti finanziari sono ad alto rischio. Le PMI che usano soluzioni fintech devono verificare che il fornitore abbia ottemperato agli obblighi AI Act prima di implementarle.
ENI e la gestione delle risorse umane — I sistemi AI per la valutazione delle performance, l'identificazione dei candidati a promozione o le decisioni su turni e carichi di lavoro rientrano negli usi ad alto rischio in ambito occupazione.
Conformità AI Act: Timeline
- Febbraio 2025 — Divieto pratiche rischio inaccettabile
- Agosto 2025 — Obblighi per i modelli GPAI (AI per uso generale)
- Agosto 2026 — Obblighi per sistemi ad alto rischio
- Agosto 2027 — Estensione a sistemi AI pre-esistenti