Classificazione dei Sistemi AI per Livello di Rischio: Guida all'AI Act UE

Punto chiave: L'AI Act europeo divide i sistemi AI in quattro categorie di rischio — inaccettabile, alto, limitato, minimo — con obblighi radicalmente diversi per ciascuna. Classificare correttamente i propri sistemi AI è il primo passo obbligato per qualsiasi impresa che operi nell'UE.

Cos'è la Classificazione dei Sistemi AI per Rischio?

Il Regolamento europeo sull'intelligenza artificiale (AI Act, Regolamento UE 2024/1689) adotta un approccio basato sul rischio: più un sistema AI può danneggiare persone o diritti fondamentali, più stringenti sono i requisiti che deve soddisfare. La classificazione avviene in base a due dimensioni principali: il settore di applicazione e la funzione svolta dal sistema.

Questa tassonomia interessa qualsiasi organizzazione che sviluppi, importi, distribuisca o utilizzi sistemi AI nell'Unione Europea, indipendentemente da dove ha sede il fornitore.

Come Funziona

Rischio Inaccettabile — Vietati

Pratiche AI che minacciano valori fondamentali dell'UE, vietate senza eccezioni:

  • Sistemi di social scoring da parte di enti pubblici
  • Manipolazione subliminale per alterare il comportamento delle persone
  • Sfruttamento delle vulnerabilità di gruppi specifici (bambini, disabili, anziani)
  • Identificazione biometrica in tempo reale in spazi pubblici (con eccezioni limitate per forze dell'ordine)
  • Riconoscimento delle emozioni in luoghi di lavoro e istituti scolastici (con eccezioni)

Rischio Alto — Obblighi Estesi

Sistemi che possono influenzare significativamente la vita delle persone in settori critici. Includono:

  • Infrastrutture critiche — Energia, acqua, trasporti
  • Istruzione e formazione professionale — Selezione degli studenti, valutazione degli apprendimenti
  • Occupazione e gestione dei lavoratori — Selezione del personale, valutazione delle performance, promozioni, licenziamenti
  • Servizi privati e pubblici essenziali — Scoring creditizio, valutazione del rischio assicurativo
  • Law enforcement — Profilazione predittiva, analisi di prove
  • Migrazione e asilo — Valutazione delle domande
  • Amministrazione della giustizia — Supporto alle decisioni giudiziarie

Per questi sistemi, i fornitori devono implementare: sistema di gestione della qualità, documentazione tecnica, registrazione degli eventi (logging), trasparenza e informazione agli utenti, supervisione umana, accuratezza e robustezza verificate, registrazione nel database europeo.

Rischio Limitato — Obblighi di Trasparenza

Sistemi che interagiscono con persone o generano contenuti:

  • Chatbot e assistenti virtuali (devono dichiarare di essere AI)
  • Sistemi che generano deepfake o contenuti sintetici (devono etichettarli)
  • Sistemi di emozione recognition con scopi diversi da sicurezza

Rischio Minimo — Nessun Obbligo Aggiuntivo

La maggior parte delle applicazioni AI ricade qui: filtri spam, AI nei videogiochi, sistemi di raccomandazione di contenuti, traduzione automatica, strumenti di produttività. Sono incoraggiati codici di condotta volontari.

Applicazioni Business

Generali e Allianz Italia — I modelli di pricing assicurativo basati su variabili demografiche o comportamentali rientrano nella categoria ad alto rischio (servizi essenziali). Richiedono documentazione tecnica, registrazione nel database UE e meccanismi di supervisione umana prima di ogni decisione che incide significativamente sul contraente.

Recruiting nelle aziende italiane — Qualsiasi sistema AI che selezioni, filtri o valuti candidati in modo automatizzato — inclusi gli ATS con AI — è esplicitamente elencato tra i sistemi ad alto rischio. Le imprese devono registrare questi sistemi, documentarne il funzionamento e garantire la revisione umana delle decisioni.

PMI lombarde e il credito — I sistemi di credit scoring usati da banche e istituti finanziari sono ad alto rischio. Le PMI che usano soluzioni fintech devono verificare che il fornitore abbia ottemperato agli obblighi AI Act prima di implementarle.

ENI e la gestione delle risorse umane — I sistemi AI per la valutazione delle performance, l'identificazione dei candidati a promozione o le decisioni su turni e carichi di lavoro rientrano negli usi ad alto rischio in ambito occupazione.

Conformità AI Act: Timeline

  • Febbraio 2025 — Divieto pratiche rischio inaccettabile
  • Agosto 2025 — Obblighi per i modelli GPAI (AI per uso generale)
  • Agosto 2026 — Obblighi per sistemi ad alto rischio
  • Agosto 2027 — Estensione a sistemi AI pre-esistenti

Termini Correlati