AI Spiegabile (XAI): Definizione, Tecniche e Requisiti Normativi

Punto chiave: L'AI spiegabile (XAI — Explainable Artificial Intelligence) è l'insieme di tecniche e pratiche che permettono di capire perché un modello AI ha prodotto un determinato output. Non è un'opzione etica accessoria: per i sistemi ad alto rischio è un requisito legale esplicito dell'AI Act europeo.

Cos'è l'AI Spiegabile?

L'AI spiegabile è un sottoinsieme della ricerca sull'intelligenza artificiale focalizzato sulla comprensibilità delle decisioni dei modelli. Mentre i modelli di machine learning tradizionali (regressione logistica, alberi decisionali semplici) producono output facilmente interpretabili, i modelli moderni — reti neurali profonde, ensemble, transformer — sono intrinsecamente opachi: milioni di parametri interagiscono in modi che anche i loro creatori non riescono a tracciare completamente.

L'XAI risolve questo problema con tecniche post-hoc (applicate dopo l'addestramento) o intrinsecamente interpretabili (modelli progettati per essere comprensibili) che permettono di rispondere a domande come: "Perché il modello ha rifiutato questa richiesta di credito?", "Quali fattori hanno determinato il punteggio di rischio?", "Quali parole nel curriculum hanno influenzato la valutazione del candidato?"

Come Funziona

Le principali tecniche di XAI includono:

SHAP (SHapley Additive exPlanations) — Basato sulla teoria dei giochi, SHAP calcola il contributo di ogni feature all'output del modello, distribuendo il credito/debito in modo matematicamente fondato. Produce spiegazioni consistenti e comparabili tra istanze diverse.

LIME (Local Interpretable Model-agnostic Explanations) — Approssima localmente il comportamento di un modello complesso con un modello semplice (lineare) interpretabile. Permette di capire il comportamento del modello in prossimità di una specifica istanza, anche senza accesso al modello originale.

Attenzione e saliency maps — Per i modelli basati su transformer, la visualizzazione dei meccanismi di attenzione mostra quali parti dell'input il modello ha "guardato" di più nel produrre l'output. Per le immagini, le saliency maps evidenziano le aree che hanno influenzato la classificazione.

Counterfactual explanations — "Cosa avrebbe dovuto essere diverso perché il modello producesse un output diverso?" — es. "Il mutuo sarebbe stato approvato se il reddito annuo fosse stato superiore a 45.000€". Particolarmente utili per contestazioni e ricorsi.

Modelli intrinsecamente interpretabili — Alberi decisionali, regressioni regolarizzate, scorecard lineari. Sacrificano performance per guadagnare interpretabilità totale.

Applicazioni Business

Intesa Sanpaolo e il credito al consumo — Le banche devono spiegare ai clienti perché una richiesta di prestito è stata rifiutata (art. 22 GDPR). I sistemi di credit scoring basati su XAI producono automaticamente la motivazione leggibile: "Il rifiuto è dovuto principalmente all'elevato rapporto debito/reddito (contributo: 43%) e alla breve storia creditizia (contributo: 31%)."

Generali e la valutazione dei sinistri — Le compagnie assicurative italiane usano XAI per spiegare ai periti e ai clienti come il modello ha determinato l'indennizzo, rendendo il processo contestabile e difendibile in sede giudiziaria.

INPS e i sistemi previdenziali — I sistemi AI usati dalla pubblica amministrazione per gestire prestazioni sociali devono essere spiegabili per garantire il diritto al contraddittorio dei cittadini — obbligo sancito sia dal GDPR sia dall'AI Act.

Recruiting nelle PMI lombarde — Gli strumenti di screening candidati AI devono poter spiegare ai responsabili HR perché un candidato è stato classificato in alto o in basso, permettendo la revisione umana e prevenendo discriminazioni non intenzionali.

Conformità AI Act e GDPR

L'AI Act (Art. 13) richiede che i sistemi ad alto rischio siano progettati con "trasparenza" sufficiente da permettere ai deployer di interpretare l'output e ai soggetti interessati di esercitare i propri diritti. Questo implica:

  • Documentazione delle variabili usate e del loro peso nella decisione
  • Capacità di generare spiegazioni per singole istanze su richiesta
  • Meccanismi di supervisione umana informata

Il GDPR (Art. 22) garantisce il "diritto a non essere sottoposto a decisioni automatizzate" e il diritto a una spiegazione significativa — che per i modelli complessi richiede implementazioni XAI esplicite. Il Garante della privacy italiano ha già sanzionato organizzazioni per decisioni automatizzate prive di adeguata spiegazione.

Termini Correlati