Mitigazione del Bias AI: Tecniche, Strumenti e Obblighi Normativi

Punto chiave: La mitigazione del bias AI non è solo un'imperativa etica — è un requisito legale per i sistemi AI che influenzano persone in settori critici. Le tecniche di mitigazione vanno applicate lungo tutto il ciclo di vita del sistema: dalla raccolta dei dati, all'addestramento, alla valutazione, al monitoraggio in produzione.

Cos'è la Mitigazione del Bias AI?

La mitigazione del bias AI è l'insieme di interventi tecnici e organizzativi che riducono la tendenza di un sistema AI a produrre output sistematicamente sfavorevoli per certi gruppi demografici o categorie di persone — in modo non giustificato dalle caratteristiche rilevanti per il task.

Il bias algoritmico può originarsi in molteplici punti del pipeline AI: nei dati di training (storicamente distorti), nella scelta delle feature (proxy discriminatori), nella definizione dell'obiettivo (ottimizzare per una metrica che danneggia sistematicamente un gruppo), nel feedback loop (le decisioni del sistema modificano i dati futuri). La mitigazione deve intervenire su ogni punto di origine.

Tecniche di Mitigazione

Pre-processing (interventi sui dati)

  • Resampling — Sovra-campionare i gruppi sotto-rappresentati o sotto-campionare quelli sovra-rappresentati per bilanciare il dataset di training.
  • Reweighting — Assegnare pesi diversi alle istanze in base alla loro rappresentatività demografica, senza modificare la distribuzione.
  • Rimozione di feature discriminatorie — Eliminare le variabili direttamente correlate con caratteristiche protette (genere, età, etnia) o i loro proxy (nome, codice postale, scuola frequentata).
  • Data augmentation — Generare sinteticamente esempi per gruppi sotto-rappresentati, aumentando la copertura del dataset.

In-processing (interventi nel training)

  • Fairness constraints — Aggiungere vincoli di equità come termine regolarizzatore nella funzione di loss del modello (il modello viene penalizzato se produce output troppo disparati tra gruppi).
  • Adversarial debiasing — Addestrare un modello avversariale che cerca di predire caratteristiche demografiche dall'output del modello principale — il modello principale viene addestrato a ingannare l'avversario, producendo output più equi.
  • Multi-objective optimization — Ottimizzare simultaneamente per performance e fairness, accettando un trade-off esplicito e controllato.

Post-processing (interventi sull'output)

  • Calibration per gruppo — Aggiustare le soglie di classificazione separatamente per diversi gruppi demografici per equalizzare i tassi di errore.
  • Reject option classification — Per le istanze vicino alla soglia decisionale, richiedere revisione umana invece di prendere una decisione automatica.
  • Output filtering — Filtrare gli output che soddisfano criteri di disparità superiori alla soglia accettabile.

Metriche di Fairness

Non esiste una definizione universale di "equità algoritmica" — le definizioni matematiche sono spesso in conflitto:

  • Parità demografica — Stesso tasso di approvazione per tutti i gruppi (es. stesso tasso di concessione del credito)
  • Equalized odds — Stesso tasso di veri positivi e falsi positivi per tutti i gruppi
  • Calibration — Il punteggio di probabilità ha lo stesso significato per tutti i gruppi
  • Individual fairness — Individui simili ricevono trattamenti simili

La scelta della metrica di fairness è una decisione etica e legale, non solo tecnica, e deve essere presa con il coinvolgimento dei domain expert e dei soggetti impattati.

Applicazioni Business

Intesa Sanpaolo e il credit scoring — La banca ha implementato processi di audit periodico dei propri modelli di scoring per verificare che i tassi di approvazione e le condizioni offerte non differiscano sistematicamente per genere o origine geografica. Le discrepanze identificate vengono analizzate e — se non giustificate da fattori di rischio legittimi — corrette attraverso aggiustamenti del modello.

Recruiting nelle aziende italiane — Le aziende che usano AI nel screening candidati sono tenute a verificare che i tassi di selezione non differiscano sistematicamente per genere, età o origine. Le aziende con oltre 50 dipendenti in Italia hanno obblighi di rendicontazione sulla parità di genere (Legge 162/2021) che si estendono all'uso di strumenti AI nel recruiting.

Assicurazioni (IVASS monitoring) — L'IVASS (Istituto per la Vigilanza sulle Assicurazioni) monitora i modelli di pricing assicurativo per evitare discriminazioni basate su genere o altre caratteristiche protette — già vietate dalla normativa europea sul contratto assicurativo.

Conformità AI Act e Normativa Italiana

L'AI Act (Art. 10) richiede esplicitamente che i dataset usati per i sistemi ad alto rischio vengano esaminati per "possibili bias che potrebbero avere un impatto negativo sui diritti fondamentali" e che vengano applicati "misure di governance dei dati" appropriate.

Il Garante della privacy italiano ha incluso la fairness algoritmica tra i principi da rispettare nel trattamento automatizzato di dati personali, in linea con l'interpretazione del principio di non discriminazione del GDPR (Considerando 71).

Termini Correlati