Valutazione dei Modelli LLM: Metriche, Benchmark e Best Practice
Punto chiave: La valutazione sistematica dei modelli LLM non è un'attività una tantum ma un processo continuo. Le organizzazioni che deployano AI in produzione devono misurare accuratezza, coerenza, latenza, costo e sicurezza — e farlo su dati rappresentativi del proprio dominio specifico, non solo sui benchmark pubblici.
Cos'è la Valutazione dei Modelli LLM?
La valutazione dei modelli LLM (Large Language Model) è il processo di misura sistematica delle performance di un modello di linguaggio su compiti specifici, al fine di determinarne l'idoneità per un'applicazione aziendale, confrontarlo con alternative, o monitorarne la qualità nel tempo.
A differenza del software tradizionale, i modelli LLM non producono output binari (giusto/sbagliato). Le loro risposte sono sfumate, probabilistiche e dipendenti dal contesto. Questo rende la valutazione al tempo stesso più complessa e più critica: un modello che ottiene il 94% su un benchmark pubblico può comportarsi in modo molto diverso su dati del settore assicurativo italiano.
Come Funziona
La valutazione dei modelli LLM si articola su quattro livelli:
1. Benchmark standardizzati — Dataset pubblici che misurano capacità generali: ragionamento (MMLU, HellaSwag), matematica (GSM8K), coding (HumanEval), instruction following (MT-Bench). Utili per confronti tra modelli ma non sufficienti per validare l'idoneità a un dominio specifico.
2. Valutazione basata su task — Test su compiti specifici dell'applicazione: estrazione di entità da contratti italiani, classificazione del sentiment in email commerciali, risposta a domande su normative AGID. Richiede la creazione di un dataset di valutazione proprietario con golden answers validate da esperti di dominio.
3. Valutazione LLM-as-judge — Uso di un modello più potente (es. GPT-4o o Claude 3 Opus) come giudice automatico delle risposte del modello valutato. Permette di scalare la valutazione qualitativa senza richiedere valutatori umani per ogni risposta, a costo di introdurre i bias del modello-giudice.
4. Valutazione umana — Panel di esperti di dominio che valutano campioni di output su dimensioni come correttezza fattuale, coerenza, pertinenza e tono. Costosa ma necessaria per applicazioni ad alto rischio.
Metriche Chiave
- Accuratezza / F1 — Per task di classificazione o estrazione strutturata.
- BLEU / ROUGE — Per task di generazione di testo (riassunti, traduzioni) — misura la sovrapposizione con un testo di riferimento.
- Faithfulness — In sistemi RAG: la risposta è supportata dai documenti recuperati o il modello "allucinà"?
- Latenza P50/P95/P99 — Percentili della latenza di risposta. Critico per applicazioni interattive.
- Costo per query — Token input + token output × tariffa del provider. Determinante per la scalabilità economica.
- Tasso di rifiuto — Quante richieste legittime vengono erroneamente rifiutate dal modello (falsi positivi nei filtri di sicurezza).
Applicazioni Business
ENI e il settore energetico — Le grandi aziende energetiche italiane valutano modelli LLM per l'analisi di contratti in più lingue e la gestione di documenti tecnici. I criteri di selezione includono accuracy sull'italiano legale, latenza (<2 secondi per query interattive) e capacità di gestire documenti lunghi (>100.000 token).
Intesa Sanpaolo e i servizi finanziari — Le istituzioni finanziarie devono valutare i modelli anche su dimensioni di sicurezza e conformità: resistenza agli attacchi di prompt injection, tasso di rivelazione di dati sensibili, coerenza delle risposte su temi regolamentati.
PMI lombarde — Le piccole e medie imprese che adottano soluzioni AI spesso non hanno risorse per valutazioni custom. Per loro, i benchmark di settore curati da consorzi come Confindustria Digitale o da fornitori di soluzioni verticali sono il punto di riferimento pratico.
Conformità AI Act
Il Regolamento europeo AI Act, per i sistemi ad alto rischio, richiede valutazioni di performance documentate prima del deployment e monitoraggio continuo in produzione. Il processo di valutazione deve essere:
- Riproducibile (dataset di test versionati, procedure documentate)
- Indipendente (condotto da team separati da chi ha sviluppato il modello)
- Rappresentativo (il dataset riflette la popolazione reale di utenti e casi d'uso)
AGID sta sviluppando linee guida per la valutazione dei sistemi AI utilizzati dalla Pubblica Amministrazione italiana, allineate ai requisiti dell'AI Act.