AI Act Italia: Guida Completa al Regolamento (UE) 2024/1689
Il Regolamento (UE) 2024/1689 — universalmente noto come AI Act — è entrato in vigore il 1° agosto 2024. Per le organizzazioni italiane non è più una questione di preparazione futura: il Capo III, che regola i sistemi AI ad alto rischio, diventa pienamente operativo il 2 agosto 2026. Mancano meno di quattro mesi.
Questa pagina è il punto di partenza e il nodo di raccordo per tutto ciò che riguarda la conformità all'AI Act in Italia: struttura normativa, classificazione del rischio, obblighi settoriali, interazione con GDPR e NIS2, roadmap operativa e link ai pillar di approfondimento per ogni area tematica. Leggila dall'inizio per costruire il quadro; torna alle sezioni specifiche quando ti servono risposte operative.
Cos'è l'AI Act — Il Quadro in Cinque Minuti
Il Regolamento (UE) 2024/1689 è il primo corpus normativo orizzontale e vincolante al mondo dedicato ai sistemi di intelligenza artificiale. Si applica a provider (chi sviluppa o immette sul mercato sistemi AI), deployer (chi usa sistemi AI in un contesto professionale), importatori, distributori e rappresentanti autorizzati — indipendentemente dalla sede legale dell'organizzazione, se i sistemi AI sono destinati al mercato UE o impattano soggetti nell'UE.
Il Regolamento adotta un approccio basato sul rischio: non proibisce l'AI in senso lato, ma stratifica i sistemi su quattro livelli di rischio e assegna obblighi di conformità proporzionati al potenziale danno. Le sanzioni sono severe — fino al 7% del fatturato annuo globale — e il regime di enforcement è affidato alle autorità nazionali di vigilanza, con un coordinamento centralizzato tramite l'European AI Office.
Per l'Italia il quadro si sovrappone a un contesto normativo già denso: il GDPR (con Garante Privacy già attivo sull'AI), la NIS2 (recepita con D.Lgs. 138/2024), il DORA per il settore finanziario, e l'atteso DPCM sull'AI nella Pubblica Amministrazione in fase di finalizzazione. Non si tratta di adeguarsi a un solo strumento normativo: si tratta di navigare un sistema di compliance integrato.
Le Scadenze che Contano: Capo III in Vigore ad Agosto 2026
Il calendario di applicazione dell'AI Act è graduale ma la finestra operativa si sta chiudendo:
| Data | Obbligo |
|---|---|
| 1 agosto 2024 | Regolamento in vigore |
| 2 febbraio 2025 | Divieti assoluti (Articolo 5) applicabili — pratiche AI vietate |
| 2 agosto 2025 | Obbligo di alfabetizzazione AI (Articolo 4) e norme sui modelli GPAI (Capo V) |
| 2 agosto 2026 | Capo III — requisiti per sistemi AI ad alto rischio (Allegato III) pienamente applicabili |
| 2 agosto 2027 | Sistemi AI ad alto rischio in prodotti regolamentati (Allegato I) |
La scadenza critica per la maggior parte delle imprese italiane è agosto 2026. I sistemi che rientrano nell'Allegato III — HR, credito, sanità, infrastrutture critiche, giustizia, istruzione, servizi pubblici essenziali — devono essere conformi tra quattro mesi. Per le organizzazioni che non hanno ancora avviato una mappatura dei propri sistemi AI, il tempo è tecnicamente sufficiente ma non lascia margine a ulteriori ritardi.
Per una lettura dettagliata del calendario con le implicazioni per ciascuna categoria di sistema, vedi il pillar dedicato: AI Act: guida all'adeguamento per le aziende italiane.
I Quattro Livelli di Rischio: Classificazione Operativa
Livello 1 — Rischio Inaccettabile: Pratiche Vietate (Articolo 5)
Alcune applicazioni AI sono vietate a partire dal 2 febbraio 2025. Il divieto riguarda:
- Sistemi di social scoring da parte di autorità pubbliche
- Identificazione biometrica remota in tempo reale in spazi pubblici da parte delle forze dell'ordine (con eccezioni circoscritte)
- Manipolazione subliminale del comportamento
- Riconoscimento delle emozioni in contesti lavorativi ed educativi (salvo eccezioni medico-di sicurezza)
- Profilazione biometrica per inferire attributi sensibili (razza, opinioni politiche, orientamento sessuale)
- Scraping non autorizzato di immagini per database di riconoscimento facciale
Sanzioni: fino a 35 milioni di euro o al 7% del fatturato annuo globale.
Livello 2 — Alto Rischio: Allegato III (Articoli 6-51)
È la categoria più rilevante per le imprese. I sistemi ad alto rischio sono consentiti ma soggetti al regime di conformità più stringente: valutazione di conformità, documentazione tecnica, registrazione nel database EU, supervisione umana, robustezza e accuratezza documentabili.
I settori dell'Allegato III sono otto — vedi la sezione dedicata qui sotto.
Sanzioni per mancata conformità: fino a 15 milioni di euro o al 3% del fatturato.
Livello 3 — Rischio Limitato: Obblighi di Trasparenza (Articoli 50-52)
Sistemi come chatbot, deepfake generativi e sistemi che interagiscono con persone fisiche devono rispettare obblighi di trasparenza: l'utente deve essere informato che sta interagendo con un'AI. L'Articolo 50 disciplina gli obblighi specifici per i sistemi di AI generativa.
Livello 4 — Rischio Minimo: Nessun Obbligo Specifico
La grande maggioranza dei sistemi AI — filtri antispam, AI nei videogiochi, sistemi di raccomandazione — ricade in questa categoria. Nessun obbligo formale, ma il Regolamento incoraggia l'adozione volontaria di codici di condotta.
Per il quadro completo sui sistemi ad alto rischio: AI Act High Risk Systems.
Allegato III: I Settori ad Alto Rischio in Italia
L'Allegato III elenca otto categorie di sistemi AI ad alto rischio. Per le imprese italiane, sei di queste hanno impatto diretto immediato:
1. Infrastrutture Critiche (Allegato III §2)
Sistemi AI usati nella gestione e nell'operatività di infrastrutture critiche: rete elettrica, acqua, gas, trasporti. In Italia si sovrappone agli obblighi NIS2 e al perimetro di sicurezza nazionale cibernetica (ACN). Chi gestisce infrastrutture classificate NIS2 e usa sistemi AI in funzioni di controllo o monitoraggio è doppiamente nel perimetro.
2. Istruzione e Formazione Professionale (Allegato III §3)
Sistemi AI usati per determinare l'accesso a percorsi educativi, valutare l'apprendimento o monitorare studenti. Rilevante per università, istituti di formazione e, in prospettiva, per la PA nell'erogazione di servizi educativi.
3. Occupazione e Gestione dei Lavoratori (Allegato III §4)
Sistemi AI per selezione del personale, screening dei CV, valutazione delle prestazioni, decisioni di promozione o terminazione del rapporto di lavoro. È la categoria con maggiore impatto immediato per le imprese private: quasi ogni strumento di HR automation che usa AI per decisioni che incidono sull'impiego è ad alto rischio.
Per la guida settoriale specifica: Annex III AI HR Employment Compliance.
4. Accesso a Servizi Pubblici e Privati Essenziali (Allegato III §5)
Include sistemi AI usati per valutare l'eleggibilità a benefici sociali pubblici, ma anche per il credit scoring bancario, la valutazione del rischio assicurativo e l'accesso a servizi finanziari essenziali. Per le banche e le assicurazioni italiane, questo si sovrappone agli obblighi DORA.
5. Forze dell'Ordine (Allegato III §6)
Sistemi usati dalle forze dell'ordine per valutare il rischio individuale, analizzare prove, profilare sospettati. Perimetro circoscritto ma sanzioni massime.
6. Migrazione, Asilo e Controllo delle Frontiere (Allegato III §7)
Sistemi di gestione documentale, valutazione delle domande di asilo, analisi del rischio alle frontiere.
7. Amministrazione della Giustizia e Processi Democratici (Allegato III §8)
Sistemi AI usati nella ricerca giuridica, nell'interpretazione dei fatti o nella previsione degli esiti giudiziari. Altamente sensibile; il Garante Privacy italiano ha già espresso posizioni specifiche.
8. Istruzione (già inclusa nel §3)
Per l'approfondimento sui sistemi ad alto rischio con checklist operativa: AI Compliance Checklist 2026.
AI Act e Pubblica Amministrazione Italiana: AGID e DPO
Per la Pubblica Amministrazione italiana la situazione è ulteriormente stratificata. I soggetti della PA che deployano sistemi AI in processi decisionali che incidono su persone fisiche sono deployer ai sensi del Regolamento e, per i sistemi Allegato III, sono soggetti all'intero regime di conformità del Capo III.
Le implicazioni operative principali:
AGID (Agenzia per l'Italia Digitale) sta sviluppando le linee guida nazionali per l'uso dell'AI nelle PA, in coerenza con il Regolamento. Il quadro atteso includerà requisiti di trasparenza algoritmica, requisiti di supervisione umana e obblighi di registrazione dei sistemi AI impiegati.
DPO (Data Protection Officer): per le PA che trattano dati personali con sistemi AI, il DPO deve essere coinvolto nella valutazione di conformità. Il Regolamento si sovrappone al GDPR: un sistema AI ad alto rischio che tratta dati personali richiede sia la conformità al Capo III dell'AI Act sia la DPIA ai sensi dell'Articolo 35 GDPR.
DPCM AI: il decreto del Presidente del Consiglio dei Ministri atteso nel 2026 definirà i requisiti specifici per l'AI nella PA italiana, incluse le procedure di approvazione dei sistemi, i requisiti di audit e i meccanismi di supervisione. Le PA che stanno pianificando implementazioni AI devono considerare questo strumento come parte del quadro normativo applicabile.
AI Act e GDPR: L'Intersezione che Nessuno Spiega Bene
La domanda più frequente nei team legali e compliance italiani è: come si articola l'AI Act con il GDPR?
La risposta breve: sono strumenti complementari, non alternativi, e il loro overlapping crea obblighi cumulativi.
Quando applicare la DPIA (Articolo 35 GDPR): se un sistema AI ad alto rischio tratta dati personali, è probabile che comporti un rischio elevato per i diritti degli interessati, attivando l'obbligo di DPIA. La soglia è bassa: sistemi di screening HR, scoring creditizio, sistemi di profilazione individuale rientrano quasi automaticamente nell'obbligo.
FRAIA (Fundamental Rights Impact Assessment): l'Articolo 27 del Regolamento introduce un obbligo specifico per i deployer pubblici e per alcune categorie di deployer privati di sistemi ad alto rischio: la valutazione dell'impatto sui diritti fondamentali. Non sostituisce la DPIA ma si affianca ad essa.
Base giuridica del trattamento: per i sistemi AI che prendono o supportano decisioni automatizzate, l'Articolo 22 GDPR (diritto dell'interessato a non essere soggetto a decisioni puramente automatizzate) rimane applicabile. La conformità all'AI Act non esonera dall'obbligo di avere una base giuridica adeguata per il trattamento.
Sicurezza dei dati: i requisiti di robustezza tecnica e sicurezza del Regolamento (Articolo 15) sono coerenti con gli obblighi di sicurezza del GDPR ma li specificano per il contesto AI. Un sistema AI ad alto rischio deve essere progettato per essere resiliente a tentativi di manipolazione dei dati di addestramento.
Strumento di autovalutazione: valuta lo stato di conformità della tua organizzazione prima di avviare un programma formale. Fai l'assessment AI Act Readiness — 8 minuti, nessun account richiesto.
Il Caso Italiano: NIS2, DORA e il DPCM AI in Arrivo
L'Italia ha una sovrapposizione normativa particolarmente densa che rende il solo adeguamento all'AI Act insufficiente senza una lettura integrata del quadro:
NIS2 (D.Lgs. 138/2024): recepita nell'ordinamento italiano, la Direttiva NIS2 amplia il perimetro dei soggetti obbligati a misure di cybersecurity e introduce obblighi di notifica degli incidenti. Per le organizzazioni che gestiscono infrastrutture critiche o forniscono servizi essenziali, i sistemi AI usati in funzioni operative sono soggetti contemporaneamente all'AI Act (Allegato III §2) e alla NIS2. Le misure di sicurezza richieste dal Regolamento per i sistemi ad alto rischio devono essere progettate in modo da soddisfare anche i requisiti NIS2 senza duplicazione burocratica.
DORA (Digital Operational Resilience Act — Regolamento (UE) 2022/2554): in vigore dal 17 gennaio 2025 per banche, assicurazioni, fondi e infrastrutture finanziarie. I sistemi AI usati in funzioni di credit scoring, trading, gestione del rischio operativo o customer due diligence sono soggetti contemporaneamente al Capo III AI Act e ai requisiti DORA di resilienza e test periodici. Il punto critico: la documentazione tecnica richiesta dall'AI Act e il registro ICT richiesto da DORA devono essere allineati per evitare contraddizioni.
DPCM AI (atteso 2026): il decreto si concentrerà sull'uso dell'AI nella PA italiana, con probabile introduzione di un catalogo nazionale dei sistemi AI impiegati dalla PA, una procedura di approvazione interna, e requisiti di trasparenza verso i cittadini. Le PA che hanno già sistemi AI in produzione devono prepararsi a un processo di inventario e classificazione.
Come Ottemperare in 6 Mesi: Roadmap Operativa
Con il Capo III operativo ad agosto 2026, questa è la roadmap minima per le organizzazioni che non hanno ancora iniziato:
Mese 1-2: Inventario e Classificazione
- Mappare tutti i sistemi AI in uso — inclusi strumenti SaaS di terze parti che usano AI in funzioni decisionali. La responsabilità del deployer non si esaurisce con l'acquisto di un prodotto: il deployer è obbligato dalla normativa.
- Classificare ogni sistema per livello di rischio — applicare la logica Allegato III più la logica Allegato I (prodotti regolamentati con componenti AI di sicurezza).
- Identificare i sistemi Allegato III — questi sono la priorità. Quanti sistemi HR, scoring, PA-facing, sanitari risultano dall'inventario?
- Coinvolgere il DPO nelle valutazioni che toccano dati personali fin da questa fase.
Mese 2-3: Valutazione dei Gap
- Per ogni sistema ad alto rischio: verificare se esiste documentazione tecnica adeguata, sistema di logging, meccanismo di supervisione umana, procedura di segnalazione degli incidenti.
- DPIA + FRAIA: avviare le valutazioni per i sistemi che trattano dati personali.
- Audit dei fornitori: per i sistemi AI acquisiti da terze parti, richiedere la documentazione di conformità. Se il fornitore non può fornirla, è un rischio del deployer.
Mese 3-4: Implementazione delle Misure
- Documentazione tecnica (Articolo 11): produrre o ottenere la documentazione per ogni sistema ad alto rischio.
- Registro dei sistemi AI: istituire e mantenere il registro interno richiesto.
- Supervisione umana (Articolo 14): implementare meccanismi concreti di override e monitoraggio umano — non solo policy, ma procedure operative verificabili.
- Alfabetizzazione AI (Articolo 4): formare il personale che usa o supervisiona sistemi AI. Obbligo già in vigore dall'agosto 2025.
Mese 4-5: Test e Verifica
- Testing di robustezza e accuratezza per i sistemi ad alto rischio — con documentazione dei risultati.
- Tabletop exercise di risposta a un incidente AI: cosa succede se un sistema ad alto rischio produce un output erroneo con impatto su persone fisiche?
Mese 5-6: Governance e Audit
- Designazione dell'AI compliance officer (o attribuzione della responsabilità al DPO per le organizzazioni più piccole).
- Integrazione con il quadro ISO 42001 se l'organizzazione sta perseguendo la certificazione — vedi il pillar dedicato: ISO 42001 Italia: Guida all'Implementazione.
- Revisione contrattuale con i fornitori AI: aggiornare i contratti con clausole AI Act-compliant per allocare correttamente le responsabilità tra provider e deployer.
Knowlee e l'AI Act: Compliance by Design, Non by Retrofit
Knowlee è una piattaforma di orchestrazione AI progettata con il Capo III in mente dall'origine — non adattata a posteriori. Il che ha conseguenze pratiche dirette per le organizzazioni che la usano.
Ogni lavoro eseguito da un agente AI attraverso Knowlee genera un audit trail nativo: ogni job dichiara risk_level, data_categories, human_oversight_required, approved_by e approved_at. Questi metadati non sono aggiuntivi — sono parte integrante del registro di ogni esecuzione.
Il meccanismo di approvazione umana (human-in-the-loop) non è una policy: è un gate tecnico che blocca l'esecuzione non autorizzata di job classificati a rischio elevato. Ogni approvazione viene scritta in un log immutabile.
Il risultato è che un'organizzazione che usa Knowlee per automatizzare processi che rientrano nell'Allegato III parte già con documentazione tecnica, supervisione umana verificabile e registro delle esecuzioni — gli elementi chiave richiesti dal Capo III.
Per vedere come la piattaforma si traduce in compliance operativa: 4Legals — AI Governance per Legal e Compliance.
Approfondimenti: I Sub-Pillar Tematici
Questa pagina è il nodo hub. Ogni area dell'AI Act ha un pillar dedicato con maggiore profondità operativa:
Conformità e Adeguamento
- AI Act: guida all'adeguamento per le aziende italiane — roadmap operativa specifica per il contesto italiano
- AI Compliance Checklist 2026 — checklist per le cinque dimensioni di conformità
- Guida ai Sistemi AI ad Alto Rischio — Allegato III in profondità con criteri di classificazione
- AI Act Fines Explained — struttura delle sanzioni, criteri di calcolo, casi di studio
Settori e Casi Specifici
- Annex III AI HR Employment Compliance — sistemi AI nell'occupazione: screening, valutazione, gestione
- Consip e Gare Pubbliche: compilazione automatica con AI
- MePA: risposta automatica alle gare con AI
- SDAPA: compilazione automatica con AI
Standard e Framework Tecnici
Riferimenti Legali e Risorse
Domande Frequenti sull'AI Act in Italia
1. L'AI Act si applica alle PMI italiane?
Sì, ma con alcune attenuazioni. Il Regolamento si applica a qualsiasi organizzazione che immette sul mercato UE o usa nell'UE sistemi AI, indipendentemente dalla dimensione. Tuttavia, i Considerando 97-98 e alcune disposizioni specifiche riconoscono la necessità di adeguare gli oneri alle capacità delle micro-imprese e delle PMI. In pratica: se una PMI usa un sistema di screening CV basato su AI, è deployer di un sistema Allegato III e deve garantire supervisione umana, documentazione minima e conformità procedurale. Gli obblighi di documentazione tecnica più estesi ricadono principalmente sui provider (chi sviluppa e immette sul mercato). La Commissione ha anche pubblicato linee guida specifiche per le PMI — consultabili sul portale dell'AI Office.
2. Cosa succede se il sistema AI è di un fornitore terzo?
Il deployer non è esonerato dalla responsabilità. Se l'organizzazione usa un sistema AI di terze parti che rientra nell'Allegato III, ha l'obbligo di verificare che il fornitore abbia eseguito la valutazione di conformità e che esista documentazione tecnica adeguata. Il contratto con il fornitore deve includere clausole che garantiscano accesso alla documentazione e che definiscano le responsabilità operative (supervisione umana, logging, gestione degli incidenti). Un fornitore che non può fornire documentazione di conformità per un sistema Allegato III è un rischio di compliance per il deployer.
3. Qual è la differenza tra DPIA e FRAIA?
La DPIA (Data Protection Impact Assessment) è richiesta dal GDPR (Articolo 35) quando un trattamento di dati personali comporta un rischio elevato per i diritti degli interessati. Si concentra sui rischi per la protezione dei dati. La FRAIA (Fundamental Rights Impact Assessment) è introdotta dall'AI Act (Articolo 27) per i deployer pubblici e per alcuni deployer privati di sistemi ad alto rischio. Si concentra sull'impatto sui diritti fondamentali in senso ampio — non solo privacy ma anche non discriminazione, accesso a servizi essenziali, diritti procedurali. In molti casi entrambe le valutazioni sono necessarie e devono essere coordinate. La FRAIA non sostituisce la DPIA: si aggiunge ad essa.
4. L'AI Act si applica ai modelli di AI generativa come ChatGPT?
I modelli di AI generativa di uso generale (GPAI — General Purpose AI Models) sono disciplinati dal Capo V del Regolamento, in vigore dall'agosto 2025. I provider di modelli GPAI (OpenAI, Anthropic, Google, Meta per i modelli open) hanno obblighi specifici di trasparenza, documentazione tecnica e gestione dei rischi sistemici per i modelli più potenti. Per le organizzazioni italiane che usano modelli GPAI come deployer, l'obbligo principale è l'Articolo 50: trasparenza verso gli utenti finali (informarli che stanno interagendo con AI generativa) e, per contenuti sintetici, marcatura come artificialmente generati.
5. Come si integra l'AI Act con la NIS2 per le infrastrutture critiche?
Per le organizzazioni soggette a NIS2 che usano sistemi AI in funzioni operative critiche, l'integrazione richiede un approccio unificato alla gestione del rischio. I requisiti di sicurezza tecnica dell'AI Act (Articolo 15 — robustezza, accuratezza, cybersecurity) e i requisiti di resilienza NIS2 sono concettualmente coerenti ma formalmente distinti. La prassi raccomandata è sviluppare un unico framework di risk assessment che mappa i controlli richiesti da entrambe le normative, evitando la duplicazione documentale. L'ACN (Agenzia per la Cybersicurezza Nazionale) ha avviato un tavolo di lavoro specifico sull'intersezione NIS2/AI Act — le linee guida sono attese nel 2026.
6. Cosa cambia concretamente con l'entrata in vigore del Capo III ad agosto 2026?
Agosto 2026 non è la data in cui "bisogna essere conformi": è la data dalla quale le autorità di vigilanza nazionali possono avviare ispezioni e imporre sanzioni per sistemi Allegato III non conformi. In pratica, significa che dall'agosto 2026 un sistema HR che usa AI per lo screening senza documentazione tecnica adeguata, senza meccanismi di supervisione umana documentati e senza registrazione nel database EU espone l'organizzazione a sanzioni fino a 15 milioni di euro o al 3% del fatturato globale. Non è una scadenza per iniziare i lavori — è la scadenza entro cui i lavori devono essere conclusi.
Strumenti e Risorse
- Assessment gratuito: AI Act Readiness Assessment — valuta la tua organizzazione in 8 minuti
- Prenota una consulenza: Prenota una sessione di 30 minuti — mappatura del gap rispetto alle scadenze di agosto 2026
- Linee guida ufficiali: EU AI Office
- Garante Privacy italiano: Garante Privacy — AI
Ultimo aggiornamento: aprile 2026. Il Regolamento (UE) 2024/1689 è in vigore. Le date di applicazione sono definitive salvo modifiche agli atti delegati della Commissione.