EU AI Act: dal 2 agosto scattano i primi obblighi per le aziende
Con l'AI Act europeo pienamente in vigore, le aziende che usano sistemi AI ad alto rischio devono ora soddisfare requisiti di trasparenza, documentazione e supervisione umana. Sanzioni fino al 3% del fatturato globale.
L'AI Act europeo è entrato nella sua fase di enforcement più significativa: dal 2 agosto 2026, le aziende che operano nell'UE con sistemi AI classificati ad alto rischio devono rispettare una serie di obblighi precisi.
Cosa cambia in concreto
I sistemi AI ad alto rischio — quelli usati in settori come sanità, istruzione, recruiting, credito e infrastrutture critiche — devono ora:
- Documentare il ciclo di vita del modello — dati di addestramento, metriche di accuratezza, limitazioni note
- Garantire supervisione umana — ogni decisione significativa deve poter essere rivista da un essere umano
- Registrarsi nel database EU — i fornitori devono iscrivere i loro sistemi nel registro centralizzato
- Fornire spiegazioni agli utenti — su richiesta, le aziende devono spiegare perché un sistema AI ha preso una certa decisione
Chi è interessato
L'obbligo si applica sia ai fornitori di sistemi AI (le aziende che li sviluppano) sia agli user (le organizzazioni che li integrano nei propri processi). Le PMI hanno procedure semplificate, ma non sono esenti.
Le sanzioni
Le violazioni possono portare a:
- 3% del fatturato globale per la maggior parte delle violazioni
- 6% per i sistemi AI vietati (come il social scoring)
- 1,5% per informazioni false fornite alle autorità
Cosa resta fuori
I sistemi AI a basso rischio — come i chatbot di supporto clienti o i filtri spam — non sono soggetti agli obblighi più pesanti. È sufficiente una dichiarazione volontaria di conformità.
Per le applicazioni di uso generale (come ChatGPT o Claude usati direttamente), i requisiti sono diversi e regolati da norme specifiche sui modelli GPAI.