INFORMATION TECHNOLOGY
AI Act: Consiglio e Parlamento UE raggiungono un accordo provvisorio sul pacchetto “Omnibus VII” per semplificare l’attuazione delle regole sull’intelligenza artificiale.
La Presidenza del Consiglio dell’Unione europea e i negoziatori del Parlamento europeo hanno raggiunto un accordo provvisorio su una proposta volta a razionalizzare e semplificare talune disposizioni in materia di intelligenza artificiale. L’intervento si inserisce nel pacchetto legislativo c.d. “Omnibus VII”, parte dell’agenda europea di semplificazione normativa, e mira ad agevolare l’attuazione del Regolamento UE sull’intelligenza artificiale, riducendo alcuni oneri amministrativi e chiarendo il coordinamento tra AI Act e normativa settoriale.
Secondo quanto comunicato dal Consiglio, l’accordo intende garantire maggiore certezza giuridica agli operatori economici e un’applicazione più armonizzata delle regole nell’Unione, preservando al contempo il livello di tutela rispetto ai rischi connessi all’impiego dei sistemi di IA. La proposta originaria della Commissione prevedeva, tra l’altro, un adeguamento del calendario applicativo delle regole sui sistemi di IA ad alto rischio, l’estensione di alcune esenzioni previste per le PMI anche alle small mid-caps, modifiche mirate agli obblighi di conformità, il rafforzamento dei poteri dell’AI Office e una riduzione della frammentazione nella governance.
Uno degli aspetti centrali dell’accordo riguarda il differimento dell’applicazione delle disposizioni relative ai sistemi di IA ad alto rischio. I co-legislatori hanno individuato due date fisse: il 2 dicembre 2027 per i sistemi di IA ad alto rischio stand-alone e il 2 agosto 2028 per i sistemi di IA ad alto rischio incorporati in prodotti. Tale scelta sostituisce l’impostazione, inizialmente prospettata dalla Commissione, che collegava l’entrata in applicazione delle regole alla disponibilità degli standard e degli strumenti necessari.
L’accordo provvisorio introduce inoltre una nuova pratica vietata nell’ambito dell’AI Act, relativa alla generazione mediante sistemi di IA di contenuti sessuali o intimi non consensuali, nonché di materiale pedopornografico o di abuso sessuale su minori. Si tratta di un’integrazione rilevante del catalogo delle pratiche vietate, che rafforza il presidio normativo rispetto a utilizzi dell’IA particolarmente lesivi della dignità, dell’integrità e dei diritti fondamentali delle persone, con specifica attenzione alla protezione dei minori.
Sul piano degli obblighi di compliance, viene ripristinato l’obbligo, per i fornitori, di registrare nella banca dati UE i sistemi di IA quando essi ritengano che tali sistemi possano beneficiare di un’esenzione dalla qualificazione come sistemi ad alto rischio. Viene altresì confermato il requisito della “stretta necessità” per il trattamento di categorie particolari di dati personali ai fini dell’individuazione e correzione dei bias, in coerenza con l’esigenza di mantenere elevato il presidio di proporzionalità e minimizzazione nel trattamento di dati sensibili.
L’accordo interviene anche sui termini relativi agli strumenti di sperimentazione e trasparenza. Il termine per l’istituzione, da parte delle autorità nazionali competenti, delle regulatory sandboxes in materia di IA viene posticipato al 2 agosto 2027. Parallelamente, viene ridotto da sei a tre mesi il periodo di grazia concesso ai fornitori per implementare soluzioni di trasparenza relative ai contenuti generati artificialmente, con nuova scadenza fissata al 2 dicembre 2026.
Quanto alla governance, il testo chiarisce le competenze dell’AI Office in relazione alla supervisione dei sistemi di IA basati su modelli di IA per finalità generali, quando il modello e il sistema siano sviluppati dallo stesso fornitore. Sono tuttavia individuate specifiche eccezioni nelle quali restano competenti le autorità nazionali, tra cui i settori dell’attività di contrasto, della gestione delle frontiere, delle autorità giudiziarie e delle istituzioni finanziarie.
Particolare rilievo assume, infine, il coordinamento tra AI Act e normativa settoriale applicabile a prodotti industriali e regolamentati, quali dispositivi medici, giocattoli, ascensori, macchine e unità da diporto. I co-legislatori hanno concordato un meccanismo che consente di limitare l’applicazione delle prescrizioni dell’AI Act nei casi in cui la legislazione settoriale contenga requisiti specifici in materia di IA sostanzialmente analoghi, mediante atti di esecuzione. Per il settore delle macchine, è prevista un’esenzione dalla diretta applicabilità dell’AI Act, accompagnata dal conferimento alla Commissione del potere di adottare atti delegati nell’ambito del regolamento macchine per integrare requisiti di salute e sicurezza relativi ai sistemi di IA qualificati come ad alto rischio.
La Commissione sarà inoltre tenuta a fornire orientamenti agli operatori economici che immettono o utilizzano sistemi di IA ad alto rischio soggetti alla normativa armonizzata settoriale, al fine di agevolare l’adempimento degli obblighi previsti dall’AI Act e, al contempo, minimizzare gli oneri di conformità. Tale previsione appare particolarmente rilevante per le imprese operanti in filiere industriali regolamentate, nelle quali la sovrapposizione tra discipline di prodotto, sicurezza e requisiti specifici per l’IA rischia di generare duplicazioni documentali, incertezze interpretative e costi di compliance.
L’accordo resta, allo stato, provvisorio: dovrà essere approvato formalmente dal Consiglio e dal Parlamento europeo, per poi essere sottoposto alla revisione giuridico-linguistica e alla successiva adozione formale dell’atto legislativo. Le imprese che sviluppano, integrano o utilizzano sistemi di IA, in particolare se potenzialmente qualificabili come ad alto rischio, dovranno quindi monitorare l’evoluzione del testo definitivo e verificare tempestivamente l’impatto delle nuove scadenze e delle modifiche proposte sui propri programmi di compliance, governance dei dati, documentazione tecnica, procedure di gestione del rischio e rapporti contrattuali lungo la catena del valore.