Il Regolamento UE 2024/1689 sull'Intelligenza Artificiale.
Workshop organizzato da Paradigma S.p.A. - Roma, 22 Aprile 2026.
La giornata formativa - con l'Avv. Alessandro del Ninno quale relaore unico - ha offerto un inquadramento sistematico del nuovo Regolamento europeo sull’intelligenza artificiale, muovendo dall’entrata in vigore della disciplina, dai termini di applicabilità, dall’oggetto e dalle finalità del Regolamento, per poi approfondire le principali tipologie di IA, le modalità di addestramento, la distinzione tra modelli e sistemi di IA, l’ambito di applicazione soggettivo e l’efficacia delle nuove regole.
Particolare attenzione è stata dedicata alle definizioni giuridiche, tecnologiche, commerciali ed etiche rilevanti, incluse quelle relative alla progettazione, all’utilizzo e all’operatività dei sistemi di IA, ai soggetti coinvolti nella catena del valore, alle attività commerciali aventi a oggetto sistemi di IA e ai sistemi che utilizzano tecnologie biometriche.
Il programma ha affrontato il cuore del Regolamento, ossia l’approccio risk based adottato dal legislatore europeo. Sono state esaminate le pratiche di intelligenza artificiale vietate, anche alla luce delle Linee guida applicative della Commissione UE, nonché la classificazione dei sistemi di IA ad alto rischio ai sensi dell’articolo 6 e dell’Allegato III del Regolamento. L’Avv. Alessandro del Ninno ha guidato i partecipanti nell’analisi dei requisiti di conformità dei sistemi di IA ad alto rischio quale presupposto per la loro immissione sul mercato o messa in servizio, con particolare riferimento alla strutturazione, attuazione, documentazione e manutenzione di un sistema di risk assessment.
Ampio spazio è stato riservato agli adempimenti pratici in materia di risk assessment, data governance, documentazione tecnica, tracciamento e conservazione dei log, trasparenza verso gli utenti, cybersecurity, accuratezza, robustezza, resilienza e supervisione umana. Sono stati inoltre esaminati gli obblighi orizzontali dei fornitori di sistemi di IA ad alto rischio, inclusa l’implementazione del sistema di gestione della qualità quale forma di accountability dell’intelligenza artificiale, nonché le procedure di valutazione della conformità e gli obblighi gravanti sugli altri soggetti coinvolti nella catena del valore, con un focus specifico sui deployer.
La seconda parte del convegno è stata dedicata ai profili gestionali, informativi e contrattuali connessi all’utilizzo dei sistemi di IA, all’impatto sui contratti di fornitura, alla redazione e documentazione della Valutazione d’impatto sui diritti fondamentali per i sistemi di IA ad alto rischio, nonché agli obblighi relativi ai modelli di IA a scopi generali, inclusi i GPAI e i modelli con rischio sistemico.
Il programma ha inoltre approfondito la tutela del diritto d’autore, la regolamentazione dei deepfake, i nuovi diritti delle persone fisiche nell’interazione con sistemi di IA e i regulatory sandboxes quali strumenti di sperimentazione anticipata delle soluzioni tecnologiche.
La giornata si è conclusa con l’analisi della governance europea dell’IA, del ruolo dell’Ufficio per l’IA, del Comitato europeo per l’intelligenza artificiale, degli esperti, del forum per l’IA e delle autorità nazionali, nonché con l’esame dei codici di condotta, del sistema sanzionatorio, dei profili di responsabilità e risarcimento del danno da sistema di IA e dei primi riferimenti alle norme italiane in materia.