Analizzando il Capitolo 5 della bozza e pur apprezzando il lavoro svolto nel definire le responsabilità per la conformità con l’AI Act, ritengo necessarie alcune modifiche per garantire il pieno allineamento con il Regolamento UE 2024/1689 e una maggiore chiarezza operativa. Per quanto segue:
Introduzione del capitolo
Il paragrafo introduttivo dovrebbe essere integrato specificando che l’AI Act si applica con tempistiche diverse (si veda ciò alla luce del lavoro di standardizzazione ora in atto presso la CEN/CENELEC JTC21). Propongo di aggiungere:
“Le PA DEVONO tenere presente che le disposizioni dell’AI Act entrano in vigore con tempistiche differenziate: i divieti di cui all’art. 5 sono già in vigore dal 2 febbraio 2025, mentre la maggior parte delle disposizioni, incluse quelle sui sistemi ad alto rischio, saranno applicabili dal 2 agosto 2026. In questa fase transitoria, le PA DOVREBBERO comunque iniziare ad adottare misure preparatorie per garantire la conformità.”
Sezione sui ruoli
Nella sezione sui ruoli, suggerisco di precisare meglio le circostanze in cui una PA deployer diventa fornitore:
“Le PA DEVONO essere consapevoli che, anche quando operano come deployer, possono assumere le responsabilità del fornitore in tre specifiche circostanze previste dall’art. 25 dell’AI Act: quando appongono il proprio nome o marchio a un sistema già sul mercato; quando apportano una ‘modifica sostanziale’ a un sistema già sul mercato che continua a essere ad alto rischio; o quando modificano la finalità di un sistema non ad alto rischio rendendolo ad alto rischio.”
Sec 5.1 sul monitoraggio
Nel sottosezione 5.1, propongo di integrare gli obblighi per le PA che agiscono come fornitori di sistemi ad alto rischio, aggiungendo:
“Le PA che operano come fornitori di sistemi di IA ad alto rischio DEVONO istituire e documentare un sistema di gestione della qualità conforme all’art. 17 dell’AI Act. Tale sistema DEVE prevedere una strategia per la conformità normativa, procedure per il controllo della progettazione, un quadro di responsabilità della dirigenza, nonché procedure per la gestione delle risorse e della documentazione.”
Si noti che tale sistema di gestione sarà presto anche proposto in un standard presso la CEN/CENELEC JTC21, ma che tuttavia tale standard non sarà univoco (e si consideri inoltre che standard apparentemente simili, come la ISO/IEC 42001, possono differire sostanzialmente dalla definizione di QMS - quality management system - preposto nell’EU AI Act)
FRIA
Nella sezione sulla valutazione dell’impatto sui diritti fondamentali (FRIA), credo che occorra precisare l’ambito soggettivo di applicazione:
“La valutazione dell’impatto sui diritti fondamentali (FRIA) è obbligatoria per le PA che sono organismi pubblici o entità private che forniscono servizi pubblici, nonché per le PA che utilizzano sistemi di IA ad alto rischio nell’ambito bancario e assicurativo. Le PA DEVONO notificare i risultati della FRIA all’autorità di vigilanza del mercato pertinente.”
Sistemi GPAI con rischio sistemico
La sezione sui modelli GPAI con rischio sistemico è troppo generica e dovrebbe essere ampliata:
“Le PA che intendono utilizzare sistemi basati su modelli GPAI con rischio sistemico DEVONO verificare che il fornitore abbia soddisfatto non solo gli obblighi generali dell’art. 53, ma anche i requisiti specifici dell’art. 55 relativi alla valutazione e mitigazione dei rischi sistemici, inclusi test avversariali documentati, valutazione dei rischi a livello UE, reportistica sugli incidenti gravi e protezione adeguata contro le minacce informatiche. Le PA DOVREBBERO consultare il Registro UE dei modelli GPAI con rischio sistemico prima di adottarli.”
Registro UE
Manca completamente un riferimento al Registro UE (si veda articolo 49 e 71). Suggerisco di aggiungere:
“Le PA che operano come fornitori di sistemi di IA ad alto rischio DEVONO registrarli nella banca dati UE prima di immetterli sul mercato, fornendo le informazioni richieste dall’Allegato VIII. Le PA che operano come deployer di sistemi di IA ad alto rischio e sono autorità pubbliche DEVONO registrarsi e registrare l’utilizzo di tali sistemi nella banca dati UE. La registrazione dei sistemi di IA ad alto rischio utilizzati nell’ambito di applicazione della legge, controllo delle frontiere, migrazione e gestione dell’asilo avviene in una sezione non pubblica della banca dati.”
Sec 5.3 sull’auditing
In 5.3, parlando di documentazione tecnica e non solo, propongo di aggiungere:
“Le PA che agiscono come deployer DEVONO verificare che i sistemi ad alto rischio siano marcati CE e accompagnati da una dichiarazione di conformità UE. Per i sistemi che rientrano nella lista dell’Allegato III, le PA DEVONO verificare che il fornitore abbia seguito la procedura di valutazione della conformità appropriata, sia basata sul controllo interno (Allegato VI) che con il coinvolgimento di un organismo notificato (Allegato VII), a seconda dei casi.”
Sec 5.4 sulla conservazione
Nella sottosezione 5.4, sarebbe opportuno specificare meglio i tempi di conservazione:
“Per i sistemi ad alto rischio, le registrazioni automatiche degli eventi (log) DEVONO essere conservate per un periodo di almeno sei mesi dalla messa in servizio del sistema, salvo diversa disposizione della legislazione dell’Unione o nazionale. Le PA che operano come fornitori DEVONO conservare la documentazione tecnica per un periodo di dieci anni dopo l’immissione sul mercato del sistema.”