Capitolo 2 “Riferimenti e sigle”: assenza di una sottosezione dedicata ai riferimenti tecnico-metodologici sulla sicurezza dei sistemi di IA
Citazione: §2.2 “Riferimenti normativi”, §2.3 “Linee guida di riferimento”, §2.4 “Definizioni e acronimi”.
Il Capitolo 2 del documento procurement organizza i riferimenti principalmente in termini di atti normativi, linee guida e definizioni. Tuttavia, non prevede una sottosezione dedicata ai riferimenti tecnico-metodologici internazionali sulla sicurezza dei sistemi di IA, pur trattandosi di un corpus oggi ampiamente riconosciuto e necessario per dare contenuto operativo a nozioni come gestione del rischio cyber, tassonomie di attacco, testing avversariale e verifica della robustezza. La lacuna è particolarmente evidente se si considera che il capitolo 3 entra già nel merito della cybersicurezza per il procurement, fino a richiamare nel §3.6.2 una tassonomia di attacco NIST, ma senza che tali riferimenti siano raccolti e dichiarati in modo sistematico nel quadro iniziale dei riferimenti.
L’effetto è duplice. Da un lato, le Amministrazioni che intendano tradurre i requisiti di sicurezza in clausole verificabili non dispongono di un elenco esplicito e unitario di framework a cui ancorarsi. Dall’altro, contenuti tecnicamente sensibili, come il testing avversariale e il red-teaming dei sistemi di IA, restano privi di un ancoraggio metodologico formale nel capitolo dedicato al procurement, pur essendo oggetto di documenti pubblici riconosciuti e ampiamente utilizzati. Questo punto è particolarmente rilevante rispetto ai commenti proposti ai §3.6.3 e §3.7 sul red-teaming (vedi thread appositi), perché senza riferimenti tecnico-metodologici dichiarati il rischio è che tali obblighi restino formulati in modo dichiarativo e non facilmente traducibili in requisiti tecnici esigibili.
Raccomandazione: integrare il Capitolo 2 con una sottosezione autonoma, ad esempio un nuovo §2.3-bis “Riferimenti tecnico-metodologici internazionali sulla sicurezza dei sistemi di IA”, oppure, in alternativa, con un rinvio espresso al corrispondente quadro tecnico-metodologico del corpus AgID, così da raccogliere in forma strutturata i principali documenti di riferimento a cui il capitolo 3 possa rinviare in modo sintetico. Tale sottosezione dovrebbe includere almeno:
(a) NIST AI Risk Management Framework 1.0 e relativo Generative AI Profile (NIST AI 600-1), per il quadro generale di gestione del rischio dei sistemi di IA, con particolare riferimento ai sistemi generativi;
(b) NIST AI 100-2 “Adversarial Machine Learning - A Taxonomy and Terminology of Attacks and Mitigations”, come tassonomia di riferimento degli attacchi avversari, già implicitamente richiamata nel corpo delle Linee guida al §3.6.2, senza però essere consolidata nel quadro dei riferimenti del Capitolo 2;
(c) MITRE ATLAS, come knowledge base delle tattiche e tecniche avversarie verso i sistemi di IA;
(d) OWASP Top 10 for Large Language Model Applications e OWASP GenAI Red Teaming Guide, come riferimenti metodologici riconosciuti per la sicurezza delle applicazioni basate su LLM e per la conduzione strutturata di attività di red-teaming sui sistemi di IA generativa;
(e) ENISA “Artificial Intelligence Cybersecurity Challenges” ed ENISA “Multilayer Framework for Good Cybersecurity Practices for AI”, come riferimenti europei sulla sicurezza dei sistemi di IA.
L’inclusione di tali riferimenti nel Capitolo 2 consentirebbe al capitolo 3 di rinviarvi in forma sintetica, senza ripetere citazioni estese, e fornirebbe alle Amministrazioni un insieme dichiarato di documenti su cui ancorare i requisiti tecnici di sicurezza, inclusi quelli relativi al testing avversariale e al red-teaming dei sistemi di IA.