11. Sicurezza cibernetica

Bozza di linee guida per l’adozione di IA nella pubblica amministrazione

La consultazione pubblica è attiva dal 18/02/2025 al 20/03/2025.

Questo argomento accoglie i commenti relativi al capitolo 11. Sicurezza cibernetica.

I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).

Leggi il documento in consultazione.

Il documento trascura di affrontare una sfida strutturale che condiziona ogni sforzo di modernizzazione digitale: la dipendenza dell’Europa da infrastrutture e modelli algoritmici sviluppati al di fuori dei suoi confini. Questo silenzio sulla sovranità digitale e sull’indipendenza tecnologica rischia di vanificare gli stessi obiettivi di sicurezza e trasparenza che le linee guida promuovono, poiché la capacità di controllare processi, dati e tecnologie è prerequisito indispensabile per qualsiasi politica pubblica realmente autonoma.
La questione centrale risiede nel controllo delle infrastrutture critiche. Oggi, la maggior parte dei sistemi di IA utilizzati nella PA si appoggiano a piattaforme cloud gestite da aziende statunitensi o cinesi, soggette a legislazioni nazionali che ne consentono l’accesso ai dati per motivi di sicurezza o intelligence. Il Cloud Act statunitense, ad esempio, permette alle autorità di richiedere dati custoditi da società americane anche se fisicamente ubicati in server europei, mentre la National Intelligence Law cinese impone alle aziende di collaborare con i servizi segreti del governo. Questo scenario crea un paradosso: mentre le linee guida italiane insistono sulla protezione dei dati personali in ottica GDPR, l’infrastruttura stessa su cui questi dati risiedono potrebbe esporli a giurisdizioni esterne, minando alla base il principio di sovranità informativa. Senza un’alternativa europea in termini di cloud pubblico e privato, la PA resta ostaggio di dinamiche geopolitiche che ne limitano l’autonomia decisionale.
Un secondo aspetto critico riguarda il controllo epistemico sui modelli di IA. L’adozione di algoritmi sviluppati da Big Tech extraeuropee introduce un deficit di trasparenza che va oltre la mera spiegabilità tecnica. Quando una pubblica amministrazione utilizza un sistema di IA proprietario, non solo non ha accesso al codice sorgente, ma spesso non dispone degli strumenti per verificarne la logica interna, i bias impliciti o i criteri di addestramento. Questo trasferisce potere decisionale a entità private che definiscono standard e priorità in base a logiche commerciali o a interessi nazionali divergenti da quelli europei. Ad esempio, un modello di IA sviluppato in Silicon Valley potrebbe incorporare visioni culturali o parametri etici non allineati ai principi della Carta dei Diritti Fondamentali dell’UE, influenzando indirettamente servizi pubblici essenziali come l’allocazione di risorse sociali o la valutazione di pratiche amministrative. Le linee guida, pur richiedendo sistemi di verificabilità, non prevedono meccanismi per garantire che questa verifica avvenga attraverso enti indipendenti europei, dotati di competenze e strumenti per contrastare l’opacità dei “black box” algoritmici.
La dipendenza tecnologica si traduce anche in vulnerabilità strategiche. L’assenza di un’industria europea competitiva nell’IA avanzata costringe le istituzioni pubbliche a rivolgersi a fornitori esteri per soluzioni critiche, esponendosi a rischi di lock-in tecnologico. Ciò significa che aggiornamenti, manutenzioni o modifiche ai sistemi dipendono dalla volontà e dalla stabilità di attori esterni, con possibili ripercussioni sulla continuità dei servizi pubblici. Inoltre, la mancanza di standard aperti e interoperabili rende difficile integrare soluzioni diverse o migrare dati tra piattaforme, limitando la flessibilità della PA. Sebbene le linee guida menzionino la necessità di conformità alle norme tecniche, non esplicitano come queste debbano essere costruite per favorire l’autonomia europea, ad esempio promuovendo formati di dati non proprietari o protocolli condivisi.
Un ulteriore punto critico è la gestione del ciclo di vita dei dati. Le linee guida sottolineano l’importanza del GDPR, ma non riconoscono che la protezione dei dati è intrinsecamente legata alla loro localizzazione fisica e giuridica. L’archiviazione su server controllati da aziende extra-UE espone a rischi di accesso non autorizzato, estrazione di valore o sorveglianza massiva, con implicazioni per la privacy ma anche per la sicurezza nazionale. Ad esempio, dati sanitari o informazioni su infrastrutture critiche potrebbero diventare oggetto di analisi predittiva da parte di governi stranieri, utilizzati per scopi non allineati agli interessi europei. La proposta di cloud sovrani, come Gaia-X, rimane marginale nel dibattito, mentre servizi pubblici continuano a affidarsi a AWS, Microsoft Azure o Google Cloud, rinunciando a costruire capacità strategiche interne.
Infine, la mancanza di un preciso progetto per gli investimenti in ricerca e sviluppo condanna l’Europa a un ruolo di “follower” tecnologico. Le linee guida italiane non incoraggiano esplicitamente la PA a privilegiare soluzioni europee o a partecipare a progetti comunitari per lo sviluppo di modelli di IA open-source, nonostante questi ultimi rappresentino un’opportunità per ridurre la dipendenza e favorire l’innovazione locale. Senza un ecosistema di competenze e tecnologie made in Europe, la sovranità digitale rimarrà un concetto astratto. Servirebbero politiche attive per formare professionisti in ambito IA, sostenere startup europee e creare partnership tra PA, università e industria, trasformando le istituzioni pubbliche non solo in utilizzatori passivi, ma in co-sviluppatori di soluzioni su misura.
In conclusione, l’efficacia delle linee guida dipende dalla capacità di integrarle in una visione strategica più ampia, che riconosca la sovranità digitale come pilastro della sicurezza nazionale. Senza investimenti in infrastrutture autonome, standard aperti, modelli trasparenti e competenze locali, ogni sforzo di regolamentazione rischia di essere scavalcato da dinamiche di potere globale che l’Europa non controlla. La posta in gioco non è solo tecnica, ma politica: decidere se l’IA nella PA sarà strumento di emancipazione democratica o moltiplicatore di dipendenze esterne.

1 Mi Piace

11.2 GESTIONE DEL RISCHIO CIBERNICO
I rischi dovrebbero essere differenziati a seconda che la PA sia un fornitore o un deployer

11.6 GESTIONE INTEGRATA DELLA SICUREZZA DEI SISTEMI DI AI
Si suggerisce di prevedere una gestione della sicurezza semplificata per le PA deployer, soprattutto quanto l’utilizzo di AI avviene per finalità meramente interne.

11.2. Gestione del rischio cibernetico

Per mitigare il rischio di esfiltrazione o perdita di dati sensibili, le PA devono implementare soluzioni nazionali o europee che forniscano controlli avanzati come filtri di input/output, monitoraggio continuo e sistemi di prevenzione delle fughe di dati (DLP - Data Loss Prevention) nelle soluzioni di IA.

Sezione utile per i destinatari del documento in consultazione e ben strutturata.

Sicurezza cibernetica nell’adozione dell’IA nella Pubblica Amministrazione (Capitolo 11)

Federmanager riconosce la sicurezza cibernetica come un pilastro fondamentale per l’adozione e l’integrazione efficace dell’Intelligenza Artificiale (IA) nei processi della Pubblica Amministrazione ¶. L’adozione dell’IA offre opportunità significative per migliorare l’efficienza e l’accessibilità dei servizi pubblici, ma introduce anche nuovi rischi, minacce e vulnerabilità. È essenziale, quindi, che la PA affronti queste sfide attraverso un approccio strutturato alla gestione del rischio cibernetico, basato su standard internazionali e best practice europee.

Federmanager sostiene che la sicurezza dei sistemi di IA non debba essere considerata un elemento accessorio, bensì un requisito imprescindibile sin dalla fase di progettazione, garantendo l’adozione di modelli sicuri, affidabili e resilienti. La protezione dei dati, la robustezza degli algoritmi e la sicurezza delle infrastrutture ICT devono essere integrate lungo tutto il ciclo di vita dell’IA, affinché le soluzioni adottate possano rispondere efficacemente alle esigenze della PA e dei cittadini, senza comprometterne la sicurezza.

Proposte di principi guida per la sicurezza dell’IA nella PA

Integrazione della sicurezza in tutte le fasi del ciclo di vita dell’IA
La PA deve adottare un approccio “security by design”, incorporando la sicurezza fin dalle prime fasi di progettazione, sviluppo e implementazione dei sistemi di IA. La protezione dei dati, la robustezza dei modelli e l’integrità delle infrastrutture devono essere garantite attraverso audit periodici, test di vulnerabilità e verifiche di conformità ai principali standard di cybersecurity.

Protezione della catena di approvvigionamento
I sistemi di IA sono spesso basati su modelli, dataset e componenti sviluppati da terze parti. Federmanager sottolinea la necessità di implementare controlli rigorosi sulla supply chain digitale, verificando la sicurezza dei fornitori, monitorando le vulnerabilità dei modelli pre-addestrati e garantendo che gli strumenti utilizzati siano conformi alle normative di sicurezza europee.

Gestione del rischio cibernetico basata su framework consolidati
La PA deve adottare approcci strutturati alla gestione del rischio cibernetico, facendo riferimento a framework riconosciuti come l’AI Risk Management Framework (NIST) e le linee guida dell’ENISA sulla cybersecurity dei sistemi di IA. La valutazione dei rischi deve includere un’analisi delle minacce emergenti, una strategia di risposta agli incidenti e un piano di aggiornamento continuo delle misure di protezione.

Protezione dei dati e della privacy
L’IA impiegata nella PA deve rispettare rigorosamente i principi del GDPR e garantire la protezione dei dati personali attraverso misure di sicurezza avanzate. Tecniche come la crittografia, l’anonimizzazione e la pseudonimizzazione dei dati devono essere adottate per minimizzare i rischi legati alla gestione delle informazioni sensibili.

Difesa contro attacchi specifici all’IA
I sistemi di IA devono essere protetti contro attacchi mirati come evasion attacks, poisoning attacks, privacy attacks e abuse attacks, che possono compromettere l’integrità e l’affidabilità delle soluzioni adottate dalla PA. Tecniche di difesa come il retraining con adversarial examples, la sanitizzazione dei dati di addestramento e il monitoraggio delle richieste devono essere parte integrante delle strategie di sicurezza.

Monitoraggio continuo e audit regolari
La PA deve istituire un sistema di monitoraggio attivo e continuo sui modelli di IA per individuare eventuali anomalie o compromissioni. Devono essere previsti audit periodici e test di sicurezza, come penetration testing e simulazioni di attacco, per valutare la resilienza delle infrastrutture AI-based e garantire l’aggiornamento delle misure di sicurezza in base all’evoluzione delle minacce.

Formazione e consapevolezza sulla cybersecurity dell’IA
Federmanager evidenzia l’importanza della formazione dei dirigenti pubblici e dei responsabili della trasformazione digitale in materia di cybersecurity applicata all’IA. È essenziale che i decision-maker abbiano una conoscenza approfondita delle vulnerabilità dei sistemi AI e delle best practice per la protezione dei dati e delle infrastrutture digitali.

Resilienza delle infrastrutture ICT e gestione delle identità digitali
La sicurezza delle infrastrutture che ospitano i sistemi di IA deve essere garantita attraverso misure di protezione della rete, gestione degli accessi e autenticazione multi-fattore (MFA). Inoltre, la PA deve implementare strumenti avanzati per la gestione delle identità digitali (IAM), al fine di prevenire accessi non autorizzati e ridurre i rischi legati a compromissioni degli account amministrativi.

Sviluppo di un piano di risposta agli incidenti e gestione delle crisi
La PA deve disporre di strategie di risposta agli incidenti di sicurezza informatica, prevedendo procedure per la rilevazione, la mitigazione e il recupero da eventuali attacchi informatici che coinvolgano i sistemi di IA. Il piano di risposta deve essere aggiornato periodicamente in base ai nuovi scenari di minaccia.

Cooperazione tra PA, imprese e centri di ricerca sulla sicurezza dell’IA
La sicurezza dell’IA richiede un approccio collaborativo tra PA, aziende del settore ICT e istituti di ricerca per sviluppare standard comuni e strumenti innovativi di protezione. Federmanager sostiene la creazione di hub nazionali di sicurezza dell’IA, in cui esperti del settore possano condividere best practice, testare soluzioni avanzate di difesa e promuovere l’adozione di tecnologie resilienti.

L’Istituto Europeo per il Diritto Computazionale e la Cyber Resilienza (di seguito, “l’Istituto”) è un ente di ricerca e consulenza che opera nell’ambito del diritto delle nuove tecnologie, della regolamentazione della cybersicurezza e dell’intelligenza artificiale (IA). L’Istituto promuove lo sviluppo normativo e strategico di soluzioni tecnologiche innovative, favorendo la collaborazione tra soggetti pubblici e privati per l’adozione responsabile delle tecnologie emergenti.
In qualità di stakeholder qualificato, l’Istituto intende partecipare alla consultazione pubblica sulle Linee guida per l’adozione dell’IA nella PA redatte dall’Agenzia per l’Italia Digitale (AGID), con l’obiettivo di contribuire al miglioramento delle politiche pubbliche in materia di IA, garantendo un bilanciamento tra innovazione, tutela dei diritti fondamentali e conformità normativa a livello europeo.

Fermi i commenti già scritti per altre parti delle linee guida in consultazione, anzitutto si evidenzia come i profili di sicurezza informatica siano un sicuro elemento di pregio delle presenti linee guida, a dimostrazione della sensibilità dimostrata da AGID su tale tema.
Per facilitare ancor di più l’approccio risk based anche sotto il profilo della sicurezza informatica, occorrerebbe tuttavia specificare meglio ed introdurre delle apposite policy sugli ambienti di prova, con puntuale prescrizione anche del dovuto coinvolgimento multidisciplinare di tutte le professionalità utili all’implementazione dei sistemi di AI nelle pubbliche amministrazioni (compresi gli amministratori di sistema)

Includere indicazioni sulle implicazioni di sicurezza dell’adozione dell’IA, in particolare nelle fasi di sperimentazione e regolamentazione.

11.3 Asset
Essendo destinati a operare in contesti critici e ad alto valore aggiunto, i sistemi di Decision Intelligence “AI based” dovrebbero essere analizzati, progettati, sviluppati e gestiti con un approccio multidisciplinare (DevSecOps, DataOps e ModelOps). È essenziale che siano realizzati da team altamente qualificati, con competenze integrate in ingegneria del software, cybersecurity, etica dell’IA e gestione del rischio, affinché possano generare un impatto positivo, sicuro e sostenibile sulle organizzazioni e sulla società nel suo complesso.

Secondo Le Linee Guida proposte le Pubbliche Amministrazioni sono tenute a prevedere percorsi relativi alla sicurezza cibernetica dell’IA e concernenti la capacità di rispondere a minacce, incidenti e crisi cibernetiche nel contesto dell’IA, dandone opportuna evidenza nell’ambito della sezione della pianificazione della formazione prevista del PIAO.

L’AI Act prevede, all’articolo 15, che i sistemi di IA ad alto rischio siano progettati e sviluppati in modo tale da conseguire un adeguato livello di accuratezza, robustezza e sicurezza cibernetica e operare in modo coerente con tali aspetti durante tutto il loro ciclo di vita.

Gli obiettivi di cybersicurezza identificati dall’AgID riguardano, in particolare, l’adozione di modelli IA opportunamente validati attraverso puntuali processi valutativi, la protezione della catena di approvvigionamento dei vari componenti di sistemi di IA, l’identificazione degli stessi, la protezione dell’infrastruttura informatica che li gestisce, formulare un piano di risposta agli incidenti.

Tra gli obiettivi di cybersicurezza esposti dal documento, inoltre, anche la formazione e la sensibilizzazione del personale sulle minacce e sui rischi informatici, insieme al monitoraggio del comportamento del sistema di IA, e la protezione delle identità e dei dati personali di tutti gli attori coinvolti nell’utilizzo del sistema.

Analisi del Rischio e Mitigazione delle Minacce
Applicazione del framework “Top 10 for LLM Applications” per contrastare alcune minacce chiave, tra cui:
LLM02: Insecure Output Handling – Rischio di generazione di output contenenti informazioni sensibili o offensive.
LLM06: Sensitive Information Disclosure – Accesso non autorizzato a dati sensibili.
LLM08: Excessive Agency – Controllo eccessivo del modello sulle decisioni dell’utente.
LLM09: Ove
rreliance – Eccessiva fiducia negli output del modello senza adeguata verifica critica.
Applicazione di una matrice di rischio per:
Valutare la maturità delle misure di sicurezza esistenti rispetto a ciascuna minaccia.
Analizzare l’impatto sui dati in termini di riservatezza, integrità e disponibilità.
Co-responsabilità nella gestione dei rischi tra enti e provider.
Distinzione tra minacce gestibili direttamente dall’ente e quelle che richiedono l’intervento del provider.
Adozione di misure tecniche e organizzative, tra cui:
Cloud-Ops Security.
Utilizzo di soluzioni cloud sicure, come Microsoft Copilot con monitoraggio continuo.
Rilevamento e risposta alle minacce, con implementazione di sistemi avanzati per una reazione tempestiva.
Istituzione di un Comitato AI Multidisciplinare, con esperti in sicurezza, privacy, aspetti legali ed etici, per guidare l’adozione responsabile di GenAI e LLM.
Introduzione di KPI specifici e audit periodici indipendenti per monitorare l’uso etico, trasparente e corretto degli algoritmi.
Obiettivo Finale
L’obiettivo è sviluppare un framework completo e standardizzato per la gestione dei rischi legati all’AI, basato sul modello AI TRISM proposto da Gartner.

(Pg. 20 modello di Valutazione d’impatto: C5.3 - ATTACCHI HACKING E CORRUZIONE DEL SISTEMA)

Il Centro Studi di Informatica Giuridica di Ivrea e Torino suggerisce di rendere obbligatorie

  • l’adozione di standard di sicurezza specifici, come quelli previsti dal Cybersecurity Act;

  • l’adozione di procedure di risposta agli incidenti in caso di manipolazione dei dati o del modello.

Inoltre, sarebbe auspicabile prevedere un framework per l’audit della sicurezza nei sistemi IA con impatti critici.

Infine, si suggerisce di prevedere un aggiornamento annuale delle linee guida in consultazione in modo da considerare gli impatti dei successivi mutamenti tecnologici.

Par.11.1: Per ogni macro-categoria di attacco informatico indicato nei successivi paragrafi da 11.1.1. a 11.1.4. si rende necessario descrivere più nel dettaglio in cosa consistono in concreto le strategie e le azioni di mitigazione indicate.
Par. 11. 5: Si rileva la necessità di indicare per ogni obiettivo di sicurezza che deve guidare le PA nell’utilizzo di sistemi/modelli di IA delle misure di sicurezza informatica tecniche, operative e organizzative minime che devono essere in concreto adottate dalle PA sistemi/modelli di IA, tenendo conto della normativa sia in materia di cybersicurezza sia di intelligenza artificiale.

Questo argomento è stato automaticamente chiuso dopo 35 giorni. Non sono permesse altre risposte.