4 - Ciclo di vita dei sistemi di Intelligenza Artificiale e azioni per lo sviluppo e il procurement

Bozza di Linee Guida per lo sviluppo di sistemi di Intelligenza Artificiale nella pubblica amministrazione

La consultazione pubblica è attiva dal 12/03/2026 al 11/04/2026.

Questo argomento accoglie i commenti relativi al capitolo 4. Ciclo di vita dei sistemi di Intelligenza Artificiale e azioni per lo sviluppo e il procurement.

I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).

Leggi il documento in consultazione.

Si propone di valorizzare maggiormente, nel capitolo 4 - Ciclo di vita dei sistemi di Intelligenza Artificiale e azioni per lo sviluppo e il procurement, il ruolo delle architetture locali, modulari e basate su software libero come opzione di particolare interesse per la Pubblica Amministrazione.

Soluzioni basate su server Ubuntu LTS, LLM locali leggeri, applicazioni in Python/Flask e integrazione con strumenti open source come LibreOffice consentono infatti di governare con maggiore efficacia tutte le fasi del ciclo di vita del sistema, dalla progettazione allo sviluppo, fino alla manutenzione, all’evoluzione e alla sostituzione dei singoli componenti.

Tale modello rafforza il controllo su dati, documenti e processi, favorisce la portabilità, il riuso, la reversibilità delle soluzioni e riduce il rischio di lock-in tecnologico ed economico. Inoltre, l’impiego di componenti aperti e di modelli leggeri utilizzabili anche su infrastrutture meno onerose può contribuire alla sostenibilità economica e alla più ampia adottabilità delle soluzioni da parte delle amministrazioni.

L’integrazione con LibreOffice, macro e script Python mostra inoltre come tali sistemi possano diventare strumenti concreti di supporto operativo, utili per la redazione documentale, la standardizzazione dei flussi interni, l’automazione di attività ripetitive e il miglioramento della qualità e dell’accessibilità dei documenti amministrativi.

Contributo a cura della Taskforce IA dell’Autorità Nazionale Anticorruzione (ANAC)

Il capitolo risulta poco operativo. Le diverse fasi del ciclo di vita sono descritte in modo chiaro sul piano concettuale, ma mancano indicazioni pratiche su come le amministrazioni debbano concretamente implementarle. In particolare, non sono esplicitate attività dettagliate, strumenti di supporto o deliverable attesi per ciascuna fase, rendendo più difficile l’applicazione delle Linee Guida in contesti reali.

Rileviamo inoltre l’assenza di un riferimento esplicito ai paradigmi di MLOps e, più in generale, alle pratiche di gestione continua dei modelli in esercizio. Aspetti quali l’integrazione tra sviluppo e deployment, il monitoraggio delle prestazioni nel tempo, la gestione del model drift o l’automazione dei processi di aggiornamento non risultano adeguatamente approfonditi, pur essendo centrali per garantire l’affidabilità dei sistemi IA.

Alla luce di queste considerazioni, proponiamo di integrare il capitolo con strumenti operativi a supporto delle amministrazioni, quali checklist per ciascuna fase del ciclo di vita, che specifichino in modo chiaro le attività da svolgere e le verifiche da effettuare. Ritengo inoltre utile introdurre riferimenti espliciti a pratiche di MLOps e LLMOps, al fine di favorire una gestione strutturata e continua dei sistemi IA.

Proponiamo di definire in modo più puntuale gli artefatti da produrre lungo il ciclo di vita, come ad esempio documentazione dei modelli, descrizione dei dataset, log delle decisioni e report di monitoraggio, così da rafforzare la tracciabilità, la trasparenza e la governabilità complessiva dei sistemi.

Si suggerisce infine di integrare il capitolo con una sezione specifica sull’uso dell’IA nello sviluppo software c.d. vibe coding (AI-assisted SDLC).

L’introduzione del “vibe coding” (sviluppo software assistito da IA generativa) nella PA deve essere governata per massimizzare la produttività senza compromettere la robustezza dei sistemi. È necessario che la PA non consideri il codice generato come “sicuro per definizione”, ma come una bozza soggetta a revisione rigorosa.

Si propone di integrare i seguenti aspetti. A) Human review: ogni componente software generato o suggerito da IA deve essere sottoposto a peer review umana o analisi statica/dinamica documentata. B) Piepline di testing: implementazione di pipeline di CI/CD (Continuous Integration/Continuous Deployment) che includano test di regressione specifici per intercettare comportamenti imprevisti derivanti da allucinazioni. C) Compliance delle Licenze: la PA dovrebbe adottare strumenti di verifica delle licenze introdotte dall’applicazione di vibe coding.

L’integrazione di queste indicazioni permetterebbe alle PA di adottare tecniche di sviluppo agili e moderne, restando coerenti con i principi di trasparenza, spiegabilità e documentazione richiesti dal framework AGID e dall’AI Act.

Il CSIG (Centro studi di informatica giuridica di Ivrea e Torino), segnala l’assenza di standard per le “Istruzioni per l’uso” richieste dall’Art. 13 dell’AI Act. Si suggerisce di esigere dai fornitori documentazione tecnica in formato “human-readable” che specifichi capacità, limiti e metriche di accuratezza del sistema.

Il CSIG (Centro studi di informatica giuridica di Ivrea e Torino) segnala la mancanza di distinzione tra protocolli HITL (Human-in-the-loop) e HOTL (Human-on-the-loop). Si suggerisce di definire procedure operative di override che consentano all’operatore di ignorare o invertire l’output algoritmico in tempo reale (Art. 14 AI Act).

Il CSIG (Centro studi di informatica giuridica di Ivrea e Torino) propone l’adozione obbligatoria del seguente protocollo in 5 punti per la conduzione congiunta di DPIA (GDPR) e FRIA (Fundamental Rights Impact Assessment - AI Act):

1. Mappatura del Metodo Democratico: Valutare se il sistema può alterare processi decisionali pubblici o influenzare il comportamento degli utenti (conforme alla L. 132/2025).

2. Audit dei Bias e Discriminazione: Analisi obbligatoria dei dataset per identificare pregiudizi algoritmici che violino la parità di trattamento.

3. Verifica della Sovranità del Dato: Accertare la piena titolarità pubblica dei dataset e l’assenza di clausole di uso secondario non autorizzato da parte dei fornitori.

4. Protocollo di Supervisione Umana: Definizione dei punti di controllo in cui l’intervento umano è necessario per convalidare decisioni ad alto impatto.

5. Registro di Trasparenza: Conservazione dei log e delle versioni del modello per garantire la tracciabilità e la spiegabilità richieste dalle autorità di controllo.

§4.1 Pianificazione e design

Il §4.1 elenca correttamente i profili da considerare nella fase di pianificazione e design, quali aspetti energetici, infrastrutturali, di rischio e di sostenibilità, ma non richiama tra le attività di progettazione iniziale il threat modeling specifico dei sistemi di IA. Si tratta però dell’attività che, in questa fase, consente di identificare prima della realizzazione del sistema le sorgenti di input non fidato, i sink privilegiati e le possibili catene che li collegano, orientando le scelte architetturali verso una separazione effettiva tra componenti ad alto privilegio e componenti esposti a input non fidati. La sua assenza nella fase di design rischia di tradursi in interventi di sicurezza tardivi, concentrati solo sul testing finale o sull’esercizio.

Raccomandazione: integrare il §4.1 prevedendo esplicitamente, tra le attività di sviluppo della fase di pianificazione e design, la conduzione di un threat modeling specifico per il sistema di IA. Tale attività dovrebbe almeno: (a) mappare le sorgenti di input distinguendole per livello di fiducia; (b) mappare i sink accessibili attraverso modelli, tool e orchestratori, distinguendoli per criticità e reversibilità delle azioni prodotte; (c) identificare le possibili catene sorgente-sink che attraversano il contesto del modello e i tool invocabili; (d) orientare le scelte del Layer Modelli IA e del Layer Applicazioni in modo da interrompere tali catene mediante segregazione, mediazione e controlli proporzionati al rischio identificato.


§4.2 Raccolta e trattamento dei dati e §4.3 Costruzione e/o addestramento dei modelli

Il §4.2 affronta la raccolta e il trattamento dei dati in termini di qualità, minimizzazione, efficienza energetica e governance dei flussi. Il §4.3 affronta la costruzione dei modelli in termini di dimensionamento, portabilità hardware e disaccoppiamento applicativo. In nessuno dei due paragrafi viene però trattato in modo esplicito il tema della supply chain dei dati di addestramento e dei modelli pre-addestrati come superficie di attacco, pur essendo questo un vettore di compromissione già richiamato nel capitolo 5 delle stesse Linee guida.

Sul lato dati, non sono previste in modo espresso verifiche di integrità e di provenance dei dataset, né controlli specifici contro data poisoning, availability poisoning, targeted poisoning o backdoor poisoning. Sul lato modelli, il paragrafo richiama il ricorso a fine-tuning e a modelli più piccoli o specializzati, ma non evidenzia che tali pratiche possono comportare l’importazione di pesi, checkpoint, adattatori o configurazioni prodotti da terzi, con il correlato rischio di alterazioni, backdoor o model poisoning.

Raccomandazione: integrare §4.2 e §4.3 prevedendo, tra le attività del Layer Modelli IA e del Layer Applicazioni, requisiti espliciti in materia di supply chain dei dati e dei modelli. In particolare:
(a) per il §4.2, tracciamento della provenienza dei dataset di addestramento, validazione e fine-tuning, con registrazione delle fonti, delle trasformazioni applicate e dei soggetti intervenuti; verifica di integrità dei dataset tramite hash, firme o controlli equivalenti; controlli specifici, proporzionati al rischio, per intercettare indizi di data poisoning;
(b) per il §4.3, verifica di integrità dei pesi, dei checkpoint e degli adattatori importati, inclusi quelli open weight; mantenimento di un inventario strutturato dei componenti del sistema di IA, assimilabile a una distinta base tecnica, comprendente modelli, adattatori, framework, librerie e, ove disponibili o dichiarati dal fornitore, informazioni sui dataset di pre-training; testing specifico del modello risultante dal fine-tuning per verificare l’assenza di comportamenti anomali rispetto a un modello di riferimento, come parte della successiva fase di testing e validazione.


§4.4 Testing, valutazione, verifica e validazione

Il §4.4 è la fase in cui, nel ciclo di vita di un sistema di IA, dovrebbe concentrarsi la verifica di sicurezza specifica del dominio IA. Il paragrafo cita correttamente performance, robustezza, affidabilità, bias e continuità funzionale, ma non include in nessuno dei cinque layer il testing avversariale (cosiddetto red-teaming) dei modelli e dei sistemi di IA, né il concetto di suite di regressione di sicurezza da rieseguire sistematicamente a ogni modifica significativa del sistema. Il riferimento a “robustezza” rischia così di essere interpretato soprattutto in chiave di continuità operativa, mentre il riferimento a dataset rappresentativi e scenari di uso reale è di per sé insufficiente a intercettare input malevoli intenzionalmente costruiti. Inoltre, il testing del Layer Applicazioni si limita all’integrazione nei flussi operativi, senza considerare che è proprio in quel punto di integrazione che si materializzano molte delle catene di attacco descritte nel capitolo 5.

Raccomandazione: integrare il §4.4, tra le attività del Layer Modelli IA e del Layer Applicazioni, prevedendo esplicitamente:
(a) il testing avversariale (red-teaming) dei modelli e dei sistemi di IA, proporzionato al livello di rischio e al perimetro d’azione del sistema, e mirato almeno alle principali categorie di attacco AI-specifiche, quali evasion, poisoning, prompt injection diretta e indiretta, model extraction, abuso dei sistemi generativi e uso improprio dei tool nelle architetture agentiche;
(b) la definizione di una suite di regressione di sicurezza che raccolga in modo strutturato i test avversariali, le minacce identificate nel threat modeling di §4.1, i payload di test e gli esiti attesi, da rieseguire sia periodicamente a intervalli prestabiliti, sia sistematicamente a ogni modifica significativa del sistema, come aggiornamenti del modello, modifiche del prompt di sistema, aggiunta di tool o connettori, o modifica dei corpora RAG;
(c) il testing del sistema nel suo complesso, e non solo del modello, includendo verifiche end-to-end dell’intera catena input → modello → tool → sistemi di backend, con scenari di attacco costruiti a partire dal threat modeling.


§4.6 Operatività e monitoraggio

Il §4.6 disciplina il monitoraggio del sistema di IA in esercizio principalmente in termini di drift, performance e qualità del servizio. Non è invece prevista in modo esplicito una specifica dimensione di monitoraggio della sicurezza AI, necessaria per rilevare indicatori o anomalie compatibili con tentativi di prompt injection, uso improprio dei tool e dei connettori, pattern di interrogazione riconducibili a tentativi di model extraction o di esfiltrazione di dati tramite output, nonché scostamenti significativi dai comportamenti attesi definiti nella suite di regressione di sicurezza. Parallelamente, il paragrafo presenta ri-addestramento, fine-tuning e sostituzione del modello come risposte al drift, senza prevedere che tali modifiche siano accompagnate da un riesame di sicurezza coerente con la fase di testing.

Raccomandazione: integrare il §4.6, tra le attività del Layer Modelli IA e del Layer Applicazioni, prevedendo esplicitamente:
(a) il monitoraggio di anomalie specifiche per la sicurezza dell’IA, tra cui almeno indicatori compatibili con tentativi di prompt injection diretta e indiretta, invocazione anomala o non prevista dei tool, pattern di query riconducibili a tentativi di model extraction o esfiltrazione di dati tramite output, deviazioni di comportamento rispetto ai test di regressione di sicurezza;
(b) l’integrazione di tali anomalie nei processi di gestione degli incidenti del sistema informativo dell’Amministrazione, con procedure di risposta e playbook dedicati al dominio IA;
(c) l’esecuzione periodica, e dopo ogni modifica significativa, della suite di regressione di sicurezza definita in §4.4, trattando il testing avversariale come attività ricorrente e non limitata al collaudo iniziale.


§4.7 Ritiro e/o disattivazione

Il §4.7 affronta correttamente la dismissione in termini di documentazione, reversibilità e continuità del servizio, ma non tratta in modo esplicito la dismissione sicura degli asset specifici dei sistemi di IA. Nei sistemi di IA, e in particolare in quelli agentici e basati su RAG, la dismissione lascia infatti residui sensibili che, se non gestiti, possono diventare materiale di attacco o di esposizione: corpora e indici vettoriali che contengono rappresentazioni derivate da documenti interni e dati personali; log di prompt, output e interazioni che possono includere informazioni riservate; credenziali, token e chiavi API di connettori e tool; checkpoint di modelli fine-tuned su dati dell’Amministrazione, che possono conservare o rendere inferibili informazioni derivate dai dati di addestramento.

Raccomandazione: integrare il §4.7 prevedendo, tra le attività del Layer Modelli IA e del Layer Applicazioni, una disciplina esplicita della dismissione sicura degli asset dei sistemi di IA, che includa almeno:
(a) cancellazione o archiviazione controllata degli indici e degli embedding, con verifica dell’effettiva rimozione o segregazione delle rappresentazioni derivate dai documenti indicizzati;
(b) cancellazione, pseudonimizzazione o archiviazione protetta dei log di prompt, output e interazioni, coerentemente con le policy di retention e con la normativa sulla protezione dei dati;
(c) revoca immediata delle credenziali, dei token e delle chiavi API dei connettori e dei tool invocabili dal sistema, con verifica attiva che nessuna credenziale revocata rimanga utilizzabile su sistemi esterni;
(d) dismissione controllata dei checkpoint dei modelli fine-tuned su dati dell’Amministrazione, con valutazione del rischio di persistenza o inferibilità di informazioni sensibili e con eventuali misure di cancellazione o archiviazione protetta.

Intervento 1 — Paragrafi 4.2 e 4.3 (Duplicazione testuale del requisito CPU sul Layer Chip)

Riferimento: Paragrafo 4.2 “Raccolta e trattamento dei dati”, elenco puntato Layer Chip (sia nella forma discorsiva sia nella tabella riassuntiva), e Paragrafo 4.3 “Costruzione e/o addestramento dei modelli”, elenco puntato Layer Chip (idem).

Brano di riferimento (4.2): “per il Layer Chip, progettare pipeline dati compatibili con elaborazioni distribuite e scalabili su hardware eterogeneo, nonché progettare modelli e pipeline eseguibili anche in assenza di GPU, utilizzando CPU e acceleratori generici.”

Brano di riferimento (4.3): “per il Layer Chip, adottare tecnologie di decoupling tra modello e processore e progettare modelli eseguibili anche in assenza di GPU, utilizzando CPU e acceleratori generici.”

Osservazione: I due paragrafi prescrivono in due fasi distinte del ciclo di vita (raccolta dati e costruzione del modello) lo stesso identico requisito sul Layer Chip — la progettazione di modelli eseguibili in assenza di GPU su CPU e acceleratori generici — utilizzando una formulazione testualmente sovrapponibile. La duplicazione si estende anche alle tabelle riassuntive che concludono ciascuno dei due paragrafi. Lo stesso requisito ricompare poi in forma analoga nei paragrafi 4.4 (Testing), 4.5 (Messa a disposizione) e 4.6 (Operatività). Sotto il profilo della tecnica redazionale di un documento normativo, la ripetizione di una prescrizione obbligatoria in fasi distinte del ciclo di vita non è di per sé un errore — può anzi essere giustificata dalla necessità di rendere autosufficiente la lettura di ciascuna fase. Diventa però un problema sostanziale nel momento in cui la prescrizione ripetuta è la stessa che — come segnalato negli interventi sul capitolo 6 (paragrafi 6.1, 6.2 e 6.4.3) — è tecnicamente irrealizzabile per intere classi di modelli (LLM di grandi dimensioni, modelli multimodali, diffusion models). La ripetizione dell’errore in cinque punti diversi del capitolo 4 amplifica il rischio che il funzionario lo trasferisca acriticamente nei capitolati di gara, dove si presenterà in molteplici clausole tecniche concorrenti.

Proposta di modifica: Una volta ricalibrato il requisito di neutralità hardware ai sensi della proposta già avanzata sul paragrafo 6.4.3 (differenziazione per classi di modelli, sostituzione del fallback CPU con un obbligo alternativo di continuità operativa documentata per i modelli di grandi dimensioni), propagare la nuova formulazione in modo coerente in tutti i paragrafi del capitolo 4 in cui il Layer Chip è menzionato (4.2, 4.3, 4.4, 4.5, 4.6). In alternativa, e in via subordinata, sostituire le ripetizioni testuali con un rinvio esplicito al paragrafo 6 (“Per il Layer Chip, applicare le prescrizioni di neutralità hardware di cui al capitolo 6, calibrate sulla classe del modello adottato”), riducendo la duplicazione e centralizzando in un unico punto del documento la disciplina operativa della neutralità hardware.


Intervento 2 — Paragrafi 4.5 e 4.6 (Orchestratore “indipendente dal fornitore” propagato senza specifiche)

Riferimento: Paragrafo 4.5 “Messa a disposizione per l’esercizio”, elenco puntato Layer Infrastruttura (e tabella riassuntiva corrispondente), e Paragrafo 4.6 “Operatività e monitoraggio”, elenco puntato Layer Infrastruttura (e tabella riassuntiva corrispondente).

Brano di riferimento (4.5): “per il Layer Infrastruttura, abilitare orchestratori indipendenti dal fornitore per la gestione dei workload e configurare sia ambienti scalabili sia una chiara separazione tra produzione e test di stabilizzazione.”

Brano di riferimento (4.6): “per il Layer Infrastruttura, monitorare prestazioni, disponibilità e resilienza dell’infrastruttura, e gestire il sistema tramite orchestratori indipendenti dal fornitore per facilitare scalabilità e migrazione.”

Osservazione: Entrambi i paragrafi prescrivono di adottare orchestratori “indipendenti dal fornitore”, senza che il documento abbia mai precisato — né al paragrafo 3.2.4 (dove l’AI Orchestrator viene introdotto come componente centrale dell’architettura logica obbligatoria), né altrove — quali siano i requisiti tecnici minimi che un orchestratore deve soddisfare per essere considerato “indipendente dal fornitore”. In assenza di una specifica tecnica vincolante, la qualifica “indipendente dal fornitore” è priva di forza operativa e inverificabile in fase di collaudo: ogni fornitore potrà legittimamente certificare il proprio orchestratore come “indipendente” sulla base di criteri arbitrari. Il problema, già sollevato nell’intervento sul paragrafo 3.2.4, si amplifica nel capitolo 4 perché qui la prescrizione viene ripetuta in due fasi distinte del ciclo di vita (messa a disposizione e operatività) come obbligo operativo concreto per il funzionario che deve tradurla in capitolato di gara o in determina di acquisto. La conseguenza paradossale, già segnalata, è che l’imposizione di un componente non specificato favorisce l’adozione dei pochi framework di orchestrazione oggi maturi (LangChain, CrewAI, AutoGen, LlamaIndex e simili), che sono ecosistemi proprietari o semi-proprietari con API instabili — generando una nuova forma di lock-in proprio nei punti del documento dove si dichiara di volerlo evitare.

Proposta di modifica: Subordinare le prescrizioni dei paragrafi 4.5 e 4.6 all’esistenza preliminare di una specifica tecnica dell’AI Orchestrator, da definire in uno Strumento operativo dedicato di cui si propone l’introduzione (cfr. intervento già presentato sul paragrafo 3.2.4). Lo Strumento dovrebbe definire come minimo: (a) i requisiti funzionali minimi obbligatori dell’orchestratore; (b) le interfacce che esso deve esporre; (c) il formato di esportazione delle configurazioni ai fini della portabilità tra orchestratori diversi; (d) i requisiti di osservabilità e logging; (e) i criteri verificabili in base ai quali un orchestratore può essere qualificato come “indipendente dal fornitore”. In assenza di tale specifica, la prescrizione dei paragrafi 4.5 e 4.6 va riformulata in termini di requisiti funzionali verificabili (ad esempio: l’orchestratore deve consentire la sostituzione del modello sottostante senza modifiche al codice client; deve esportare le proprie configurazioni in formato documentato; deve essere implementabile da almeno N fornitori indipendenti) anziché come qualifica astratta di “indipendenza”.


Intervento 3 — Paragrafi 4.1, 4.4, 4.5, 4.6, 4.7 (Layer Energia: prescrizioni di misurazione senza metriche né metodologie)

Riferimento: Paragrafo 4.1 “Pianificazione e design”, elenco puntato Layer Energia. Paragrafo 4.4 “Testing, valutazione, verifica e validazione”, elenco puntato Layer Energia. Paragrafo 4.5 “Messa a disposizione per l’esercizio”, elenco puntato Layer Energia. Paragrafo 4.6 “Operatività e monitoraggio”, elenco puntato Layer Energia. Paragrafo 4.7 “Ritiro e/o disattivazione”, elenco puntato Layer Energia. (Tutti i paragrafi includono anche le tabelle riassuntive corrispondenti.)

Brano di riferimento (4.1): “per il Layer Energia, stimare ex ante l’impatto energetico del sistema di IA, includendo training e inference e tenendo conto anche delle implicazioni sulla rete elettrica locale e della necessità di coordinamento con i soggetti gestori.”

Brano di riferimento (4.4): “per il Layer Energia, monitorare e misurare i consumi energetici del sistema durante le fasi di test, validazione e inferenza, nonché valutare l’efficienza energetica in relazione ai carichi di lavoro previsti in esercizio.”

Brano di riferimento (4.6): “per il Layer Energia, monitorare in modo continuativo i consumi energetici del sistema in esercizio e ottimizzare dinamicamente i carichi di inferenza per ridurre sprechi energetici e picchi di consumo.”

Osservazione: Tutti i paragrafi del capitolo 4 contengono, sotto la voce Layer Energia, prescrizioni obbligatorie di stima, misurazione, monitoraggio e ottimizzazione dei consumi energetici dei sistemi di IA. Nessuna di queste prescrizioni è accompagnata da una specifica metrica, da una metodologia di misurazione, da uno strumento operativo o da una baseline di riferimento. Il paragrafo 4.1 prescrive di stimare ex ante l’impatto energetico di un sistema di IA includendo training e inferenza — operazione che, allo stato attuale della letteratura tecnica, è un problema di ricerca aperto: non esistono metodologie consolidate e generalmente accettate per stimare ex ante il consumo energetico di un sistema di IA basato su modelli fondazionali, soprattutto quando il sistema include componenti di terze parti (servizi cloud, modelli open weight, API esterne) i cui consumi non sono direttamente osservabili dall’amministrazione. Il paragrafo 4.4 prescrive di misurare i consumi durante test e inferenza, senza indicare né l’unità di misura (kWh per query? per token? CO₂-equivalente?), né lo strumento di misurazione, né il punto del sistema in cui la misurazione deve essere effettuata. Il paragrafo 4.6 prescrive di ottimizzare dinamicamente i carichi di inferenza, senza definire criteri di accettabilità del trade-off tra ottimizzazione energetica e qualità del servizio. La conseguenza pratica è che l’intero filone delle prescrizioni sul Layer Energia rischia di tradursi in clausole contrattuali inverificabili: il fornitore potrà dichiarare di “monitorare i consumi” e “ottimizzare dinamicamente” senza che la PA disponga di criteri oggettivi per valutare la conformità della dichiarazione. Lo stesso problema è già stato sollevato nell’intervento sul Principio 18 al capitolo 2; nel capitolo 4 si amplifica perché qui le prescrizioni non sono enunciazioni di principio ma azioni concrete che il funzionario deve trasferire nei capitolati.

Proposta di modifica: Subordinare l’effettiva applicabilità delle prescrizioni del capitolo 4 sul Layer Energia alla preliminare elaborazione di uno Strumento operativo dedicato alla misurazione e valutazione energetica dei sistemi di IA nella PA, di cui si propone l’introduzione e che dovrebbe definire come minimo: (a) le unità di misura standardizzate per il consumo energetico delle diverse fasi del ciclo di vita (training, fine-tuning, inferenza) — ad esempio kWh totali, kWh per parametro, kWh per token generato, energia per inferenza media; (b) le metodologie di stima ex ante applicabili in fase di pianificazione, distinguendo tra sistemi sviluppati internamente, sistemi basati su modelli open weight in deploy locale, e sistemi basati su servizi cloud di terze parti; (c) gli strumenti di misurazione (software di monitoring energetico, librerie di tracking come CodeCarbon o equivalenti) che il fornitore deve mettere a disposizione dell’amministrazione; (d) le soglie minime di efficienza che le procedure di gara possono utilizzare come criterio di valutazione delle offerte; (e) la baseline di riferimento rispetto alla quale dimostrare la “riduzione dell’impatto ambientale nel tempo” prescritta dal Principio 18 del capitolo 2. In assenza di tali strumenti operativi, le prescrizioni del Layer Energia nei paragrafi 4.1, 4.4, 4.5, 4.6 e 4.7 rischiano di restare dichiarazioni di intento senza forza operativa. In alternativa, qualora la definizione dei criteri tecnici richieda tempi non compatibili con l’iter di adozione delle Linee Guida, riformulare le prescrizioni del Layer Energia da “DEVE” a “DOVREBBE” fino alla pubblicazione dello Strumento operativo dedicato.

Confintesa FP — Federazione Funzione Pubblica (organizzazione sindacale maggiormente rappresentativa nel Comparto Funzioni Centrali) presenta le seguenti osservazioni nell’ambito della consultazione pubblica (Determinazione AgID n. 43 del 10 marzo 2026). Il testo integrale delle osservazioni sarà trasmesso formalmente ad AgID.

OSSERVAZIONE A — Assenza di tutele lavoristiche nel ciclo di vita dei sistemi di IA (sez. 4, sez. 1.2)

Le Linee Guida descrivono sette stadi del ciclo di vita dei sistemi di IA senza mai menzionare il personale dipendente come soggetto interessato, né prevedere fasi di informazione o consultazione sindacale. Il Principio 3 della L. 132/2025 (centralità dell’uomo) è declinato esclusivamente in relazione ai cittadini-utenti, non ai lavoratori che operano con o attraverso i sistemi di IA.

I CCNL di comparto vigenti prevedono già che i riflessi sulla qualità del lavoro delle innovazioni tecnologiche siano oggetto di contrattazione integrativa: ma questo istituto si attiva solo se la PA vi è tenuta. In assenza di un obbligo esplicito nelle Linee Guida, il passaggio sindacale resta discrezionale e il dirigente che lo omette opera nel pieno della legalità formale.

Proposta di integrazione alla sez. 4:

Inserire un paragrafo «Impatto sul personale e partecipazione sindacale» con le seguenti prescrizioni:

– a) Prima dell’avvio della fase di pianificazione e design (sez. 4.1) di sistemi di IA che incidano sull’organizzazione del lavoro, la PA DEVE verificare gli obblighi di informazione sindacale ai sensi dell’art. 9 D.Lgs. 165/2001 e del CCNL di comparto applicabile, e provvedere con congruo anticipo.

– b) Prima della messa in produzione (sez. 4.5), la PA DEVE attestare l’avvenuto adempimento degli obblighi informativi verso lavoratori e organizzazioni sindacali ai sensi dell’art. 26, par. 7, del Reg. (UE) 2024/1689, con documentazione agli atti.

– c) Il Piano Integrato di Attività e Organizzazione DEVE includere una sezione sull’impatto dei sistemi di IA sull’organizzazione del lavoro, oggetto di informativa alle organizzazioni sindacali.

OSSERVAZIONE B — Formazione obbligatoria del personale: da DOVREBBE a DEVE (sez. 4.1 e 4.5)

Le Linee Guida usano il termine DOVREBBE — raccomandazione non obbligatoria nella nomenclatura ISO/IEC — laddove ci si aspetterebbe DEVE. La formazione del personale che utilizzerà i sistemi di IA non è requisito obbligatorio né in pianificazione né in messa in produzione. L’art. 4 del Reg. (UE) 2024/1689 impone già con efficacia diretta dall’agosto 2025 l’obbligo di garantire al personale un adeguato livello di alfabetizzazione sull’IA. Le Linee Guida dovrebbero rendere operativo questo obbligo europeo, non ignorarlo.

Proposta di integrazione alla sez. 4.1 e 4.5:

– Nella sez. 4.1, elevare da DOVREBBE a DEVE l’obbligo di predisporre un piano formativo con elementi minimi: categorie di personale interessate per profilo e area contrattuale; contenuti differenziati per livello di responsabilità; modalità e tempistiche obbligatoriamente anteriori alla messa in produzione; responsabili dell’attuazione; modalità di verifica periodica.

– Il piano formativo DEVE essere inserito nel PIAO ed essere oggetto di informativa alle organizzazioni sindacali ai sensi del CCNL di comparto applicabile.

– Nella sez. 4.5, aggiungere come condizione per la messa in produzione: il completamento documentato del piano formativo per il personale direttamente assegnato, con attestazione agli atti del Responsabile per la Transizione al Digitale.

OSSERVAZIONE C — Comitato paritetico per l’IA: organo permanente di vigilanza (sez. 4)

Le Linee Guida non prevedono un organo permanente di vigilanza sull’impatto dell’IA sull’organizzazione del lavoro. Il ciclo di vita dei sistemi di IA è dinamico: le modifiche successive alla messa in produzione possono alterare significativamente l’impatto sul personale senza che le Linee Guida prevedano alcun obbligo di notifica. I CCNL di comparto prevedono già organismi paritetici per l’innovazione attivabili: chiediamo che le Linee Guida ne rendano obbligatoria l’attivazione per i sistemi che incidono sull’organizzazione del lavoro.

Proposta di integrazione alla sez. 4:

Ogni PA che adotta sistemi di IA che incidono sull’organizzazione del lavoro DEVE istituire, o attivare in seno agli organismi paritetici previsti dal CCNL di comparto applicabile o da istituti equivalenti, un Comitato paritetico per l’IA con i seguenti compiti:

– a) vigilanza sull’impatto occupazionale dei sistemi in produzione, con cadenza almeno semestrale;

– b) verifica del rispetto dei piani formativi e delle misure di accessibilità;

– c) esame preventivo delle modifiche sostanziali ai sistemi già in esercizio;

– d) rendicontazione annuale nel PIAO, sezione impatto dell’IA sul personale;

– e) segnalazione all’INL e al Garante di utilizzi dei dati difformi dagli accordi sindacali.

Il Comitato è composto in misura paritetica da rappresentanti della PA e da rappresentanti delle organizzazioni sindacali aventi titolo ai sensi del CCNL di comparto e della disciplina vigente. Le sue determinazioni costituiscono parere obbligatorio: l’amministrazione che intenda discostarsi è tenuta a motivare in forma scritta, dandone comunicazione alle organizzazioni sindacali.


Confintesa FP — Segretario Generale Claudia Ratti | www.confintesafp.it

Segnaliamo le nostre osservazioni.
Cordialmente

Di seguito alcune osservazioni puntuali

La comunicazione non appare integrata nelle diverse fasi del ciclo di vita. Si suggerisce di prevedere un approccio di “communication by design”, includendo:

  • informazione ex ante,
  • aggiornamenti in itinere,
  • comunicazione in caso di disservizi o dismissione.

Paragrafo 4.3 - Pag 81

Si popone di ampliare la seguente frase “La fase di costruzione e/o addestramento dei modelli di IA incide in modo significativo sui costi energetici” come segue: “L’impatto energetico dell’AI è un tema cruciale: l’addestramento e l’esecuzione dei modelli richiedono elevate risorse computazionali, che possono incidere sulla sostenibilità e sulla capacità delle infrastrutture. Questa consapevolezza ha portato allo sviluppo della disciplina della Green ICT, orientata a tecnologie e strategie che minimizzano il consumo energetico e ne ottimizzano l’uso a livello di sistema.”

Contributo a cura di Dedalus Italia S.p.A.

L’esperienza di Dedalus suggerisce di rafforzare il collegamento tra il ciclo di vita tecnico dei sistemi di IA e i modelli di governance organizzativa. Dedalus adotta un modello di governance interno concepito come processo continuo e trasversale, integrato nelle fasi di progettazione, sviluppo, messa in esercizio e dismissione delle soluzioni, orientato a garantire coerenza tra scelte tecnologiche, requisiti normativi, responsabilità organizzative e obiettivi di servizio, evitando approcci frammentati o limitati al solo controllo expost.

Le fasi di operatività e monitoraggio richiedono strumenti di osservabilità, auditabilità e gestione del cambiamento; inoltre, le attività di procurement dovrebbero includere requisiti espliciti relativi a portabilità, reversibilità e trasferimento di competenze, elementi essenziali per garantire autonomia operativa alla Pubblica Amministrazione nel medio e lungo periodo.

Par 4 — Ciclo di vita dei sistemi di Intelligenza Artificiale e azioni per lo sviluppo e il procurement

In un contesto SaaS o API standard, risultano applicabili i requisiti del layer Applicazioni e, con distinzioni rilevanti, quelli del layer Modelli IA. Per quest’ultimo è necessario differenziare tra due scenari: l’adozione di modelli già addestrati e forniti da terzi — nel quale la PA ha leva diretta esclusivamente su selezione, validazione e monitoraggio applicativo, mentre requisiti come preparazione dei dataset, ottimizzazione dell’addestramento o ri-addestramento sono privi di oggetto operativo — e lo sviluppo di modelli su commissione, nel quale le prescrizioni trovano maggiore applicabilità.

Anche per il fornitore alcune prescrizioni presentano criticità pratiche: il monitoraggio dei consumi energetici è difficilmente misurabile con precisione su infrastruttura cloud di terzi; il monitoraggio continuativo di data drift e concept drift per i Large Language Model resta metodologicamente immaturo e operativamente oneroso.

Si propone che le Linee Guida introducano una matrice che mappi i requisiti per modello di deployment — sviluppo interno, sviluppo su commissione, cloud IaaS, SaaS/API — indicando per ciascuno se il requisito è a carico della PA, del fornitore con verifica della PA, o da declinare come clausola contrattuale.

Contributo a cura di Traent Srl.

Si propone di integrare le fasi del ciclo di vita — in particolare §4.4 (Testing), §4.5 (Messa a disposizione per l’esercizio) e §4.7 (Ritiro e/o disattivazione) — con un requisito esplicito di immutabilità temporale delle registrazioni di ciclo di vita. L’attuale formulazione prescrive obblighi di versioning e tracciabilità, ma non specifica alcuna garanzia che le registrazioni non possano essere alterate ex post. Se un modello validato in un dato momento viene successivamente contestato, la PA deve poter dimostrare che le registrazioni riflettono lo stato del sistema alla data della validazione e non sono state modificate a posteriori. Si chiede che le Linee Guida prescrivano l’ancoraggio crittografico delle registrazioni a una timeline verificabile — ad esempio tramite marcature temporali qualificate ai sensi del Regolamento eIDAS 2.0 — affinché ogni registrazione sia associata univocamente al momento della sua creazione. Tale requisito è particolarmente rilevante per la fase di ritiro (§4.7), descritta come «strategica per prevenire il lock-in tecnologico» (pag. 88), dove la conservazione di una storia verificabile del sistema è condizione necessaria per una transizione ordinata e opponibile.

La struttura del ciclo di vita è completa, ma la fase di monitoraggio operativo presenta una lacuna critica: non sono definite metriche obbligatorie, soglie di intervento né meccanismi di escalation. Questo rende il monitoraggio non efficace e non verificabile. Si propone di rendere obbligatoria la definizione di un Piano di Monitoraggio che includa almeno metriche di accuracy drift, data drift, latenza e tasso di intervento umano, con soglie numeriche esplicite e obbligo di reporting periodico. In caso di superamento delle soglie critiche, il sistema dovrebbe essere sospeso entro tempi definiti. Si segnala inoltre la necessità di rafforzare la fase di testing per i sistemi GenAI, introducendo red teaming, test di prompt injection e valutazioni del tasso di allucinazione. Infine, nella fase di ritiro, è fondamentale disciplinare la portabilità degli asset generati (prompt, modelli fine-tuned, knowledge base RAG e log), per evitare situazioni di lock-in e garantire la continuità operativa della PA.

Questo argomento è stato automaticamente chiuso dopo 26 giorni. Non sono permesse altre risposte.