Lepida SCpA, società in-house di Regione Emilia-Romagna e delle Pubbliche Amministrazioni del territorio regionale, presenta le seguenti osservazioni alla consultazione sulle LGP. L’analisi è stata condotta applicando un modello strutturato di valutazione del rischio etico dei sistemi di IA, descritto nella sezione A.1, e si colloca in continuità con i commenti presentati alla consultazione sulle Linee Guida per l’introduzione dell’IA nella PA del marzo 2025.
A. Premesse
A.1) La griglia analitica: il Modello dello Spazio di Interazione Generativa (Kb-Q-U)
Le presenti osservazioni adottano il modello dello “Spazio di Interazione Generativa” (SIG) come strumento di lettura delle LLG. È un modello “tridimensionale” per la valutazione del rischio nei sistemi di IA generativa sviluppato da Lepida. Il modello individua tre assi distinti nello spazio dell’interazione con modelli di Intelligenza Artificiale Generativa, le cui dinamiche possono influenzarsi reciprocamente: la Knowledge Base (Kb), cioè i dati e la conoscenza che alimentano il sistema; la Question (Q), cioè le interrogazioni e gli output che il sistema produce; la User Information (U), le informazioni che l’utente fornisce durante l’interazione.
La posizione nel SIG definito così determina il profilo di rischio (anche etico) e, di conseguenza, il tipo e l’intensità dei presidi necessari. Il modello è stato progettato per essere reso operativo all’interno di organizzazioni complesse, il che lo rende direttamente applicabile al contesto della Pubblica Amministrazione, come stazione appaltante.
L’applicazione del SIG alle Linee Guida per il Procurement (di seguito LGP) ha consentito di identificare con precisione dove il documento offre presidi adeguati e dove, invece, rischia di lasciare scoperte intere dimensioni di rischio.
A.2) La continuità con la consultazione del 2025
Le presenti osservazioni si collocano in continuità con i commenti presentati da Lepida nel marzo 2025 alla consultazione sulle Linee Guida per l’introduzione dell’IA nella Pubblica Amministrazione (LGA). Quei commenti riguardavano, tra l’altro, la distinzione tra dati e modello e il rischio di scarico cognitivo — temi che restano aperti nelle LGP.
Un’analisi incrociata tra i cinque temi e il testo delle LGP ha prodotto un’evoluzione della chiave di lettura, che sintetizza lo stato attuale: alcuni temi sono stati risolti dalle LGP in modo più maturo rispetto alle LGA (in particolare la tassonomia dei sistemi di IA al par. 3.2), altri restano aperti e generano rischi specifici nel contesto del procurement. Le osservazioni che seguono si concentrano su questi ultimi.
B. Scenari di rischio
B.1) Lo scenario principale: il rischio composito alla dismissione
L’analisi condotta attraverso il modello Kb-Q-U ha fatto emergere uno scenario di rischio che le LGP non identificano. Questo scenario è, a nostro avviso, la criticità più seria delle LGP nella loro formulazione attuale.
Lo scenario nasce dalla convergenza di tre fenomeni che le LGP trattano separatamente (quando li trattano) ma che nella realtà operativa si rinforzano reciprocamente.
- Sul piano della Knowledge Base: i sistemi di IA che operano nella PA non si limitano a utilizzare i dati forniti dall’amministrazione: li trasformano. Un sistema RAG indicizza i documenti in un database vettoriale di chunks ed embeddings, che sono rappresentazioni numeriche parzialmente invertibili, dunque non semplici astrazioni dei documenti sorgente. Un modello sottoposto a fine-tuning codifica nei propri pesi una compressione delle informazioni di addestramento, incluse correlazioni che la PA stessa potrebbe non aver mai esplicitato. Questi asset informativi derivati hanno sensibilità propria (soprattutto “etica”), spesso superiore a quella dei dati sorgente, ma le LGP non li riconoscono come categoria. Il par. 3.4 sulla governance del dato disciplina i dati forniti dall’amministrazione, i dati generati durante l’esercizio e i dati eventualmente usati dal fornitore per l’addestramento. Non menziona i database vettoriali, né i modelli fine-tuned come contenitori di informazione della PA.
- Quanto alla Question: la supervisione umana, che le LGP pongono correttamente tra i principi cardine, è soggetta a un fenomeno di degradazione progressiva ben documentato: lo scarico cognitivo. L’operatore tende a fidarsi degli output in modo crescente, perde gradualmente la capacità di valutazione critica, e smette di monitorare che cosa il sistema stia effettivamente apprendendo e conservando. Le LGP affermano il principio della supervisione ma non prevedono alcun meccanismo per verificarne l’effettività nel tempo, né per contrastarne il deterioramento.
- La dimensione User Information, il sistema viene alimentato continuamente da informazioni fornite (nel caso limite più complesso) da cittadini durante le proprie interazioni: dati personali, situazioni familiari, condizioni economiche o sanitarie, richieste che rivelano bisogni e vulnerabilità. Manca qualsiasi indicazione su cosa il sistema possa conservare di queste interazioni, se tali informazioni possano confluire nel database vettoriale o influenzare il fine-tuning, né come e quando debbano essere cancellate. Si tenga presente che il caso di un uso interno dei sistemi di IA non sfugge a questi stessi rischi.
Alla dismissione del contratto, il sistema contiene un patrimonio informativo derivato di cui nessuno ha piena contezza (gli asset informativi derivati non sono riconosciuti come categoria), la cui portata è stata sottovalutata per effetto dello scarico cognitivo e che include dati personali dei cittadini senza presidi di cancellazione. Le clausole di uscita previste dalle LGP dispongono la restituzione dei dati sorgente e la portabilità, ma non la distruzione certificata degli asset informativi derivati.
B.2) Prima declinazione: l’assenza del rischio dinamico nella tassonomia operativa
La tassonomia dei rischi del par. 3.6, quella che guida operativamente le scelte del RUP, identifica rischi tecnologici, economici, di lock-in e organizzativi. Non include una categoria autonoma di rischio etico e di equità, cioè il rischio che il sistema produca risultati sistematicamente distorti, che tratti in modo diseguale categorie di cittadini e di operatori economici, che operi con bias non rilevati. Il tema compare tra i principi generali e nel rimando alla Legge 132/2025, ma scompare esattamente nel punto dove dovrebbe tradursi in valutazione operativa. Il rischio ricade sull’asse Q del Modello.
B.3) Seconda declinazione: difficile applicabilità operativa del LCOAI
Il modello del costo livellato dell’IA (LCOAI) al par. 4 è metodologicamente valido e rappresenta un contributo originale delle LGP. La sua applicabilità concreta, tuttavia, dipende dalla capacità delle PA di raccogliere dati economici granulari che oggi molte amministrazioni non possiedono e che i fornitori non sempre hanno interesse a rendere trasparenti. In assenza di benchmark di riferimento — proporzioni indicative CAPEX/OPEX per le diverse strategie di deployment, ordini di grandezza per casi d’uso tipici — il LCOAI rischia di restare un modello teorico che il funzionario non è in grado di popolare. Questo scenario è aggravato dal fatto che, non riconoscendo gli asset informativi derivati, il LCOAI non include i costi della loro dismissione sicura, sottostimando sistematicamente il costo reale di fine ciclo.
B.4) Terza declinazione: la dimensione U senza presidi nel capitolato
L’asse U dello scenario principale merita una declinazione autonoma sul piano operativo. Le LGP trattano la protezione dei dati personali come principio di conformità normativa (GDPR, AI Act), ma non traducono quel principio in requisiti specifici per il capitolato tecnico e per lo Strumento B (Guida al capitolato). Nei contesti tipici della PA (sportelli digitali, assistenti alla compilazione, sistemi di triage) il cittadino è spesso un soggetto vulnerabile che si rivolge a un’istituzione pubblica: il cittadino spesso non sa cosa il sistema registri della sua interazione e non ha motivo di saperlo. La mancanza di presidi contrattuali specifici su minimizzazione, informativa contestuale, limiti alla persistenza e audit trail delle interazioni lascia questa dimensione scoperta.
C. Proposte
C.1) Introdurre la categoria “asset informativi derivati”
Il par. 3.4 (governance del dato) e il template contrattuale andrebbero integrati con il riconoscimento esplicito degli asset informativi derivati come categoria autonoma, distinta dai dati forniti dall’amministrazione e dai dati generati durante l’esercizio. La categoria comprende il database vettoriale (nei sistemi RAG, che contenga o non contenga i chunks di riferimento), i pesi del modello fine-tuned e qualsiasi altra rappresentazione trasformata dei dati della PA prodotta dal sistema durante il suo funzionamento. Per ciascun asset informativo derivato, il contratto dovrebbe disciplinare: titolarità, condizioni di accesso e portabilità, obbligo di distruzione certificata a fine contratto, applicazione del diritto all’oblio anche agli embeddings, divieto di utilizzo da parte del fornitore per finalità estranee al servizio.
C.2) Prevedere meccanismi di contrasto allo scarico cognitivo
Si propone di integrare il par. 3.8 (ciclo di vita) e i requisiti di capitolato con l’obbligo di meccanismi verificabili di mantenimento della supervisione umana effettiva. In concreto: verifiche periodiche mediante canary testing e audit incrociati tra operatori; rotazione del personale di supervisione; soglie minime di performance della supervisione come indicatore contrattuale.
C.3) Integrare il ciclo di vita e il LCOAI con la dismissione degli asset derivati
Riconoscendo che la distruzione di un modello fine-tuned contenente informazioni della PA è un atto di sicurezza, non solo un adempimento contrattuale, il ciclo di vita e il LCOAI dovrebbero includere esplicitamente la dismissione sicura degli asset informativi derivati come fase del ciclo di vita del sistema. Questo comporta: obbligo di cancellazione certificata dei database vettoriali e dei modelli fine-tuned a fine contratto, con verifica indipendente; inclusione dei costi di dismissione sicura nel calcolo LCOAI; raccordo esplicito tra il framework di cybersecurity in cui opera ogni singola PA e le operazioni di dismissione.
C.4) Inserire il rischio etico e di equità nella tassonomia operativa
Si propone di integrare la tassonomia dei rischi del par. 3.6 con una categoria autonoma di rischio etico e di equità, che includa: il rischio di output sistematicamente distorti o discriminatori, il rischio di trattamento diseguale di categorie di cittadini, il rischio di bias non rilevati nei dati di addestramento o negli asset informativi derivati. La categoria deve essere presente nella griglia operativa che orienta le scelte del RUP, non solo nei principi generali del documento.
C.5) Tradurre la dimensione U in requisiti di capitolato
Nello Strumento B (Guida al capitolato tecnico) mancano requisiti specifici per per la protezione delle informazioni fornite dall’utente durante l’interazione con il sistema. I requisiti dovrebbero riguardare, anche in coerenza con la recente modifica all’art. 50 del CAD con l’adozione del principio dell’Once Only disciplinato dall’art. 11 del DECRETO-LEGGE 19 febbraio 2026, n. 19 Ulteriori disposizioni urgenti per l’attuazione del Piano nazionale di ripresa e resilienza (PNRR),: la minimizzazione dei dati raccolti in sessione rispetto alla finalità del servizio, l’informativa contestuale all’utente su cosa il sistema registra e conserva, i limiti temporali alla persistenza delle informazioni di sessione, il divieto di confluenza automatica delle informazioni di interazione nel database vettoriale o nel fine-tuning senza valutazione e autorizzazione esplicita dell’amministrazione, la disponibilità di un audit trail delle interazioni, accessibile all’amministrazione.
C.6) Fornire benchmark operativi per il LCOAI
Si propone di integrare il par. 4, anche in forma di allegato o di strumento dedicato, con casi d’uso di riferimento che offrano ordini di grandezza per l’applicazione del LCOAI. Per ciascun caso d’uso tipico (a titolo di esempio: sistema di triage documentale per ente di medie dimensioni, chatbot per servizi al cittadino, sistema di supporto decisionale per istruttorie), andrebbero indicati: proporzioni indicative tra CAPEX e OPEX per le principali strategie di dispiegamento (on-premises, cloud, ibrido), principali determinanti di costo, voci di costo frequentemente sottostimate. Senza questi riferimenti, il LCOAI resta uno strumento che molte PA non saranno in grado di utilizzare.
Conclusioni
Le presenti osservazioni muovono dal riconoscimento che le LGP rappresentano un avanzamento significativo nella capacità della PA di governare il procurement di sistemi di IA, in particolare per la tassonomia delle famiglie di sistemi, l’architettura a macro-componenti e l’introduzione del LCOAI come strumento di analisi economica del ciclo di vita. Le criticità segnalate non riguardano l’impianto del documento ma le dimensioni di rischio che, a giudizio di chi scrive, restano da presidiare perché il documento possa tradursi in pratica operativa efficace. Lepida SCpA resta disponibile ad approfondire i temi sollevati e a contribuire all’eventuale sviluppo degli strumenti operativi previsti dalle LGP.