3. L'Intelligenza Artificiale

Le Linee Guida AgID per l’adozione dell’Intelligenza Artificiale (IA) nella Pubblica Amministrazione ¶, oggetto di consultazione pubblica, rappresentano un passo significativo verso l’innovazione digitale e offrono opportunità rilevante di competitività per il nostro Paese. Questo documento, senza pretesa di esaustività rispetto al corpus totale delle linee guida de quo, si concentra sul ruolo strategico dei dati sintetici come strumento abilitante per l’adozione dell’IA, proponendo integrazioni mirate alle Linee Guida in linea con le scelte operate dal legislatore comunitario, con focus su:

  • Richiamo giuridico-tecnico dei dati sintetici come Privacy-Enhancing Technology (PET) autonoma.
  • Superamento della logica meramente complementare attraverso casi d’uso primari.
  • Integrazione trasversale nei processi di sviluppo, validazione e monitoraggio dei sistemi IA.
  1. Oltre il ruolo complementare: scenari di utilizzo primario
    Ciò si verifica quando è necessario superare le restrizioni imposte dalla disponibilità di dati reali, come ad esempio in situazioni in cui l’accesso ai dati è limitato da vincoli di riservatezza o quando è richiesta la simulazione di scenari complessi che non possono essere agevolmente replicati mediante dati reali. In tali casi, i dati sintetici possono essere impiegati come soluzione primaria per l’addestramento di modelli di Intelligenza Artificiale, il miglioramento della sicurezza informatica e il sostegno alla pianificazione strategica, offrendo così una risposta efficace alle esigenze di innovazione e di efficienza operativa.Questi dati devono conservare le covarianze tra feature e mantenere una distribuzione statistica analoga a quella dei dati reali.
  2. Integrazione trasversale nei processi IA

L’integrazione dei dati sintetici nei processi di sviluppo, validazione e monitoraggio dei sistemi di Intelligenza Artificiale rappresenta un aspetto cruciale per garantire l’efficacia e la robustezza di tali sistemi. Attraverso una loro completa integrazione, è possibile migliorare significativamente la capacità dei modelli di IA di resistere a minacce evolutive e di operare in condizioni operative dinamiche, assicurando al contempo equità e trasparenza nelle decisioni algoritmiche. Questa integrazione trasversale consente di sfruttare appieno il potenziale dei dati sintetici, elevando così il livello di maturità digitale della Pubblica Amministrazione

3.1 Validazione dinamica dei modelli
Benefici:

  • Equità algoritmica mediante dataset bilanciati (genere/etnia)

Proposta integrativa al Cap. 11 (Robustezza):
"Integrare dataset sintetici nel testing continuo simulando:

  • Distribuzioni dati non stazionarie (cambi demografici, “data drift”)
  • Distribuzioni dati anomali (stress test)
  • Condizioni operative estreme (picchi di richieste)"

3.2 Mitigazione del bias e spiegabilità
Meccanismi attivi:

  • Correzione under/overrepresentation in dataset storici
  • Promuovere l’interpretabilità dei modelli di IA fornendo dataset ribilanciati per l’analisi di sensibilità
    Per trasformare le potenzialità dei dati sintetici in realtà operativa, è essenziale definire una roadmap implementativa chiara e coerente. Questa deve prevedere azioni concrete volte a istituire strutture dedicate alla gestione dei dati sintetici, incentivare l’adozione di tali tecnologie da parte dei fornitori di soluzioni IA e formare adeguatamente i responsabili della transizione digitale. Attraverso un piano di azione ben strutturato e temporalmente definito, la Pubblica Amministrazione può accelerare l’integrazione dei dati sintetici nei propri processi, migliorando così la propria capacità di innovazione e di risposta alle sfide tecnologiche emergenti

Azioni prioritarie:

  1. Istituire Synthetic Data Lab AgID per:
  • Sviluppare linee guida tecniche
  • Mantenere repository dataset per casi d’uso comuni
  1. Incentivare fornitori IA con integrazione dati sintetici nel ciclo di vita sistemi
  2. Formare Responsabili Transizione Digitale su:
  • Tecniche validazione statistica di qualità dei dati sintetici (Metriche di similarità distributiva)
  • Framework normativi comparati (AI Act vs NIST)

L’adozione di questo ampliamento strategico non solo rafforzerebbe significativamente la compliance della Pubblica Amministrazione italiana alle normative vigenti, come il GDPR (Art. 35) e l’AI Act (Art. 54), ma la posizionerebbe altresì come pioniera europea nell’uso etico e responsabile dell’Intelligenza Artificiale. La consultazione pubblica rappresenta un’opportunità unica per colmare un gap regolatorio emergente a livello dell’Unione Europea, contribuendo così a definire standard di riferimento per l’intero continente. Questo sforzo innovativo non solo valorizzerebbe la capacità del nostro Paese di anticipare e guidare le trasformazioni tecnologiche, ma offrirebbe anche un modello di best practice per altre nazioni, promuovendo un utilizzo dell’IA che sia al contempo efficace, sicuro e rispettoso dei diritti fondamentali dei cittadini.

Ottimo l’allineamento all’AI Act. Bisognerebbe tuttavia dare maggiore attenzione ai sistemi e modelli GPAI.

La Pubblica Amministrazione ¶, al pari delle Imprese e dei Professionisti, affronta lo scenario dell’Intelligenza Artificiale (AI) dotandosi progressivamente di strumenti per interpretarne le opportunità ed intercettarne i rischi. Questo percorso è reso complesso dalla fluidità dell’oggetto, dalla velocità con cui muta e migliora. Un esempio di questi cambiamenti è rappresentato dal cambiamento stesso della definizione di AI, fissata nell’AI Act ed oggi già rivisitata.

Il documento di Linee Guida (LG) traccia correttamente i punti da discutere, ma resta in retroguardia rispetto alle sfide che produttori e fornitori di IA propongono quotidianamente. La PA è un universo disomogeneo: amministrazione in senso stretto, istruzione, sanità, ricerca, giustizia, ordine e sicurezza, … tutti sono settori della PA che possono giovarsi del LG, ma i loro afferenti non devono ritenere che il LG sia esaustivo delle rispettive esigenze, e pare che si focalizzi maggiormente sulle tecnologie generative. Questo focus non è abbastanza sottolineato nel documento e dovrebbe costituirne l’incipit. Proprio per questo, l’inizio del capitolo 3 merita una rivisitazione ed un successivo chiarimento: si ritiene quindi che una formulazione più aderente al quadro complessivo obiettivo del LG sarebbe:

L’Intelligenza Artificiale (IA) è un insieme di tecnologie.

Un suggerimento ulteriore è di descrivere in modo più preciso come avviene l’interfacciamento tra gli utenti ed i modelli di IA. La figura impiegata è tratta da un documento ufficiale, ma è parziale rispetto alle sfide che sono poste dall’IA. Infatti, si nota immediatamente che mancano:

  • la rappresentazione che il modello di IA apprende e cambia il proprio stato in funzione di interazioni ripetute con l’utente;
  • la rappresentazione che l’utente allo stesso modo apprende e cambia il proprio stato interiore, in seguito all’interazione con l’IA.

Anzi, apparentemente, queste due rappresentazioni mancanti, non trovano attenzione nel resto del testo, lasciando la percezione che ci si trovi di fronte ad una tecnologia analoga ad uno strumento di automazione d’ufficio. Non è così. Il paradigma di funzionamento ed interazione con gli strumenti di IA è ancora più complesso di così, perché deve tenere conto di molti altri elementi che non sono esplicitati nella figura:

  • i Foundation Model;
  • i dati per il fine tuning;
  • l’accesso del modello di IA a dati di proprietà dell’organizzazione e non solo del singolo;
  • la relazione che si viene ad instaurare negli stati interiori di più utenti che contemporaneamente interagiscono con un modello di IA e tra di loro, ad esempio, nella redazione di un documento condiviso.

Per questo motivo, il LG dovrebbe essere più aperto all’analisi dei possibili scenari di uso di queste tecnologie in ambienti complessi (come possono essere quelli della Pubblica Sicurezza, uno tra i tanti esempi possibili) e suggerire una maggiore profondità di analisi dei processi di adozione da parte di una PA.

Infine, non è affrontato il tema del ritiro o disattivazione (R/D). Bisogna osservare che il modello che arriva alla fase del R/D non è più il modello originale. È stato oggetto di fine tuning ed è stato arricchito e polarizzato da una serie di interazioni con gli utenti di una specifica Amministrazione. Bisogna garantire la totale distruzione del modello, alla pari di un ”rifiuto biologico”. La ragione di questa definizione allarmistica è che, alla fine del suo ciclo di vita, il contenuto di informazioni di cui si è arricchito il modello costituiscono un archivio di conoscenze molto più ampio delle conoscenze della PA stessa, con correlazioni molto più profonde di quelle che la PA ha potuto analizzare ed è potenzialmente in grado di dare risposte che possono violare il diritto alla riservatezza delle persone che lo hanno usato. Un esempio, non particolarmente distopico, è la possibilità di chiedere al modello in R/D se uno specifico ufficio ha compiuto analisi più o meno estese su un tema dato. Per questo motivo, una dettagliata formazione sulle possibilità e opportunità dell’IA deve essere oggetto di attenzione nel LG, anche rivolgendosi alla fase di R/D.

Allucinazioni

Non si parla mai dei rischi di allucinazioni, quando invece dovrebbe essere anteposto a tutto il resto visto che si corre il rischio che gli utenti ritengano “affidabili by default” le risposte fornite dai computer (almeno per come sono stati abituati finora, dai calcoli di Excel alle correzioni ortografiche di Word). Inseriamo in tal senso, l’importanza della citazione delle fonti richiamate nelle analisi dai sistemi IA eventualmente utilizzati ed il richiamo a questi. Va chiarito bene che il rischio di allucinazione è diverso dal rischio di disinformazione (es. deepfake).

Proprietà Intellettuale

Si suggerisce di dedicare un paragrafo a parte al tema della Proprietà Intellettuale e dei rischi presenti nei modelli pre-addestrati (https://hbr.org/2023/04/generative-ai-has-an-intellectual-property-problem), oltre ad includere esplicitamente delle domande specifiche all’interno dell’Allegato C (ad es. nella sezione C4. – Governance dei dati).

Formazione - RTD

Prima di consentire ad una PA di adottare sistemi di AI senza valutarne l’impatto ed il rischio, si suggerisce che il RTD sia formato/certificato sui concetti base dell’AI (ed in particolare della GenAI e dell’AgenticAI) e che venga istituita una figura con responsabilità specifica sull’Ai e sui dati eventualmente una nuova competenza alla figura dell’RTD. Va espressamente richiamata la necessità di formazione sui concetti di dati e data strategy e data governance e la definizione di un “data lake” da cui gli LLM poi posso estrarre ed interpolare dati. Ancora piu’ attenzione va data al concetto della centralità del dato e delle informazioni che vengano stabilite a livello di governance aziendale.

Formazione – laboratori pratici

Diventa indispensabile un approccio pratico e non solo teorico

  • Problema: di solito le iniziative formative sono orientate più alla teoria che all’applicazione concreta delle tecnologie AI.
  • Proposta: impostare laboratori pratici, casi d’uso reali e simulazioni per far testare l’IA ai dipendenti della PA in scenari realistici, con il focus sull’apprendimento esperienziale insieme alle Università ed ai Centri di Ricerca e, in tal senso, dare uno stimolo alla crescita della R&D di questo specifico settore tecnologico, incentivando il trasferimento di conoscenza dai laboratori alle aziende ed alle amministrazioni.

Formazione - decisori politici e dirigenti

  • Problema: I vertici delle PA spesso non hanno le competenze necessarie per comprendere il potenziale e i limiti dell’IA, con il rischio di decisioni sbagliate su adozione e investimenti.
  • Proposta: creare programmi specifici per dirigenti e politici, con focus su governance dell’IA e dei dati, valutazione dell’impatto e strategie di implementazione e comunicazioni tra enti e cittadini

Formazione – incentivi e valutazione dell’impatto

  • Problema: gli incentivi concreti sono strategici, senza incentivi la formazione viene percepita come un obbligo burocratico e non come un’opportunità di crescita professionale. Tutto ciò deve essere accompagnato da un sistema di misurazione dell’impatto della formazione.
  • Proposta: Introdurre premi o riconoscimenti per le amministrazioni che dimostrano miglioramenti significativi nell’uso dell’IA e un sistema di valutazione della formazione basato su KPI misurabili.

Formazione - Sintesi dei punti critici e sviluppi

  • Definizione delle competenze → Serve un framework nazionale che standardizzi le competenze AI per i diversi ruoli nella PA (dirigenti, funzionari, tecnici IT).
  • Formazione continua e multilivello → Creare programmi su più livelli, con corsi base per tutti e avanzati per specialisti, gestiti da una piattaforma centralizzata (es. AgID).
  • Approccio pratico → Introdurre laboratori, casi d’uso reali e simulazioni per applicare concretamente le tecnologie IA nel contesto amministrativo.
  • Formazione etica e normativa → Integrare moduli su bias algoritmici, privacy e implicazioni sociali dell’IA per garantire un uso responsabile.
  • Incentivi e valutazione impatto → Premialità per PA virtuose nell’adozione dell’IA, KPI per misurare l’efficacia della formazione e un fondo per finanziare la digitalizzazione basato sui risultati ottenuti.

Data Retention

L’aspetto della data retention potrebbe essere trattato meglio nel §9 (Gestione e qualità dei dati), magari aggiungendo un nuovo paragrafo, ad es. “9.5. Conservazione e cancellazione sicura dei dati”.

Data masking

Il mascheramento dei dati sensibili è un aspetto fondamentale, soprattutto considerando che molte applicazioni di IA vanno a trattare informazioni personali e potenzialmente riservate. Un approfondimento su questo aspetto potrebbe trovare spazio in diverse sezioni:

  • nel §9 può essere aggiunto un sottoparagrafo dedicato come pratica per garantire la sicurezza.
  • Nel §10 potrebbe essere trattato il mascheramento come misura di protezione che si affianca ad altre come la cifratura e la pseudonimizzazione.
  • Nel §11 si può citare come strumento per mitigare i rischi legati ai privacy attacks (es. re-identificazione di dati anonimizzati).

Condivisione e riuso modelli di IA

Le LG parlano di governance e conformità, ma non approfondiscono la condivisione e riuso dei modelli IA tra amministrazioni. Nel cap. 9 si suggerisce di rafforzare la sezione in merito agli standard di interoperabilità tra sistemi IA delle diverse PA e sui requisiti per il riuso dei dataset pubblici in ottica Open Data (il cap. 9 in generale è descrittivo ma poco prescrittivo per le PA).

Il par. 3.2 delle Linee Guida recepisce la definizione di provider di cui all’art. 3 dell’AI Act e articola la catena del valore dell’IA in tre livelli distinti: fornitore di modelli, di infrastrutture e di applicazioni, senza però chiarire quale di questi soggetti sia effettivamente riconducibile alla definizione di provider ai sensi dell’AI Act. Si suggerisce di integrare le Linee Guida con un’articolazione più precisa della nozione di provider, specificando a quale livello della catena del valore essa debba essere riferita e fornendo esempi pratici per agevolarne l’applicazione.
Il par. 3.2 delle Linee Guida recepisce l’art. 25 dell’AI Act, che prevede che un deployer di un sistema di IA sia considerato provider ai sensi dell’AI Act e sia soggetto ai relativi obblighi qualora apporti modifiche sostanziali al sistema di IA, ne modifichi la finalità prevista o apponga il proprio nome o marchio su un sistema di IA già immesso sul mercato o messo in servizio dal fornitore iniziale.
L’AI Act limita questa impostazione ai soli sistemi di IA classificati ad alto rischio. Le Linee Guida, invece, non specificano se tale impostazione si limiti solo a quelli rientranti in tale categoria o se si estenda a tutti i sistemi di IA. Si chiede, pertanto, di precisare se l’intenzione sia quella di estendere questa impostazione a tutti i sistemi di IA, e, in caso affermativo, di indicare le basi normative su cui si fonda tale scelta.
L’art. 25 dell’AI Act prevede inoltre che “il fornitore che ha inizialmente immesso sul mercato o messo in servizio il sistema di IA non è più considerato fornitore di quel determinato sistema di IA. Il fornitore iniziale coopera strettamente con i nuovi fornitori e mette a disposizione le informazioni necessarie nonché fornisce l’accesso tecnico ragionevolmente atteso e qualsiasi altra forma di assistenza che sono richiesti per l’adempimento degli obblighi dell’AI Act, in particolare per quanto riguarda la conformità alla valutazione della conformità dei sistemi di IA ad alto rischio”. Si suggerisce di integrare le Linee Guida con indicazioni più dettagliate sulle modalità concrete attraverso cui tale cooperazione debba avvenire, specificando quali siano gli obblighi minimi richiesti al fornitore iniziale, le modalità di accesso alle informazioni e all’assistenza tecnica necessaria, eventuali limiti temporali entro cui tale cooperazione debba avvenire e quali conseguenze derivino da un’eventuale mancata collaborazione.

Questo argomento è stato automaticamente chiuso dopo 35 giorni. Non sono permesse altre risposte.