1. Ambito di applicazione

Bozza di linee guida per l’adozione di IA nella pubblica amministrazione

La consultazione pubblica è attiva dal 18/02/2025 al 20/03/2025.

Questo argomento accoglie i commenti relativi al capitolo 1. Ambito di applicazione.

I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).

Leggi il documento in consultazione.

1 Mi Piace

Scrivo questa indicazione con riferimento all’ambito di applicazione, segnalando quanto segue:
a) avete dimenticato uno spazio per indicare commenti sulle carenze del documento, ossia su ambiti per i quali non vi sia un capitolo o paragrafo di riferimento. Insomma, manca un “ALTRO”, per contribuire al documento.
b) Venendo alla questione specifica il documento omette ogni indicazione, anche sommaria sui COSTI dell’adozione di sistemi di IA, come se questi non esistessero. Il riferimento riguarda costi di varia natura come, per esempio, quelli - molto in voga - sull’impatto ambientale. C’è la contezza del costo energetico per far “girare” sistemi algoritmici? Se tutte le PA adottassero sistemi del genere quale conto dovrebbe essere sostenuto? Questo significa che una strategia del genere, per essere tale, non DOVREBBE implicare che ogni PA adotti sistemi di IA senza che siano chiari i costi complessivi del sistema.
c) Lascio da parte, ma credo siano comprensibili, le ricadute in termini di “dominanza” del nostro paese su sistemi sviluppati da paesi non europei … Anche su questo versante manca una compiuta riflessione…

Considerazioni generali, non essendovi spazio a tal fine:

In via preliminare, si ritiene opportuno segnalare che una consultazione pubblica non dovrebbe essere svolta su un testo già definito, ma dovrebbe avere lo scopo di raccogliere dai soggetti interessati indicazioni utili alla successiva stesura preliminare del documento. La modalità di consultazione, così come proposta, rischia di risultare poco effettiva e poco partecipata.

Parimenti, è da ritenere contrario alle buone pratiche internazionali l’utilizzo di un portale differente dalla piattaforma “ParteciPA”, la quale dovrebbe fungere da punto unico di accesso alle consultazioni pubbliche italiane. Ancora più critica l’impossibilità di trovare un rinvio alla piattaforma “Forum Italia” partendo da “ParteciPA”.

Sarebbe stato auspicabile il coinvolgimento nel gruppo di lavoro delle autorità indipendenti, con specifico riferimento all’Autorità garante della concorrenza e del mercato, al Garante per la protezione dei dati personali e all’Autorità per le garanzie nelle comunicazioni.

Da un punto di vista strutturale, sarebbe utile inserire, per ogni capitolo, una sintesi finale in forma tabellare delle raccomandazioni/attività pratiche richieste alle PA, in modo da rendere più semplice l’effettiva comprensione e attuazione.

Suggerisco una modifica al punto 1.2:

Le presenti Linee Guida concernono le modalità di adozione dei sistemi di Intelligenza Artificiale con particolare riferimento agli aspetti di conformità normativa e di impatto organizzativo. Inoltre, si applicano a tutti gli strumenti, applicazioni e infrastrutture tecnologiche che direttamente o indirettamente fanno uso di tecnologie di Intelligenza Artificiale, sia come componente integrata che come supporto alle funzionalità principali. È pertanto necessario considerare l’IA non solo nei sistemi esplicitamente definiti come tali, ma anche nei software e servizi digitali che ne incorporano capacità analitiche, decisionali o predittive.

Ho letto e sottolineato molti aspetti affrontati nelle LG e vorrei fare i complimenti per il lavoro meticoloso e, immagino complesso, nel tentativo di riportare gran parte di quanto approvato l’estate scorsa nell’AI Act adattandola alla situazione italiana.

Premetto che le mie competenze attuali sono di tipo informatico-statistiche, demografiche, di project management (base) e di AI (livello utente). Utilizzo una decina di sistemi AI dopo aver letto e assimilato diversi libri sull’argomento:


e “L’architetto e l’oracolo” di Gino Roncaglia, la trilogia di Nello Cristianini sull’AI. Ho partecipato a diversi seminari, webinar e convegni sull’argomento, in particolare quello organizzato nel luglio 2024 dall’INPS “Intelligenza artificiale amministrativa” e l’ultima Conferenza Nazionale di Statistica dedicata all’AI “La statistica ufficiale nel tempo dell’intelligenza artificiale”.
Segnalo inoltre un’intervista congiunta a The Economist di Yuval Noha Harari e di Mustafa Suleyman all’epoca non ancora CEO di Microsoft per la sezione AI Intervista a Harari e Suleyma

Detto questo, a mio avviso, ci sono almeno due aspetti importanti che ritengo poco considerati, in genere, nella creazione e condivisione di LG come questa e in modo particolare di LG che riguardano il digitale.
Primo aspetto: il livello di cultura digitale del nostro Paese
Fa sorridere leggere con attenzione ogni singolo aspetto delle “LG per l’adozione di IA nella PA”, entusiasmarsi per gli scenari futuri prospettati con l’adozione di questi sistemi nella vita lavorativa di ogni giorno e constatare quotidiananmente che è effettivamente così ! Utilizzare sistemi AI per organizzare il lavoro, pianificare le azioni, costruire tabelle e grafici, disegnare scenari usciti direttamente dalla tua mente e resi visibili e condivisi su stampa co i tuoi colleghi, far correggere testi da pubblicare rendendoli più accattivanti e comprensibili ai cittadini, etc. Tutte cose che sperimento ORA ogni giorno e con strumenti sempre più incredibili di settimana in settimana ! Tutto questo ad oggi è possibile solo a pochissime persone in Italia e non per problemi di risorse ma di competenze. L’AI è una tecnologia conosciuta da decenni ma presto sarà utilizzabile da tutti in qualsiasi aspetto della nostra vita e non saremo pronti. La parola “formazione” viene utilizzata 42 volte nelle LG e “competenza/e” 83 volte, molte azioni vengono auspicate per rendere “pronti” all’impatto dell’AI esperti, direttori, dirigenti, funzionari e semplici cittadini, ma non sappiamo se riusciremo nell’impresa: se riuscissimo, anche con l’aiuto dell’AI, a formare tutti in un mese, diciamo per puro esempio, ebbene dovremmo ricominciare daccapo perchè i sistemi AI e le tecnologie sviluppate con essi saranno già obsoleti.
Senza catastrofismi direi che la prima azione che dovrebbe promuovere l’AGID e il Governo a cui fa capo è un totale ribaltamento del modo di fare istruzione/formazione, il più presto possibile. E devo dire che in parte questo è accennato nelle LG. Facciamolo !
Secondo aspetto: l’Italia e, a seguire, l’Europa si sta spopolando di giovani
Sto assistendo in questi ultimi tempi a diversi dibattiti nazionali, sui media e sui social, sulle emergenze di reclutamento di personale giovane in sostituzione di chi va in pensione o lascia il lavoro per motivi di salute. La cosa preoccupante è che questo problema riguarda tutti, ma proprio tutti. Le nostre industrie, la Pubblica Amministrazione (tra cui Sanità, Difesa, Istruzione e Università e Ricerca), l’Agricoltura, i Servizi, la Ristorazione. Tutti.
La notizia positiva è che nelle LG ho intravisto la possibilità di creare nuovi posti di lavoro a tutti i livelli se si applicassero tutte o quasi le azioni prospettate. Ci sarebbe bisogno di sviluppatori, ingegneri, idraulici, personale di vigilanza, data scientist, avvocati specializzati nel digitale, divulgatori, docenti di nuove materie, tecnici manutentori, agronomi, molto personale nelle strutture di Audit e monitoraggio a tutti i livelli. Un esercito di nuovi lavoratori. Ma per farlo dovremmo rapidamente risolvere ciò che ho detto nel primo aspetto. Oltre che cominciare a fare figli o a pensare di facilitare l’acquisizione della nostra cittadinanza attraendo stranieri con prospettive di un futuro sicuro e di prosperità nel nostro paese.
Concludo ribadendo la mia riconoscenza nella stesura di queste LG ma anche il mio appello a fare presto nel cambiamento. Siamo in ritardo di anni e non nei confronti di altri ma del futuro !!!

Buon lavoro a tutti

L’Istituto Europeo per il Diritto Computazionale e la Cyber Resilienza (di seguito, “l’Istituto”) è un ente di ricerca e consulenza che opera nell’ambito del diritto delle nuove tecnologie, della regolamentazione della cybersicurezza e dell’intelligenza artificiale (IA). L’Istituto promuove lo sviluppo normativo e strategico di soluzioni tecnologiche innovative, favorendo la collaborazione tra soggetti pubblici e privati per l’adozione responsabile delle tecnologie emergenti.
In qualità di stakeholder qualificato, l’Istituto intende partecipare alla consultazione pubblica sulle Linee guida per l’adozione dell’IA nella PA redatte dall’Agenzia per l’Italia Digitale (AGID), con l’obiettivo di contribuire al miglioramento delle politiche pubbliche in materia di IA, garantendo un bilanciamento tra innovazione, tutela dei diritti fondamentali e conformità normativa a livello europeo.

Pur riconoscendo il notevole sforzo compiuto da AGID ed il grande valore delle Linee Guida nel promuovere un’adozione consapevole dell’IA nelle PA, si evidenzia una potenziale disallineamento rispetto al Regolamento UE 2024/1689 sull’Intelligenza Artificiale (AI Act). Il Regolamento Europeo sull’IA si pone, infatti, come obiettivo quello di armonizzare il mercato interno, promuovendo un’IA sicura e innovativa, senza creare barriere eccessive all’adozione di tali tecnologie.
Tuttavia, le Linee Guida AGID introducono un sistema di obblighi molto stringente per le PA, che potrebbe tradursi in un ostacolo alla diffusione dell’IA, soprattutto per le amministrazioni di minori dimensioni e con minori risorse. In particolare:

  • Il Regolamento UE mira a garantire un equilibrio tra tutela dei diritti e innovazione, mentre le Linee Guida AGID sembrano adottare un approccio iper-regolamentato che potrebbe rallentare l’adozione delle tecnologie IA nelle PA.
  • L’eccesso di adempimenti burocratici richiesti dalle Linee Guida rischia di disincentivare l’uso dell’IA, mentre l’AI Act favorisce un approccio basato sulla valutazione del rischio, distinguendo tra sistemi ad alto e basso impatto.
  • Il principio di libera circolazione delle soluzioni IA stabilito dal Regolamento UE non trova adeguato riscontro nelle Linee Guida, che invece impongono numerose verifiche e restrizioni all’uso dell’IA da parte delle PA.
    Alla luce di ciò, si raccomanda di armonizzare le Linee Guida con i principi dell’AI Act, garantendo un approccio più flessibile e meno restrittivo.

Infine, si richiedono chiarimenti in merito all’efficacia giuridica delle Linee Guida AGID, considerando la presenza di un Disegno di Legge nazionale sull’Intelligenza Artificiale attualmente in discussione.
Il DDL 1146/2024, presentato dal Governo italiano, prevede un quadro normativo nazionale sull’IA che potrebbe sovrapporsi o addirittura entrare in contrasto con le Linee Guida AGID.

CONSIDERAZIONI GENERALI (CAP.1)
Si ritiene che le linee guida proposte siano, in generale molto chiare e in linea con la normativa europea di riferimento (AI -ACT e norme tecniche ISO).
Qui di seguito si propongono alcune osservazioni generali
Applicazione modulare delle linee guida
L’adozione dell’IA nella PA richiede un approccio strutturato per valutare e giustificare le azioni necessarie in ogni contesto applicativo. Non tutti i sistemi di IA hanno lo stesso livello di complessità, impatto o rischio; pertanto, è essenziale definire una tassonomia della complessità implementativa che sia trasversale alla classificazione del rischio introdotta dall’AI Act.
In altri termini, è importante sottolineare come il documento posto in consultazione non debba essere uno strumento rigido per le amministrazioni, ma debba piuttosto rappresentare un insieme di indicazioni la cui applicazione da parte delle PA sia modulabile in base non solo al rischio (ex AI Act) connesso al sistema di IA, ma anche in base:
• alla sua complessità intrinseca,
• alla capacità amministrativa e alle competenze presenti nell’amministrazione (maturità ex allegato A);
• all’eventuale interazione con i cittadini del sistema di IA. Un sistema ad uso esclusivamente interno, come per la gestione documentale o integrato nell’infrastruttura digitale di una PA, dovrebbe essere sottoposto a valutazioni “alleggerite” rispetto a un sistema che interagisce con i cittadini, indipendentemente dal livello di rischio associato.

In merito al modello di maturità e modello di valutazione del rischio gli allegati A e B sono utili e forniscono un riferimento solido, ma non sempre risultano sufficientemente flessibili per coprire l’eterogeneità delle applicazioni dell’IA nella PA. La loro applicazione universale a qualsiasi sistema di IA potrebbe risultare complessa e talvolta eccessivamente onerosa.
In questo senso vorremmo evidenziare come richiedere alle PA di seguire procedure troppo rigide o uniformi per qualsiasi progetto di IA potrebbe finire per scoraggiarle nell’adozione della tecnologia
Applicazione graduale delle linee guida
Circa l’attuazione delle linee guida, è essenziale che esse siano concretamente a servizio delle amministrazioni, supportandole nell’adozione di soluzioni di IA. L’incertezza sulla normativa rappresenta un freno all’utilizzo di nuove tecnologie; tuttavia, come evidenziato nel paragrafo precedente, è fondamentale che le linee guida siano di facile comprensione e attuazione per le Pubbliche Amministrazioni.
Per questo proponiamo, come azioni da avviare nel breve termine:
• Censire le competenze sull’IA delle amministrazioni, valutando eventualmente per un campione di amministrazioni la maturtià per l’utilizzo dell’IA ex. Allegato A delle linee guida stesse.
• Sperimentare l’adesione completa alle linee guida su un campione di PA per valutarne la facilità di adattamento.
Adottando questa strategia graduale e basata su evidenze concrete, si potrà garantire che l’integrazione dell’IA nella PA sia realmente orientata al miglioramento dei servizi per i cittadini, rendendo le tecnologie innovative uno strumento efficace di semplificazione amministrativa e non un ulteriore livello di complessità.

si suggerisce di usare un linguaggio di genere il più ampio possibile, evitando i maschili plurali.

1 Mi Piace
  • Integrare nelle linee guida indicazioni su casi d’uso concreti e sperimentazioni pratiche per supportare le amministrazioni locali nell’applicazione dell’IA ai servizi pubblici.
  • Riconoscere formalmente il ruolo delle Province come centrali di committenza per gli acquisti di sistemi di AI nei comuni medio-piccoli e per il relativo sostegno all’implementazione degli stessi. Le linee guida potrebbero specificare le modalità di coinvolgimento delle Province in questo processo.

Concordo in pieno con il collega. Ho letto anche io il Disegno di Legge 1146 quando era ancora una bozza.

Non si sovrappone all’Ai Act e cerca di operare un bilanciamento tra opportunità e rischi, seguendo comunque la classificazione risk based dell’AI Act. (Impostazione antropocentrica).

Effettivamente ci sono alcune cose che sembrano in contrasto con le LG che stiamo consultando.
Partirei dall’armonizzare comunque i capisaldi di tutto il D.L. 1146 con le LG Agid:

  1. Rispetto dell’autonomia umana
  2. Prevenzione dei danni
  3. Equità
  4. Esplicabilità (requisito fondamentale per la fiducia dei cittadini/utenti dei sistemi di AI)

Comunque vada, ci attende un lavoro immane di sensibilizzazione, educazione e monitoraggio innanzitutto della base su cui poi far attecchire i concetti AI. Sono più di 30 anni che tentiamo di elevare il nostro paese ad un livello accettabile di sviluppo digitale a partire dalle conoscenze e competenze minime per tutta la popolazione, che sia in grado di affrontare la società verso cui stiamo andando (piano).

Buon lavoro a tutti noi

Condivido le considerazioni della Fondazione Astrid, Leda Guidi, Presidente Associazione Compubblica

1 Mi Piace

Al punto 1.2. manca il riferimento al PIAO come ambito di inserimento delle linee guida.

Commenti di ordine generale alle linee guida:
A)Riteniamo opportuno specificare che la decisione finale rimane in capo alla PA e non può essere presa con processi automatizzati.
B)Suggeriamo, inoltre, che venga esplicitato il principio di explainability. Infatti, a differenza che nell’AI commerciale, che ci abbia abituato al fatto che non vengano fornite spiegazioni per i suoi comportamenti, il diritto alla trasparenza deve essere effettivo e intrinseco all’attività della PA. E’ opportuno quindi evidenziare che esiste un diritto della cittadinanza di sapere come e perché le decisioni vengono prese.
C) Consigliamo di integrare le linee guida evidenziando che i sistemi di AI in dotazione alla PA debbano basarsi il meno possibile su black-box, e, ove sia necessario usare modelli addestrati, avere un’architettura ad agenti che permettano, durante lo sviluppo ed il mantenimento, l’ispezione dei singoli componenti.

Si apprezza fin da subito l’impianto, con la presenza di ACN e ANAC. dopo una prima lettura si comprende la rilevanza dell’approccio moto coerente sia con la NIS2 che con le linee guida e norme ANAC che dovrebbero già essere attuate già da diversi anni dalle amministrazioni pubbliche, permettendo a queste linee guida (cogenti e richieste dal CAD, di essere coerentemente applicate nei contesti di destinazione. Tra le PA infatti si annoverano anche gli enti del SSN. In questo caso credo opportuno che non si dimentichi il Ministero Salute, che per ora non è nella lista, ma è forse l’unico che ha competenze sia tecniche e regolatorie che amministrative per quanto riguarda i DM con AI o l’AI stessa in sanità, quindi ad alto rischio secondo AI Act, che saranno probabilmente presenti negli enti del SSN assieme alle applicazioni amministrative di più basso rischio, potendo interconnettersi sia tecnicamente che amministrativamente con i DM; in questo senso forse nei casi studio sarà rilevante sentire il Ministero Salute per esemplificare alle amministrazioni regionali, e locali, anche ospedaliere rischi e modalità d’uso di rilievo per la sicurezza almeno. Anche campionari se non registri per i test potranno essere utili alle amministrazioni.
la mancanza del Ministero Salute si comprende con la volontà di offrire un impianto generale per tutte le amministrazioni, altrimenti avrebbero dovuto chiamare anche gli altri ministeri o enti? Ma sarebbe utile una progressivo approfondimento con cluster di enti rappresentativi di applicazioni particolari (ad es GenAI che gestisce il procurement di DM o che predice o decide il burden tecnologico di una regione). Diversamente si limita l’applicabilità del documento.

Questo argomento è stato automaticamente chiuso dopo 35 giorni. Non sono permesse altre risposte.