6. Governance etica dell'IA

Bozza di linee guida per l’adozione di IA nella pubblica amministrazione

La consultazione pubblica è attiva dal 18/02/2025 al 20/03/2025.

Questo argomento accoglie i commenti relativi al capitolo 6. Governance etica dell’IA.

I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).

Leggi il documento in consultazione.

L’attuale formulazione risulta ancora troppo teorica e manca di esempi pratici che illustrino come tradurre i principi etici in azioni concrete.

A tal fine, sarebbe utile fornire una guida più dettagliata su come sviluppare e implementare un codice etico per l’IA, adattato al contesto specifico di ciascuna PA. La sezione cita gli “Orientamenti etici per un’IA affidabile” dell’AI HLEG, ma non spiega come traslarli in regole e procedure interne. Pertanto, suggerisco di aggiungere un template o una checklist che aiuti le PA a definire i contenuti del proprio codice etico, tenendo conto delle specificità dei servizi offerti e delle caratteristiche del proprio personale.

In aggiunta, sarebbe importante affrontare il tema della formazione del personale. La sezione menziona la necessità di garantire competenze adeguate, ma non specifica quali tipi di formazione siano necessari per promuovere una cultura etica dell’IA. Suggerirei quindi di aggiungere indicazioni sui contenuti della formazione, ad esempio moduli specifici sulla protezione dei dati, la non discriminazione, la trasparenza e la responsabilità algoritmica.

Un ulteriore aspetto da considerare è la partecipazione degli stakeholder. La sezione menziona l’importanza di coinvolgere i portatori di interesse, ma non fornisce indicazioni su come farlo in pratica. Suggerirei di aggiungere esempi di iniziative di coinvolgimento degli stakeholder, come consultazioni pubbliche, workshop partecipativi e comitati consultivi.

Infine, la sezione potrebbe essere resa più incisiva sottolineando l’importanza di monitorare e valutare l’efficacia delle misure adottate per garantire un’IA etica. Per questo, suggerirei di aggiungere indicazioni su come definire indicatori di performance per misurare l’efficacia del codice etico e dei programmi di formazione, nonché su come effettuare audit regolari per verificare la conformità ai principi etici.

Propongo una revisione strutturale della sezione, iniziando con un’introduzione che sottolinei l’importanza dell’etica nell’adozione dell’IA e fornisca una panoramica dei principi etici fondamentali. Successivamente, fornire una guida dettagliata su come sviluppare e implementare un codice etico per l’IA, adattato al contesto specifico di ciascuna PA. A seguire, aggiungere indicazioni sui contenuti della formazione per promuovere una cultura etica dell’IA ed esempi di iniziative di coinvolgimento degli stakeholder. Infine, enfatizzare l’importanza di monitorare e valutare l’efficacia delle misure adottate e di rimanere aggiornati sull’evoluzione delle riflessioni etiche e delle migliori pratiche nel campo dell’IA.

La “bozza di linee guida” fornisce un riferimento interessante ed esaustivo alla terminologia utilizzata nel documento, illustrando chiaramente il dovere, l’obbligo e la facoltà delle disposizioni rivolte alla PA che intendono avvalersi di sistemi di IA. Davvero complimenti! Ci piace molto quest’integrazione!

Tuttavia, per quanto riguarda la sezione “Governance”, è degno di nota come sia stato indicato come “dovere” ciò che, in realtà, si configura come un vero e proprio “obbligo”.

In particolare, ci si riferisce alla definizione e all’adozione di “procedure di governance per lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale”. Questa distinzione terminologica è cruciale, in quanto l’adozione formale di procedure di governance non è una mera facoltà, ma un requisito necessario per garantire che l’ideazione, lo sviluppo e l’applicazione di sistemi di IA avvengano in conformità con i principi stabiliti dalla vigente normativa e in maniera responsabile.

Come si evince dall’AI Act, l’adozione di procedure di Governance per lo sviluppo e, in particolare, per l’utilizzo dei sistemi di IA non costituisce un semplice dovere per il deployer (e ancor più nel caso delle PA), ma rappresenta un vero e proprio obbligo, in virtù del principio di accountability (responsabilità delle organizzazioni nel dimostrare la conformità normativa).

L’obbligo di strutturazione e adozione di procedure interne relative all’uso dell’IA non solo consentirebbe alle PA di definire chiaramente il modus operandi, le misure di sicurezza tecniche ed organizzative e le garanzie a supporto fin dalla progettazione e per impostazione predefinita, i settori e le pratiche vietate, ma le metterebbe anche in condizione di dimostrare all’autorità competente le modalità di impiego dei sistemi di IA. Questo processo non solo rafforza la trasparenza, la conformità normativa e la certezza giuridica nei confronti dei cittadini, ma promuove anche un utilizzo etico e responsabile delle tecnologie emergenti, allineandosi con gli alti standard di tutela previsti dal Codice dell’Amministrazione Digitale (CAD).

La propria “bozza di linee guida” specificano che “[f]ermi restando gli obblighi di conformità all’AI Act, le PA DEVONO adottare un codice etico per l’IA. Tale codice DEVE divenire uno strumento di governance vincolante, allineato con il quadro normativo vigente, integrato nei processi decisionali e operativi della PA, finalizzato a un uso responsabile, equo e trasparente dell’IA”. È inoltre da considerare come, al punto 4.9 della suddetta “bozza di linee guida”, si dice che “la PA DEVE adottare un approccio sistematico e documentato di project management definendo un piano operativo”. In effetti, “Il piano operativo DEVE includere tutte le attività necessarie per il conseguimento degli obiettivi riguardanti la gestione (cfr. presenti Linee guida), il procurement (cfr. Linee guida per il procurement dell’IA), lo sviluppo (cfr. Linee guida per lo sviluppo dell’IA) dei sistemi di IA adottati o adottandi dalla PA”.

In questo senso, si suggerisce di rivedere l’affermazione per rendere “obbligatoria” l’adozione di procedure di governance per lo sviluppo e l’utilizzo dei sistemi di IA come un vero obbligo per le PA. Di conseguenza, la formulazione dovrebbe essere così modificata: “La PA DEVE definire procedure di governance per lo sviluppo e l’utilizzo dei sistemi di IA. Tali procedure DEVONO essere coerenti con la strategia per l’IA dell’ente e con la strategia definita nel PIAO.” Questo cambiamento terminologico sottolinea l’importanza di un impegno formale nella gestione e implementazione dei sistemi di IA, rafforzando il rispetto delle normative e promuovendo un uso responsabile e strategico delle tecnologie emergenti all’interno delle istituzioni pubbliche.

Con riferimento aalla sezione n. 6 Governance di condotta, si evince una definizione non univoca, ovvero definita nell’ambito di linee guida alla base di un dato riferimento normativo che intenda garantirne la standardizzazione delle stesse, in un ottica di armonizzazione della condotta dei dipendenti pubblici, nel risoetto di un codice etico univoco, che integri peraltro la disciplina in materia di cui D.lgs n. 165/2001.

Resta intesa tuttavia l’appropritezza strutturale, siggerendo tuttavia linee guida generali che possano a seguito essere ottemperate nell’ambito di una determinata specificità di impiego.

  1. Comitato etico e codice di condotta: aggiungere la proposta di istituire un comitato etico dedicato e definire un codice etico aggiornato; rimuovere formulazioni vaghe in merito alla responsabilità.
  2. Riferimenti agli standard internazionali: integrare riferimenti espliciti agli orientamenti HLEG e altre best practices internazionali, aggiungendo esempi pratici su come implementare tali standard.
  3. Valutazione etica continua: inserire un processo strutturato (audit etici periodici, report di impatto) per la revisione costante delle soluzioni IA e semplificare le ripetizioni.

Se l’IA è sviluppata adottando (come avverrà quasi sempre) soluzioni di terzi appena aggiustate per l’esigenza contingente, la governance deve vincolare INNANZITUTTO i fornitori, che devono essere strettamente vincolati al rispetto delle indicazioni di comitato etico e quant’altro, altrimenti tutti i documenti e i buoni propositi etici resteranno sulla carta e avranno la stessa (in)utilità concreta delle informative privacy. Soprattutto deve essere obbligatorio per loro dover dimostrare a richiesta che le indicazioni di governance sono state rispettate.
Ad es., non discriminazione di genere: come hai addestrato il sistema? Puoi dimostrarmi che nell’addestramento non hai usato in prevalenza esempi di che so, manager di sesso maschile? Se puoi, ok, se no, sei in difetto.

E’ un po’ il problema che ho posto a proposito dei sistemi di videosorveglianza usati dagli organi di polizia che usano SEMPRE intelligenza artificiale anche quando non fanno profiling, per esempio per le funzioni di video analysis o di video synopsis. I fornitori di questi sistemi NON FORNISCONO informazioni su come sono sviluppate queste funzioni e ancor peggio su quali dati vengono utilizzati per l’addestramento, tant’è che a volte il sistema conduce a conclusioni errate.

Commento al Capitolo 6. Governance etica dell’IA

Paragrafo 6 “Fermi restando gli obblighi di conformità all’AI Act, le PA DEVONO adottare un codice etico per l’IA…”

Ho letto con interesse i commenti precedenti e mi trovo in pieno accordo con l’esigenza di rendere la governance etica più operativa e meno teorica. Leggendo il testo attuale, ritengo che manchi un collegamento cruciale tra i principi dichiarati e la loro effettiva implementazione nella pratica quotidiana delle PA. Da professionista che si occupa di etica dell’IA, suggerisco di integrare il capitolo con un nuovo paragrafo che valorizzi la figura dell’AI ethicist - già citata tra i profili professionali nel capitolo 8 - come elemento cardine per la governance etica. Nella mia esperienza, questa figura è essenziale per tradurre i principi in azioni concrete e quindi potrebbe davvero aiutare le PA a colmare il divario tra teoria e pratica che è stato opportunamente evidenziato in vari commenti. L’AI ethicist non dovrebbe essere solo una figura “sulla carta”, ma una risorsa operativa integrata nei processi decisionali, con l’autorità necessaria per influenzare realmente l’adozione dei sistemi di IA.

Inoltre, condivido pienamente le preoccupazioni espresse riguardo ai fornitori esterni. Nella pratica quotidiana, vediamo spesso che le PA adottano sistemi sviluppati da terze parti senza avere gli strumenti per verificarne la conformità ai principi etici dichiarati. L’AI ethicist potrebbe svolgere un ruolo fondamentale nel definire requisiti contrattuali specifici e nel verificarne il rispetto.

Suggerirei quindi di integrare il testo con un nuovo paragrafo che formalizzi questo ruolo e ne definisca le responsabilità - si veda quanto sotto

"6.1 Integrazione dell’AI ethicist nei processi di governance

Le PA DEVONO integrare la figura dell’AI ethicist nei processi di governance etica dell’IA per garantire l’operazionalizzazione dei principi etici. Questa figura professionale, già menzionata tra i profili chiave nel capitolo 8, DEVE essere coinvolta in tutte le fasi del ciclo di vita dei sistemi di IA, per:

1. Tradurre i principi etici in requisiti tecnici e procedurali verificabili, contribuendo a colmare il divario tra teoria e pratica evidenziato in fase di consultazione
2. Condurre valutazioni d’impatto etico preventive e continuative, particolarmente cruciali quando i sistemi di IA sono forniti da terze parti, per verificare l’allineamento con i valori dell’organizzazione
3. Supportare la creazione e il funzionamento del Comitato Etico, garantendo che le decisioni siano informate da competenze interdisciplinari
4. Stabilire procedure di audit etico periodiche che includano la verifica della conformità dei fornitori esterni, come suggerito nei commenti precedenti
5. Facilitare la partecipazione degli stakeholder attraverso metodologie strutturate di coinvolgimento, contribuendo a una governance inclusiva

Per le PA di dimensioni maggiori, l’AI ethicist DOVREBBE operare all’interno di un Comitato Etico multiprofessionale, che DEVE essere dotato di effettivi poteri decisionali e non solo consultivi. Nelle PA di dimensioni più ridotte, questa funzione PUÒ essere condivisa tra più amministrazioni o fornita attraverso servizi centralizzati.

In ogni caso, l’AI ethicist DEVE disporre dell’indipendenza e dell’autorità necessarie per influenzare i processi decisionali e per richiedere ai fornitori esterni la dimostrazione della conformità ai principi etici adottati dalla PA. Questo è particolarmente importante nei casi in cui la PA si affidi a soluzioni di terze parti, dove la verifica della conformità alla governance etica DEVE essere inclusa nei requisiti contrattuali e verificata in fase di esecuzione."

Questa integrazione risponde all’esigenza evidenziata da diversi commentatori qua sovraesposti di rendere obbligatorie (e non solo raccomandate) le procedure di governance etica - includere verifiche specifiche sui fornitori esterni, fornire strumenti più pratici per tradurre i principi etici in azioni concrete, etc

  1. GOVERNANCE ETICA DELL’IA
    L’introduzione di regole di utilizzo dei sistemi AI da parte dei dipendenti, da condividere con la dirigenza e/o i vertici amministrativi, dovrebbe essere obbligatoria e non soltanto facoltativa.

Positiva la raccomandazione per le PA di dotarsi di codici etici e di comportamento, anche in collaborazione con altre amministrazioni o tramite modelli redatti da enti terzi (es. associazioni di categoria).
Visto lo sforzo di proporre una lista di fonti o iniziative europee o internazionali, la quale sarà presto obsoleta, si consiglia di valutare la creazione di una pagina periodicamente aggiornata – pubblicata sul sito AgID – che raccolga le fonti utili allo sviluppo e al consolidamento dei codici etici.

Il riferimento al’atto “Pontificia Commissione per lo Stato della Città del Vaticano, Decreto n° DCCII, Linee Guida in materia di Intelligenza artificiale35”
non sembra coerente con gli altri riferimenti nello stesso elenco in quanto tutti gli altri sono documenti rivolti ad un contesto internazionale e non specifico, mentre l’atto citato è specificatamente rivolto al contesto interno dello Stato del Vaticano.
Nelle righe che seguono, quanto si “spiega” il perché dell’importanza del documento andrebbe almeno riportato il fatto che si siano valutati validi e aderenti / compatibili con il contesto Italiano i principi etici delineati nel documento.

(Punto 6 Linee Guida)

Proposte sulla Governance Etica dell’IA nella Pubblica Amministrazione (Capitolo 6 delle Linee Guida)*

L’Intelligenza Artificiale rappresenta un’opportunità per migliorare l’efficienza e la qualità dei servizi pubblici, ma la sua adozione richiede principi etici chiari e meccanismi di governance affidabili per garantire trasparenza, equità e rispetto dei diritti fondamentali.

Federmanager riconosce che il settore industriale ha maturato esperienze consolidate nella definizione di codici etici e framework di governance per l’IA, che possono essere di riferimento per la PA. Le imprese già operano con modelli di IA responsabile, sviluppando strategie per prevenire discriminazioni, garantire spiegabilità e assicurare una supervisione umana efficace. Queste best practice possono essere applicate alla PA per creare un modello di governance etica robusto e coerente con gli standard internazionali.

Federmanager sostiene che le PA dovrebbero dotarsi di codici etici e di comportamento per l’IA, non come mera formalità, ma come strumenti operativi per guidare lo sviluppo e l’uso responsabile dell’IA nel settore pubblico.

6.1. Governance Etica dell’IA

I dirigenti industriali, con la loro esperienza nell’adozione responsabile dell’IA, possono supportare la PA nei seguenti ambiti:

  • Definizione di codici etici basati su standard internazionali , mutuando i principi già adottati nelle aziende per garantire equità, trasparenza e accountability nell’uso dell’IA.
  • Sviluppo di linee guida per un uso responsabile dell’IA nella PA , attraverso tavoli di lavoro congiunti tra istituzioni, imprese e università.
  • Adozione di meccanismi di supervisione e revisione periodica , per garantire che i sistemi IA nella PA siano sempre aggiornati rispetto alle evoluzioni tecnologiche e normative.
  • Promozione della cultura etica dell’IA , attraverso programmi di formazione per i dipendenti pubblici, affinché comprendano i rischi e le opportunità dell’IA.

6.2. Proposte operative per la Governance Etica dell’IA nella PA

1. Creazione di un Codice Etico per l’IA nella PA

Obiettivo: Definire un framework chiaro per l’uso dell’IA nei servizi pubblici, basato su principi di equità, trasparenza e protezione dei diritti fondamentali.
Azione: Federmanager propone l’adozione di un codice etico per l’IA nella PA, ispirato agli standard internazionali (AI Act, AI HLEG, UNESCO, OECD) e alle migliori pratiche del settore industriale.

2. Definizione di criteri etici per la selezione e l’uso delle soluzioni IA

Obiettivo: Integrare principi etici nei processi di procurement, sviluppo e utilizzo dell’IA nella PA.
Azione: Le PA, con il supporto di Federmanager, dovrebbero adottare un sistema di valutazione etica per le soluzioni IA, includendo criteri come:

  • Assenza di bias discriminatori nei modelli IA.
  • Spiegabilità e trasparenza delle decisioni automatizzate.
  • Supervisione umana garantita nei processi critici (Human-in-the-Loop).

3. Sviluppo di meccanismi di audit etico e revisione periodica

Obiettivo: Monitorare l’adozione dell’IA nella PA per garantire il rispetto dei principi etici e normativi.
Azione: Federmanager propone l’istituzione di un Comitato Etico per l’IA nella PA, composto da esperti del settore pubblico, privato e accademico, per valutare l’impatto etico dei sistemi IA e aggiornare periodicamente il codice etico.

4. Formazione e sensibilizzazione sull’etica dell’IA

Obiettivo: Aumentare la consapevolezza del personale PA sui rischi e sulle opportunità etiche dell’IA.
Azione: Creazione di programmi di formazione etica per i funzionari pubblici, sviluppati in collaborazione con università e imprese, per fornire competenze specifiche sull’uso responsabile dell’IA.

6.3. Supervisione e allineamento con gli standard internazionali

Le PA devono garantire che l’IA sia conforme non solo alle normative nazionali ed europee, ma anche ai principi etici promossi da organismi internazionali, come:

  • AI HLEG (Commissione Europea) – “Orientamenti etici per un’IA affidabile”
  • OECD AI Principles – Standard globali per un’IA responsabile
  • UNESCO AI Ethics – Raccomandazioni per l’uso sostenibile dell’IA
  • Rome Call for AI Ethics (Città del Vaticano) – Approccio antropocentrico all’IA

Proposte operative

Federmanager si propone come interlocutore strategico per supportare la PA nell’adozione di un modello di governance etica dell’IA che garantisca innovazione, affidabilità e tutela dei diritti fondamentali. Federmanager propone che la PA si ispiri alle best practice internazionali per:

Definire standard etici chiari per l’adozione dell’IA.

Adottare modelli di governance etica basati sulla revisione periodica.

Creare un network di PA, imprese e università per promuovere la condivisione di esperienze e best practice sull’IA etica.

Il Centro Studi di Informatica Giuridica di Ivrea e Torino suggerisce, al fine di accompagnare le amministrazioni nel percorso volto alla corretta individuazione delle responsabilità, di declinare precise indicazioni relative all’imputabilità dell’atto amministrativo prodotto attraverso l’uso di sistemi AI, ad esempio utilizzando le matrici di assegnazione responsabilità utilizzata nel project management RACI (Responsible, Accountable, Consulted, Informed) o RASCI (Responsible, Accountable, Supportive, Consulted, Informed), in modo da assicurare che ogni elemento del progetto venga affidato alla risorsa più adatta, facendo chiarezza su cosa ci si aspetta da ciascuna delle risorse coinvolte.

Il Centro Studi di Informatica Giuridica di Ivrea e Torino suggerisce, in ottica migliorativa, di prevedere uno specifico approfondimento sul diritto d’autore sia nelle linee guida, sia nel Modello di codice etico (Allegato D), sia nell’allegato B sulla valutazione del rischio con dettagli specifici sugli obblighi di trasparenza nella produzione di fotografie, articoli, video e mappe mentali e nei profili formativi, con un richiamo anche al codice deontologico per i giornalisti per le attività degli uffici stampa.

La sezione sulla governance etica potrebbe essere arricchita con indicazioni più specifiche su come affrontare aspetti quali la discriminazione algoritmica o la trasparenza delle decisioni automatizzate.

Favorire la creazione di linee guida per una governance condivisa dell’IA nelle amministrazioni locali, evitando duplicazioni e garantendo interoperabilità.

Riga 2 della bozza - “…le PA POSSONO valutare l’opportunità (…) di dotarsi di codici etici e di comportamento”.

Osservazione – si propone di aggiungere, ai fini della condivisione dei contenuti con i cittadini, che le PA DEBBANO dotarsi di codici etici e di comportamento e che questi documenti vengano pubblicati secondo le direttive e i principi di altri codici etici e di comportamento del sistema della PA, affinché, anche secondo le prescrizioni della L. 190/2012 (“Disposizioni per la prevenzione e la repressione della corruzione e dell’illegalità nella pubblica amministrazione”) e ss. chiunque possa prenderne visione ed esercitare i diritti previsti dalla normativa vigente.

Leda Guidi a nome di Compubblica (Presidente)

Sarebbe opportuno disegnare un ruolo attivo per le Società in House nei processi di governance per l’adozione di sistemi AI della PA

Apportare le seguenti integrazioni:
A) riformulare con: “l’adozione di codici etici e di comportamento, pur essendo su base volontaria, è fortemente raccomandata/consigliata."
B)riformulare inserendo tra gli obiettivi etici quello di utilizzare l’IA “per affrontare le sfide globali, migliorare le condizioni sociali e le disuguaglianze e garantire il bene pubblico”.