6. Governance etica dell'IA

Bozza di linee guida per l’adozione di IA nella pubblica amministrazione

La consultazione pubblica è attiva dal 18/02/2025 al 20/03/2025.

Questo argomento accoglie i commenti relativi al capitolo 6. Governance etica dell’IA.

I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).

Leggi il documento in consultazione.

L’attuale formulazione risulta ancora troppo teorica e manca di esempi pratici che illustrino come tradurre i principi etici in azioni concrete.

A tal fine, sarebbe utile fornire una guida più dettagliata su come sviluppare e implementare un codice etico per l’IA, adattato al contesto specifico di ciascuna PA. La sezione cita gli “Orientamenti etici per un’IA affidabile” dell’AI HLEG, ma non spiega come traslarli in regole e procedure interne. Pertanto, suggerisco di aggiungere un template o una checklist che aiuti le PA a definire i contenuti del proprio codice etico, tenendo conto delle specificità dei servizi offerti e delle caratteristiche del proprio personale.

In aggiunta, sarebbe importante affrontare il tema della formazione del personale. La sezione menziona la necessità di garantire competenze adeguate, ma non specifica quali tipi di formazione siano necessari per promuovere una cultura etica dell’IA. Suggerirei quindi di aggiungere indicazioni sui contenuti della formazione, ad esempio moduli specifici sulla protezione dei dati, la non discriminazione, la trasparenza e la responsabilità algoritmica.

Un ulteriore aspetto da considerare è la partecipazione degli stakeholder. La sezione menziona l’importanza di coinvolgere i portatori di interesse, ma non fornisce indicazioni su come farlo in pratica. Suggerirei di aggiungere esempi di iniziative di coinvolgimento degli stakeholder, come consultazioni pubbliche, workshop partecipativi e comitati consultivi.

Infine, la sezione potrebbe essere resa più incisiva sottolineando l’importanza di monitorare e valutare l’efficacia delle misure adottate per garantire un’IA etica. Per questo, suggerirei di aggiungere indicazioni su come definire indicatori di performance per misurare l’efficacia del codice etico e dei programmi di formazione, nonché su come effettuare audit regolari per verificare la conformità ai principi etici.

Propongo una revisione strutturale della sezione, iniziando con un’introduzione che sottolinei l’importanza dell’etica nell’adozione dell’IA e fornisca una panoramica dei principi etici fondamentali. Successivamente, fornire una guida dettagliata su come sviluppare e implementare un codice etico per l’IA, adattato al contesto specifico di ciascuna PA. A seguire, aggiungere indicazioni sui contenuti della formazione per promuovere una cultura etica dell’IA ed esempi di iniziative di coinvolgimento degli stakeholder. Infine, enfatizzare l’importanza di monitorare e valutare l’efficacia delle misure adottate e di rimanere aggiornati sull’evoluzione delle riflessioni etiche e delle migliori pratiche nel campo dell’IA.

La “bozza di linee guida” fornisce un riferimento interessante ed esaustivo alla terminologia utilizzata nel documento, illustrando chiaramente il dovere, l’obbligo e la facoltà delle disposizioni rivolte alla PA che intendono avvalersi di sistemi di IA. Davvero complimenti! Ci piace molto quest’integrazione!

Tuttavia, per quanto riguarda la sezione “Governance”, è degno di nota come sia stato indicato come “dovere” ciò che, in realtà, si configura come un vero e proprio “obbligo”.

In particolare, ci si riferisce alla definizione e all’adozione di “procedure di governance per lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale”. Questa distinzione terminologica è cruciale, in quanto l’adozione formale di procedure di governance non è una mera facoltà, ma un requisito necessario per garantire che l’ideazione, lo sviluppo e l’applicazione di sistemi di IA avvengano in conformità con i principi stabiliti dalla vigente normativa e in maniera responsabile.

Come si evince dall’AI Act, l’adozione di procedure di Governance per lo sviluppo e, in particolare, per l’utilizzo dei sistemi di IA non costituisce un semplice dovere per il deployer (e ancor più nel caso delle PA), ma rappresenta un vero e proprio obbligo, in virtù del principio di accountability (responsabilità delle organizzazioni nel dimostrare la conformità normativa).

L’obbligo di strutturazione e adozione di procedure interne relative all’uso dell’IA non solo consentirebbe alle PA di definire chiaramente il modus operandi, le misure di sicurezza tecniche ed organizzative e le garanzie a supporto fin dalla progettazione e per impostazione predefinita, i settori e le pratiche vietate, ma le metterebbe anche in condizione di dimostrare all’autorità competente le modalità di impiego dei sistemi di IA. Questo processo non solo rafforza la trasparenza, la conformità normativa e la certezza giuridica nei confronti dei cittadini, ma promuove anche un utilizzo etico e responsabile delle tecnologie emergenti, allineandosi con gli alti standard di tutela previsti dal Codice dell’Amministrazione Digitale (CAD).

La propria “bozza di linee guida” specificano che “[f]ermi restando gli obblighi di conformità all’AI Act, le PA DEVONO adottare un codice etico per l’IA. Tale codice DEVE divenire uno strumento di governance vincolante, allineato con il quadro normativo vigente, integrato nei processi decisionali e operativi della PA, finalizzato a un uso responsabile, equo e trasparente dell’IA”. È inoltre da considerare come, al punto 4.9 della suddetta “bozza di linee guida”, si dice che “la PA DEVE adottare un approccio sistematico e documentato di project management definendo un piano operativo”. In effetti, “Il piano operativo DEVE includere tutte le attività necessarie per il conseguimento degli obiettivi riguardanti la gestione (cfr. presenti Linee guida), il procurement (cfr. Linee guida per il procurement dell’IA), lo sviluppo (cfr. Linee guida per lo sviluppo dell’IA) dei sistemi di IA adottati o adottandi dalla PA”.

In questo senso, si suggerisce di rivedere l’affermazione per rendere “obbligatoria” l’adozione di procedure di governance per lo sviluppo e l’utilizzo dei sistemi di IA come un vero obbligo per le PA. Di conseguenza, la formulazione dovrebbe essere così modificata: “La PA DEVE definire procedure di governance per lo sviluppo e l’utilizzo dei sistemi di IA. Tali procedure DEVONO essere coerenti con la strategia per l’IA dell’ente e con la strategia definita nel PIAO.” Questo cambiamento terminologico sottolinea l’importanza di un impegno formale nella gestione e implementazione dei sistemi di IA, rafforzando il rispetto delle normative e promuovendo un uso responsabile e strategico delle tecnologie emergenti all’interno delle istituzioni pubbliche.

Con riferimento aalla sezione n. 6 Governance di condotta, si evince una definizione non univoca, ovvero definita nell’ambito di linee guida alla base di un dato riferimento normativo che intenda garantirne la standardizzazione delle stesse, in un ottica di armonizzazione della condotta dei dipendenti pubblici, nel risoetto di un codice etico univoco, che integri peraltro la disciplina in materia di cui D.lgs n. 165/2001.

Resta intesa tuttavia l’appropritezza strutturale, siggerendo tuttavia linee guida generali che possano a seguito essere ottemperate nell’ambito di una determinata specificità di impiego.

  1. Comitato etico e codice di condotta: aggiungere la proposta di istituire un comitato etico dedicato e definire un codice etico aggiornato; rimuovere formulazioni vaghe in merito alla responsabilità.
  2. Riferimenti agli standard internazionali: integrare riferimenti espliciti agli orientamenti HLEG e altre best practices internazionali, aggiungendo esempi pratici su come implementare tali standard.
  3. Valutazione etica continua: inserire un processo strutturato (audit etici periodici, report di impatto) per la revisione costante delle soluzioni IA e semplificare le ripetizioni.

Se l’IA è sviluppata adottando (come avverrà quasi sempre) soluzioni di terzi appena aggiustate per l’esigenza contingente, la governance deve vincolare INNANZITUTTO i fornitori, che devono essere strettamente vincolati al rispetto delle indicazioni di comitato etico e quant’altro, altrimenti tutti i documenti e i buoni propositi etici resteranno sulla carta e avranno la stessa (in)utilità concreta delle informative privacy. Soprattutto deve essere obbligatorio per loro dover dimostrare a richiesta che le indicazioni di governance sono state rispettate.
Ad es., non discriminazione di genere: come hai addestrato il sistema? Puoi dimostrarmi che nell’addestramento non hai usato in prevalenza esempi di che so, manager di sesso maschile? Se puoi, ok, se no, sei in difetto.

E’ un po’ il problema che ho posto a proposito dei sistemi di videosorveglianza usati dagli organi di polizia che usano SEMPRE intelligenza artificiale anche quando non fanno profiling, per esempio per le funzioni di video analysis o di video synopsis. I fornitori di questi sistemi NON FORNISCONO informazioni su come sono sviluppate queste funzioni e ancor peggio su quali dati vengono utilizzati per l’addestramento, tant’è che a volte il sistema conduce a conclusioni errate.