All. D - Modello di codice etico

Bozza di linee guida per l’adozione di IA nella pubblica amministrazione

La consultazione pubblica è attiva dal 18/02/2025 al 20/03/2025.

Questo argomento accoglie i commenti relativi all’allegato D - Modello di codice etico.

I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).

Leggi il documento in consultazione.

L’art. 12 dello schema di Codice Etico a mio parere sembra legittimare nel nostro ordinamento (soprattutto quando parla di gestione) un’ipotesi di AIWM (Artificial Intelligence Workforce Management) nel pubblico impiego con molti rischi e criticità come riduzione dell’autonomia, aumento della sorveglianza e dequalificazione dei lavoratori. Su questi rischi si è espressa molto recentemente in un suo report proprio l’Agenzia Europea per la Sicurezza e la Salute del Lavoro. A parere mio l’adozione di sistemi AIWM (legittimata dalla formulazione dell’art. 12 del codice etico) solleva una serie di rischi e problematiche che non possono essere ignorati.

  1. Violazione della Privacy e Sorveglianza Eccessiva
    Uno dei principali problemi legati all’AIWM è la violazione della privacy dei lavoratori. Il monitoraggio costante, che include la registrazione delle attività sui dispositivi aziendali, la geolocalizzazione e persino l’analisi delle interazioni digitali, può trasformarsi in una forma di sorveglianza eccessiva. Questo non solo genera un ambiente di lavoro oppressivo, ma può anche avere implicazioni legali in termini di protezione dei dati personali.

  2. Impatto Psicologico sui Lavoratori
    La consapevolezza di essere costantemente monitorati può influenzare negativamente il benessere psicologico dei dipendenti. L’ansia da prestazione e lo stress derivanti dal controllo continuo possono ridurre la motivazione, aumentare il rischio di burnout e compromettere la produttività a lungo termine. Un ambiente lavorativo basato sulla sorveglianza può minare la fiducia tra i dipendenti e datore di lavoro pubblico.

  3. Bias Algoritmici e Decisioni Ingiuste
    Gli algoritmi di AIWM, se non adeguatamente progettati, possono essere soggetti a bias che portano a decisioni ingiuste o discriminatorie. Per esempio, un sistema che valuta le performance basandosi solo su metriche quantitative potrebbe penalizzare ingiustamente alcuni lavoratori, senza considerare fattori qualitativi o il contesto lavorativo specifico.

  4. Rischi di Discriminazione e Disparità
    L’automazione delle decisioni in materia di gestione del personale potrebbe rafforzare discriminazioni preesistenti. Se i dati utilizzati per addestrare gli algoritmi contengono pregiudizi impliciti, l’AIWM potrebbe perpetuare tali discriminazioni nelle assunzioni, nelle promozioni e nei licenziamenti.

  5. Perdita di Autonomia e Creatività
    Un controllo eccessivo delle attività lavorative può ridurre la libertà decisionale dei dipendenti, limitando la loro creatività e capacità di problem solving. Se ogni azione viene analizzata e valutata rigidamente da un sistema automatizzato, il rischio è quello di ridurre l’innovazione e l’iniziativa personale.

  6. Implicazioni Etiche e Legali
    L’uso di AIWM solleva questioni etiche e legali rilevanti. Molti Paesi hanno normative stringenti sulla protezione della privacy e sull’uso dei dati personali, e un impiego improprio di queste tecnologie potrebbe portare a sanzioni legali per i datori di lavoro anche pubblici. Inoltre, l’adozione di tali sistemi senza il consenso e la trasparenza adeguata potrebbe danneggiare la reputazione della stessa PA.

Queste criticità giustificano a mio parere la necessità di un confronto urgente tra AGID e parti sociali ovvero i sindacati del pubblico impiego.

Giandiego Monteleone

Il testo attuale si limita a indicare che il Comitato Etico “può” adottare indirizzi, senza specificarne la natura o renderli obbligatori. Propongo di rafforzare l’obbligatorietà dell’adozione di indirizzi specifici (da facoltativa a obbligatoria) e fornire indicazioni concrete sugli elementi che tali indirizzi dovrebbero includere. In particolare per l’importanza della valutazione preventiva dell’impatto etico, specialmente per i sistemi di gestione del personale, rispondendo così alle preoccupazioni sollevate durante la consultazione pubblica riguardo ai rischi di sorveglianza e discriminazione

Art. 18 “Comitato Etico”, comma 4, testo attuale:
“Il Comitato Etico può essere composto da un numero di soggetti dispari, in misura non inferiore a 3, individuati tra i soggetti dotati delle necessarie competenze all’interno del personale in servizio, e rimane in carica per un biennio.”

Proposta di modifica:
Il Comitato Etico può essere composto da un numero di soggetti dispari, in misura non inferiore a 3, individuati tra i soggetti dotati delle necessarie competenze all’interno del personale in servizio, e rimane in carica per un biennio. Tra i componenti del Comitato DEVE essere garantita la presenza di almeno un soggetto con competenze specifiche di AI ethicist, in possesso delle conoscenze e abilità necessarie per valutare l’impatto etico e sociale dei sistemi di IA, tradurre i principi etici in requisiti operativi, e facilitare il dialogo tra prospettive tecniche, legali ed etiche. Nel caso in cui tali competenze non siano disponibili all’interno dell’Ente, questo DOVREBBE ricorrere a collaborazioni con altre PA o consulenze specialistiche esterne.

Il testo attuale non specifica quali competenze debbano essere presenti nel Comitato Etico. L’integrazione proposta garantisce la presenza di almeno un soggetto con competenze specifiche di AI ethicist, figura professionale fondamentale per tradurre i principi etici in pratiche operative concrete e anticipare potenziali rischi etici e sociali. Questo è particolarmente importante alla luce delle problematiche sollevate nel dibattito pubblico su sorveglianza, discriminazione e perdita di autonomia connesse all’adozione dell’IA. La modifica aiuterebbe anche ad allineare il Codice Etico con l’evoluzione degli standard professionali a livello europeo (i.e., la bozza corrente del JT021019 in fase di sviluppo presso la CEN/CENELEC JTC21)

Art. 19 “Adozione di indirizzi”, testo attuale:
“Nell’ambito dell’utilizzo di Sistemi di Intelligenza Artificiale per lo svolgimento delle proprie attività, il Comitato Etico può adottare specifici indirizzi e prassi interne dirette a conformare l’utilizzo dei Sistemi di IA nella prospettiva di garantire la protezione dei diritti umani, delle libertà fondamentali e della dignità umana, la sostenibilità ambientale e la garanzia dell’opposizione a qualsiasi forma di isolamento o discriminazione.”

Proposta di modifica:
"Nell’ambito dell’utilizzo di Sistemi di Intelligenza Artificiale per lo svolgimento delle proprie attività, il Comitato Etico DEVE adottare specifici indirizzi e prassi interne dirette a conformare l’utilizzo dei Sistemi di IA nella prospettiva di garantire la protezione dei diritti umani, delle libertà fondamentali e della dignità umana, la sostenibilità ambientale e la garanzia dell’opposizione a qualsiasi forma di isolamento o discriminazione. Tali indirizzi DOVREBBERO includere:

a) procedure di valutazione preventiva dell’impatto etico e sociale dei sistemi di IA, con particolare attenzione ai sistemi utilizzati per la gestione del personale;

b) metodologie strutturate per la traduzione dei principi etici in requisiti operativi verificabili;

c) processi di monitoraggio continuo dell’allineamento tra valori dichiarati e implementazione pratica;

d) meccanismi di audit periodico per garantire la conformità dei fornitori esterni alle linee guida etiche adottate dall’Ente;

e) indicatori di performance specifici per la misurazione dell’efficacia del Codice Etico."

ALLEGATO D – MODELLO DI CODICE ETICO
Al fine di evitare sterili copiature del modello, si suggerisce di precisare che il modello deve essere necessariamente integrato con le specifiche dell’organizzazione di riferimento, prestando particolare attenzione all’assetto regolamentare di cui al Codice di Comportamento dell’Ente di riferimento ed alle regole per l’utilizzo di AI nei vari Uffici.

Articolo 13-Utilizzo dei sistemi di IA nell’attività lavorativa.
Proposta di aggiunta comma:
Comma 4. Il personale della PA nella redazione di documenti e/o pareri, qualora si sia avvalso anche degli output dell’IA generativa nell’espletamento della propria attività, dovrà esplicitarlo a margine e dichiarare di aver verificato l’adeguatezza della risposta.

art. 12 dello schema di codice etico
“reclutamento e gestione del personale”
Al comma 2 va chiarito e precisato che " i Sistemi di Intelligenza Artificiale richiamati al comma che precede garantiscono, in quanto compatibili e conformemente ai regolamenti interni, il rispetto dei principi di pari opportunità e parità di genere” nel pieno rispetto delle norme vigenti, a partire dallo Statuto dei Lavoratori".

art. 1, lett. c) occorre richiamare la norma che introdotto il codice di comportamento dei dipendenti pubblici.

art. 3, comma 1 andrebbe ripensato, in quanto “soggetti” sono anche coloro che “domani” possono perdere la funzioni descritte.

a pag 93 si propone di introdurre un comma 3 dell’art. 3 che preveda un sistema di raccolta delle segnalazioni riguardanti non rispetto del corretto comportamento.

art. 4, comma 1 si propone rielaborazione in quanto l’interesse sotteso è l’inteesse pubblico.

art. 6, comma 1, sostituire “conoscibili e spiegabili, anche con un linguaggio non tecnico” con “conoscibili e speigabili, anche utilizzando un linguaggio non specialistico”;
art. 6, comma 2, è già disciplinato da leggi sulla trasparenza.

art. 7, comma 1 va rielaborato così come il comma 2 in quanto da integrare con l’obbligo al monitoraggio già previsto dal PIAO.

art. 8, commi 1, 2, e 3 dovrebbero rimandare alla necessità che venga rivista adeguatamente la procedura di cybersicurezza.

Elemento cruciale del documento è il modello di Codice Etico proposto, rivolto al personale interno e ai collaboratori esterni alle Pubbliche Amministrazioni. Composto di 21 articoli, lo schema definisce finalità e principi che ispirano l’adozione dell’IA nella Pubblica Amministrazione (trasparenza sulle tecnologie e algoritmi in uso, responsabilità dell’Ente, sicurezza dei dati, sostenibilità ambientale delle soluzioni IA, non discriminazione, rispetto della privacy).

In particolare, il principio di non discriminazione sancisce favorevolmente che le decisioni e i processi automatizzati derivanti dall’uso dell’IA, debbano assicurare la prevenzione di qualsivoglia impatto discriminatorio, determinato dai cosiddetti bias cognitivi dell’IA, rappresentati da decisioni automatizzate da IA, potenzialmente discriminatorie perché basate su dati o opinioni, in qualche modo distorte o indirettamente lesive di determinati gruppi sociali o economici.

CODICE ETICO – Art. 14 c. 2:
Dopo la frase “L’Ente promuove l’alfabetizzazione in materia di Intelligenza Artificiale con particolare riguardo alle persone che si occupano dello sviluppo, del funzionamento e dell’uso dell’Intelligenza Artificiale sarebbe opportuno aggiungere le parole anche attraverso il coinvolgimento di EDIHs e Competence Center (CC)).

CODICE ETICO – Art. 15 c.2:
Dopo la frase “L’Ente promuove la partecipazione a progetti di ricerca congiunti con università e centri di ricerca, sarebbe opportuno aggiungere le parole “anche attraverso il coinvolgimento di EDIHs e Competence Center (CC)).

CODICE ETICO – Art. 16 c.1:
Dopo la frase “L’Ente adotta il modello «multistakeholder», che si fonda sul coinvolgimento delle diverse parti interessate, promuovendo il coinvolgimento dei cittadini, delle associazioni e delle imprese” sarebbe opportuno aggiungere le parole anche attraverso il coinvolgimento di EDIHs e Competence Center (CC)).

Questo argomento è stato automaticamente chiuso dopo 35 giorni. Non sono permesse altre risposte.