Bozza di linee guida per l’adozione di IA nella pubblica amministrazione
La consultazione pubblica è attiva dal 18/02/2025 al 20/03/2025.
Questo argomento accoglie i commenti relativi all’allegato D - Modello di codice etico.
I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).
Leggi il documento in consultazione.
L’art. 12 dello schema di Codice Etico a mio parere sembra legittimare nel nostro ordinamento (soprattutto quando parla di gestione) un’ipotesi di AIWM (Artificial Intelligence Workforce Management) nel pubblico impiego con molti rischi e criticità come riduzione dell’autonomia, aumento della sorveglianza e dequalificazione dei lavoratori. Su questi rischi si è espressa molto recentemente in un suo report proprio l’Agenzia Europea per la Sicurezza e la Salute del Lavoro. A parere mio l’adozione di sistemi AIWM (legittimata dalla formulazione dell’art. 12 del codice etico) solleva una serie di rischi e problematiche che non possono essere ignorati.
-
Violazione della Privacy e Sorveglianza Eccessiva
Uno dei principali problemi legati all’AIWM è la violazione della privacy dei lavoratori. Il monitoraggio costante, che include la registrazione delle attività sui dispositivi aziendali, la geolocalizzazione e persino l’analisi delle interazioni digitali, può trasformarsi in una forma di sorveglianza eccessiva. Questo non solo genera un ambiente di lavoro oppressivo, ma può anche avere implicazioni legali in termini di protezione dei dati personali.
-
Impatto Psicologico sui Lavoratori
La consapevolezza di essere costantemente monitorati può influenzare negativamente il benessere psicologico dei dipendenti. L’ansia da prestazione e lo stress derivanti dal controllo continuo possono ridurre la motivazione, aumentare il rischio di burnout e compromettere la produttività a lungo termine. Un ambiente lavorativo basato sulla sorveglianza può minare la fiducia tra i dipendenti e datore di lavoro pubblico.
-
Bias Algoritmici e Decisioni Ingiuste
Gli algoritmi di AIWM, se non adeguatamente progettati, possono essere soggetti a bias che portano a decisioni ingiuste o discriminatorie. Per esempio, un sistema che valuta le performance basandosi solo su metriche quantitative potrebbe penalizzare ingiustamente alcuni lavoratori, senza considerare fattori qualitativi o il contesto lavorativo specifico.
-
Rischi di Discriminazione e Disparità
L’automazione delle decisioni in materia di gestione del personale potrebbe rafforzare discriminazioni preesistenti. Se i dati utilizzati per addestrare gli algoritmi contengono pregiudizi impliciti, l’AIWM potrebbe perpetuare tali discriminazioni nelle assunzioni, nelle promozioni e nei licenziamenti.
-
Perdita di Autonomia e Creatività
Un controllo eccessivo delle attività lavorative può ridurre la libertà decisionale dei dipendenti, limitando la loro creatività e capacità di problem solving. Se ogni azione viene analizzata e valutata rigidamente da un sistema automatizzato, il rischio è quello di ridurre l’innovazione e l’iniziativa personale.
-
Implicazioni Etiche e Legali
L’uso di AIWM solleva questioni etiche e legali rilevanti. Molti Paesi hanno normative stringenti sulla protezione della privacy e sull’uso dei dati personali, e un impiego improprio di queste tecnologie potrebbe portare a sanzioni legali per i datori di lavoro anche pubblici. Inoltre, l’adozione di tali sistemi senza il consenso e la trasparenza adeguata potrebbe danneggiare la reputazione della stessa PA.
Queste criticità giustificano a mio parere la necessità di un confronto urgente tra AGID e parti sociali ovvero i sindacati del pubblico impiego.
Giandiego Monteleone