8. Formazione e sviluppo delle competenze

Bozza di linee guida per l’adozione di IA nella pubblica amministrazione

La consultazione pubblica è attiva dal 18/02/2025 al 20/03/2025.

Questo argomento accoglie i commenti relativi al capitolo 8. Formazione e sviluppo delle competenze.

I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).

Leggi il documento in consultazione.

La sezione sottolinea l’importanza di promuovere l’“AI literacy”, ma non definisce chiaramente cosa ciò significhi in termini di competenze specifiche che i dipendenti pubblici dovrebbero acquisire. Suggerirei di aggiungere una tassonomia delle competenze necessarie, suddivisa per diversi ruoli (es. dirigenti, esperti IT, personale amministrativo) e livelli di esperienza. Questa tassonomia potrebbe includere competenze tecniche (es. machine learning, data science), competenze etiche (es. bias, trasparenza), competenze legali (es. AI Act, GDPR) e competenze trasversali (es. pensiero critico, comunicazione).

Inoltre, sarebbe utile fornire esempi concreti di programmi di formazione che le PA possono implementare. La sezione menziona la Direttiva MiPA sulla formazione, ma non indica come le PA possono utilizzare questo strumento per promuovere la “AI literacy”.

La sezione potrebbe anche beneficiare di una maggiore attenzione alle competenze necessarie per gestire i rischi associati all’IA. Suggerirei di aggiungere un modulo specifico sulla sicurezza cibernetica dell’IA, che affronti temi come la protezione dei dati, la prevenzione degli attacchi adversarial e la gestione degli incidenti di sicurezza.

Infine, la sezione dovrebbe evidenziare l’importanza di valutare l’efficacia dei programmi di formazione. Suggerirei di aggiungere indicazioni su come definire indicatori di performance per misurare l’impatto della formazione sulle competenze dei dipendenti e sulle prestazioni dei sistemi di IA.

2 Mi Piace
  1. Piani formativi differenziati: aggiungere percorsi formativi specifici per diversi livelli (dirigenza, personale tecnico, operatori) includendo moduli su etica, sicurezza e gestione dei dati; eliminare riferimenti obsoleti o troppo generici.
  2. Collaborazioni istituzionali: suggerire partnership con università e centri di ricerca per aggiornamenti continui, aggiungendo esempi di programmi formativi e workshop.
  3. Piattaforme di e-learning: integrare l’uso di piattaforme digitali per la formazione continua e la creazione di community di pratica, rimuovendo eventuali elementi burocratici non operativi.

Chiediamo l’inserimento della “fisica” tra le discipline citate nei vari profili professionali (si veda il recente premio Nobel alla Fisica per il contributo all’AI):

  • Pag 45, terzo capoverso: … la disciplina richiede competenze che coprono diversi settori come l’informatica, l’ingegneria, la matematica, “la fisica”, il diritto delle tecnologie, …

Si chiede di sostituire la parola “engineer”, riporta più volte quali professionisti che si occupano di AI (Pag. 45, dal quarto capoverso alla fine della pagina), con la parola “expert”, in quanto più rappresentativa delle diverse figure professionali che già operano nella PA con strumenti di AI: ad es. i professionisti sanitari (medici, fisici medici, epidemiologi, biologi, ecc…) nel campo della salute e del benessere.

Si chiede di modificare la frase riportata al Par. 8.1, Pag. 49, secondo capoverso in questo modo (nuovo testo tra virgolette):

: … DEVONO favorire l’accesso a percorsi tecnico-specialistici rivolti all’UTD e in generale “ai professionisti coinvolti nello sviluppo, nel controllo, nel monitoraggio, nella evoluzione dell’IA” a partire da una rilevazione sistematica e periodica dei fabbisogni di competenze

Ciò consente di estendere l’alta formazione alle diverse figure di professionisti fortemente coinvolti nell’AI, non solamente appartenenti all’IT.

Nell’ambito della presente sezione posso anche suggerire di tenere in considerazione quanto segue in materia di contratti, fermo restando la disciplina in materia di codice degli Appalti, nonché quanto descritto in antecedenza nell’ambito della sezione dedicata alla conformità delle soluzioni di IA.

Come anticipato, il fabbricante può intraprendere appositi accordi contrattuali con eventuali terzi agendo pertanto da committente per l’affidamento di lavori e opere, ovvero specifiche operazioni di fabbricazione o di controllo, a eventuali terzi purché essi siano stati debitamente autorizzati da parte delle autorità competenti interessate. In riferimento agli accordi contrattuali sarebbe congruo poter verificare sicuramente la corretta ripartizione delle responsabilità, appurando in particolare un’attestazione di responsabilità in capo all’appaltatore di assicurare lo svolgimento delle mansioni conformemente alle Buone prassi di Fabbricazione, nonché le mansioni attribuite alla persona qualifica responsabile della certificazione del lotto. In sostanza, è necessario appurare che il fabbricante abbia concesso lo svolgimento di determinati servizi o opere solo in condizioni di conformità ai requisiti legislativi dichiarati nell’ambito delle rispettive assunzioni di responsabilità elencate documentate nel contratto.

Al fine di assicurare la trasparenza nell’ambito dei rispettivi rapporti, sarebbe congruo che i contratti presuppongono la verifica che essi siano intercorsi prima dell’adozione o dell’esecuzione di qualsiasi lavoro o opera, nonché l’accertamento che l’appaltatore non abbia subappaltato alcun lavoro affidatogli senza un’autorizzazione scritta da parte del committente. Fermo restando l’assunzione di responsabilità in merito alla garanzia di operare conformemente alle normative vigenti, deve poter essere appurabile inoltre che l’appaltatore presti la sua disponibilità nel corso di ispezioni effettuate dalle autorità competenti.

AI LITERACY dovrebbe essere meglio specificata per evitare che si posso sottovalutare questo driver fondamentale e compromettere tutto il sistema. Le istituzioni che seguo (comuni infra 5000, istituzioni scolastiche, ordini) ritengono di essere avanti con l’AI perchè figure improvvisate hanno utilizzato ed utilizzano sistemi AI (chiaramente rientranti in articolo 6) senza però chiarire le responsabilità amministrative, si confronti l’arti 1 del cpa con l’art 97 c 2 della costituzione.