3. L'Intelligenza Artificiale

Un altro caso d’uso che ho implementato localmente

Integrazione di Modelli LLM Open-Source per l’Analisi di Documenti nella PA

L’adozione dell’Intelligenza Artificiale nella Pubblica Amministrazione non dovrebbe limitarsi esclusivamente a soluzioni proprietarie come ChatGPT o Copilot in Office, ma dovrebbe prevedere alternative open-source, garantendo sovranità digitale, sicurezza e risparmio di risorse.

Un esempio concreto di questo approccio è l’utilizzo locale di GPT4All, un framework open-source che permette di:

:white_check_mark: Scaricare e installare modelli LLM ottimizzati per l’uso locale, riducendo i consumi di risorse e garantendo efficienza.
:white_check_mark: Eseguire analisi e generazione di testi direttamente su PC o server della PA, senza trasmettere dati a servizi esterni.
:white_check_mark: Caricare e analizzare documenti (es. PDF, testi legislativi, atti amministrativi) senza necessità di soluzioni cloud proprietarie.
:white_check_mark: Personalizzare i modelli in base alle esigenze della PA, integrandoli con archivi e banche dati interne.

Questo modello consente agli enti pubblici di preservare la riservatezza delle informazioni, di elaborare documenti senza dipendere da provider esterni e di ridurre i costi di licenza, in linea con i principi del Codice dell’Amministrazione Digitale (CAD).

:arrow_right: Si propone di integrare nelle linee guida una sezione dedicata all’utilizzo di soluzioni open-source per l’analisi e la gestione documentale, valutando alternative come GPT4All, Mistral e Gemma, per garantire una transizione digitale più sostenibile, sicura e autonoma per la PA.

1 Mi Piace

Trasparenza (Linee Guida Italiane, paragrafo 3.1)

  • Punto critico: Le linee guida italiane enfatizzano la trasparenza ma non specificano criteri concreti per la comunicazione ai cittadini sulle decisioni prese dall’IA (ad esempio, le “spiegazioni” per le decisioni critiche).
  • Confronto: Le linee guida tedesche (AgID, 2021, paragrafo 4.2) richiedono una descrizione dettagliata delle regole di trasparenza (come fonti di dati, parametri di classificazione) e prevedono un “motore di spiegazione” per l’IA.
  • Miglioramento: L’Italia dovrebbe integrare standard specifici per le spiegazioni (ad esempio, indicatori di trasparenza in linea con il Regolamento dell’UE sulla trasparenza dell’IA) e prevedere un “motore di spiegazione” per migliorare la fiducia pubblica.

Equità (Linee Guida Italiane, paragrafo 5.2)

  • Punto critico: L’attenzione è rivolta ai rischi di discriminazione, ma non si fa riferimento a strumenti per rilevare e mitigare i pregiudizi (ad esempio, audit o test di equità).
  • Confronto: Le linee guida francesi (ANSSI, 2020, paragrafo 6.3) richiedono audit regolari delle decisioni dell’IA (ad esempio, utilizzando strumenti di analisi statistica) e un “controllo di equità” prima del dispiegamento.
  • Miglioramento: L’Italia dovrebbe introdurre norme per audit obbligatori (ad esempio, rilevamento dei pregiudizi prima dell’implementazione) e prevedere un “controllo di equità” da parte di terze parti per garantire l’obiettività delle decisioni dell’IA.

Protezione dei dati (Linee Guida Italiane, paragrafo 2.4)

  • Punto critico: Anche se si afferma il rispetto del GDPR, le linee guida non affrontano la questione della “progettazione per la privacy” (Privacy by Design) per i sistemi di IA, soprattutto per i sistemi di apprendimento automatico.
  • Confronto: Le linee guida spagnole (Ministero della Transizione Digitale, 2021, paragrafo 3.5) prevedono un “audit di riservatezza” per i sistemi di IA e l’obbligo di anonimizzazione dei dati in fase di addestramento.
  • Miglioramento: L’Italia dovrebbe integrare principi di privacy by design (come la minimizzazione dei dati, la pseudonimizzazione) e i controlli di conformità per la sicurezza dei dati durante l’addestramento dell’IA.

Qualità e sicurezza (Linee Guida Italiane, paragrafo 7.1)

  • Punto critico: Le linee guida incoraggiano i test di sicurezza, ma non chiariscono le responsabilità legali in caso di guasti dell’IA (ad esempio, responsabilità per la mitigazione dei danni).
  • Confronto: Le linee guida svedesi (Ministero della Giustizia, 2022, paragrafo 8.2) stabiliscono una “responsabilità condivisa” tra sviluppatori e amministrazioni, con un’assicurazione obbligatoria per i sistemi ad alto rischio.
  • Miglioramento: L’Italia dovrebbe definire un quadro di responsabilità legale per i fallimenti dell’IA (ad esempio, responsabilità di imprese di terze parti e amministrazioni) e introdurre un’assicurazione obbligatoria per le applicazioni ad alto rischio.

Comunicazione pubblica (Linee Guida Italiane, paragrafo 9.3)

  • Punto critico: La comunicazione è limitata al "formato "informazioni per gli utenti, senza affrontare il coinvolgimento attivo dei cittadini nella governance dell’IA.
  • Confronto: Le linee guida olandesi (Autorità per la Protezione dei Dati, 2020, paragrafo 5.4) prevedono un “forum sull’IA” per consultare i cittadini e raccogliere feedback sulle applicazioni dell’amministrazione.
  • Miglioramento: L’Italia dovrebbe istituire piattaforme di dialogo pubblico (ad esempio, “forum sull’IA”) e coinvolgere i cittadini nella valutazione preventiva delle applicazioni dell’IA.

Formazione degli operatori pubblici (Linee Guida Italiane, paragrafo 10)

  • Punto critico: La formazione è menzionata, ma non sono definiti requisiti di certificazione o aggiornamento professionale per i responsabili dell’IA.
  • Confronto: Le linee guida britanniche (Department for Digital, Culture, Media & Sport, 2021, paragrafo 6.1) richiedono una certificazione specifica per i responsabili dell’IA e corsi di formazione annuale obbligatori.
  • Miglioramento: L’Italia dovrebbe introdurre un sistema di certificazione professionale per i responsabili dell’IA (ad esempio, “certificato di competenza in IA”) e corsi di aggiornamento obbligatori per garantire la qualità dell’implementazione dell’IA.

Paragrafo 3.2

  1. si ritiene che i ruoli della catena del valore, come esplicitato dall’art 25 del Regolamento, non sono tutti specificati (es. manca il rappresentante autorizzato) e si consiglia di utilizzare le definizioni presenti nell’art. 3 del Regolamento.

  2. quando si cita una norma è preferibile o non riscrivere la definizione oppure copiarla testualmente, infatti nella definizione di “Deployer” manca “sotto la propria autorità”:
    art. 3 c.4:
    «deployer»: una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale;

  3. la figura 3 non rappresenta tutte le figure previste: importatore, distributore, rappresentante autorizzato.

  4. la figura 4 è fuorviante per quanto riguarda la posizione dei sistemi ad alto rischio sistemico, la collocazione in basso evidenzia invece un rischio inferiore al minimo.

paragrafo 3.2)

  1. si suggerisce di aggiungere i medesimi ruoli previsti dal Regolamento (art. 25) in modo che siano chiare le responsabilità nella catena del valore;

  2. la nozione di Deployer non è corretta in quanto non descrive il caso in cui una PA agisca nell’ambito della propria “autorità” alla diffusione di un sistema di AI;

  3. pag. 18 la figura 4 non rappresenta correttamente le classi di rischio per un sistema con alto rischio sistemico che andrebbe collocato più in alto rispetto alla gerarchia evidenziata.

Par. 3.1 Ciclo di vita

Il riferimento è al modello redatto dall’OECD. La scelta è apprezzabile, anche perchè permette di avere uno standard di riferimento e quello dell’OECD è uno dei principali.

Si suggerisce tuttavia una diversa formulazione in lingua italiana:

  • Step 2 “Raccolta e processamento dei dati”: si suggerisce la riformulazione seguente “Raccolta e trattamento dei dati”. Il termine “processamento” è una traduzione letterale dall’inglese e non tiene in considerazione i termini previsti dall’AI Act. Da un’analisi veloce del testo nella versione ufficiale tradotta dell’Ai Act, il termine “process” è tradotto con trattare e dunque trattamento appare una traduzione più corretta

  • Step 5 “Messa a disposizione per l’utilizzo o il dispiegamento”: si suggerisce la riformulazione seguente “Messa a disposizione per l’utilizzo o l’impiego” o “Messa a disposizione per l’utilizzo o l’implementazione” . Come per l’osservazione precedente, la nuova formulazione prende in considerazione i termini utilizzati nell’Ai Act, in modo da ricondurre la nozione all’interno del quadro giuridico di riferimento.

Gentili referenti AGID,

ho esaminato con interesse la bozza delle linee guida per l’adozione di IA nella PA, con particolare attenzione al Capitolo 3. Apprezzo l’impostazione generale del documento e il lavoro svolto per allinearlo al Regolamento UE 2024/1689 (AI Act). Vorrei proporre alcune modifiche specifiche al testo attuale per garantire il pieno allineamento con la normativa europea.

1. Definizione di sistema di IA (pagina 13)

Innanzitutto, a partire dalla seguente definizione ma a comprendere tutto il documento, sarebbe opportuno rivedere l’uso occasionale di “intelligenza artificiale” sostituendolo con “sistema di IA” quando si fa riferimento a implementazioni specifiche, per garantire coerenza con la terminologia dell’AI Act. Allo stesso modo, andrebbe uniformato l’uso di “modello di IA” chiarendo sempre la distinzione con “sistema di IA” (faccio tale considerazione cercando di pormi in linea con quanto già rilevato da alcuni partecipanti alla consultazione, in particolare Claudio Biancalana, che ha suggerito di rendere il documento più fruibile a diversi livelli di lettura, e Massimiliano Bruno Tebaldi, che ha proposto di integrare un glossario dei termini tecnici, ritengo che alcune definizioni e concetti chiave nel Capitolo 3 possano essere meglio articolati).

Difatti l’ AI Act è abbastanza specifico nella definizione di un sistema di IA. Sarebbe dunque utile integrare la definizione attuale con un box esplicativo che evidenzi i quattro elementi chiave di un sistema di IA secondo l’AI Act: 1. la natura di sistema basato su macchine, 2. i livelli variabili di autonomia, 3. la capacità di adattamento post-deployment, 4. e la capacità inferenziale. Questo aiuterebbe le PA a riconoscere più facilmente quali sistemi ricadono sotto la definizione normativa (fermo restando l’attenzione che dobbiamo porre nel dibattito odierno su quali sistemi di IA potrebbero considerarsi al di là dell’AI Act, come testimoniato ora dal dibattito su log reg in ambito finanziario)

Testo attuale:
“Con “sistema di IA” si intende “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.”

Testo proposto:
"Con “sistema di IA” si intende “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

[BOX ESPLICATIVO]
Un sistema di IA secondo l’AI Act è caratterizzato da quattro elementi fondamentali:
1. È un sistema basato su macchine (machine-based)
2. Funziona con livelli variabili di autonomia rispetto al controllo umano
3. Può mostrare capacità di adattamento dopo essere stato implementato
4. Possiede capacità inferenziale, ovvero può dedurre dagli input come generare output specifici
Questi elementi aiutano a distinguere i sistemi di IA da altri software tradizionali."

2. Ampliamento sezione sui modelli GPAI (pagina 14)

Suggerisco di espandere il breve riferimento ai GPAI a pagina 14 con un paragrafo più strutturato che spieghi la definizione completa come da articolo 3(62) dell’AI Act, con particolare attenzione ai criteri che determinano quando un modello si considera di finalità generali. Nel contesto delle PA, sarebbe utile chiarire gli obblighi specifici che derivano dall’utilizzo di tali modelli e la distinzione tra modelli GPAI e quelli con rischio sistemico.

Testo attuale:
“Un sistema di GPAI si basa su un modello di IA per finalità generali e possiede la capacità di essere utilizzato per molteplici scopi. Un modello di IA per finalità generali possiede un’elevata capacità di generalizzazione, ed è addestrato su grandi volumi di dati spesso utilizzando tecniche di auto-apprendimento su larga scala. Questo tipo di modello è in grado di eseguire una vasta gamma di compiti distinti e può essere integrato in diversi sistemi o applicazioni.”

Testo proposto:
"Un sistema di GPAI si basa su un modello di IA per finalità generali e possiede la capacità di essere utilizzato per molteplici scopi.

L’AI Act (art. 3, punto 63) definisce un modello di IA per finalità generali come “un modello di IA, compresi i casi in cui tale modello è addestrato con una grande quantità di dati utilizzando l’auto-apprendimento su larga scala, che mostra una generalità significativa ed è capace di eseguire con competenza un’ampia gamma di compiti distinti, indipendentemente dal modo in cui il modello è immesso sul mercato e che può essere integrato in una varietà di sistemi o applicazioni a valle”.

I modelli GPAI si distinguono per:
- La capacità di svolgere compiti diversi senza ulteriore addestramento specifico
- L’addestramento su grandi volumi di dati, spesso con tecniche di auto-apprendimento
- La possibilità di integrazione in molteplici sistemi o applicazioni

L’AI Act prevede poi una categoria specifica di modelli GPAI “con rischio sistemico” (art. 51), che sono soggetti a obblighi rafforzati quando possiedono “capacità ad alto impatto” o hanno un impatto significativo sul mercato interno. Le PA devono prestare particolare attenzione quando utilizzano tali modelli, verificando che i fornitori abbiano adempiuto agli obblighi di valutazione e mitigazione dei rischi previsti."

3. Classificazione dei rischi (pagina 17-18)

Nella sezione 3.3, oltre alle categorie già elencate, sarebbe opportuno specificare che i sistemi ad alto rischio includono anche quelli che sono componenti di sicurezza dei prodotti come indicato nell’art. 6(1)(a) dell’AI Act. Inoltre, suggerirei di approfondire le eccezioni previste dall’articolo 6(3) che permettono, in determinate circostanze, di non classificare come ad alto rischio un sistema che pure rientrerebbe nelle categorie dell’Allegato III. Questa precisazione è fondamentale per evitare oneri regolatori non necessari alle PA.

Testo attuale:
"Le PA DEVONO tenere in considerazione la classificazione dei sistemi di IA in base ai livelli di rischio delineati dall’AI Act:
• Sistemi di IA vietati: sono i sistemi dal rischio inaccettabile e, pertanto, vietati. L’art. 5 dell’AI Act fornisce un’elencazione delle IA vietate…
• Sistemi di IA ad alto rischio: sono i sistemi che pongono elevati rischi. In caso di malfunzionamento, tali sistemi rappresentano una potenziale rilevante dannosità…
• Sistemi di IA a rischio limitato: sono sistemi dal rischio minore…
• Sistemi di IA a rischio minimo o nullo: sono sistemi dal rischio irrilevante…"

Testo proposto:
"Le PA DEVONO tenere in considerazione la classificazione dei sistemi di IA in base ai livelli di rischio delineati dall’AI Act:

• Sistemi di IA vietati: sono i sistemi dal rischio inaccettabile e, pertanto, vietati. L’art. 5 dell’AI Act fornisce un’elencazione delle IA vietate (per esempio, IA che utilizzano tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli volte a distorcere il comportamento delle persone; meccanismi di sfruttamento delle persone vulnerabili; sistemi di IA che introducano meccanismi di scoring sociale).

• Sistemi di IA ad alto rischio: sono sistemi che pongono elevati rischi. In caso di malfunzionamento, tali sistemi rappresentano una potenziale rilevante dannosità, con elevata compromissione di interessi pubblici e diritti fondamentali. L’AI Act identifica due categorie di sistemi ad alto rischio:
- Sistemi di IA che sono componenti di sicurezza di prodotti soggetti a valutazione di conformità da parte di terzi secondo la normativa di armonizzazione UE elencata nell’Allegato I dell’AI Act (art. 6.1)
- Sistemi di IA utilizzati nei settori elencati nell’Allegato III dell’AI Act (art. 6.2)

L’AI Act prevede anche casi in cui, eccezionalmente, sistemi che rientrerebbero nell’Allegato III possono non essere considerati ad alto rischio (art. 6.3), ad esempio quando:
- Il sistema è destinato a svolgere un compito procedurale ristretto
- Il sistema è destinato a migliorare il risultato di un’attività umana precedentemente completata
- Il sistema non comporta profilazione

Le PA DOVREBBERO, inoltre, considerare che alla Commissione europea è conferito il potere di adottare atti delegati aggiungendo o modificando i casi d’uso dei sistemi di IA ad alto rischio di cui all’Allegato III all’AI Act.

• Sistemi di IA a rischio limitato: sono sistemi dal rischio minore. In caso di malfunzionamento, si contraddistinguono per una potenziale dannosità limitata (per esempio, chatbot generici), con un impatto limitato su interessi pubblici e diritti fondamentali.

• Sistemi di IA a rischio minimo o nullo: sono sistemi dal rischio irrilevante. In caso di malfunzionamento, la relativa dannosità è molto limitata, potendo avere un impatto del tutto trascurabile su interessi pubblici e diritti fondamentali."

4. Ruoli nella catena del valore dell’IA (pagina 16)

La sezione 3.2 andrebbe arricchita includendo le definizioni di “importatore” e “distributore” come da articolo 3 dell’AI Act, nonché chiarendo meglio il concetto di “modifica sostanziale” (art. 25) che trasforma un deployer in provider. Sarebbe inoltre utile aggiungere un riferimento ai “rappresentanti autorizzati” (art. 22), figura che può risultare rilevante quando le PA acquisiscono sistemi di IA da fornitori extra-UE.

Testo attuale:
"• Fornitore: soggetto che sviluppa un sistema di IA o un modello GPAI o che fa sviluppare un sistema di IA o un modello GPAI e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio;
• Deployer: soggetto che utilizza un sistema di IA, anche integrandolo nei propri sistemi, senza modificarne in modo significativo il funzionamento. Se un deployer modifica in modo significativo il sistema o lo utilizza sotto il proprio nome o marchio, assume le responsabilità del fornitore."

Testo proposto:
"• Fornitore: soggetto che sviluppa un sistema di IA o un modello GPAI o che fa sviluppare un sistema di IA o un modello GPAI e immette tale sistema o modello sul mercato o mette in servizio il sistema di IA con il proprio nome o marchio;

• Deployer: soggetto che utilizza un sistema di IA, anche integrandolo nei propri sistemi, senza modificarne in modo significativo il funzionamento. Se un deployer modifica in modo significativo il sistema o lo utilizza sotto il proprio nome o marchio, assume le responsabilità del fornitore.

• Importatore: persona fisica o giuridica stabilita nell’Unione che immette sul mercato dell’Unione un sistema di IA recante il nome o marchio di una persona fisica o giuridica stabilita al di fuori dell’Unione (art. 3.6 dell’AI Act).

• Distributore: persona fisica o giuridica nella catena di fornitura, diversa dal fornitore o dall’importatore, che mette a disposizione un sistema di IA sul mercato dell’Unione (art. 3.7 dell’AI Act).

• Rappresentante autorizzato: persona fisica o giuridica stabilita nell’Unione che ha ricevuto e accettato un mandato scritto da un fornitore di un sistema di IA per agire per suo conto in relazione a determinati obblighi ai sensi del presente regolamento (art. 3.5 dell’AI Act).

È importante sottolineare che, secondo l’art. 25 dell’AI Act, una “modifica sostanziale” del sistema di IA (cioè un cambiamento che influisce sulla conformità o che modifica la finalità prevista) comporta che il deployer assuma gli obblighi del fornitore. Ciò include casi in cui un deployer adatta un sistema di uso generale per uno scopo ad alto rischio."

5. Approfondimento sul concetto di bias (pagina 14)

Seppure si veda un collegamento implicito, ritengo che il paragrafo sui bias potrebbe essere connesso più esplicitamente all’articolo 10 dell’AI Act sulla governance dei dati. Suggerirei di integrare questa parte con rifermenti alle misure di mitigazione specificamente richieste per i sistemi ad alto rischio e illustrando come la gestione dei bias si colleghi ai requisiti di non discriminazione che le PA dovrebbero essere tenute a rispettare

Testo attuale:
"I sistemi di IA posso essere soggetti a bias, cioè distorsioni o pregiudizi che possono manifestarsi nei risultati o nei comportamenti di un sistema di IA a causa di diversi fattori, come:
• bias nei dati: quando i dati utilizzati per addestrare o testare il modello di IA utilizzato riflettono pregiudizi, incompletezze o rappresentazioni distorte della realtà, influenzando negativamente l’equità e l’accuratezza del sistema;
• bias algoritmico: quando le scelte tecniche o le ipotesi implementate nei modelli IA o negli algoritmi utilizzati introducono distorsioni nei risultati;
• bias umano: quando pregiudizi impliciti o espliciti dei progettisti o degli stakeholder si riflettono nella progettazione, nell’addestramento o nell’applicazione del sistema di IA.
Il bias può portare a trattamenti ingiusti, risultati inaffidabili o discriminazioni nei confronti di specifici individui o gruppi. Riconoscere, mitigare e monitorare i bias è essenziale per garantire che i sistemi di IA operino in modo trasparente ed equo."

Testo proposto:
"I sistemi di IA posso essere soggetti a bias, cioè distorsioni o pregiudizi che possono manifestarsi nei risultati o nei comportamenti di un sistema di IA a causa di diversi fattori, come:
• bias nei dati: quando i dati utilizzati per addestrare o testare il modello di IA utilizzato riflettono pregiudizi, incompletezze o rappresentazioni distorte della realtà, influenzando negativamente l’equità e l’accuratezza del sistema;
• bias algoritmico: quando le scelte tecniche o le ipotesi implementate nei modelli IA o negli algoritmi utilizzati introducono distorsioni nei risultati;
• bias umano: quando pregiudizi impliciti o espliciti dei progettisti o degli stakeholder si riflettono nella progettazione, nell’addestramento o nell’applicazione del sistema di IA.

Il bias può portare a trattamenti ingiusti, risultati inaffidabili o discriminazioni nei confronti di specifici individui o gruppi. Riconoscere, mitigare e monitorare i bias è essenziale per garantire che i sistemi di IA operino in modo trasparente ed equo.

Per i sistemi ad alto rischio, l’AI Act (art. 10) prevede specifici requisiti di governance dei dati volti a prevenire i bias. In particolare, i fornitori devono garantire che i dataset di addestramento, validazione e test siano pertinenti, rappresentativi, privi di errori e completi in rapporto allo scopo previsto. I dataset devono inoltre tenere conto delle caratteristiche specifiche del contesto geografico, comportamentale o funzionale in cui il sistema è destinato a essere utilizzato.

Le PA, in qualità di deployer, devono verificare l’adozione di queste misure e implementare ulteriori controlli per identificare e mitigare eventuali bias che potrebbero emergere durante l’utilizzo del sistema, soprattutto quando questo può influenzare i diritti dei cittadini o l’accesso ai servizi pubblici. Questo aspetto è cruciale per garantire che l’utilizzo dell’IA nel settore pubblico rispetti il principio di non discriminazione."

6. Integrazione dei principi per l’adozione dell’IA (pagina 19-21)

Nella sezione 3.4, che è ben strutturata, suggerirei di aggiungere un principio specifico sulla “spiegabilità” (distinto dalla trasparenza) per riflettere adeguatamente l’articolo 13 dell’AI Act (i un contesto B2B tra provider e deployer, espandendo però anche al concetto di ‘remedies’ espresso nel contesto B2C da articolo 86 verso un end-user, complementare al ‘right to an explanation’ del model rationale del EU GDPR). Il principio P.14 sulle registrazioni andrebbe rafforzato con un riferimento esplicito all’articolo 12 dell’AI Act, e il principio P.5 sulla responsabilità potrebbe essere ampliato per coprire meglio gli aspetti relativi alla catena del valore dell’IA.

Testo attuale:
“P.7 Trasparenza. le PA adottano sistemi di AI garantendo la trasparenza e comprensibilità delle loro decisioni e del funzionamento. Le PA garantiscono una adeguata spiegabilità dei risultati, rendendo comprensibili le motivazioni che supportano le decisioni e le azioni intraprese dai sistemi di IA.”

Testo proposto:
"P.7 Trasparenza. Le PA adottano sistemi di AI garantendo la trasparenza e comprensibilità delle loro decisioni e del funzionamento. Le PA garantiscono che i sistemi di IA siano sviluppati e implementati in modo da consentire un adeguato livello di comprensione del loro funzionamento, in linea con quanto previsto dall’art. 13 dell’AI Act per i sistemi ad alto rischio.

P.7bis Spiegabilità. Le PA garantiscono un’adeguata spiegabilità dei risultati prodotti dai sistemi di IA, rendendo comprensibili le motivazioni che supportano le decisioni e le azioni intraprese. Questo include la capacità di fornire informazioni sugli elementi che hanno influenzato un particolare output e sul modo in cui il sistema è giunto a determinate conclusioni o raccomandazioni, soprattutto quando queste hanno un impatto diretto sui cittadini."

Testo attuale:
“P.14 Registrazioni (logging). le PA adottano sistemi di IA dotati di adeguati meccanismi di registrazione necessari a tracciare e conservare nel tempo le operazioni svolte.”

Testo proposto:
“P.14 Registrazioni (logging). Le PA adottano sistemi di IA dotati di adeguati meccanismi di registrazione necessari a tracciare e conservare nel tempo le operazioni svolte. In conformità con l’art. 12 dell’AI Act, i sistemi ad alto rischio devono essere progettati e sviluppati con capacità di registrazione automatica degli eventi (log) durante il loro intero ciclo di vita. Tali registrazioni devono consentire il monitoraggio del funzionamento del sistema, l’identificazione di situazioni che possono comportare rischi e la facilitazione di indagini post-incidente, garantendo al contempo la tracciabilità del sistema.”

7. Revisione del principio sulla supervisione umana (pagina 21)

Sempre in linea con quanto esposto sopra al punto 6., il principio P.13 sulla supervisione umana andrebbe riformulato per allinearlo più precisamente all’articolo 14 dell’AI Act, specificando che il livello di supervisione deve essere proporzionato al livello di rischio e alle caratteristiche del sistema. Nella formulazione attuale questo aspetto di proporzionalità non emerge con sufficiente chiarezza.

Testo attuale:
“P.13 Supervisione umana. Le PA garantiscono un livello adeguato di supervisione umana dei sistemi di IA. Ai fini della supervisione umana, le PA assicurano che i sistemi di IA siano progettati e implementati in modo tale da consentirne la verifica, correzione o sostituzione da parte di personale umano.”

Testo proposto:
"P.13 Supervisione umana. Le PA garantiscono un livello adeguato di supervisione umana dei sistemi di IA, commisurato al tipo di sistema e al suo livello di rischio. In conformità con l’art. 14 dell’AI Act, per i sistemi ad alto rischio la supervisione umana deve permettere alle persone designate di:
- comprendere pienamente le capacità e i limiti del sistema e monitorarne il funzionamento;
- rimanere consapevoli della possibile tendenza a fare eccessivo affidamento sull’output prodotto dal sistema (automation bias);
- interpretare correttamente l’output del sistema;
- decidere di non utilizzare il sistema o ignorare, annullare o invertire l’output del sistema in qualsiasi situazione;
- intervenire o interrompere il funzionamento del sistema.

Le PA assicurano che i sistemi di IA siano progettati e implementati in modo tale da consentirne la verifica, correzione o sostituzione da parte di personale umano, e che questo personale abbia la competenza, la formazione e l’autorità necessarie per svolgere efficacemente i propri compiti di supervisione."

Queste revisioni rispondono anche alla richiesta dei contributi sovraesposti, in particolari verso Gaia Favazzi di “identificare i rispettivi responsabili per ciascuna PA” e di “definire requisiti da rispettare ai fini della valutazione”, nonché alle osservazioni di Enzo Maria Le Fevre sulla necessità di “audit e revisione periodica”.

3.1. CICLO DI VITA:
Alla voce operatività e monitoraggio sarebbe opportuno specificare chi deve effettuare tali operazioni e con quali modalità. Si suggerisce di ripartire le responsabilità, a livello trasversale, tra gli Uffici che adottano sistemi di AI.

3.2 RUOLI NELLA CATENA DEL VALORE DELL’IA:
Per non generare incertezze tra i ruoli, sarebbe opportuno utilizzare sempre o il termine “deployer” (consigliato) o il termine “utilizzatore”. Pertanto, le PA si distinguerebbero tra fornitori e deployer.

3.3. CLASSIFICAZIONE DEI SISTEMI DI IA SULLA BASE DEL RISCHIO
La rappresentazione grafica della piramide a pagina 18 delle Linee Guida è controintuitiva, perché colloca i sistemi a rischio sistemico - alto rischio potenziale nella classe di rischio più bassa. Questa scelta potrebbe generare ambiguità nella lettura del documento, dato che l’AI Act classifica questi sistemi in modo diverso. Collocarli nella parte più bassa della piramide, associandoli implicitamente a un rischio limitato, può dare l’impressione che siano meno regolamentati o meno impattanti rispetto ai sistemi ad alto rischio tradizionali, mentre in realtà il loro utilizzo comporta obblighi severi proprio perché il loro impatto è sistemico.
Una rappresentazione più chiara potrebbe essere quella di una piramide parallela o una struttura a due livelli di regolamentazione:

  • Sistemi vietati al vertice, con il massimo livello di restrizione.
  • Sistemi ad alto rischio, immediatamente sotto, con obblighi di conformità molto rigidi.
  • Sistemi a rischio limitato e minimo, nella parte bassa.
  • Modelli a rischio sistemico - alto rischio potenziale, collocati lateralmente o in una sezione separata, per indicare che non rientrano esattamente in una scala di rischio progressiva, ma richiedono una regolamentazione speciale a causa della loro ampia diffusione e del loro impatto potenziale su più settori.
    Inoltre, nel richiamare i sistemi che introducono meccanismi di scoring sociale nella definizione di sistemi di IA vietati, sarebbe opportuno precisare che l’attribuzione di eventuali premi da parte della PA al solo fine di stimolare comportamenti virtuosi, con ogni cautela normativa, non costituisce scoring sociale.
    Infine, nel richiamare i modelli AI per finalità generali tra i modelli ad alto potenziale di rischio per i diritti fondamentali, le Linee Guida dovrebbero dare indicazioni chiare sulle cautele che le PA devono osservare quando utilizzano tali modelli per l’elaborazione di testi o documenti contenenti dati particolari e giudiziari, o quando consentono tale utilizzo ai propri dipendenti in via spontanea senza apposita regolamentazione (si pensi all’utilizzo di chatGPT3 da parte del personale dei servizi sociali, per esempio, nonostante la generica previsione di tutela dei dati personali a pag.65).

Il documento non riporta un solo esempio concreto di come si possa utilizzare IA nella PA. Qualcosa del tipo “per questo tipo di applicazione costa x, richiede risorse umane y, ma dopo tempo z si e’ ripagato e ci da’ vantaggi”. Se AI aiuta il medico di base a gestire 2000 pazienti invece di 1500 e dedicare piu’ tempo a ognuno, ben venga. Ma il rischio e’ che il medico di base, gia’ oberato di incombenze amministrative, si trovi a dovere istruire il suo modello AI e diventi del tutto inaccessibile per i pazienti.
Esistono alcuni case study concreti, non solo teorici, e dove le promesse vengano mantenute?
Tutte le situazioni che riguardano la PA alle quali sto pensando piu’ che di AI avrebbero bisogno di forti semplificazioni, che in ultima analisi renderebbero superflua la stessa AI.
Onestamente, chi tra i propositori di AI quando ha un problema da risolvere, diciamo con INPS, preferisce chattare con un bot AI o avrebbe piu’ piacere a incontrare il suo responsabile di zona, persona umana?

Con riferimento alla parte introduttiva del Cap. 3 L’Intelligenza Artificiale, credo sia doveroso informare i lettori che gli algoritmi matematici e statistici su cui si basa il funzionamento dell’IA, come ad esempio il machine learning, il deep learning, le reti neurali, NLP, l’algebra lineare, etc., esistono ormai da decenni.
Già negli anni '50 e '60 si parlava di reti neurali e di apprendimento automatico, ma le capacità computazionali e la disponibilità di dati erano molto limitate.

L’utilizzo di questi algoritmi, rispetto al secolo scorso dove erano prevalentemente utilizzati per scopi didattici e matematici, trovano ora spazio ed importanza grazie al:

  • Elemento lista
    facile reperimento e disponibilità di grandi quantità di dati (Internet, social media, dispositivi IoT e altre tecnologie in grado di generare dataset) permettendo agli algoritmi di apprendere in modo più efficace

  • Elemento lista
    aumento della potenza di calcolo con l’avvento di GPU e TPU che rendono possibile l’addestramento di modelli complessi in tempi ragionevoli

Tali osservazioni aiuterebbe a contestualizzare meglio l’Intelligenza Artificiale nel progresso temporale nel campo dell’innovazione tecnologica.

[3/3.1] Una spiegazione di cos’è un sistema di intelligenza artificiale e del ciclo di vita dello stesso appare superflua in un documento tecnico rivolto a delle autorità pubbliche. Si consiglia di mantenere unicamente il riferimento alle definizioni di fornitore e utilizzatore (ora 3.2). In ogni caso, nell’esercizio definitorio sarebbero da considerare anche le linee guida della Commissione sulla definizione di un sistema di intelligenza artificiale (C (2025) 924 final del 6.02.2025). Si ricorda, inoltre, che la versione italiana del Regolamento UE non traduce il termine deployer in utilizzatore. Se si vuole mantenere tale impostazione, la descrizione del ciclo di vita dovrebbe essere più precisa per risultare utile (es. con riferimenti ai responsabili, ai rischi e agli obblighi per ogni fase del ciclo). Il tema dei bias, qui introdotto, dovrebbe essere approfondito con strategie di mitigazione. Nell’allegato F (casi d’uso), si torna sul punto traslando l’onere sulle PA che dovrebbero invece essere guidate su questo aspetto, attraverso esempi pratici e possibili strategie di mitigazione.

[3.2] Sarebbe utile, per una pubblica amministrazione, una spiegazione dettagliata dei casi in cui – come deployer – assume le responsabilità del fornitore, attraverso esempi specifici.

[3.3] La classificazione dei sistemi di IA sulla base del rischio non rispetta propriamente quanto previsto dal Regolamento UE. La divisione è: pratiche vietate, sistemi ad alto rischio, obblighi di trasparenza, modelli di IA per finalità generali (questi poi suddivisi in rischio sistemico e non). Inoltre, menzionare in questo paragrafo degli obblighi generici per i sistemi ad alto rischio appare poco funzionale per il lettore e confusionario.

[3.4] Per dei dipendenti di una pubblica amministrazione sarebbe certamente più utile leggere i principi elencati per l’adozione dell’IA rispetto alle disposizioni del Regolamento UE e con indicazioni pratiche sull’attuazione. Così come ora elencati, i principi appaiono poco utili ad una autorità pubblica che è già consapevole, in termini generici così come delineati, di dover essere conforme alla normativa, di dover rispettare i valori fondamentali dell’UE o la normativa in materia di protezione dei dati personali. Si rischia, inoltre, una duplicazione rispetto a quanto previsto dal Regolamento europeo in materia.

Salve,

come Digital Commons Lab della Fondazione Bruno Kessler, vogliamo portare alcuni nostri commenti alle Linee Guida nella speranza di contribuire a un output più solido.

Nella sezione 3 si dice: “Il modello di IA; tale componente, addestrata su grandi quantità di dati, consente al sistema di generare output quali…”
Qui riteniamo occorra evidenziare che l’IA non è per forza addestrata su dati, ma può essere basata su euristiche.

Sottosezione 3.1
“Messa a disposizione per l’utilizzo o il dispiegamento”: Qui riteniamo che sarebbe utile considerare anche il riuso. La PA infatti dovrebbe usare software libero e open source quando possibile.

Con il riuso occorre considerare anche i seguenti aspetti:

  1. Transfer context bias: bias dovuto all’applicazione di un algoritmo ad un contesto diverso da quello per cui era progettato
  2. Valutare rischi rispetto alla tutela dei dati utilizzati per addestrare l’algoritmo

Sottosezione 3.3

Aggiungere la Convenzione Europea dei Diritti Umani (Consiglio d’Europa) ai documenti da rispettare, insieme alla Carta dei Diritti Fondamentali dell’UE che è già citata. Se del caso, aggiungere anche un riferimento ai trattati e protocolli ratificati dall’Italia in ambito ONU.

Inoltre, riteniamo che il testo non tratti in modo lineare la classificazione del rischio con riferimento alla categoria di “rischio sistemico”: tale categoria è avulsa dalla classificazione del sistema di AI in generale e riguarda specifici casi (GPAI) e specifici contesti (settori critici).

Sottosezione 3.4

Le finalità indicate nel paragrafo che reca “Le PA adottano l’IA al fine di…” rappresentano un elenco chiuso cui la PA si deve riferire nel momento in cui adotta un sistema AI? Da dove nascono queste esigenze (è stata fatta un’indagine)?

Infine, nella sottosezione Formazione e sviluppo delle competenze consigliamo di aggiungere una dicitura tipo: “Le PA si impegnano inoltre a formare quel personale il cui lavoro è parzialmente o totalmente sostituito dall’IA per garantire competenze utili al loro impiego in altri settori della PA”

Riguardo il concetto di classificazione dei sistemi di IA sulla base del rischio suggerirei l’aggiunta del seguente testo:

Per ridurre il rischio di dipendenza da fornitori extra-UE e garantire maggiore controllo sui dati, le PA sono incoraggiate a privilegiare l’adozione di modelli di IA sviluppati e ospitati all’interno del territorio nazionale o europeo.

(Punto 3.2 Linee Guida)
La catena del valore dell’IA, così come descritta nelle Linee Guida, coinvolge fornitori di modelli, fornitori di infrastrutture, fornitori di applicazioni e utilizzatori. Federmanager ritiene che il contributo dei dirigenti industriali sia essenziale in tutte queste fasi, al fine di garantire un’adozione dell’IA nella PA che sia efficiente, trasparente e conforme agli standard di sicurezza e governance.

Ruolo dei dirigenti industriali

I dirigenti industriali, grazie alla loro esperienza nella gestione e implementazione di tecnologie IA nel settore privato, possono fornire un contributo strategico nei seguenti ambiti:

  • Supporto ai fornitori di modelli IA : Il settore industriale ha già adottato rigorosi standard di qualità, sicurezza e affidabilità nella creazione di modelli di IA. L’esperienza dei dirigenti può essere utilizzata per definire criteri di certificazione e conformità per i fornitori di modelli IA destinati alla PA.
  • Ottimizzazione delle infrastrutture IA nella PA : I dirigenti industriali possono supportare la selezione delle migliori infrastrutture (cloud, networking, hardware), garantendo scalabilità, interoperabilità e riduzione dei costi operativi.
  • Definizione di standard per i fornitori di applicazioni : Il settore privato ha sviluppato soluzioni IA avanzate in diversi settori (produzione, logistica, sanità). Questa esperienza può essere utilizzata per identificare le best practice nella personalizzazione delle applicazioni IA per la PA, migliorando l’efficacia dei servizi pubblici.
  • Governance per gli utilizzatori IA nella PA : I dirigenti industriali possono contribuire alla gestione e al monitoraggio dell’uso dei sistemi IA nella PA, garantendo che l’adozione sia basata su criteri di efficienza, sicurezza e rispetto delle normative europee.

Proposte operative

Per garantire che la PA possa beneficiare dell’esperienza del settore privato, Federmanager propone:

  1. Istituzione di un tavolo tecnico congiunto tra PA, industria e università per definire standard e criteri di qualità per i fornitori di IA.
  2. Creazione di linee guida per la selezione e gestione delle infrastrutture IA , basate su esperienze consolidate nel settore industriale.
  3. Adozione di best practice per l’integrazione e il monitoraggio delle applicazioni IA nella PA, con particolare attenzione alla trasparenza e alla valutazione dell’impatto.
  4. Definizione di un codice di condotta per l’utilizzo dell’IA nella PA , che garantisca un impiego responsabile e in linea con i principi etici e normativi.

(Punto 3.3 Linee Guida)
Le Linee Guida identificano una classificazione dei sistemi di IA in base al rischio, secondo quanto previsto dall’AI Act. Federmanager riconosce l’importanza di questa distinzione e sottolinea come il settore industriale abbia già sviluppato approcci consolidati per la valutazione, mitigazione e gestione del rischio nell’adozione di tecnologie IA.

Ruolo dei dirigenti industriali

I dirigenti industriali possono offrire un contributo concreto nella gestione del rischio IA nella PA attraverso:

  • Applicazione di framework consolidati per la gestione del rischio : Nel settore privato, le imprese adottano metodologie avanzate di risk assessment, che possono essere utilizzate anche nella PA per valutare l’impatto dei sistemi IA ad alto rischio.
  • Definizione di strategie di mitigazione per i sistemi IA ad alto rischio : La PA può beneficiare delle tecniche di gestione del rischio già impiegate in settori regolamentati (come quello finanziario e manifatturiero) per garantire la sicurezza e la compliance dei sistemi IA.
  • Sviluppo di modelli di audit e controllo per monitorare l’uso dei sistemi IA nella PA, con particolare attenzione alla prevenzione di discriminazioni e bias.
  • Formazione del personale della PA sulla gestione del rischio IA , per garantire un utilizzo consapevole delle tecnologie emergenti.

Proposte operative

Per affrontare in modo efficace la gestione del rischio IA nella PA, Federmanager propone:

  1. Adozione di un modello di valutazione del rischio IA ispirato agli standard del settore industriale, con particolare attenzione alla gestione degli impatti su sicurezza, privacy e diritti fondamentali.
  2. Creazione di un sistema di audit periodico per i sistemi IA ad alto rischio nella PA, al fine di garantire trasparenza e accountability.
  3. Implementazione di un programma di formazione specifico per i funzionari pubblici, volto a migliorare la conoscenza delle metodologie di gestione del rischio IA.
  4. Istituzione di una sandbox normativa che consenta alla PA di testare sistemi IA ad alto rischio in un ambiente controllato prima della loro implementazione su larga scala.

Federmanager ritiene che un’integrazione efficace dell’IA nella PA debba basarsi su standard chiari, una governance solida e un’efficace gestione del rischio. Il contributo dei dirigenti industriali può essere determinante per garantire che la PA adotti soluzioni IA affidabili, sicure e orientate al miglioramento dei servizi pubblici.

A tal fine, Federmanager auspica un coinvolgimento strutturato nella definizione e nell’aggiornamento delle Linee Guida, favorendo la collaborazione tra settore pubblico e privato per costruire un ecosistema IA responsabile e innovativo.

Buongiorno,
di seguito le mie proposte:
1. Chiarezza e Specificità

Modifica (Sezione 3.3 - Classificazione dei sistemi di IA sulla base del rischio)

  • Attuale: “Le PA DEVONO tenere in considerazione la classificazione dei sistemi di IA in base ai livelli di rischio delineati dall’AI Act.”
  • Modifica proposta (in aggiunta al testo Attuale):

“Le PA DEVONO adottare un sistema strutturato di valutazione del rischio che includa:

  • Un’analisi dettagliata delle potenziali conseguenze dell’uso di IA nei processi amministrativi, distinguendo tra rischi operativi, etici e giuridici.
  • La classificazione preventiva di ogni sistema di IA sulla base del suo livello di autonomia decisionale e impatto sugli utenti.
  • Un processo di revisione continua che preveda test periodici sui risultati generati dall’IA, con particolare attenzione a distorsioni nei dati e possibili discriminazioni.
  • Definire ed adottare un framework condiviso a tutti i livelli della PA per la corretta gestione dell’IA, quale lo Standard ISO IEC 42001.”

2. Governance e Responsabilità

Aggiunta (Sezione 4.6 - Governance)

  • Nuovo paragrafo:

“Le PA DEVONO istituire un comitato interno per la supervisione dell’IA, composto da:

  • Esperti tecnici con competenze in machine learning, gestione dati e sicurezza informatica.
  • Rappresentanti legali con esperienza in diritto digitale e protezione dei dati.
  • Esperti etici per valutare l’impatto sociale dell’IA.

Questo comitato avrà il compito di:

  • Valutare le proposte di implementazione dei sistemi di IA prima della loro adozione.
  • Monitorare il funzionamento dei sistemi già in uso, proponendo modifiche migliorative.
  • Garantire trasparenza attraverso report pubblici sugli effetti dell’IA nelle decisioni amministrative.
  • Definire procedure di audit per verificare la conformità dei sistemi IA ai principi etici e normativi.”

Modifica (Sezione 4.7 – Gestione del rischio)

  • Attuale: “Le PA DEVONO adottare un approccio alla gestione del rischio conforme all’AI Act. Nell’attesa della definizione delle specifiche norme tecniche armonizzate (cfr. par. 4.4), la PA PUÒ fare riferimento alle norme tecniche UNI ISO 3100024 e alla ISO/IEC 2389425. Queste ultime vanno applicate tenendo comunque conto delle prescrizioni dell’AI Act (cfr. par. 3.3).”
  • Modifica proposta (in aggiunta al testo Attuale): Le PA DEVONO adottare un approccio alla gestione del rischio conforme all’AI Act. Nell’attesa della definizione delle specifiche norme tecniche armonizzate (cfr. par. 4.4), la PA PUÒ fare riferimento alle norme tecniche UNI ISO 31000 e alle ISO/IEC 42001 e 23894. Queste ultime vanno applicate tenendo comunque conto delle prescrizioni dell’AI Act (cfr. par. 3.3).”

Aggiunta (Sezione 4.12 - Monitoraggio e valutazione)

  • Nuovo paragrafo:

“Le PA DEVONO istituire un sistema di valutazione continua delle performance dei sistemi di IA, basato su:

  • Indicatori di Performance (KPI) chiari e misurabili, come:
    • Accuratezza e affidabilità delle decisioni automatizzate.
    • Impatto su equità e non discriminazione.
    • Livello di trasparenza percepito dagli utenti.
  • Feedback degli utenti, attraverso sondaggi e canali di segnalazione di anomalie nei sistemi IA.
  • Audit periodici indipendenti, affidati a enti terzi per garantire l’oggettività della valutazione.”

Modifica (Sezione 4.13 – Miglioramento continuo)

  • Attuale: “Le PA DEVONO garantire nel tempo l’idoneità, l’adeguatezza e l’efficacia dei sistemi di IA adottati e delle misure tecniche e organizzative per la gestione dell’IA tramite un processo di “miglioramento continuo.”
  • **Modifica proposta (in aggiunta al testo Attuale): “**Le PA DEVONO garantire nel tempo l’idoneità, l’adeguatezza e l’efficacia dei sistemi di IA adottati e delle misure tecniche e organizzative per la gestione dell’IA tramite un processo di “miglioramento continuo”. Tale processo DEVE prevedere altresì l’esecuzione di Penetration Test con cadenza quantomeno annuale e/o Vulnerability Assessment con cadenza quantomeno trimestrale, oltre ad aggiornamenti periodici sulla formazione del proprio personale”.

3. Conformità delle soluzioni di IA

Modifica (Sezione 5.3 – Auditing e controlli nei confronti dei fornitori esterni)

  • Attuale: “Le PA DEVONO verificare che i fornitori di modelli di IA per finalità generale che presentino rischi sistemici abbiano assolto agli obblighi previsti all’art. 53 dell’AI Act, inclusa la documentazione relativa allo svolgimento di test e verifiche condotte da soggetti esterni e indipendenti rispetto al fornitore”
  • Modifica proposta (in aggiunta al testo Attuale): Le PA DEVONO verificare che i fornitori di modelli di IA per finalità generale che presentino rischi sistemici abbiano assolto agli obblighi previsti all’art. 53 dell’AI Act, inclusa la documentazione relativa allo svolgimento di test e verifiche condotte da soggetti esterni e indipendenti rispetto al fornitore. Le PA DEVONO adottare una procedura di supply-chain e verificare (con informazioni documentate) che ogni fornitore di modelli di IA abbia garanzie adeguate per la tutela dei diritti e gli interessi dei soggetti interessati, nel pieno rispetto del GDPR e AI Act.”

4. Etica e Inclusività

Aggiunta (Sezione 6 - Governance etica dell’IA)

  • Nuovo paragrafo:

“Le PA DEVONO implementare un meccanismo di auditing etico, che preveda:

  • Verifiche periodiche sui bias presenti nei dati e nei modelli di IA utilizzati.
  • Analisi dell’impatto sociale delle decisioni automatizzate, con particolare attenzione agli effetti su categorie vulnerabili.
  • Coinvolgimento di esperti indipendenti, rappresentanti della società civile e organizzazioni per i diritti umani nella valutazione dei sistemi IA.”

5. Trasparenza e Comunicazione

Modifica (Sezione 7.1 - Misure di trasparenza)

  • Attuale: “Le PA devono garantire trasparenza nell’uso dell’IA.”
  • Modifica proposta:

“Le PA DEVONO pubblicare regolarmente report di trasparenza che includano:

  • Descrizione dei sistemi IA utilizzati, con dettagli su obiettivi, funzionamento e limiti.
  • Algoritmi impiegati, con indicazioni sul tipo di modelli usati e sulle loro logiche decisionali.
  • Criteri di valutazione delle decisioni, specificando le metriche adottate per misurare l’efficacia e l’equità del sistema.
  • Meccanismi di contestazione, fornendo ai cittadini la possibilità di richiedere una revisione umana delle decisioni automatizzate che li riguardano.
  • Test di vulnerabilità e misure adottate per mitigare i rischi, con indicazioni sui potenziali impatti.”

Modifica (Sezione 7.2 – Obblighi di informativa)

  • Attuale: “Le PA DOVREBBERO elaborare informative dettagliate e personalizzate per ogni sistema di IA utilizzato, adattando la comunicazione alle specificità del contesto e alle esigenze degli utenti.”
  • Modifica proposta: “Le PA DOVREBBERO elaborare informative dettagliate e personalizzate per ogni sistema di IA utilizzato, adattando la comunicazione alle specificità del contesto e alle esigenze degli utenti. Le informative DEVONO essere fruibili e di semplice comprensione per gli utenti: a tal fine, si POTREBBERO utilizzare le linee guida “Scrivere Chiaro” pubblicate dalla Commissione Europea (ultima versione del 19.02.2016) ed adottare tecniche di Legal Design”.

6. Formazione e Sviluppo Competenze

Aggiunta (Sezione 8.1 - Indicazioni operative per le PA)

  • Nuovo paragrafo:

“Le PA DEVONO prevedere corsi obbligatori di formazione per il personale su:

  • Fondamenti di IA, per comprendere il funzionamento e le implicazioni di questi sistemi.
  • Uso responsabile dell’IA, con focus sulla protezione dei dati e la gestione etica degli algoritmi.
  • Supervisione e audit dell’IA, per individuare errori o distorsioni nei processi automatizzati.

La formazione dovrà essere differenziata in base ai ruoli:

  • Decision maker: corso avanzato sulle implicazioni legali ed etiche dell’IA.
  • Operatori tecnici: formazione sull’implementazione e gestione degli algoritmi IA.
  • Supervisori etici: approfondimento su bias, equità e trasparenza nei sistemi IA.”

7. Sicurezza e Protezione dei Dati

Modifica (Sezione 11.2 - Gestione del rischio cibernetico)

  • Attuale: “Le PA DEVONO garantire misure di sicurezza per proteggere i sistemi di IA da attacchi informatici.”
  • Modifica proposta:

“Le PA DEVONO adottare un framework specifico di gestione del rischio cibernetico per i sistemi di IA, basato su standard come:

  • ISO/IEC 27001 per la sicurezza delle informazioni.
  • ISO/IEC 42001 per la gestione dei sistemi di AI;
  • NIST AI RMF per la gestione responsabile dei rischi legati all’IA.
  • OWASP for LLM and Generative AI per il monitoraggio delle evoluzioni delle minacce cibernetiche connesse all’AI.

Il framework dovrà includere:

  • Test di sicurezza periodici per individuare vulnerabilità nei modelli di IA.
  • Sistemi di monitoraggio continuo per rilevare attacchi informatici in tempo reale.
  • Procedure di risposta alle violazioni, con piani di emergenza e recupero dati in caso di compromissione del sistema.”

Le linee guida delineano il ruolo delle amministrazioni sovraordinate nel supportare gli enti locali nell’adozione dell’IA. Queste amministrazioni possono agire come accentratori di infrastrutture, servizi e contratti per la raccolta e la gestione del patrimonio informativo pubblico, garantendo una gestione omogenea, economie di scala e soluzioni più ampie.

Le amministrazioni capofila possono supportare gli enti locali attraverso:

  • L’implementazione e la gestione centralizzata di infrastrutture e strumenti.
  • La messa a disposizione di strumenti contrattuali dedicati alla valorizzazione e al riutilizzo dei dati.
  • L’attivazione di iniziative di stimolo per l’introduzione di nuove modalità di gestione, trattamento e valorizzazione del patrimonio informativo pubblico.
  • La previsione di sinergie tra gli enti per condividere mezzi, risorse umane e competenze.

Inoltre, si suggerisce di effettuare una mappatura preliminare del livello di maturità e dei fabbisogni delle diverse amministrazioni del territorio.

Le Province, insieme alle Città Metropolitane, possono assumere un ruolo di intermediazione e raccordo verso gli Enti locali, supportandoli nell’adozione di soluzioni di Intelligenza Artificiale.

In particolare, le Province possono contribuire:

  • Supportando gli Enti locali grazie alle possibilità tecnologiche, alla capacità di spesa e alle economie possibili grazie alla propria scala territoriale più ampia.
  • Assumendo un ruolo di intermediazione e raccordo verso i livelli territoriali inferiori.
    Inoltre, le Province, in quanto amministrazioni sovraordinate, possono agire come accentratori di infrastrutture, servizi e contratti per la raccolta e la gestione del patrimonio informativo pubblico a supporto dell’IA, garantendo una gestione omogenea insieme ad economie di scala.

Una Provincia può elaborare una strategia di adozione dell’Intelligenza Artificiale (IA) coerente con le linee guida e con Piano Triennale per l’Informatica, agendo come intermediario e punto di riferimento per gli Enti locali. La strategia dovrebbe tenere conto delle peculiarità del territorio e delle esigenze specifiche degli Enti locali che ne fanno parte, supportandoli nell’adozione di soluzioni di IA.

Ecco alcuni elementi chiave e azioni che la Provincia dovrebbe considerare:

  • Darsi una strategia per l’adozione dell’IA anche considerando il territorio di riferimento
  • Analisi del contesto e delle caratteristiche della PA
  • Darsi degli obiettivi e ambiti prioritari di applicazione, promuovendo un approccio condiviso e collaborativo che coinvolga tutte le funzioni della Provincia
  • Svolgere funzione di governance
  • Dati: svolgere un’azione sistematica di analisi sullo stato e la qualità dei propri dataset, agendo per l’aggiornamento e la pubblicazione, ove non ancora realizzata, dei dati pubblicabili come open data; delineare un processo strutturato e responsabile che copra l’intero ciclo di vita del dato, garantendo che raccolta, archiviazione, elaborazione, analisi, monitoraggio e aggiornamento siano sicuri e conformi alle normative
  • Promuovere iniziative locali per la valorizzazione dei dati
  • Risorse e competenze: allocare risorse finanziarie, tecnologiche e umane dedicate, promuovendo un utilizzo efficace dell’AI
  • Sicurezza

I RUOLI DEL FORNITORE E DEL DEPLOYER DI SOLUZIONI DI IA (CAP.3 PAR. 3.2)
L’identificazione chiara del ruolo di fornitore/deployer nelle soluzioni di intelligenza artificiale (IA) assume un’importanza cruciale, specialmente nel contesto delle Pubbliche Amministrazioni ¶. La mancata distinzione tra le diverse responsabilità può comportare il rischio che le PA assumano involontariamente il ruolo di fornitore a seguito di modifiche non rilevanti a un modello di Generative Pre-trained AI (GPAI), generando sovrapposizioni e complessità nella gestione delle responsabilità.
Le PA devono essere tutelate da un’eventuale attribuzione impropria del ruolo di fornitore quando operano su modelli IA. Questo rischio si concretizza soprattutto in situazioni in cui le modifiche apportate al modello non siano tali da giustificare un cambiamento di ruolo da utilizzatore a fornitore. È necessario quindi stabilire criteri chiari per distinguere tra:
• personalizzazioni minori: adattamenti di parametri o configurazioni che non incidono sulla natura del modello e sulle sue responsabilità.
• Personalizzazioni maggiori: modifiche strutturali significative che implicano una nuova versione del modello, modificandone il comportamento e generando una nuova responsabilità in capo al soggetto che le esegue.
Tale distinzione consentirebbe di evitare oneri impropri per le PA e garantire una corretta distribuzione delle responsabilità.
Per affrontare questa problematica, si propone l’applicazione di un modello di responsabilità condivisa (Shared Responsibility Model - IA-SRM), simile a quello già adottato dall’Agenzia per la Cybersicurezza Nazionale (ACN) per la qualificazione dei servizi cloud. Questo modello consentirebbe di suddividere le responsabilità tra i diversi attori coinvolti nelle soluzioni di IA, delineando chiaramente i ruoli di ciascuno.
In sintesi, l’applicazione dell’IA-SRM permetterebbe di gestire con maggiore precisione il ruolo del fornitore/deployer, garantendo un equilibrio tra innovazione, sicurezza e responsabilità nelle soluzioni di intelligenza artificiale adottate dalle Pubbliche Amministrazioni,

  • Rivedere il principio di trasparenza nella sezione 3.4 e la correlata sezione 7.2, per evitare che venga interpretato come un divieto per l’utilizzo di IA generativa e reti neurali. Attualmente, l’obbligo di trasparenza assoluta rischia di escludere sistemi avanzati, come quelli basati su reti neurali, che non sono completamente spiegabili ma che possono comunque fornire valore nella PA.

  • Considerare l’integrazione di XAI (Explainable AI) come principio guida, consentendo l’uso di sistemi che garantiscano una spiegabilità adeguata, piuttosto che imporre un requisito di trasparenza assoluta che limiterebbe l’adozione di tecnologie IA più avanzate. Sarebbe utile un approccio che equilibri trasparenza ed efficacia, utilizzando la trasparenza come criterio di scelta tra più sistemi disponibili piuttosto che come principio assoluto di adozione.

Cap. 3, pag. 13, Figura 1 – sistema di IA:
o L’integrazione di un modello di AI non è un elemento fondamentale ai fini della definizione e dell’operatività di un sistema di AI, in particolar modo se avente un intended purpose. Lo è per la definizione e l’operatività di un sistema di AI per finalità generali.
o Il sistema di AI può avere capacità inferenziale e, quindi, generare output quali previsioni, contenuti, raccomandazioni o decisioni anche senza che vi sia integrato un modello di AI per finalità generali.

Cap. 3, pag. 14, sull’Adattabilità: “L’adattabilità è una caratteristica chiave dei sistemi di IA”:
o Contrasto con quanto previsto dalle Commission Guidelines on the defintion of an artificial intelligence system established by Regulation (EU) 2024/1689 (AI Act) del 6 febbraio, in cui tale requisito è eventuale e non mandatorio per la definizione di un sistema di AI:
The use of the term ‘may’ in relation to this element of the definition indicates that a system may, but does not necessarily have to, possess adaptiveness or self-learning capabilities after deployment to constitute an AI system. Accordingly, a system’s ability to automatically learn, discover new patterns, or identify relationships in the data beyond what it was initially trained on is a facultative and thus not a decisive condition for determining whether the system qualifies as an AI system.
Cap. 3.2, Pag. 16, sulla definizione di Deployer: “Deployer: soggetto che utilizza un sistema di IA, anche integrandolo nei propri sistemi, senza modificarne in modo significativo il funzionamento”:
o Definizione parzialmente sovrapponibile con l’AI Act:
i. manca il concetto di utilizzo sotto la propria responsabilità - il concetto di responsabilità è fondamentale nella catena di valore dell’AI, per distinguere ciò che è di responsabilità del deployer e manleva quindi il fornitore;
ii. l’AI Act esclude dalla definizione colui che utilizzi un sistema di AI sotto la propria responsabilità nel corso di un’attività professionale e non personale.

Cap. 3.2, pag. 17, sulla definizione di Utilizzatori: “Soggetti che adottano e integrano le tecnologie di IA nei propri sistemi per soddisfare esigenze operative e strategiche. Questi soggetti possono effettuare personalizzazioni o fine-tuning dei modelli utilizzando i propri dati al fine di ottimizzare le soluzioni per il contesto operativo specifico”.
o Chiederemmo un chiarimento sulla definizione e se questa debba intendersi come equivalente alla definizione di Deployer. Sarebbe opportuno invece considerare e definire – come Utilizzatori o in altro modo – anche gli utenti finali destinatari del sistema di AI, che differiscono dal fornitore e dal deployer (ad es. cittadini).

Cap. 3.3, pag. 18 sulla Figura 4 – Classi di rischio dei sistemi secondo l’AI Act:
o La figura non è corretta: l’AI Act prevede 4 livelli di rischio per i sistemi di AI (inaccettabile, alto, limitato, minimo) e un livello di rischio sistemico per i modelli di AI per finalità generali. Sistemi di AI e modelli di AI per finalità generali sono elementi diversi, la classe di rischio relativa ai modelli non può essere equiparata alla medesima classificazione del rischio effettuata per i sistemi di AI.

Cap. 3.3, pag. 18, sulla definizione dei Sistemi di AI vietati: “IA che utilizzano tecniche subliminali che agiscono senza che una persona ne sia consapevole o tecniche volutamente manipolative o ingannevoli volte a distorcere il comportamento delle persone; meccanismi di sfruttamento delle persone vulnerabili; sistemi di IA che introducano meccanismi di scoring sociale”:
o Esempi non del tutto pertinenti, vanno contestualizzati:
i. non sono vietati di per sé i sistemi di AI che adottano tecniche subliminali o manipolative o che attribuiscono un punteggio sociale, lo sono al ricorrere di requisiti cumulativi.

Cap. 3.3, pag. 18, sull’esempio dei sistemi di AI a rischio limitato “chatbot generici”:
o Non è corretto ed è anzi fuorviante. A seconda del contesto d’uso, un chatbot generico può rientrare tra i sistemi di AI proibiti ex. Art. 5 (es. chatbot che fornisce assistenza medica a soggetti vulnerabili senza l’opportuno filtro medico rispetto alla decisione automatizzata) o ad alto rischio ex. Art. 6 AI Act.

Relativamente alla sezione 3.4, si suggeriscono le seguenti integrazioni:
A) tra i principi di “Etica e Inclusione” inserire: “le PA dovono eseguire la FRIA, e opzionalmente una valutazione più ampia degli impatti del sistemi di IA sulla società, anche per sistemi di IA non ad alto rischio”
B) tra i principi “Qualità e affidabilità dei sistemi di IA” inserire: “laPA deve testare i sistemi di IA per valutarne e validarne le performance e l’affidabilità rispetto a diverse tipologie di metriche da definire caso per caso”.

3.3. Classificazione dei sistemi di IA sulla base del rischio.
P7 Trasparenza “Le PA adottano sistemi di AI garantendo la trasparenza e comprensibilità delle loro decisioni e del funzionamento. Le PA garantiscono una adeguata spiegabilità dei risultati, rendendo comprensibili le motivazioni che supportano le decisioni e le azioni intraprese dai sistemi di IA”. Occorre evitare di adottare sistemi di burocrazia digitale che replichino i farraginosi e sostanzialmente scarsamente efficaci sistemi esistenti.
P 9 Qualità dei dati.
chi garantisce la qualità dei dati e come?
P12 Sicurezza cibernetica, P8 Supervisione umana; P19 formazione e sviluppo delle competenze
Per garantire queste competenze è necessario personale qualificato adeguatamente inquadrato nell’area della dirigenza, risultando indispensabili autonomia di decisione e conseguente responsabilità altrimenti difficilmente conseguibili.
P15 adozione di standard tecnici.
comporta che andrà inserito un nuovo PX che stabilisca per quanto tempo minimo queste informazioni vanno conservate.