PARTE 1 - CONTRIBUTO ALLA CONSULTAZIONE PUBBLICA di INFORAV - ISTITUTO PER LO SVILUPPO E LA GESTIONE AVANZATA DELL’INFORMAZIONE.
Bozza di Linee Guida per lo sviluppo di sistemi di Intelligenza Artificiale nella Pubblica Amministrazione
AREA TEMATICA DEL CONTRIBUTO
Accountability algoritmica e diritti dei cittadini nel procedimento amministrativo digitale
Spiegabilità, trasparenza, equità algoritmica, supervisione umana, governance interna, gestione degli incidenti
Indice delle proposte
| Riferimento |
Oggetto della proposta |
Posizione nel documento |
| PARTE 0 |
Premessa e perimetro del contributo |
— |
| PARTE 1 — LACUNE STRUTTURALI (argomenti assenti) |
|
|
| Proposta 1.1 |
Responsabilità della PA verso il cittadino |
§ 2.2 Principio 5 + nuovo Principio 5-bis |
| Proposta 1.2 |
Spiegabilità verso il cittadino |
§ 2.2 Principio 7 + § 4.5 |
| Proposta 1.3 |
Diritto di contestazione e ricorso |
Nuovo Principio 5-ter + § 4.6 |
| Proposta 1.4 |
Registro pubblico degli algoritmi |
Nuovo § 2.5 + Strumento C |
| Proposta 1.5 |
Responsabile dei sistemi di IA (RSIA) |
Nuovo § 2.6 |
| Proposta 1.6 |
FRIA, processo strutturato |
Nuovo § 2.7 + § 4.1 + Strumento D |
| Proposta 1.7 |
Gestione incidenti con impatto sui diritti |
Nuovo § 2.8 + § 4.6 + § 5.7.3 |
| Proposta 1.8 |
Documentazione pubblica dei modelli (Model Card) |
§ 3.1.4 + § 5.6.5 + Strumento C |
| PARTE 2 — LACUNE PER INSUFFICIENZA (argomenti incompleti) |
|
|
| Proposta 2.1 |
Spiegabilità, metodologia, metriche, differenziazione per famiglia di sistema |
§ 2.2 P.7 + § 4.4 + § 3.1.4 |
| Proposta 2.3 |
Responsabilità in architetture multi-fornitore e sistemi as-a-service |
§ 2.2 P.5 + § 3.5.1 + § 4.1 |
| Proposta 2.4 |
Logging, contenuto minimo, retention, accesso, tensione GDPR |
§ 2.2 P.14 + § 4.6 + § 5.7.3 |
| Proposta 2.5 |
Test su bias, definizione, metodologie, metriche, monitoring, pubblicazione |
§ 2.2 P.6 + §§ 3.4.1, 4.4, 4.6 |
| Proposta 2.6 |
Sorveglianza umana, livelli minimi, effettività, competenze, escalation |
§ 2.2 P.13 + §§ 3.2, 4.5 |
| Proposta 2.7 |
Gestione incidenti, tassonomia, soglie, framework notifiche integrato |
§ 2.8 + §§ 4.6, 5.7.3 |
| PARTE 3 |
Riferimenti normativi e tecnici del contributo |
— |
PARTE 0 — Premessa e perimetro del contributo
0.1 Natura del contributo
Il presente documento costituisce un contributo tecnico-giuridico alla consultazione pubblica sulla Bozza di Linee Guida per lo sviluppo di sistemi di Intelligenza Artificiale nella Pubblica Amministrazione, pubblicata da AgID ai sensi del D.P.C.M. 12 gennaio 2024.
Il contributo ha natura costruttiva. Riconosce il valore del documento posto in consultazione, in particolare la solidità dell’impostazione architetturale, la coerenza del raccordo con l’AI Act e la profondità del capitolo sulla sicurezza cibernetica, e propone integrazioni specifiche nelle aree in cui il testo presenta lacune strutturali o sviluppo insufficiente rispetto al quadro normativo vigente.
Ogni proposta è corredata da: riferimento puntuale al testo esistente; identificazione della lacuna specifica; ancoraggio normativo alle fonti cogenti o di standard tecnico riconosciuto; testo pronto all’inserimento nel registro linguistico del documento originale.
0.2 Area tematica
Il contributo si concentra sull’area dell’accountability algoritmica e dei diritti dei cittadini nel procedimento amministrativo digitale. Questa area comprende:
-
la responsabilità della PA verso i soggetti interessati dalle decisioni adottate o supportate da sistemi di IA;
-
il diritto dei cittadini a ricevere una spiegazione comprensibile e a contestare le decisioni algoritmiche;
-
la trasparenza pubblica sull’uso di sistemi di IA nei procedimenti amministrativi;
-
la governance interna della PA per i sistemi di IA;
-
le metodologie di valutazione dell’equità algoritmica;
-
la gestione degli incidenti con impatto sui diritti dei cittadini.
La scelta di concentrare il contributo su questa area risponde alla constatazione che il documento posto in consultazione è tecnicamente solido ma sistematicamente orientato alla dimensione interna della PA (architettura, sicurezza, governance tecnologica), trascurando la dimensione esterna, ovvero il rapporto tra il sistema di IA e il cittadino che ne subisce gli effetti.
0.3 Metodo
Il contributo è stato sviluppato secondo la seguente sequenza metodologica:
-
Mappatura puntuale delle lacune, con riferimento al paragrafo e alla citazione testuale del documento originale;
-
Classificazione delle lacune in strutturali (argomenti assenti) e per insufficienza (argomenti presenti ma non sviluppati);
-
Ancoraggio normativo per ciascuna lacuna, con indicazione della fonte, della disposizione specifica e del tipo di obbligo;
-
Redazione degli statement integrativi nel registro linguistico del documento originale (DEVE / DEVONO / DOVREBBE / PUÒ).
0.4 Priorità delle proposte
| Priorità |
Criterio |
Proposte |
| ALTA |
Obblighi direttamente cogenti derivanti da AI Act, GDPR o L. 241/90, non recepiti nel testo |
1.1, 1.2, 1.3, 1.6, 1.7, 2.4 |
| MEDIA |
Best practice consolidate e obblighi cogenti nazionali sistematicamente ignorati |
1.4, 1.5, 2.1, 2.5, 2.6, 2.7 |
| INTEGRATIVA |
Strumenti operativi che completano senza modificare la struttura del documento |
1.8, 2.3 |
PARTE 1 — Lacune strutturali: argomenti assenti
Le seguenti proposte riguardano argomenti completamente assenti nel documento, che richiedono l’introduzione di nuove sezioni, paragrafi o strumenti operativi.
Proposta 1.1 — Responsabilità della PA verso il cittadino
Mappatura della lacuna
Il Principio 5 (§ 2.2) declina la responsabilità come requisito tecnico interno al sistema. La dimensione esterna, ovvero gli obblighi della PA verso il soggetto interessato dalla decisione, è completamente assente. Mancano: il soggetto responsabile nominativamente identificato all’interno della PA; la procedura attraverso cui la responsabilità è esercitabile dal cittadino; la distinzione tra responsabilità per progettazione, per deployment e per singola decisione.
Ancoraggio normativo
| Fonte |
Disposizione |
Contenuto rilevante |
Tipo |
| AI Act |
Art. 26 c.1 |
Il deployer garantisce supervisione umana, usa il sistema secondo le istruzioni, monitora il funzionamento |
Cogente dal 2/8/2026 |
| AI Act |
Art. 86 |
Diritto a spiegazione per decisioni individuali significative adottate con sistemi ad alto rischio |
Cogente |
| GDPR |
Art. 22 c.3 |
Obbligo di garantire intervento umano, diritto di esprimere opinione, di contestare la decisione |
Cogente |
| L. 241/90 |
Art. 3, 10-bis |
Obbligo di motivazione del provvedimento; preavviso di rigetto |
Cogente nazionale |
| Cons. Stato |
Sent. 2270/2019 |
Principi di conoscibilità, comprensibilità e non esclusività dell’algoritmo |
Giurisprudenza vincolante |
Testo proposto
PROPOSTA P5-INT — Integrazione Principio 5, colonna Sviluppo
Posizione nel documento: § 2.2, Principio 5, colonna Sviluppo
Per ogni sistema di IA che produce effetti giuridici o incide in modo significativo su persone fisiche, la PA DEVE individuare e designare formalmente un responsabile del sistema, distinto dal responsabile tecnico del progetto, con funzioni di supervisione sull’uso del sistema, verifica della correttezza delle decisioni prodotte o supportate dallo stesso, e punto di contatto verso i soggetti interessati.
Il responsabile del sistema DEVE essere identificato nella documentazione pubblica del sistema medesimo e deve essere raggiungibile dagli interessati attraverso canali istituzionali.
Le PA DEVONO documentare, per ogni sistema che produce decisioni o raccomandazioni con effetti sui cittadini, la catena di responsabilità dalla progettazione all’uso operativo, specificando per ciascuna fase il soggetto responsabile, interno o esterno all’amministrazione.
PROPOSTA 1.1 — Principio 5-bis: Responsabilità esterna e tutela del soggetto interessato
Posizione nel documento: § 2.2, dopo il Principio 5
La responsabilità della PA verso il soggetto interessato dalla decisione adottata o supportata da un sistema di IA costituisce un obbligo autonomo rispetto ai requisiti tecnici di progettazione del sistema.
Le PA DEVONO garantire che ogni soggetto persona fisica destinatario di una decisione amministrativa adottata con il supporto o mediante l’uso di un sistema di IA:
-
sia informato del fatto che la decisione è stata adottata con il supporto di un sistema di IA, con indicazione della sua natura e finalità;
-
riceva, su richiesta, una spiegazione comprensibile dei fattori che hanno influito sulla decisione;
-
possa esercitare il diritto di contestazione e ottenere la revisione della decisione da parte di un soggetto umano competente;
-
sia informato delle modalità per esercitare tali diritti.
Le PA NON DEVONO adottare decisioni che producono effetti giuridici negativi su persone fisiche basandosi esclusivamente sull’output di un sistema di IA, senza che sia garantita una valutazione umana effettiva e documentabile.
Proposta 1.2 — Spiegabilità verso il cittadino
Mappatura della lacuna
Il Principio 7 tratta la spiegabilità esclusivamente come requisito tecnico-architetturale e strumento di audit interno. Sono assenti: il diritto soggettivo del cittadino a ricevere una spiegazione comprensibile; i requisiti minimi di contenuto; la distinzione tra spiegabilità tecnica (per auditor) e spiegabilità intelligibile (per il cittadino); i formati e le tempistiche.
Ancoraggio normativo
| Fonte |
Disposizione |
Contenuto rilevante |
Tipo |
| AI Act |
Art. 13 + Art. 86 |
Trasparenza verso gli utenti; diritto a spiegazione per decisioni individuali significative |
Cogente |
| GDPR |
Art. 22 c.3 |
Informazioni significative sulla logica utilizzata e sulle conseguenze previste |
Cogente |
| L. 241/90 |
Art. 3 |
La motivazione deve rendere comprensibili le ragioni della decisione, applicabile alla componente algoritmica |
Cogente nazionale |
| IEEE 7001-2021 |
Standard |
Requisiti di comprensibilità per diversi stakeholder (operatori, utenti, pubblico) |
Standard tecnico |
Testo proposto
PROPOSTA 1.2 — Integrazione Principio 7: Spiegabilità intelligibile
Posizione nel documento: § 2.2, Principio 7, colonna Sviluppo
I sistemi DEVONO essere sviluppati con meccanismi di spiegabilità proporzionati al rischio e al contesto d’uso, distinguendo tra:
Spiegabilità tecnica: destinata agli auditor, ai responsabili del sistema e alle autorità di controllo, che DEVE rendere accessibile la logica del modello, i pesi dei fattori, le metriche di performance e le limitazioni note del sistema.
Spiegabilità intelligibile: destinata al soggetto interessato dalla decisione, che DEVE essere espressa in linguaggio non tecnico, indicare i principali fattori che hanno influito sulla decisione specifica, la loro direzione e, ove tecnicamente possibile, il loro peso relativo, nonché le informazioni o i dati che hanno prodotto l’esito.
I sistemi DEVONO essere progettati in modo da consentire la generazione della spiegabilità intelligibile in forma contestuale alla decisione, senza richiedere l’intervento manuale del personale tecnico per ogni singolo caso.
Per i sistemi classificati ad alto rischio ai sensi dell’AI Act, la spiegabilità intelligibile verso il soggetto interessato NON DEVE essere considerata opzionale, ma costituisce requisito obbligatorio di progettazione.
Proposta 1.3 — Diritto di contestazione e ricorso
Mappatura della lacuna
Il tema è completamente assente nel documento. La sorveglianza umana (P.13) è trattata come requisito tecnico del sistema, non come diritto del cittadino. Il raccordo con la L. 241/90 e con la giurisprudenza del Consiglio di Stato (sent. 2270/2019) è inesistente.
Ancoraggio normativo
| Fonte |
Disposizione |
Contenuto rilevante |
Tipo |
| AI Act |
Art. 86 |
Diritto a revisione umana; il deployer deve informare su come esercitarlo |
Cogente |
| GDPR |
Art. 22 c.3 |
Diritto di contestare la decisione automatizzata e ottenere intervento umano |
Cogente |
| L. 241/90 |
Art. 7, 10, 10-bis |
Diritto di partecipazione, memorie e documenti; preavviso di rigetto |
Cogente nazionale |
| Cons. Stato |
Sent. 2270/2019 |
Il ricorrente ha diritto a conoscere il meccanismo algoritmico e sindacarne la correttezza in giudizio |
Giurisprudenza vincolante |
Testo proposto
PROPOSTA 1.3 — Principio 5-ter: Diritto di contestazione e revisione umana
Posizione nel documento: § 2.2, dopo il Principio 5-bis
Le PA DEVONO garantire che ogni soggetto destinatario di una decisione adottata o significativamente supportata da un sistema di IA abbia il diritto di:
-
richiedere la revisione della decisione da parte di un soggetto umano competente, che DEVE effettuare una valutazione autonoma e non limitarsi alla verifica formale dell’output del sistema;
-
presentare osservazioni, memorie e documenti utili alla revisione, secondo quanto previsto dagli artt. 7 e 10 della L. 241/90;
-
ottenere un provvedimento motivato che dia conto dell’esito della revisione e del peso attribuito alla componente algoritmica nella decisione finale.
Le PA NON DEVONO configurare la revisione umana come mero adempimento formale. La valutazione umana DEVE essere effettiva, documentata e indipendente dall’output del sistema oggetto di contestazione.
Nei procedimenti che si concludono con un atto di diniego, rigetto o limitazione di diritti, le PA DEVONO dare attuazione al preavviso di rigetto di cui all’art. 10-bis della L. 241/90 anche quando la proposta di diniego è generata o supportata da un sistema di IA.
Le PA DEVONO rendere pubbliche e facilmente accessibili le procedure per l’esercizio del diritto di contestazione, con indicazione dei termini, del soggetto competente e delle modalità di presentazione delle osservazioni.
I sistemi di IA DEVONO essere progettati in modo da consentire tecnicamente la revisione della singola decisione, rendendo accessibili al soggetto umano incaricato della revisione i dati di input, i fattori rilevanti e la logica applicata dal sistema nel caso specifico.
Proposta 1.4 — Registro pubblico degli algoritmi
Mappatura della lacuna
Nessuna disposizione prevede che la PA renda pubblico l’uso di sistemi di IA nei propri procedimenti. La documentazione è trattata esclusivamente come requisito interno (§ 5.6.5) senza mai aprire una dimensione pubblica. Mancano: l’obbligo di notifica pubblica dell’adozione di un sistema di IA; il contenuto minimo della scheda algoritmo; il formato e il canale di pubblicazione; la frequenza di aggiornamento.
Ancoraggio normativo
| Fonte |
Disposizione |
Tipo |
| AI Act |
Art. 49 — Registrazione sistemi ad alto rischio nella banca dati UE |
Cogente |
| AI Act |
Art. 50 — Obblighi di trasparenza per sistemi che interagiscono con persone fisiche |
Cogente |
| D.Lgs. 33/2013 |
Art. 1, 29 — Principio di trasparenza e obblighi di pubblicazione |
Cogente nazionale |
| L. 132/2025 |
Art. 3 c.1 — Principio di trasparenza |
Cogente nazionale |
| Loi République numérique (FR) |
Art. 4, 2016 — Obbligo di pubblicare le regole algoritmiche usate nelle decisioni individuali |
Modello comparato |
Testo proposto
PROPOSTA 1.4 — Nuovo § 2.5: Registro pubblico degli algoritmi
Posizione nel documento: Nuovo § 2.5, dopo i principi generali
Le PA DEVONO tenere e mantenere aggiornato un registro dei sistemi di IA in uso che producono effetti su persone fisiche o che incidono su procedimenti amministrativi. Il registro costituisce adempimento degli obblighi di trasparenza di cui al D.Lgs. 33/2013 e degli obblighi di informazione verso gli utenti di cui agli artt. 13 e 50 del Regolamento (UE) 2024/1689 (AI Act).
Il registro DEVE essere pubblicato nella sezione “Amministrazione Trasparente” del sito istituzionale della PA e DEVE essere accessibile senza necessità di autenticazione.
Per ogni sistema di IA iscritto nel registro, la PA DEVE pubblicare una scheda contenente almeno le seguenti informazioni:
-
denominazione, versione e finalità del sistema;
-
ambito di utilizzo nel procedimento amministrativo e livello di rischio attribuito ai sensi dell’AI Act;
-
indicazione se il sistema adotta decisioni in modo autonomo, le supporta o le produce come raccomandazione;
-
nome e contatti del responsabile del sistema (RSIA);
-
data di entrata in esercizio e data dell’ultima valutazione;
-
riferimento alla documentazione FRIA ove condotto;
-
modalità per l’esercizio dei diritti di spiegazione e contestazione.
Le PA DEVONO aggiornare il registro entro 30 giorni dall’entrata in esercizio di un nuovo sistema, da ogni modifica significativa e dalla sua dismissione.
Lo schema minimo della scheda algoritmo è definito nello Strumento C delle presenti Linee guida.
Proposta 1.5 — Responsabile dei sistemi di IA (RSIA)
Mappatura della lacuna
Il documento attribuisce la responsabilità genericamente alla PA come soggetto istituzionale, senza mai identificare una figura interna responsabile della governance algoritmica. Il P.5 afferma che “le PA identificano chiaramente le responsabilità” senza specificare chi debba essere identificato e con quali competenze.
Ancoraggio normativo
| Fonte |
Disposizione |
Tipo |
| AI Act |
Art. 26 — Obblighi del deployer, che implica una struttura interna di governo |
Cogente |
| GDPR |
Artt. 37-39 — Modello del DPO: nomina, requisiti di competenza, indipendenza, funzioni |
Modello strutturale |
| CAD |
Art. 17 — Responsabile per la transizione digitale: punto di raccordo esistente |
Cogente nazionale |
| ISO/IEC 42001 |
§ 5.3 — Ruoli, responsabilità e autorità nell’AI Management System |
Standard tecnico |
Testo proposto
PROPOSTA 1.5 — Nuovo § 2.6: Governance interna: il Responsabile dei sistemi di IA (RSIA)
Posizione nel documento: Nuovo § 2.6
Le PA che adottano sistemi di IA classificati ad alto rischio ai sensi dell’AI Act, ovvero sistemi che producono effetti giuridici o incidono in modo significativo su persone fisiche indipendentemente dalla classificazione formale, DEVONO designare formalmente un Responsabile dei sistemi di IA (RSIA).
Il RSIA può coincidere con il Responsabile per la Transizione al Digitale di cui all’art. 17 del CAD, purché disponga delle competenze specifiche indicate nel presente paragrafo.
Funzioni del RSIA
Il RSIA DEVE:
-
supervisionare l’adozione e l’uso dei sistemi di IA, verificandone la conformità alle presenti Linee guida e al quadro normativo applicabile;
-
condurre o coordinare la conduzione del FRIA di cui al § 2.7 per ogni sistema ad alto rischio;
-
tenere aggiornato il Registro pubblico degli algoritmi di cui al § 2.5;
-
costituire il punto di contatto istituzionale per i soggetti interessati che esercitano i diritti di spiegazione e contestazione;
-
coordinarsi con il RPD/DPO per gli aspetti relativi alla protezione dei dati personali;
-
riferire periodicamente all’organo di vertice sullo stato dei sistemi di IA in uso, sugli incidenti registrati e sulle misure adottate;
-
coordinare la gestione degli incidenti con impatto sui diritti di cui al § 2.8.
Le PA di minori dimensioni POSSONO condividere la funzione di RSIA mediante accordi tra amministrazioni, ferma restando la responsabilità individuale di ciascuna PA per i propri sistemi.
Proposta 1.6 — FRIA: processo strutturato
Mappatura della lacuna
Il FRIA è citato in una sola riga al § 2.3.1: “DEVONO essere effettuate valutazioni preventive come DPIA o FRIA (in caso di sistemi ad alto rischio)”. Non viene mai definito, strutturato né raccordato con il ciclo di vita del sistema. In tutto il documento (109 pagine) non compare mai una procedura, un template né un riferimento alle linee guida CE sul FRIA.
Ancoraggio normativo
| Fonte |
Disposizione |
Tipo |
| AI Act |
Art. 27 — Obbligo per deployer che sono autorità pubbliche di condurre FRIA prima della messa in uso di sistemi ad alto rischio |
Cogente |
| AI Act |
Art. 27 c.2 — Contenuto del FRIA: descrizione del sistema, finalità, rischi per i diritti, misure adottate |
Cogente |
| CE — Linee guida FRIA 2023 |
Template e metodologia per la conduzione del FRIA in 6 fasi |
Soft law CE |
| GDPR |
Art. 35 — DPIA: modello procedurale consolidato da cui derivare la struttura del FRIA |
Cogente (modello) |
Testo proposto
PROPOSTA 1.6 — Nuovo § 2.7: Valutazione d’impatto sui diritti fondamentali (FRIA)
Posizione nel documento: Nuovo § 2.7 + integrazione § 4.1 + Strumento D
Le PA che intendono mettere in uso sistemi di IA classificati ad alto rischio DEVONO condurre una Valutazione d’impatto sui diritti fondamentali (FRIA) prima della messa in esercizio del sistema, in conformità all’art. 27 del Regolamento (UE) 2024/1689.
Le PA DOVREBBERO condurre il FRIA anche per sistemi non classificati formalmente ad alto rischio, qualora il sistema produca effetti significativi su persone fisiche, tratti categorie particolari di dati ai sensi dell’art. 9 del GDPR, o incida su procedimenti che riguardano diritti fondamentali.
Processo
Il FRIA DEVE essere condotto nelle seguenti fasi, descritte nel dettaglio nello Strumento D:
-
descrizione del sistema e del suo contesto d’uso nel procedimento amministrativo;
-
identificazione dei soggetti interessati e delle categorie potenzialmente vulnerabili;
-
identificazione dei diritti fondamentali potenzialmente impattati (con riferimento alla CDFUE, artt. 7, 8, 21, 41, 47);
-
valutazione della probabilità e della gravità dell’impatto per ciascun diritto identificato;
-
individuazione delle misure di mitigazione adottate o da adottare;
-
valutazione del rischio residuo e decisione motivata sulla messa in uso.
Il FRIA DEVE essere condotto prima della fase di messa a disposizione per l’esercizio di cui al § 4.5 e DEVE essere aggiornato in caso di modifiche significative al sistema. Una sintesi non riservata del FRIA DEVE essere pubblicata nel Registro pubblico degli algoritmi di cui al § 2.5.
Proposta 1.7 — Gestione degli incidenti con impatto sui diritti
Mappatura della lacuna
La gestione degli incidenti è trattata esclusivamente come problema di continuità operativa e sicurezza cibernetica. Manca completamente la dimensione degli incidenti come eventi che producono effetti sui diritti dei cittadini: notifica agli interessati, comunicazione pubblica, raccordo con le autorità di vigilanza, revisione retroattiva delle decisioni adottate durante il malfunzionamento.
Ancoraggio normativo
| Fonte |
Disposizione |
Tipo |
| AI Act |
Art. 73-74 — Segnalazione di incidenti gravi; 15 giorni per incidenti gravi |
Cogente |
| GDPR |
Art. 33-34 — Notifica violazioni: termini, contenuto, comunicazione agli interessati |
Cogente |
| L. 241/90 |
Art. 21-octies — Annullabilità del provvedimento viziato: base per revisione retroattiva |
Cogente nazionale |
| NIS2 / D.Lgs. 138/2024 |
Art. 23 — Notifica incidenti significativi ad ACN |
Cogente nazionale |
Testo proposto
PROPOSTA 1.7 — Nuovo § 2.8: Gestione degli incidenti con impatto sui diritti
Posizione nel documento: Nuovo § 2.8 + integrazioni §§ 4.6, 5.7.3
Costituisce incidente rilevante qualsiasi malfunzionamento, comportamento non conforme alle specifiche, violazione della sicurezza o uso improprio di un sistema di IA che abbia prodotto o possa aver prodotto: decisioni errate o discriminatorie con effetti su persone fisiche; trattamento non conforme dei dati personali; interruzione del servizio con impatto sui diritti degli utenti.
Procedura di gestione — fasi obbligatorie:
-
Rilevazione e contenimento (entro 24 ore): attivare misure di contenimento, sospendere o limitare l’uso del sistema ove necessario;
-
Valutazione degli effetti (entro 72 ore): determinare il numero e le categorie di soggetti potenzialmente interessati;
-
Notifica alle autorità nei termini di legge (AI Act art. 73, GDPR art. 33, D.Lgs. 138/2024 art. 23);
-
Comunicazione agli interessati ove l’incidente abbia prodotto effetti pregiudizievoli su persone fisiche identificabili;
-
Revisione retroattiva: verificare le decisioni adottate nel periodo di malfunzionamento e procedere alla loro revisione d’ufficio ai sensi dell’art. 21-octies della L. 241/90;
-
Analisi della causa radice e misure correttive documentate prima della rimessa in esercizio.
Proposta 1.8 — Documentazione pubblica dei modelli (Model Card)
Mappatura della lacuna
La documentazione dei modelli è concepita esclusivamente come requisito tecnico interno (§ 5.6.5 e § 3.1.4). Non è mai prevista una dimensione pubblica. Mancano: l’obbligo di produrre una scheda pubblica del modello; il contenuto minimo; la distinzione tra documentazione tecnica (per auditor) e documentazione pubblica (per cittadini).
Testo proposto
PROPOSTA 1.8 — Integrazione § 3.1.4: Documentazione pubblica dei modelli
Posizione nel documento: § 3.1.4 + § 5.6.5 + Strumento C
Per ogni modello di IA messo in uso dalla PA in procedimenti che producono effetti su persone fisiche, la PA DEVE produrre e mantenere aggiornata una scheda pubblica del modello, distinta dalla documentazione tecnica interna.
La scheda pubblica del modello DEVE contenere almeno: denominazione, versione e data di rilascio; finalità in linguaggio comprensibile al cittadino; tipologia e provenienza dei dati di addestramento; prestazioni sui principali indicatori di accuratezza; limitazioni note e bias identificati con relative misure di mitigazione; livello di supervisione umana previsto nell’uso operativo.
La scheda pubblica costituisce parte integrante della scheda algoritmo nel Registro pubblico degli algoritmi di cui al § 2.5 e DEVE essere redatta in linguaggio accessibile, in formato aperto e riutilizzabile.