All. H - Procedure di governance

Bozza di linee guida per l’adozione di IA nella pubblica amministrazione

La consultazione pubblica è attiva dal 18/02/2025 al 20/03/2025.

Questo argomento accoglie i commenti relativi all’allegato H - Procedure di governance.

I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).

Leggi il documento in consultazione.

Ai fini di un’adeguata governance si rende necessario garantire idonee misure di tracciabilità di ogni fornitore nonché utilizzatore preposto.

Relativamente alle procedure di governance per l’IA nella pubblica amministrazione, il documento fa riferimento all’adozione di codici etici e linee guida per garantire trasparenza e tracciabilità. Riteniamo opportuno inserire un passaggio che preveda l’obbligo per le PA di garantire che le normative e gli atti amministrativi siano pubblicati in formati accessibili e interpretabili automaticamente (formati machine-readable).

Ritengo utile per quanto riguarda l’AI inferenziale dotarsi di un sistema di arresto MECCANICO , una kill-switch simile a quella della direttiva EN ISO 13850 per le macchine.

ALLEGATO H - PROCEDURE DI GOVERNANCE (H.1, H.2 E H.3)
Tale documento fornisce indicazioni indispensabili ai fini di un utilizzo consapevole e responsabile di AI da parte di una PA, in coerenza con lo spirito delle Linee Guida, degli standard internazionali e delle normative. Si suggerisce di rendere l’applicazione di tale documento obbligatoria, salvo esimere le PA deployer dal compimento di “pratiche relazionali” (H.3).

Nell’allegato si specifica alcune procedure che DOVREBBERO essere adottate, fra le quali la trasparenza algoritmica e la messa a riuso degli algoritmi.
Si dovrebbe chiarire o specificare, visto il rif. [LG-RIUSO] se i modelli addestrati (e gli script di Implementazione di un modello ML) sono soggetti a obbligo (DEVE) di pubblicazione ovvero quando si configurino come
“soluzioni e programmi informatici realizzati su specifiche indicazioni del committente pubblico”. In effetti le LG incoraggiano il riuso ma questo aspetto potrebbe essere declinato in relazioni alle indicazioni di [LG-RIUSO], chiarendo quando in AI si può parlare di “soluzioni e programmi informatici”.
Si potrebbe inserire inoltre un inciso sul fatto che la pubblicazione sia di gran lunga la pratica più diffusa di trasparenza algoritmica.

Tale sezione potrebbe essere inclusa nelle precedenti per non appesantire ulteriormente il documento e soprattutto la valutazione delle pubbliche amministrazioni.

(Pg. 21 modello di Valutazione d’impatto: C6 Accountability)

Il Centro Studi di Informatica Giuridica di Ivrea e Torino suggerisce di fornire indicazioni chiare su:

  • Ruoli e responsabilità giuridiche in caso di malfunzionamenti o decisioni errate dell’IA.

  • Meccanismi di supervisione umana, che devono essere obbligatori per tutti i sistemi IA con impatto su diritti e servizi pubblici essenziali.

  • Obblighi di notifica e trasparenza nei confronti dei cittadini, inclusa la possibilità di ricorso contro decisioni automatizzate.

H - Procedure di governance .
paragrafo 1 - livello operativo

spesso si confonde (anche nel resto del testo) la spiegabilità dei modelli con la trasparenza.
In questo particolare caso spiegare come il modello abbia raggiunto quel risultato è spiegabilità

Dopo la frase “Promuovere percorsi di formazione per gli addetti della PA e gli stakeholder esterni coinvolti, garantendo competenze adeguate allo sviluppo, l’uso e la supervisione dell’IA”, sarebbe opportuno aggiungere, “anche attraverso il coinvolgimento di EDIHs e Competence Center (CC))”.

Questo argomento è stato automaticamente chiuso dopo 35 giorni. Non sono permesse altre risposte.