- Governance Etica dell’IA
Le PA DEVONO, non dovrebbero adottare codici etici.
Sarebbe auspicabile che, nell’adozione di eventuali codici etici aggiuntivi fossero coinvolte le OO.SS.
Secondo l’AgID, le Pubbliche Amministrazioni che adottano o intendono adottare progetti e soluzioni di IA devono promuovere e favorire la realizzazione di programmi formativi mirati e contestualizzati a supporto dei processi decisionali e di gestione del cambiamento, promuovendo e incoraggiando una cultura dell’apprendimento continuo improntata alla formazione e all’arricchimento costante delle competenze di intelligenza artificiale.
A tal riguardo, ANCE valuta positivamente la facoltà attribuita alle amministrazioni di sviluppare specifici progetti formativi, anche di carattere innovativo (seminari e conferenze, hackathon, programmi di mentorship), avvalendosi di progettualità promosse nell’ambito del PNRR, come nel caso dell’iniziativa PerformaPA, fondi europei, nazionali o regionali e dell’autofinanziamento.
A tal fine le amministrazioni possono avvalersi oltre che della formazione disponibile sulla piattaforma Syllabus, anche dell’offerta formativa promossa dalla Scuola Nazionale dell’Amministrazione, dai suoi poli formativi territoriali e da Formez PA, di quella promossa dalle Università, anche attraverso il programma “PA 110 e lode” finanziato dal Dipartimento della funzione pubblica della PCM, di altri interventi formativi a valere su fondi europei, nazionali o reginali e dell’autofinanziamento.
ANCE valuta positivamente le Linee Guida proposte per quanto riguarda il ruolo perentorio attribuito alle Pubbliche Amministrazioni nella promozione dell’AI literacy (alfabetizzazione all’IA) verso tutti i dipendenti pubblici.
In particolare, secondo l’AgID le amministrazioni devono favorire il conseguimento degli obiettivi formativi definiti dalla Direttiva sulla formazione del Ministro della PA del 24 marzo 2023 per il 2024 e 2025 con riferimento al programma formativo disponibile su Syllabus denominato “Competenze digitali per la PA” e la fruizione, sempre su Syllabus, di programmi formativi riguardanti in modo specifico l’applicazione dell’Intelligenza Artificiale da parte dipendenti non specialisti IT e dei dirigenti, nei confronti dei quali sono previsti ulteriori percorsi di approfondimento di natura tecnica, normativa o etica, oltre che per lo sviluppo di competenze gestionali, di leadership e delle soft skills a supporto della gestione dei processi di cambiamento.
Secondo le Linee Guida proposte, inoltre, le Pubbliche Amministrazioni hanno la possibilità di promuovere attività di ricerca interdisciplinare in collaborazione con enti di formazione, università, centri di ricerca e fornitori di soluzioni di IA, adottare progetti pilota di Intelligenza Artificiale per valutarne gli impatti e le effettive utilità.
Infine, poiché l’adozione dell’IA non può prescindere dallo sviluppo delle competenze digitali e sull’intelligenza artificiale stessa da parte dei destinatari dei servizi pubblici, le Amministrazioni Pubbliche, hanno la facoltà di contribuire a promuovere l’AI awareness (consapevolezza dell’IA) e AI literacy dei cittadini (alfabetizzazione all’IA), affinché riescano ad interagire in modo efficace, consapevole e sicuro con soluzioni di IA, e beneficiare dei servizi pubblici nel rispetto dei propri e degli altrui diritti.
Le Linee Guida AgID evidenziano, inoltre, l’importanza della raccolta, dello scambio e della condivisione e la messa in pratica di best practice in particolar modo tra Pubbliche Amministrazioni, tra queste e le istituzioni, organizzazioni di natura pubblica e privata, nell’intento di stimolare l’affermazione e lo sviluppo di vere e proprie comunità di pratica per la condivisione di esperienze relative a casi applicativi dell’IA, facilitando e promuovendo l’apprendimento reciproco tra soggetti pubblici e privati.
Riflessioni etiche sulle linee guida della PA per l’AI
Tra tutti i termini e i concetti, italiani o anglosassoni, provenienti dalle best practices, ne manca uno fondamentale: la accountability.
Per un sistema amministrativo, l’accountability è banalmente la sua capacità di rispondere in maniera proattiva, in base alla sua responsabilità, ai suoi stakeholders (che nel caso di una procedura sono i superiori gerarchici dei funzionari che la applicano, i vertici apicali dell’amministrazione, gli utenti interni e in ultima e superiore istanza coloro ai quali viene somministrata) applicando eventuali compensazioni riparative ed introducendo, in un processo di miglioramento continuo) modifiche ed innovazioni al processo decisionale che viene attuato dalla procedura.
Si introduce allora il concetto di algoritmo, che dovrebbe sottostare a qualunque ragionamento relativo allo svolgimento di funzioni o procedure; e l’algoritmo si può definire in amministrazione come l’insieme degli atti e delle regole per svolgerli relativi ad un determinato adempimento.
Non sfuggirà che, se allarghiamo agli algoritmi la necessità di una regolamentazione, mettendo qui l’accento sulla loro accountability, il ragionamento necessariamente si fa più ampio.
L’ insieme delle considerazioni svolte nelle “linee guida” sembrano discendere da una apparizione quasi epifanica delle AI, che vengono rappresentate come sorte dal nulla, scese nel mondo dal cielo, e come tutti i fenomeni poco conosciuti, immediatamente avvolte in un’aura mistica e scintillante, ma anche misteriosa e sulfurea, a secondo del tuo grado di fede in esse.
Questo modo di vedere nasconde il sostanziale vuoto conoscitivo delle tecnologie da parte della PA, per cui non si coglie il segno della totale continuità dello sviluppo dell’ICT dall’Assembler alle AI.
In particolare, in passato non si è colto, e si corre il rischio di non coglierlo neanche adesso, il ruolo che hanno gli algoritmi negli aspetti legali e normativi della vita di una comunità.
Quindi, per tornare alle definizioni, l’algoritmo, nella sua successione spazio-temporale di atti normati, è la particella elementare della vita sociale.
E l’algoritmo è con noi da tempo, da molto prima che le AI, e ritenere le AI qualcosa di diverso negli esiti da sistemi informatici gestori (coadiutori) di algoritmi, sarebbe un errore esiziale, quella illusione di sacralità cui abbiamo accennato prima.
Ciò per dire che, più correttamente, bisognerebbe parlare di regolamentazione dell’uso degli algoritmi, di tutti gli algoritmi, compresi quelli incorporati nelle AI.
E qui riportiamo una esperienza pratica, quella del Governo della Nuova Zelanda, che ha introdotto (nel luglio del 2020!) un “Algorithm Charter for AOTEAROA” (Aotearoa è il nome maori della NZ) di cui vi allego uno stralcio:
“Questo documento dimostra l’impegno a garantire che i neozelandesi abbiano fiducia nell’uso degli algoritmi da parte delle agenzie governative (…) è uno dei molti modi in cui il governo dimostra trasparenza e responsabilità nell’uso dei dati.
Impegno: La nostra organizzazione comprende che le decisioni prese utilizzando algoritmi influenzano le persone in Nuova Zelanda. Ci impegniamo a valutare l’impatto delle decisioni informate dai nostri algoritmi. Ci impegniamo inoltre ad applicare gli impegni della Carta degli Algoritmi come indicato dalla valutazione del rischio applicata.
Impegni della Carta degli Algoritmi:
TRASPARENZA Mantenere la trasparenza spiegando chiaramente come le decisioni sono informate dagli algoritmi. Questo può includere:
- Documentazione in lingua semplice dell’algoritmo
- Fornire informazioni sui dati e sui processi (a meno che una restrizione legale non lo impedisca)
- Pubblicare informazioni su come i dati vengono raccolti, protetti e memorizzati.
PARTNERSHIP
- Fornire argomenti per la valutazione di un chiaro beneficio pubblico
- Concentrarsi sulle persone
- Integrare una prospettiva Te Ao Māori nello sviluppo e nell’uso degli algoritmi, in linea con i principi del Trattato di Waitangi. (qui emerge la specificità multietnica della NZ, NdA)
PERSONE
Identificare e coinvolgere attivamente persone, comunità e gruppi interessati agli algoritmi e consultarsi con coloro che sono influenzati dal loro uso.
DATI
- Assicurarsi che i dati siano adeguati allo scopo:
- Comprendere i loro limiti.”
In così poche righe sembra che il fenomeno sia stato ben compreso e governato dai neozelandesi.
Nel governo neozelandese esiste il ministero delle statistiche e il ministero per i servizi digitali governativi. Questi due ministeri hanno di concerto commissionato al “Government Chief Data Steward” e al “Government Chief Digital Officer” (non siamo un po’ invidiosi che loro abbiano stabilito la necessità di questi ruoli?) un assessment degli algoritmi (sia contenuti in business rules, che in procedimenti di analisi dati che nelle AI) in uso nelle diverse amministrazioni del paese.
Questa attività è finalizzata a documentare la roadmap degli enti verso la compliance ai principi espressi nel chapter di cui abbiamo parlato prima.
Il risultato è un report che descrive gli algoritmi utilizzati; bisogna aggiungere poi che ogni amministrazione ha creato nel proprio sito una pagina per ciascun algoritmo/procedimento per cui è indicato il responsabile e un accesso per segnalare eventuali abusi o problematicità incorse nella vita reale rispetto agli esiti provocati dall’applicazione di quel procedimento.
Questo appare il minimo per dichiarare “accountable” un algoritmo; aggiungo che il tono di questi documenti è totalmente proattivo, invitando le amministrazioni ad azioni verso gli stake holders per integrarli nel ciclo di vita del “sistema”; ad esempio:
“Le agenzie partecipanti che utilizzano algoritmi per supportare il processo decisionale operativo devono attivare tutte di forme di garanzia riguardo allo sviluppo dell’algoritmo. Queste includono:
- l’uso di Valutazioni d’Impatto sulla Privacy
- valutazioni dei diritti umani
- revisione etica
- revisione paritaria (peer to peer)
- inclusione e consultazione di competenze esterne.”
Semplice, chiaro, con la testa ai destinatari finali, non alla Amministrazione.
Per chiudere, visto che l’argomento è complesso e un po’ pesante, un piccolo divertissement; in una improbabile Italia percorsa da una ipotetica rivoluzione tecnologica, si possono avanzare le seguenti proposte:
- Riformulare dell’intero corpo normativo semplificandolo e razionalizzandolo (tramite AI) documentando in maniera completa, chiara ed accessibile ogni algoritmo (implicito o esplicito che sia)
- Istituire un sistema di revisione continua delle leggi basato su dati e feedback dei cittadini
- Sviluppare un’IA nazionale pubblica e open source
- Realizzare una Piattaforma distribuita ed aperta per la gestione dei dati pubblici
- Attuare una Governance partecipativa e popolare dell’infrastruttura digitale.
ibidem
Questo argomento è stato automaticamente chiuso dopo 35 giorni. Non sono permesse altre risposte.