La “bozza di linee guida” fornisce un riferimento interessante ed esaustivo alla terminologia utilizzata nel documento, illustrando chiaramente il dovere, l’obbligo e la facoltà delle disposizioni rivolte alla PA che intendono avvalersi di sistemi di IA. Davvero complimenti! Ci piace molto quest’integrazione!
Tuttavia, per quanto riguarda la sezione “Governance”, è degno di nota come sia stato indicato come “dovere” ciò che, in realtà, si configura come un vero e proprio “obbligo”.
In particolare, ci si riferisce alla definizione e all’adozione di “procedure di governance per lo sviluppo e l’utilizzo dei sistemi di intelligenza artificiale”. Questa distinzione terminologica è cruciale, in quanto l’adozione formale di procedure di governance non è una mera facoltà, ma un requisito necessario per garantire che l’ideazione, lo sviluppo e l’applicazione di sistemi di IA avvengano in conformità con i principi stabiliti dalla vigente normativa e in maniera responsabile.
Come si evince dall’AI Act, l’adozione di procedure di Governance per lo sviluppo e, in particolare, per l’utilizzo dei sistemi di IA non costituisce un semplice dovere per il deployer (e ancor più nel caso delle PA), ma rappresenta un vero e proprio obbligo, in virtù del principio di accountability (responsabilità delle organizzazioni nel dimostrare la conformità normativa).
L’obbligo di strutturazione e adozione di procedure interne relative all’uso dell’IA non solo consentirebbe alle PA di definire chiaramente il modus operandi, le misure di sicurezza tecniche ed organizzative e le garanzie a supporto fin dalla progettazione e per impostazione predefinita, i settori e le pratiche vietate, ma le metterebbe anche in condizione di dimostrare all’autorità competente le modalità di impiego dei sistemi di IA. Questo processo non solo rafforza la trasparenza, la conformità normativa e la certezza giuridica nei confronti dei cittadini, ma promuove anche un utilizzo etico e responsabile delle tecnologie emergenti, allineandosi con gli alti standard di tutela previsti dal Codice dell’Amministrazione Digitale (CAD).
La propria “bozza di linee guida” specificano che “[f]ermi restando gli obblighi di conformità all’AI Act, le PA DEVONO adottare un codice etico per l’IA. Tale codice DEVE divenire uno strumento di governance vincolante, allineato con il quadro normativo vigente, integrato nei processi decisionali e operativi della PA, finalizzato a un uso responsabile, equo e trasparente dell’IA”. È inoltre da considerare come, al punto 4.9 della suddetta “bozza di linee guida”, si dice che “la PA DEVE adottare un approccio sistematico e documentato di project management definendo un piano operativo”. In effetti, “Il piano operativo DEVE includere tutte le attività necessarie per il conseguimento degli obiettivi riguardanti la gestione (cfr. presenti Linee guida), il procurement (cfr. Linee guida per il procurement dell’IA), lo sviluppo (cfr. Linee guida per lo sviluppo dell’IA) dei sistemi di IA adottati o adottandi dalla PA”.
In questo senso, si suggerisce di rivedere l’affermazione per rendere “obbligatoria” l’adozione di procedure di governance per lo sviluppo e l’utilizzo dei sistemi di IA come un vero obbligo per le PA. Di conseguenza, la formulazione dovrebbe essere così modificata: “La PA DEVE definire procedure di governance per lo sviluppo e l’utilizzo dei sistemi di IA. Tali procedure DEVONO essere coerenti con la strategia per l’IA dell’ente e con la strategia definita nel PIAO.” Questo cambiamento terminologico sottolinea l’importanza di un impegno formale nella gestione e implementazione dei sistemi di IA, rafforzando il rispetto delle normative e promuovendo un uso responsabile e strategico delle tecnologie emergenti all’interno delle istituzioni pubbliche.