10. Protezione dei dati personali

Bozza di linee guida per l’adozione di IA nella pubblica amministrazione

La consultazione pubblica è attiva dal 18/02/2025 al 20/03/2025.

Questo argomento accoglie i commenti relativi al capitolo 10. Protezione dei dati personali.

I commenti dovranno includere il numero del paragrafo o sotto-paragrafo (se presente) e un riferimento puntuale al brano di testo al quale si riferiscono (ad esempio paragrafo 4.3, terzo capoverso).

Leggi il documento in consultazione.

Nonostante l’argomento sia rilevante (benché non sempre un sistema di IA utilizzi dati personali) è stato trattato in modo molto sommario. manca, ad esempio, un chiaro riferimento alla DPIA in relazione alla FRIA del AI Act.

Si suggerisce di ampliare la trattazione relativa alle misure di minimizzazione dei dati. Si raccomanda di integrare la sezione con esempi concreti di tecniche di data shaping (quali generalizzazione, soppressione, randomizzazione) che le Pubbliche Amministrazioni possono adottare al fine di ridurre la quantità di dati trattati, senza compromettere la funzionalità dei sistemi di Intelligenza Artificiale.

Si reputa utile approfondire le tecniche di anonimizzazione avanzate, quali la privacy differenziale, il k-anonimato e la l-diversity, fornendo criteri orientativi per la loro selezione in funzione del livello di rischio.

Considerata la necessità di adattare la Valutazione d’Impatto sulla Protezione dei Dati (DPIA) alle peculiarità dei sistemi di IA, si raccomanda di considerare i rischi specifici ad essi associati (es., rischio di re-identificazione, di inferenza di informazioni sensibili).

Al fine di chiarire le responsabilità in materia di protezione dei dati, si suggerisce di distinguere tra il fornitore del sistema di IA e la Pubblica Amministrazione che lo utilizza in qualità di deployer, con particolare riferimento ai trattamenti complessi.

Al fine di garantire un effettivo controllo da parte degli utenti, si raccomanda di evidenziare la necessità di predisporre meccanismi chiari e accessibili per opporsi al trattamento dei propri dati, nel rispetto della normativa vigente, e di garantire la trasparenza del trattamento attraverso la messa a disposizione di informazioni chiare e comprensibili.

Per una maggiore sistematicità, si propone di valutare la predisposizione di una tabella che elenchi le diverse tipologie di dati trattati dai sistemi di IA (dati di addestramento, dati in input, dati in output) e, per ciascuna tipologia, le misure di protezione ritenute più adeguate.

Negli ultimi mesi, il dibattito si è acceso attorno alla questione della liceità dell’uso dei sistemi di IA nell’ambito della Pubblica Amministrazione. Questo fervore deriva dalla comprensibile preoccupazione che l’impiego di tali sistemi possa comportare, seppur non necessariamente, il trattamento illegittimo di dati personali. Ne consegue – per alcuni – che l’implementazione di simili tecnologie deve essere sorretta da una solida base giuridica, in grado di legittimarne l’uso, soprattutto nel settore pubblico.

In questo contesto, il legittimo interesse assume un ruolo di primaria importanza, divenendo – anche erroneamente – la base giuridica prescelta per giustificare l’adozione e l’operatività di sistemi di IA. Tale base giuridica si erge a pilastro, applicabile in modo uniforme e senza distinzioni all’interno del complesso panorama normativo in cui si colloca. Tuttavia, si ritiene fondamentale, dunque, che le autorità competenti e gli operatori del settore considerino attentamente le implicazioni etiche, giuridiche e sociali di questo approccio, affinché l’innovazione tecnologica possa realizzarsi in armonia con i principi fondamentali di protezione dei dati e dei diritti dei cittadini.

A tale proposito sarebbe utile ricordare che l’interesse legittimo è uno dei fondamenti di liceità per il trattamento dei dati personali previsto dal Regolamento (UE) 2016/679, di seguito, anche GDPR). Tale base giuridica si applica “quando il trattamento dei dati è necessario per perseguire un legittimo interesse del titolare del trattamento o di un terzo, a condizione che su tale interesse non prevalgano i diritti e le libertà fondamentali dell’interessato, in particolare se l’interessato è un minore” (art. 6, comma 1 lett. f) GDPR).

La base giuridica del legittimo interesse – come stabilito al comma 1 dell’art. 6 del GDPR, “non si applica al trattamento di dati effettuato dalle autorità pubbliche nell’esecuzione dei loro compiti”. Così viene ribadito nel considerando 47 del medesimo Regolamento che stabilisce “[p]osto che spetta al legislatore prevedere per legge la base giuridica che autorizza le autorità pubbliche a trattare i dati personali, la base giuridica per un legittimo interesse del titolare del trattamento non dovrebbe valere per il trattamento effettuato dalle autorità pubbliche nell’esecuzione dei loro compiti”.

Il dubbio circa la base giuridica applicabile all’impiego dell’intelligenza artificiale appare, in verità, piuttosto superficiale ma sarebbe utile approfondire la questione nella “bozza di linee guida”. Infatti, i più significativi atti giuridici vincolanti applicabili, quali il Regolamento (UE) 2016/679 e, in particolare, il Regolamento (UE) 1689/2024 (c.d. AI Act), non forniscono riferimenti chiari riguardo alla base giuridica da applicare nell’ambito dell’utilizzo di tali sistemi da parte delle PA. È evidente che tali normative non legittimano le pubbliche amministrazioni, in qualità di Titolari del trattamento (deployer), ad avvalersi del legittimo interesse quale fondamento giuridico per le proprie operazioni di trattamento. Questa constatazione è cruciale, poiché implica che le attività di trattamento condotte dalle PA debbano necessariamente ruotare attorno a basi giuridiche diverse, adeguatamente contemplate dalla normativa vigente, nel rispetto dei diritti e delle libertà fondamentali dei cittadini; nello specifico “l’esecuzione di un compito di interesse pubblico o connesso all’esercizio di pubblici poteri di cui è investito il titolare del trattamento” (art. 6 comma 1 lett. e) GDPR).

In questo senso, è imperativo che il quadro normativo venga interpretato con rigore e precisione, anche attraverso l’impiego di linee guida operative, affinché l’innovazione tecnologica non comprometta la tutela dei dati personali e la fiducia dei cittadini nelle istituzioni pubbliche.

È fondamentale sottolineare che un sistema di IA non deve essere assimilato a un’attività di trattamento, ma si configura piuttosto come “un sistema automatizzato progettato per operare con livelli di autonomia variabili, in grado di manifestare adattabilità anche dopo la sua diffusione. Esso, per obiettivi espliciti o impliciti, deduce dall’input ricevuto come generare output, quali previsioni, contenuti, raccomandazioni o decisioni, con la potenziale capacità di influenzare ambienti fisici o virtuali” (art. 3 AI Act).

A tale riguardo, appare chiaro che il legislatore non ha il compito di individuare la base giuridica applicabile all’utilizzo di tali sistemi, ma piuttosto di imporre ai Titolari del trattamento l’obbligo di identificare la base giuridica appropriata per le operazioni di trattamento associate all’impiego dell’IA. Questa responsabilità conferisce un’importante dimensione di autonomia e di consapevolezza ai Titolari, i quali devono affrontare sfide normative e garantire che le loro pratiche siano sempre allineate con le previsioni giuridiche vigenti, tutelando nel contempo i diritti e le libertà dei soggetti coinvolti.

Le pubbliche amministrazioni non possono legittimare le proprie attività di trattamento in cui viene utilizzato un sistema di IA basandosi sul legittimo interesse.

Nel campo dell’IA, la necessità di determinazione e l’ambito di applicazione della base legittimante di tali sistemi è stato oggetto di vari approfondimenti e interpretazioni sia da parte delle autorità di protezione dati dei singoli Stati membri dell’UE, sia da parte dell’EDPB (s.v. Opinion 28/2024 on certain data protection aspects related to the processing of personal data in the context of AI models Adopted on 17 December 2024).

La bozza di linee guida proposta dall’AGID (di seguito, anche “bozza di linee guida”) manca di qualsiasi riferimento alla base giuridica applicabile in merito all’utilizzo di un sistema di intelligenza artificiale, rinviando al Parere sopra menzionato, dove viene approfondito il tema dell’“adeguatezza dell’interesse legittimo come base giuridica per il trattamento dei dati personali nel contesto dello sviluppo e dell’implementazione dei modelli di IA e il possibile impatto di un trattamento illecito di dati personali”.

Tale Parere, infatti, ricorda che “non esiste una gerarchia tra le basi giuridiche fornite dal GDPR” e che “spetta ai titolari del trattamento identificare la base giuridica appropriata per le loro attività di trattamento”. Tuttavia, dall’applicazione di questo principio deve essere esclusa la base giuridica dell’interesse legittimo in quanto non applicabile alle PA.

Pertanto, è responsabilità della PA condurre il cosiddetto necessity test o analisi di rischi allo scopo di valutare preventivamente, in virtù del meta-principio di “AI by design” e “by default”, se il sistema di IA utilizzato per il trattamento in oggetto (a) sia necessario al fine di raggiungere l’obiettivo prefissato e (b) se esistano alternative meno invasive per conseguire il medesimo obiettivo. Questa analisi preliminare è essenziale per garantire che l’adozione delle nuove tecnologie avvenga nel pieno rispetto dei diritti e delle libertà dei cittadini, mitigando al contempo i rischi inerenti al trattamento dei dati personali.

Queste interpretazioni – rivolte al settore privato – mirano a “chiarire” le condizioni e i limiti entro cui l’interesse legittimo può essere invocato, sottolineando la necessità di un attento bilanciamento tra l’interesse legittimo perseguito dal titolare del trattamento (soggetto privato) o dal terzo e i diritti e le libertà fondamentali dell’interessato/a.

Per tutto quanto sopra premesso, si “suggerisce” di arricchire la “bozza di linee guida” per evitare ambiguità e garantire che le disposizioni ivi presenti siano pienamente conformi agli obiettivi stabiliti, nonché coerenti con le normative applicabili. In particolare, si raccomanda di esplicitare chiaramente che, nel contesto della PA, il legittimo interesse non può essere considerato una base giuridica valida (Paragrafo n. 4, pagina 66 della “bozza di linee guida”). Tale precisazione è essenziale per assicurare che le linee guida, a seguito dell’approvazione da parte dell’AGID, riflettano con precisione le limitazioni normative vigenti e guidino correttamente le pratiche delle PA nel trattamento dei dati mediante l’uso di sistemi di IA a norma.

1 Mi Piace

Un aspetto quasi del tutto trascurato dal punto di vista PRATICO (copia e incolla dal GDPR, purtroppo) è sempre quello tecnologico-ingegneristico, in particolare per quanto riguarda la “teoria dei sistemi” (= un sistema IT per poter risultare “sicuro” deve poter essere osservabile e controllabile). Il percorso di compliance quindi non può prescindere dal contributo effettivo di professionisti IT con importante specializzazione nel settore dell’intelligenza artificiale. Mi auguro non venga fatto lo stesso errore che i “padri” del GDPR hanno compiuto, ovvero il quasi totale disinteresse nel prevedere l’obbligatorietà di applicazione di una norma ISO a supporto (27001 ed oggi la 42001) a mezzo di perizia tecnica verticale, relativa all’istanza specifica e magari GIURATA ! Ideale il contributo da parte degli ingegneri ICT libero professionisti. Grazie

1 Mi Piace
  1. Allineamento normativo esplicito: esplicitare i riferimenti al GDPR, Codice Privacy e altre normative, aggiungendo sezioni che descrivano le procedure di compliance; rimuovere passaggi troppo generici o duplicati.
  2. Procedure di gestione delle violazioni: integrare una procedura operativa dettagliata per la gestione e la comunicazione delle violazioni dei dati, con esempi pratici (es. flowchart di intervento), eliminando parti poco chiare.
  3. Tecniche di protezione dei dati: aggiungere linee guida operative e esempi concreti per l’adozione di tecniche di anonimizzazione e pseudonimizzazione, semplificando e rimuovendo descrizioni troppo tecniche.
1 Mi Piace

Il trattamento dei dati personali assume un aspetto essenziale ai fini della verifica della salvaguardia e della tutela dei diritti di un soggetto, in considerazione dell’inevitabile trattamento di dati sensibili, correlati alla salute dei soggetti, nonché anche dati genetici a seconda delle circostanze, in funzione dei quali la normativa in materia di dati personali disciplina disposizioni altamente restrittive, finalizzate a conferire al Titolare del trattamento dei dati importanti funzioni di responsabilità in merito, essendo tenuto alla massima protezione degli stessi, mediante misure che ne assicurino anche la trasparenza della rispettiva gestione. Nell’ambito di una data sperimentazione clinica, le responsabilità in materia di protezione dei dati personali sono sia in capo al Promotore in qualità di Titolare del Trattamento che in capo alla struttura sanitaria. Il Titolare del Trattamento dati personali di un’azienda sanitaria è rappresentato dal Direttore Generale in qualità di rappresentante legale della medesima e ciascuna struttura sanitaria è tenuta a predisporre appropriati sistemi organizzativi e gestionali finalizzati alla garanzia di una sicura e protetta gestione dei dati personali dei soggetti afferenti, assicurando peraltro le dovute formazioni e attribuzioni di responsabilità in capo al personale delegato al trattamento. In Italia il recepimento del Regolamento Europeo n. 679/2016 è avvenuto mediante l’emanazione del D. lgs n.101/2018 che integra le disposizioni del Regolamento suddetto con quelle del Codice Privacy n.196/2003.
Nell’ambito dell’organizzazione di un dato sito sperimentale, come parte integrante dell’organizzazione della struttura sanitaria, rientra pertanto oggetto di verifica anche dell’implementazione di un adeguate misure finalizzate ad assicurare il massimo rispetto della tutela dei dati personali dei soggetti afferenti. Gli ispettori pertanto devono poter verificare che il trattamento dei dati è avvenuto solo in capo al personale debitamente delegato, nel rispetto dell’ impiego di sistemi informatici e organizzativi che ne assicurino la protezione, come sistemi telematici che assicurino la crittografia dei dati, nonché database di raccolta dei dati debitamente muniti di software in grado di assicurarne la protezione, inclusa la necessità di assicurare l’accesso ai medesimi solo dal personale delegato in possesso di apposite credenziali personali, debitamente archiviate, assicurandone la riservatezza. Nell’ambito della presente organizzazione, nel rispetto della normativa disciplinata dal suddetto regolamento, pertanto deve essere assicurata la presenza di un apposito Responsabile della Protezione dei dati (DPO) al quale competono funzioni di assicurare una gestione corretta dei dati personali, nelle imprese e negli enti e di porsi quale referente principale presso ogni ente e struttura. Rappresenta pertanto una figura professionale che assume le medesime responsabilità del titolare del trattamento dati, assicurando il rispetto alla massima sicurezza degli stessi. Un’altra importante responsabilità del DPO è assicurare la tempestiva denuncia al Garante della Privacy in caso di violazione dei dati, nonché istituzione e gestione di un apposito registro di trattamento dei dati personali.

Con riferimento alla sezione citata, non si evincono informazioni circa le responsabilità del titolare del trattamento dei dati personali, a cui competono obblighi di adozione come sopra citato di un sistema caratterizzato da misure organizzative e gestionali, oltre che tecniche in grado di assicurare la gestione consona dei dati personali oggetto di trattamento, nell’ambito dei quali pertanto assicurare un rispettivo sistema di gestione per la qualità meramente specifico il trattamento dei dati personali caratterizzato da procedure operative oltre che processi, nell’ambito dei quali dedurre il rispetto del principio di accontability per quanto concerne l’uso di sistemi ai fini della protezione dei dati, ovvero appropriate misure volte ad assicurare la responsabilità in capo a ciascun dipendente delegato, delle quali peraltro dare debita evidenza anche nell’ambito di appositi contratti di lavoro, fermo restando le informazioni presenti nell’ambito di una informativa al trattamento dei dati.

A tal riguardo, si evince come ricorra pertanto la necessità in capo ad un dato titolare del trattamento dei dati, di assicurare un contenuto informativo adeguato alla normativa vigente, con riferimento particolare al GDPR 679/2016 che sia commisurato a fornire informazioni da rendere disponibili su affissi qualora destinati ad un eventuale trattamento implicito per lo svolgimento di attività per le quali sussiste una pluralità di trattamento, avvalendosi di un unica informativa nell’ambito di apposito cartelli o avvisi, fermo restando le circostanze nelle quali sussistono finalità di trattamento specifico, ovvero oltre dati anagrafici e identificativi, per i quali la normativa vigente in materia disciplina obblighi di trattamento in un rispettivo ambito più restrittivo. Si fa ovvero riferimento a tutte quelle circostanze nelle quali ricorrono necessita di erogazione di servizi che richiedano un trattamento di dati oltre i soli dati identificativi, con una rispettiva necessita ad esempio nel caso di trattamento di dati personali in materia di salute o dati genetici, di appartenenza pertanto ad una categoria notevolmente sensibile.

Ciò detto non si evincono obblighi inerenti la necessità di adozione di un sistema di trattamento dei dati conforme ai principi di minimizzazione degli stessi, ovvero che veda il trattamento dei soli dati necessari ai fini del l’espletamento delle attività per le quali rosutlino essere trattati.

Non si evincono informazioni circa i diritti che possa esercitare un soggetto, fermo restando la base legale di riferimento, sia essa rappresentata da scopi contrattuali con trattamento di dati implicito previa informativa resa disponibile allo stesso. Nel caso di trattamento dei dati mediante l’uso di sistemi informatici, non si evincono inoltre anche conformità al regolamento per quanto concerne la necessità di rilascio di un consenso mediante la selezione di una spunta finalizzata all’autorizzazione al trattamento dei dati nei casi di eventuali richieste di erogazione di servizi nell’ambito di pre contratti da stipulare con una data PA. Resta intesa la necessità di fornire un’informativa ulteriore con richiesta di trattamento dei dati ulteriori a quelli raccolti nell’ambito di un pre contratto, ovvero strettamente necessari per i fini di erogazione del medesimo trattamento. Per quanto concerne un eventuale pluritrattamento si fa riferimento ad esempio in tutte quelle circostanze nelle quali si faccia uso di sistemi biomedici coinvolti nella rilevazione dei volti.

(messaggio eliminato dall’autore)

​​

​​

Oltre alla gestione dei dati personali manca un paragrafo specifico sulla gestione dei dati dell’Amministrazione, in particolare la necessità di non fornire dati dell’amministrazione (che potrebbero essere confidenziali, riservati o segrei) ai modelli closed source o in generale presenti su internt.
Le amministrazioni dovrebbero perseguire primariamente l’obiettivo di seguire un approccio “Private AI”:

  • utilizzare modelli open source interni alle amministrazioni;
  • disincentivare o bloccare l’uso di modelli pubblici gratuiti con documenti dell’amministrazione;
  • nell’utilizzo di sistemi di gestione dei documenti con l’uso di AI (RAG) evitare l’utilizzo non solo dei modelli proprietari pubblici che conservano tutte le conversazioni e le utilizzano per il training successivo con il rischio di trovare informazioni da proteggere disponibili su internet ma anche l’utilizzo di API esterne negli applicativi che elaborano i documenti e li convertono;
  • Utilizzare istanze cloud dedicate ove necessario e in ogni caso certificate ACN.
1 Mi Piace

Tale sezione non apporta niente di nuovo per le pubbliche amministrazioni, in termini di indicazioni operative e strategie di mitigazione per assicurare la loro conformità alla normativa, ma riporta sinteticamente gli obblighi generali cui sono sottoposte le PA per la protezione dei dati personali. Inoltre, come già menzionato, appare preoccupante il mancato coinvolgimento del Garante per la protezione dei dati personali nella redazione di tale paragrafo. Forse proprio tale mancanza porta ad un mancato approfondimento del tema della DPIA che non può essere trattato solo in termini generici.

Sottoscrivo ogni parola.
Aggiungerei che si deve vietare l’uso di strumenti che conservano i dati personali eventualmente inseriti (per addestramento o altro). Nel dubbio qualsiasi dato inserito da una PA deve essere considerato personale. Anche “Alessandro Manzoni”, per assurdo

Nel punto 10.1 propongo la seguente aggiunta:

Le PA devono implementare soluzioni nazionali o europee che fungano da filtri di sicurezza e anonimizzazione per prevenire la fuoriuscita di dati sensibili nei sistemi di IA, garantendo che i modelli utilizzati non espongano informazioni personali non autorizzate.

**Protezione dei dati personali (Capitolo 10) **

Federmanager riconosce la protezione dei dati personali come un principio imprescindibile nell’adozione di sistemi di Intelligenza Artificiale nella Pubblica Amministrazione. L’IA rappresenta una leva strategica per il miglioramento dell’efficienza amministrativa e dei servizi pubblici, ma il suo utilizzo deve avvenire in piena conformità con il GDPR, l’AI Act e i provvedimenti delle autorità di regolazione, per garantire il rispetto dei diritti fondamentali dei cittadini.

In questo contesto, Federmanager evidenzia la necessità di un approccio rigoroso alla governance dei dati personali, che tenga conto dei principi di trasparenza, accountability e protezione by design. Le PA devono essere in grado di gestire il rischio di bias, garantire la non discriminazione algoritmica e preservare il controllo umano sui processi decisionali automatizzati.

Federmanager sottolinea l’importanza di:

Rafforzare la cultura della protezione dei dati personali nella PA, attraverso l’adozione di modelli organizzativi adeguati e la formazione continua dei dirigenti e dei funzionari pubblici sulle implicazioni legali e tecniche dell’IA. È necessario che i decisori pubblici abbiano piena consapevolezza del ruolo di titolare del trattamento dei dati e della responsabilità connessa alla gestione degli stessi.

Garantire la trasparenza e la spiegabilità delle decisioni automatizzate, assicurando che i cittadini possano comprendere il funzionamento dei sistemi di IA e ottenere informazioni chiare e accessibili sulle logiche decisionali impiegate. In questo senso, è fondamentale adottare misure che permettano il controllo umano nei processi decisionali (“human-in-the-loop”) e prevedere strumenti efficaci di tutela in caso di errore o discriminazione algoritmica.

Promuovere una gestione responsabile dei dati personali, attraverso l’adozione di metodologie avanzate per la protezione dei dati, quali tecniche di anonimizzazione, pseudonimizzazione e crittografia. Le PA devono garantire che l’utilizzo di sistemi IA sia sempre accompagnato da un’attenta analisi dell’impatto sui diritti degli interessati, con particolare attenzione al trattamento di categorie particolari di dati.

Integrare le valutazioni d’impatto sulla protezione dei dati (DPIA) nei processi di sviluppo e implementazione dell’IA, per identificare e mitigare i rischi in fase preventiva. In presenza di trattamenti ad alto rischio, le PA devono attivare un dialogo costante con il Garante per la protezione dei dati personali, per garantire il rispetto delle migliori pratiche e della normativa vigente.

Stabilire una governance efficace dei dati personali, basata su ruoli e responsabilità ben definiti, con il coinvolgimento dei Responsabili della Protezione dei Dati (DPO), dei Responsabili per la Transizione Digitale (RTD) e delle strutture dedicate alla gestione dell’IA nella PA. Il coordinamento tra questi attori è essenziale per assicurare la conformità normativa e prevenire usi impropri dei dati.

Applicare misure di sicurezza robuste per la protezione dei dati personali trattati attraverso i sistemi di IA, prevenendo accessi non autorizzati, perdite di dati e violazioni di sicurezza. È fondamentale che la PA implementi sistemi di monitoraggio costante, adottando misure adeguate di mitigazione dei rischi, come audit periodici, tecniche di crittografia avanzata e strumenti di rilevazione delle anomalie nei trattamenti automatizzati.

Definire linee guida per un uso etico e responsabile dei dati personali nell’IA, in linea con le raccomandazioni del Garante per la protezione dei dati personali e dell’European Data Protection Board (EDPB). È essenziale che le PA evitino l’utilizzo improprio dei dati personali e garantiscano che gli algoritmi impiegati non riproducano discriminazioni o pregiudizi sistemici.

Monitorare e valutare l’impatto delle tecnologie IA sulla protezione dei dati personali, attraverso un approccio basato sulla revisione continua delle pratiche adottate, l’aggiornamento delle policy di gestione dei dati e il coinvolgimento di esperti di protezione dei dati personali e di etica dell’IA. L’implementazione di meccanismi di auditing indipendenti e il dialogo con le autorità di regolazione contribuiranno a garantire un utilizzo conforme e responsabile delle tecnologie IA.

Favorire la collaborazione tra PA, imprese e centri di ricerca, per sviluppare soluzioni innovative che migliorino la protezione dei dati personali nell’ambito dell’IA. È necessario promuovere lo scambio di best practice e la creazione di standard condivisi, al fine di rafforzare la sicurezza e la trasparenza dei sistemi IA nel settore pubblico.

Incentivare l’adozione di modelli di governance dei dati basati su principi di interoperabilità e accountability, affinché le PA possano gestire in modo efficace i dati personali, garantendo la tracciabilità delle decisioni automatizzate e il rispetto dei diritti degli interessati. L’adozione di standard aperti e l’utilizzo di tecnologie affidabili permetteranno una gestione più efficace e sicura dei dati.

Federmanager sottolinea che la protezione dei dati personali rappresenta un pilastro fondamentale per l’adozione responsabile dell’IA nella Pubblica Amministrazione. Solo attraverso un approccio rigoroso alla governance dei dati, un impegno costante nella formazione delle competenze e l’adozione di misure di sicurezza adeguate sarà possibile garantire che le soluzioni di IA siano conformi ai principi di legalità, trasparenza ed equità.

L’integrazione di sistemi di IA nella PA deve avvenire in modo da preservare la fiducia dei cittadini, tutelare i loro diritti e promuovere l’innovazione tecnologica nel rispetto delle normative europee e nazionali. Per questo, Federmanager invita la PA a investire in una gestione strategica e responsabile dei dati personali, adottando un modello di governance che coniughi innovazione, sicurezza e protezione dei diritti fondamentali.

Il Centro Studi di Informatica Giuridica di Ivrea e Torino tenuto conto del fatto che il Garante per la protezione dei dati personali ha recentemente evidenziato i rischi associati alla pratica web scraping, soprattutto quando utilizzata per l’addestramento di modelli di intelligenza artificiale generativa, suggerisce di dedicare una sezione esplicita, sia nelle linee guida, sia nel modello di valutazione d’impatto, a tale il fenomeno integrando le Linee guida con i seguenti riferimenti specifici al web scraping:

  • Indicazioni specifiche sull’uso di tecnologie preventive, per promuovere l’adozione di strumenti e tecnologie che impediscano o limitino il web scraping non autorizzato;
  • Obbligo di inserire Clausole anti-scraping nei termini di servizio che vietino la raccolta massiva di dati da parte di terzi fornitori di sistemi di IA;
  • Divieto esplicito di implementare sistemi di IA che sfruttino il web scraping per l’addestramento del modello.

(pg.64 e ss., art. 10) Il Centro Studi di Informatica Giuridica di Ivrea e Torino segnala l’opportunità di richiamare l’obbligo di censire nel Registro dei trattamenti previsto dall’art. 30 del Reg. Ue 2016 n.679 (GDPR) i trattamenti dei dati personali effettuati mediante sistemi di IA anche nell’ottica dell’accountability e del rispetto dei principi di protezione dei dati personali by design e by default.

(Pg. 66, parere EDPB n.28 del 17/12/2024)
Le PA che adottano sistemi di IA che trattano dati personali hanno l’obbligo di rispettare il Reg. Ue 2016 n.679 ed in particolare quello di individuare preventivamente la base giuridica che rende lecito il trattamento. In proposito, a pg. 66 delle linee guida in consultazione, viene richiamato il parere n. 28 del 17/12/2024 che, nel trattare specifici aspetti di protezione dei dati personali nel contesto dei modelli AI, considera quale base giuridica adeguata il legittimo interesse del titolare.
Senonché, il Centro Studi di Informatica Giuridica di Ivrea e Torino evidenzia che nel contesto dello sviluppo e dell’implementazione dei modelli di IA da parte delle amministrazioni pubbliche il legittimo interesse non sembra costituire una base giuridica idonea in forza di quanto prevede l’art. 6, paragrafo 1 ultimo periodo che esclude l’applicabilità del legittimo interesse al trattamento di dati effettuato dalle autorità pubbliche nell’esecuzione dei loro compiti.
Al riguardo, sarebbe opportuno che venisse precisato

  • l’obbligo delle amministrazioni pubbliche che adottano tali sistemi di individuare preventivamente la base giuridica;
  • se la base giuridica possa anche essere individuata anche in un atto amministrativo generale ai sensi dell’ Art. 2-ter (Base giuridica per il trattamento di dati personali effettuato per l’esecuzione di un compito di interesse pubblico o connesso all’esercizio di pubblici poteri) del codice privacy come modificato dal decreto capienze.
  • qualora detta base giuridica venisse individuata nella necessità di eseguire un compito di interesse pubblico o connesso all’esercizio dei pubblici poteri di cui è investito il titolare (art. 6 lett. e, Reg. Ue 2016 n.679), sarebbe comunque necessario, come prevede il paragrafo 3 del citato articolo 6:
    • effettuare una preventiva valutazione in ordine all’effettiva necessità di tale trattamento per l’esecuzione di un compito svolto nel pubblico interesse o connesso all’esercizio di pubblici poteri di cui è investito il titolare;
    • verificare che il diritto dell’unione o degli Stati membri persegua un obiettivo di interesse pubblico che sia proporzionato all’obiettivo legittimo perseguito;
    • verificare che tale base giuridica contenga disposizioni specifiche per adeguare l’applicazione delle norme del Regolamento Ue 2016 n.679, tra cui, le condizioni generali relative alla liceità del trattamento da parte del titolare; le tipologie di dati oggetto del trattamento; gli interessati; i soggetti cui possono essere comunicati i dati personali e le finalità per cui sono comunicati; le limitazioni della finalità; i periodi di conservazione e le operazioni e procedure di trattamento, comprese le misure atte a garantire un trattamento lecito e corretto, quali quelle per altre specifiche situazioni di trattamento di cui al capo IX;
      (sulla qualità della base giuridica si veda Corte di Giustizia sent. C-175/20, Valsts iemumu dienests, 24 febbraio 2022, par. 83 nonché Corte Europea dei Diritti dell’Uomo sentenza Glukhin v. Russia”, “application no. 11519/20”, 4 luglio 2023, par. 75).
  • qualora, poi, il trattamento avesse ad oggetto categorie particolari di dati personali, sarebbe anche necessario verificare la sussistenza di una delle condizioni di liceità previste dal 2 paragrafo dell’art. 9 del Reg. Ue 1026 n.679.

Le Linee Guida menzionano genericamente le tecnologie di protezione della privacy (PET) senza approfondire il contributo distintivo dei dati sintetici o di altre tecnologie emergenti. In particolare, per quanto riguarda i dati sintetici, questi consentono la creazione di informazioni artificiali che sono statisticamente equivalenti ai dataset reali, senza però essere il risultato di un processo di anonimizzazione tradizionale. A differenza dell’anonimizzazione, che implica l’elisione di informazioni sensibili, la sintetizzazione genera nuovi campioni di dati che preservano le relazioni statistiche sottostanti senza conservare riferimenti identificativi, producendo così dati di natura non personale. Questo processo non altera il formato del dato originale, consentendo lo sviluppo di applicazioni sul dato sintetico che risultano immediatamente applicabili al dato reale. Inoltre, non richiede la creazione di reti di computazione complesse o il coordinamento tra molteplici attori, come avviene nel federated learning. La sintetizzazione offre altissime garanzie di privacy, permettendo persino la pubblicazione dei dati sintetici senza rischi di re-identificazione. Infine, rappresenta uno strumento efficace per mitigare i bias presenti nei dati originali, migliorando così l’affidabilità delle analisi e delle applicazioni sviluppate
I dati sintetici rientrano tra le Privacy-Enhancing Technologies (PET), ovvero soluzioni progettate per migliorare la tutela della privacy nel trattamento dei dati. Accanto a metodologie consolidate come l’anonimizzazione tradizionale, la pseudonimizzazione, la criptografia omomorfica e la differential privacy, la generazione di dati artificiali consente di analizzare e utilizzare informazioni senza trattare direttamente dati personali. Ciò che distingue i dati sintetici è la loro capacità di riprodurre le caratteristiche statistiche e strutturali di un dataset reale senza corrispondere direttamente a individui specifici. Se generati con tecniche adeguate, possono essere utilizzati per analisi, simulazioni e addestramento di algoritmi, offrendo le stesse capacità predittive dei dati autentici, ma senza contenere riferimenti identificabili. Per questa ragione, il Garante Europeo per la Protezione dei Dati (EDPS) li riconosce come uno strumento che supporta l’attuazione dei principi di privacy by design, in quanto il loro utilizzo consente di condurre analisi nel rispetto della riservatezza delle informazioni personali. È fondamentale chiarire che i dati sintetici non sono automaticamente dati anonimi. La loro differenza rispetto ad altre tecniche di Privacy-Enhancing Technologies (PET) riguarda il metodo di generazione e il rischio residuo di re-identificazione. L’anonimizzazione tradizionale, basata su tecniche come soppressione, generalizzazione e randomizzazione, modifica direttamente un dataset esistente, eliminando o alterando gli identificativi fino a rendere impossibile l’associazione con gli individui di origine, anche qualora il dataset venga incrociato con altre fonti di dati.
I dati sintetici vengono generati ex novo mediante modelli matematici e algoritmi di machine learning, che apprendono la struttura e le relazioni statistiche di un dataset reale per produrre un nuovo dataset artificialmente creato. Data la varietà di tecniche di sintesi disponibili, è essenziale selezionare quelle che garantiscano un equilibrio tra fedeltà statistica e elevati standard di protezione della privacy. A questo scopo, l’adozione di piattaforme e algoritmi certificati, come quelli conformi all’articolo 42 del GDPR e agli standard di certificazione Europrivacy, rappresenta una garanzia aggiuntiva. L’uso di tecnologie verificate secondo questi criteri consente di assicurare l’affidabilità del processo di sintesi, riducendo il rischio di re-identificazione e garantendo che il dataset prodotto possa essere utilizzato in modo sicuro e conforme alle disposizioni sulla protezione dei dati personali. .
L’adozione di dati sintetici nella Pubblica Amministrazione ¶ rappresenta un’importante opportunità per rafforzare la protezione dei dati personali e favorire l’innovazione digitale nel rispetto delle normative vigenti. Le PA trattano ingenti volumi di dati personali, che spaziano dalle informazioni anagrafiche e sanitarie fino ai dati tributari e giudiziari, e sono soggette a stringenti obblighi di tutela imposti dal Regolamento Generale sulla Protezione dei Dati (GDPR) e da normative settoriali. L’utilizzo di dati sintetici consente alle PA di sfruttare il valore informativo dei dati riducendo il rischio di trattamento improprio di dati personali. Ad esempio, un comune potrebbe generare un dataset sintetico basato su dati demografici per simulare scenari urbanistici o ottimizzare la pianificazione dei servizi pubblici, rendendo tali dati disponibili per ricerca o iniziative civiche senza compromettere la riservatezza dei cittadini. Questo approccio favorisce la trasparenza e l’open government, consentendo la pubblicazione di dataset che, se contenenti dati personali, non sarebbero altrimenti divulgabili. Nella gestione interna, l’uso di dati sintetici permette alle PA di sperimentare e testare modelli di IA per ottimizzare processi amministrativi, gestione delle risorse e previsione di criticità nei servizi pubblici, limitando l’esposizione di dati reali. Le Linee Guida AgID evidenziano il valore dei dati sintetici per promuovere lo sviluppo dell’IA nella PA, con particolare attenzione alla protezione dei dati e alla trasparenza nell’uso degli algoritmi decisionali.
L’impiego di dati sintetici contribuisce inoltre a migliorare la sicurezza informatica della PA, riducendo il rischio di data breach. In particolare, l’uso di dataset fittizi per test e sviluppo software evita l’esposizione di dati reali a vulnerabilità informatiche. Un caso emblematico è l’incidente in Norvegia, dove un ente pubblico ha diffuso per errore i dati personali di milioni di cittadini durante il collaudo di un servizio cloud. L’Autorità norvegese per la protezione dei dati ha sanzionato l’ente, sottolineando che l’uso di dati sintetici avrebbe potuto prevenire la violazione. Infine, i dati sintetici offrono strumenti avanzati per mitigare i bias negli algoritmi decisionali della PA. Se i dataset storici contengono squilibri o distorsioni (es. sottorappresentazione di minoranze), è possibile generare dati sintetici bilanciati per addestrare modelli di IA, riducendo il rischio di decisioni discriminatorie in settori come selezione del personale pubblico, accesso a servizi sociali e politiche abitative.Se implementati correttamente, i dati sintetici rappresentano uno strumento strategico per la trasformazione digitale della Pubblica Amministrazione, garantendo un equilibrio tra innovazione, protezione dei dati e trasparenza. La loro adozione consente di sfruttare le potenzialità dell’IA e dell’analisi avanzata dei dati nel rispetto delle normative vigenti, promuovendo al contempo un approccio etico e responsabile nella gestione delle informazioni pubbliche.

Nell’ambito delle PET, le PA potrebbero utilizzare dati sintetici generati mediante algoritmi e piattaforme certificati (ISO/art 42 GDPR/europrivacy), garantendo:

a) Processo di sintetizzazione senza conservazione dati primari
b) Validazione proprietà statistiche vs dataset di riferimento
c) valutazione del livello di privacy del dato sintetico
d) Modulazione chiara delle operazioni di trattamento

Si suggerisce di approfondire ulteriormente il tema della minimizzazione dei dati raccolti e utilizzati dai sistemi di IA, inserendo indicazioni specifiche per la gestione dei dati sensibili o particolari (ad esempio, dati sanitari).

Rivedere il riferimento alle decisioni automatizzate alla fine di pagina 40, in quanto il GDPR già vieta le decisioni automatizzate che impattano significativamente sulla vita dei cittadini.

Si ritiene necessario ampliare la trattazione del presente capitolo in quanto manca una più precisa indicazione delle misure di sicurezza che in concreto devono essere adottate al fine di garantire il rispetto della normativa in materia di protezione dei dati personali. Inoltre nel primo e nel quarto capoverso il riferimento ai “sistemi di IA che vengono adottati per lo svolgimento di attività che comportano il trattamento di dati personali”, non tiene conto del fatto che i modelli e i sistemi di IA possono essere addestrati con dati personali, seppur poi l’output generato non sia finalizzato al trattamento di dati personali.

Questo argomento è stato automaticamente chiuso dopo 35 giorni. Non sono permesse altre risposte.