Segnaliamo le nostre proposte, puntualmente riferite ad alcuni passaggi.
Cordialmente
Paragrafo 3.2
Non è esplicitato un livello dedicato all’interazione e comunicazione con l’utente. Si propone di introdurre un riferimento a componenti di:
- interfaccia comunicativa,
- spiegazione degli output (explainability per utenti non tecnici).
Paragrafo 3.2 - Pag 44
Per una migliore comprensione, si propone di riformulare il secondo capoverso come segue:
“Gli agenti software in architetture di questo tipo possono gestire compiti complessi e articolati in più fasi. Il loro comportamento varia in funzione del livello di autonomia, classificato da L0 a L5:
Livello 0 – Completamente manuale
Livello 1 – Automazione basata su regole
Livello 2 – Automazione intelligente dei processi
Livello 3 – Workflow agentici
Livello 4 – Agenti semi-autonomi
Livello 5 – Agenti completamente autonomi
I livelli sono descritti nel seguito e sintetizzati nella Tabella 2.”
Paragrafo 3.2 - Pag 44
Relativamente al Livello 2 si propone la seguente riformulazione: “Nel Livello 2 – Automazione intelligente dei processi, un agente combina: capacità di automazione (es. RPA, workflow orchestration) capacità di percezione e analisi basate su tecniche di IA (es. Machine Learning, Natural Language Processing, Computer Vision) L’agente non è autonomo, ma opera con supervisione umana, analogamente ai sistemi ADAS, che supportano il guidatore attraverso funzioni avanzate di assistenza basate su sensori e modelli di AI. Dal punto di vista tecnologico, questi sistemi integrano componenti di ML, NLP, CV, insieme a strumenti di automazione dei processi e orchestrazione.” al fine di osservare una più precisa aderenza tecnologica
Paragrafo 3.2 - Pag 45
Relativamente al Livello 3 si propone la seguente riformulazione: “Livello 3 – Workflow agentici. Gli agenti sono in grado di pianificare sequenze di azioni, adattarsi al contesto, generare contenuti e prendere decisioni operative all’interno di domini ben definiti. L’autonomia è limitata e l’essere umano interviene nei casi limite o nelle situazioni non previste. Un’analogia utile è la navigazione automatica in autostrada: il sistema gestisce la guida ordinaria, mentre l’essere umano mantiene la supervisione e interviene quando necessario.
Dal punto di vista tecnologico, questi agenti combinano modelli linguistici di grandi dimensioni (LLM), sistemi di memoria, capacità di utilizzare strumenti esterni (tool use) e forme semplici di apprendimento per rinforzo o feedback iterativo. Le applicazioni includono copilot per il supporto alla scrittura o al codice, analisti RAG (Retrieval-Augmented Generation), pipeline ETL automatizzate, ambienti di esercizio supervisionati e progetti pilota.”
Paragrafo 3.2 - Pag 45
Relativamente al Livello 4 si propone la seguente riformulazione: “Gli agenti operano in modo autonomo all’interno di ambiti di competenza chiaramente delimitati, adattando le strategie operative e ottimizzando le decisioni in base al contesto. Possono apprendere o aggiornare i propri comportamenti in modo controllato. L’essere umano interviene solo in situazioni eccezionali o fuori dai limiti operativi previsti. Un’analogia utile è la guida autonoma in condizioni specifiche: il sistema gestisce la maggior parte delle situazioni, mentre l’essere umano interviene nei casi limite.
Dal punto di vista tecnologico, questi agenti integrano capacità avanzate di pianificazione, ragionamento guidato da modelli, adattamento in tempo reale e forme di ragionamento causale assistito. Le applicazioni includono taxi autonomi operanti in aree geografiche delimitate, robotica di magazzino, droni per ispezioni, sistemi di auto‑remediation AIOps e ambienti di esercizio semi‑autonomi in contesti vincolati.”
Paragrafo 3.2 - Pag 45
Relativamente al Livello 5 si propone la seguente riformulazione: “Livello 5 – Agenti completamente autonomi. Gli agenti operano in modo pienamente autonomo, con capacità di generalizzazione e adattamento che si estendono oltre i singoli domini applicativi. Sono in grado di apprendere, pianificare e prendere decisioni complesse senza intervento umano, gestendo anche condizioni non previste. Un’analogia utile è quella dei veicoli completamente autonomi, in grado di operare ovunque e in qualsiasi condizione senza supervisione.
Dal punto di vista tecnologico, questi agenti richiedono sistemi di memoria avanzati, meccanismi di apprendimento sofisticati, capacità di ragionamento generalizzato e componenti di safety automation per garantire affidabilità e sicurezza in autonomia completa. Al momento non esistono applicazioni operative: il Livello 5 è oggetto esclusivo di attività di ricerca.”
Paragrafo 3.2 - Pag 48
Si propone di riformulare il seguente periodo “Al centro dell’architettura si colloca l’Orchestratore IA, un sistema di coordinamento che funge da punto di controllo unificato per tre componenti fondamentali dell’ecosistema IA della PA.” Con “Al centro dell’architettura si colloca l’Orchestratore IA, il componente di coordinamento che funge da punto di controllo unificato per le tre componenti fondamentali dell’ecosistema di Intelligenza Artificiale della Pubblica Amministrazione.”
Paragrafo 3.2 - Pag 49
PEFT: Parameter-Efficient Fine-Tuning
Paragrafo 3.2.2 - Pag 50
Si propone di riformulare il primo capoverso come segue: “I dati utilizzati nell’architettura possono appartenere a diverse tipologie e strutture: basi di conoscenza, data lake, basi dati semantiche o graphDB. Possono essere distribuiti o centralizzati, con storage on‑premise, in cloud o in modalità ibrida.
A titolo esemplificativo:
- Database distribuiti: Sistemi in cui i dati sono archiviati su più nodi fisici o logici, mantenendo coerenza e disponibilità. Sono utilizzati per dati transazionali e operativi che richiedono scalabilità e resilienza.
- Graph Database (graphDB): Basi dati progettate per rappresentare e interrogare relazioni complesse tra entità (ad esempio cittadini, procedimenti, organizzazioni esterne). Sono ideali per modelli semantici, knowledge graph e analisi di relazioni.
- Data Lake: Archivi scalabili che raccolgono grandi volumi di dati eterogenei (strutturati, semi‑strutturati e non strutturati). Sono utilizzati per basi di conoscenza, archivi storici e dataset su cui applicare tecniche avanzate di data analytics e AI.”
Paragrafo 3.2 .2 - Pag 51
In riferimento al seguente capoverso” Alimentando la molteplicità dei modelli sopra citati, i dati possono essere utilizzati per attività di training di modelli propri, per il tuning di modelli utilizzati mediante servizi cloud o per l’esercizio di modelli già in produzione. L’accesso stesso ai dati, inoltre, può avvenire tramite strumenti come Retrieval-Augmented Generation (RAG), API esterne o altre fonti in cloud e on-prem.” Si segnala che la descrizione appare non semanticamente chiara, sarebbe opportuno inserire la classificazione dei dati che, a titolo di esempio, viene di seguito riportata:
I metodi di classificazione nell’AI possono essere: Supervised Learning (Apprendimento supervisionato), Unsupervised Learning (Non supervisionato), Semi‑supervised Learning, Reinforcement Learning, Deep Learning, ecc. (Tom Mitchell, Machine Learning, 1997).
Paragrafo 3.4
Si evidenzia il divario tra le prescrizioni teoriche riportate nel documento e la realtà operativa delle Pubbliche Amministrazioni:
- Le linee guida impongono che i dati siano accurati, rappresentativi e privi di bias. Tecnicamente, ciò richiede pipeline di Data Cleaning e Bias Detection estremamente sofisticate. La criticità risiede nella mancanza di protocolli standardizzati per certificare che un dataset della PA sia effettivamente “pronto per l’IA”, rischiando di addestrare modelli su dati storici che riflettono inefficienze o discriminazioni pregresse.
- Sebbene si promuova l’uso di basi dati nazionali, l’integrazione tecnica tra sistemi obsoleti e i nuovi sistemi di IA è un collo di bottiglia. La trasformazione di dati eterogenei in formati pronti per il machine learning comporta costi e tempi di sviluppo che il documento tende a sottostimare.
- L’anonimizzazione e la protezione dei dati si scontra con la difficoltà tecnica di garantire l’irreversibilità in dataset complessi. Mancano indicazioni su standard matematici specifici, lasciando alle singole amministrazioni il rischio legale e tecnico di possibili attacchi di re-identificazione.
- Il paragrafo non approfondisce la necessità di tracciare l’origine e le trasformazioni dei dati. Senza un rigoroso versionamento dei dataset diventa tecnicamente impossibile effettuare il debugging di un errore del sistema di IA o rispondere ad audit legali sulla decisione presa dall’algoritmo.
Paragrafo 3.4.1 – pag 60
È opportuno considerare che avere una certificazione della provenienza del dato è indispensabile per non incorrere nel problema della “sindrome della mucca pazza” (Alemohammad, S., Casco-Rodriguez, J., Luzi, L., Humayun, A. I., Babaei, H., LeJeune, D., Siahkoohi, A., & Baraniuk, R. G. (2023). Self-Consuming Generative Models Go MAD). Nel contesto dell’AI, l’espressione “morbo della mucca pazza” indica il rischio che i modelli vengano addestrati su dati generati da altre AI (o da sé stessi), invece che su dati reali. Questo auto‑riutilizzo porta a un progressivo deterioramento della qualità e alla propagazione degli errori e, nel tempo, a un vero e proprio “collasso del modello”.
Paragrafo 3.4.1 – pag 61
È opportuno precisare meglio il “Volume” come di seguito “Volume: rappresenta la scala dei dati di addestramento, tipicamente composta da miliardi/trilioni di token, cioè unità elementari di testo.”
Paragrafo 3.4.2 pag 67/68
Si segnala una possibile incoerenza. Il paragrafo sembra affrontare il tema della gestione dei dati strutturati; tuttavia, lo collega allo scenario del Data Lake che invece riferisce all’utilizzo di dati non strutturati.