La PA alla prova dell’IA: una trasformazione ancora da compiere

Nel mese di giugno 2025 l’Agenzia per l’Italia Digitale (AGID) ha diffuso i risultati della prima ricognizione sistematica dei progetti di intelligenza artificiale avviati dalle amministrazioni pubbliche centrali italiane. Un lavoro ampio, strutturato, che segna un passaggio importante: per la prima volta si tenta di fotografare lo stato reale dell’adozione dell’IA nella macchina statale, andando oltre gli annunci e le dichiarazioni di principio.

L’indagine, realizzata in collaborazione con l’Osservatorio Agenda Digitale del Politecnico di Milano e Cassa Depositi e Prestiti, si inserisce nel Piano Triennale per l’Informatica nella Pubblica Amministrazione 2024–2026 e ha coinvolto 142 enti, con un tasso di risposta del 76%. Su 108 organizzazioni che hanno partecipato effettivamente, 45 hanno dichiarato di avere progetti di intelligenza artificiale attivi, per un totale di 120 iniziative censite.

Dove e perché si usa l’intelligenza artificiale nella PA

I settori più attivi sono quelli economico-finanziari e assicurativi, ma in generale tutti gli ambiti della PA centrale risultano rappresentati. Gli obiettivi principali? Nel 42% dei casi si tratta di migliorare l’efficienza operativa, mentre un quarto dei progetti punta a rafforzare le capacità di analisi e gestione dei dati. Non manca, anche se in misura minore (18%), l’attenzione all’accessibilità e qualità dei servizi pubblici per cittadini e imprese.

Molti progetti sono ancora in fase iniziale: oltre un terzo si trova nella fase di sperimentazione o prototipazione. In generale, l’orizzonte temporale dei progetti si colloca tra il 2023 e il 2027, ma emergono forti incertezze sulla loro effettiva scalabilità e conclusione nei tempi previsti.

Quali tecnologie e dati vengono usati

Sul piano tecnologico, domina il machine learning tradizionale. Tuttavia, si osserva una crescente diffusione di applicazioni di IA generativa, in particolare nei settori legati all’elaborazione del linguaggio naturale (NLP), come chatbot e assistenti virtuali. Queste soluzioni, adottate in oltre il 60% dei progetti, vengono utilizzate soprattutto per automatizzare interazioni e fornire risposte testuali o vocali agli utenti.

I modelli sono addestrati principalmente con dati interni alle amministrazioni, spesso non strutturati, ma in molti casi si fa anche uso di dati personali e sintetici. Preoccupante è la scarsa attenzione ai requisiti di qualità dei dati: pochi progetti si conformano agli standard ISO e solo una parte significativa applica KPI per valutare prestazioni o impatti reali.

Ostacoli strutturali e criticità trasversali

Nonostante il dinamismo, l’adozione dell’IA nella PA resta frammentata e spesso in fase sperimentale. Meno di un progetto su cinque ha definito KPI per misurare l’impatto delle soluzioni, segno di una visione strategica ancora debole. La qualità dei dati è uno dei principali punti critici: molte soluzioni si basano su dati interni, spesso non strutturati, e solo il 40% delle amministrazioni fa riferimento agli standard ISO/IEC 25012.

Anche sul piano delle competenze emergono criticità strutturali: oltre la metà delle attività progettuali è affidata a consulenti esterni, evidenziando una carenza interna che ostacola la costruzione di competenze stabili. I modelli di procurement sono spesso generalisti, senza procedure specifiche per l’IA, aumentando il rischio di dipendenza dai fornitori e rendendo difficile la scalabilità.

Le Linee Guida AGID: per un’IA pubblica trasparente, etica e sostenibile

Prima della ricognizione dei progetti in corso, l’Agenzia per l’Italia Digitale ha pubblicato a febbraio 2025 le Linee Guida per l’adozione dell’Intelligenza Artificiale nella Pubblica Amministrazione. Si tratta del primo documento organico dedicato a regolamentare lo sviluppo, l’acquisto e l’utilizzo dei sistemi di IA nel settore pubblico italiano. Non solo un riferimento operativo, ma anche un tentativo di orientare le scelte della PA verso un’intelligenza artificiale responsabile, trasparente e centrata sull’uomo.

Il documento copre l’intero ciclo di vita dei sistemi IA, dalla strategia al miglioramento continuo, e introduce strumenti pratici come checklist, valutazioni d’impatto, indicatori di performance e un codice etico. Il cuore del documento è rappresentato da 20 principi suddivisi in cinque categorie fondamentali:

  • Conformità e governance, per assicurare un quadro normativo chiaro e responsabile;
  • Etica e inclusione, per prevenire discriminazioni e tutelare i diritti fondamentali;
  • Qualità e affidabilità, a garanzia di accuratezza, sicurezza e prestazioni dei sistemi;
  • Innovazione e sostenibilità, che invita a soluzioni avanzate ma compatibili con l’ambiente;
  • Formazione e organizzazione, per colmare il gap di competenze nella PA.

Uno dei punti chiave è il principio di responsabilità diretta: le amministrazioni restano titolari del trattamento dei dati anche se i sistemi IA sono forniti da terzi, assumendosi pienamente gli obblighi di protezione, trasparenza e sicurezza delle informazioni. I cittadini devono essere chiaramente informati sull’uso di meccanismi decisionali automatizzati e avere la possibilità di comprenderne la logica.

In quest’ottica, le linee guida raccomandano la pubblicazione degli elenchi delle soluzioni IA in uso, per promuovere trasparenza e fiducia. Inoltre, per i sistemi considerati ad alto rischio, si prevede l’obbligo di effettuare valutazioni d’impatto sui diritti fondamentali (FRIA), oltre a quelle già previste per la protezione dei dati personali (DPIA).

Particolare attenzione è riservata alla necessità di evitare bias e discriminazioni algoritmiche: ogni decisione automatica deve essere supervisionabile da una persona, in base al principio del “human in the loop”, e l’equità del sistema va verificata periodicamente.

Anche la trasparenza ha un ruolo primario: i cittadini devono sapere se stanno interagendo con un umano o un algoritmo, e ogni decisione automatica deve poter essere supervisionata da una persona. L’uso dei dati personali è disciplinato con rigore, e per i sistemi ad alto rischio è prevista la valutazione d’impatto sui diritti fondamentali.

Le linee guida riconoscono inoltre molte delle criticità emerse nella rilevazione empirica: la scarsa qualità dei dati, la mancanza di KPI, le difficoltà nel procurement e la forte dipendenza da consulenti esterni sono tutti nodi affrontati attraverso raccomandazioni operative, come l’introduzione di gare dedicate, l’integrazione di strumenti di monitoraggio fin dall’inizio dei progetti e lo sviluppo di nuove figure interne come l’AI Officer o il Data Steward.

Visioni internazionali a confronto: tre report per capire il futuro dell’IA nel settore pubblico

A confermare e ampliare quanto emerso dall’indagine AGID e dalle Linee guida nazionali, arrivano anche tre importanti report internazionali che, da prospettive diverse, analizzano il ruolo dell’intelligenza artificiale nella trasformazione del settore pubblico: il Connected Government Report 2025 di Salesforce, The State of AI-Powered Transformation in Government di ServiceNow e Next Perspectives – Public Services 2025 di Sopra Steria. Pur con tagli differenti – più focalizzati su metriche e performance i primi due, più orientato alle tendenze europee il terzo – i tre documenti convergono nel delineare l’IA come forza trainante di una trasformazione complessa, ma necessaria.

Il report Salesforce parte da una constatazione netta: i cittadini si aspettano che i servizi pubblici abbiano la stessa qualità, velocità e personalizzazione delle migliori esperienze offerte dal settore privato. Secondo l’indagine, il 75% delle persone pretende che l’interazione con la PA sia semplice, fluida, accessibile 24/7 – proprio come accade con Apple, Amazon o Spotify.

In questo scenario, l’intelligenza artificiale – e in particolare la nuova frontiera degli “AI agent” – viene vista come un’opportunità per alleggerire il carico operativo dei dipendenti pubblici, migliorare la coerenza del servizio, rendere più accessibile la comunicazione multilingue e accelerare la risoluzione dei problemi.

Ma non mancano le difficoltà: dai carichi di lavoro insostenibili alla scarsa integrazione dei sistemi, fino alla bassa fiducia nella qualità dei dati (solo il 28% degli IT leader ritiene i propri dati “pronti per l’IA”). E se l’83% dei leader IT riconosce il potenziale dell’IA generativa, restano forti preoccupazioni etiche: il 73% dei cittadini teme un uso non corretto dell’IA e il 75% vuole sapere chiaramente se sta interagendo con un umano o con una macchina.

Il report ServiceNow introduce la categoria dei Pacesetter, quelle organizzazioni pubbliche – circa il 22% del campione globale – che stanno guidando la trasformazione digitale con maggior successo. A distinguerle è un approccio olistico: piattaforme tecnologiche unificate, automazione dei workflow, uso avanzato dell’IA per personalizzare i servizi, migliorare la gestione del rischio, rilevare frodi e ottimizzare la spesa IT.

Il valore aggiunto? L’IA viene integrata lungo tutta la catena del valore, non come strumento a sé stante, ma come parte di un ecosistema connesso che collega cittadini, dati, sistemi e processi. I Pacesetter puntano sulla migrazione al cloud, sull’uso di SaaS, su infrastrutture sicure e su una cultura digitale diffusa. Per molti di loro, sarà necessario introdurre nuove figure di governance come il Chief AI Officer e rafforzare la capacità di rispondere ai requisiti normativi e alle minacce cyber.

Con una visione più politica e sistemica, il report “Next Perspectives” di Sopra Steria esamina le dieci tendenze chiave che stanno ridisegnando i servizi pubblici in Europa. L’IA – soprattutto quella generativa – è vista come motore di efficienza, resilienza e inclusività, ma il suo impatto va interpretato insieme ad altri driver strutturali: identità digitale, gestione dei dati sanitari, green ICT e digitalizzazione dei processi decisionali.

Lo studio sottolinea il ruolo cruciale della PA nella promozione della sostenibilità ambientale, attraverso strumenti come l’eco-design software, la gestione dei dati ESG e la partecipazione a iniziative europee come la Green Digital Coalition. Interessanti anche i casi concreti: in Francia l’algoritmo “Albert” aiuta i funzionari nella sintesi documentale; in Germania un assistente virtuale è già operativo negli uffici pubblici; nel Regno Unito, l’automazione dell’1% dei processi nella PA potrebbe liberare l’equivalente di 1.200 anni/uomo all’anno.

Tuttavia, non mancano ostacoli: barriere culturali, difficoltà a passare dai piloti alla scalabilità, e un’adozione dell’open innovation ancora limitata dalla distanza tra startup e grandi organizzazioni pubbliche.

Nel complesso, i tre report convergono su un punto essenziale: l’adozione dell’IA nella pubblica amministrazione non è più una scelta tecnologica, ma una questione strategica, culturale e organizzativa. La sfida è duplice: da un lato, modernizzare i servizi rendendoli più efficienti, sicuri e personalizzati; dall’altro, preservare fiducia, trasparenza, equità e sostenibilità in un’epoca di profondo cambiamento.

Un’IA pubblica al servizio della fiducia e dello sviluppo

L’intelligenza artificiale non è solo uno strumento tecnico, ma una leva strategica per ripensare il rapporto tra cittadini e istituzioni. Se adottata con visione e responsabilità, può rendere i servizi pubblici più accessibili, personalizzati e inclusivi, migliorare la gestione dei dati e rafforzare la fiducia nel governo digitale. Ma questo richiede una governance solida, investimenti nelle competenze interne, dati affidabili, infrastrutture interoperabili e un impegno concreto per la sostenibilità ambientale.

La trasformazione digitale della PA non può fermarsi alla sperimentazione: deve diventare una politica pubblica a tutti gli effetti, capace di integrare tecnologia, etica, strategia e impatto sociale. Solo così l’IA potrà contribuire, davvero, allo sviluppo socio-economico del paese.

COMMENTI