L’intelligenza artificiale entra sempre più nei processi decisionali della Pubblica amministrazione, dalla gestione dei servizi digitali all’assegnazione di benefici, fino ai controlli fiscali. Ma insieme all’efficienza cresce il nodo della trasparenza: chi risponde delle decisioni prese da un algoritmo?
Dalla sperimentazione all’adozione strutturale
Negli ultimi anni l’uso dell’IA nella PA italiana ha registrato un’accelerazione significativa. Secondo rilevazioni istituzionali, decine di enti pubblici hanno già avviato progetti basati su algoritmi per migliorare l’erogazione dei servizi e l’interazione con cittadini e imprese. Le applicazioni spaziano dall’automazione delle pratiche amministrative ai sistemi predittivi per individuare anomalie fiscali o ottimizzare l’allocazione delle risorse. L’obiettivo è duplice: aumentare l’efficienza e ridurre tempi e costi operativi.
Il principio chiave: la decisione resta umana
Il quadro normativo italiano ed europeo si sta consolidando proprio per governare questa trasformazione. La legge italiana sull’IA del 2025 stabilisce un principio centrale: l’algoritmo può supportare, ma la responsabilità resta in capo alla persona. In altre parole, l’intelligenza artificiale è uno strumento istruttorio, non un decisore autonomo. Questo approccio mira a evitare derive di “algocrazia” e a preservare il controllo umano nei procedimenti amministrativi più delicati.
L’AI Act e la classificazione del rischio
A livello europeo, il Regolamento UE 2024/1689 (AI Act) introduce un sistema basato sul rischio, distinguendo tra applicazioni vietate, ad alto rischio e a rischio limitato. Molti utilizzi nella PA — come quelli legati a welfare, giustizia o sicurezza — rientrano nella categoria “ad alto rischio”. Per questi sistemi sono previsti obblighi stringenti: trasparenza, tracciabilità, qualità dei dati e supervisione umana.
Tuttavia, l’implementazione concreta del regolamento presenta ancora criticità operative e interpretative, tanto che a livello europeo sono già in discussione correttivi per semplificarne l’applicazione. Trasparenza e bias: il rischio di decisioni opache
Il punto più delicato riguarda la trasparenza degli algoritmi. I sistemi di IA devono essere comprensibili e verificabili, soprattutto quando incidono su diritti individuali.
Le linee guida etiche europee insistono su alcuni requisiti fondamentali: tracciabilità dei processi decisionali, assenza di discriminazioni e controllo umano. Il rischio, in assenza di adeguati controlli, è quello dei bias algoritmici: distorsioni nei dati o nei modelli che possono generare trattamenti ingiusti, ad esempio nell’assegnazione di sussidi o nei controlli fiscali. Non a caso, la normativa italiana vieta esplicitamente sistemi che producano discriminazioni e impone misure tecniche per prevenirle.
Oltre al profilo tecnologico, emerge una questione di governance. Le amministrazioni devono dotarsi di competenze nuove per progettare, gestire e controllare i sistemi di IA.
Le linee guida in fase di definizione insistono sul principio di “compliance by design”: gli algoritmi devono essere conformi alle norme fin dalla progettazione, integrando requisiti di sicurezza, protezione dei dati e auditabilità. Questo implica un ripensamento dei processi interni, con maggiore integrazione tra profili tecnici, giuridici e amministrativi.
Efficienza vs garanzie: un equilibrio ancora da costruire
L’intelligenza artificiale promette di rendere la PA più efficiente, predittiva e orientata al cittadino. Ma il suo utilizzo solleva interrogativi cruciali su diritti, trasparenza e responsabilità.
Il punto di equilibrio, sottolineano gli esperti, è nell’adozione di un modello “antropocentrico”: l’IA come supporto alle decisioni pubbliche, non come sostituto.
In questa prospettiva, la sfida non è solo tecnologica ma istituzionale. La credibilità dell’azione pubblica, infatti, passerà sempre più dalla capacità di rendere gli algoritmi non solo efficaci, ma anche comprensibili, controllabili e giusti.












