in collaborazione con LeggeZero, la newsletter che esplora e approfondisce le novità tra intelligenza artificiale (AI) e diritto, (scritta ancora da esseri umani)
L’Intelligenza artificiale nella Pubblica Amministrazione è entrata come uno strumento per velocizzare compiti ripetitivi ,a ora, ha decisamente superato se stessa. Le esperienze maturate a livello internazionale dimostrano che i sistemi di AI vengono impiegati (o si tenta di impiegarli quanto meno) proprio nelle attività dove si esercita discrezionalità tecnica, valutazione e responsabilità amministrativa. Viene da chiedersi quindi se l’intelligenza artificiale arriverà a sostituire davvero i dipendenti pubblici…
Tutto nelle “mani” dell’AI
La prontezza dei dipendenti pubblici fino a questo momento si trovava proprio nella capacità della PA di governare l’innovazione tecnologica senza perdere il controllo sui processi. Dal marketing digitale ai processi amministrativi: dove l’AI rischia di più.
Se c’era un limite, l’AI l’ha abbattuto addentrandosi in territori insospettabili: dal chatbot nominato Direttore Generale non umano per l’assistenza al cittadino nella Provincia di Buenos Aires fino all’assistente virtuale indicata come ministra per gli appalti in Albania.
Tuttavia, quando mancano risultati verificabili e strutture di governance chiare, si tratta spesso di operazioni di immagine più che di innovazione amministrativa reale. Per la PA, che opera attraverso atti formali, responsabilità giuridiche e verifiche di legittimità, la differenza tra annuncio e implementazione effettiva è sostanziale.

Più rilevanti sono i progetti che introducono l’AI in attività concrete facente parti della stratificata macchina amministrativa: controlli fiscali, prestazioni sanitarie, servizi sociali, regolazione. In questi casi non si tratta di automatizzare risposte standard, ma di affidare a sistemi algoritmici compiti che incidono su diritti, prestazioni, accesso a benefici.
Progetti di questo tipo dichiarano esplicitamente l’obiettivo di sostituire segmenti di istruttoria umana con controlli automatizzati. L’intento può essere legittimo, considerando il carico crescente di pratiche e la scarsità di risorse, ma i rischi sono inesauribili: in Perù un algoritmo ha escluso ingiustamente 81mila anziani da un programma pensionistico.
Leggi anche:
– Abbiamo ancora bisogno dei dipendenti pubblici? su Legge Zero #109.
Il rischio in ambito sanitario
In Finlandia, invece, il governo ha proposto di modificare la legge sull’assistenza sanitaria per consentire l’uso di tecnologie AI nella valutazione del bisogno sanitario nella sanità pubblica.
Qualche breve osservazione a riguardo: in ambito sanitario, affidare il primo contatto e il triage a sistemi di AI può ridurre i tempi e alleggerire i professionisti, liberando risorse per i casi complessi; ma sarebbe bene tenere in considerazione che il triage non è un’attività neutra: orienta il percorso di cura.
Se l’algoritmo sbaglia la valutazione, l’errore non è solo un disservizio ma un rischio clinico e un danno alla fiducia nell’istituzione. Quando l’AI opera nel primo contatto, l’Amministrazione deve definire con precisione dove si colloca la responsabilità, come gestire le eccezioni e come garantire che il sistema non diventi un filtro opaco.
Non sottovalutare le conseguenze dell’errore
I casi più significativi mostrano cosa accade quando l’umano esce dal processo. Un chatbot istituzionale che fornisce indicazioni errate a cittadini e imprese non è solo un prodotto mal progettato: è un problema di responsabilità amministrativa.
Nel rapporto tra Amministrazione e amministrato, una risposta scorretta può generare comportamenti non conformi, contenziosi, danni reputazionali. Quando l’errore riguarda diritti o prestazioni, l’impatto diventa sociale: sistemi che valutano condizioni di povertà con parametri incompleti possono escludere indebitamente persone fragili da programmi di sostegno.
L’algoritmo non sbaglia per negligenza, ma perché è stato costruito per leggere solo ciò che è misurabile, non ciò che è contestuale. Se il modello cattura i dati ma perde il contesto, l’ingiustizia diventa sistemica.
PER APPROFONDIRE:
– Riserva di umanità: il TAR limita l’intelligenza artificiale nei concorsi pubblici.
Come evitare l’errore
Da queste esperienze emerge un principio operativo: l’AI non sostituisce il giudizio amministrativo, è uno strumento di supporto che richiede più progettazione, non meno. Anche quando studi e benchmark promettono risparmi di tempo significativi, resta fuori dai calcoli una variabile critica: il tempo necessario a validare, verificare, contestare, correggere. In PA questo tempo non è un costo aggiuntivo: è garanzia di legittimità.
È la differenza tra un output “tecnicamente accettabile” e un atto amministrativo che regge al controllo. Il quadro normativo italiano ed europeo stabilisce che l’essere umano resta responsabile. Ma una responsabilità dichiarata formalmente non è sufficiente. Per renderla effettiva servono condizioni operative concrete.
– Processi riprogettati: l’AI non si inserisce in flussi già saturi senza modificarli; occorre ridisegnare il ciclo istruttorio, chiarendo cosa l’algoritmo può fare e cosa rimane a valutazione umana.
– Competenze diffuse (AI literacy): non solo per i tecnici informatici. Se un funzionario deve validare un output algoritmico, deve comprendere limiti, errori tipici, bias, ambiguità del sistema.
– Tempo e incentivi al controllo: se contestare la macchina rallenta il lavoro e aumenta il rischio personale, la tentazione sarà accettare l’output senza verifiche. Il controllo umano diventa rituale, non sostanziale.
Infine, resta una competenza che nessun algoritmo può sostituire: la capacità di applicare regole generali a casi particolari con equità e discernimento. In PA è la differenza tra applicazione procedurale e giustizia amministrativa quotidiana: riconoscere l’eccezione, leggere il contesto, assumersi la responsabilità di una scelta motivata.
La domanda da porsi non è quanto personale posso risparmiare, ma quale qualità amministrativa posso garantire. E soprattutto:
chi è davvero in grado di fermare la macchina quando sbaglia?

Scrivi un commento
Accedi per poter inserire un commento