Quando la pubblica amministrazione adotta un provvedimento con il supporto di sistemi di intelligenza artificiale, la responsabilità del funzionario non si riduce: la validazione umana rimane atto giuridicamente necessario e impugnabile. Chi difende o impugna atti amministrativi deve verificare se il procedimento ha rispettato i principi di istruttoria, motivazione e controllo umano previsti dalla disciplina vigente. Un atto adottato senza adeguata supervisione umana documentata espone l’amministrazione a vizi di legittimità contestabili in sede di ricorso al TAR.
Punti chiave
- La validazione umana dell’output AI è condizione di legittimità del provvedimento amministrativo.
- Il funzionario che firma resta responsabile anche se la decisione è assistita da algoritmi.
- L’assenza di istruttoria documentata sull’uso dell’AI configura un vizio procedimentale impugnabile.
Ogni volta che un’amministrazione pubblica usa un sistema di intelligenza artificiale per istruire o supportare un provvedimento, si apre uno spazio di contestazione che l’avvocato amministrativista deve saper presidiare. Il nodo non è l’AI in sé, ma la tracciabilità del processo decisionale: chi ha validato, quando, con quale competenza e con quale documentazione a supporto.
La Gazzetta degli Enti Locali evidenzia che nell’uso dell’AI da parte della PA restano irrinunciabili quattro pilastri: istruttoria, responsabilità, controllo e validazione umana. Il tema è operativo già oggi, non una questione futura.
Il contesto normativo
Il quadro di riferimento è stratificato. L’art. 3 della L. 241/1990 impone l’obbligo di motivazione del provvedimento amministrativo: un output algoritmico non motivato dal funzionario non soddisfa questo requisito. L’art. 6 della stessa legge disciplina i compiti del responsabile del procedimento, figura che non può delegare all’AI la valutazione degli interessi in gioco. Sul piano europeo, il Regolamento UE 2024/1689 (AI Act), applicabile progressivamente dal 2025 al 2027, classifica molti sistemi usati dalla PA come ad alto rischio (Allegato III), imponendo obblighi di supervisione umana, registrazione delle decisioni e valutazione di conformità. Il Consiglio di Stato, con sent. n. 2270/2019, aveva già stabilito che le decisioni amministrative algoritmiche devono essere trasparenti e giustiziabili: il principio vale a fortiori con i sistemi generativi attuali.
Cosa cambia per lo studio
- Impugnazione di atti assistiti da AI: nel ricorso al TAR, verifica se il provvedimento indica quale strumento AI è stato usato, chi ha validato l’output e se esiste un verbale di istruttoria. L’assenza di questi elementi integra un difetto di motivazione ex art. 3 L. 241/1990.
- Accesso agli atti: presenta istanza di accesso documentale o accesso civico generalizzato (art. 5 D.Lgs. 33/2013) per ottenere i log del sistema AI, i prompt usati e la documentazione della fase di controllo umano. Sono atti del procedimento a tutti gli effetti.
- Responsabilità del funzionario: nei procedimenti di danno erariale o in sede penale, la firma del funzionario su un atto basato su output AI non revisionato criticamente configura potenziale responsabilità per omissione di controllo. Argomento utile anche in sede di rivalsa.
- Consulenza a enti pubblici: se assisti una PA, predisponi una policy interna sull’uso dell’AI che documenti ogni fase di validazione umana. Riduce il rischio di annullamento in autotutela e di contenzioso.
- Contratti pubblici con componente AI: nelle gare che prevedono forniture o servizi AI per la PA, il capitolato deve includere clausole di audit, tracciabilità e responsabilità del fornitore in caso di output errato non rilevato.
Attenzione a
Non confondere automazione e AI generativa. La giurisprudenza del Consiglio di Stato sugli algoritmi (a partire dalla sent. n. 8472/2019) riguardava sistemi deterministici e trasparenti. I modelli generativi attuali producono output probabilistici e non sempre verificabili a posteriori: il livello di rischio procedurale è più alto, e i precedenti vanno usati con cautela come argomento.
Attenzione ai tempi dell’AI Act. Le disposizioni sugli obblighi per i sistemi ad alto rischio nella PA diventano pienamente operative nell’agosto 2026. Già oggi, però, i principi generali di trasparenza e supervisione umana previsti dagli artt. 13 e 14 del Regolamento UE 2024/1689 sono vigenti come criterio interpretativo nei ricorsi e nelle contestazioni sulla legittimità dei procedimenti.
Domande frequenti
Un atto amministrativo adottato con l’aiuto dell’AI può essere impugnato per difetto di motivazione?
Sì. Se il provvedimento non indica quale sistema AI è stato usato, chi ha validato l’output e come si è svolta l’istruttoria umana, manca la motivazione richiesta dall’art. 3 L. 241/1990. Il TAR può annullarlo per vizio procedimentale. La firma del funzionario non sana l’assenza di documentazione sul processo decisionale.
Come ottenere i log di un sistema AI usato dalla PA in un procedimento che mi riguarda?
Presenta istanza di accesso documentale ai sensi degli artt. 22 ss. L. 241/1990 o accesso civico generalizzato ex art. 5 D.Lgs. 33/2013. I log, i prompt e i record di validazione umana sono documenti del procedimento. In caso di diniego, il silenzio-rifiuto è impugnabile al TAR entro 30 giorni.
Il funzionario pubblico risponde anche se l’errore nel provvedimento dipende dall’output dell’AI?
Sì. La responsabilità del funzionario non si trasferisce al sistema AI né al fornitore del software. Chi firma il provvedimento è tenuto a controllare e validare l’output: omettere questo controllo configura responsabilità per colpa grave, rilevante sia in sede erariale (Corte dei Conti) sia eventualmente in sede penale.
Fonte di riferimento: GazzettaEntiLocali