Imposta come home page     Aggiungi ai preferiti

Decisioni amministrative automatizzate e riserva di umanità

di - 9 Marzo 2026
      Stampa Stampa      

Nuovamente il giudice amministrativo affronta il tema delle decisioni automatizzate, e ancora con riferimento all’istruzione.

Già la riforma della cd. Buona Scuola, l. 107 del 13 luglio 2015, aveva comportato un imponente quantitativo di ricorsi al TAR in ordine all’assegnazione delle sedi per i nuovi assunti o per i trasferimenti, e successivamente di appelli al Consiglio di Stato, che hanno portato ad importanti pronunce (Cons. St., sez. VI, 13 dicembre 2019, n. 8472; sez. VI 8 aprile 2019, n. 2270).

In riferimento a un concorso per la scuola secondaria, un candidato non vincitore ha contestato, tra l’altro, la mancata applicazione della riserva del 30%, prevista dal bando, per i candidati con almeno tre annualità di servizio, che avrebbe comportato l’attribuzione di ulteriore punteggio. Il candidato aveva dichiarato nella domanda le annualità di servizio, ma non aveva contrassegnato l’apposita opzione. Di conseguenza, il sistema non aveva considerato il candidato eleggibile per la quota di riserva indicata. La decisione amministrativa automatizzata quindi non aveva tenuto in conto il requisito posseduto, in quanto non ne aveva rilevato la relativa sussistenza.

La sentenza del TAR Lazio (sez. III-bis, 2 febbraio 2026, n. 1895) viene in soccorso del ricorrente poco diligente, e ricava, dalla sua dichiarazione del requisito, l’assenza di dubbi in ordine alla sua volontà di rientrare nella quota riservata.

La motivazione si incentra sul tentativo di traslare anche alle decisioni automatizzate impugnate i principi che si applicano alle procedure non automatizzate, utilizzando come stella polare il principio di riserva di umanità.

Il percorso logico è lineare. Si richiama il principio secondo cui, nelle procedure concorsuali, l’indicazione di un requisito in una parte “erronea” del modulo non ne preclude di per sé la valutazione: la giurisprudenza afferma infatti che la dichiarazione resa, al di là del nomen e della forma utilizzata, qualora sia completa dei requisiti di validità (ed efficacia) richiesti dalla normativa, impone all’amministrazione la relativa considerazione e valutazione, non potendo omettere il rilievo dei titoli in questione comunque allegati (T.A.R. Lazio, Roma, sez. II, 19 gennaio 2022, n. 636; Cons. Stato, sez. V, 25 marzo 2020, n. 2091).

Il TAR afferma che questo principio vada riferito anche alle procedure automatizzate, ma che non si possano applicare direttamente nè la recente legge italiana n. 132/2025 sull’intelligenza artificiale, né il Regolamento UE 2024/1689 (c.d. AI Act), visto che il bando era del 6 dicembre 2023 e il provvedimento del 26 novembre 2024: solo dal 2 agosto 2026 saranno infatti applicabili l’art. 6 e l’allegato III del Regolamento, i quali qualificano come “ad alto rischio” i sistemi di intelligenza artificiale utilizzati nei procedimenti di selezione, valutazione e accesso a impieghi pubblici e impongono una supervisione umana effettiva (ex art. 14), idonea a consentire il controllo, l’intervento e la correzione del funzionamento del sistema.

La preoccupazione del giudice diventa perciò quella di affermare che il principio di supervisione umana sia già rinvenibile nel nostro ordinamento. Per questo osserva che non possa essere data una interpretazione o una prassi incompatibile con la applicanda normazione europea. Per altro verso, richiama la normativa italiana, dalla Costituzione alla legge sul procedimento, al Codice dell’Amministrazione digitale, nonché la giurisprudenza, e in particolare quelle pronunce italiane prima citate, che avevano affermato come all’Amministrazione andasse conservato un potere di controllo e l’imputazione della decisione.

In conclusione, si afferma che il principio di autoresponsabilità del candidato, attenuato nelle procedure non automatizzate qualora sussistano sufficienti elementi a comprovarlo, deve valere anche nelle procedure algoritmiche in virtù del principio della riserva di umanità – human oversight.

La decisione è meritevole di interesse e suscita qualche riflessione.

In primo luogo, il giudice ha ritenuto fosse necessario di un fondamento per l’applicazione di un principio generale anche con riferimento alle procedure automatizzate. Ci si potrebbe chiedere se ce ne fosse bisogno. Non solo perché, se si tratta di un principio generale, appunto, lo si dovrebbe potere direttamente applicare, e considerare risolta la questione. In aggiunta, non vi era nessun argomento testuale che lo impedisse.

Ma vi è una ragione più profonda: l’automazione sempre maggiore richiede certamente nuove regole, ma al tempo stesso non può costituire un passo indietro rispetto a quei principi che costituiscono un patrimonio acquisito. Vale per i principi – in particolare- di trasparenza, partecipazione, motivazione, ma anche per altri quali, appunto, il soccorso del cittadino in funzione di riequilibrio del principio di autoresponsabilità. Detto altrimenti, va evitato il rischio che si possa vedere procedure automatizzate e non automatizzate come due generi diversi di azione amministrativa, per i quali servano principi e regole diverse, il che ovviamente non esclude che ciò possa avvenire in casi particolari. Nel caso di specie, la mancata lettura integrata della domanda del concorrente costituiva un errore, procedura automatizzata o meno.

In secondo luogo, alla ricerca di fondamenti normativi, il giudice fa riferimento all’IA Act e alla normativa nazionale, non ancora vigenti. Disposizioni utili alla causa in vigore sono presenti nell’ordinamento: si pensi al citatissimo art. 22 GDPR, che disciplina il processo decisionale automatizzato relativo alle persone fisiche, compresa la profilazione, che il Consiglio di Stato aveva richiamato per dare ingresso al cd. principio di non esclusività, o cd. Human in the loop, o cd. riserva di umanità. E in generale le sentenze citate del 2019 e del 2020 avevano citato diversi riferimenti normativi in vigore. In questo senso, appare che il Tar si sia voluto portare avanti, offrendo agli interpreti sia il quadro ordinamentale che a breve avranno a disposizione, sia indicazioni su come approcciarlo. In ogni caso, norme per affrontare queste questioni nell’ordinamento ci sono e possono essere usate.

In terzo luogo, il giudice ha segnalato i principi nazionali e comunitari pertinenti, appunto anche dalla normativa che presto sarà efficace, per affermare il principio di riserva di umanità. I principi indicati sono certamente corretti e utili.

Sul punto si deve tenere presente che, nella famosa questione sulla Buona Scuola, il Consiglio di Stato, pur condividendo le soluzioni alle quali era giunto il Tar, aveva adottato un approccio differente, affermando l’importanza e i benefici dell’automazione nell’attività amministrativa, rispetto ad un approccio del TAR Lazio più sospettoso.

In questo senso, sembra riecheggiare questo atteggiamento del Tar nella pronuncia in esame, allorché, nel richiamare le pronunce del Consiglio di Stato, le interpreta ritenendo che, secondo lo stesso, “l’utilizzo di procedure algoritmiche è legittimo solo se l’Amministrazione conserva un effettivo potere di controllo e di imputazione della decisione, restando esclusa l’adozione di determinazioni amministrative basate su meccanismi caratterizzati dalla mera automazione”.

L’adozione di determinazioni amministrative basate su meccanismi caratterizzate dalla mera automazione non sembra però da escludere, né da ritenere illegittima. Sarebbe forse più opportuno sottolineare come l’utilizzo di procedure algoritmiche sia legittimo ma come in ogni caso, in virtù dell’imputazione della decisione, l’Amministrazione deve potere esercitare e deve esercitare un effettivo potere di controllo.

In ultima analisi, questa pronuncia del TAR prepara gli interpreti all’avvento della disciplina unionale sull’Intelligenza artificiale. Ricordandoci come sarà essenziale il ruolo dell’essere umano, per raddrizzare le storture prodotte dalle rigidità e dai formalismi, umani e artificiali.


RICERCA

RICERCA AVANZATA


ApertaContrada.it Via Arenula, 29 – 00186 Roma – Tel: + 39 06 6990561 - Fax: +39 06 699191011 – Direttore Responsabile Filippo Satta - informativa privacy