Imposta come home page     Aggiungi ai preferiti

Fulvio Costantino, Note a margine di Pubbliche amministrazioni e intelligenza artificiale. Strumenti, principi e garanzie di M. B. Armiento, Napoli, 2025.

di - 27 Marzo 2025
      Stampa Stampa      

Il tema del ricorso da parte delle amministrazioni all’intelligenza artificiale sarà frutto di numerose analisi, a mano a mano che i poteri pubblici sempre di più la impiegheranno.

Appare sempre più difficile immaginare di potere abbracciare con un unico sguardo tutte le possibili applicazioni, in quanto l’utilizzo riguarderà l’attività autoritativa come la prestazione di servizi, e i vari settori presentano peculiarità (si pensi a quanto siano diverse la polizia predittiva, la lotta all’evasione fiscale, la regolazione dei mercati, la diagnostica per immagini).

Soprattutto in questa fase è utile delineare, o quantomeno evidenziare, i capisaldi che devono essere tenuti in considerazione nell’analisi giuridica di questo fenomeno.

Per un verso, perciò, c’è bisogno di saperne di più riguardo all’uso degli algoritmi nei diversi settori: una buona scelta è quella operata nel volume che si è avuto modo di esaminare, relativa al settore fiscale, laburistico, securitario.

Per altro verso, c’è bisogno di categorie e principi generali, per analizzare l’impatto dell’avvento dell’intelligenza artificiale sulle procedure amministrative, per ribadire e verificare il rilievo della trasparenza, dell’intervento umano, della responsabilità, fino a giungere all’esame delle implicazioni sulle forme di tutela, amministrative e giurisdizionali.

Il lavoro ci ricorda come si debba costantemente guardare al contesto internazionale, dove non appare ancora chiara l’opzione regolatoria: a livello nazionale ed eurounitario si attendono poi norme di applicazione, così come anche impieghi che consentano di capire meglio i confini da porre all’utilizzo dell’intelligenza artificiale.

Il cantiere legislativo è aperto, tra invocazioni di intervento e timori riguardo al possibile impatto negativo sull’evoluzione tecnologica, tra aspirazioni ad avere norme generali (si è tentato di rinvenire il fondamento generale dell’uso dell’IA nell’art. 22 GDPR o in altre norme) e la ricerca di soluzioni da rinvenire nelle norme settoriali che stanno fiorendo.

Come si evidenzia nel volume, il GDPR, al quale si è ricorsi in assenza di altre basi giuridiche, sembra applicarsi ai soli provvedimenti automatizzati; e l’IA act fornisce indicazioni operative chiare solo riguardo alle attività ad alto rischio. Troppo poco: potrebbe esserci proliferazione di normative settoriali anche laddove l’UE non fornisce garanzie generali, con il problema del rinvenimento di principi generali (180). In quest’ultimo senso, anche il Codice dei contratti, guardato con grande interesse dagli studiosi, è ritenuto inadeguato a soddisfare le istanze di conoscibilità e spiegabilità, in quanto non è richiesto che si precisino l’interesse pubblico in gioco, dati e logica degli algoritmi, il training e fino a che punto l’elaborazione sia determinante (226-228). Al tempo stesso, non bastano gli strumenti giuridici: si osserva che lo strumento principale intorno a cui ruota la logica regolatoria del fenomeno è quello (si osserva) “extra giuridico” della valutazione del rischio (58).

Sinora gli utilizzi esaminati in Italia sono qualificabili per lo più come a “rischio minimo” (181) e, se è condivisibile che non si vedano problematicità nell’uso organizzativo della IA nelle amministrazioni né nel riconoscere le garanzie del procedimento (170-171), al tempo stesso si mostra come il procedimento amministrativo sia inadeguato (13) e vada ripensato: probabilmente aggiornato, perché i principi noti siano applicabili anche a questo nuovo contesto. I princìpi enunciati dal giudice amministrativo nelle sentenze 2019-2020, si osserva giustamente che  appaiono inattuati (e forse già superati).

Difficile, tuttavia, misurare la temperatura del sistema. Si osserva come manchino studi sull’utilizzo dell’Intelligenza artificiale nelle amministrazioni italiane, laddove simili lavori sono invece presenti in altri ordinamenti (202). Indicativo in tal senso è quanto osservato in riferimento alle funzioni di ordine, rispetto alle quali dell’esistenza e del sommario funzionamento dei sistemi di intelligenza artificiale adottati si è venuti a conoscenza per mezzo di articoli giornalistici (79), e così si è appreso che essi sono stati predisposti per lo più da soggetti esterni, senza inoltre che si abbia alcuna notizia del livello di sorveglianza umana garantito (74). Più in generale, l’esempio è significativo dei problemi che vanno affrontati: servono trasparenza, sia riguardo all’uso dell’IA, che riguardo al funzionamento, e forme di controllo.

L’esame dei princìpi e delle questioni generali effettuato nel volume si colloca nel solco delle riflessioni sin qui esposte dalla dottrina, aggiungendo spunti interessanti: l’uso dell’intelligenza artificiale, come ulteriore frontiera della cd. rivoluzione dei dati, fa emergere i nervi scoperti del sistema. Ci si concentrerà sui profili dell’accesso, della partecipazione, della motivazione e della responsabilità.

Anzitutto, riguardo ai dati, si ripete spesso e correttamente come sia essenziale che essi siano precisi ed aggiornati: a tal riguardo si sottolinea la minore affidabilità dei dati raccolti sui social network (in quanto possono essere volutamente artificiosi, e andrebbero necessariamente contestualizzati); rimangono ovviamente noti i problemi, che possono riguardare già la fase della raccolta dei dati, dei possibili errori materiali, dei pregiudizi dei soggetti fornitori di dati stessi o dei programmatori (244-246).

I dati poi, come da tempo si è rilevato, sono usati anzitutto come supporto a decisioni endoprocedimentali o di attuazione (173), rispetto alle quali non è possibile l’impugnazione (175), mancando esse di imperatività e autoritarietà (175-176), e quindi le relative scelte risultano insindacabili (306), così come avviene per gli atti preparatori e non provvedimentali (307). Ma la scelta guidata dall’elaboratore di investigare in una determinata area, di effettuare determinati controlli, di prevedere un determinato evento, condizionano l’attività dell’amministrazione, spesso in modo decisivo. La preistruttoria e i controlli procedimentali sono particolarmente interessati da questa problematica (182-183).

Riguardo l’accesso ai dati, sono citati i noti problemi del rispetto della proprietà intellettuale, della qualificazione dell’accesso, che può avere riflessi sulla intensità della tutela, della difficoltà di comprensione della decisione a partire da dati numerosi e di difficile lettura (192-7): la trasparenza può così arrivare a generare confusione o essere “passiva” rispetto all’attività dell’interessato (208-210). Sul punto, appare evidente come il parametro più importante per valutare l’accesso diventi la comprensibilità.

In ordine alla partecipazione, che può essere utile sia nella fase preliminare che a valle di un intervento della macchina, si ribadisce la problematicità dell’assenza di partecipazione generalizzata, dei limiti per alcuni tipi di procedimenti, e della incompatibilità con le esigenze di celerità (197-200). Sul punto, si può osservare che il nostro ordinamento sente il peso della mancanza di una tradizione di notice and comment.

In ordine al diritto alla spiegazione della indicazione dell’elaboratore, i problemi riguardano e gli atti suscettibili di motivazione e le modalità con cui questa ultima dovrebbe essere fornita: per il primo verso, si ricorda giustamente che nella nostra legislazione sul procedimento la motivazione manca sia per atti endoprocedimentali che per carattere generale (190).  Per il secondo, si citano l’art. 22 GDPR, le Linee guida sui processi decisionali automatizzati del gruppo di lavoro art. 29, le quali ultime raccomandano di evitare complesse spiegazioni matematiche e di utilizzare metodi chiari e esaustivi, l’IA Act, che prevede varie informazioni che nel caso di sistemi ad alto rischio devono essere fornite, anche in ordine all’interpretazione dell’output del sistema (207). Correttamente, si insiste nel volume riguardo alla necessità che siano disponibili due livelli di informazione e di spiegazione, garantendo così l’esposizione in linguaggio non tecnico facilmente comprensibile, come avviene, ad esempio, per le valutazioni di impatto ambientale.

In ordine poi all’output dei sistemi di intelligenza artificiale, relativamente alla decisione automatizzata, ci si concentra sul cd. divieto di discriminazione: è condivisibile che, al di là di un numero limitato di casi, appaia più facile assistere ad ipotesi di violazione del principio di imparzialità, anche a causa di una non corretta programmazione (237-238), e che nell’ordinamento nazionale la discriminazione nelle decisioni pubbliche venga ad essere ricondotta alla figura sintomatica dell’eccesso di potere (254). Per prevenire le discriminazioni si ricorda come gli strumenti messi a disposizione, anche alla luce dell’IA act, sono l’audit (che dovrebbe essere svolto sui dati, in particolare sensibili, e da soggetti che, se privati, quantomeno siano scelti con metodi competitivi), l’analisi di impatto (su cui la disciplina UE si concentra maggiormente), l’uso stesso dell’IA.

In ordine infine alla sorveglianza, la determinazione precedente l’avvio dell’istruttoria in cui si decide dell’uso delle tecnologie non è contenuta in un regolamento, un atto generale, un bando; è anzi al di fuori di una cornice normativa. La sorveglianza pone il tema delle capacità di chi la dovrebbe effettuare (292), della difficoltà di ricorrere all’autotutela (ibidem), della soggezione nei confronti della macchina, ritenuta più performante ed affidabile dell’essere umano (291). Ci si deve, correttamente, affidare alla nuova e importante figura del data scientist (293), al controllo successivo (297), al monitoraggio (298). Sullo sfondo, si erge il tema dell’outsourcing e dei principi che l’amministrazione dovrebbe seguire di neutralità tecnologica, garantendo la trasparenza verso i concorrenti, un corretto bando di gara (222-223), e non dimenticando che si pone un problema di trasparenza e informazione anche in caso di autoproduzione (223-224).

Dal volume appare chiaro come l’intelligenza artificiale, del cui sempre maggiore impiego nessuno dubita, impegnerà gli studiosi nel segnalare i possibili rischi cui si andrà incontro e nel cercare soluzioni per confermare, aggiornare e rafforzare le conquiste sinora ottenute in termini di garanzie (accesso, partecipazione, motivazione, imparzialità, controlli), rispetto alle quali non si devono immaginare passi indietro.


RICERCA

RICERCA AVANZATA


ApertaContrada.it Via Arenula, 29 – 00186 Roma – Tel: + 39 06 6990561 - Fax: +39 06 699191011 – Direttore Responsabile Filippo Satta - informativa privacy