Imposta come home page     Aggiungi ai preferiti

 

Le nuove sfide della digitalizzazione

di - 22 Dicembre 2023
      Stampa Stampa      

Note a margine di Tecnica e potere nell’amministrazione per algoritmi di Alessandro di Martino, e di Buon andamento nell’amministrare e digitalizzazione: note di attualità e persistenti problematicità di un ‘inammissibile baratto’ di Vinicio Brigante.

  1. La prossima approvazione del cd. Regolamento sull’uso dell’Intelligenza Artificiale costringerà i giuristi a confrontarsi con un campo che però è stato già arato in questi anni da un nutrito novero di lavori, anche di diritto amministrativo[1].

Nel Regolamento si fa più volte riferimento all’uso dell’intelligenza artificiale ad opera delle amministrazioni, e dell’intelligenza artificiale si dà una nozione ampia: osserva la proposta che la definizione dovrebbe essere basata sulle principali caratteristiche funzionali dell’intelligenza artificiale, quali le sue capacità di apprendimento, ragionamento o modellizzazione, e andrebbe distinta da sistemi software e approcci di programmazione più semplici che utilizzano regole definite unicamente da persone fisiche per eseguire operazioni in modo automatico[2].

Si afferma che il regolamento non dovrebbe ostacolare lo sviluppo e l’utilizzo di approcci innovativi nella pubblica amministrazione, che trarrebbero beneficio da un uso più ampio di sistemi di IA conformi e sicuri, a condizione che tali sistemi non comportino un rischio alto per le persone fisiche e giuridiche[3].

A seconda del livello di rischio, diverse saranno le misure che dovranno essere adottate, in ordine alla gestione del rischio, dei controlli ex ante e in corso di utilizzo, agli obblighi di comunicazione, agli interventi da adottare.

Alcuni sistemi di IA saranno vietati: si pensi a quelli che permettono alle autorità pubbliche o ad attori privati di attribuire un punteggio sociale alle persone fisiche e possono portare a risultati discriminatori, così come a quelli di identificazione biometrica remota “in tempo reale” delle persone fisiche in spazi accessibili al pubblico a fini di attività di contrasto, al di fuori delle eccezioni previste[4].

Saranno classificati come “ad alto rischio” invece tutti i sistemi che possono incidere su salute, sicurezza e diritti fondamentali[5]. Nella proposta si fa riferimento all’istruzione e alla formazione professionale (in particolare per l’accesso), ai rapporti di lavoro, all’accesso a prestazioni e servizi pubblici essenziali, alle azioni delle autorità di contrasto alla criminalità, alla gestione dei migranti, dell’asilo e delle frontiere, all’amministrazione della giustizia e ai processi democratici[6].

Invece, se specificamente destinati a essere utilizzati per procedimenti amministrativi dalle autorità, non dovrebbero essere considerati ad alto rischio i sistemi di IA delle amministrazioni fiscali e doganali, come pure delle unità di informazione finanziaria che svolgono compiti amministrativi di analisi delle informazioni conformemente alla normativa antiriciclaggio dell’Unione[7].

Appare quindi evidente come un uso diffuso dell’IA è prossimo nelle pubbliche amministrazioni, il che pone il problema di adeguare la cassetta degli attrezzi ai mutamenti in atto.

  1. Se le conseguenze di questi processi rimangono da esaminare con attenzione, ed è corretto attendere di avere a disposizione il testo definitivo approvato per valutazioni più attente, abbiamo però già a disposizione un bagaglio di ricostruzioni, osservazioni, casi che potranno aiutare a districarsi con i grandi problemi che si dovranno affrontare.

Tra i lavori più recenti, a parte la nota monografia di Giovanni Gallone, sul principio di riserva di umanità[8], si sono aggiunti il più recente volume Tecnica e potere nell’amministrazione per algoritmi di Alessandro di Martino[9], e il saggio Buon andamento nell’amministrare e digitalizzazione: note di attualità e persistenti problematicità di un ‘inammissibile baratto’ di Vinicio Brigante[10].

2.1 Il lavoro di Di Martino, per potere correttamente inquadrare il tema dell’uso della tecnologia da parte dell’amministrazione, ripercorre il più generale tema del rapporto tra potere amministrativo e tecnica, richiamandone l’evoluzione nella dottrina italiana giuridica.

In ordine alla concezione della scienza, l’autore ci ricorda come si sia passati dal concepire la stessa come portatrice di verità, alla formazione del paradigma dell’incertezza delle valutazioni tecnico-scientifiche, fino alla situazione di instabilità delle tecnologie, soggette a continui mutamenti[11]: la ricostruzione ci ammonisce circa il pericolo di facili entusiasmi derivanti dal ricorso alla idea della tecnica neutrale[12].

In merito alla evoluzione del pensiero giuridico, Di Martino ripercorre le diverse ricostruzioni teoriche, a partire da quelle secondo cui la tecnica è considerata irrilevante rispetto al diritto, e giunge a esaminare lo scenario attuale, per osservare come la discrezionalità cd. pura “diventi” discrezionalità tecnica, in quanto la tecnica “più che porsi quale supporto dei poteri (…) amministrativi, si palesa come strumento di predeterminazione dei contenuti e degli effetti delle scelte politiche nella prospettiva del conseguimento di obiettivi di oggettività, certezza e neutralità”[13].

L’analisi dei rischi per l’arretramento della tutela è ben evidenziata: le parole d’ordine dell’efficienza e del risultato finirebbero per far arretrare considerevolmente la tutela dei cittadini, in particolare con il ricorso agli algoritmi non deterministici per l’adozione dei provvedimenti discrezionali e ancor più agli algoritmi machine learning, oggetto del regolamento in approvazione[14].

In queste ultime ipotesi i principi di partecipazione democratica[15], trasparenza[16], motivazione[17] e proporzionalità[18] riescono ad essere rispettati solo formalmente, e né il legislatore né tantomeno la stessa amministrazione sono in grado di garantirli: a ciò va aggiunta la carenza di risorse tecniche interne[19], nonché la tradizione di una certa cultura giuridica che – ad avviso di chi scrive – non sa dialogare con la tecnica[20]. In questo senso, l’esternalizzazione della produzione di strumenti informatici corre il rischio di tradursi in esternalizzazione della funzione amministrativa[21], come evidenziato nell’ultima sezione del lavoro, con pericoli di cattura dell’amministrazione[22], delegittimazione del potere pubblico[23], disattenzione per l’interesse pubblico[24] e deresponsabilizzazione dei decisori[25].

2.2 Anche Brigante pone di fronte allo studioso le evidenti criticità della dimensione digitale dell’attività amministrativa, a partire da quella conoscitiva, ove viene indotta l’illusione di un’amministrazione onnisciente[26], fino a quella decisionale, ove il rapporto tra algoritmo e attività amministrativa si muove “dall’ignoto all’imprescindibile”[27]. Il lavoro svela acutamente i rischi di arrendevolezza per la tutela dei diritti e delle garanzie[28].

Risultano particolarmente efficaci le pagine in cui l’autore segnala come la legge 241 del 1990 sul procedimento amministrativo, in ordine all’istruttoria, non solo non sia allineata con il Codice dell’Amministrazione Digitale (CAD), ma soprattutto non sia adeguata ad un’istruttoria che oggi può fare ricorso alle potenzialità dei big data[29]: la disciplina è così espressione di un mondo in cui l’istruttoria era cartacea, e la inappropriatezza di tale approccio incide sul buon andamento e sul processo di formazione della volontà dell’amministrazione.

  1. Il rischio di un rispetto solo formale del principio di legalità e dell’arretramento delle garanzie, se costituisce un problema per quanto riguarda i casi “semplici” di uso degli algoritmi, si porrà con ancora maggiore evidenza nei casi di apprendimento automatico, nei quali, per quanto si va delineando, gli elaboratori sono in grado di evidenziare essi stessi, sulla base di calcoli complessi e delle ingenti dati a disposizione, le inferenze e sono in grado di disporre da sé le regole da seguire per risolvere i problemi.

Il Regolamento sull’Intelligenza artificiale, salve alcune ipotesi di divieto, appare risolvere il problema del se questi strumenti possano essere impiegati, e si concentra sul come essi debbano essere impiegati, circondandone l’uso con molteplici cautele, nel caso di rischi elevati.

I principi di partecipazione, trasparenza, motivazione, tutela giurisdizionale dovranno essere rimeditati.

Per un verso non bisogna idealizzare come questi principi sono stati intesi ed applicati nella loro edizione tradizionale: la partecipazione consente solo un deposito di memorie e documenti, senza permettere un reale contraddittorio; la trasparenza, spesso pretestuosamente ostacolata, si è tradotta nella semplice messa a disposizione di documenti; la motivazione spesso si è ridotta ad un mero richiamo di atti e norme, con richiamo sintetico e superficiale alle osservazioni dei partecipanti.

Bisognerà tenere dritta la barra, e suggerire come consentire nuove ed efficaci forme di partecipazione, trasparenza, motivazione, tutela, anche con l’aiuto delle tecnologie.

Queste hanno condotto ad un aggiornamento, ad esempio, del diritto di accesso: lo stesso cd. accesso civico non sarebbe pensabile senza l’esistenza dei siti internet delle amministrazioni, e la stessa esistenza di internet ha favorito il sorgere di istanze che hanno indotto alla nascita di un istituto che, comunque, ha ampliato la nozione di trasparenza: si è così passati dalla trasparenza dei documenti alla trasparenza delle informazioni, dalla trasparenza della conoscibilità alla trasparenza della comprensibilità, solo per indicare due trasformazioni.

Oppure, in ordine alla motivazione, si è osservato come oggi si chieda giustamente di ripercorrere l’iter logico seguito dalla macchina, fino ad arrivare alle istruzioni di base impartite, laddove la mente umana è una macchina molto più oscura degli elaboratori, con l’effetto che anzi la macchina può rilevare dei pregiudizi umani insiti nelle decisioni, di cui altrimenti non avremmo evidenza, e di come la stessa possa aiutare a motivare in maniera più ricca gli atti amministrativi[30].

Quel che è certo è che non si può pensare di rinunciare alle garanzie conquistate, e anzi si tratterà di rafforzarle; non si potrà perciò prescindere dalla presa in carico delle osservazioni critiche effettuate da questi contributi scientifici, che arricchiscono il dibattito in corso su questi temi.

[1] https://www.consilium.europa.eu/it/press/press-releases/2023/12/09/artificial-intelligence-act-council-and-parliament-strike-a-deal-on-the-first-worldwide-rules-for-ai/

[2] Si fa riferimento all’ultima versione ufficiale della proposta attualmente disponibile, datata 6 dicembre 2022, eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52021PC0206, pag. 6.

[3] Ibidem, 29.

[4] Ibidem, 17.

[5] Ibidem, 15.

[6] Ibidem, 26 e ssg.

[7] Ibidem, 30.

[8] Del quale ci si è già occupati, in rivistaitalianaperlescienzegiuridiche.it/node/371

[9] Napoli, 2023.

[10] In Territori e istituzioni. Problemi e prospettive nel tempo della Ripartenza, a cura di G. Colombini, M. D’Orsogna, L. Giani, 2023, 259.

[11] A. Di Martino, Tecnica e potere nell’amministrazione per algoritmi, 27 ssg.

[12] Ibidem, 29 ssg.

[13] Ibidem, 120.

[14] Ex multis, 140.

[15] La quale è esaminata approfonditamente, 196, ssg. Si segnala anche, con una buona dose di realismo, quanto la partecipazione all’adozione della regola tecnica, dei cittadini “dilettanti”, che non hanno competenze tecniche, sia una garanzia solo formale, 205. Sui punti critici della partecipazione, si permetta di rinviare alla voce Open Government, Dig. Disc. Pubb., agg., Torino, 2015, 285.

[16] A. Di Martino, Tecnica e potere nell’amministrazione per algoritmi, cit., 187 ssg. L’A. ritorna poi sul punto 217 ssg.

[17] Ibidem, 260. In questo caso, due sono i ben evidenziati rischi da evitare: di essere indotti a ritenere la motivazione prescindibile (giustamente criticata a pag. 264, 267), o di ritenerla surrogabile dall’accesso al codice sorgente, e quindi rinviata a monte (criticata da pag. 265).

[18] Ibidem,219 ssg.

[19] Ibidem,240.

[20] Sulla necessità di un nuovo approccio, ibidem,246.

[21] Ibidem,240 ssg.

[22] Ibidem, 220.

[23] Ibidem, 260.

[24] Evidenziata, in ordine all’autotutela, ibidem, 272.

[25] Ibidem, 285.

[26] V. Brigante, op. cit., 285.

[27] Ibidem, 300.

[28] Ibidem, 306.

[29] Ibidem, 288.

[30] L. Torchia, Lo Stato digitale, Bologna, 2023, 141.


RICERCA

RICERCA AVANZATA


ApertaContrada.it Via Arenula, 29 – 00186 Roma – Tel: + 39 06 6990561 - Fax: +39 06 699191011 – Direttore Responsabile Filippo Satta - informativa privacy