Il nuovo potere conoscitivo pubblico. A propositivo del volume di Matteo Falcone, Ripensare il potere conoscitivo pubblico tra algoritmi e big data, Napoli, 2023.
La lettura del volume di Falcone fa emergere per un verso il disinteresse dimostrato finora verso l’importanza del potere conoscitivo pubblico, per altro verso la necessità di affrontare seriamente questo tema di fronte alla cd. rivoluzione dei dati.
Il ripensamento induce anche gli studiosi, spesso troppo concentrati a guardare alla decisione finale, quindi al provvedimento, e solo indirettamente alla fase istruttoria, a porre al centro della riflessione la gestione delle informazioni e dei dati che le amministrazioni hanno a disposizione e sulla base dei quali poi dovranno decidere. Peraltro, ora che si prospetta che le decisioni siano o possano essere conseguenza automatica di elaborazioni di dati e informazioni, si pone il problema di guardare con attenzione alle basi di dati, all’organizzazione che le gestisce e le elabora, alle regole che le disciplinano.
Serve, in altri termini, un regime adeguato dei dati pubblici e un’attenzione alla dimensione organizzativa del potere conoscitivo.
Il lavoro sottolinea come si debba indagare unitariamente il potere conoscitivo pubblico, tenendo in considerazione e l’aspetto organizzativo e il profilo relazionale, dal momento che la conoscenza sarà sempre più rispetto al passato, alla base delle decisioni. Inoltre, esso suggerisce di afffrontare questo potere “positivamente”, ricordando allo studioso, in particolare quello che si pone di fronte alle novità tecnologiche, di non guardare solo ai rischi ma anche alle opportunità all’orizzonte.
Una particolare sottolineatura è posta in particolare sul rischio che una eccessiva protezione dei dati personali possa limitare la capacità dell’amministrazione di agire per l’interesse collettivo (in particolare limitando il potere conoscitivo). Le recenti notizie di una possibile rinuncia di Apple o Meta all’impiego di modelli di intelligenza artificiale nell’area UE per l’incertezza riguardo alla possibilità di adempiere alla normativa in tema di protezione dei dati costituisce un fattore da tenere in considerazione: ci si deve chiedere infatti quale sia il livello accettabile di tutela che non impedisce il progresso o, sulla base di una valutazione costi-benefici non induce a rinunciare all’innovazione o, all’opposto, quali siano i confini che la raccolta e l’elaborazione dei dati non devono superare.
Nel settore pubblico si pongono dei problemi a monte organizzativi, illustrati del lavoro, relativi alla scelta di centralizzazione dei dati vs decentramento, e alla connessione delle banche dati: si affrontano quindi i profili della interoperabilità dei dati, della piattaforma nazionale dei dati, del coordinamento statistico informatico, previsto dalla nostra Costituzione come materia di competenza legislativa statale e che l’Autore suggerisce vada inteso come potere di determinare la politica di informatizzazione.
Riguardo a questi profili, per un verso si pone l’opportunità di consentire di dispiegare al massimo le potenzialità del potere conoscitivo dei dati, per altro verso si pongono i problemi della pervasività del controllo dei cittadini e delle garanzie contro gli abusi, sia per accessi non autorizzati che per il furto di dati. In questo senso lo studio va letto in parallelo agli interventi istituzionali e alla produzione scientifica che si occupa dei profili della cybersicurezza, del cloud e, più in generale, del tema della fiducia, sempre citato dai documenti della Commissione (https://commission.europa.eu/strategy-and-policy/priorities-2019-2024/europe-fit-digital-age/excellence-and-trust-artificial-intelligence_it).
Il volume tocca anche i nervi scoperti del tema: l’insufficienza degli investimenti nazionali e l’indebolimento della capacità conoscitiva pubblica. Su questo profilo non c’è bisogno di aggiungere riflessioni sofisticate: al di là della necessità di prevedere strumenti di aggiornamento per il personale incardinato, l’informatizzazione non può avvenire senza personale giovane adeguatamente preparato, con un retroterra tecnico-scientifico, e la digitalizzazione non può certamente avvenire senza impiego di ingenti e costanti risorse pubbliche.
L’errata impressione secondo cui l’uso degli algoritmi in funzione conoscitiva sarebbe un fenomeno meramente ipotetico e futuribile è smentito dalla illustrazione di alcune tra le esperienze italiane più significative, relative all’operato delle autorità indipendenti, alla programmazione statistica, alla pianificazione e all’intervento dei servizi pubblici, con il caso delle smart cities e, soprattutto, della sorveglianza epidemiologica durante la pandemia.
Gli esempi sono interessanti anche perché mostrano le conseguenze dell’adozione di questi strumenti: sono intervenute linee guida del Garante della tutela dei dati personali rispetto all’operato delle autorità indipendenti, a dimostrazione di come l’uso interroghi sulla necessità di regolamentazione; le sperimentazioni nel settore statistico sono state ritenute utili benché non pienamente rispettose dei requisiti di qualità de delle regole di armonizzazione della statistica ufficiale, a dimostrazione di come queste tecniche vadano maneggiate con cautela e possano spesso essere complementari e nonn sostitutive di altre prassi; la molteplicità di politiche di tracciamento nel periodo del Covid hanno mostrato come l’efficacia e la tutela possano e debbano essere bilanciate con grande attenzione, e come non si debba pensare che esista un unico modo di utilizzare gli algoritmi.
Dall’analisi emerge un potere conoscitivo pubblico di elevato contenuto tecnico, di portata estesa e approfondita ma, al tempo stesso, penetrante, opaco e non tipizzato, il che reclama l’intervento del legislatore.
Della seconda parte, dedicata a regole e limiti del potere conoscitivo, sono da porre in evidenza l’attenzione sulla rinnovata centralità della standardizzazione dell’atto amministrativo, e sull’ineffettività dei principi generali dell’azione amministrativa nella dinamica del potere conoscitivo.
Il primo aspetto è una conseguenza inevitabile del processo di informatizzazione, e va salutata con favore, in quanto in grado di migliorare l’efficienza e l’imparzialità. Tuttavia dovrà essere sempre (e sempre più) garantita la possibilità per il cittadino di rappresentare la singolarità del caso, di invocare un intervento umano, di richiedere un controllo in fieri. E, anche dal lato delle amministrazioni, dovrà essere salvaguardata l’autonomia, e anche la possibilità di discostarsi dagli atti standardizzati per meglio soddisfare le proprie esigenze, o di ottenere comunque degli adattamenti alla propria peculiarità.
Il secondo aspetto invece, oggetto di condivisibile riflessione, richiede uno sforzo degli studiosi di ripensamento dei principi della 241 in chiave evolutiva, che vada di pari passo con riforme dei testi normativi: le regole sull’istruttoria, le disposizioni sulla partecipazione ai procedimenti di carattere generale, l’art. 12 che fa riferimento alla predeterminazione dei criteri e delle modalità andranno perciò, se non riscritte, interpretate alla luce dell’evoluzione e delle norme che la disciplineranno (come è avvenuto rispetto agli istituti dell’accesso, che inducono oggi a una reinterpretazione del principio di trasparenza contenuto nell’art. 1 della l. 241).
Si aggiunge infine qualche considerazione a quanto riportato nelle conclusioni del lavoro: si fa riferimento alla necessità di “evidenza pubblica” dell’algoritmo, dal momento della predeterminazione a quello della predisposizione. In questo senso, sarà sempre meno accettabile che non sia consentito il controllo sulla fase preparatoria dell’intervento delle ICT, anche perché centralizzazione dei dati, standardizzazione degli atti e impiego diffuso di determinate tecnologie renderà il controllo ex post puntuale rispetto al rischio di lesioni generalizzate; peraltro, qualora si ritenesse ammissibile l’uso di sistemi di machine learning, il controllo ex post potrebbe essere impervio.
Nessun dubbio inoltre sulla necessità di rispetto delle garanzie procedimentali di partecipazione ed accesso nel corso dei procedimenti che fanno uso di algoritmi: ma anche qui bisognerà ragionare su come diventi cruciale l’attenzione ai dati, alle regole di elaborazione algoritmica, alle operazioni della macchina, alla fornitura di spiegazioni della logica dell’intervento in linguaggio non tecnico (come avviene per la valutazione di impatto ambientale).
In ordine ai principi e alle regole, è corretto invocare, come fa l’autore, un regime dei dati pubblici, affinché si possano produrre conoscenza, avere un’organizzazione orientata all’utilizzo del potere conoscitivo, introdurre nuovi saperi, preservare l’autonomia dai privati. Su questi punti c’è fermento, nel PNRR e nei disegni di legge nazionali, e non manca la consapevolezza della sfida da affrontare. Si tratta di controllare che i vari interventi siano fruttuosi e continui nel tempo.