Nuove tecnologie, sicurezza nazionale e diritti fondamentali: brevi considerazioni sull’utilizzo dell’AI nei controlli alle frontiere esterne dell’UE
Il 23 settembre 2020, con un comunicato stampa della Commissione, l’Unione europea annunciava “un nuovo inizio” della politica in materia di migrazione e asilo. Attraverso la presentazione del Nuovo Patto sulla migrazione e sull’asilo, l’obiettivo dichiarato era l’introduzione di rinnovate politiche di gestione dell’immigrazione irregolare, e di difesa delle frontiere esterne dell’Unione europea, fondate su un sistema di procedure prevedibile ed affidabile.
Il sistema previgente scontava, infatti, secondo quanto evidenziato dalla Commissione europea, l’assenza di soluzioni efficaci nell’approccio europeo alle migrazioni, con conseguenze sui singoli sistemi nazionali di asilo, integrazione o rimpatrio, incapaci di far fonte agli ingenti flussi che hanno colpito l’UE dal 2014.
Fra le soluzioni individuate dall’UE per ripristinare la fiducia degli Stati membri nella capacità di gestione europea del fenomeno migratorio rientra l’istituzione di procedure maggiormente efficienti e rapide, nell’ambito delle quali rilevano le attività di identificazione delle persone migranti che attraversano le frontiere esterne dell’UE. Il pacchetto normativo adottato in attuazione del Nuovo Patto e, in generale, le policies europee di gestione del fenomeno migratorio, sembrano celare, in ragione del raggiungimento di standard di efficienza e speditezza, un approccio securitario che permea anche la disciplina dell’impiego di sistemi dotati di intelligenza artificiale per i controlli svolti presso le frontiere esterne dell’UE.
L’identificazione tramite tecnologie avanzate e la raccolta di dati biometrici in appositi database per ragioni di sicurezza pubblica hanno costituito il perno del sistema europeo in materia di migrazione e di asilo. L’acquisizione delle impronte digitali per facilitare i controlli alle frontiere europee e contrastare l’immigrazione irregolare rientrava tra le previsioni originarie del Regolamento (CE) n. 2725/2000 che ha istituito il database Eurodac (Dattiloscopia europea). Alla banca dati Eurodac sono stati affiancati ulteriori sistemi, come il CIR (Archivio comune dei dati d’identità) ed il SIS II (Sistema d’informazione Schengen di seconda generazione), il cui funzionamento per finalità di sicurezza pubblica è stato rafforzato rispetto al previgente sistema SIS (Sistema informativo Schengen), introdotto dalla Convenzione di applicazione dell’Accordo di Schengen del 14 giugno 1985.
L’utilizzo di tecnologie avanzate, inclusi i sistemi di informazione su larga scala, rientra tra le strategie individuate dalla Commissione europea “per l’attuazione di un’efficace gestione europea integrata delle frontiere per il periodo 2023-2027”. Nella comunicazione del 14 marzo 2023, gli Stati membri vengono invitati ad assicurare il funzionamento dei riformati sistemi di informazione dell’Unione, inclusi i sistemi ETIAS, VIS e EES, e la loro interoperabilità. I provvedimenti attuativi del Nuovo Patto hanno infatti potenziato i sistemi di informazione dell’Unione, a partire dalla banca dati Eurodac, la cui sfera di applicazione è stata estesa a tutte le procedure di asilo e immigrazione, e non più soltanto alle procedure relative alle domande di protezione internazionale.
Il Regolamento (UE) 2024/903 riforma, inoltre, la precedente disciplina in materia di interoperabilità tra i sistemi di informazione dell’UE, nell’ottica di una maggiore affidabilità e precisione delle procedure in frontiera, obiettivo a cui è rivolto il pacchetto normativo attuativo del Patto sulla migrazione e sull’asilo.
Nel contesto descritto, la recente approvazione del Consiglio dell’UE il 21 maggio 2024 del Regolamento europeo 2024/1689, il c.d. AI Act, fornisce elementi rilevanti per formulare alcune brevi considerazioni sui rischi connessi all’impiego di sistemi dotati di AI per i diritti fondamentali delle persone migranti.
Il Regolamento europeo sull’AI classifica anzitutto l’utilizzo dei sistemi di tecnologia avanzata nella gestione della migrazione, dell’asilo e del controllo delle frontiere come una materia ad “alto rischio” di compressione della salute, della sicurezza e dei diritti fondamentali delle persone migranti. L’impiego di tecnologie avanzate potrebbe, infatti, incidere in particolare sui diritti alla libera circolazione, alla non discriminazione, alla protezione della vita privata e dei dati personali, alla buona amministrazione e alla protezione internazionale degli stranieri dal momento dell’arrivo in frontiera fino all’integrazione all’interno del territorio statale.
Il rischio individuato dal Regolamento è legato peraltro all’ambito oggettivo e soggettivo di applicazione delle tecnologie avanzate nel contesto della gestione dei flussi migratori alle frontiere esterne dell’UE. Come noto, il diritto dell’immigrazione presenta l’attitudine a svilupparsi tramite prassi amministrative e a svincolarsi dal dato normativo (Penasa, 2024). L’applicazione di tecnologie avanzate, apparentemente imparziale ed oggettiva, potrebbe invece rafforzare politiche di gestione migratoria che non sono supportate da una solida base legale.
Ulteriori interrogativi legati all’impiego di sistemi dotati di intelligenza artificiale nella gestione delle procedure nelle frontiere esterne dell’Unione sono sollevati dalla condizione di fragilità delle persone a cui si applicano, che, come evidenziato dal considerando n. 60 del Regolamento europeo sull’AI, rappresentano una categoria soggettiva che versa in una posizione di particolare vulnerabilità e “il cui futuro dipende dall’esito delle azioni delle autorità pubbliche competenti”.
Passando all’esame delle tecnologie avanzate progettate da studi finanziati dall’Unione, va subito notato che la Presidente della Commissione europea, Ursula von der Leyen, con una comunicazione in occasione del vertice d’azione sull’intelligenza artificiale tenutosi l’11 febbraio 2025 a Parigi, ha annunciato che l’UE investirà ulteriori 200 miliardi di euro.
Fra i progetti che potrebbero incidere significativamente sui diritti delle persone migranti che si presentano alle frontiere esterne si segnala iBorderctrl che prevede l’applicazione di sistemi in grado di valutare le emozioni della persona attraverso una tecnologia avanzata di riconoscimento facciale e l’analisi di diverse tipologie di dati (personali e biometrici). Si inseriscono nel progetto descritto anche dispositivi come l’Hidden Human Detection Tool, fondati su una tecnologia di controllo e di valutazione delle interviste delle persone migranti, svolte da parte di un avatar con sembianze umane, che misurerà la falsità o l’ingannevolezza delle risposte fornite, desumibile dai microgesti e dalle microespressioni non verbali delle persone intervistate. Il progetto, su cui l’Unione europea ha investito 4,5 milioni di euro, è stato già impiegato in fase di sperimentazione, che si è conclusa il 31 agosto 2019, in Ungheria, Lettonia e Grecia. Sono in fase di sviluppo anche sistemi in grado di valutare la pericolosità di una persona straniera o della sua attitudine a poter godere di forme di protezione internazionale, quali, ad esempio, Trespass, che è in grado di raccogliere le informazioni di un individuo provenienti dai social media e dal dark web al fine di stilare un “report di rischio” (Vedaschi, 2024).
L’allegato III del Regolamento sull’AI individua i sistemi che devono essere considerati “ad alto rischio”, per cui si prevede l’applicazione di ulteriori garanzie procedurali e sostanziali, fra i quali risultano: a) i poligrafi e i sistemi di intelligenza artificiale destinati a rilevare lo stato emotivo della persona; b) i sistemi destinati ad essere utilizzati dalle autorità pubbliche competenti per valutare un rischio, inclusi i timori per la sicurezza pubblica, generato da una persona che intende entrare o è entrata nel territorio di uno Stato membro; c) i sistemi utilizzati per l’assistenza delle autorità pubbliche nell’esame delle domande di asilo, visto o permesso di soggiorno, incluse valutazioni legate all’affidabilità degli elementi probatori; d) i sistemi utilizzati al fine di individuare, riconoscere e identificare persone fisiche, ad eccezione della verifica dei documenti di viaggio.
Risulta opportuno evidenziare, dunque, come i sistemi atti a dedurre le emozioni di una persona nell’ambito di attività di polizia e di gestione delle frontiere, come iBorderctrl, non siano stati inseriti tra i sistemi la cui applicazione è vietata, ma tra quelli che soggiacciono a garanzie ulteriori, che corrispondono in molti casi a valutazioni di rischio per la salute, la sicurezza e i diritti fondamentali della persona coinvolta elaborate da parte degli stessi fornitori del servizio.
I sistemi analizzati dimostrano la postura securitaria assunta dall’Unione europea nell’impiego di tecnologie avanzate per la gestione dei flussi migratori nelle frontiere esterne, presentando non pochi profili di criticità. È bene segnalare, in primo luogo, che le banche dati impiegate devono essere sorrette da una base legale, in osservanza della riserva di legge sancita all’art. 10, co. 2 e 3, Cost. per la disciplina della condizione giuridica dello straniero e delle condizioni del diritto di asilo. Come evidenziato da attenta dottrina (Biondi Dal Monte, 2024), sebbene il Regolamento sull’AI fornisca una base legale formale, permangono alcuni dubbi sul rispetto del principio di legalità sostanziale relativamente ai limiti di prevedibilità e di accessibilità del processo decisionale.
Peraltro, l’art. 6, co. 1, del disegno di legge con cui il Parlamento intende conferire delega legislativa al Governo in attuazione del Regolamento europeo sull’AI alimenta le incertezze sollevate, stabilendo che le attività svolte per scopi di sicurezza nazionale, cybersicurezza e di difesa nazionale vengano disciplinate dai regolamenti di cui all’art. 43 della l. 124/2007, ed affidando dunque l’intervento in materia esclusivamente a disposizioni di rango secondario. Se non può che confermarsi quanto sostenuto in sede dottrinaria sulla previsione all’art. 10, co. 2 e 3, Cost. di una riserva di legge relativa, è altrettanto ragionevole ritenere che la legge stabilisca quantomeno la normativa di principio. Il primo comma dell’art. 6 del d.d.l. fa salva, invece, l’applicazione del solo principio stabilito all’art. 3, co. 4, del medesimo disegno di legge, nel quale si stabilisce che “l’utilizzo di sistemi di intelligenza artificiale non deve pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica”, e non anche dell’intera disposizione sui princìpi generali che dovranno accompagnare l’utilizzo dei sistemi di AI.
A mo’ di esempio, il Regolamento (UE) 2024/1356, che rientra nelle misure attuative del Nuovo Patto, modifica il Regolamento (UE) 2018/1240, istitutivo del sistema europeo di informazione e di autorizzazione ai viaggi ETIAS, e stabilisce le condizioni per la consultazione per fini securitari dei dati ETIAS da parte delle autorità di controllo, come l’agenzia europea della guardia di frontiera e costiera (FRONTEX). Tuttavia, i Regolamenti europei che disciplinano il sistema ETIAS omettono di fornire una dettagliata base legale per l’elaborazione degli indicatori di rischio per la sicurezza pubblica che il migrante potrebbe rappresentare. Attività che è affidata all’agenzia europea che la esegue sulla base di una combinazione di dati, fra cui sono compresi l’età, il sesso, la cittadinanza, il paese di origine, livello di istruzione e l’attuale occupazione, e dei rischi genericamente individuati dalla Commissione europea.
In assenza di una previa definizione trasparente sulle modalità di funzionamento dei processi decisionali che accompagnano l’utilizzo di sistemi di IA automatizzati, il rischio è inoltre di non garantire l’effettività del diritto di difesa e del diritto ad un giusto processo di cui agli artt. 24 e 111 Cost. In verità, l’art. 10 dell’AI act ha introdotto l’obbligo per gli Stati di indagare sui presunti casi di violazione dei diritti fondamentali, assicurando l’avvio di un procedimento giudiziario. Tuttavia, si ritiene che la non conoscibilità del processo decisionale insito nel funzionamento dei sistemi dotati di AI potrebbe incidere sulla giustiziabilità dinanzi al giudice comune.
Infine, l’impiego di sistemi dotati di AI in ambito migratorio genera ulteriori ragioni di preoccupazione se si pensa alla tendenza di alcuni Stati membri di esternalizzare i controlli alle frontiere sul territorio di Paesi terzi. Si tratta di accordi in linea con le misure attuative del Nuovo Patto adottate dall’Unione europea, come confermato da una comunicazione dell’ottobre 2024 della Presidente della Commissione europea Ursula von der Leyen che ha definito l’accordo del Governo italiano con l’Albania un modello a cui l’Unione europea deve guardare. La delocalizzazione delle procedure delle domande di asilo in strutture sul territorio di Stati non appartenenti all’UE con standard di tutela al di sotto delle garanzie riconosciute dalle democrazie mature, come nel caso dell’accordo tra Regno Unito e Ruanda, e del Protocollo tra Italia e Albania, aumenta esponenzialmente il rischio di violazione di diritti fondamentali nelle procedure in frontiera supportate dall’impiego di sistemi dotati di intelligenza artificiale.
Bibliografia essenziale
- Biondi Dal monte, M. Forti, L. Ranieri (a cura di), Migrazioni e governance digitale. Persone e dati alle frontiere dell’Europa, Roma, 2024.
- C. Carta, La dimensione esterna della politica migratoria dell’Unione europea. Nuovo Patto: sempre più verso gli accordi e i “non-accordi” di esternalizzazione dei controlli e delle responsabilità, in Quaderni AISDUE, 4/2024, pp. 1-39.
- De Petris, Gli accordi bilaterali di esternalizzazione dei migranti: l’Occidente tra diritti umani, coerenza e sindrome Nimby, in Nomos. Le attualità del diritto, 2/2024, pp. 1-48.
- Penasa, Smart borders o invisible walls? L’utilizzo di sistemi “intelligenti” al confine tra politiche migratorie e garanzie per gli stranieri, in G. Del Turco, C. Milano, M. Savino, M. Tuozzo, D. Vitiello (a cura di), Annuario ADiM 2022. Raccolta di scritti di diritto dell’immigrazione, Napoli, 2023, pp. 52-67.
- Santomauro, Sistemi predittivi di IA per la gestione del fenomeno migratorio: luci ed ombre per i diritti dei richiedenti asilo, in F. Fabrizzi, L. Durst (a cura di), Le nuove frontiere del costituzionalismo nell’era dell’algoritmo, Napoli, 2024, pp. 109-124.
- Vedaschi, Sicurezza, immigrazione e radicalizzazione, in Coscienza e libertà, 67/2024, pp. 111-129.