INTELLIGENZA ARTIFICIALE E LOTTA CONTRO IL CRIMINE

Autore: Dott.ssa Laura De Rose, Vice Direttore Foroeuropa

 

Di fronte al rapido sviluppo tecnologico dell'Intelligenza Artificiale (IA) e a un contesto politico in cui sempre più paesi stanno investendo massicciamente nell'IA, il compito dell'Unione è quello di incoraggiare uno sviluppo comune in questo importante settore, al fine di sfruttare al meglio le opportunità tecnologiche e di affrontare le sfide dell'IA in un quadro coerente e armonizzato fra i paesi membri, anche rispetto all’uso dell’IA per la sicurezza dell’UE, ovvero nelle attività di contrasto del terrorismo e del crimine organizzato.

In questo quadro, a fine aprile, la Commissione ha presentato una proposta di regolamento sull'IA nonché una proposta per lo sviluppo di una politica europea comune in questo campo (entrambe possono scaricarsi su questo sito).

Questa nota per ForoEuropa tratta in particolare dell’uso dell’IA da parte delle autorità di contrasto e le problematiche relative ai rischi dell’IA per i diritti individuali, un aspetto che sarà specificamente discusso durante la prossima riunione del Consiglio giustizia e affari interni dell’UE (8-9 giugno 2021).

Uno degli obiettivi della proposta di regolamento è garantire un uso affidabile dell'IA attraverso la categorizzazione di sistemi e usi vietati (con alcune eccezioni per le autorità di contrasto), e di definizioni e standard per i sistemi considerati ad alto rischio e rilevanti al fine di un quadro di conformità.  

I negoziati su questa parte della proposta si annunciano difficili, poiché diversi paesi membri, mentre chiedono autonomia strategica e leadership digitale dell’UE, insistono anche sulla necessità di trovare un equilibrio ragionevole tra i rischi intrinseci dei prodotti e uso dell’IA, in particolare rispetto ai diritti e libertà fondamentali garantiti dalla Carta dell’UE, e le nuove opportunità offerte dall’innovazione tecnologica. In un documento comune dell'ottobre 2020, 14 paesi membri hanno ricordato che un approccio europeo all'IA deve essere equilibrato, tenendo conto delle opportunità e del potenziale offerto dall'IA in diversi settori. Inoltre, il documento ricorda che "i rischi gravi non possono essere determinati esclusivamente dal settore e dall'applicazione in cui viene utilizzata l'applicazione di IA", ma che è necessario considerare anche l’impatto potenziale e la probabilità dei rischi (il documento può essere scaricato su questo sito).

Innanzitutto, la proposta di regolamento vieta, in ragione dei diritti fondamentali, l’uso di alcuni sistemi di IA, quali, per esempio, quelli volti a influenzare il comportamento umano, o a sfruttare le informazioni per colpire le vulnerabilità, o a sviluppare forme di ‘punteggio sociale’.

Altri sistemi di IA possono essere utilizzati a determinate condizioni. In particolare, mentre i sistemi di IA per l'identificazione biometrica a distanza (RBI) "in tempo reale" e "post" delle persone fisiche sono classificati come sistemi ad alto rischio, e quindi utilizzabili purché siano rispettati i requisiti che ne derivano, l'uso di sistemi RBI "in tempo reale" negli spazi pubblici ai fini delle forze dell'ordine, come l'uso di strumenti di riconoscimento facciale "in tempo reale", sarebbe vietato in linea di principio, a causa dei maggiori rischi per i diritti e le libertà degli interessati. Esistono tuttavia eccezioni specifiche a questo divieto e possono essere classificate in tre gruppi: situazioni che comportano la ricerca di specifiche potenziali vittime di reato (ad esempio, caso di minore scomparso); prevenzione di una minaccia specifica, sostanziale e imminente alla vita o all'incolumità fisica delle persone fisiche o di un attacco terroristico; e l'individuazione, la localizzazione, l'identificazione o il perseguimento degli autori o dei sospettati dei reati di cui alla decisione quadro 2002/584/GAI del Consiglio.

Inoltre, ogni singolo uso sarebbe soggetto ad una preventiva autorizzazione rilasciata da un'autorità giudiziaria o da un'autorità amministrativa indipendente, a meno che il caso non sia qualificato come urgente.

Nell’esaminare la proposta di regolamento sarà essenziale valutare i suddetti divieti e proposte eccezioni alla luce dell’esperienza non solo delle autorità nazionali di contrasto ma anche di Europol, poiché questa Agenzia dell’UE ha il preciso ruolo di studiare il modus operandi delle associazioni criminali e i trends del crimine sul territorio dell’UE in una prospettiva globale, che abbraccia i reati transnazionali nelle forme più gravi, nonché la lotta al terrorismo.

La proposta di regolamento prevede che il grado di interferenza con i diritti fondamentali sia uno dei criteri da seguire per valutare il potenziale danno che un sistema di IA potrebbe causare, onde qualificarlo come sistema ad alto rischio. I sistemi ad alto rischio sono elencati in un allegato specifico della proposta di regolamento. Tra questi figurano vari strumenti utilizzati dalle autorità di contrasto, per esempio i poligrafi, nonché gli strumenti volti a rilevare falsi gravi, a valutare l'affidabilità delle prove, a prevedere il verificarsi di un reato, o a permettere il profiling, e altre tecniche di analisi del crimine.

La proposta, inoltre, prevede una vasta gamma di obblighi per gli operatori (fornitori e utenti) di un sistema di IA ad alto rischio. Tali obblighi includono requisiti relativi alla qualità dei dati usati per i test tecnici, alla documentazione e archiviazione delle informazioni relative all’uso dei sistemi, alla trasparenza, ai controlli, all’accuratezza dei risultati e alla sicurezza, nonché l’obbligo di registrare ciascun sistema in una banca gestita dalla Commissione Europea. La proposta include anche un obbligo generale per i fornitori di sviluppare meccanismi atti a verificare la qualità dei prodotti IA e a gestire i rischi.

A livello nazionale, i paesi membri dovranno designare una o più autorità competenti e, tra queste, un'autorità nazionale di controllo al fine di vigilare sull'applicazione e attuazione del futuro regolamento. È importante notare che anche gli strumenti IA utilizzati dalle Agenzie che operano nell’area della sicurezza dell’UE, quali Europol, Frontex e eu-LISA, rientrerebbero nell'ambito di applicazione del regolamento, quindi la classificazione di determinati sistemi e strumenti IA quali strumenti ad alto rischio influirà anche su di esse. Inoltre, il Garante europeo della protezione dei dati agirebbe in qualità di autorità di vigilanza sulle istituzioni, le Agenzie e gli organi dell'Unione rispetto alle attività che ricadono nell'ambito di campo di applicazione del regolamento.

Alcuni aspetti specifici, quali le implicazioni della categorizzazione ad alto rischio di alcuni sistemi IA che sono componenti di sistemi creati e gestiti da eu-LISA, per esempio nel quadro del programma dell’UE sull’interoperabilità, dovranno essere studiati più da vicino.

Come accennato, un aspetto particolarmente complesso nei prossimi negoziati su questo progetto di regolamento - che sarà il primo in materia -  sarà la questione di come raggiungere un equilibrio tra l’obbligo imprescindibile di tutelare i diritti fondamentali e la necessità di permettere alla autorità di contrasto di utilizzare e sviluppare sistemi di IA in linea con gli sviluppi della tecnologia e il loro impatto globale sulla società, al fine di agire più efficacemente contro il crimine e quindi garantire meglio la sicurezza dei cittadini. A tal fine, è assolutamente necessario rispondere alla sfida dello sfruttamento dello sviluppo tecnologico da parte dei criminali permettendo alle autorità di contrasto di utilizzare strumenti adeguati, inclusi sistemi IA considerati ad alto rischio.

Raggiungere delle soluzioni giuridiche equilibrate e flessibili, le quali dovrebbero anche includere norme volte a garantire un ruolo più responsabile del settore privato nei confronti delle esigenze delle autorità di contrasto, è quindi uno dei punti più critici della proposta, nonché uno dei fattori essenziali per il suo successo.