top of page

L’IA e la giustizia: tra regolamentazione e applicazione pratica

Un articolo di Giuseppe Mangano e Guya Scaringi

Revisione di Carlo Matarazzo



Ad oggi l’Intelligenza Artificiale (IA) permea la maggior parte degli aspetti della vita quotidiana, basti pensare al settore sanitario (per analizzare i parametri vitali o per l’interpretazione delle immagini diagnostiche) o, più banalmente, agli assistenti vocali (ad esempio Alexa, di proprietà di Amazon) che rendono le case più “intelligenti”.

Essendo l’ambito dell’IA un settore sempre più preminente, ci sono molte incertezze e timori che vi gravitano intorno, riguardanti soprattutto il possibile impatto negativo sulla sicurezza personale o sui diritti fondamentali degli individui che ne facciano utilizzo.

Per questo motivo, già nel 2021, la Commissione Europea aveva proposto un piano normativo dell’UE che andasse a regolamentare il raggio d’azione dell’IA. Il tentativo della Commissione si è concretizzato con l’Artificial Intelligence (AI) Act, approvato il 21 maggio 2024.

 

L’Unione Europea ha adottato un approccio pionieristico con l'AI Act, entrato ufficialmente in vigore il 1º agosto 2024. Questo regolamento si distingue come il primo tentativo a livello mondiale di regolamentare in modo completo l'uso dell'intelligenza artificiale, affrontando le sfide etiche, tecniche e giuridiche poste dall'adozione di queste tecnologie. Si tratta di un passaggio fondamentale verso un’Europa più sicura e orientata all’innovazione, dove l'intelligenza artificiale non solo si pone l’obiettivo di guidare la trasformazione digitale, ma punta a farlo rispettando i diritti fondamentali dei cittadini​.

 

La legge si basa sui diversi livelli di rischio che i sistemi di IA possono comportare ai destinatari, ossia gli utenti.

L’UE ha individuato quattro livelli di rischio (minimo, limitato, alto e inaccettabile), costruendo per ognuno di essi un quadro normativo “su misura”. Di conseguenza, più il rischio di causare danni alla società è elevato, più severe saranno le regole per l’utilizzo di sistemi d’intelligenza artificiale. Il regolamento stabilisce inoltre che i sistemi di IA in grado di causare rischi inaccettabili per i diritti fondamentali, come quelli destinati alla manipolazione cognitiva o al controllo sociale di massa, vengano completamente proibiti.


Uno spazio per l’IA nel sistema giudiziario?

Uno dei campi di applicazione dell’IA più sensibili è senz’altro il sistema giudiziario. Infatti, negli ultimi anni è stata progettata una serie di algoritmi di IA in grado di costituire un grande supporto per la giustizia, in quanto in grado di analizzare grandi quantità di dati, siano essi testi legislativi, decisioni delle corti o provvedimenti giudiziari. Detti algoritmi risultano molto vantaggiosi quando adottati in supporto alla giustizia predittiva.

I sistemi considerati ad alto rischio e inaccettabili che interessano intrinsecamente la giustizia sono principalmente due: i sistemi di identificazione e categorizzazione biometrica di persone naturali, e i sistemi di assistenza nell’interpretazione e applicazione legale della legge.

 

Per quanto riguarda la prima categoria, la disciplina europea riconosce alcune eccezioni al ricorso da parte delle forze dell’ordine a questi sistemi. Infatti, affinché sia permesso l’uso dell’identificazione “in tempo reale”, sarà necessaria l’autorizzazione giudiziaria, e la pratica dovrà essere limitata nel tempo e nello spazio. Per i casi in cui l’identificazione avvenga dopo un significativo lasso di tempo, i sistemi di IA potranno essere utilizzati, sempre previa autorizzazione giudiziale, solo limitatamente al perseguimento di reati gravi.

In relazione ai sistemi di assistenza nell’interpretazione e applicazione delle leggi, sta giorno dopo giorno prendendo forma la nozione di machine learning.


Il machine learning (l’apprendimento automatico) è una branca dell'Intelligenza Artificiale che si occupa di creare sistemi che possono imparare dai dati che utilizzano autonomamente per migliorare le proprie performance. Questi sistemi, applicati al settore giudiziario, sono in grado di utilizzare algoritmi per elaborare database giuridici: sentenze passate, provvedimenti legislativi e contributi dottrinali, con l'obiettivo di snellire e accelerare le procedure, riducendo al minimo il carico di lavoro per l’essere umano.

L’ausilio di questa innovazione all’interno dei tribunali potrà quindi migliorare, da un punto di vista oggettivo, l’analisi quantitativa di dati.


Per quel che concerne, invece, l’analisi qualitativa dei dati, detto compito rimane nelle mani dell’essere umano, perché una macchina non è, attualmente, pienamente capace di comprendere la complessità delle azioni umane.


I possibili vantaggi…

Come detto, l’utilizzo di questi sistemi può portare numerosi vantaggi all’apparato giuridico europeo, anzitutto in termini di efficienza, rendendo assai più rapide le modalità di reperimento dati per esaminare i concreti casi giudiziari che di volta in volta si presentano dinanzi alle corti. L’intero sistema della giustizia, da sempre macchinoso nei suoi procedimenti, non può che giovare di nuove tecnologie in grado di snellirne le procedure, conferendo reale efficacia alle riforme che anno dopo anno ambiscono a questo risultato.


Inoltre, l’avvento di questi meccanismi, sulla carta, andrebbe ad azzerare il rischio di decisioni prese sulla base di giudizi di discrezionalità, nonché la possibilità che le corti conducano procedimenti giudiziari sulla base di previsioni inesatte. Non sono infatti così episodiche, nel corso della storia di ogni ordinamento giuridico, sentenze controverse, se non del tutto errate, che hanno mostrato la fallibilità dell’uomo, quand’anche portavoce del diritto, seppur questi abbia fatto affidamento a tutti i propri mezzi. Al contrario, l’intervento di sistemi altamente efficientati, che prescindono dai sentimenti e dal condizionamento storico-sociale, renderebbe pressoché nulle le eventualità di giudizi discrezionali o di erronee previsioni, garantendo maggiore coerenza nell’applicazione della legge.

Ancora, l’efficacia nel raccogliere ed esaminare tutti i dati necessari da parte dei sistemi di machine learning vedrà di gran lunga agevolata la possibilità per i cittadini di accedere alle risorse legali necessarie, una volta appresa la consapevolezza dei propri diritti, e consentirà anche di individuare i pregiudizi e le discriminazioni celati all’interno del sistema giudiziario.

 

Le decisioni dei giudici verrebbero dunque agevolate da assistenti altamente efficienti, in grado di fare molto di più in molto di meno, ed anche molto meglio.

 

…e le possibili problematiche 

Come già precisato, il machine learning gioca un ruolo prevalente nell’ambito della giustizia predittiva. Tuttavia, per comprendere al meglio gli svantaggi che interessano i sistemi di machine learning, è necessario chiarire tre concetti fondamentali: l’hotspot analysis, la network analysis e il public health approach.


Il primo concetto riflette una strategia basata sul calcolo “epidemic-type aftershock sequence”. Detto computo dà la probabilità che un evento accada, sulla base di eventi simili accaduti precedentemente. Vien da sé che più ci si avvicina al luogo in cui l’evento si è verificato in un primo momento, più aumenterà la possibilità di assistere nuovamente ad un evento simile.


Il secondo consiste in una metodologia più sistematica. L’approccio si avvale delle conoscenze e dei ruoli sociali degli individui per delineare dei possibili sospettati.

Il terzo e ultimo aspetto consiste in una strategia che va a focalizzarsi sulle caratteristiche di rischio di luoghi e persone. Infatti, determinate circostanze possono condurre a fattori di rischio, come quello criminale.


Le strategie appena illustrate comportano tuttavia un rischio non indifferente, ossia quello discriminatorio. Per fare un esempio, è noto come in molte città ci sono quartieri più controllati di altri, di conseguenza le probabilità calcolate su crimini passati saranno ingannevoli perché si concentrano su singole aree e non sull’intera città.

Ancora, è risaputo che nei luoghi più colpiti dalla povertà si registrano tendenzialmente un gran numero di cimini, principalmente quelli che coinvolgono la violenza. Questo fattore, tuttavia, non tiene conto di molti altri crimini non violenti e non correlabili alla povertà, ad esempio gli white collar crimes. Di conseguenza, determinate aree e crimini verranno presi di mira, mentre altri potrebbero essere negletti dal machine learning.


Un’ulteriore problematica riguarda indubbiamente i set di dati utilizzati dagli algoritmi impiegati in sede giudiziale. La questione si concentra inoltre sulla modalità per integrare nuove informazioninelle banche dati, le misure di sicurezza informatica e la designazione di un responsabile di detti dati.

Un’ultima considerazione da sviluppare è il carattere probatorio dei software in sede giudiziale. Per adesso, i dati possono costituire uno strumento probatorio testimoniale. Una critica che potrebbe essere sollevata riguardo alla giustizia predittiva è appunto il fatto che i sistemi impiegati non risultino più solo indicativi, ma prescrittivi per il giudice. Tuttavia, come già ribadito molte volte dalla ex Ministra Cartabia, i sistemi di IA non potranno mai andare a sostituire il giudice nella sua autorità.

 

Conclusione

L'introduzione dell'IA nei sistemi giudiziari rappresenta un’opportunità senza precedenti per migliorare l'efficienza e l'accessibilità della giustizia. Tuttavia, l’equilibrio tra innovazione e diritti fondamentali è delicato. Mentre l'IA può velocizzare i processi e ridurre i costi, è essenziale che l'umanità e la discrezionalità rimangano centrali nelle decisioni giudiziarie.

In questo senso, il quadro normativo europeo cerca di bilanciare l'adozione dell'IA con la protezione dei diritti fondamentali, imponendo che la trasparenza, la responsabilità e la supervisione umana siano sempre garantite​.

 

L’AI Act rappresenta una pietra miliare nella regolamentazione dell'intelligenza artificiale, destinata a influenzare profondamente l'intero ecosistema digitale europeo. Nei sistemi giudiziari, il regolamento sottolinea l'importanza di una supervisione umana costante e della trasparenza, mitigando i rischi legati all'automazione delle decisioni legali. Il futuro della giustizia, grazie all’IA, sarà senza dubbio più efficiente, ma la sfida sarà garantire che sia anche giusto e rispettoso dei diritti umani.



BIBLIOGRAFIA:

 


bottom of page