Dom. Lug 21st, 2024

Giustizia predittiva: può sostituirsi all’operato del giudice?

5/5 - (1 vote)

UNA CHIUSURA VERSO L’INNOVAZIONE – Uno dei tratti tipici del diritto più esaltati dai giuristi è la sua estrema flessibilità, cioè la sua capacità di adeguamento alle nuove esigenze di volta in volta poste dalla società civile. Il diritto alla pari di tutte le scienze rincorre e cerca di regolamentare per tempo le nuove fattispecie concrete emergenti. Il legislatore prova a fornire una risposta quanto più celere possibile ai nuovi interrogativi sociali posti, ma la risposta non sempre giunge in tempi ragionevoli, e allora quei “vuoti normativi” vengono tappati anzitempo dalla formidabile operazione interpretativa dei giudici. Questi ultimi, ormai, arrivano a dare risposte ancora prima che ci possa arrivare il diritto positivo.

 Fin quando si tratta di doversi adeguare a nuove esigenze o ai progressi sociali che non mettono in discussione l’opera d’intelletto umano di cui si serve il diritto, tutto procede tranquillamente. Ma quando arriva il momento di fronteggiare nuove realtà e l’avanzamento tecnico-scientifico che potrebbero mettere in discussione o persino sostituire l’attività degli operatori giuridici, ecco che ci si attesta su posizioni rigide e scettiche che rivendicano l’autenticità dell’opera umana quale unica e ineludibile fonte in grado di sfornare decisioni o pareri giuridici giusti e rispondenti al caso concreto, più di quanto non possa fare una macchina. Ma siamo davvero sicuri che sia così? Nel precedente articolo “Errore giudiziario, rischi e dubbi sull’infallibilità del giudice” è stato rimarcato come l’errore giudiziario sia sempre dietro l’angolo e il giudice deve essere particolarmente accorto nell’evitarlo in fase decisoria.

 Ma allora è possibile sostenere che l’uso dell’Intelligenza Artificiale possa essere un beneficio in quanto strumento in grado di evitare la verificazione dell’errore giudiziario? 

L’USO ATTUALE DELL’ESPERIENZA INFORMATICA IN AMBITO GIUDIZIARIO– Finora l’utilizzo dei sistemi informatici nell’ambito della giustizia si è limitato ad un contributo di natura meramente archivistico e documentale. Si pensi ai software di raccolta e sistemazione delle pronunce giurisprudenziali, che ormai sono così facili da reperire grazie ad un efficiente motore di ricerca nel quale basta inserire una parola-chiave per sollecitare il sistema che selezionerà una serie di pronunce afferenti alla parola digitata.

 Si guardi ancora al processo civile telematico, tanto caro durante il periodo pandemico, che consente lo scambio celere di note ed atti difensivi tra le parti, fino ad arrivare alla celebrazione di udienze da remoto che favoriscono l’accelerazione delle dinamiche processuali ed accorciano la distanza tra le parti che, molto spesso, può tradursi in un ostacolo al normale svolgimento delle attività processuali. 

 Un simile utilizzo dell’informatica agevola l’attività degli operatori del diritto e, proprio per questo motivo, essa viene sempre più incentivata e migliorata dalle diverse riforme processuali che si avvicendano nel tempo. 

L’ AI ACT – L’ansia di controllare e di non diventare subalterni dell’Intelligenza Artificiale, senza parlare della preoccupazione di prevenire conseguenze disastrose dall’uso smodato di tale tecnica spingono i legislatori a regolare il fenomeno. 

Ed è quanto accaduto in Parlamento europeo, che il 13 Marzo 2024 ha approvato l’AI act, vincolante per gli Stati membri UE. L’AI act diventerà definitivamente operativo entro 24 mesi dalla sua entrata in vigore, mentre il sistema dei divieti di utilizzo dei sistemi informatici a rischio inaccettabile sarà già operante entro sei mesi. 

L’Unione Europea è stata la prima al mondo a preoccuparsi di legiferare in tema di economia digitale, mettendo al centro di tutto la tutela dei diritti umani. L’AI act tenta di porre un bilanciamento tra l’esigenza di promuovere l’innovazione e l’esigenza di tutelare i diritti fondamentali. A tal fine, sono stati individuati quattro livelli di rischio dell’AI: inaccettabile, alto, limitato e minimo. 

 Le applicazioni che presentano un livello di rischio inaccettabile sono, a pena di irrogazione di una sanzione pecuniaria molto elevate, vietate. In particolare, sono proibite, in quanto contrastanti con i valori umani ed europei, le applicazioni di polizia predittiva, quelle ricognitive delle emozioni delle persone, le applicazioni in grado di sfruttare una caratteristica intima e vulnerabile di un soggetto e quelle che operano il riconoscimento biometrico in luoghi pubblici. I sistemi di riconoscimento biometrico, tuttavia, potranno essere impiegate con l’autorizzazione del giudice per le scomparse e per prevenire gli attacchi terroristici. 

Le applicazioni ad alto rischio, nelle quali rientra la giustizia predittiva, non sono vietate ma devono rispettare precise regole per poter essere utilizzate in modo legittimo: si richiedono, a tal fine, una precisa valutazione dei rischi e delle scelte tecniche ed etiche fatte; saranno altresì necessari la tutela della sicurezza informatica ed il controllo dell’algoritmo. L’AI act, infatti, stabilisce al paragrafo 40 che: “Alcuni sistemi di IA destinati all’amministrazione della giustizia e ai processi democratici dovrebbero essere classificati come sistemi ad alto rischio, in considerazione del loro impatto potenzialmente significativo sulla democrazia, sullo Stato di diritto, sulle libertà individuali e sul diritto a un ricorso effettivo e a un giudice imparziale. È in particolare opportuno, al fine di far fronte ai rischi di potenziali distorsioni, errori e opacità, classificare come ad alto rischio i sistemi di IA destinati ad assistere le autorità giudiziarie nelle attività di ricerca e interpretazione dei fatti e del diritto e nell’applicazione della legge a una serie concreta di fatti. Non è tuttavia opportuno estendere tale classificazione ai sistemi di IA destinati ad attività amministrative puramente accessorie, che non incidono sull’effettiva amministrazione della giustizia nei singoli casi, quali l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, la comunicazione tra il personale, i compiti amministrativi o l’assegnazione delle risorse”. 

 I diritti che il Parlamento europeo si premura di tutelare sono quelli rinvenienti dalla Carta dei diritti fondamentali dell’Unione Europea: il diritto alla dignità umana, alla protezione dei dati di carattere personale e al rispetto della vita privata, il diritto alla libertà di espressione, il diritto alla libertà di riunione, alla non discriminazione e alla parità tra uomo e donna, i diritti di difesa e il diritto ad un giudice imparziale

DEFINIZIONE E FUNZIONAMENTO DEI SISTEMI DI GIUSTIZIA PREDITTIVA – Ora ci si domanderà come mai la giustizia predittiva provochi tanti timori e perché non si riesca a coglierne gli aspetti benefici come quelli che hanno a che fare con la prevedibilità e la velocità nella redazione delle decisioni giudiziarie. 

I sistemi di giustizia predittiva non funzionano come le solite e comode banche dati perché, se le seconde si limitano a fornire un sapere enciclopedico nient’affatto innovativo, i primi al contrario riescono a generare una nuova risposta, cioè una decisione innovativa rispetto al caso sottoposto all’attenzione della macchina. La giustizia predittiva prende ed elabora i dati di input a propria disposizione, dopodiché fornisce una soluzione (output). 

 Quando si parla di giustizia predittiva è bene fare una distinzione tra i sistemi esperti e l’intelligenza artificiale basata su sistemi per l’apprendimento automatico

 Nei sistemi esperti la conoscenza viene instillata direttamente dall’uomo, tant’è vero che simili applicazioni generano sì nuove risposte, ma sempre in maniera circoscritta alle informazioni già presenti e originariamente inserite da un individuo. Ci sono dei limiti al funzionamento dei sistemi esperti, che di conseguenza diventano scarsamente utilizzabili ai fini delle attività predittive. I sistemi esperti possono anche eccellere in uno specifico settore, ma comunque difetteranno sempre per la mancanza di buon senso generale e di capacità intuitiva, tipici e propri invece di un individuo esperto. Il rischio cui concretamente si può incorrere è l’affidamento ad una decisione che, da un punto di vista tecnico sarà senz’altro corretta e incontestabile, ma che in realtà si rivelerà scarsamente utilizzabile e giusta per uno specifico caso che invece necessiterebbe di una decisione più empatica, equitativa e meno opaca. Un sistema esperto non possiede gli strumenti per fornire una decisione in grado di sintetizzare le particolari esigenze del caso concreto, senza parlare della sua incapacità di imparare dalle esperienze e decisioni pregresse. Le esperienze già sperimentate dalla macchina, infatti, non vengono immagazzinate nei big data a sua disposizione. Il suo funzionamento si risolve in una aggregazione di regole tecniche e non c’è modo di arricchire il suo background con le nuove esperienze da essa svolte.

 I sistemi per l’apprendimento automatico (o anche, machine learning), invece, costituiscono una forma di intelligenza artificiale più sofisticata in quanto sono dotati di una conoscenza acquisita autonomamente sulla base delle informazioni più importanti desunte dai dati di input. Il machine learning è caratterizzato dall’apprendimento continuo che avviene grazie alla introiezione di una serie innumerevoli di dati, anche provenienti dai cosiddetti server remoti. Tali sistemi funzionano secondo diverse forme di addestramento. 

C’è l’addestramento supervisionato che alimenta il sistema unicamente con dati tratti da decisioni corrette. Di conseguenza, il sistema sfornerà proposte di decisioni analoghe a quelle immesse nella macchina, con il rischio concreto di dare vita a una giurisprudenza statica, rigidamente ancora a precedenti triti e ritriti e senza possibilità di rinnovamento. 

I sistemi basati su un addestramento per rinforzo elaborano generano una proposta decisionale in modo autonomo, poi sarà l’uomo ad approvare o meno l’output creato dalla macchina. Quest’ultima immagazzina la risposta umana e regolerà per il futuro il proprio comportamento, adeguandosi ai valori e agli schemi logici espressi dalla scelta umana. 

L’addestramento non supervisionato, infine, vede sistemi che, grazie all’ausilio di innumerevoli dati, creano schemi logici e ragionati che fungeranno da base per nuove e future decisioni. 

IL TEST DI TURING – Il Consiglio di Stato ha definito l’Intelligenza Artificiale come “un sistema che non si limita solo ad applicare le regole software e i parametri preimpostati (come fa invece l’algoritmo ‘tradizionale’) ma, al contrario, elabora costantemente nuovi criteri di inferenza tra dati e assume decisioni efficienti sulla base di tali elaborazioni, secondo un processo di apprendimento automatico”. 

Stando così le cose, non ci sarebbe alcuna differenza tra il comportamento umano e quello della macchina, giacché entrambi sarebbero in grado di montare un ragionamento logico e razionale che permetterebbe loro di desumere una verità/output da un’altra verità/input. Ma non è quello che è emerso dai risultati del Test di Turing, perché una differenza tra uomo e macchina c’è e non bisogna ignorarla, soprattutto a fronte dell’esercizio di attività importanti come la statuizione della giustizia

Una delle perplessità rispetto al funzionamento intrinseco dell’Intelligenza Artificiale e che dovrebbero redarguirci da un suo uso irrefrenabile è stato espresso dal test di Turing, che ha l’obiettivo di accertare quanto la macchina sia in grado di avvicinarsi e di equipararsi al funzionamento dell’intelligenza umana. Il test si svolge collocando un uomo in un posto isolato, mentre un altro uomo ed una macchina saranno collocati in un altro posto isolato. Il primo uomo pone delle domande al secondo uomo e alla macchina e se non sarà in grado di discernere quale sia la risposta fornita dal secondo uomo e quale quella data dalla macchina, solo allora si potrà dire che la macchina abbia superato il test di Turing con ottimi risultati. 

In uno di tali esperimenti effettuati la società OpenAI Inc. ha posto una domanda a ChatGPT: “Il veicolo non entra nel parcheggio perché è troppo piccolo. Che cosa è troppo piccolo?”, il sistema ha risposto che “Il veicolo è troppo piccolo. Potrebbe essere che il veicolo sia troppo corto o stretto per il parcheggio”. 

Il sistema non ha compreso il significato della proposizione che precede la domanda, non è stato in grado di individuare il senso semantico del verbo “entrare”, giungendo ad una risposta fallace, poiché dettata unicamente da un ragionamento logico e sintattico intorno all’intera frase. Il sistema ha ragionato alla stregua delle sole regole a sua disposizione, cioè le regole sintattiche. Il problema è che si tratta di un ragionamento a metà, perché è carente di quella sensibilità ermeneutica non suscettibile di essere impressa all’interno di una macchina e che appartiene solo all’intelligenza umana. L’intelligenza umana è in grado di carpire il diverso modo semantico attraverso cui il verbo “entrare” è stato impiegato all’interno di tale frase, l’intelletto umano non ha bisogno che il soggetto venga specificato nella seconda proposizione per capire che è il parcheggio ad essere troppo piccolo. Questa sensibilità semantica è intrasmissibile all’interno di un sistema informatico. 

Tali bug, tuttavia, sono destinati ad essere superati grazie ai sofisticati meccanismi di funzionamento delle machines learning, grazie ai quali il divario tra intelligenza artificiale e l’intelligenza umana si fa sempre più sottile fino a scomparire.

L’ENIGMATICITÁ DEL RAGIONAMENTO LOGICO-GIURIDICO DEI SOFTWARE DI GIUSTIZIA PREDITTIVA – L’obbligo del giudice di motivare le proprie decisioni è espresso a più riprese in diverse disposizioni normative: l’art. 111 della Costituzione, l’art. 132 del codice di procedura civile e l’art. 546 del codice di procedura penale. La motivazione del dispositivo deve essere completa, esauriente e non apparente. Occorre che il giudice si premuri di illustrare la “concisa esposizione dei motivi di fatto e di diritto su cui la decisione è fondata”, con ciò intendendo il dovere del giudice di esternare, di rendere palese tutto il procedimento enunciativo e motivazionale che lo ha portato a quella statuizione giudiziaria. 

 Tutto l’iter logico-argomentativo seguito dal giudice deve essere esternato nella sentenza, non potendo rimanere all’oscuro delle parti e dei difensori. Ciò è fondamentale tanto per la garanzia di terzietà e indipendenza del giudice che ha deciso, quanto per la tutela delle ragioni difensive delle parti, ove mai queste vorranno contestare il contenuto della sentenza. 

 Proprio in relazione ad un simile principio irrinunciabile, ecco che i sistemi di intelligenza artificiale esprimono tutta la loro problematicità ad aderire a tale obbligo del giudice. Infatti, mentre i dati di input e l’output generato dal software informatico sono agevolmente conoscibili, non è dato invece avere conoscenza del meccanismo causale interno che lega l’input e l’output. I sistemi di giustizia predittiva, così, forniscono la soluzione al caso ma non l’iter logico-motivazionale posto alla base della decisione che resta una dimensione buia e insondabile da parte del giudice. Quest’ultimo, versando nell’impossibilità di conoscere i meccanismi computazionali interni che hanno condotto la macchina a formulare quella proposta di decisione, si trova ad un bivio: compiere lo slancio di fede ed adottare la soluzione posta dalla macchina in nome dell’esigenza di velocizzazione dei tempi del processo, o riprendere la penna e il fascicolo per scrivere una decisione pensata dall’intelletto umano con tanto di motivazione, a tutela dell’obbligo di motivazione delle sentenze?

di Maria Lucia Tocci

Studiosa del diritto. Attivista per la pace e per i diritti civili.

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *