L’uso dell’intelligenza artificiale nel mondo della giustizia: uno sguardo agli studi legali – RLF Express 20-2023

RLF Express 20 – 2023

L’applicazione dell’intelligenza artificiale al mondo giuridico vive, ad oggi, una notevole fase di incontro/scontro. È noto che ormai diversi studi legali ricorrano alla Legal Artificial Intelligence per farsi sostituire nei semplici compiti rutinari, tuttavia vi è anche chi si spinge oltre, ovvero all’utilizzo della cosiddetta “Generative AI” (GenAI). Quest’ultima rappresenta una sottoclasse avanzata dell’intelligenza artificiale, distinta per la sua capacità di generare nuovi dati da set di dati esistenti, che si insidia nel settore legale offrendo potenzialità senza precedenti: può, infatti, essere programmata per eseguire attività che vanno dalla semplice categorizzazione di documenti, alla generazione di testo legale per contratti o atti. Leggiamo che diversi studi legali si sono datati del chatbot legale, ovvero di un assistente digitale già addestrato con migliaia di documenti d’ausilio per le argomentazioni di un caso giudiziario.

L’intelligenza artificiale applicata al settore legale può essere di grande vantaggio se consente di automatizzare alcune attività meramente seriali o inferiori, come la consultazione di fascicoli molto voluminosi, con il conseguente risparmio anche di tempo. Vi potrebbe essere anche il vantaggio di poter ottenere una maggiore prevedibilità dell’esito delle sentenze.

A destare grandi preoccupazioni, però, è l’utilizzo della GenAI, dal momento che non tutte le decisioni automatizzate sono logiche e corrette. Trattasi di uno strumento non certo perfetto, non potendo fare a meno di una supervisione dell’uomo/avvocato, chiamato a controllare e ricontrollare le risultanze prodotte.

Diversamente da altri settori, l’uso dell’AI in ambito giuridico risulta non molto attendibile: vi è, infatti, il concreto rischio di esporre il proprio cliente a giudizi con esiti nefasti o che, comunque, non garantiscano il miglior risultato possibile.

Possiamo richiamare un caso verificatosi negli Stati Uniti [1], che ha suscitato molto scalpore: protagonista è un avvocato americano a cui era stara affidata la difesa di un passeggero di un volo Avianca, il quale ha fatto causa alla compagnia aerea dopo essere stato ferito durante il volo. L’avvocato, nel predisporre la difesa del suo assistito di fronte al giudice di Manhattan, si è avvalso dell’utilizzo di ChatGPT per definire la propria strategia e per trovare velocemente precedenti giurisprudenziali – tipici di un sistema di common law – in cui i tribunali avevano dato ragione ai passeggeri. Sorprendentemente, l’autorità giudiziaria, intenzionata a leggere i casi citati, non è riuscita a rinvenirli. All’esito di una nuova consultazione da parte dell’avvocato, ChatGPT ha “dichiarato” che quei precedenti giurisprudenziali non esistevano. Pertanto, il legale newyorkese ha dovuto confessare di aver affidato la propria difesa a ChatGPT e di essere stato tradito dalle sue “allucinazioni”, risposte causalmente false e inventate che l’AI a volte mescola alle informazioni fondate e veritiere.

Indubbiamente, questo caso mette alla luce delle criticità:

  • ChatGPT e simili software di intelligenza artificiale non hanno sempre ragione, ma si tratta di modelli di linguaggio probabilistici, che formulano stringhe di parole sulla base del training ricevuto;
  • i modelli di linguaggio commettono ancora molti errori fattuali e soffrono delle cd. “allucinazioni”, proponendo contenuti totalmente inventati.

Ne deriva che l’uso dell’intelligenza artificiale come strumento di supporto nel mondo del diritto e dei tribunali non è in grado di sostituirsi alle professionalità coinvolte, i c.d. attori del processo.

Certamente, le soluzioni proposte, grazie all’utilizzo dell’AI, suscitano un interesse sempre più crescente per i benefici che potrebbero derivarne: infatti, per gli avvocati si potrebbe ridurre l’alea del giudizio, con una maggiore prevedibilità delle decisioni giudiziarie; per i tribunali, si potrebbe avere un notevole dimezzamento dei tempi nella stesura dei provvedimenti giudiziari.

È necessario, tuttavia, interrogarsi sull’effettività di queste applicazioni, impropriamente qualificate di ‘giustizia predittiva’, alla luce delle caratteristiche attuali dell’intelligenza artificiale e, in particolare, del machine learning/apprendimento automatico. È innegabile che questi sviluppi tecnologici portino anche nuovi problemi con cui dovremmo sicuramente confrontarci: in primis, nel ricercare i precedenti giurisprudenziali, l’AI non è sempre in grado di tracciare il percorso logico-informatico che ha portato a una certa decisione.

Inoltre, si deve tener conto anche dell’impatto dell’AI sulla produzione della giurisprudenza e sulle garanzie dell’equo processo.

Oggi il Legal AI in Europa è ancora un fenomeno embrionale, diversamente da quanto avviene in America. È notizia recentissima che il Presidente Biden si è mostrato favorevole a intraprendere azioni concrete per contenere i rischi legati all’uso dell’AI, impegnandosi a garantire standard di sicurezza e protezione dei dati per i diritti degli americani. Della tematica si è discusso anche al G7, tant’è che sono stati approvati i nuovi principi guida internazionali sull’intelligenza artificiale ed il codice di condotta volontario per lo sviluppo di sistemi avanzati di AI.

Ad ogni modo, nella previsione di suo utilizzo sempre crescente, non si può non tener conto che nel nostro contesto europeo vige il GDPR, il quale intende porre una serie di tutele rispetto al “processo automatizzato”. Infatti, all’art. 22 prevede il diritto del cittadino di ‘non essere sottoposto a una decisione basata unicamente sul comportamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla persona’ e all’art. 14 impone di fornire al cittadino, in caso di decisione automatizzata “informazioni significative sulla logica utilizzata, nonché l’importanza e le conseguenze previste di tale trattamento per l’interessato”.

Non può tralasciarsi che l’uso dell’AI nel settore della giustizia solleva importanti questioni etiche e legali, come la trasparenza, la responsabilità, la privacy dei dati e l’equità nell’uso di algoritmi decisionali. Di conseguenza, è necessario un approccio ponderato per garantire che l’AI sia utilizzata nel rispetto dei principi dell’equo processo.

In sintesi, è indubbio che la Legal AI offre un prezioso ausilio che permette ai professionisti di concentrarsi su compiti più analitici e strategici, e soprattutto sulla parte creativa dell’attività legale, il cui apporto è imprescindibilmente legato al potenziale umano, per così dire artigianale: quindi, ben venga l’uso dell’AI in supporto e non in sostituzione del professionista. 


[1] Cfr. ordinanza del 04.05.2023 del giudice P. Kevin Castel, United States District.Court – Southern District of New York.

SCARICA LA SENTENZA COMPLETA

Inviaci una richiesta e sarai contatto da un nostro legale

    Ho letto l'informativa sulla privacy e accetto le condizioni - Privacy Policy