Blog costituzionale

ChatGPT nei tribunali colombiani

Il 31 gennaio 2023, il giudice Juan Manuel Padilla ha emesso una sentenza di 7 pagine su un caso in cui era in gioco il diritto fondamentale alla salute di un bambino, diagnosticato nello spettro dell'autismo. Si trattava di un caso di secondo grado relativamente semplice, deciso da un giudice di Cartagena, in Colombia, in cui la questione legale chiave era se la richiesta di una compagnia di assicurazione sanitaria di co-pagamenti o di un compenso per l'autorizzazione di una procedura medica violasse i diritti fondamentali del bambino alla salute e vita dignitosa. Il giudice Padilla ha confermato la sentenza di primo grado che ha favorito il bambino.

La sentenza sarebbe stata di mille decisioni giudiziarie relative alla salute adottate in Colombia ogni anno, ma per il fatto che il giudice ha deciso di trascrivere le sue interazioni con ChatGPT , che aveva utilizzato per motivare il suo verdetto. Nel giro di poche ore, la sentenza si è fatta strada sui media nazionali colombiani ed è stata ora registrata dai media di tutto il mondo .

Solo 10 giorni dopo, anche il magistrato María Victoria Quiñones del Tribunale amministrativo della Maddalena, sempre in Colombia, ha emesso un'ordinanza del tribunale in cui sono stati trascritti anche i prompt di ChatGPT. Le interazioni del magistrato Quiñones con il chatbot miravano a rispondere a domande tecniche che l'hanno aiutata a decidere come svolgere un'udienza giudiziaria nel metaverso. Il procedimento giudiziario riguarda una richiesta di ricorso diretto ( reparación directa ) richiesta da un appaltatore della polizia nazionale colombiana. Il 15 febbraio, l'udienza si è tenuta attraverso Horizon Workrooms di Meta ed è stata trasmessa in live streaming su YouTube .

Questo post sul blog esamina le sfide degli strumenti Large Language Models (LLM), come ChatGPT, per redigere sentenze giudiziarie e, più in generale, i pericoli dell'utilizzo delle tecnologie emergenti nelle attività giudiziarie, in Colombia e oltre. La mia principale argomentazione è che gli attuali LLM non sono fonti affidabili di informazioni e dovrebbero essere utilizzati – con la massima cura – solo quando non sono disponibili altre opzioni più efficaci e sicure. Inoltre, sostengo che la magistratura dovrebbe promuovere l'alfabetizzazione digitale e un uso informato, trasparente, etico e responsabile degli strumenti di intelligenza artificiale , al fine di coglierne i potenziali benefici e prevenire i rischi.

I giudici non hanno utilizzato ChatGPT in modo informato o responsabile

Per intenderci, i testi della sentenza e dell'ordinanza emessa dai giudici colombiani non erano un semplice copia/incolla dei quesiti introdotti a ChatGPT e delle risposte del chatbot. Da un lato, la decisione del giudice Padilla ha spiegato sinteticamente i fatti della causa, ha descritto la logica della decisione di primo grado, ha esposto le principali questioni costituzionali in gioco, ha elencato gli articoli rilevanti della Costituzione colombiana e ha citato una sentenza della Corte costituzionale Corte che si è occupata di un caso molto simile (per una descrizione più approfondita dei fatti e dell'azione di tutela costituzionale si veda il post della professoressa Lorena Florez ). prima udienza del procedimento amministrativo nel metaverso, ha citato le disposizioni di legge e la giurisprudenza che giustificano l'uso delle tecnologie informatiche nei procedimenti giudiziari, e ha spiegato cos'è il metaverso e come si svolgerebbe l'udienza. Se le risposte del chatbot fossero solo una parte delle motivazioni delle decisioni giudiziarie, perché dovremmo preoccuparci o addirittura preoccuparci di come i giudici colombiani hanno utilizzato ChatGPT?

La risposta breve è che hanno usato ChatGPT come se fosse un oracolo: una fonte affidabile di conoscenza che non richiedeva alcun tipo di verifica. Mentre i giudici sono stati trasparenti sul fatto che hanno utilizzato lo strumento e hanno incluso le virgolette per distinguere il contenuto prodotto da ChatGPT, il loro uso non è stato informato né responsabile.

Ci sono tre motivi principali per cui il modo in cui ChatGPT è stato utilizzato dalla magistratura in questi casi è molto preoccupante per i colombiani e non solo.

In primo luogo, la posta in gioco nelle sentenze giudiziarie è troppo alta, specialmente quando sono coinvolti i diritti umani, per giustificare l'uso di tecnologie inaffidabili e non sufficientemente testate. A causa del modo in cui gli LLM come ChatGPT sono sviluppati e funzionano, questi strumenti tendono a produrre risposte errate e imprecise e confondono la realtà con la finzione . Anche il CEO di OpenAI ha riconosciuto nel dicembre 2022 che "ChatGPT è incredibilmente limitato (…) è un errore fare affidamento su di esso per qualcosa di importante in questo momento". Inoltre, per ragioni strutturali, è improbabile che questi problemi di LLM vengano risolti presto.

Nei due casi colombiani, le risposte di ChatGPT non sono state incidentali ma determinanti per le decisioni adottate dai tribunali. Nella sentenza del giudice Padilla, due delle sette pagine consistevano in una trascrizione di quattro risposte di ChatGPT ai prompt. Ciò significa che circa il 29% della sentenza è costituito da testo generato da ChatGPT. Pertanto, sebbene le risposte di ChatGPT non costituissero l'unica base giuridica della sentenza, sono una componente chiave della decisione. Inoltre, le quattro domande poste dal giudice a ChatGPT riguardavano questioni legali chiave necessarie per decidere il caso:

  1. Un bambino autistico è esente da ticket per la terapia?
  2. Le azioni di tutela in questi casi devono essere concesse?
  3. La richiesta di partecipazione ai costi in questi casi rappresenta un ostacolo all'accesso ai servizi sanitari?
  4. La giurisprudenza della corte costituzionale ha preso decisioni favorevoli in casi simili?

Pertanto, il giudice Padilla ha spinto ChatGPT ad affrontare questioni legali fondamentali che sono molto specifiche del sistema legale colombiano.

Nel caso dell'ingiunzione del magistrato Quiñones, le questioni riguardavano questioni che non erano sostanziali per la causa dell'azione. Le tre domande volte a supportare le decisioni processuali necessarie per lo svolgimento dell'udienza nel metaverso:

  1. Cos'è un avatar?
  2. Qual è il metodo più efficace per verificare l'autenticità di chi si connette a un meeting e/o audizione virtuale.
  3. Metodo per verificare l'autenticità dell'avatar nel metaverso?

Sebbene tali questioni sembrino meramente tecniche, riguardano il modo in cui il magistrato si assicura che le persone che partecipano all'udienza rappresentino legittimamente le parti, una questione che è essenziale per garantire l'accesso alla giustizia e il giusto processo. Le dichiarazioni incluse nell'ordinanza del tribunale illustrano il punto: "Quindi, per una migliore comprensione di alcuni concetti sul metaverso e l' amministrazione dell'udienza in questo ambiente , questa agenzia giudiziaria si affiderà all'intelligenza artificiale, utilizzando ChatGPT". Per brevità, non affronterò in questo post le implicazioni legali e di equità dell'utilizzo del metaverso per un'udienza in tribunale, ma raccomando il recente post della professoressa Lorena Florez in cui discute la necessità di valutare la necessità dello strumento e di implementare approcci centrati sull'utente (design thinking) per decidere come condurre le attività giudiziarie.

In sintesi, il primo argomento non è che i giudici – e in generale i funzionari pubblici – non debbano innovare o utilizzare nuove tecnologie. Piuttosto, gli strumenti sperimentali non dovrebbero essere utilizzati in determinate attività legate allo stato e se i giudici hanno attualmente accesso a strumenti più efficaci e sicuri, questi ultimi dovrebbero essere preferiti a quelli non testati.

In secondo luogo, le risposte di ChatGPT non avrebbero dovuto essere accettate e prese per oro colato, ma piuttosto confrontate con altre fonti più affidabili. Ad esempio, nel caso della sentenza del giudice Padilla, le risposte fornite da ChatGPT mancavano di sfumature. Inoltre, le risposte erano scarsamente giustificate. Una volta, il chatbot ha citato una legge specifica che è pertinente solo tangenzialmente al caso, e in un'altra risposta, ChatGPT ha alluso alla giurisprudenza della Corte costituzionale ma senza citare casi specifici.

La sentenza afferma che le informazioni offerte da ChatGPT sarebbero "confermate". Tuttavia, non vi è alcuna traccia esplicita nel testo che ci consenta di concludere che il giudice Padilla o il suo cancelliere abbiano effettivamente verificato se le risposte di ChatGPT fossero accurate. Infatti, ho replicato le quattro domande poste dal giudice Padilla e il chatbot ha risposto in modo leggermente diverso, un risultato che non sorprende visto il funzionamento dello strumento. Inoltre, quando ho sollecitato ChatGPT a fornire esempi di giurisprudenza della Corte Costituzionale che giustificassero le sue risposte, il chatbot ha inventato i fatti e la ratio decidendi di una sentenza, e ha citato una sentenza che non esisteva (inventando i fatti e il verdetto).

Pertanto, l'argomento non è che ChatGPT o altri LLM non dovrebbero essere utilizzati per supportare il lavoro giudiziario. Il punto è che qualsiasi contenuto prodotto da questi sistemi che deve essere utilizzato direttamente o indirettamente per redigere decisioni deve essere sottoposto a un esame rigoroso e approfondito.

Quest'ultimo punto introduce il terzo motivo per cui i due casi colombiani sono preoccupanti. Sia la sentenza che l'ordinanza del tribunale affermano esplicitamente che le tecnologie emergenti possono aiutare a semplificare i processi giudiziari. Ad esempio, la sentenza del giudice Padilla affermava: “Lo scopo di includere questi testi AI non è in alcun modo sostituire la decisione del giudice. Quello che cerchiamo davvero è ottimizzare il tempo impiegato per scrivere le frasi”. Inoltre, in un'intervista radiofonica, il giudice Padilla ha affermato che: “la mia unica preoccupazione è migliorare i tempi del sistema giudiziario […]. (T) quella stringa di testo che mi ha fornito l'intelligenza artificiale potrebbe anche essermi stata fornita da un impiegato”.

È vero che la legge 2213 del 2022 e il codice di procedura generale ( articolo 103, legge 1564 del 2012 ), tra gli altri, ammettono l'uso delle tecnologie dell'informazione e della comunicazione per gestire e condurre l'attività giudiziaria. Tuttavia, è anche vero che le leggi indicano che tali tecnologie dovrebbero essere utilizzate solo quando sono "adatte" al compito. Se ChatGPT e altri LLM attualmente disponibili sono evidentemente inaffidabili, dal momento che i loro risultati tendono a includere informazioni errate e false, allora i giudici impiegherebbero molto tempo per verificare la validità del contenuto generato dall'intelligenza artificiale, annullando così qualsiasi significativo "risparmio di tempo". Come accade con l'IA in altri ambiti, sotto la narrazione di presunte “efficienze”, i diritti fondamentali possono essere messi a rischio.

Infine, c'è il rischio che i giudici ei suoi cancellieri si affidino eccessivamente alle raccomandazioni dell'AI, incorrendo in quello che è noto come “pregiudizio dell'automazione”. Come spiegato dal professor Florez , “[d]ue a causa di un'eccessiva fiducia nell'imparzialità o nella certezza del sistema di intelligenza artificiale, come ChatGPT, i giudici possono essere ostacolati nella loro capacità di esprimere giudizi esatti e comprendere ciò che li circonda. Ciò potrebbe portare a un eccessivo affidamento sui risultati dei sistemi automatizzati”.

Sfide per i sistemi giudiziari nell'era dell'IA generativa

È preoccupante che due giudici colombiani abbiano trascritto le richieste di ChatGPT per motivare le loro decisioni senza esaminare a fondo se le informazioni fossero corrette. C'è un alto rischio che i giudici ei loro impiegati in tutta la Colombia inizino a trascrivere i risultati di ChatGPT come se fossero una fonte affidabile. Infatti, il giudice Padilla ha dichiarato in un'intervista radiofonica che i giudici di tutto il Paese sarebbero “molto contenti” perché il sistema potrebbe risparmiare “molte ore trascrivendo cose che sono già su Internet”. Il giudice Padilla ha anche affermato che "ciò che ChatGPT fa è aiutarci a scegliere il meglio di questi testi da Internet e compilarli in modo molto logico e molto breve per ciò di cui abbiamo bisogno". Questa mancanza di comprensione di come funzionano gli LLM illustra perché garantire l'alfabetizzazione digitale della magistratura è fondamentale in tempi di IA generativa.

C'è una tendenza verso un maggiore accesso a strumenti di intelligenza artificiale generativa, offerti gratuitamente da diverse aziende attraverso piattaforme web e basate su app. Pertanto, il tipo di uso disinformato dell'IA che abbiamo visto in Colombia potrebbe espandersi oltre il paese. Inoltre, querelanti e convenuti possono anche utilizzare LLM – come ChatGPT – come un oracolo, a scapito degli interessi dei loro clienti. Gli strumenti di IA dovrebbero essere utilizzati in materia giudiziaria solo quando tali strumenti sono sufficientemente testati e quando non sono disponibili altri strumenti più efficaci, meno costosi e più accessibili.

Inoltre, gli organi che gestiscono il sistema giudiziario ovunque sia fattibile l'uso di questi strumenti dovrebbero elaborare linee guida e politiche su come e quando determinati strumenti di intelligenza artificiale, inclusi LLM come ChatGPT, possono essere introdotti nei processi giudiziari. Le linee guida potrebbero stabilire determinati standard e migliori pratiche per giudici, cancellieri e avvocati che desiderano utilizzare strumenti di intelligenza artificiale.

Ad esempio, un uso informato, trasparente, etico e responsabile degli strumenti di intelligenza artificiale da parte di giudici, cancellieri e avvocati dovrebbe rispettare i seguenti standard: ( i ) l'utente deve comprendere come funziona la tecnologia, riconoscerne i limiti e i rischi e rendere assicurarsi che lo strumento sia adeguato al compito richiesto ( uso consapevole ); ( ii ) l'utente è trasparente sull'uso della tecnologia nei procedimenti ( uso trasparente ); ( iii ) l'utente distingue chiaramente quali sezioni della decisione giudiziaria o del documento legale sono testo generato dall'intelligenza artificiale ( uso etico ); e, ( iv ) l'utente controlla rigorosamente le informazioni recuperate dal sistema di IA rispetto a fonti affidabili e informa esplicitamente di tale esame ( uso responsabile ).

I casi colombiani potrebbero contribuire a una discussione globale sull'importanza dell'alfabetizzazione digitale dei giudici, dei loro assistenti e degli avvocati, nonché sulla necessità di disporre di linee guida chiare su quando e come utilizzare i sistemi di intelligenza artificiale nel sistema giudiziario.


Questa è la traduzione automatica di un articolo pubblicato su Verfassungsblog all’URL https://verfassungsblog.de/colombian-chatgpt/ in data Thu, 23 Feb 2023 12:33:33 +0000.