Contenuto riservato agli abbonati

L’inquietante caso dell’avvocato ingannato dall’AI è un rassicurante caso di stupidità umana

Di Caterina Giojelli
02 Giugno 2023
Un giudice scopre che sette sentenze citate da un legale di New York sono fasulle. Il legale ammette di essersi affidato a ChatGpt e giura che non lo farà «mai più». Ma non c’è nulla di nuovo nell’incapacità del chatbot di fare i conti con la verità

«Mi scuso per la confusione di prima»: è tutto quello che ChatGpt è riuscita a dire al povero avvocato Steven A. Schwartz prima di rifilargli un'altra balla. Il legale dello studio Levidow, Levidow & Oberman stava sudando sette camice per capire cosa diavolo fosse andato storto: «Gli altri casi che hai fornito sono falsi», strepitava l'avvocato contro il chatbot. «No, gli altri casi che ho fornito sono reali e possono essere trovati in database legali affidabili», sciorinava con sicumera ChatGpt.

Ma ormai la frittata era fatta: né il giudice, né i legali della controparte avevano trovato traccia della mezza dozzina di casi citati da Schwartz quali precedenti che assicurassero la vittoria al suo cliente. Non c'era traccia perché i casi se li era inventati di sana pianta ChatGpt.
Il disastroso debutto di ChatGpt in tribunale
La causa era iniziata come tante altre: un uomo di nome Roberto Mata aveva citato in giudizio la compagnia aerea colombiana Avianca, dopo essere s...

Contenuto a pagamento
Per continuare a leggere accedi o abbonati
Abbonamento full
€60 / anno
oppure
Abbonamento digitale
€40 / anno

Articoli correlati