L'ex avvocato di Trump ammette di aver usato l'intelligenza artificiale in tribunale
Il sito "il Centro Tirreno.it" utilizza cookie tecnici o assimiliati e cookie di profilazione di terze parti in forma aggregata a scopi pubblicitari e per rendere più agevole la navigazione, garantire la fruizione dei servizi, se vuoi saperne di più leggi l'informativa estesa, se decidi di continuare la navigazione consideriamo che accetti il loro uso.
04
Sab, Mag

L'ex avvocato di Trump ammette di aver usato l'intelligenza artificiale in tribunale

Tecnologia
Typography
  • Smaller Small Medium Big Bigger
  • Default Helvetica Segoe Georgia Times

Michael Cohen, ex avvocato di Donald Trump, ha recentemente ammesso di aver citato casi giudiziari falsi e generati da intelligenza artificiale in un documento legale presentato a un giudice federale.

L'ex avvocato di Trump ammette di aver usato l'intelligenza artificiale in tribunale

 

Secondo quanto riferito dal New York Times, il documento in questione era una mozione che chiedeva di ridurre la durata della libertà vigilata triennale di Cohen, che egli sta affrontando dopo un periodo in prigione e una dichiarazione di colpevolezza per evasione fiscale e altre accuse. La particolarità di questo episodio sta nell'utilizzo di Google Bard, un chatbot IA, che Cohen aveva erroneamente considerato come un "motore di ricerca super-potenziato". L'uso di Bard per la ricerca legale ha portato all'inclusione di casi inesistenti nel documento legale. Il giudice distrettuale degli Stati Uniti, Jesse Furman, dopo aver esaminato la lettera della mozione, ha dichiarato che "nessuno di questi casi esiste" e ha chiesto spiegazioni all'avvocato di Cohen, David Schwartz, sui motivi per cui tali casi erano inclusi nella mozione e se il suo cliente, ora radiato dall'albo, avesse contribuito alla stesura del documento.

Cohen, in risposta, ha presentato una dichiarazione scritta affermando di non aver intenzionalmente ingannato il tribunale. Ha aggiunto di aver utilizzato Google Bard per effettuare ricerche legali e di aver inviato alcune delle sue scoperte a Schwartz, ma di non aver realizzato che i casi citati da Bard potessero essere falsi, né di aver pensato che Schwartz li avrebbe aggiunti alla mozione "senza nemmeno confermare che esistessero". Schwartz ora rischia sanzioni per aver incluso citazioni fasulle. Questo caso non è il primo in cui citazioni generate da AI compaiono in tribunale. Già in giugno, due avvocati di New York sono stati sanzionati e multati per 5.000 dollari dopo aver incluso casi giudiziari falsi generati da ChatGPT in un documento legale.

Ho scritto e condiviso questo articolo
Author: Red AdnkronosWebsite: http://ilcentrotirreno.it/Email: Questo indirizzo email è protetto dagli spambots. È necessario abilitare JavaScript per vederlo.