banner
Centro notizie
Nella nostra struttura, ci impegniamo a fornire prodotti di qualità superiore, spedizioni tempestive e supporto attento.

L'avvocato che ha citato casi architettati da AI chiede al giudice di risparmiare sanzioni

May 10, 2023

8 giugno (Reuters) - Un avvocato di New York ha chiesto giovedì a un giudice federale di Manhattan di non sanzionarlo dopo aver incluso in una memoria legale citazioni di casi inventati generati da un chatbot di intelligenza artificiale.

L'avvocato, Steven Schwartz, ha ammesso a maggio di aver utilizzato il programma ChatGPT di OpenAI per aiutare a ricercare il documento, che citava sei decisioni giudiziarie inesistenti, nel caso di lesioni personali di un cliente contro Avianca Airlines.

Schwartz ha detto all'udienza di giovedì che "mai" avrebbe potuto immaginare che ChatGPT potesse inventare casi falsi e non intendeva fuorviare la corte.

Il giudice distrettuale americano P. Kevin Castel, che aveva chiesto a Schwartz e al suo studio legale Levidow, Levidow & Oberman di spiegare perché non dovrebbero essere sanzionati, ha detto che emetterà una decisione più tardi.

Gli avvocati di Avianca hanno prima avvisato la corte di non riuscire a individuare i casi citati nella memoria.

Un numero crescente di avvocati e studi legali stanno esplorando l’uso dell’intelligenza artificiale generativa. La complicata collisione di Schwartz con la tecnologia ha fatto notizia come un primo esempio delle sue potenziali insidie.

Spinto in parte dal caso di New York, la scorsa settimana un giudice federale del Texas ha emesso l’obbligo per gli avvocati nei casi davanti a lui di certificare di non aver utilizzato l’intelligenza artificiale per redigere i propri documenti senza che un essere umano ne verificasse l’accuratezza.

Schwartz ha detto giovedì che avrebbe dovuto fare di più per confermare e verificare i casi.

Schwartz si è scusato con la corte, Avianca e altri durante l'udienza. Ha detto di aver "soffrito professionalmente e personalmente" e di essere imbarazzato e umiliato.

Per saperne di più:

Un avvocato ha utilizzato ChatGPT per citare casi fasulli. Qual è l'etica?

Un giudice americano ordina agli avvocati di firmare un impegno sull'intelligenza artificiale, avvertendo i chatbot di "inventare cose"

I nostri standard: i principi fiduciari di Thomson Reuters.

Thomson Reuters

Sara Merken riferisce sulla privacy e sulla sicurezza dei dati, nonché sugli affari legali, compresa l'innovazione legale e gli attori chiave nel settore dei servizi legali. Contattatela a [email protected]