G4Media.ro

Un avocat american a prezintat cazuri false în fața instanței, după ce…

Sursa foto: Dreamstime

Un avocat american a prezintat cazuri false în fața instanței, după ce un coleg s-a folosit de ChatGPT pentru a se documenta

Un avocat din New York urmează să dea explicații în instanță după ce firma sa a folosit instrumentul de inteligență artificială ChatGPT pentru cercetări juridice, scrie BBC.

Un judecător a declarat că s-a confruntat cu o „situație fără precedent” după ce a constatat că un dosar făcea referire la exemple de cazuri juridice care nu existau.

Avocatul care a folosit instrumentul a declarat instanței că „nu a știut că conținutul său ar putea fi fals”.

ChatGPT creează texte originale la cerere, dar este însoțit de avertismente că poate „produce informații inexacte”.

Totul s-a petrecut într-un proces în care un bărbat a dat în judecată o companie aeriană pentru o presupusă vătămare corporală. Echipa sa de avocați a prezentat un memoriu care a citat mai multe cazuri judiciare anterioare în încercarea de a demonstra, folosind precedente, de ce cazul ar trebui să meargă mai departe.

Însă avocații companiei aeriene i-au scris ulterior judecătorului că nu au putut găsi câteva dintre cazurile la care se făcea referire în memoriu.

„Șase dintre cazurile prezentate par a fi decizii judiciare false, cu citate false și citate interne false”, a scris judecătorul într-un ordin în care a cerut echipei juridice a reclamantului să se explice.

Apoi, a reieșit că cercetarea nu a fost pregătită de Peter LoDuca, avocatul reclamantului, ci de un coleg de-al său de la aceeași firmă de avocatură. Steven A Schwartz, care este avocat de peste 30 de ani, a folosit ChatGPT pentru a căuta cazuri anterioare similare.

În declarația sa scrisă, Schwartz a precizat că LoDuca nu a luat parte la cercetare și nu avea cunoștință de modul în care aceasta a fost efectuată.  Schwartz a adăugat că „regretă foarte mult” că s-a bazat pe chatbot, despre care a spus că nu l-a mai folosit niciodată pentru cercetări juridice și că „nu știa că conținutul său ar putea fi fals”.

El a promis că nu va mai folosi niciodată inteligența artificială pentru a „completa” cercetările sale juridice pe viitor „fără o verificare absolută a autenticității sale”.

Capturi de ecran atașate la dosar par să arate o conversație între domnul Schwarz și ChatGPT.

„Este Varghese un caz real”, se arată într-un mesaj, făcând referire la Varghese v. China Southern Airlines Co Ltd, unul dintre cazurile pe care niciun alt avocat nu le-a putut găsi.

ChatGPT răspunde că da, este – ceea ce îl determină pe „S” să întrebe: „Care este sursa ta”.

După „dubla verificare”, ChatGPT răspunde din nou că acest caz este real și poate fi găsit în bazele de date juridice de referință, cum ar fi LexisNexis și Westlaw.

Acesta spune că și celelalte cazuri pe care le-a furnizat lui Schwartz sunt, de asemenea, reale.

Ambilor avocați, care lucrează pentru firma Levidow, Levidow & Oberman, li s-a ordonat să explice de ce nu ar trebui să fie sancționați disciplinar în cadrul unei audieri care va avea loc la 8 iunie.

Milioane de oameni au folosit ChatGPT de când a fost lansat în noiembrie 2022.

Acesta poate răspunde la întrebări într-un limbaj natural, asemănător celui uman și poate imita și alte stiluri de scriere. Ca bază de date, folosește internetul, așa cum era în 2021. Au existat preocupări cu privire la riscurile potențiale ale inteligenței artificiale (AI), inclusiv potențiala răspândire a dezinformării și a prejudecăților.

 

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...