
O mare firmă de avocatură din SUA a descoperit că avocații săi au folosit inteligența artificială pentru a pregăti dosarele / Asistenții AI au citat în documente cazuri false / Ce sunt halucinațiile tehnologiei?
Firma de avocatură Morgan & Morgan s-a grăbit să trimită un e-mail sever avocaților săi, după ce doi dintre aceștia au fost prinși citând cazuri judiciare false, inventate de un model AI, relatează Reuters.
Trimis la începutul acestei luni tuturor celor peste 1.000 de avocați ai săi, e-mailul avertizează în detaliu cu privire la tendința tehnologiei de a avea halucinații. Dar avantajele, aparent, încă depășesc dezavantajele. Mai degrabă decât să interzică utilizarea AI, conducerea Morgan & Morgan a făcut apel la angajați să verifice informațiile.
„Așa cum v-am instruit anterior, dacă folosiți inteligența artificială pentru a identifica cazuri pentru citare, fiecare caz trebuie verificat independent”, se arată în e-mail. „Integritatea activității dvs. juridice și reputația dvs. depind de acest lucru.”
Săptămâna trecută, un judecător federal din Wyoming a admonestat doi avocați Morgan & Morgan pentru că au citat cel puțin nouă cazuri de jurisprudență falsă în documentele depuse în instanță în ianuarie. Amenințați cu sancțiuni, avocații stânjeniți au dat vina pe un „instrument intern de inteligență artificială” pentru această greșeală și au cerut clemență judecătorului.
„Atunci când avocații sunt prinși folosind ChatGPT sau orice alt instrument AI generativ pentru a crea citate fără a le verifica, este vorba de incompetență, pur și simplu”, a declarat Andrew Perlman, decan al Facultății de Drept a Universității Suffolk și un susținător al utilizării AI în activitatea juridică.
Judecătorul nu a decis încă dacă îi va pedepsi pe avocați, conform Reuters. Cu toate acestea, incidentul este o pată pe imaginea firmei. Procesul în cauză este împotriva celui mai mare retailer fizic din lume, Walmart. Un hoverboard vândut de companie ar fi fost responsabil pentru un incendiu care a ars casa reclamantului.
Reuters transmite că utilizarea dubioasă a tehnologiei AI în mediul juridic a dus deja la interogarea sau sancționarea avocaților în cel puțin șapte cazuri în ultimii doi ani.
Ce sunt halucinațiile AI?
Halucinațiile AI reprezintă situații în care un model de inteligență artificială generează informații false, inexacte sau inexistente, prezentându-le ca fiind corecte. Aceste erori pot apărea în diverse forme, precum citarea de surse inexistente – modelele AI pot inventa articole, studii sau cazuri juridice care nu există. Totodată, este comună generarea de fapte incorecte – AI poate produce răspunsuri care par plauzibile, dar conțin date eronate.
Mai mult, asistenții bazați pe inteligență artificială pot distorsiona contextul, caz în care combină informații reale într-un mod eronat, alterând sensul inițial.
Recent, un studiu BBC a evidențiat îngrijorări cu privire la capacitatea asistenților AI de a relata știri cu acuratețe, dezvăluind erori factuale și denaturarea materialului sursă. Cercetarea a constatat că 51% dintre răspunsurile generate de AI cu privire la știri conțineau probleme semnificative, 19% introduceau erori factuale – cum ar fi date și cifre incorecte – și 13% dintre citatele din articolele BBC erau modificate sau fabricate.
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen BankPentru a posta un comentariu, trebuie să te Înregistrezi sau să te Autentifici.