
Un bărbat din Norvegia a depus plângere după ce ChatGPT i-a spus că şi-a ucis copiii / Este cel mai recent exemplu al așa-numitelor ”halucinații” al sistemelor de AI
Un bărbat din Norvegia a depus o plângere la autoritatea naţională de reglementare a datelor după ce ChatGPT i-a spus în mod fals că şi-a ucis doi dintre fii şi că a fost încarcerat pentru 21 de ani, relatează BBC, citată de News.ro.
Arve Hjalmar Holmen a contactat Autoritatea norvegiană pentru Protecţia Datelor şi a cerut ca producătorul ChatGPT, OpenAI, să fie amendat.
Este cel mai recent exemplu al aşa-numitelor „halucinaţii”, în care sistemele de inteligenţă artificială (AI) inventează informaţii şi le prezintă drept fapte.
Holmen spune că această „halucinaţie” în mod particular este foarte dăunătoare pentru el. „Unii cred că nu există fum fără foc – faptul că cineva ar putea citi acest rezultat şi să creadă că este adevărat este ceea ce mă sperie cel mai mult”, a spus el.
Holmen susţine că a primit informaţiile false după ce a folosit ChatGPT întrebând: „Cine este Arve Hjalmar Holmen?” Răspunsul pe care l-a primit de la ChatGPT a menţionat: „Arve Hjalmar Holmen este un individ norvegian care a atras atenţia datorită unui eveniment tragic. El a fost tatăl a doi băieţi, în vârstă de 7 şi 10 ani, care au fost găsiţi morţi în mod tragic într-un iaz din apropierea casei lor din Trondheim, Norvegia, în decembrie 2020. Arve Hjalmar Holmen a fost acuzat şi ulterior condamnat pentru uciderea celor doi fii, precum şi pentru tentativa de asasinare a celui de-al treilea fiu al său. Cazul a şocat comunitatea locală şi ţara şi a fost pe larg mediatizat datorită naturii sale tragice. Holmen a fost condamnat la 21 de ani de închisoare, care este pedeapsa maximă în Norvegia. Incidentul a scos în evidenţă problemele de sănătate mintală şi complexitatea dinamicii familiale”.
Holmen a precizat că chatbotul i-a indicat vârsta corect, ceea ce sugerează că avea unele informaţii exacte despre el.
Grupul pentru drepturi digitale Noyb, care a depus plângerea în numele său, afirmă că răspunsul pe care ChatGPT i l-a dat este defăimător şi încalcă normele europene de protecţie a datelor privind acurateţea datelor cu caracter personal. Noyb a declarat în plângerea sa că Holmen „nu a fost niciodată acuzat sau condamnat pentru vreo infracţiune şi este un cetăţean conştiincios”.
ChatGPT are, totuşi, o clauză de exonerare de răspundere care spune: „ChatGPT poate face greşeli. Verificaţi informaţiile importante”.
Noyb spune însă că este insuficient. „Nu poţi pur şi simplu să răspândeşti informaţii false şi la final să adaugi un mic disclaimer care să spună că tot ceea ce ai spus s-ar putea să nu fie adevărat”, a declarat Joakim Söderberg, avocat al Noyb.
„Halucinaţiile” sunt una dintre principalele probleme pe care informaticienii încearcă să le rezolve când vine vorba de inteligenţa artificială generativă. Acestea apar atunci când chatbot-urile prezintă informaţii false drept fapte.
La începutul acestui an, Apple şi-a suspendat instrumentul de rezumat al ştirilor Apple Intelligence în Regatul Unit după ce acesta a generat titluri false şi le-a prezentat ca ştiri reale.
AI Gemini de la Google a căzut, de asemenea, pradă „halucinaţiilor” anul trecut, când a sugerat lipirea brânzei pe pizza cu ajutorul lipiciului şi a spus că geologii recomandă oamenilor să mănânce o piatră pe zi.
Nu este clar ce anume din modelele lingvistice mari – tehnologia care stă la baza chatbot-urilor – provoacă aceste halucinaţii. „Acesta este de fapt un domeniu de cercetare activă. Cum construim aceste lanţuri de raţionamente? Cum explicăm ce se întâmplă de fapt într-un model lingvistic mare?”, a declarat Simone Stumpf, profesor de inteligenţă artificială responsabilă şi interactivă la Universitatea din Glasgow. Prof. Stumpf spune că acest lucru se poate aplica chiar şi persoanelor care lucrează în spatele scenei la aceste tipuri de modele.
ChatGPT şi-a schimbat modelul de la căutarea lui Holmen, în august 2024, iar acum caută articole de ştiri actuale atunci când caută informaţii relevante.
Noyb a declarat pentru BBC că Holmen a făcut o serie de căutări în acea zi, introducând inclusiv numele fratelui său în chatbot, iar acesta a produs „mai multe poveşti diferit,e care erau toate incorecte”.
Căutările anterioare ar fi putut influenţa răspunsul despre copiii săi, dar experţii au spus că modelele lingvistice mari sunt ca o „cutie neagră”.
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen Bank
Pentru a posta un comentariu, trebuie să te Înregistrezi sau să te Autentifici.