G4Media.ro

Răspunsurile ciudate ale inteligenței artificiale de la Google ar putea avea legătură…

Photo 119260737 © Funtap P | Dreamstime.com

Răspunsurile ciudate ale inteligenței artificiale de la Google ar putea avea legătură cu o problemă fundamentală a acestor modele (The Washington Post)

Nu este neobișnuit ca o nouă caracteristică tehnologică interesantă să debuteze cu unele erori. Dar cel puțin unele dintre problemele legate de noile răspunsuri la căutări ale Google bazate pe inteligența artificială generativă ar putea să nu poată fi rezolvate prea curând, au declarat marți cinci experți în inteligență artificială pentru The Washington Post (articol pe bază de abonament).

Săptămâna trecută, noile „AI Overviews” ale Google au devenit virale din motive greșite. Prezentată ca fiind viitorul căutării online, această funcție – în care software-ul Google răspunde direct la întrebarea unui utilizator, în loc să genereze linkuri către site-uri relevante – a generat o mulțime de răspunsuri care au variat de la absurde la periculoase. (Nu, geologii nu recomandă să mâncați o piatră mică pe zi și vă rugăm să nu puneți lipici în pizza).

Inițial, Google a minimalizat problemele, spunând că marea majoritate a previziunilor sale de inteligență artificială sunt „de înaltă calitate” și menționând că unele dintre exemplele care circulă în social media erau probabil false. Dar compania a recunoscut, de asemenea, că a eliminat manual cel puțin unele dintre rezultatele problematice, un proces laborios pentru un site care înregistrează miliarde de interogări pe zi.

„AI Overviews sunt concepute pentru a scoate la suprafață informații de înaltă calitate care sunt susținute de rezultate din întreaga rețea, cu link-uri proeminente pentru a afla mai multe”, a declarat marți purtătorul de cuvânt Ned Adriance. „Ca și în cazul altor caracteristici pe care le-am lansat în Search, folosim feedback-ul pentru a ne ajuta să dezvoltăm îmbunătățiri mai ample ale sistemelor noastre, dintre care unele au început deja să fie implementate.”

Este un semn că problemele legate de răspunsurile de inteligență artificială sunt mai profunde decât ceea ce poate rezolva o simplă actualizare de software.

„Toate modelele lingvistice mari, prin însăși natura arhitecturii lor, sunt în mod inerent și iremediabil naratori nesiguri”, a declarat Grady Booch, un renumit om de știință în domeniul informaticii. La un nivel de bază, acestea sunt concepute pentru a genera răspunsuri care sună coerent – nu răspunsuri care sunt adevărate. „Ca atare, ele pur și simplu nu pot fi «reparate»”, a spus el, deoarece inventarea unor lucruri este „o proprietate inevitabilă a modului în care funcționează”.

În cel mai bun caz, a spus Booch, companiile care folosesc un model lingvistic mare pentru a răspunde la întrebări pot lua măsuri pentru a se „proteja împotriva nebuniei sale”. Sau pot „să arunce cantități enorme de forță de muncă umană ieftină pentru a tencui peste cele mai flagrante minciuni ale sale”. Dar răspunsurile eronate vor persista probabil atâta timp cât Google și alte companii de tehnologie folosesc inteligența artificială generativă pentru a răspunde la interogările de căutare, a prezis el.

Arvind Narayanan, profesor de informatică la Princeton, a fost de acord că „tendința modelelor lingvistice mari de a genera informații incorecte este puțin probabil să fie rezolvată în viitorul apropiat”. Dar el a spus că Google a făcut, de asemenea, „greșeli evitabile cu caracteristica AI Overview, cum ar fi extragerea de rezultate pentru a rezuma din pagini web de slabă calitate și chiar din Onion”.

Cu AI Overviews, Google încearcă să abordeze înclinația bine-cunoscută a modelelor de limbaj pentru fabricare, punându-le să citeze și să rezume surse specifice.

Dar acest lucru poate merge prost în mai multe moduri, a declarat Melanie Mitchell, profesor la Institutul Santa Fe, care cercetează sistemele complexe. Unul dintre acestea este că sistemul nu poate spune întotdeauna dacă o anumită sursă oferă un răspuns fiabil la întrebare, poate pentru că nu înțelege contextul. Un alt motiv este că, chiar și atunci când găsește o sursă bună, poate interpreta greșit ceea ce spune acea sursă.

Aceasta nu este doar o problemă a Google, a spus ea. Alte instrumente de inteligență artificială, cum ar fi ChatGPT sau Perplexity de la OpenAI, ar putea să nu greșească aceleași răspunsuri ca Google. Dar vor greși și alte răspunsuri pe care Google le va da corect. „Inteligența artificială care să facă acest lucru într-un mod mult mai demn de încredere pur și simplu nu există încă”, a spus Mitchell.

Totuși, unele părți ale problemei s-ar putea dovedi mai ușor de rezolvat decât altele.

Problema „halucinațiilor”, în care un model lingvistic inventează ceva ce nu se află în datele sale de antrenament, rămâne „nerezolvată”, a declarat Niloofar Mireshghallah, cercetător postdoctoral în învățare automată la Universitatea din Washington. Dar asigurarea faptului că sistemul se bazează doar pe surse de încredere este mai degrabă o problemă de căutare tradițională decât o problemă de inteligență artificială generativă, a adăugat ea. Această problemă, a spus ea, poate fi „remediată” în parte prin adăugarea unor mecanisme de verificare a faptelor.

De asemenea, ar putea fi de ajutor să se facă mai puțin proeminentă prezentarea AI în rezultatele căutărilor, a sugerat Usama Fayyad, director executiv al Institutului pentru AI experimentală de la Universitatea Northeastern.

„Nu știu dacă rezumatele sunt pregătite pentru ora de vârf”, a spus el, „ceea ce, apropo, este o veste bună pentru editorii web”, deoarece înseamnă că utilizatorii vor avea în continuare motive să viziteze site-uri de încredere, în loc să se bazeze pe Google pentru orice.

Mitchell a spus că se așteaptă ca răspunsurile Google să se îmbunătățească – dar nu suficient de mult pentru a le face cu adevărat fiabile.

„Îi cred când spun că marea majoritate a răspunsurilor sunt corecte”, a spus Mitchell. „Dar sistemul lor este folosit de milioane și milioane de oameni în fiecare zi. Așa că vor exista cazuri în care va greși grav și vor exista cazuri în care acest lucru va cauza un anumit tip de prejudiciu”.

Narayanan a declarat că „cea mai simplă cale de ieșire din această încurcătură” a companiei ar putea fi să plătească verificatori umani de fapte pentru milioane dintre cele mai frecvente interogări de căutare.

Chiar și directorul general al Google, Sundar Pichai, a recunoscut problema.

Într-un interviu acordat săptămâna trecută publicației The Verge, Pichai a declarat că înclinația modelelor lingvistice mari pentru falsuri este, într-un fel, „o caracteristică inerentă”, motiv pentru care acestea „nu sunt neapărat cea mai bună abordare pentru a ajunge întotdeauna la factualitate”.

Dar a spus că integrarea lor într-un motor de căutare poate ajuta la „ancorarea” răspunsurilor în realitate, direcționând în același timp utilizatorii către sursa originală. „Încă mai există momente în care va greși, dar nu cred că m-aș uita la asta și aș subestima cât de util poate fi în același timp.”

Publicitate electorală

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...