G4Media.ro

Tehnologia AI se dezvoltă accelerat într-un vid legislativ / Ar putea dura…

Sursa: Facebook

Tehnologia AI se dezvoltă accelerat într-un vid legislativ / Ar putea dura ani până la noi legi adecvate / Cum țin în frâu autoritățile de reglementatare tehnologia care ar putea schimba profund societatea

Pe măsură ce cursa pentru dezvoltarea unor servicii de inteligență artificială cât mai puternice, precum ChatGPT, se accelerează, unele autorități de reglementare se bazează pe legi vechi pentru a controla o tehnologie care ar putea schimba modul în care funcționează societățile și companiile, scrie Reuters într-o analiză.

Uniunea Europeană se află în prima linie a elaborării unor noi norme privind IA, care ar putea stabili un punct de referință la nivel mondial pentru a răspunde preocupărilor legate de confidențialitate și siguranță, care au apărut odată cu progresele rapide ale tehnologiei de inteligență artificială generativă din spatele ChatGPT de la OpenAI.
Însă va fi nevoie de mai mulți ani pentru ca legislația să fie pusă în aplicare.

„În absența unor reglementări, singurul lucru pe care guvernele îl pot face este să aplice normele existente”, a declarat Massimilano Cimnaghi, expert european în guvernanța datelor la firma de consultanță BIP.

„Dacă este vorba despre protejarea datelor cu caracter personal, acestea aplică legile privind protecția datelor, dacă este vorba despre o amenințare la adresa siguranței oamenilor, există reglementări care nu au fost definite în mod specific pentru IA, dar care sunt totuși aplicabile.”

În aprilie, organismele naționale de supraveghere a confidențialității din Europa au înființat un grup de lucru pentru a aborda problemele legate de ChatGPT, după ce autoritatea de reglementare italiană, Garante, a făcut ca serviciul să fie scos din funcțiune, acuzând OpenAI că a încălcat GDPR al UE, un regim de confidențialitate de mare anvergură adoptat în 2018.

ChatGPT a fost repus în funcțiune după ce compania americană a fost de acord să instaleze funcții de verificare a vârstei și să permită utilizatorilor europeni să blocheze utilizarea informațiilor lor pentru a antrena modelul AI.

Agenția va începe să examineze alte instrumente de inteligență artificială generativă la scară mai largă, a declarat pentru Reuters o sursă apropiată de Garante. Autoritățile de protecție a datelor din Franța și Spania au lansat, de asemenea, în aprilie, anchete privind respectarea de către OpenAI a legilor privind confidențialitatea.

Este nevoie de experți

Modelele de inteligență artificială generativă au devenit bine cunoscute pentru faptul că fac greșeli sau „halucinații”, scuipând informații eronate cu o siguranță stranie.

Astfel de erori ar putea avea consecințe grave. Dacă o bancă sau un departament guvernamental ar utiliza IA pentru a accelera procesul decizional, persoanele ar putea fi respinse în mod nedrept pentru împrumuturi sau plăți de beneficii. Marile companii de tehnologie, inclusiv Google (GOOGL.O) de la Alphabet și Microsoft Corp (MSFT.O), au încetat să mai utilizeze produse de inteligență artificială considerate riscante din punct de vedere etic, cum ar fi produsele financiare.

Autoritățile de reglementare urmăresc să aplice normele existente care acoperă totul, de la drepturile de autor și confidențialitatea datelor, la două aspecte-cheie: datele introduse în modele și conținutul pe care acestea îl produc, potrivit a șase autorități de reglementare și experți din Statele Unite și Europa.

Agențiile din cele două regiuni sunt încurajate să „interpreteze și să reinterpreteze mandatele lor”, a declarat Suresh Venkatasubramanian, fost consilier pe probleme de tehnologie la Casa Albă. El a citat investigația Comisiei Federale pentru Comerț din SUA (FTC) asupra algoritmilor pentru practici discriminatorii în cadrul competențelor de reglementare existente.

În UE, propunerile pentru legea privind IA din cadrul blocului vor obliga companii precum OpenAI să dezvăluie orice material protejat prin drepturi de autor – cum ar fi cărți sau fotografii – utilizat pentru antrenarea modelelor lor, ceea ce le va face vulnerabile în fața unor contestații legale.

Totuși, dovedirea încălcării drepturilor de autor nu va fi simplă, potrivit lui Sergey Lagodinsky, unul dintre mai mulți politicieni implicați în elaborarea propunerilor UE.

„Este ca și cum ai citi sute de romane înainte de a le scrie pe ale tale”, a spus el. „Dacă într-adevăr copiezi ceva și îl publici, este un lucru. Dar dacă nu plagiezi direct materialul altcuiva, nu contează pe ce te-ai format.

Gândire creativă

Autoritatea franceză de reglementare a datelor (CNIL) a început să se „gândească în mod creativ” la modul în care legile existente s-ar putea aplica la IA, potrivit lui Bertrand Pailhes, responsabilul său pentru tehnologie.

De exemplu, în Franța, reclamațiile pentru discriminare sunt de obicei gestionate de Defenseur des Droits (Apărătorul drepturilor). Cu toate acestea, lipsa de expertiză a acestuia în ceea ce privește prejudecățile din AI a determinat CNIL să preia conducerea în această chestiune, a spus el.

„Analizăm întreaga gamă de efecte, deși accentul nostru rămâne pe protecția datelor și a vieții private”, a declarat el pentru Reuters.

Organizația are în vedere utilizarea unei prevederi din GDPR care protejează persoanele fizice împotriva procesului decizional automatizat.

„În acest stadiu, nu pot spune dacă este suficient, din punct de vedere legal”, a spus Pailhes. „Va fi nevoie de ceva timp pentru a construi o opinie și există riscul ca diferite autorități de reglementare să aibă opinii diferite.”

În Marea Britanie, Autoritatea de Conduită Financiară este unul dintre cele câteva autorități de reglementare de stat care a fost însărcinată cu elaborarea de noi orientări care să acopere IA. Aceasta se consultă cu Institutul Alan Turing din Londra, alături de alte instituții juridice și academice, pentru a-și îmbunătăți înțelegerea acestei tehnologii, a declarat un purtător de cuvânt pentru Reuters.

În timp ce autoritățile de reglementare se adaptează la ritmul progresului tehnologic, unele persoane din industrie au solicitat un angajament mai mare cu liderii corporativi.

Harry Borovick, consilier juridic general la Luminance, un start-up care utilizează inteligența artificială pentru a procesa documente juridice, a declarat pentru Reuters că dialogul dintre autoritățile de reglementare și companii a fost „limitat” până acum.

„Acest lucru nu este de bun augur în special în ceea ce privește viitorul”, a spus el. „Autoritățile de reglementare par fie lente, fie nu sunt dispuse să implementeze abordările care ar permite un echilibru corect între protecția consumatorilor și creșterea afacerilor.”

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...

1 comentariu

  1. 2 minusuri am observat si eu pana acum la ChatGPT.
    1. Cand e vorba de a decide, la doua interogari consecutive, se contrazice, deci nu m-as baza foarte tare ca poate decide ceva, desi argumentele par sa fie aceleasi pentru aceeasi interogare folosita de mai multe ori.
    2. Una dintre erori ar fi ca pare sa afiseze o empatie care practic nu exista si anume scrie ca-i pare rau, sau se bucura in functie de situatie.
    Dar astea pot fi corectate prin feedback, sper.