Interviu complex realizat de ChatGPT cu europarlamentarul Dragoș Tudorache pe tema reglementării inteligenței artificiale în UE / Ce l-a întrebat chabotul și ce răspunsuri a primit / Înregistrarea audio a fost transcrisă în variantă text tot de un program bazat pe AI
G4Media.ro a inițiat un experiment jurnalistic pe o temă care astăzi se discută la nivel global: reglementarea modului de utilizare a Inteligenței Artificiale. Astfel, G4Media.ro a formulat următoarea cerință cu ajutorul ChatGPT, programul de continut generativ: ”Europarlamentarul Dragos Tudorache este raportor pe tema reglementarii Inteligentei Artificiale in Europa. Trimite-i cinci intrebari esentiale”. Redăm mai jos cele cinci întrebări formulate în câteva secunde de ChatGPT. Complexitatea și viteza de formulare depășește un utilizator uman mediu informat. Este un bun exemplu de interviu realizat de AI, care a eliminat în totalitate intervenția umană cu rezultate spectaculoase. Europarlamentarul Dragoș Tudorache a înregistrat audio răspunsurile și le-a trimis redacției G4Media.ro. Interviul a fost transcris de Vatis Tech, un program de transcriere a vocii în format text, bazat pe Inteligență Artificială, program conceput de o companie românească.
- Care sunt principalele provocări în reglementarea Inteligenței Artificiale în Europa și cum intenționați să le abordați în raportul dumneavoastră?
- Cum veți asigura un echilibru între promovarea inovației și protejarea valorilor europene fundamentale în reglementarea Inteligenței Artificiale?
- Cum intenționați să abordați problemele legate de transparență și responsabilitate în utilizarea Inteligenței Artificiale, în special în ceea ce privește deciziile automate și impactul asupra drepturilor și libertăților cetățenilor?
- Ce măsuri propuneți pentru a asigura o utilizare etică a Inteligenței Artificiale și prevenirea utilizării sale în scopuri malefice sau discriminatoare?
- Cum veți colabora cu alte țări și organizații internaționale pentru a promova o abordare globală a reglementării Inteligenței Artificiale și pentru a evita fragmentarea și conflictele între diversele reglementări naționale?
ChatGPT: Care sunt principalele provocări în reglementarea Inteligenței Artificiale în Europa și cum intenționați să le abordați în raportul dumneavoastră?
Dragoș Tudorache: Aici trebuie să înțelegem că întreaga logică, felul în care a fost construită această propunere de regulament european pe inteligență artificială pornește de la ideea de riscuri și provocări pe care tehnologia le aduce în viețile noastre, în economiile noastre, în democrațiile, în societățile noastre, în general. De unde vin ele? Dintr-o realitate foarte evidentă, mai ales acum, în ultima vreme, pentru fiecare dintre noi, și anume realitatea prezenței sau aproape omniprezenței inteligenței artificiale în multe din produsele, serviciile, interacțiunile pe care le avem în economie, în societate. Deja de câțiva ani buni, inteligența artificială era prezentă în foarte multe produse și servicii pe care le achiziționăm sau pe care le accesam.
Dar deja în ultimele luni vedem cum această tehnologie își pune din ce în ce mai mult amprenta pe viețile noastre. Avem, în primul rând, prezența acestei tehnologii alături de noi la locul de muncă. Poate încă n-o vedem peste tot, n-o vedem pe toate palierele pieței muncii, dar ea va deveni o realitate pentru absolut aproape fiecare tip de profesie. Și atunci modul în care integrăm această tehnologie, felul în care ea contribuie până la un punct în deciziile pe care le luăm, în modul în care ne facem fiecare treaba la locul de muncă. De acest lucru depinde foarte mult și nivelul de acceptare pe care societatea îl va avea față de inteligența artificială. Și atunci aceasta este o primă provocare.
Cum anume generăm inducem această încredere în societate, cum anume jalonăm dezvoltarea acestei prezențe a inteligenței artificiale în câmpul muncii, în așa fel încât ea să ne ajute și să nu fie un element de stabilizator, un al 2-lea domeniu. A 2-a realitate pe care legislația aceasta o ia în calcul e faptul că inteligența artificială participă deja la luarea foarte multor decizii în foarte multe domenii, de la atribuirea unui credit la bancă, la modul în care este analizat și alocat nivelul de risc într-un contract de asigurări, la modul în care se sunt profilați clienții unei afaceri sau la modul în care sunt recrutați candidații într-un proces de recrutare. În foarte multe din aceste decizii, deja de câțiva ani erau folosiți algoritmi de inteligență artificială, iar prezența lor în astfel de procese decizionale nu poate decât să crească.
Și atunci, din nou, una din provocările pe care această legislație încearcă să le găsească un răspuns este cum anume, din nou, stabilim niște reguli, niște obligații minime în felul în care algoritmii de inteligență artificială iau astfel de decizii, modul în care cei care sunt responsabili pentru deciziile respectiv integrează funcționalitatea acestor algoritmi în deciziile respective. Și, în general, care sunt regulile jocului, să spun, în partea aceasta de decizii automate? Un al 3-lea exemplu de inteligență artificială, care creează conținut, care generează conținut. Ceea ce vedem doar acum, să zic, suntem sensibilizați de ChatGPT, pentru că e ceea ce domină dezbaterea în spațiul public.
Dar sunt foarte multe modele deja de ceva vreme, de inteligență artificială generativă, deci cea care generează conținut, fie că e text, fie că e artă, fie că e muzică, fie că e analiză, recomandă anumite tipuri de de conținut sau altele. Ori ele nu numai că au devenit din ce în ce mai sofisticate, dar sunt construite pe niște baze de date uriașe, antrenate și cu exemple bune, dar și cu exemple mai puțin bune din societate. E ca și cum ai expune creierii unui copil la lume, cu tot ceea ce e bun sau mai puțin bun.
Și atunci întrebarea care se pune și provocarea la care trebuie să răspundem este ce fel de reguli și cum ne asigurăm că dezvoltarea acestor modele de inteligență artificială nu preia prea mult din lucrurile mai puțin bune pe care le-a găsit în datele cu care s-a antrenat de pe de pe internet sau din seturile de date folosite pentru antrenarea lor pentru a genera un conținut care să fie dăunător intereselor noastre ca oameni, ca cetățeni, ca societate, fie că sunt în zona protejării drepturilor intelectuale, de exemplu.
Mă pot dau un exemplu: în urmă cu o lună de zile, un cetățean belgian care s-a sinucis după două-3 zile de interacțiune cu un algoritm din acesta fundamental de inteligență artificială, care pur și simplu i-a făcut o recomandare că nu mai are rost să trăiască. Bineînțeles, putem spune că până la urmă e judecată umană cea care se ia decizia finală într-un astfel de caz au într-o astfel de situație, dar e evident că avem datoria să ne asigurăm că un astfel de conținut generat de un algoritm de inteligență artificială nu poate fi permis fără niște reguli și niște responsabilități clare în piață.
Deci, acestea sunt câteva exemple de provocări pe care tehnologia de inteligență artificială le ridică în societate și pe care, ca oameni politici, ca cei ce pregătesc și au responsabilitatea pentru încadrarea relațiilor sociale, economice, a trebuit să le luăm în calcul atunci când am decis să începem pregătirea, redactarea și negocierea acestui regulament european. La început erau foarte mulți cei care spuneau că ne grăbim, că e o tehnologie încă incipientă și că nu e cazul să venim prea repede cu reguli, pentru că nu vom face altceva decât să să punem bariere, inovații, fără să obținem prea mult în schimb. Dar iată că cel puțin de câteva luni încoace, de când efectele acestor modele fundamentale de inteligență artificială au început să devină subiect de dezbatere publică, cred eu că deja din ce în ce mai mulți dintre noi suntem convinși că e imperativ să avem niște reguli minimale.
Bineînțeles, dar niște reguli clare de modul în care vrem să lăsăm această tehnologie să evolueze. Ea e un lucru pozitiv pentru economie, pentru societate, ne ajută deja și ne va ajuta în continuare enorm de mult în dezvoltarea economiei digitale a viitorului, a unei societăți moderne, cu a servicii moderne optimizate, cu un consum al resurselor naturale mult optimizat. Deci, are un efect această tehnologie? Un efect pozitiv incontestabil, însă are și consecințe un potențial impact negativ asupra drepturilor noastre ca cetățeni, asupra societății, în ansamblul său.
Și tocmai față de aceste riscuri sau pentru a răspunde acestor riscuri, credem că e important să avem astfel de reguli și repet, chiar și cei care în urmă cu 1 sau 2 ani se îndoiau de, să zic motivația la nivel european pentru astfel de reglementare, acum foarte mulți din acești sceptici sunt convinși. Vom vedea, cred eu, în perioada următoare și alte jurisdicții la nivel global care vor urma modelul european.
ChatGPT: Cum veți asigura un echilibru între promovarea inovației și protejarea valorilor europene fundamentale în reglementarea Inteligenței Artificiale?
Dragoș Tudorache: Acest echilibru a fost un obiectiv major de la începutul acestor negocieri. Deja, în textul inițial propus de Comisia Europeană exista o o bază de lucru suficientă, dar din perspectiva mea, ca raportor al acestui dosar, am constatat că se poate construi o majoritate solidă în Parlament pentru această abordare. Era suficientă pentru recunoașterea nevoii de promovare a inovației în paralel cu protejarea valorilor. Dar din punctul meu de vedere și, repet, există o majoritate deja solidă în această direcție, trebuia să introducem mai multe garanții în ceea ce privește modul în care firmele care dezvoltă tehnologia de inteligență artificială pot intra pe piața europeană, pot fi prezente, pot crește, pot promova în continuare idei, pot genera creștere economică din utilizarea și dezvoltarea acestei tehnologii. Ce am făcut în mod concret pentru asta?
Am introdus niște reguli foarte clare și am lărgit foarte mult cadrul de dezvoltare a ceea ce numim sandbox în în limba engleză. Mai exact centre sau spații sau ecosisteme de testare, locuri în care dezvoltatorii de inteligență artificială pot interacționa în mod direct cu reglementatorul de piață, la nivel național sau la nivel european, în așa fel încât, într-un sistem controlat, într-un mediu controlat, dezvoltatorii de algoritmi se pot asigura că modelul pe care îl dezvoltă este conform legislației, pot avea acces la baze de date curate, neafectate de potențial de discriminare, de exemplu, mai ales dacă intră cu soluțiile lor tehnice în zonele de risc înalt, așa cum sunt ele identificate de legislație. Deci, practic sunt locuri sigure să spun de inovare pentru cei care se angajează în dezvoltarea acestor algoritmi și ele sunt foarte importante mai ales pentru firmele mici sau chiar pentru start-up-uri.
Pentru un inginer cu o idee briliantă care vrea să o și vadă pusă în practică, ne-am gândit la în primul rând la ei, în a le asigura lor un acces mai facil pe piață, știut fiind că un cost de conformare, atunci când ești încă mic, poate fi prohibitiv și te poate chiar împiedica să-ți pui ideea minunată în practică, tocmai pentru că nu-ți poți permite costul avocaților sau al auditorilor sau a specialiștilor în conformare pe legislația care va fi adoptată. Și asta, într-adevăr, poate deveni o barieră importantă în calea inovării. Deci, practic, am investit foarte multă atenție și e acum un capitol important în textul pe care îl vom vota dedicat creării acestui cadru de stimulare a inovării și de ajutare în primul rând a firmelor mici, mijlocii, a startup-urilor să intre cu siguranță în piață fără să se teamă de efectele conformării.
În al 2-lea rând, în modul în care am așezat sistemul de guvernanță, de implementare a legislației acesteia, am gândit un contact permanent între reprezentanții mediului de afaceri și cei care iau decizii. Suntem conștienți că această legislație va trebui permanent adaptată și am creat în textul legislativ supapele prin care pe aspectele tehnice ale regulamentului să poată fi făcute adaptări permanente, în funcție de cum tehnologia evoluează. Pentru astfel de situații în care e nevoie să faci adaptare legislativă, dacă o lucrezi doar la tine în turul de fildes ca legiuitor și nu înțelegi care-i de fapt realitatea în piață, de multe ori deciziile pe care le iei și adaptările pe care le ei pot să fie inadecvate nevoilor reale din din din societate sau din economie.
Și atunci, am introdus un mecanism de de consultare, de feedback, de implicare permanentă, structurată a tuturor părților interesate de societate, mediul de afaceri, dar și societate civilă, mediul academic, în așa fel încât, repet, pentru legiuitorul care va sta și va veghea și va asigura adaptarea permanentă a textului și implementarea sa să aibă constant această linie de comunicare și de consultare cu cei care de fapt au în mână fie partea de dezvoltare a inteligențe artificiale sau văd efectele ei în societate și în economie.
Deci, această zonă de guvernanță, din punctul de vedere, este a 2-a zonă importantă care echilibrează acest interes al protejării valorilor și dreptul lor, dar și de promovare a inovației și în al 3-lea element important din punctul meu de vedere, aici este și claritatea definițiilor, alinierea definițiilor la definiții practicate, acceptate și la nivel global, deci nu doar aici, la nivel european, tocmai pentru a permite dezvoltarea unor soluții care să nu fie doar să zic circumscrise, limitate la piața europeană, ce să poată avea foarte ușor și un debușeu extern european. Și nu în ultimul rând, ba chiar foarte important în în acest capitol este și alinierea standardelor tehnice, spre deosebire de GDPR, unde norma juridică nu a fost urmată de standarde tehnice. De data aceasta am învățat din acea eroare politică la momentul adoptării GDPR.
Și în textul legislativ există un mandat foarte clar dat către organismele europene de standardizare, care lucrează foarte mult pe un principiu de jos în sus cu industria, cu cei care dezvoltă acești algoritmi și care au acest mandat cu un control din partea Comisiei Europene, dar au mandatul de a dezvolta imediat după adoptarea textului legislativ, de a dezvolta standarde tehnice care vor ajuta, vor promova inovația tocmai pentru că vor clarifica foarte mult, vor traduce norma juridică în limbaje și în standarde tehnice, în așa fel încât inginerii care scriu cod să știe cum anume și ce anume au de făcut.
Chat GPT: Cum intenționați să abordați problemele legate de transparență și responsabilitate în utilizarea Inteligenței Artificiale, în special în ceea ce privește deciziile automate și impactul asupra drepturilor și libertăților cetățenilor?
Dragoș Tudorache: Am atins deja la prima întrebare acest acest subiect. Important de spus că practic, întreaga logică a acestui text pornește de la nevoia de transparență și responsabilitate. Deci practic ceea ce își propune și motivul principal pentru care s-a hotărât reglementarea aceasta e tocmai pentru a crește încrederea în societate. Practic vine din transparență și din asumarea clară a unei responsabilități, în așa fel încât cetățenii să știe că drepturile lor și interese lor sunt protejate, să vadă în mod concret cum care sunt limitele în utilizarea acestei tehnologii și pe partea celor care le dezvoltă sau le utilizează sau le pun în practică să aibă un cadru foarte clar în care o pot face. Deci, practic aș vrea să spun că totul este despre transparență și responsabilitate. Doar câteva exemple clare în modul de conformare pe care trebuie să-l urmeze ceea ce dezvoltă algoritmi de inteligență artificială pe zonele mari de risc.
Sunt reguli foarte clare cu privire la datele care pot fi folosite în antrenarea algoritmelor în așa fel încât să se asigure că aceste date nu conțin nici potențial de prejudecăți de discriminare, nici date eronate care pot apoi să genereze un conținut eronat. De asemenea transparență și responsabilitate pe parametri de funcționare în modul în care algoritmul recomandă sau ia decizii dacă e vorba despre astfel de algoritmi sau modul în care generează conținut. Deci practic tipu de de de instrucțiuni și parametri induși de funcționare pentru acești algoritmi, obiectivele care sunt date acestor algoritmi, criteriile pe care aceste obiective sunt construite. Deci practic toată această cutie care până acum era neagră știai ce iese dintr-un algoritm de inteligență artificială, dar nu știa ce se întâmplă înăuntru acelui cutii.
Ideea cum este tocmai de a trea de a transparentiza cât mai mult din modul în care funcționează pentru a înțelege de ce ajung acești algoritmi să să recomandă anumite lucruri, de ce îmi este respins un credit la bancă sau nu, ce a fost pus algoritmului să facă sau să nu facă și practic din această transparență să crească încrederea cetățenilor în utilizarea acestei tehnologii. Asta este, re-repet, în esență ceea ce urmărim prin reglementarea actuală.
ChatGPT: Ce măsuri propuneți pentru a asigura o utilizare etică a Inteligenței Artificiale și prevenirea utilizării sale în scopuri malefice sau discriminatoare?
Dragoș Tudorache: Da, repet, să zic, logica elementară a textului este pornește tocmai de la nevoia de a induce această regulă și acest și acest obiectiv de utilizare etică a inteligențe artificiale. Și important aici de subliniat că ceea ce noi ne propunem prin acest regulament nu este reglementarea tehnologiei în sine, pentru că nici nu ar fi corect util să reglementăm tehnologia. Tehnologia în sine este neutră. Este ca orice obiect, ca orice instrument, el poate fi folosit într-un scop sau într-altul, ceea ce îl poate face un scop util sau un scop malefic, discriminator. Deci, practic, noi ceea ce reglementăm în regulamentul acesta nu e tehnologia. Cum spuneam, ce este utilizare ei și în funcție de această utilizare și de scopurile precise alocate acestor acestor algoritmi îi împărțim în categorii care pornesc de la categoria cea mai dăunătoare, să spun intereselor noastre ca cetățeni sau ca societate. Atât de dăunătoare încât acele utilizări posibile de inteligență artificială sunt interzise prin acest regulament.
Vă dau câteva exemple împărțirea sau alocarea de scoruri sociale indivizilor pe baza automată, ceea ce se întâmplă deja de ani buni societatea chineză. Această utilizare a inteligenței artificiale noi spunem în Europa că nu o vrem este pur și simplu interzis. La fel, utilizarea inteligenței artificiale pentru supravegherea permanentă a populației în spații publice. E genul de big brother. E genul de utilizare a tehnologiei într-un mod pe care îl considerăm mult prea abuziv față de drepturile și de viața privată a cetățenilor. La fel, partea de implementare a legii prin predicții. Deci, atunci când începi să fac predicții, dacă cineva este mai probabil să comită o infracțiune sau nu.
Alocând către anumite categorii de populație o probabilitate mai mare sau mai mică de a comite o faptă contravențională sau penală? Din nou, aceasta este o utilizare a tehnologiei pe care o considerăm mult prea dăunătoare societății și drepturilor individului, mult prea dis disproporționată de fapt în în între beneficii și riscuri, încât propunem să o interzicem prin legislație. Deci câteva exemple de tipuri de utilizare pe care în regulament le vom considera ca fiind interzise. Urmează apoi o altă categorie celor a inteligenței artificiale cu risc ridicat în în utilizare care va avea va putea fi pusă pe piață.
Dar dezvoltatorii sau cei care pun în în în aplicare o astfel de tehnologie vor trebui să treacă prin anumite cerințe legale, să respecte anumite reguli cu privire la modul în care sunt construite bazele de date, seturile de date folosite în antrenarea algoritmilor, la robustețea algoritmului și capacitatea lor de a nu fi subiect de atacuri cibernetice, deci rezistența și modul în care pot ne pot proteja datele atunci când utilizează mai ales date personale, parametrii de funcționare, deci practic toate lucrurile de care vorbeam înainte și care generează acel sentiment de încredere al utilizatorului în tehnologie. Deci practic acestea sunt elemente pe care un algoritm clasat în categoria de risc înalt vor trebui să le respecte. Și apoi avem o categorie de reguli speciale pentru ceea ce numim inteligență artificială generativă.
Exemplu, repet, pe care-l știe toată lumea este ChatGPT, dar e o gamă foarte largă aici de tipuri de algoritmi care prin scopul lor în sine, nu sunt sau nu pot fi clasați într-una din categoriile de risc, pentru că riscul în sine a procesat text sau a procesa imagine nu reprezintă în sine un risc, însă pentru modul în care au fost, prin modul în care au fost antrenați acești algoritmi, prin tipul de conținut pe care îl generează, ei induc alt fel de riscuri în în societate și în raport cu indivizii, riscuri care trebuie și ele bine controlate și conturat.
Și de aceea, pentru partea aceasta de algoritm generativ de inteligență artificială am gândit un regim special care se va aplica acestora și care bineînțeles că reia din nou tema transparenței, așa cum e valabil și pentru celelalte modele, dar vine și cu două zone specifice de responsabilitate, una în ceea ce privește conținutul pe care îl generează și a 2-a în ceea ce privește folosirea de material protejat prin legislația privind drepturile de autor. Atunci când folosești material protejat în antrenarea algoritmilor, fie că vorbim de artă, că sunt imagini, că sunt ablouri, că e muzică, că e text, operă literală sau în zona de operă științifică și produs științific.
În aceste situații dezvoltatorul de astfel de modele va avea obligația să fie transparent, să documenteze practic foarte bine tot materialu protejat de legislația de drepturi de autor pe care l-a folosit în antrenarea algoritmului, în așa fel încât apoi cei care sunt titularii acelor drepturi să poată decide dacă, în funcție de conținutul pe care modelul respectiv de inteligență afișa îl generează, dacă drepturile lor sunt încărcate sau nu, dacă melodia produsă de LGBT e o melodie care seamănă foarte mult cu melodia mea și cu stilul meu sau nu și în funcție de asta să-mi valorifică acele drepturi sau nu.
Prin introducerea acestor reguli se va crea și un reflex la nivelul celui care dezvoltă acest algoritm, care vor prefera să preîntâmpine riscurile prin a deschide deja ușa către autori, către cei care pot fi afectați în interesele lor de acești algoritmi și dându-le astfel posibilitatea de a-și valorifica drepturile lor în mod structural. Prin felul în care acești algoritmi funcționează și din ce aud deja în piață încep să fie dezvoltate astfel de modele prin care fie compozitorii, autorii de de de de muzică, pentru că zona aceasta de creație artistică, riscurile sunt la momentul acesta cele mai mari. Dar cred eu că și în zona de produs științific, deși poate încă nu a reacționat, să spun piața, sectorul științific încă. Dar eu sunt convins că și acolo vor trebui create mecanisme și gândite mecanisme noi prin care acest lucru se întâmplă.
ChatGPT: Cum veți colabora cu alte țări și organizații internaționale pentru a promova o abordare globală a reglementării Inteligenței Artificiale și pentru a evita fragmentarea și conflictele între diversele reglementări naționale?
Dragoș Tudorache: Acest aspect al convergenței globale e foarte important. Nouă nu era foarte ușor la nivel european să mizăm pe ceea ce se numește efectul Bruxelles. Așa cum s-a întâmplat și cu GDPR-ul și cu alte tipuri de legislație, în care noi, europenii, fiind primii în a veni cu o reglementare orizontare pe domeniile respective, reprezentam un standard sau un model pe care și alte jurisdicții la nivel global tindeau să le copie sau să replice în legislația națională. De data aceasta însă, cu inteligență artificială am abordat lucrurile cumva diferit. Mai puțin arogant să zic și nu am mizat doar pe acest efect de Bruxelles.
Automat ce am făcut, ceea ce eu am numit de la începutul acestui dosar o diplomație a inteligenței artificiale. Adică am fost într-un contact permanent cu toate celelalte democrații ale lumii, care înțeleg valoric rolul tehnologie în societate. În același fel, bineînțeles că, în primul rând, partenerul transatlantic, dialogul cu Congresul Statelor Unite, cu administrația Biden, cu organismele instituționale responsabile în Statele Unite, cu dezvoltarea principiilor sau a standardelor în zona de inteligență artificială. Acesta a fost un contact permanent și la nivel politic și tehnic, tocmai pentru că am vrut, din felul în care desenăm, dezvoltăm acest act normativ, să reușim o aliniere cât mai cât mai bună cu parteneri americani, înțelegând că apetitul pentru legislație în congres nu era unul comparabil cu cel european.
Ceea ce se întâmplă însă de trei luni încoace, de la ChatGPT, este o creștere a atenției la nivel politic și în Statele Unite pe acest subiect și vă pot spune că tocmai m-am întors dintr-o vizită în Statele Unite în care m-am întâlnit cu reprezentanți din Congresul american care sunt atenți la acest subiect. Subiectul a urcat enorm de mult pe agendă și acolo și există o preocupare pe care eu cred că o vom vedea foarte curând, transformată în inițiative la nivel legislativ. Poate nu comparabil e ca detaliu cu ceea ce avem la nivel european, dar trebuie să înțelegem că și sistemul funcționează altfel.
Deci probabil că modelele vor arăta diferit, dar efectul net final va fi unul foarte asemănător. Se va lucra foarte mult la standarde. Deci, convergența pe linia transatlantică va fi una pe care o vom obține relativ repede. Și același lucru apoi trebuie să-l facem și cu celelalte democrații ale lumii. Și spuneam la început, am fost în contact cu reprezentanții guvernul Japoniei, Coreei de Sud, Australiei, Canadei, Indiei, deci practic cu toate celelalte democrații care au un interes în a participa la desenarea unei guvernanțe globale sau unui mod comun la nivel global de reglementare a acestei tehnologii. Am făcut, de altfel și un apel public într-o scrisoare pe care am inițiat-o și pe care au consemnat-o toți raportorii din umbră care lucrează cu mine la acest dosar, o scrisoare prin care făceam apel către președintele Biden.
Ursula von der Leyen ridicat subiectul la nivel global cât mai repede. Vedem că deja la summit-ul G7 din această săptămână, subiectul inteligențe artificiale a fost prezent pe agendă și eu sunt convins că vom mai vedea astfel de dezbateri la cel mai înalt nivel cât se poate de curând, tocmai pentru că, repet, toată lumea simte că e nevoie de convergență globală pe subiectul ăsta. Și asta vine și cu aceasta. Și închei, apropo de conflictele între diversele reglementări, asta vine și din realizarea faptului că mai există și alte modele la nivel global de utilizare a tehnologiei, nu într-o aliniere cu valorile așa cum o înțelegem noi și aici bineînțeles că vorbesc de China.
Noi, democrațiile lumii, avem un interes de a fi aliniați în dialogul necesar pe care va trebui să îl inițiem cu China și cu alții care ar vrea să vadă alt model de reguli și standarde dezvoltate pentru această tehnologie, care e un bun comun și pentru care, repet, la nivel global, și cu prietenii, dar și cu cei care sunt mai puțini prieteni, va trebui în anii care vin, să lucrăm împreună.
Notă: Redactorul a avut intervenții minimale pe textul transcris, motiv pentru care este posibil să mai existe mici erori de redare.
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen BankCitește și...
© 2024 G4Media.ro - Toate drepturile rezervate
Acest site foloseşte cookie-uri.
Website găzduit de Presslabs.
3 comentarii