G4Media.ro

VIDEO Cum sunt folosite inteligența artificială și deepfake ca arme în revenge…

sursa foto: Unsplash

VIDEO Cum sunt folosite inteligența artificială și deepfake ca arme în revenge porn/ ”Este vorba de cultura violului. Le poate fi greu să nege că nu sunt chiar ele”/ Riscurile și avantajele folosirii AI-ului/ Avertismentele oficialilor

În cadrul unui studiu realizat de cercetătorii de la Universitatea California, Berkeley și intitulat „Deepfakes and Disinformation: Exploring the Impact of Synthetic Political Video on Deception, Uncertainty, and Trust in News”, au fost analizate efectele deepfake-urilor asupra opiniei publice și a încrederii în știri. 

Astfel, participanților le-au fost prezentate două videoclipuri: un videoclip real și un videoclip deepfake, manipulat pentru a prezenta o anumită persoană spunând și făcând lucruri care nu s-au întâmplat. Rezultatele au arătat că participanții au fost mai înclinați să creadă în știri false prezentate sub formă de deepfake, decât în știri autentice.

Pe platforma de socializare TikTok au apărut o mulțime de videoclipuri realizate cu ajutorul inteligenței artificiale, avându-i protagoniști pe ultimii președinți ai Statelor Unite ale Americii – respectiv Joe Biden, Barack Obama și Donald Trump. Cei trei ”joacă” MineCraft și își ”vorbesc” unul altuia, ironizându-se în timpul ”competiției”. 

Asemănările între vocile reale ale președinților și videoclipurile generate cu ajutorul inteligenței artificiale sunt atât de bine făcute încât au devenit virale, adunând milioane de vizualizări la videoclipuri.

Victimă deepfake: „Cineva mi-a luat fața, a pus-o pe un videoclip porno și a făcut să pară că sunt eu”

Un exemplu concret al folosirii tehnologiei deepfake în mod distructiv este cazul lui Kate, o femeie din Marea Britanie care a găsit videoclipuri pornografice cu fața ei în ele. Potrivit BBC, femeia a găsit videoclipurile în timp ce stătea pe Twitter: „Cineva mi-a luat fața, a pus-o pe un videoclip porno și a făcut să pară că sunt eu”, a declarat aceasta pentru BBC.

Inteligența artificială a fost folosită pentru a manipula digital un videoclip care exista deja iar astfel, fața actriței porno a fost înlocuită cu fața femeii, dând senzația că videoclipul este complet real.

Femeia este fondatoarea campaniei #NotYourPorn, campanie ce a luat naștere în urma experienței extraordinar de neplăcute pe care femeia în vârstă de 30 de ani a simțit-o. Drept urmare acțiunilor sale, unul dintre cele mai faimoase site-uri de pornografie din lume a fost nevoit să elimine toate videoclipurile încărcate pe site de către utilizatori care nu erau verificați, deci practic majoritatea conținutului site-ului.

Avertismentele oficialilor

În „evaluarea anuală a amenințărilor la nivel mondial”, în ultimii ani, înalți oficiali americani din domeniul informațiilor au avertizat în legătură cu amenințarea reprezentată de așa-numitele deepfakes – videoclipuri false convingătoare realizate cu ajutorul inteligenței artificiale, arată o analiză CNN.

„Adversarii și concurenții strategici”, au avertizat ei în 2019, ar putea folosi această tehnologie „pentru a crea fișiere de imagini, audio și video convingătoare – dar false – pentru a spori campaniile de influență îndreptate împotriva Statelor Unite și a aliaților și partenerilor noștri”.

Amenințarea nu pare prea îndepărtată. Recentul succes viral al ChatGPT, un chatbot de inteligență artificială care poate răspunde la întrebări și scrie proză, ne amintește cât de puternic poate fi acest tip de tehnologie.

Dar, în ciuda avertismentelor, nu sunt cazuri notabile încă în care deepfakes au fost implementate cu succes în geopolitică, mai arată CNN.

Există însă un grup împotriva căruia tehnologia a fost folosită ca armă în mod constant și timp de mai mulți ani: femeile.

Deepfakes au fost folosite pentru a pune fețele femeilor, fără consimțământul lor, în videoclipuri pornografice adesea agresive, după cum arată și cazul femeii din Marea Britanie. Este o ”întoarcere depravată a IA asupra practicii umilitoare a pornografiei din răzbunare, videoclipurile deepfake părând atât de reale încât victimelor de sex feminin le poate fi greu să nege că nu sunt chiar ele”, scrie CNN.

Această problemă a explodat în public săptămâna trecută, când s-a aflat că Atrioc, un bărbat de profil înalt care face streaming de jocuri video pe platforma extrem de populară Twitch, a accesat videoclipuri deepfake ale unor colege de sex feminin de pe Twitch. Ulterior, acesta și-a cerut scuze.

În mijlocul consecințelor, streamerul Twitch „Sweet Anita” a realizat că există online reprezentări deepfake ale ei în videoclipuri pornografice.

„Este foarte, foarte suprarealist să te privești făcând ceva ce nu ai făcut niciodată”, a declarat streamerul Twitch „Sweet Anita” pentru CNN după ce a realizat săptămâna trecută că fața ei a fost inserată în videoclipuri pornografice fără consimțământul ei.

„Este ca și cum te-ai uita cum ți s-ar întâmpla ceva șocant. De exemplu, dacă ai viziona un videoclip în care ești ucis sau un videoclip în care te arunci de pe o stâncă”, a spus ea.

Dar utilizarea profund tulburătoare a tehnologiei în acest mod nu este o noutate.

Într-adevăr, însuși termenul „deepfake” provine de la numele de utilizator al unui contributor anonim de pe Reddit care a început să posteze videoclipuri manipulate cu celebrități feminine în scene pornografice în 2017.

„Încă de la început, persoana care a creat deepfakes a folosit-o pentru a face pornografie cu femei fără consimțământul lor”, a declarat pentru CNN Samantha Cole, reporter la Motherboard de la Vice, care a urmărit deepfakes încă de la începuturile lor.

Comunitatea jocurilor online este un loc notorie pentru femei – campania de hărțuire „Gamergate” din 2014 este un exemplu foarte important.

Dar preocupările legate de utilizarea imaginilor pornografice lipsite de consimțământ nu sunt exclusive acestei comunități și amenință să devină tot mai frecvente pe măsură ce tehnologia inteligenței artificiale se dezvoltă cu o viteză amețitoare și ușurința de a crea videoclipuri deepfake continuă să se îmbunătățească.

„Sunt nedumerit de cât de îngrozitori sunt oamenii unii cu alții pe internet într-un mod în care nu cred că ar fi față în față”, a declarat pentru CNN Hany Farid, profesor la Universitatea din California, Berkeley, și expert în criminalistică digitală.

„Cred că trebuie să începem să încercăm să înțelegem, într-un fel, de ce această tehnologie, acest mediu, permite și scoate la iveală aparent ce este mai rău în natura umană? Și dacă vom avea aceste tehnologii înrădăcinate în viețile noastre așa cum par a fi, cred că va trebui să începem să ne gândim cum putem fi fi ființe umane mai bune cu aceste tipuri de dispozitive”, a spus el.

Este parte a unei probleme sistemice mult mai mari.

„Este vorba despre cultura violului”, a spus Cole, „Nu știu care este soluția reală, în afară de a ajunge la această problemă fundamentală a lipsei de respect și a lipsei de consimțământ și a fi de acord cu violarea consimțământului femeilor”, mai arată analiza CNN.

Au existat eforturi din partea legiuitorilor de a lua măsuri împotriva creării de imagini lipsite de consimțământ, indiferent dacă acestea sunt generate de AI sau nu. În California, au fost introduse legi pentru a încerca să contracareze potențialul ca deepfakes să fie folosite într-o campanie electorală și în pornografia neconsensuală.

Dar există scepticism. „Nici măcar nu am rezolvat problemele din sectorul tehnologic de acum 10, 20 de ani”, a declarat Farid, subliniind că dezvoltarea inteligenței artificiale „se mișcă mult, mult mai repede decât revoluția tehnologică inițială”.

Fie că a fost vorba de neglijență intenționată sau de ignoranță, Silicon Valley nu a fost pregătită pentru asaltul de ură și dezinformare care s-a înmulțit pe platformele sale. Aceleași instrumente pe care le construise pentru a aduce oamenii împreună au fost, de asemenea, folosite ca arme pentru a dezbina.

Și, deși s-a discutat mult despre „inteligența artificială etică”, în timp ce Google și Microsoft par pregătite pentru o cursă a înarmării cu inteligență artificială, există îngrijorarea că lucrurile s-ar putea mișca prea repede.

„Oamenii care dezvoltă aceste tehnologii – academicienii, oamenii din laboratoarele de cercetare de la Google și Facebook – trebuie să începi să te întrebi: „De ce dezvolți această tehnologie?””, a sugerat Farid.

„Dacă daunele sunt mai mari decât beneficiile, ar trebui să bombardați internetul cu tehnologia voastră și să o puneți acolo și apoi să stați deoparte și să spuneți: „Ei bine, să vedem ce se va întâmpla în continuare?”.

 

—-

Material publicat în cadrul proiectului „Cine și cum: combaterea dezinformării care îndepărtează cetățenii de proiectul european”, susținut de Agenția Executivă pentru Educație și Cultură (EACEA) cu atribuții delegate de Comisia Europeană.

Detalii despre proiect, AICI.

—-

Finanțat de Uniunea Europeană. Punctele de vedere și opiniile exprimate sunt însă ale autorilor și nu le reflectă în mod necesar pe cele ale Uniunii Europene sau ale Agenției Executive Europene pentru Educație și Cultură. Nici Uniunea Europeană și nici autoritatea finanțatoare nu pot fi considerate responsabile pentru acestea.

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...