Deepfake şi înregistrări video manipulate. Cum funcţionează partea ascunsă a inteligenţei artificiale
«Fake news», adică ştiri false. Un subiect despre care se vorbește mult, un subiect ce priveşte în special internetul, rolul central jucat de rețelele sociale ca sursă de informații. Un context problematic dacă, aşa cum subliniază CBInsights, aproximativ 52% din traficul online (în special pe platformele sociale) este generat de Boţi, adică de programe de computer construite ad hoc pentru a se preface că sunt ființe umane. Desigur, dincolo de asta persistă întrebarea: cum se construiesc știrile false?
(Analiză publicată pe platforma Il Sole 24 ore, preluată de Rador)
Tot CBInsights furnizează într-un raport o descriere a câtorva dintre cele mai interesante linii de asamblare ale „Fabricii” de „fake news”. Una dintre acestea se referă chiar la înregistrări video. Imagini ale unor personalități importante, precum politicieni, care ar putea fi manipulate.
O mistificare care poate fi folosită pentru a discredita un lider (poate în timpul unei campanii electorale), sau pentru a crea tensiuni diplomatice și a afecta deciziile geopolitice ale unui guvern.
Cum funcționează inteligența artificială?
CBInsights indică un studiu efectuat de câţiva oameni de știință de la Universitatea din Washington. Experții au preluat mai întâi un fișier audio al lui Barack Obama. Ulterior, folosind un sistem neuronal, au identificat, prin analiza a milioane de imagini ale fostului președinte al Statelor Unite, diferite forme și poziții aleatorii ale gurii sale și ale mișcărilor sale. Apoi inteligența artificială (AI) a definit secvența corectă de poziții care se adaptau la fișierul audio.
Ulterior, video-ul „construit” al părţii inferioare a feței lui Obama a fost rezumat într-un material filmat în care fostul preşedinte spunea cu totul altceva. AI-ul a reușit nu numai să reasambleze mișcările gurii, dar și detalii cum ar fi de exemplu mișcarea ridurilor din jurul buzelor, sau a bărbiei.
Rezultatul final? Un clip audio-video de înaltă definiție în care Obama spune într-un mod absolut natural lucruri rostite cu o altă ocazie.
Avantajele inteligenţei artificiale
Desigur că cineva poate spune că astfel de mecanisme sunt cunoscute de mult timp, deci, care e noutatea?
Răspunsul este articulat pe un plan dublu: primul priveşte utilizarea AI. Sistemul neuronal reușește să realizeze un material video într-un timp scurt și cu un consum redus de energie. În trecut, ar fi fost necesară intervenția experților de post-producție din cinematografie. Şi nu numai.
Munca ar fi fost foarte complicată, lungă și plictisitoare. Mai există apoi şi cel de-al doilea plan al răspunsului: cel al preciziei. Desigur, chiar și cu intervenția inteligenței artificiale pot rămâne posibile mici erori. Și totuși, nivelul noului material video este de înaltă calitate şi este foarte, foarte dificil (dacă nu imposibil) să înțelegem cu ochiul uman că ne aflăm în faţa unui fals.
Cum poate fi schimbată expresia facială?
Situația se repetă într-o altă situație, adică în cea descrisă într-un experiment interesant realizat de câţiva oameni de știință de la Universitatea din Stanford, de la Universitatea Erlangen-Nürnberg și de la Institutul pentru Informatică Max Plank.
În acest caz, cercetătorii au demonstrat cum este posibil, rămânând în lumea online, să se reconstruiască în timp real un video de pe net, folosind o simplă cameră web. În special chipul unui actor, filmat de aceeași cameră web, este capabil să modifice expresia personajului din materialul video.
În descrierea experimentului, oamenii de știință au subliniat că metodologia în cauză poate avea, de exemplu, un impact pozitiv în utilizarea conferințelor video. Dincolo de acest lucru, totuși, experimentul lor subliniază inevitabil ușurința cu care imaginile pot fi deformate și riscul asociat acestor metodologii.
Sistemele neuronale nesupervizate
Pe scurt: lumea „fake news” se află printre noi. Și va fi din ce în ce mai dificil s-o combatem deoarece, aşa cum reaminteşte CBInsights, inteligența artificială, care are mii de implicații pozitive și care poate ajuta enorm omul (destul să ne gândim la diagnosticare, în medicină) are şi partea sa întunecată fiind capabilă să creeze conținut digital complet fals şi există cazuri în care, de exemplu, sunt exploatate sisteme neuronale nesupervizate.
Ce înseamnă acest lucru? Pentru a răspunde este necesar să reamintim mai întâi că AI poate fi supervizată, sau nu. În primul caz, în cuvinte simple și fără a pretinde a fi exhaustivi, „rețeaua neuronală” funcționează astfel: În principiu, sistemul prevede operațiuni paralele și pe mai multe niveluri.
Informația (input) este introdusă în nod (neuronul simulat) care, după ce a „prelucrat-o”, o transmite la următoarele noduri și în paralel. Se ajunge astfel la un prim rezultat (output) tranzitor. Acesta este „trecut” la nivelul superior unde se repetă procesul. Din nivel în nivel, rețeaua neuronală, într-un mod autonom, ajunge la procesarea finală a informațiilor.
Cu toate acestea, procesul este supervizat. Input-ul inițial, anumite date, cum ar fi imaginea unui om, trebuie să fie în concordanță cu output-ul final: mașina este instruită să „considere” imaginea ca fiind un om. Până când nu se întâmplă acest lucru, procedura se repetă. În cele din urmă, inteligența artificială îl va recunoaște pe om, iar căile urmate în elaborarea intrărilor (input) vor fi decise în mod autonom de inteligența artificială (Ai).
În caz de AI nesupervizat, dimpotrivă, activitatea de antrenament pentru a potrivi rezultatul final cu cel inițial (mașina recunoaște pisica în poza unei pisici) nu există. Input-ul este procesat de sistemul neuronal care, în mod independent, poate da naștere erorii, adică ieșirii unei știri false.
La rândul său, acest proces este „monitorizat” de un alt sistem neuronal care evaluează dacă ieșirea falsă este recunoscută ca atare sau nu. Până când cea de-a doua AI nu constată că informațiile par adevărate, rezultatul primului sistem nesupravegheat este trimis înapoi.
Doar atunci când „sistemul neuronal” de control recunoaște „știrile false” ca fiind reale, procesul va fi complet. Desigur că se poate spune: care este obiectivul acestui efort? Cel de a da viață unor știri, sau unor părți de text, care sunt false, dar care par a fi foarte adevărate.
Dincolo de AI nesupervizat, în general, trebuie spus că sistemele pentru construirea de „fake news” funcționează bine cu personajele cunoscute, deoarece pe Internet există mii, dacă nu chiar milioane, de videoclipuri și informații despre aceştia.
Adică: liniile de asamblare ale „fabricii” de „fake news” au la dispoziție o multitudine de materii prime cu care pot lucra. Totuși, acest lucru nu exclude faptul că fenomenul poate afecta pe oricare dintre noi. Tehnologiile progresează și este din ce în ce mai ușor să se falsifice imagini cu date puține.
De exemplu, societatea canadiană Lyerbird, care desfășoară activități absolut legale, dezvoltă o inovație care permite, grație unui material audio de doar un minut, să genereze „discursuri” artificiale diferite și mult mai lungi.
Propaganda computaţională
Nu există doar aspectul video sau audio. Mai există şi frontul „propagandei computaționale”. Adică, în cuvinte simple, a algoritmilor și a automatizării publicării știrilor exploatate cu scopul de a susține, de exemplu, o anumită campanie electorală.
Un fenomen care, potrivit experților, este realizat adesea de grupuri organizate „susţinute” sau legate indirect de state. Un studiu realizat de Universitatea Oxford a descoperit, de exemplu, că din anul 2010 şi până în prezent au existat campanii de manipulare a reţelelor sociale în cel puțin 28 de state.
Cercetările indică faptul că „regimurile autoritare nu sunt singurele (…) care au organizat” activități similare. De fapt, cel mai mare număr de cazuri a fost detectat în Statele Unite, apoi în Rusia și în China.
Acestea fiind spuse, întrebarea este: cum sunt răspândite știrile false sau verosimile? Pentru a înțelege pe deplin fenomenul, trebuie „în primul rând să ne amintim – subliniază Lucio Lamberti, profesor de marketing la Școala de Management al Institutului Politecnico din Milano – că acesta se bazează pe așa-numita „prejudecată de confirmare”.
Adică? „Este o atitudine, prezentă în ființa umană, în virtutea căreia, înainte de a încerca să ne facem o opinie proprie, de exemplu despre un eveniment, tindem să căutăm confirmarea a ceea ce știm deja”.
”Crearea unei noi opinii implică efort, muncă”. Este necesar să înțelegem dacă sursa „știrii” este credibilă; dacă există un conflict de interese, sau dacă informațiile sunt corecte sau conțin erori. „Instinctiv, ființa umană tinde să evite acest angajament”.
Puterea computerelor și a datelor personale
Ei bine, în contextul descris există un fenomen dual. Pe de o parte, avem digitalizarea informațiilor (internetul), cu extinderea simultană a rețelelor sociale și desintermedierea mass-mediei tradiționale. Pe de altă parte asistăm la evoluția puterii computerelor.
Algoritmii, din ce în ce mai sofisticați, permit depistarea urmelor lăsate de utilizatorii online: de la aprecierile de pe platformele sociale, la site-urile vizitate, videoclipurile descărcate sau comentariile scrise în chat-uri. O cantitate imensă de informații (big data) care sunt exploatate la maximum (nu întotdeauna în conformitate cu legea) pentru a defini grupuri (cluster) de persoane.
Subiecți care, identificați în caracteristicile lor personale, devin obiecte ale micro-orientării „noului fals” (fake new). Ceea ce înseamnă că știrea falsă nu este trimisă la întâmplare, ci transmisă acelor subiecți care par a fi mai ușor „agresaţi” de informația falsă.
Cu alte cuvinte: cei care sunt mai înclinaţi s-o creadă. Science-fiction? Absolut nu. CBInsights reamintește că într-un e-mail de la Cambridge Analytica (compania implicată în scandalul despre presupusa ingerință ilegală la ultimele alegeri prezidențiale din SUA) au fost indicate multe caracteristici prin care să se poată defini comportamentul unui subiect: de la „banala” orientare politică și religioasă, pâna la predilecția pentru utilizarea armelor de foc sau la încrederea în astrologie.
Jocul partajărilor
Acestea fiind spuse, rămâne însă întrebarea: dincolo de micro-targeting și ”prejudecata confirmării”, cum reușește un „fake news” să devină viral, să se extindă în lumea internetului? Prin mecanismul confirmării.
Aceasta este o altă „prejudecată” care, în cuvinte simple, constă în presupunerea că toţi gândesc ca noi, motiv pentru care, în general, ne regăsim adesea cu persoane care au comportamente similare cu cele ale noastre şi împărtășim paginile rețelelor sociale cu cei care ni se par similari sau care ne plac. Oameni cu care avem deseori idei în comun. În acest sens, „atunci când un ‘amic social’, la care a ajuns un „fake news ” îl distribuie, deseori şi noi facem acelaşi lucru”.
Piatra (știrea falsă) lansată în apă creează unde care, în momentul în care se diminuează, sunt revitalizate prin mecanismul de distribuire. Un sistem amplificat prin utilizarea a mii și mii de „roboți”. Computere a căror sarcină este exact aceea de a trimite ştirea falsă şi de a o relansa din nou și din nou, până când mingea de zăpadă se transformă într-o avalanșă.
”Trebuie spus” – adaugă Giovanni Ziccardi, profesor de Informatică Juridică la Universitatea din Milano și expert în domeniu – ”că în propaganda politică de acest tip, tehnica constă în polarizarea discuției. Argumentele împărtăşite sunt identificate științific. Știrea falsă trebuie să se ocupe de tematici în care este mai ușor să se inducă poziții ‘nete’ și precise. În acest fel, ținta „știrilor false”, deja predispusă să o accepte, își va da consimțământul și o va distribui. Apoi „ amicul social ”, care uneori poate avea şi dubii în materie, o va propune mai departe, pentru simplul motiv că, după ce a fost postată de o persoană cu care împărtășeşte viziunea despre realitate (mai mult sau mai puțin), este oricum, interesantă. Are o anumită valoare”.
Până acum am descris „fabricarea” de „fake news”. Care sunt totuși metodele posibile de combatere a acesti practici?
”Este un fenomen greu de combătut” – spune Fabrizio Lillo, profesor de finanțe cantitative la Universitatea din Bologna.
„În cercetările noastre privind influența rețelelor sociale asupra tranzacționărilor de pe Wall Street, am constatat că o mare parte a conturilor erau false. Bots construite cu artă și aproape imposibil de identificat prin simplul ochi uman. Cu toate acestea, tehnologia în sine poate reprezenta un sistem de apărare”, a explicat el.
Cum? „Ideea noastră a fost să identificăm, prin intermediul software-ului, toate conturile care se mişcau simultan și în manieră similară. Procedând astfel, i-am putut descoperi pe „impostori”, a dezvăluit Lillo.
”Sunt de acord – răspunde Ziccardi. Tehnologia este fundamentală. Cu toate acestea, trebuie completată cu intervenția legislativă. De exemplu, atunci când o ştire falsă reprezintă o defăimare, aceasta trebuie urmărită penal. Și-atunci trebuie să continuăm să actionăm pe frontul culturii, al cunoașterii. Este esențial ca, noţiuni precum, de exemplu, credibilitatea sursei de informație, să se extindă pe cât posibil „.
Articol de Vittorio Carlini / Traducerea: Cătălina Păunel
Foto: Imagini de tip ”deep fake” cu Barack Obama create cu ajutorul Inteligenței Artificiale / Sursa: Facebook
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen Bank
6 comentarii