G4Media.ro

Atenție la pronunțarea literelor b, m și p: Ghid pentru depistarea deepfake,…

Foto: DNSC

Atenție la pronunțarea literelor b, m și p: Ghid pentru depistarea deepfake, lansat de o agenție guvernamentală

Directoratul Național de Securitate Cibernetică (DNSC), o instituție guvernamentală, a lansat duminică un ghid privind identificarea materialelor de tip Deepfake, potrivit unui comunicat. Ghidul oferă informații despre ceea ce înseamnă Deepfake, procesul de realizare și cum pot fi identificate.

Deepfake-ul este o formă de manipulare digitală care utilizează tehnici avansate de inteligență artificială pentru a crea conținut de tip imagini sau audio-video falsificat. Acest fenomen poate avea consecințe semnificative asupra societății, inclusiv impactul asupra securității și a încrederii publicului în informațiile din mediul online.

  • Exemplu de deepfake, potrivit DNSC: Banca Națională a României (BNR) a avertizat publicul cu privire la o schemă de înșelăciune care implică utilizarea tehnologiei Deepfake pentru a crea videoclipuri false cu guvernatorul BNR. În aceste videoclipuri, guvernatorul pare să promoveze o platformă de investiții, însă BNR a declarat că acestea sunt false. Scamul folosește IA pentru a modifica vocea și imaginea guvernatorului, cu scopul de a induce în eroare publicul pentru a participa la investiții frauduloase, promițând câștiguri financiare rapide și ușoare.

Indicii care pot trăda un Deepfake, potrivit ghidului:

• Mediul înconjurător (de exemplu, umbre inexistente, reflexii prea puternice, zone neclare)

• Imperfecțiuni ale feței (alunițe nerealiste, clipire nesincronizată, distorsiuni în interiorul gurii cum ar fi lipsa dinților și a limbii, dinți mult prea perfecți etc.)

• Nesincronizarea vorbirii/sunetului și a mișcării buzelor, de exemplu: din cauza strănutului

Nesincronizarea vorbirii/sunetului și a mișcării buzelor poate fi observată la pronunțarea literelor b, m și p.

Uneori apar pixeli în nuanțe de gri la marginile componentelor modificate. Se poate distinge dacă este vorba de o falsificare și atunci când persoana din înregistrare este privită dintr-un alt unghi. Dacă pentru crearea conținutului Deepfake nu s-au folosit fotografii ale persoanei din unghiuri diferite, algoritmul nu poate deduce aspectul persoanei din alt unghi, rezultând distorsiuni.

Sfaturi pentru a evita să fii păcălit de Deepfake-uri:

• Nu crede tot ce vezi online! Internetul este o sursă vastă de informații, dar nu toate sunt veridice. Este important să dezvolți un scepticism sănătos și să analizezi cu atenție orice conținut video sau foto înainte de a-l accepta ca fiind real.

• Caută semne de manipulare: Deepfake-urile pot fi foarte sofisticate, dar adesea pot fi identificate prin anumite indicii. Fii atent la discrepanțe de iluminare, erori de aliniere, nereguli ale pielii sau probleme de sincronizare a buzelor cu sunetul.

• Verifică sursa: De unde provine videoclipul sau imaginea? Este distribuit pe o platformă de încredere? Caută confirmarea informației din surse credibile sau direct de la entitățile sau persoanele implicate.

• Folosește instrumente de verificare: Există numeroase organizații și instrumente online care te pot ajuta să verifici dacă o informație este reală. Utilizează-le pentru a cerceta autenticitatea conținutului suspect.

• Nu te baza pe o singură sursă: Caută confirmare din mai multe surse credibile. Un singur videoclip sau imagine nu este suficient pentru a verifica o informație.

• Învață despre Deepfake-uri: Cu cât înțelegi mai bine cum funcționează această tehnologie, cu atât vei fi mai capabil să identifici falsurile. Există multe resurse online care explică principiile Deepfake-urilor și metodele de detectare.

Deepfake-urile sunt create folosind o combinație de tehnici de IA și învățare automată (Machine Learning – ML). Tehnologiile implicate sunt:

1. Rețele neuronale convoluționale (CNNs): Sunt tipuri de rețele neuronale artificiale specializate în analiza imaginilor și a videoclipurilor. Ele sunt antrenate pe seturi mari de date, imagini și videoclipuri reale pentru a învăța caracteristicile faciale, expresiile, mișcările corpului și alte detalii vizuale.

2. Rețele neuronale generative (GANs): Rețele neuronale artificiale care pot genera conținut nou, realist, similar cu datele pe care au fost antrenate. În contextul Deepfake, GAN-urile sunt utilizate pentru a genera imagini și videoclipuri false care sunt foarte asemănătoare cu cele reale.

3. Învățarea automată (ML): Este utilizată pentru a antrena algoritmii Deepfake să identifice și să manipuleze elemente specifice ale imaginilor și videoclipurilor, cum ar fi expresiile faciale, mișcările buzelor, sincronizarea audio, etc.

Citește aici ghidul integral pentru detectarea deepfake-urilor realizat de DNSC

Publicitate electorală

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...

5 comentarii

  1. In viitorul apropiat, nimeni nu va putea distinge informațiile false de cele adevărate, singura șansă a unui stat puternic rămânând instituțiile de presă. Statul trebuie sa asigure existența acestora, iar publicul va ști că dacă își ia informația dintr-o sursa de încredere, acea informație va fi adevărată.

    • Vezi ca ai uitat sa mentionezi presa INDEPENDENTA care din pacate lipseste pe la noi. Presa nu mai este garantul informatiilor libere si independente, ci a ajuns catelul politicienilor corupti de la putere.

    • Pe vremea lui Ceaușescu nu aveam informații, doar propagandă. Acum avem prea multe informații pe care nu le mai putem distinge de propagandă.

  2. Cred că ar fi utili niște algoritmi care să poată să detecteze astfel de deepfake-uri și care să fie integrați în rețelele sociale.

  3. Presupun că organe de stat, cum este și acest directorat de securitate cibernetică, au – sau ar trebui să aibă – și atribuții de localizare, identificare și tragere la răspundere a celor care se folosesc de produsele deepfake prin care storc bani de la oameni. Și eu am întâlnit exemplul cu Mugur Isărescu ( și Andreea Esca ) și erau atât de perfecte, încât recunosc că nu amănuntele și semnele mici m-au determinat să nu mă folosesc de ”șansa unică”, ci faptul că nicăieri în lume nu se întâmplă ca un guvernator de bancă națională să facă așa ceva. Era un semn pentru dummies. Pe de altă parte, tocmai prin folosirea unui personaj de prestigiul lui Isărescu, pot fi făcuți unii să cadă pradă înșelătoriei.