Atenție la pronunțarea literelor b, m și p: Ghid pentru depistarea deepfake, lansat de o agenție guvernamentală
Directoratul Național de Securitate Cibernetică (DNSC), o instituție guvernamentală, a lansat duminică un ghid privind identificarea materialelor de tip Deepfake, potrivit unui comunicat. Ghidul oferă informații despre ceea ce înseamnă Deepfake, procesul de realizare și cum pot fi identificate.
Deepfake-ul este o formă de manipulare digitală care utilizează tehnici avansate de inteligență artificială pentru a crea conținut de tip imagini sau audio-video falsificat. Acest fenomen poate avea consecințe semnificative asupra societății, inclusiv impactul asupra securității și a încrederii publicului în informațiile din mediul online.
- Exemplu de deepfake, potrivit DNSC: Banca Națională a României (BNR) a avertizat publicul cu privire la o schemă de înșelăciune care implică utilizarea tehnologiei Deepfake pentru a crea videoclipuri false cu guvernatorul BNR. În aceste videoclipuri, guvernatorul pare să promoveze o platformă de investiții, însă BNR a declarat că acestea sunt false. Scamul folosește IA pentru a modifica vocea și imaginea guvernatorului, cu scopul de a induce în eroare publicul pentru a participa la investiții frauduloase, promițând câștiguri financiare rapide și ușoare.
Indicii care pot trăda un Deepfake, potrivit ghidului:
• Mediul înconjurător (de exemplu, umbre inexistente, reflexii prea puternice, zone neclare)
• Imperfecțiuni ale feței (alunițe nerealiste, clipire nesincronizată, distorsiuni în interiorul gurii cum ar fi lipsa dinților și a limbii, dinți mult prea perfecți etc.)
• Nesincronizarea vorbirii/sunetului și a mișcării buzelor, de exemplu: din cauza strănutului
Nesincronizarea vorbirii/sunetului și a mișcării buzelor poate fi observată la pronunțarea literelor b, m și p.
Uneori apar pixeli în nuanțe de gri la marginile componentelor modificate. Se poate distinge dacă este vorba de o falsificare și atunci când persoana din înregistrare este privită dintr-un alt unghi. Dacă pentru crearea conținutului Deepfake nu s-au folosit fotografii ale persoanei din unghiuri diferite, algoritmul nu poate deduce aspectul persoanei din alt unghi, rezultând distorsiuni.
Sfaturi pentru a evita să fii păcălit de Deepfake-uri:
• Nu crede tot ce vezi online! Internetul este o sursă vastă de informații, dar nu toate sunt veridice. Este important să dezvolți un scepticism sănătos și să analizezi cu atenție orice conținut video sau foto înainte de a-l accepta ca fiind real.
• Caută semne de manipulare: Deepfake-urile pot fi foarte sofisticate, dar adesea pot fi identificate prin anumite indicii. Fii atent la discrepanțe de iluminare, erori de aliniere, nereguli ale pielii sau probleme de sincronizare a buzelor cu sunetul.
• Verifică sursa: De unde provine videoclipul sau imaginea? Este distribuit pe o platformă de încredere? Caută confirmarea informației din surse credibile sau direct de la entitățile sau persoanele implicate.
• Folosește instrumente de verificare: Există numeroase organizații și instrumente online care te pot ajuta să verifici dacă o informație este reală. Utilizează-le pentru a cerceta autenticitatea conținutului suspect.
• Nu te baza pe o singură sursă: Caută confirmare din mai multe surse credibile. Un singur videoclip sau imagine nu este suficient pentru a verifica o informație.
• Învață despre Deepfake-uri: Cu cât înțelegi mai bine cum funcționează această tehnologie, cu atât vei fi mai capabil să identifici falsurile. Există multe resurse online care explică principiile Deepfake-urilor și metodele de detectare.
Deepfake-urile sunt create folosind o combinație de tehnici de IA și învățare automată (Machine Learning – ML). Tehnologiile implicate sunt:
1. Rețele neuronale convoluționale (CNNs): Sunt tipuri de rețele neuronale artificiale specializate în analiza imaginilor și a videoclipurilor. Ele sunt antrenate pe seturi mari de date, imagini și videoclipuri reale pentru a învăța caracteristicile faciale, expresiile, mișcările corpului și alte detalii vizuale.
2. Rețele neuronale generative (GANs): Rețele neuronale artificiale care pot genera conținut nou, realist, similar cu datele pe care au fost antrenate. În contextul Deepfake, GAN-urile sunt utilizate pentru a genera imagini și videoclipuri false care sunt foarte asemănătoare cu cele reale.
3. Învățarea automată (ML): Este utilizată pentru a antrena algoritmii Deepfake să identifice și să manipuleze elemente specifice ale imaginilor și videoclipurilor, cum ar fi expresiile faciale, mișcările buzelor, sincronizarea audio, etc.
Citește aici ghidul integral pentru detectarea deepfake-urilor realizat de DNSC
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen Bank
© 2024 G4Media.ro - Toate drepturile rezervate
Acest site foloseşte cookie-uri.
Website găzduit de Presslabs.