G4Media.ro

FOTO Cum falsifică susținătorii Hamas realitatea folosind Inteligența Artificială: poze trucate cu…

Sursa foto: ynetnews.com

FOTO Cum falsifică susținătorii Hamas realitatea folosind Inteligența Artificială: poze trucate cu bebeluși printre dărâmături. Și israelienii generează imagini false cu militari triumfători/ Cum poți să distingi imaginile generate de AI

Utilizarea generatoarelor de imagini cu inteligență artificială a devenit din ce în ce mai populară, iar acum susținătorii Hamas profită de ea pentru a încerca să prezinte lumii o realitate falsă.

Un bebeluș de două luni zace printre dărâmăturile unei clădiri bombardate din Fâșia Gaza, fără niciun adult în preajmă care să îl ajute. Nu este de mirare că utilizatorii pro-palestinieni au distribuit această imagine pe platformele de socializare în ultimele săptămâni, încercând să amplifice tragedia palestiniană la nivel mondial. Imaginea în sine, însă, este falsă, relatează ynetnews.com.

Sursa foto: ynetnews.com

O verificare efectuată de startup-ul israelian Tasq.ai a dezvăluit fără echivoc faptul că fotografia a fost creată de un generator de imagini bazat pe inteligență artificială. O scurtă căutare pe internet a arătat că imaginea a fost postată pe rețeaua de socializare LinkedIn în urmă cu nouă luni – cu mult înainte de războiul Israelului împotriva Hamas.

Majoritatea diseminatorilor de conținut fals pe rețelele de socializare preferă să partajeze imagini din conflicte anterioare, cum ar fi cele din Ucraina sau Siria, sau chiar din jocuri video, prezentându-le drept documentație autentică din Israel sau Gaza.

Cu toate acestea, pe măsură ce războiul continuă, pe rețelele de socializare apar din ce în ce mai multe imagini generate artificial care descriu evenimente care nu au avut loc niciodată. Această tendință se adaugă la haosul și confuzia din jurul războiului, ceea ce face ca utilizatorii din Israel și din întreaga lume să aibă dificultăți în a înțelege o imagine clară a ceea ce se întâmplă în realitate.

În fotografia următoare, vedeți o documentație emoționantă a unei familii care scapă de bombardamentele israeliene în Fâșia Gaza; tatăl are ochii închiși, fața acoperită de praf, poartă patru copii pe corp și ține de mână un copil de cinci ani. Este o mărturie dureroasă a suferinței palestinienilor în timpul războiului.

Sursa foto: ynetnews.com

Acum, concentrați-vă pe partea stângă a imaginii: s-ar putea ca unul dintre picioarele copiilor să se ivească dintr-o a treia mânecă care iese din cămașa tatălui? Și de ce copilul are doar trei degete la piciorul stâng? La o privire atentă, este clar că și această imagine este falsă.

Această practică nu este exclusivă pentru partea palestiniană: imagini generate de inteligența artificială au fost puse în circulație în ultimele săptămâni și de utilizatori israelieni. În timp ce de partea palestiniană, tehnologia este folosită pentru a fabrica imagini înfiorătoare, se pare că de partea israeliană, scopul este de a ridica moralul prin prezentarea unor imagini cu soldați din Gaza, care înfruntă cu curaj inamicul și salvează prizonieri.

Problema este că aceste imagini continuă să se răspândească pe rețelele de socializare fără a fi indicate cu privire la crearea lor și pot induce în eroare unii utilizatori, în special pe cei care nu locuiesc în Israel.

Într-una dintre aceste imagini, soldați ai IDF sunt văzuți mergând printre ruinele din Fâșia Gaza cu steaguri israeliene în mâini. La prima vedere, este o imagine destul de convingătoare, dar, la o examinare mai atentă, se poate observa că unele dintre steaguri nu prezintă Steaua lui David, ci un alt simbol – o eroare tipică pentru generatorii de imagini AI.

Într-o altă imagine, soldații IDF par să se întoarcă de la o operațiune în care se pare că au eliberat două tinere femei și trei copii mici din captivitatea Hamas. Cu toate acestea, unele detalii din imagine, cum ar fi fețele distorsionate ale unuia dintre soldați și marea asemănare dintre unele dintre figuri, indică faptul că această imagine a fost generată de AI.

Sursa foto: ynetnews.com
Sursa foto: ynetnews.com
Sursa foto: ynetnews.com

Acest fenomen nu ar fi fost posibil dacă în ultimii doi ani nu ar fi fost dezvoltate instrumente de inteligență artificială precum DALL-E, Midjourney și Stable Diffusion. Aceste instrumente sunt capabile să creeze imagini complet realiste pe baza unor descrieri textuale.

Oricine poate scrie o replică precum „Doi copii palestinieni acoperiți de sânge stau în mijlocul dărâmăturilor unei clădiri din Fâșia Gaza, lângă cadavrul mamei lor”, iar generatorul va face tot ce își dorește utilizatorul.

Aceste generatoare de imagini sunt accesibile gratuit sau pentru o taxă de 10 dolari pe lună și, în timp, continuă să se îmbunătățească, producând rezultate din ce în ce mai convingătoare. Una dintre cele mai proeminente probleme ale acestora – degetele umane foarte distorsionate – a fost aproape complet rezolvată în cele mai recente versiuni ale instrumentelor.

Sursa foto: ynetnews.com
Sursa foto: ynetnews.com
Sursa foto: ynetnews.com

Astfel de generatoare de imagini ajută companiile, organizațiile și designerii să creeze materiale rapid și la un cost redus, dar permit, de asemenea, grupurilor rău intenționate să creeze imagini false ale politicienilor, figurilor publice și celebrităților.

Într-o astfel de lume, este dificil pentru utilizatori să distingă între ce este real și ce este fals, ceea ce îi determină să suspecteze tot ceea ce văd. „Spectrul deep fake este mult, mult mai semnificativ acum – nu este nevoie de zeci de mii (de materiale), este nevoie doar de câteva, iar apoi otrăvești «fântâna» și totul devine suspect”, a declarat Hany Farid, profesor de informatică la Universitatea California, Berkeley, pentru The New York Times.

Imagini cu IA în presa străină

Această problemă nu se regăsește doar pe platformele de socializare. Imagini false ale războiului au ajuns și pe site-urile de știri străine după ce au fost cumpărate de pe Adobe Stock, care vinde imagini profesionale organizațiilor și instituțiilor media.

În cadrul unei căutări efectuate săptămâna aceasta pe platforma Adobe, Ynet a găsit imagini destul de realiste care înfățișau, printre altele, atacuri ale IDF în Gaza, tancuri militare în Fâșie și chiar copii scoși dintre dărâmături sau care priveau de la distanță.

Aceste imagini au fost încărcate de utilizatori, nu de Adobe, iar descrierile acestora afirmă că au fost create cu ajutorul inteligenței artificiale generative. Problema este că site-urile web care cumpără aceste imagini nu se obosesc întotdeauna să clarifice cititorilor lor că nu sunt imagini reale. Astfel, ele contribuie la confuzia care înconjoară deja războiul și își dezorientează cititorii.

Toate imaginile din articol cu eticheta „Fake” au fost identificate ca fiind generate de AI de către Tasq.ai, care a dezvoltat algoritmi avansați care includ mulți testeri umani – pentru a accelera procesul de instruire a modelelor de inteligență artificială și pentru a verifica calitatea acestora după ce au fost instruite.

În cadrul unei inspecții efectuate de startup, imaginile generate, alături de cele autentice, au fost distribuite la 37 de utilizatori aleatorii din întreaga lume. Potrivit Tasq.ai, atunci când utilizatorilor li se prezintă o imagine autentică, cel puțin 90% o identifică corect ca atare.

Atunci când li se arată o imagine generată, cel puțin 20% o pot identifica ca fiind falsă. Pentru a obține un răspuns clar în ceea ce privește imaginile pentru care nu există un acord clar (cele pentru care 80% până la 90% consideră că sunt reale), este necesar să le evaluăm în funcție de un anumit public de utilizatori cu contextul relevant pentru imagine.

Doar o singură imagine a reușit să deruteze verificatorii umani: 89% dintre utilizatori au crezut că o imagine care înfățișa corturi cu culorile steagului israelian pe plajă era autentică. Cu toate acestea, atunci când fișierul a fost examinat de utilizatorii israelieni, niciunul dintre ei nu a crezut că este o imagine reală. Acest lucru subliniază importanța contextului și a cunoștințelor timpurii și relevante atunci când se încearcă identificarea imaginilor generate de AI.

Sursa foto: ynetnews.com

Cum să distingem imaginile generate de AI

Așadar, cum puteți identifica imaginile create cu ajutorul inteligenței artificiale? Există instrumente automate pe web, cum ar fi AI or Not, dar țineți cont de faptul că acestea nu sunt întotdeauna precise. Vestea bună este că, în multe cazuri, vă puteți baza pe ochiul liber.

Directorul executiv al Tasq.ai, Erez Moscovich, recomandă să vă concentrați asupra detaliilor mici. Degetele, de exemplu, sunt elemente pe care unele generatoare de imagini se străduiesc să le recreeze în mod convingător. Verificați cu atenție dacă există ceva neobișnuit la fețele, dinții și urechile persoanelor văzute în imagine.

Rețineți că versiunile mai vechi ale generatoarelor de imagini creează uneori fețe cu aspect distorsionat, în timp ce imaginile generate de versiunile mai noi sunt caracterizate de o piele netedă și aproape perfectă. Asemănarea fizică neobișnuită între indivizii din aceeași imagine ar trebui, de asemenea, să ridice un semnal de alarmă.

Dacă imaginea include texte sau simboluri, verificați cu atenție acuratețea acestora – aceasta este, de asemenea, o vulnerabilitate a modelelor de inteligență artificială, după cum se vede în unele dintre imaginile din articol. Din păcate, însă, generatoarele de imagini se îmbunătățesc cu o viteză amețitoare și nu este clar dacă aceste sfaturi vor mai fi utile peste câteva luni.

Publicitate electorală

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

Citește și...