Inteligența artificială poate prezice orientările politice pe baza imaginilor unor fețe fără expresie (studiu)
Cercetătorii avertizează că tehnologiile de recunoaștere facială sunt „mai amenințătoare decât se credea până acum” și reprezintă „provocări serioase la adresa vieții private”, după ce un studiu a constatat că inteligența artificială poate reuși să prezică cu succes orientarea politică a unei persoane pe baza imaginilor unor fețe fără expresie, transmite Fox News.
Autorul principal al unui studiu recent publicat în American Psychologist, Michal Kosinski, a declarat pentru Fox News Digital că 591 de participanți au completat un chestionar privind orientarea politică personală înainte ca inteligența artificială să captureze ceea ce el a descris ca fiind o „amprentă” numerică a fețelor lor și să le compare cu o bază de date cu răspunsurile lor pentru a le prezice opiniile.
„Cred că oamenii nu își dau seama cât de mult se expun prin simpla publicare a unei fotografii”, a declarat Kosinski, profesor asociat de comportament organizațional la Graduate School of Business din cadrul Universității Stanford.
„Știm că orientarea sexuală, orientarea politică, opiniile religioase ale oamenilor trebuie protejate. Înainte era altfel. În trecut, puteai să intri în contul de Facebook al oricui și să vezi, de exemplu, opiniile sale politice, like-urile, paginile pe care le urmărește. Dar, cu mulți ani în urmă, Facebook a blocat acest lucru, deoarece era clar pentru factorii de decizie politică, pentru Facebook și pentru jurnaliști că acest lucru nu este pur și simplu acceptabil. Este prea periculos”, a continuat el.
„Dar puteți în continuare să mergeți pe Facebook și să vedeți poza oricui. Această persoană nu te-a întâlnit niciodată, nu ți-a permis niciodată să te uiți la o poză, nu ți-ar împărtăși niciodată orientarea sa politică… și totuși, Facebook îți arată poza sa, iar ceea ce arată studiul nostru este că acest lucru este, în esență, într-o anumită măsură, echivalent cu a îți spune pur și simplu care este orientarea sa politică”, a adăugat Kosinski.
Pentru acest studiu, autorii au precizat că imaginile participanților au fost colectate într-un mod foarte controlat. Astfel, toți participanții au purtat tricouri negre, nicio persoană nu avea urme de machiaj pe față și, acolo unde era cazul, părul facial a fost îndepărtat. De asemenea, toate persoanele aveau părul dat pe spate.
Algoritmul de recunoaștere facială VGGFace2 a examinat apoi imaginile pentru a determina „descriptorii faciali, sau un vector numeric care este atât unic pentru acea persoană, cât și coerent între diferitele imagini”, a precizat acesta.
„Descriptorii extrași dintr-o anumită imagine sunt comparați cu cei stocați într-o bază de date. Dacă sunt suficient de asemănătoare, fețele sunt considerate ca fiind identice. Aici, folosim o regresie liniară pentru a cartografia descriptorii feței pe o scară de orientare politică și apoi folosim această cartografiere pentru a prezice orientarea politică pentru o față nevăzută anterior”, se arată în studiu.
Autorii au scris că descoperirile lor „subliniază urgența ca cercetătorii, publicul și factorii de decizie politică să recunoască și să abordeze riscurile potențiale ale tehnologiei de recunoaștere facială pentru confidențialitatea personală”.
„Poate cel mai important, constatările noastre sugerează că tehnologiile de supraveghere biometrică larg răspândite sunt mai amenințătoare decât se credea anterior”, a avertizat studiul. „Cercetările anterioare au arătat că imaginile faciale naturaliste transmit informații despre orientarea politică și alte trăsături intime. Dar nu a fost clar dacă predicțiile au fost permise de autoprezentare, de trăsăturile faciale stabile sau de ambele. Rezultatele noastre, care sugerează că trăsăturile faciale stabile transmit o parte substanțială a semnalului, implică faptul că indivizii au mai puțin control asupra intimității lor.”
Kosinski a declarat pentru Fox News Digital că „algoritmii pot fi foarte ușor aplicați la milioane de oameni, foarte rapid și ieftin” și că studiul este „mai mult un semnal de avertizare” cu privire la tehnologia „care se află în telefonul tău și care este foarte larg folosită peste tot”.
Autorii au concluzionat că „chiar și estimările rudimentare ale trăsăturilor de caracter ale oamenilor pot îmbunătăți semnificativ eficiența campaniilor online de persuasiune în masă” și că „cercetătorii, publicul și factorii de decizie politică ar trebui să ia aminte și să ia în considerare înăsprirea politicilor de reglementare a înregistrării și procesării imaginilor faciale”.
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen Bank
1 comentariu