Unde se trage linia în ceea ce privește utilizarea inteligenței artificiale în televiziune și film?
Controversele recente, inclusiv posterele din Războiul Civil și fotografiile alterate dintr-un documentar Netflix, au dus la îngrijorarea cu privire la utilizarea tot mai mare a inteligenței artificiale pe ecran, scrie The Guardian.
Deșigrevele de anul trecut ale scenariștilor și actorilor de la Hollywood au avut ca temă o multitudine de factori, printre care se numărau remunerația echitabilă și plățile reziduale, o preocupare a fost mult mai importantă decât celelalte: influența inteligenței artificiale generative – tipul de inteligență artificială care poate produce text, imagini și videoclipuri – asupra mijloacelor de trai ale oamenilor.
Utilizarea IA generativă în conținutul pe care îl vizionăm, de la filme la televiziune și până la o mare parte din coținutul prost de pe internet, era o concluzie previzibilă; cutia Pandorei a fost deschisă. Dar strigătul de mobilizare, la momentul respectiv, a fost că orice protecție asigurată împotriva companiilor care folosesc IA pentru a face economii a fost un câștig, chiar dacă doar pentru un contract de trei ani, deoarece dezvoltarea, implementarea și adoptarea acestei tehnologii va fi atât de rapidă.
Nu a fost o fanfaronadă. În doar câteva luni de când breasla scenariștilor și cea a actorilor au încheiat înțelegeri istorice cu Alianța Producătorilor de Film și Televiziune (AMPTP), utilizatorul mediu de social media a întâlnit aproape sigur materiale generate de inteligența artificială, fie că și-a dat seama sau nu.
Eforturile de a limita falsurile pornografice ale celebrităților realizate de AI au ajuns la Congresul SUA, care este cunoscut ca fiind recalcitrant și obtuz. Internetul este acum atât de plin de dezinformări și conspirații, iar existența IA generativă a distrus atât de mult ceea ce mai rămăsese din realitatea împărtășită, încât un videoclip deepfake AI cu Kate Middleton părea, pentru mulți, o concluzie deloc nerezonabilă. (Ca să se știe, a fost real.)
Directorii de la Hollywood au testat deja viitorul program text-to-video Sora al OpenAI, care l-a determinat pe producătorul Tyler Perry să oprească o extindere de 800 de milioane de dolari a studiourilor sale din Atlanta, deoarece „se vor pierde locuri de muncă”.
Pe scurt, o mulțime de oameni sunt speriați sau, în cel mai bun caz, precauți, și pe bună dreptate. Ceea ce reprezintă un motiv în plus pentru a acorda atenție micilor bătălii legate de inteligența artificială, și nu prin prisma unei lentile apocaliptice. Pentru că, printre toate poveștile mari despre Taylor Swift deepfakes și despre o potențială apocalipsă a locurilor de muncă, AI-ul generativ s-a strecurat în film și televiziune în moduri mai mici – unele potențial creative, altele potențial amenințătoare.
Chiar și numai în ultimele săptămâni, numeroase cazuri de inteligență artificială utilizată în mod legal în proiecte creative și în jurul acestora testează apele pentru a vedea ce va observa sau accepta publicul, sondând ce este acceptabil din punct de vedere etic.
A existat o mică explozie pe rețelele de socializare în legătură cu afișele de trupe generate de inteligența artificială în noul sezon al serialului True Detective, după ce unii spectatori au fost îngrijorați în legătură cu interstițiile de dimensiuni similare generate de inteligența artificială din filmul horror independent Late Night With Devil. („Ideea este că este atât de trist acolo sus că un puști cu AI a făcut afișele pentru un festival de Metal pentru ratați, pentru boomeri”, a declarat Issa López, showrunnerul True Detective, pe X. „S-a discutat. Ad nauseam”).
Ambele cazuri au acel aspect lăcrămat și straniu al AI, ca în genericul generat de AI al serialului Marvel din 2023, Secret Invasion. La fel și în cazul afișelor promoționale pentru noul film al A24, Civil War, care prezintă repere americane distruse de un conflict intern fictiv, cum ar fi o Sferă bombardată în Las Vegas sau Turnurile Marina din Chicago, cu inexactitățile caracteristice AI (mașini cu trei uși etc.).
Cinefilii au protestat față de utilizarea îmbunătățirii inteligenței artificiale (diferită de inteligența artificială generativă) pentru a îmbunătăți – sau, în funcție de părerea dumneavoastră, pentru a suprasatura și distruge – filme existente, cum ar fi True Lies al lui James Cameron, pentru noile lansări pe DVD și Blu-ray. Un trailer AI evident și deschis marcat pentru un fals film James Bond cu Henry Cavill și Margot Robbie – niciunul dintre ei nu face parte din franciză – are, la momentul redactării acestui articol, peste 2,6 milioane de vizualizări pe YouTube.
Și, probabil cel mai îngrijorător, site-ul Futurism a relatat despre ceea ce par a fi „fotografii” generate sau îmbunătățite de inteligența artificială ale lui Jennifer Pan, o femeie condamnată pentru uciderea părinților săi în 2010, în noul documentar Netflix despre crime reale, What Jennifer Did. Fotografiile, care apar în jurul minutului 28 al filmului, sunt folosite pentru a ilustra descrierea făcută de Nam Nguyen, prietenul de liceu al lui Pan, despre personalitatea ei „spumoasă, fericită, încrezătoare și foarte autentică”.
Pan râde, aruncă în sus semnul păcii, zâmbește larg – cu un dinte din față vizibil prea lung, degete ciudat de distanțate, obiecte diforme și, din nou, acel luciu ciudat, prea strălucitor. Cineastul Jeremy Grimaldi nu a confirmat și nici nu a infirmat într-un interviu acordat ziarului Toronto Star: „Orice regizor de film va folosi diferite instrumente, precum Photoshop, în filme”, a spus el. „Fotografiile cu Jennifer sunt fotografii reale ale ei. Prim-planul este exact ea. Fundalul a fost anonimizat pentru a proteja sursa”. Netflix nu a răspuns la o solicitare de comentarii.
Grimaldi nu explică ce instrumente au fost folosite pentru a „anonimiza” fundalul sau de ce anumite trăsături ale lui Pan par distorsionate (dinții, degetele). Dar chiar dacă nu s-a folosit AI generativ, este totuși o dezvăluire tulburătoare, în sensul că sugerează o confuzie a adevărului: că acestea sunt fotografii vechi ale lui Pan, că există o arhivă vizuală care nu există ca atare. În cazul în care este vorba de AI generativ, acest lucru ar duce la o minciună arhivistică. O astfel de utilizare ar contraveni direct unui set de orientări privind cele mai bune practici, care tocmai a fost prezentat de un grup de producători de documentare numit Archival Producers Alliance, care se pronunță în favoarea utilizării AI pentru a retușa sau restaura ușor o imagine, dar recomandă să nu se creeze noi imagini, să nu se modifice o sursă primară sau orice altceva care ar putea „schimba semnificația lor în moduri care ar putea induce în eroare publicul”.
Cred că acest ultim punct – inducerea în eroare a publicului – reprezintă consensul din ce în ce mai mare cu privire la ce aplicații ale inteligenței artificiale sunt sau nu sunt acceptabile în televiziune și film. „Fotografiile” din What Jennifer Did – în lipsa unui răspuns clar, nu este clar cu ce instrumente au fost modificate – amintesc de controversa legată de fragmente din vocea generată de AI a lui Anthony Bourdain în documentarul Roadrunner din 2021, care a umbrit o explorare nuanțată a unei figuri complicate din cauza unei probleme de dezvăluire, sau a lipsei acesteia. Utilizarea efectivă a IA în acel film a fost stranie, dar a reînviat dovezile, mai degrabă decât să le creeze; problema a fost în modul în care am aflat despre aceasta, după ce am aflat despre ea, după faptă.
Și iată-ne din nou aici, litigând anumite mici detalii a căror creație se simte de cea mai mare importanță să o luăm în considerare, pentru că așa este. Un trailer generat în mod deschis de inteligența artificială pentru un film fals despre James Bond este ciudat și, în opinia mea, o pierdere de timp, dar cel puțin clar în ceea ce privește intenția sa. Crearea de afișe AI în spectacole în care ar putea fi angajat un artist se simte ca un colț de colț, un centimetru cedat, deprimant de așteptat. IA folosită pentru a genera o înregistrare istorică falsă ar fi în mod clar dubioasă din punct de vedere etic în cel mai bun caz, cu adevărat manipulatoare în cel mai rău caz. În mod individual, toate acestea sunt mici exemple ale liniei pe care încercăm cu toții să o identificăm, în timp real. Colectiv, face ca găsirea ei să pară mai urgentă ca niciodată.
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen Bank