G4Media.ro

Sistemele AI cu „risc inacceptabil” sunt de acum încolo interzise în UE…

Sursa foto: Freepik

Sistemele AI cu „risc inacceptabil” sunt de acum încolo interzise în UE / Există excepții pentru forțele de ordine, iar recunoașterea emoțiilor bazată pe AI este permisă doar din motive medicale sau de siguranță

Legea UE privind inteligența artificială, care a intrat în vigoare la 1 august 2024, a ajuns la primul termen de conformitate: 2 februarie 2025. Acest cadru de reglementare clasifică aplicațiile AI în patru niveluri de risc: minim, limitat, ridicat și inacceptabil, transmite TechCrunch. În timp ce inteligența artificială cu risc minim și limitat se confruntă cu o supraveghere redusă sau moderată, AI cu risc ridicat, cum ar fi recomandările de asistență medicală, face obiectul unei reglementări stricte.

Cea mai presantă cerință de conformitate se concentrează pe interzicerea AI considerate a prezenta un „risc inacceptabil”, cum ar fi:

  • Sistemele de scoring social,
  • Categorizarea biometrică bazată pe date sensibile,
  • Poliția predictivă,
  • Influența comportamentală manipulată de AI, care dăunează utilizatorilor,
  • Recunoașterea emoțiilor la locul de muncă și în școli.

Companiile care încalcă interdicția, indiferent de sediul lor, riscă amenzi de până la 35 de milioane de euro sau 7% din veniturile anuale. Cu toate acestea, aplicarea deplină, inclusiv amenzile, va începe în august 2025, când autoritățile de reglementare vor fi confirmate.

Multe companii s-au angajat proactiv să se conformeze. În septembrie 2023, peste 100 de firme, inclusiv Amazon, Google și OpenAI, au aderat la Pactul UE privind inteligența artificială, asumându-și în mod voluntar principiile Legii privind inteligența artificială. Cu toate acestea, actori importanți precum Apple, Meta și startup-ul francez Mistral au optat să nu semneze Pactul. În ciuda neparticipării, aceste companii sunt totuși obligate să respecte mandatele Legii privind inteligența artificială.

Există excepții pentru forțele de ordine care utilizează sisteme biometrice în spații publice pentru căutări specifice sau pentru prevenirea unor amenințări iminente, cu condiția să primească autorizația corespunzătoare. În mod similar, recunoașterea emoțiilor bazată pe AI este permisă în locurile de muncă și în școli din motive medicale sau de siguranță.

Claritatea reglementărilor rămâne o preocupare. Comisia Europeană a planificat să emită orientări la începutul anului 2025, dar nu a făcut încă acest lucru. În plus, modul în care Legea AI interacționează cu legile existente, cum ar fi GDPR, NIS2 și DORA, rămâne incert. Expertul juridic Rob Sumroy remarcă faptul că suprapunerea reglementărilor ar putea complica conformitatea, ceea ce obligă organizațiile să navigheze prin mai multe cadre juridice.

„Este important ca organizațiile să își amintească faptul că reglementarea AI nu există în mod izolat”, a declarat Sumroy. „Alte cadre juridice, cum ar fi GDPR, NIS2 și DORA, vor interacționa cu Legea AI, creând potențiale provocări – în special în ceea ce privește suprapunerea cerințelor de notificare a incidentelor. Înțelegerea modului în care aceste legi se articulează între ele va fi la fel de crucială ca înțelegerea Legii AI în sine”, a adăugat el.

Urmărește mai jos producțiile video ale G4Media:

Susține-ne activitatea G4Media logo
Donație Paypal recurentă

Donează lunar pentru susținerea proiectului G4Media

Donează prin Transfer Bancar

CONT LEI: RO89RZBR0000060019874867

Deschis la Raiffeisen Bank
Donează prin Patreon

Donează

1 comentariu

  1. Angajatii nemultumiti depistati la locul de munca sa fie concediati automat de AI. Numai asa serviciul va deveni o placere pentru toti.