Apple a prezentat softul care poate găsi fotografii cu abuzuri sexuale împotriva minorilor
Fotografiile care urmează să fie stocate în iCloud Photos urmează să fie scanate de un soft care poate determina dacă este sau nu vorba de imagini în care apar abuzuri sexuale asupra copiilor, anunță BBC. Apple a anunțat joi detalii despre sistemul de găsire a imaginilor cu abuzuri sexuale asupra copiilor (Child Sexual Abuse Material – CSAM) pe dispozitivele clienților. În cazul în care programul identifică o posibilă fotografie care indică un astfel de abuz, un operator va evalua situația și va raporta utilizatorul forțelor de ordine.
Cu toate acestea, există îngrijorări privind confidențialitatea datelor, deoarece, teoretic, aplicația putând fi extinsă pentru a scana telefoanele pentru conținut interzis sau chiar urmărind afinitățile politice ale utilizatorului.
Apple a spus că noile versiuni de iOS și iPadOS, care urmează să fie lansate în cursul acestui an, vor avea „noi aplicații de criptografie, pentru a ajuta la limitarea răspândirii CSAM în online, însă cu protejarea confidențialității utilizatorilor”.
Sistemul funcționează prin compararea imaginilor cu o bază de date cu imagini cunoscute de abuz sexual asupra copiilor, realizată de Centrul Național pentru Copii Dispăruți și Exploatați (NCMEC) și alte organizații de siguranță a copiilor.
sursa foto: Pexels
Urmărește mai jos producțiile video ale G4Media:
Donează lunar pentru susținerea proiectului G4Media
Donează suma dorită pentru susținerea proiectului G4Media
CONT LEI: RO89RZBR0000060019874867
Deschis la Raiffeisen BankCitește și...
© 2024 G4Media.ro - Toate drepturile rezervate
Acest site foloseşte cookie-uri.
Website găzduit de Presslabs.
2 comentarii