Notebookcheck Logo

Apple processado por não implementar a detecção de CSAM no iCloud

Apple processado por não implementar a detecção de CSAM no iCloud (Fonte da imagem: Foto de Tayyab Ejaz no Unsplash)
Apple processado por não implementar a detecção de CSAM no iCloud (Fonte da imagem: Foto de Tayyab Ejaz no Unsplash)
Apple está enfrentando uma ação judicial no norte da Califórnia por não ter encontrado uma maneira de implementar a detecção de CSAM no iCloud. O processo, movido por uma vítima, alega que o abandono do programa por parte da Apple não impediu que suas imagens fossem compartilhadas on-line.

Em 2021, o site Apple anunciou e depois rapidamente retirou um sistema polêmico do iCloud que teria escaneado fotos do iMessage e do iCloud em busca de qualquer material de abuso sexual infantil (CSAM).

O sistema teria permitido que o Apple analisasse fotos em dispositivos Apple usados por crianças, mas a empresa se viu no olho do furacão devido a preocupações com a privacidade levantadas por especialistas e grupos de defesa. O Apple abandonou o sistema, dizendo que "levaria mais tempo nos próximos meses para coletar informações e fazer melhorias antes de lançar esses recursos de segurança infantil extremamente importantes"

Nos anos que se seguiram, o Apple permaneceu em silêncio sobre quaisquer recursos relacionados ao CSAM. Agora (via Engadget), uma ação judicial movida por uma vítima, protocolada no Tribunal Distrital dos EUA no norte da Califórnia, alega que a falha do Apple em criar precauções de segurança fez com que imagens dela circulassem on-line de forma inadequada.

Relatado pela primeira vez https://www.nytimes.com/2024/12/08/technology/apple-child-sexual-abuse-material-lawsuit.html pelo The New York Times, a jovem de 27 anos disse que ela e sua mãe recebiam notificações constantes de vários indivíduos acusados de posse de drogas. O processo está exigindo compensação financeira para 2680 vítimas que tiveram suas imagens vazadas on-line.

Apple fred Sainz, porta-voz da empresa, disse ao Engadget que o CSAM "é abominável, e estamos comprometidos em combater as formas como os predadores colocam as crianças em risco" Sainz disse que a empresa estava "urgente e ativamente" procurando maneiras de "combater esses crimes sem comprometer a segurança e a privacidade de todos os nossos usuários"

Fonte(s)

Engadget, The New York Times

Fonte da imagem: Foto de Tayyab Ejaz em Unsplash

Please share our article, every link counts!
Mail Logo
> Análises e revisões de portáteis e celulares > Arquivo de notícias 2024 12 > Apple processado por não implementar a detecção de CSAM no iCloud
Rohith Bhaskar, 2024-12- 9 (Update: 2024-12- 9)