Na última quinta-feira (5), a Apple anunciou um novo sistema de monitoramento do conteúdo de seus usuários dos Estados Unidos, a fim de combater o abuso de menores.
Com análise de fotos no serviço iCloud, o objetivo é identificar e denunciar conteúdos que possam ser “Material de Abuso Sexual Infantil" (Child Sexual Abuse Material, sigla CSAM, em inglês).
Segundo o anúncio da Apple, o sistema é seguro e desenhado para preservar a privacidade do usuário, uma vez que a empresa “não armazena as imagens que não correspondem ao banco de dados do CSAM”, além de ter acesso às fotos do usuário apenas após elas entrarem no serviço iCloud.
Leia também: Cinemateca brasileira tem destino incerto após incêndio uma das unidades; IBGE aponta que inflação acumulada nos últimos 12 meses passa dos 8%
Os usuários não têm acesso ao banco de dados do CSAM e também não conseguem identificar quando uma imagem é reportada.
A tecnologia que permite a identificação das imagens a serem denunciadas é chamada de “hashing”. A criptografia deste sistema permite o acesso da Apple ao conteúdo apenas quando o mesmo cruzar com dados do CSAM.
Veja os detalhes da tecnologia no documento divulgado pela Apple.
REDES SOCIAIS