A Apple anunciou o recurso pela primeira vez em 2021, com o objetivo de ajudar a combater a exploração infantil e promover a segurança, questões que a comunidade tecnológica tem abraçado cada vez mais. Mas logo freou a implementação do recurso em meio a uma onda de críticas, observando que “levaria mais tempo nos próximos meses para coletar informações e fazer melhorias antes de liberar esses recursos de segurança infantil extremamente importantes”.
Em uma declaração pública na quarta-feira, a Apple disse que “decidiu não avançar com nossa ferramenta de detecção de CSAM proposta anteriormente para o iCloud Photos”.
“As crianças podem ser protegidas sem que as empresas vasculhem dados pessoais, e continuaremos trabalhando com governos, defensores da criança e outras empresas para ajudar a proteger os jovens, preservar seu direito à privacidade e tornar a Internet um lugar mais seguro para as crianças e para nós. tudo”, disse a empresa em um comunicado fornecido à Wired. (A Apple não respondeu ao pedido de comentário da CNN.)
Em vez disso, a empresa está redirecionando seus esforços para aumentar seu recurso Communication Safety, que disponibilizou pela primeira vez em dezembro de 2021, após consultar especialistas para obter feedback sobre suas iniciativas de proteção infantil. A ferramenta Communication Safety é um recurso opcional de controle dos pais que avisa menores e seus pais quando anexos de imagem recebidos ou enviados no iMessage são sexualmente explícitos e, em caso afirmativo, os desfoca.
A Apple foi criticada em 2021 por seu plano de oferecer uma ferramenta diferente que começaria a verificar dispositivos iOS e fotos do iCloud em busca de imagens de abuso infantil. No momento,a empresa disse que a ferramenta transformaria fotos em iPhones e iPads em hashes ilegíveis – ou números complexos – armazenados em dispositivos de usuários. Esses números seriam comparados com um banco de dados de hashes fornecido pelo Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) assim que as fotos fossem carregadas no serviço de armazenamento iCloud da Apple.
Muitos especialistas em proteção e segurança infantil elogiaram a tentativa, reconhecendo as responsabilidades e obrigações éticas que uma empresa tem sobre os produtos e serviços que cria. Mas eles também chamaram os esforços de “profundamente preocupantes”, decorrentes em grande parte de como parte do processo de verificação da Apple para imagens de abuso infantil é feita diretamente nos dispositivos dos usuários.
Em um PDF publicado em seu site descrevendo a tecnologia, que chamou de NeuralHash, a Apple tentou abordar os temores de que os governos também pudessem forçar a Apple a adicionar imagens de abuso não infantil à lista de hash. “A Apple recusará tais exigências”, afirmou. “Já enfrentamos demandas para criar e implantar mudanças exigidas pelo governo que degradam a privacidade dos usuários antes e recusamos veementemente essas demandas. Continuaremos a recusá-las no futuro.”
O anúncio da Apple sobre encerrar seus planos para a ferramenta veio na mesma época em que a empresaanunciou um punhado de novos recursos de segurança.
A Apple planeja expandir a criptografia de ponta a ponta dos dados do iCloud para incluir backups, fotos, notas, históricos de bate-papo e outros serviços, em um movimento que pode proteger ainda mais os dados do usuário, mas também aumentar as tensões com autoridades policiais em todo o mundo. A ferramenta, chamada de Proteção Avançada de Dados, permitirá que os usuários mantenham certos dados mais seguros contra hackers, governos e espiões, mesmo no caso de uma violação de dados da Apple, disse a empresa.