foi acusada de subestimar a prevalência de material de abuso sexual infantil () em suas plataformas. A Sociedade Nacional para a Prevenção da Crueldade contra Crianças (NSPCC), uma organização de proteção infantil no Reino Unido, afirma que a Apple relatou apenas 267 casos de suspeita de abuso infantil em todo o mundo ao Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC) no ano passado.
Isso não é nada comparado aos 1,47 milhão de casos potenciais relatados pelo Google e pelos 30,6 milhões de relatórios do Meta. Outras plataformas que relataram mais casos potenciais de CSAM do que a Apple em 2023 incluem TikTok (590.376), X (597.087), Snapchat (713.055), Xbox (1.537) e PlayStation/Sony Interactive Entertainment (3.974). Todas as empresas de tecnologia sediadas nos EUA são obrigadas a encaminhar quaisquer possíveis casos de CSAM descobertos em suas plataformas ao NCMEC, que encaminha os casos às agências de aplicação da lei apropriadas em todo o mundo.
A NSPCC também disse que a Apple esteve envolvida em mais casos de CSAM (337) na Inglaterra e no País de Gales entre abril de 2022 e março de 2023 do que o relatado em todo o mundo em um ano. A instituição de caridade utilizou pedidos de liberdade de informação para obter esses dados das forças policiais.
Como que relatou pela primeira vez a afirmação do NSPCC, aponta que os serviços da Apple, como iMessage, FaceTime e iCloud, todos têm criptografia de ponta a ponta, o que impede a empresa de ver dividido o conteúdo do que os usuários usam neles. No entanto, o WhatsApp também possui E2EE, e esse serviço relatou quase 1,4 milhão de casos de suspeita de CSAM ao NCMEC em 2023.
“Há uma discrepância preocupante entre o número de crimes de imagem de abuso infantil no Reino Unido cometidos através dos serviços da Apple e o número quase insignificante de denúncias globais de conteúdo abusivo que eles enviam às autoridades”, disse Richard Collard, chefe de Diretrizes de Segurança Infantil online da NSPCC. “A Apple está significativamente atrás de muitos dos seus concorrentes no combate ao abuso sexual infantil, embora todas as empresas tecnológicas devam investir em segurança e preparar-se para a introdução da Lei de Segurança Online no Reino Unido.”
Em 2021, a Apple apresentará um sistema que verifica as imagens antes de carregá-las no iCloud e as compara com um banco de dados de imagens CSAM conhecidas do NCMEC e de outras organizações. Mas, de acordo com os defensores da privacidade e dos direitos digitais, a Apple descontinuará suas ferramentas de detecção de CSAM por enquanto.
A Apple se recusou a comentar a alegação do NSPCC e, em vez disso, referiu-se O guarda a uma declaração feita quando suspendeu o plano de digitalização CSAM. A Apple disse que escolheu uma estratégia diferente que “aumenta a segurança e a privacidade dos [its] Usuários. em agosto de 2022 que “as crianças podem ser protegidas sem que as empresas explorem dados pessoais”.