LONDRES– As políticas da Meta sobre imagens deepfake não consensuais precisam ser atualizadas. Entre outras coisas, o texto “não era suficientemente claro”, disse o conselho de supervisão da empresa na quinta-feira em uma decisão sobre casos envolvendo representações explícitas de duas mulheres famosas geradas por IA.
O conselho de supervisão quase independente disse que, em um dos casos, o gigante da mídia social não conseguiu remover uma imagem falsa de uma famosa mulher indiana cuja identidade não era conhecida até o envolvimento do conselho de auditoria da empresa.
Imagens nuas de mulheres e celebridades como Taylor Swift se espalharam nas redes sociais porque a tecnologia usada para criá-las se tornou mais acessível e fácil de usar. As plataformas online estão sob pressão para fazer mais para resolver o problema.
O painel, que a Meta criou em 2020 para julgar o conteúdo em suas plataformas, incluindo Facebook e Instagram, passou meses analisando os dois casos envolvendo imagens de mulheres famosas geradas por IA, uma indiana e uma americana. O painel não mencionou nenhuma das mulheres pelo nome, apenas as descrevendo como “figuras públicas femininas”.
Meta disse que acolhe as recomendações do conselho e está atualmente analisando-as.
Um caso envolveu uma “imagem manipulada por IA” postada no Instagram mostrando uma mulher indiana nua por trás com o rosto visível, parecendo uma “figura pública feminina”. O painel disse que um usuário denunciou a imagem como pornografia, mas a denúncia não foi verificada em um período de 48 horas, por isso foi automaticamente encerrada. O usuário recorreu ao Meta, mas este também foi fechado automaticamente.
Foi somente quando o usuário recorreu ao Conselho de Supervisão que Meta concluiu que a decisão original de não remover a postagem havia sido um erro.
A Meta também desativou a conta que postou as imagens e as adicionou a um banco de dados que detecta e remove automaticamente imagens que violam as regras.
No segundo caso, uma imagem gerada por inteligência artificial mostrando as americanas nuas e apalpadas foi postada em um grupo do Facebook. Ele foi removido automaticamente porque já existia no banco de dados. Um usuário recorreu da remoção ao painel, que manteve a decisão do Meta.
O painel disse que ambas as imagens violaram a proibição do Meta de “Photoshop sexualizado depreciativo”, que está incluída na política anti-bullying e assédio da plataforma.
No entanto, ela acrescentou que o texto da sua política não era claro para os usuários, recomendando a substituição da palavra “pejorativa” por outro termo como “sem consentimento” e esclarecendo que a regra abrange uma ampla gama de técnicas de edição e manipulação de mídia, abrange coisas que vá além do “Photoshop”.
Imagens deepfake de nudez também deveriam se enquadrar nos padrões da comunidade sobre “exploração sexual de adultos” e não sobre “intimidação e assédio”, afirmou.
Quando o conselho perguntou à Meta por que razão a mulher indiana ainda não constava da sua base de dados de imagens, ele reagiu com alarme à resposta da empresa de que se baseava em reportagens dos meios de comunicação social.
“Isso é preocupante porque muitas vítimas de imagens íntimas deepfakes não são visíveis ao público e são forçadas a aceitar a distribuição de suas representações não consensuais ou a procurar e denunciar cada caso”, disse o painel.
O comité também expressou preocupação com o encerramento automático do Meta dos apelos de abuso sexual com base em imagens após 48 horas, pois isso “poderia ter um impacto significativo nos direitos humanos”.
A Meta, então ainda Facebook, criou o Conselho de Supervisão em 2020 em resposta às críticas de que não estava a agir com rapidez suficiente para remover a desinformação, o discurso de ódio e as campanhas de influência das suas plataformas. O órgão tem 21 membros, um grupo multinacional que inclui juristas, especialistas em direitos humanos e jornalistas.