Quase um ano depois de imagens nuas de estudantes do ensino secundário criadas com recurso à inteligência artificial terem virado de cabeça para baixo uma comunidade no sul de Espanha, um tribunal de menores condenou este verão 15 dos seus colegas de turma a um ano de liberdade condicional.
Mas a ferramenta de inteligência artificial usada para criar os deepfakes maliciosos ainda é facilmente acessível na internet e promete “desmascarar qualquer foto enviada ao site em segundos”.
Atualmente, há uma nova tentativa na Califórnia de proibir esses e outros aplicativos semelhantes. O estado de São Francisco abriu o primeiro processo desse tipo esta semana, o que, segundo especialistas, pode abrir um precedente, mas também enfrentará muitos obstáculos.
“A distribuição destas imagens explorou um número chocante de mulheres e meninas em todo o mundo”, disse David Chiu, o procurador eleito da cidade de São Francisco, que abriu um processo contra um grupo de sites amplamente visitados com sede na Estônia, Sérvia, Grã-Bretanha e em outros lugares.
“Essas imagens são usadas para assediar, degradar e ameaçar mulheres e meninas”, disse ele em entrevista à Associated Press. “E o impacto nas vítimas tem sido devastador: a sua reputação, a sua saúde mental, a perda da sua autonomia e, em alguns casos, até desencadeou pensamentos suicidas”.
A ação, movida em nome do povo da Califórnia, alega que os serviços violaram inúmeras leis estaduais que tratam de práticas comerciais enganosas, pornografia não consensual e abuso sexual infantil. No entanto, pode ser difícil descobrir quem executa os aplicativos, que, embora não estejam disponíveis nas lojas de aplicativos para telefones, ainda são fáceis de encontrar online.
Um serviço contatado pela AP no final do ano passado afirmou por e-mail que seu “CEO está baseado nos Estados Unidos e viaja por todos os Estados Unidos”, mas se recusou a fornecer qualquer evidência ou responder a outras perguntas. A AP não nomeia os aplicativos específicos que estão sendo processados para não promovê-los.
“Existem vários sites que neste momento não sabemos exactamente quem são estes operadores e onde operam, mas temos ferramentas de investigação e autoridade para emitir intimações para investigar”, disse Chiu. “E certamente exerceremos nossa autoridade à medida que este litígio avança.”
Muitas dessas ferramentas são usadas para criar falsificações realistas de fotos “nuas” de mulheres adultas vestidas, incluindo celebridades, sem o seu consentimento. Mas eles também apareceram em escolas de todo o mundo, da Austrália a Beverly Hills, na Califórnia. Normalmente, os meninos criam imagens de colegas do sexo feminino, que são amplamente compartilhadas nas redes sociais.
Num dos primeiros casos que atraiu a atenção generalizada, em Setembro passado, na cidade espanhola de Almendralejo, um médico cuja filha fazia parte de um grupo de raparigas vítimas de agressão no ano passado e que ajudou a sensibilizar a opinião pública para o caso disse chamar a atenção para incidentes, ela está satisfeita com a severidade da sentença que seus colegas enfrentarão após uma decisão judicial no início do verão.
Mas “não é apenas responsabilidade da sociedade, da educação, dos pais e das escolas, mas também da responsabilidade dos gigantes digitais que lucram com todo este lixo”, disse o Dr. Miriam al Adib Mendiri em entrevista na sexta-feira.
Ela saudou a ação de São Francisco, mas disse que são necessários mais esforços, inclusive de empresas maiores, como a Meta Platforms, com sede na Califórnia, e sua subsidiária WhatsApp, que distribuiu as imagens na Espanha.
Enquanto as escolas e as autoridades policiais tentam punir aqueles que criam e partilham deepfakes, as autoridades têm dificuldade em lidar com as próprias ferramentas.
Em Janeiro, o poder executivo da União Europeia disse numa carta a um membro espanhol do Parlamento Europeu que a aplicação utilizada em Almendralejo “aparentemente não” se enquadra nas novas regras abrangentes do bloco para reforçar a segurança online porque a plataforma não é suficientemente grande.
As organizações que monitorizam o aumento de material de abuso sexual infantil gerado por IA irão monitorizar de perto o caso de São Francisco.
O processo “tem o potencial de estabelecer um precedente nesta área”, disse Emily Slifer, diretora de políticas da Thorn, uma organização que defende contra a exploração sexual infantil.
Um pesquisador da Universidade de Stanford disse que será mais difícil levar os réus a julgamento porque muitos deles estão baseados fora dos Estados Unidos.
Chiu “passa por momentos difíceis neste caso, mas pode conseguir que alguns dos sites sejam retirados do ar se os réus que os dirigem ignorarem o processo”, disse Riana Pfefferkorn, de Stanford.
Ela disse que isso poderia acontecer se a cidade ganhasse o caso por omissão na ausência dos demandantes e obtivesse liminares afetando registradores de nomes de domínio, hosts da web e processadores de pagamento “que efetivamente fechariam esses sites, mesmo que seus proprietários estivessem no litígio”. nunca apareça.