SACRAMENTO, Califórnia – O governador da Califórnia, Gavin Newsom, assinou duas propostas no domingo destinadas a proteger menores do uso cada vez mais comum de ferramentas de inteligência artificial para gerar imagens sexuais prejudiciais de crianças.
As medidas fazem parte de um esforço concertado da Califórnia para reforçar as regulamentações em torno da indústria de marquises, que tem um impacto cada vez maior na vida quotidiana dos americanos, mas que goza de pouca ou nenhuma supervisão nos Estados Unidos.
No início deste mês, Newsom também assinou algumas das leis mais rigorosas para combater deepfakes nas eleições, embora as leis estejam sendo contestadas em tribunal. A Califórnia é amplamente vista como um líder potencial na regulamentação da indústria de IA nos Estados Unidos
As novas leis, que receberam um apoio bipartidário esmagador, colmatam uma lacuna legal relativa às imagens de abuso sexual infantil geradas pela IA e deixam claro que a pornografia infantil é ilegal, mesmo que seja gerada pela IA.
De acordo com a lei atual, os promotores distritais não estão autorizados a processar pessoas que possuam ou distribuam imagens de abuso sexual infantil geradas por IA, a menos que possam provar que os materiais retratam uma pessoa real, disseram os defensores. De acordo com as novas leis, tal crime seria considerado crime.
“A criação, posse e distribuição de material de abuso sexual infantil deve ser ilegal na Califórnia, independentemente de as imagens serem criadas por IA ou de crianças reais”, disse Marc Berman, membro da Assembleia Democrata, a quem redigiu os projetos de lei, num comunicado. “Eu não posso fazer isso” é usado para criar essas imagens horríveis, é treinado a partir de milhares de imagens de crianças reais sendo abusadas, revitimizando assim essas crianças.”
Newsom também assinou dois outros projetos de lei no início deste mês para endurecer as leis sobre pornografia de vingança, com o objetivo de proteger mais mulheres, adolescentes e outras pessoas da exploração e assédio sexual por meio de ferramentas de IA. De acordo com a lei estadual, agora é ilegal para um adulto criar ou compartilhar deepfakes sexualmente explícitos gerados por IA de uma pessoa sem o seu consentimento. As plataformas de redes sociais também devem permitir que os usuários denunciem tais materiais para remoção.
Mas algumas das leis não vão suficientemente longe, disse o procurador distrital do condado de Los Angeles, George Gascón, cujo gabinete apoiou algumas das propostas. Gascón disse que as novas penalidades para o compartilhamento de pornografia de vingança gerada por IA deveriam incluir menores de 18 anos. A medida foi reduzida no mês passado pela legislatura estadual para se aplicar apenas a adultos.
“Tem que haver consequências, você não tem passe livre porque tem menos de 18 anos”, disse Gascón em entrevista recente.
As leis surgem depois que São Francisco abriu o primeiro processo do país contra mais de uma dúzia de sites equipados com ferramentas de IA que prometem “revelar qualquer foto enviada ao site em segundos”.
O problema com os deepfakes não é novo, mas os especialistas dizem que só está piorando à medida que a tecnologia para torná-los mais acessível e fácil de usar. Os investigadores têm soado o alarme nos últimos dois anos sobre a explosão de material de abuso sexual infantil gerado por IA que utiliza representações de vítimas reais ou personagens virtuais.
Em março, um distrito escolar de Beverly Hills expulsou cinco estudantes do ensino médio por criarem e compartilharem fotos falsas de nus de seus colegas de classe.
A questão levou a uma rápida acção bipartidária em quase 30 estados para abordar a propagação de material sexualmente abusivo gerado pela IA. Alguns deles incluem proteção para todos, enquanto outros proíbem apenas materiais que representem menores.
Newsom elogiou a Califórnia como líder e reguladora da tecnologia de IA, dizendo que o estado poderá em breve usar ferramentas generativas de IA para combater o congestionamento nas rodovias e fornecer consultoria tributária, mesmo enquanto sua administração considera novas regras contra a discriminação de IA nas práticas de contratação.