O governador da Califórnia, Gavin Newsom, vetou o projeto de lei SB 1047, que visa impedir que atores mal-intencionados usem IA para causar “danos graves” às pessoas. A Assembleia do Estado da Califórnia aprovou o projeto de lei em 28 de agosto por 41 votos a 9, mas várias organizações, incluindo a Câmara de Comércio, pediram a Newsom que vetasse o projeto. Na sua mensagem de veto de 29 de setembro, Newsom disse que o projeto de lei era “bem intencionado”, mas não considerou se um sistema de IA seria usado em ambientes de alto risco, exigiria decisões críticas ou usaria dados confidenciais. Em vez disso, o projeto de lei estabelece padrões rígidos até mesmo para as funções mais básicas – desde que sejam implementadas em um grande sistema.”
O SB 1047 teria responsabilizado os desenvolvedores de modelos de IA pela adoção de protocolos de segurança que impediriam o uso catastrófico de sua tecnologia. Isto inclui medidas preventivas, como testes e avaliações de risco externas, bem como uma “parada de emergência” que paralisaria completamente o modelo de IA. Uma primeira violação custaria pelo menos US$ 10 milhões e as violações subsequentes custariam US$ 30 milhões. No entanto, o projeto de lei foi revisto para eliminar a capacidade do procurador-geral de processar empresas de IA por conduta negligente, a menos que ocorra um evento catastrófico. As empresas só estariam sujeitas a medidas cautelares e poderiam ser processadas se o seu modelo causasse danos graves.
Esta lei se aplicaria a modelos de IA que custam pelo menos US$ 100 milhões para usar e 10^26 FLOPS para treinar. Também teria coberto projetos derivados nos casos em que terceiros investissem 10 milhões de dólares ou mais no desenvolvimento ou modificação do modelo original. Qualquer empresa que faça negócios na Califórnia estará sujeita às regras se atender aos outros requisitos. Abordando o foco do projeto de lei em sistemas de grande escala, Newsom disse: “Não acredito que esta seja a melhor abordagem para proteger o público de ameaças reais da tecnologia”.
Ao concentrar-se exclusivamente nos modelos mais caros e volumosos, o SB 1047 cria um quadro regulamentar que poderia dar ao público uma falsa sensação de segurança no controlo desta tecnologia em rápida evolução. Modelos mais pequenos e especializados poderão revelar-se tão perigosos ou até mais perigosos do que os modelos visados pelo SB 1047 – ao custo potencial de restringir a própria inovação que impulsiona o progresso para o bem comum.
A versão anterior do SB 1047 teria criado uma nova divisão chamada Frontier Model Division para supervisionar e fazer cumprir as regras. Em vez disso, o projeto de lei foi alterado antes de uma votação no comitê para dar a gestão a um Conselho de Modelos de Fronteira dentro da Agência de Operações Governamentais. Os nove membros seriam nomeados pelo governador e pelo legislativo estadual.
O projeto teve um caminho complicado antes da votação final. SB 1047 foi de autoria do senador do estado da Califórnia Scott Wiener, que narrou TechCrunch: “Temos uma história com a tecnologia de esperar que algo ruim aconteça e depois torcer as mãos. Não vamos esperar que algo ruim aconteça. Vamos evitar isso.” Os notáveis pesquisadores de IA Geoffrey Hinton e Yoshua Bengio apoiaram a legislação, assim como o Center for AI Safety, que soou o alarme sobre os riscos da IA no ano passado.
“Deixe-me ser claro – concordo com o autor – não podemos esperar que ocorra um grande desastre antes de tomar medidas para proteger o público”, disse Newsom na mensagem de veto. A declaração continua:
A Califórnia não abdicará das suas responsabilidades. Protocolos de segurança devem ser adotados. Devem ser implementadas barreiras proativas e as consequências graves para os intervenientes mal-intencionados devem ser claras e aplicáveis. No entanto, não acredito que, para proteger o público, tenhamos de nos contentar com uma solução que não se baseie numa análise histórica empírica dos sistemas e capacidades de IA. Em última análise, qualquer quadro para uma regulamentação eficaz da IA deve acompanhar o ritmo da própria tecnologia.
O SB 1047 enfrentou forte oposição em todo o setor de tecnologia. O pesquisador Fei-Fei Li criticou o projeto, assim como o cientista-chefe de IA da Meta, Yann LeCun, por limitar o potencial de exploração de novos usos da IA. O grupo comercial, que representa gigantes da tecnologia como Amazon, Apple e Google, disse que o SB 1047 restringiria novos desenvolvimentos no setor de tecnologia do estado. A empresa de capital de risco Andreeson Horowitz e várias startups também questionaram se o projeto de lei imporia encargos financeiros desnecessários aos inovadores da IA. A Antrópica e outros oponentes do projeto original pressionaram por mudanças que foram incorporadas à versão do SB 1047 aprovada pelo Comitê de Orçamento da Califórnia em 15 de agosto.