Dois ex-pesquisadores da OpenAI que renunciaram este ano por questões de segurança dizem que estão desapontados, mas não surpresos, com a decisão da OpenAI de se opor ao projeto de lei de prevenção de desastres de IA da Califórnia, SB 1047. Daniel Kokotajlo e William Saunders já haviam alertado que a OpenAI estava em uma corrida “implacável” pelo domínio.
“Sam Altman, nosso ex-chefe, pediu repetidamente a regulamentação da IA”, escreveram eles em uma carta obtida pelo Politico, instando o governador da Califórnia, Gavin Newsom, a assinar a lei. “Agora que a regulamentação real está sobre a mesa, ele é contra.” Os dois acrescentam: “Esperamos que, com a regulamentação apropriada, a OpenAI ainda possa cumprir sua missão de construir AGI com segurança”.
Em comunicado ao TechCrunch, um porta-voz da OpenAI disse em resposta às perguntas dos ex-funcionários que a startup “discorda veementemente da deturpação de nossa posição sobre o SB 1047”. O porta-voz apontou para projetos de lei de IA no Congresso que a OpenAI apoiou, observando que “os regulamentos de segurança para IA inovadora devem ser implementados em nível federal, dado o seu impacto na segurança nacional e na competitividade”.
O concorrente da OpenAI, Antrópico, expressou apoio ao projeto de lei, levantando preocupações específicas e pedindo mudanças. Várias dessas mudanças foram incorporadas desde então, e na quinta-feira o CEO Dario Amodei escreveu a Newsom que “os benefícios do projeto de lei atual provavelmente superam os custos”, mas sem apoiar totalmente o projeto.