Na quinta-feira, a União Europeia publicou o seu primeiro rascunho de um código de conduta para modelos de IA de uso geral (GPAI). O documento, que só será finalizado em maio, estabelece diretrizes para lidar com riscos – e dá às empresas um plano para cumpri-los e evitar penalidades pesadas. A lei da UE sobre IA entrou em vigor em 1º de agosto, mas deixou espaço para determinar os detalhes dos regulamentos GPAI no futuro. Este rascunho (via TechCrunch) é a primeira tentativa de clarificar o que se espera destes modelos mais avançados e de dar tempo às partes interessadas para fornecerem feedback e aperfeiçoá-los antes de entrarem em vigor.
GPAIs são aqueles que foram treinados com um poder computacional total de mais de 10²⁵ FLOPs. As empresas que provavelmente se enquadrarão nas diretivas da UE incluem OpenAI, Google, Meta, Anthropic e Mistral. Mas esta lista poderia ser mais longa.
O documento aborda diversas áreas importantes para os fabricantes de GPAI: transparência, conformidade com direitos autorais, avaliação de riscos e mitigação de riscos técnicos/de governança. Este rascunho de 36 páginas cobre muito terreno (e provavelmente irá inchar muito mais antes de ser concluído), mas alguns destaques se destacam.
O código enfatiza a transparência no desenvolvimento de IA e exige que as empresas de IA forneçam informações sobre os rastreadores da web que usaram para treinar seus modelos – uma preocupação importante para detentores de direitos autorais e criadores. A seção de avaliação de risco visa prevenir crimes cibernéticos, discriminação generalizada e perda de controle sobre a IA (o momento “É um vilão” em um milhão de filmes de ficção científica ruins).
Espera-se que os fabricantes de IA adotem um Quadro de Segurança e Proteção (SSF) para decompor as suas políticas de gestão de riscos e mitigá-las em relação aos seus riscos sistémicos. As regras também abrangem áreas técnicas como a proteção de dados de modelos, o fornecimento de controlos de acesso à prova de falhas e a reavaliação contínua da sua eficácia. Por fim, a área de governação visa a responsabilização dentro das próprias empresas, o que exige uma avaliação contínua dos riscos e o envolvimento de especialistas externos quando necessário.
Tal como acontece com outras regulamentações da UE relacionadas à tecnologia, as empresas que violam a lei de IA enfrentam pesadas penalidades. Eles podem ser multados em até 35 milhões de euros (atualmente US$ 36,8 milhões) ou até sete por cento dos seus lucros anuais em todo o mundo, o que for maior.
As partes interessadas são convidadas a enviar comentários através da plataforma Futurium dedicada até 28 de novembro para ajudar a refinar o próximo rascunho. As regras deverão ser finalizadas até 1º de maio de 2025.