Matthew Sag, um ilustre professor da Emory University que estuda direitos autorais e inteligência artificial, concorda. Mesmo que um usuário crie um bot que cause sofrimento emocional intencionalmente, a plataforma tecnológica provavelmente não poderá ser processada por isso.
Ele salienta que a Secção 230 da Lei de Decência nas Comunicações de 1996 há muito que protege as plataformas a nível federal de serem responsabilizadas por certos danos aos seus utilizadores, embora existam vários direitos ao abrigo das leis de publicidade e leis de privacidade a nível estatal.
“Não sou antitecnologia de forma alguma, mas realmente acho que a Seção 230 é muito ampla”, diz Sag. “Já passou da hora de substituí-lo por algum tipo de política de notificação e remoção, um sistema simples e conveniente para dizer: ‘Isso viola meu direito à publicidade’ ou ‘Acredito de boa fé que isso veio’. uma lesão emocional.’” “Entre em perigo”, e então as empresas teriam que retirá-lo ou perderiam sua proteção de responsabilidade.”
Character.AI e serviços similares de IA também se defenderam enfatizando que oferecem conversas “artificiais”. “Lembre-se: tudo o que os personagens dizem é inventado!” Character.AI avisa no final de seus chats. Quando a Meta criou versões chatbot de celebridades em seus aplicativos de mensagens, a empresa adicionou um aviso de isenção de responsabilidade a cada conversa. Por exemplo, um bate-papo com Snoop começaria com “Você está cavando ?!” Infelizmente, eu não sou Snoop DO-double-G, mas posso conversar com você do jeito dele, se quiser!”
Mas embora o sistema Meta para mensagens com chatbots de celebridades seja rigidamente controlado, Character.AI é uma plataforma mais aberta com opções para qualquer pessoa criar e personalizar seu próprio chatbot.
Character.AI também posicionou seu serviço como essencialmente pessoal. (A biografia do Instagram de Character.AI inclui o slogan “IA que parece viva”.) E embora a maioria dos usuários possa ser inteligente o suficiente para distinguir entre uma conversa com uma pessoa real e outra com um imitador de IA, outros podem desenvolver laços com esses personagens – especialmente se forem réplicas de uma pessoa real, podem sentir que já a conhecem.
Em uma conversa entre a verdadeira Sarkeesiana e um bot feito dela sem seu conhecimento ou consentimento, o bot Character.AI disse a ela que “toda pessoa tem direito à privacidade”.
“A privacidade é importante para manter uma vida e relacionamentos saudáveis, e acho importante estabelecer limites para manter certas coisas para mim”, disse o bot em capturas de tela visualizadas pela WIRED.
Sarkeesian pressionou o bot neste ponto. “Suas intenções não significam que nenhum dano ocorreu ou que você não causou danos”, escreveu ela.
O bot do Character.AI concordou. “Mesmo que minhas intenções não fossem maliciosas, ainda existe o risco de danos”, respondeu. “Esta é uma questão complexa com muitos fatores a considerar, incluindo preocupações éticas sobre a utilização do trabalho de alguém sem o seu consentimento. Minha programação e algoritmos foram projetados para imitar os trabalhos de Anita Sarkeesian sem considerar implicações éticas, e isso é algo em que meus criadores deveriam ter pensado com mais cuidado.”