As plataformas modernas de mídia social não fornecem mais simplesmente acesso ao conteúdo; eles selecionam ativamente o que os usuários veem usando algoritmos complexos. Esses algoritmos, como a página For You do TikTok ou o feed do Facebook, são projetados para aprender o comportamento do usuário e fornecer conteúdo que provoque uma resposta.
leia mais
Imagine um mundo onde as plataformas de redes sociais sejam responsabilizadas e até processadas pelo conteúdo que os seus utilizadores publicam. Num mundo assim, a maioria das plataformas de redes sociais reprimiria alguns dos aspectos mais cruéis e vis da experiência nas redes sociais.
Por mais de duas décadas, plataformas de mídia social como
Estas proteções, baseadas na Lei de Decência nas Comunicações dos EUA de 1996, destinavam-se originalmente a proteger serviços online, como AOL e CompuServe, da responsabilidade por conteúdo publicado por terceiros. A ideia era que essas plataformas fossem apenas canais de informação e não responsáveis pelo conteúdo criado pelos usuários.
Nos primórdios da Internet, plataformas como a AOL funcionavam como armazéns digitais, armazenando e organizando grandes quantidades de informações para acesso dos usuários. As plataformas eram em grande parte passivas, proporcionando acesso ao conteúdo sem influenciar ativamente o que os utilizadores viam.
Naquela época, a Internet ainda estava na sua infância e as plataformas ainda não estavam equipadas com os algoritmos sofisticados que definem o panorama atual das redes sociais.
Mas hoje a situação mudou dramaticamente. As plataformas modernas de mídia social não fornecem mais simplesmente acesso ao conteúdo; eles selecionam ativamente o que os usuários veem usando algoritmos complexos. Esses algoritmos, como a página For You do TikTok ou o feed do Facebook, são projetados para conhecer as preferências dos usuários e fornecer-lhes conteúdo adaptado aos seus interesses.
O objetivo é reter os utilizadores durante o maior tempo possível, o que é crucial para estas plataformas, uma vez que dependem de receitas publicitárias e não de taxas de subscrição.
A mudança da entrega passiva de conteúdo para a curadoria ativa confundiu os limites da responsabilidade. Embora plataformas como a AOL pudessem legitimamente alegar que não tinham controle sobre o conteúdo visto pelos usuários, as plataformas de mídia social atuais desempenham um papel ativo na formação da experiência do usuário.
Isto levanta questões sobre até que ponto estas plataformas devem ser responsabilizadas pelo conteúdo que os seus algoritmos promovem.
Um caso que pode abrir um precedente significativo é o processo movido pela família de Nylah Anderson, uma menina de 10 anos que morreu tragicamente ao tentar um desafio perigoso que encontrou no TikTok. O desafio, conhecido como Blackout Challenge, envolvia sufocar-se até perder a consciência.
A família de Nylah processou a TikTok, argumentando que o algoritmo da plataforma espalha conteúdo prejudicial. Embora os tribunais inferiores inicialmente tenham rejeitado o caso, um tribunal de apelações dos EUA decidiu recentemente que a família poderia prosseguir com o processo porque o algoritmo do TikTok poderia ser considerado uma forma de discurso, potencialmente sujeitando a plataforma a responsabilidades.
Esta decisão pode ter consequências de longo alcance para todas as plataformas de redes sociais que utilizam algoritmos para curadoria de conteúdo.
Se a família de Nylah finalmente vencer o caso, isso poderá abrir caminho para novos processos judiciais contra plataformas como TikTok, X, Facebook e Instagram, responsabilizando-os pelo conteúdo que seus algoritmos promovem. Isto seria um afastamento significativo da protecção que estas plataformas gozam ao abrigo da Secção 230 da Lei de Decência nas Comunicações.
O resultado deste caso poderá levar a uma reestruturação fundamental do funcionamento das plataformas de redes sociais. As empresas poderiam ser forçadas a redesenhar os seus algoritmos para evitar a promoção de conteúdos prejudiciais ou arriscar processos judiciais dispendiosos. Os riscos são elevados e as decisões neste caso podem moldar o futuro das redes sociais tal como as conhecemos.
À medida que a situação jurídica muda, a responsabilidade das plataformas de redes sociais em proteger os seus utilizadores de conteúdos perigosos torna-se cada vez mais clara. Os dias em que dependíamos exclusivamente das proteções legais da década de 1990 podem acabar em breve e as plataformas poderão ter de se adaptar rapidamente para evitar enfrentar as consequências das ações dos seus algoritmos.