De acordo com uma nova pesquisa global da McAfee sobre o impacto da IA, um em cada quatro indianos encontrou recentemente um deepfake político que mais tarde foi considerado falso.
A inteligência artificial (IA) impacta os consumidores de várias maneiras. A recente onda de golpes deepfake que circulam em plataformas de mensagens instantâneas é apenas um exemplo.
Uma nova pesquisa realizada pela empresa de segurança cibernética e proteção online McAfee em 25 de abril revelou que 75% dos indianos encontraram conteúdo deepfake. 31% dos indianos citam o impacto dos deepfakes nas eleições gerais em curso como uma das questões mais preocupantes que a tecnologia alimentada por IA enfrenta. Deepfakes são quaisquer vídeos, fotos ou clipes de áudio que parecem reais, mas que foram manipulados usando IA.
Leia também: Cibersegurança em 2024: a temporada de enganos e deepfakes
A McAfee conduziu pesquisas para a pesquisa em janeiro e fevereiro deste ano em vários países para entender como a IA e a tecnologia estão mudando o futuro. O estudo foi conduzido pela MSI-ACI com 7.000 consumidores em todo o mundo nos EUA, Reino Unido, França, Alemanha, Austrália, Índia e Japão.
De acordo com as descobertas, um em cada quatro indianos (22%) disse ter encontrado recentemente um deepfake político que mais tarde foi considerado falso.
Entretanto, a desinformação e a desinformação surgiram como outra grande preocupação entre os indianos inquiridos. Incidentes recentes envolvendo celebridades como Sachin Tendulkar, Virat Kohli, Aamir Khan e Ranveer Singh servem como exemplo do que poderia se tornar um problema ainda maior.
Quando questionados sobre quais possíveis usos de deepfakes eram mais preocupantes, 55% disseram que o cyberbullying, 52% disseram que a criação de conteúdo pornográfico falso, 49% disseram que permitir a fraude, 44% disseram que se passar por figuras públicas, 37% disseram que minar a confiança do público na mídia, 31% com influenciando eleições e 27% falsificando factos históricos.
Com os principais eventos políticos e esportivos atuais e futuros acontecendo local e globalmente, como as Olimpíadas de Paris em 2024, o torneio de críquete da Premier League indiana e muito mais, o número desse conteúdo deepfake certamente aumentará.
Embora uma pequena parte dos entrevistados tenha dito que estão mais preocupados com os deepfakes hoje do que estariam em 2023, alguns também disseram que a IA está dificultando a distinção entre o que é real e o que é falso. Quase 8 em cada 10 (80%) pessoas estão mais preocupadas com deepfakes do que há um ano, de acordo com os resultados da pesquisa. Mais de metade (64%) dos inquiridos afirma que a IA tornou mais difícil a deteção de fraudes online, enquanto apenas 30% das pessoas estavam confiantes de que conseguiam distinguir mensagens reais de falsas quando alguém partilha um correio de voz ou uma mensagem de voz, que foi criada com recurso à IA.
A fraude deepfake também está aumentando. Nos últimos 12 meses, 75% das pessoas relataram ter visto conteúdo deepfake, 38% das pessoas encontraram um golpe deepfake e 18% foram vítimas de um golpe deepfake. Das pessoas afetadas por golpes deepfake, 57% disseram que se depararam com um vídeo, imagem ou gravação de uma celebridade e pensaram que era real, e 31% perderam dinheiro em um golpe. Cerca de 40% dos usuários entrevistados disseram acreditar que sua voz foi clonada e usada para enganar alguém conhecido para que revele informações pessoais ou dinheiro.
“Hoje, qualquer pessoa pode criar deepfakes e arquivos de áudio clonados usando ferramentas de fácil acesso, o que leva apenas alguns minutos. Recentemente, a Índia testemunhou um aumento sem precedentes nos casos de conteúdo deepfake de personalidades públicas e privadas. A facilidade com que a IA pode manipular vozes e imagens levanta questões críticas sobre a autenticidade do conteúdo, especialmente em um ano eleitoral crítico”, disse Pratim Mukherjee, diretor sênior de engenharia da McAfee, em comunicado à imprensa. “É imperativo que os consumidores sejam cautelosos e tomem medidas proativas para se manterem informados e se protegerem da desinformação, da desinformação e de fraudes profundas.”
Leia também: Embora a IA generativa esteja crescendo, a detecção de deepfake ainda está atrasada