O problema veio à tona quando a ferramenta de resumo de IA da Apple afirmou incorretamente que Luigi Mangione, acusado do assassinato do CEO da UnitedHealthcare, Brian Thompson, morreu por suicídio. O resumo também nomeou a BBC como a fonte desta farsa
leia mais
Apple Intelligence, o novo recurso baseado em IA da gigante da tecnologia, vacilou apenas uma semana após seu lançamento no Reino Unido. A BBC apresentou uma queixa formal depois de descobrir que os resumos produzidos pela Apple atribuíam incorretamente notícias falsas ao nome da Apple.
O problema veio à tona quando a ferramenta de resumo de IA alegou falsamente esse Luigi Mangioneacusado de assassinato Brian Thompson, CEO da UnitedHealthcareEle havia morrido por suicídio. O resumo também apontou a BBC como a fonte dessa farsa. Na realidade, Mangione continua sob custódia dos EUA e a BBC nunca publicou tal artigo. A BBC ficou compreensivelmente frustrada, sublinhando que a confiança e a precisão estavam no centro da sua reputação global e que tais erros ameaçavam a credibilidade que tinha construído.
Mais erros nos principais meios de comunicação
A BBC não é a única empresa de mídia apanhada no fogo cruzado da IA. A Apple Intelligence também supostamente deturpou o conteúdo de notícias O jornal New York Times. Num caso, a IA resumiu um artigo com a afirmação imprecisa de que o primeiro-ministro israelita, Benjamin Netanyahu, tinha sido “preso”. Embora o Tribunal Penal Internacional (TPI) tenha emitido um mandado de detenção para Netanyahu, tal detenção não foi efectuada.
Estes exemplos reforçaram as preocupações existentes sobre a precisão das ferramentas generativas de IA. O potencial para resumos enganosos, especialmente quando atribuídos a fontes confiáveis, corre o risco de prejudicar a credibilidade dos meios de comunicação social e a confiança dos utilizadores nos sistemas de IA.
O problema mais amplo das “alucinações” de IA
Os problemas da Apple destacam um desafio maior para a IA generativa: as alucinações. Este termo refere-se a sistemas de IA que geram conteúdo que parece plausível, mas é factualmente incorreto. Tais incidentes não são exclusivos da Apple – outras plataformas de IA, incluindo ChatGPT, também tiveram problemas com atribuição incorreta ou descontextualização de conteúdo.
Um estudo recente da Columbia Journalism School destaca esse problema. A investigação encontrou vários casos em que ferramentas generativas de IA lidaram mal com citações em bloco e não citaram fontes confiáveis O Washington Post e o Tempos Financeiros. Estes erros levantam sérias questões sobre se a IA está pronta para gerir algo tão sensível como a reportagem e agregação de notícias.
Um problema que a Apple precisa resolver
Com a confiança já fraca na IA e nos meios digitais, a Apple enfrenta agora o desafio de provar que as suas ferramentas de IA podem ser fiáveis. A resposta rápida da BBC destaca a gravidade do problema, especialmente para as organizações noticiosas cuja credibilidade assenta na precisão.
Para a Apple, esta controvérsia é um sinal claro para refinar seus sistemas de IA e enfrentar de frente o problema das alucinações. Caso contrário, os esforços da empresa para melhorar a experiência do utilizador através de resumos mais inteligentes e baseados em IA poderão sair pela culatra – corroendo em vez de melhorar a confiança.