Engenheiros de software, desenvolvedores e pesquisadores acadêmicos têm sérias preocupações sobre as transcrições do Whisper da OpenAI, de acordo com um relatório da Associated Press.
Embora não tenha havido falta de discussão sobre a tendência da IA generativa de alucinar – essencialmente inventar coisas – é um tanto surpreendente que este seja um problema na transcrição, onde se esperaria que a transcrição se adaptasse ao áudio a ser transcrito a seguir.
Em vez disso, os pesquisadores disseram à AP que o Whisper incorporou nas transcrições tudo, desde comentários racistas até tratamentos médicos imaginários. E isso pode ser particularmente desastroso porque o Whisper é usado em hospitais e outros ambientes médicos.
Um pesquisador da Universidade de Michigan que estuda reuniões públicas encontrou alucinações em oito entre dez transcrições de áudio. Um engenheiro de aprendizado de máquina examinou mais de 100 horas de transcrições do Whisper e encontrou alucinações em mais da metade delas. E um desenvolvedor relatou ter encontrado alucinações em quase todas as 26.000 transcrições que criou com o Whisper.
Um porta-voz da OpenAI disse que a empresa está “trabalhando continuamente para melhorar a precisão de nossos modelos, incluindo a redução de alucinações”, e observou que suas diretrizes de uso proíbem o uso do Whisper “em certos contextos de alta tomada de decisão”.
“Agradecemos aos pesquisadores por compartilharem seus resultados”, disseram.