As descobertas mais importantes
- Gemini Live é como o chat de voz ChatGPT e permite interações conversacionais.
- Os usuários podem pausar a IA, mudar de voz e retomar os bate-papos mais tarde.
- Atualmente, o Gemini Live está disponível apenas em inglês e requer uma assinatura do Google One AI Premium.
O Google começa hoje a lançar o Gemini Live, uma prometida versão conversacional da IA generativa da empresa. A tecnologia é semelhante ao modo de chat de voz do ChatGPT e permite que os usuários se comuniquem com o Gemini em vez de fazer solicitações únicas. Os recursos não são fundamentalmente diferentes – mas os usuários podem pausar as respostas da IA e responder rapidamente às solicitações sem ter que lembrar o Gemini do contexto.
3:31
Relacionado
Pixel 9: o que mudou e o que não mudou?
O Pixel 9 apresenta uma tela um pouco maior, uma câmera ultra grande angular aprimorada e várias novas ferramentas de IA.
Os usuários também podem alternar entre 10 vozes diferentes – masculina e feminina – e pausar uma conversa se quiserem continuá-la mais tarde. Talvez o mais importante seja que o Gemini Live pode continuar rodando em segundo plano no Android mesmo quando seu telefone ou tablet está bloqueado. Quando está em primeiro plano, obtém uma interface em tela cheia com efeitos especiais.
Existem atualmente algumas restrições significativas. O Gemini Live está disponível apenas em inglês e você também precisa de um dispositivo Android inscrito no Gemini Advanced, que vem com uma assinatura do Google One AI Premium. Isso custa US$ 20 por mês, embora você obtenha benefícios como 2 TB de armazenamento no Google Drive. O suporte para iOS e outros idiomas está prometido “nas próximas semanas”.
O que você pode fazer com o Gemini Live?
O Google dá exemplos como ensaiar para uma entrevista de emprego, aprender como aliviar o estresse ou como não apenas fazer tinta invisível, mas também torná-la mais interessante. O que é notável, entretanto, é que a versão de lançamento do Gemini Live carece de entrada multimodal, o que permitiria fazer coisas como escanear uma placa ou notificá-lo sobre um objeto na câmera. Isso é algo que o Google está introduzindo em outros aspectos de sua IA.
O Gemini Live oferecerá suporte multimodal no futuro – mas de acordo com o Google, isso não acontecerá até “ainda este ano”.