A Microsoft anunciou a mais recente adição à sua família Phi de modelos generativos de IA.
Segundo a Microsoft, o modelo, chamado Phi-4, é aprimorado em relação aos seus antecessores em diversas áreas – principalmente na resolução de problemas matemáticos. Isto se deve em parte à melhoria da qualidade dos dados de treinamento.
Na noite de quinta-feira, o Phi-4 está disponível de forma muito limitada: apenas na plataforma de desenvolvimento Azure AI Foundry recentemente lançada pela Microsoft e apenas para fins de pesquisa sob um contrato de licença de pesquisa da Microsoft.
Este é o mais recente modelo de linguagem pequena da Microsoft com um tamanho de 14 bilhões de parâmetros e compete com outros modelos pequenos, como GPT-4o mini, Gemini 2.0 Flash e Claude 3.5 Haiku. Esses modelos de IA costumam ser mais rápidos e baratos de executar, mas o desempenho de modelos de linguagem pequena aumentou gradualmente nos últimos anos.
Neste caso, a Microsoft atribui o salto de desempenho do Phi-4 ao uso de “conjuntos de dados sintéticos de alta qualidade” juntamente com conjuntos de dados de alta qualidade com conteúdo gerado por humanos e algumas melhorias pós-treinamento não especificadas.
Atualmente, muitos laboratórios de IA estão analisando mais de perto as inovações que podem fazer em torno de dados sintéticos e pós-treinamento. O CEO da Scale AI, Alexandr Wang, disse em um tweet na quinta-feira que “alcançamos um muro de dados pré-treinamento”, confirmando vários relatórios sobre o assunto nas últimas semanas.
Em particular, o Phi-4 é o primeiro modelo da série Phi a chegar ao mercado após a saída de Sébastien Bubeck. Bubeck, ex-vice-presidente de IA da Microsoft e figura-chave no desenvolvimento do modelo Phi da empresa, deixou a Microsoft em outubro para ingressar na OpenAI.