Cerca de um ano e meio atrás, a startup de controle quântico Quantum Machines e a Nvidia anunciaram uma estreita parceria que reuniria a plataforma de computação quântica DGX da Nvidia e o hardware avançado de controle quântico da Quantum Machine. Faz algum tempo que não ouvimos muito sobre os resultados desta parceria, mas agora ela está começando a dar frutos, aproximando a indústria do Santo Graal de um computador quântico com correção de erros.
Em uma apresentação no início deste ano, as duas empresas mostraram que poderiam usar um modelo de aprendizado por reforço pronto para uso rodando na plataforma DGX da Nvidia para controlar melhor os qubits em um chip quântico Rigetti, calibrando a retenção do sistema.
Yonatan Cohen, cofundador e CTO da Quantum Machines, observou que sua empresa há muito procura usar máquinas de computação clássicas gerais para controlar processadores quânticos. Esses mecanismos de computação eram pequenos e limitados, mas isso não é um problema com a plataforma DGX extremamente poderosa da Nvidia. O Santo Graal, disse ele, é realizar a correção quântica de erros. Ainda não chegamos lá. Em vez disso, esta colaboração centrou-se na calibração e, em particular, na calibração dos chamados “pulsos π” que controlam a rotação de um qubit num processador quântico.
À primeira vista, a calibração parece ser um problema único: você calibra o processador antes de executar o algoritmo nele. Mas não é tão simples. “Se você observar o desempenho dos computadores quânticos hoje, verá alta fidelidade”, disse Cohen. “Mas quando os usuários usam o computador, geralmente ele não tem a melhor fidelidade. Está constantemente à deriva. Se pudermos recalibrá-lo regularmente usando técnicas como esta e o hardware subjacente, poderemos melhorar o desempenho e manter a fidelidade [high] durante um longo período de tempo, o que será necessário na correção de erros quânticos.”
Ajustar constantemente esses impulsos quase em tempo real é uma tarefa extremamente intensiva em termos computacionais. No entanto, como um sistema quântico sempre difere ligeiramente, é também um problema de controle que pode ser resolvido por meio de aprendizagem por reforço.
“À medida que os computadores quânticos aumentam e melhoram, há todos esses problemas que se tornam gargalos e se tornam realmente intensivos em termos computacionais”, disse Sam Stanwyck, gerente de produto do grupo de computação quântica da Nvidia. “A correção quântica de erros é realmente uma grande tarefa. Isto é necessário para permitir a computação quântica tolerante a falhas, mas também para aplicar apenas os impulsos de controle corretos para obter o melhor dos qubits.”
Stanwyck também enfatizou que antes do DGX Quantum, não havia nenhum sistema que permitisse a latência mínima necessária para realizar esses cálculos.
Acontece que mesmo uma pequena melhoria na calibração pode levar a melhorias enormes na correção de erros. “O retorno do investimento em calibração associado à correção de erros quânticos é exponencial”, explicou Ramon Szmuk, gerente de produto da Quantum Machines. “Se você calibrar 10% melhor, obterá erros lógicos exponencialmente melhores [performance] no qubit lógico, que consiste em muitos qubits físicos. Portanto, há muita motivação aqui para calibrar muito bem e rapidamente.”
É importante ressaltar que este é apenas o começo desse processo de otimização e colaboração. O que a equipe realmente fez aqui foi simplesmente pegar alguns algoritmos padrão e ver qual deles funcionava melhor (neste caso, TD3). No total, o código real para executar o experimento tinha apenas cerca de 150 linhas. Claro, isso depende de todo o trabalho que as duas equipes também fizeram para integrar os diferentes sistemas e construir a pilha de software. No entanto, para os desenvolvedores, essa complexidade pode estar oculta, e as duas empresas esperam criar cada vez mais bibliotecas de código aberto ao longo do tempo para aproveitar as vantagens desta plataforma maior.
Szmuk enfatizou que a equipe trabalhou apenas com um circuito quântico muito simples para este projeto, mas que também pode ser generalizado para circuitos profundos. “Se você pode fazer isso com uma porta e um qubit, você pode fazer isso com cem qubits e 1.000 portas”, disse ele.
“Eu diria que o resultado individual é um pequeno passo, mas é um pequeno passo para resolver os principais problemas”, acrescentou Stanwyck. “A computação quântica útil requer a forte integração da supercomputação acelerada – e este é talvez o desafio técnico mais difícil. Então, se formos capazes de fazer isso de verdade em um computador quântico e ajustar um pulso de uma forma que não seja apenas otimizada para um pequeno computador quântico, mas que seja uma plataforma modular e escalável, acho que estamos realmente no caminho certo para para resolver alguns dos problemas mais importantes da computação quântica.”
Stanwyck também disse que as duas empresas planejam continuar esta colaboração e colocar essas ferramentas nas mãos de mais pesquisadores. Como os chips Blackwell da Nvidia estarão disponíveis no próximo ano, eles também possuem uma plataforma de computação ainda mais poderosa para este projeto.