Breve resumen
- Google Quantum AI ha demostrado un sistema de memoria cuántica que reduce drásticamente las tasas de error, operando por debajo del límite crítico para una corrección eficiente de errores cuánticos.
- El qubit lógico del sistema superó a su mejor qubit físico en más del doble, demostrando una mayor estabilidad y confiabilidad a través de protocolos avanzados de corrección de errores.
- El estudio confirma que lograr tasas de error más bajas requeriría un aumento significativo de qubits, lo que indica los desafíos y el potencial necesarios para escalar los sistemas de computación cuántica.
Un equipo de investigadores dirigido por Google Quantum AI informa que han logrado avances significativos en la corrección de errores cuánticos (QEC), una tecnología vital para el desarrollo de la computación cuántica práctica. En un reciente artículo de investigación publicado en Servidor de preimpresión ArXivLos investigadores describen cómo pudieron lograr tasas de error por debajo del límite crítico necesario para corregir eficazmente los errores cuánticos.
Según el artículo, este logro representa un paso crítico hacia la computación cuántica escalable y resistente a errores.
La corrección de errores cuánticos es esencial para la computación cuántica porque la información cuántica es altamente vulnerable a errores debido al ruido ambiental y a procesos cuánticos imperfectos. El objetivo de QEC es proteger la información cuántica codificándola en múltiples qubits para formar un qubit lógico más estable. Sin embargo, QEC sólo entra en vigor cuando la tasa de error de los qubits físicos está por debajo de un cierto umbral. Hasta ahora, lograr este nivel de rendimiento en un sistema cuántico en funcionamiento ha sido difícil de alcanzar.
En su último trabajo, el equipo de Google, dirigido por Julian Kelly, director de hardware cuántico de Google Quantum AI, demostró una memoria cuántica que funciona por debajo de este umbral en una computadora cuántica superconductora, una hazaña que muchos en el campo consideran un obstáculo importante para utilizando computadoras cuánticas para realizar cálculos que pueden superar a las computadoras clásicas de hoy.
“Demostramos que nuestros sistemas funcionan por debajo del límite inferior midiendo la tasa de error de un qubit lógico dividiéndola a más de la mitad entre una distancia de código de 3 a 5, y nuevamente de 5 a 7, hasta un error de ciclo del 0,143% con 101 físicos. qubits”, escribió Kelly en. Una publicación en LinkedIn anunciando el trabajo de investigación..
El estudio presenta dos memorias de símbolos de superficie, concretamente el código espacial 7 y el código espacial 5, integradas con decodificación en tiempo real. Estos códigos espaciales indican formas de proteger la información cuántica, y un número mayor (7) indica una protección más fuerte contra errores que un número menor (5).
El código Distancia 7, que incluye 101 qubits físicos, logró una tasa de error del 0,143% por ciclo de corrección de errores, lo que marca la primera vez que un procesador cuántico demuestra de manera concluyente un rendimiento por debajo del umbral. Esto significa que la supresión de errores es altamente proporcional al tamaño del código, una característica crucial para los futuros sistemas de computación cuántica.
“La tasa de error lógico de nuestra memoria cuántica más grande se suprime en un factor de Λ = 2,14 ± 0,02 cuando la distancia del código se incrementa en dos, lo que da como resultado un código de distancia de 101 qubits con un error del 0,143% ± 0,003% por ciclo de corrección de errores”, escribe el equipo en el artículo.
Básicamente, esto significa que a medida que aumenta el nivel de protección, la tasa de error disminuye dramáticamente, lo cual es un paso crucial para hacer que las computadoras cuánticas sean prácticas y eficientes.
El experimento de Google también demostró la decodificación en tiempo real de errores cuánticos, lo cual es vital para ejecutar algoritmos cuánticos complejos. Los investigadores lograron una latencia de decodificación promedio de 63 microsegundos a una distancia de símbolo de 5, manteniendo el ritmo del tiempo de ciclo del sistema de 1,1 microsegundos. Este rendimiento persistió durante más de un millón de ciclos, lo que demuestra que la estabilidad es crucial para los cálculos cuánticos a largo plazo.
Uno de los aspectos más importantes de la investigación fue la longevidad de un qubit lógico en comparación con los qubits físicos que lo componen. La vida útil del qubit lógico superó la vida útil del mejor qubit físico (a menudo denominado punto de equilibrio) en un factor de 2,4, lo que demuestra aún más que los protocolos de corrección de errores eran eficaces.
«Esta memoria lógica también supera el punto de equilibrio, superando la vida útil de su mejor qubit físico en un factor de 2,4 ± 0,3», escribe el equipo.
Desafíos y direcciones futuras
Este progreso no estuvo exento de desafíos. El estudio encontró que el rendimiento de la lógica está limitado por raros eventos de error interconectados, que ocurren aproximadamente una vez cada hora o cada tres mil millones de ciclos. Aunque estos errores son raros, representan un obstáculo para lograr las tasas de error extremadamente bajas necesarias para la computación cuántica práctica.
Los investigadores implementaron códigos de redundancia de alta distancia hasta la distancia -29 para investigar estos errores, lo que representa un paso importante para comprender y mitigar estos problemas.
«Nuestros resultados proporcionan un rendimiento del dispositivo que, si se escala, puede cumplir con los requisitos operativos de algoritmos cuánticos tolerantes a fallos a gran escala», concluye el artículo.
El progreso de Google representa no sólo un avance técnico, sino que también puede constituir una prueba crucial en la búsqueda más amplia de construir computadoras cuánticas prácticas capaces de resolver problemas que son difíciles de resolver para los sistemas clásicos. Lograr tasas de error inferiores al mínimo allana el camino para cálculos cuánticos más complejos y a más largo plazo, acercando el campo a la realización de todo el potencial de la tecnología cuántica.
Aunque los resultados son prometedores, aún queda mucho trabajo por hacer. Los investigadores reconocen que ampliar el sistema actual para manejar más qubits y menores tasas de error requerirá muchos recursos y traerá desafíos adicionales. Por ejemplo, lograr un qubit lógico con una tasa de error de 10-6 (diez elevado a menos seis) requeriría un espacio de código de 27, utilizando 1.457 qubits físicos, un aumento significativo con respecto a los 101 qubits actuales. Además, a medida que el sistema se expanda, los coprocesadores clásicos responsables de decodificar errores cuánticos en tiempo real enfrentarán demandas cada vez mayores, lo que complicará aún más el desafío.
A pesar de estos desafíos, la espectacular mejora en las tasas de errores lógicos con el aumento de la distancia del código proporciona un camino a seguir. Según los investigadores, reducir las tasas de error físico a la mitad podría conducir a una mejora cuatro veces mayor en el rendimiento lógico, lo que podría acercar las computadoras cuánticas a las tasas de error necesarias para las aplicaciones del mundo real.
Se espera que los desarrollos futuros en protocolos de corrección de errores y algoritmos de decodificación reduzcan la sobrecarga asociada con estos sistemas, haciéndolos más prácticos para un uso generalizado.
El equipo de investigación también incluyó a miembros de Google Research, la Universidad de Massachusetts Amherst, Google DeepMind, la Universidad de California en Santa Bárbara, la Universidad de Connecticut, la Universidad de Auburn, el Instituto Federal Suizo de Tecnología en Zúrich, el Instituto de Tecnología de Massachusetts, el Universidad de California Riverside y Universidad de Yale.
Para obtener una visión más profunda del progreso y una explicación más técnica, consulte el artículo de investigación sobre arksif.