- IBM y Cisco se han aliado para crear una red distribuida de ordenadores cuánticos tolerantes a fallos, sentando las bases de una futura Internet cuántica.
- El proyecto combina procesadores cuánticos avanzados (QPU) con unidades de red cuántica (QNU) y nuevos protocolos de comunicación para entrelazar qubits a larga distancia.
- Los hitos incluyen una primera prueba de concepto en cinco años y una demostración de red cuántica escalable hacia 2030, conectando múltiples centros de datos.
- Si se superan los retos técnicos y de seguridad, esta red permitirá abordar problemas de optimización, simulación y comunicaciones seguras inalcanzables para la computación clásica.
En este contexto entra en juego la alianza entre IBM y Cisco, dos gigantes que han decidido unir fuerzas para diseñar y construir las bases de una red de ordenadores cuánticos tolerantes a fallos conectados entre sí. Su objetivo no es solo fabricar máquinas más potentes, sino lograr que esas máquinas puedan cooperar a través de una infraestructura de comunicaciones cuánticas, dando lugar a lo que muchos ya llaman el “Internet de la computación cuántica”.
Qubits: el corazón de la computación cuántica moderna
Para entender por qué esta alianza es tan relevante, primero hay que tener claro qué es un qubit y en qué se diferencia de un bit clásico. Mientras que los ordenadores tradicionales trabajan con bits que solo pueden valer 0 o 1, los qubits se rigen por las reglas de la mecánica cuántica y pueden encontrarse en una superposición de ambos estados a la vez.
Gracias a esta superposición cuántica, un procesador cuántico puede explorar de forma paralela un número de estados que crece de forma exponencial con el número de qubits. IBM, por ejemplo, ya ha desplegado su familia de procesadores Heron, con 133 qubits, en distintos centros de investigación repartidos por el mundo, demostrando que este enfoque empieza a ser útil más allá del laboratorio.
Las proyecciones de la compañía indican que, con un procesador de alrededor de 300 qubits bien controlados, sería posible resolver problemas que a los superordenadores clásicos más potentes les llevarían miles de años. Aquí hablamos de simulación química avanzada, optimización financiera extrema o diseño de materiales con propiedades muy específicas.
La clave, sin embargo, no está solo en incrementar el número de qubits, sino en mejorar su estabilidad y su coherencia cuántica. Durante años, el gran escollo de la computación cuántica ha sido precisamente mantener el estado cuántico el tiempo suficiente para realizar cálculos útiles antes de que el sistema se degrade por el ruido y la decoherencia.
En este punto IBM ha dado pasos importantes en corrección de errores cuánticos. La empresa no se ha limitado a mejorar la fidelidad de cada qubit por separado, sino que ha diseñado esquemas en los que varios qubits físicos trabajan de manera redundante para formar qubits lógicos más robustos, capaces de detectar y corregir errores en tiempo real. Este avance es crucial para llegar a máquinas realmente tolerantes a fallos.
Entrelazamiento cuántico y redes: donde Cisco entra en escena
Una vez que existe un hardware cuántico mínimamente estable, el siguiente paso es permitir que distintos procesadores cooperen entre sí. Ahí es donde brilla la experiencia de Cisco, que está centrando su investigación en lo que denomina redes cuánticas, es decir, infraestructuras capaces de transmitir información cuántica sin destruir sus propiedades.
La pieza central de este rompecabezas es el entrelazamiento cuántico. Cuando dos qubits están entrelazados, el estado de uno está ligado al del otro, aunque se encuentren a kilómetros de distancia. Cualquier medición sobre uno de ellos afecta instantáneamente a su pareja. Aprovechar este fenómeno es lo que permite que una red cuántica distribuida funcione como un único sistema lógico coherente.
Los equipos de Cisco trabajan en sistemas de transmisión que mantengan ese entrelazamiento a través de largas distancias mediante fibra óptica. No vale con reutilizar la infraestructura clásica de Internet: hace falta desarrollar elementos específicos como repetidores o puentes cuánticos y gestionar fotones individuales que codifican información cuántica con pérdidas mínimas.
La promesa de esta tecnología se vuelve muy clara cuando se empieza a pensar en sus aplicaciones. Una red cuántica robusta permitiría, por ejemplo, que un banco global pudiera ejecutar cálculos de optimización de carteras en tiempo real repartiendo el trabajo entre varios procesadores cuánticos ubicados en diferentes continentes, y todo ello con un nivel de seguridad muy superior al de los sistemas actuales.
En el ámbito de la salud y la ciencia de materiales, esta infraestructura facilitaría simulaciones moleculares a una escala hoy impensable, haciendo mucho más rápido el diseño de medicamentos complejos o la búsqueda de nuevos compuestos con propiedades avanzadas, ya sea para baterías, superconductores o materiales ultrarresistentes.
Objetivos de la alianza IBM y Cisco: de los hitos a 2030
Con este contexto sobre la mesa, IBM y Cisco han anunciado una colaboración a largo plazo para sentar las bases de la computación cuántica distribuida en red. El horizonte que se marcan son los primeros años de la década de 2030, momento en el que esperan tener listas las piezas clave de una Internet cuántica funcional.
El primer gran hito que se han fijado es un plazo aproximado de cinco años para demostrar una prueba de concepto que conecte varios ordenadores cuánticos individuales de gran escala y tolerantes a fallos. La idea es que estos equipos puedan realizar cálculos conjuntos con decenas o incluso cientos de miles de qubits, muy por encima de lo que puede manejar una sola máquina aislada.
En términos de capacidad, esta red experimental debería poder ejecutar problemas que impliquen miles de millones o billones de puertas cuánticas, es decir, un número descomunal de operaciones de entrelazamiento y manipulación de estados cuánticos. Este nivel de complejidad es precisamente el que se necesita para aplicaciones transformadoras como la optimización masiva o el diseño de fármacos de nueva generación.
IBM mantiene paralelamente su propia hoja de ruta para ofrecer ordenadores cuánticos a gran escala y tolerantes a fallos antes de que termine la década actual. Lo que persigue con Cisco es ir un paso más allá: que esas máquinas no se queden como “islas” de potencia de cálculo, sino que puedan formar una red distribuida de computación cuántica que amplifique su capacidad total.
En este planteamiento, la arquitectura se concibe como un todo: hardware para conectar los ordenadores cuánticos, software para coordinar cálculos repartidos entre ellos y capas de inteligencia de red que decidan cómo y cuándo mover la información cuántica de un nodo a otro, maximizando rendimiento y fiabilidad.
Más a medio plazo, las dos compañías se marcan la meta de tener una demostración inicial de red cuántica distribuida hacia finales de 2030. Esta demo se basará en entrelazar qubits de varios ordenadores cuánticos independientes, instalados en distintos entornos criogénicos, lo que añade también un reto de ingeniería física importante.
Para hacerlo posible, será necesario inventar y perfeccionar nuevas tecnologías de interconexión, como transductores ópticos de microondas que conviertan señales cuánticas en el rango de microondas (típicas de los qubits superconductores) en fotones ópticos que viajen por fibra, y viceversa. Además, hará falta un stack de software especializado capaz de orquestar todo ese flujo de información cuántica sin perder coherencia.
QPU, QNU y el nuevo centro de datos cuántico
Una de las piezas conceptuales más interesantes del plan es la definición de dos componentes clave: la QPU (Quantum Processing Unit) y la QNU (Quantum Network Unit). La QPU es, simplificando mucho, el procesador cuántico como tal, donde residen los qubits estacionarios que realizan los cálculos.
La QNU, por su parte, está pensada como la interfaz de red cuántica encargada de transformar esa información cuántica estacionaria de la QPU en lo que se suele llamar información cuántica “voladora”: estados que viajan, generalmente, codificados en fotones a través de una red de comunicaciones.
IBM planea construir estas unidades de red cuántica para que puedan actuar como puentes entre varias QPUs dentro de un mismo centro de datos cuántico. El papel de Cisco será diseñar una red capaz de distribuir entrelazamiento entre pares arbitrarios de QNUs bajo demanda, en función de lo que necesite cada algoritmo o aplicación.
Para coordinar este baile de recursos, Cisco está desarrollando un marco de protocolo software de alta velocidad que pueda reconfigurar de forma continua y dinámica las rutas de red. En la práctica, esto significa que los enlaces de entrelazamiento cuántico se crean, destruyen y redirigen a gran velocidad para alimentar los cálculos parciales que van completando las distintas QPUs.
Otra línea de trabajo conjunta es la de los llamados “puentes de red cuántica”, compuestos por hardware de nueva generación y software de código abierto. Estos puentes utilizarán los nodos de la red de Cisco para interconectar un gran número de QPUs de IBM dentro de un único centro de datos, y más adelante extender este modelo a múltiples centros interrelacionados.
En ese escenario, el concepto de centro de datos cuántico se redefine por completo: ya no se trata solo de desplegar racks de servidores clásicos, sino de integrar criostatos con procesadores cuánticos, QNUs, transductores ópticos, routers cuánticos y una capa mixta de computación clásica y cuántica trabajando de forma coordinada.
Más allá de un único edificio: hacia la Internet cuántica
Conectar dos ordenadores cuánticos dentro de la misma sala ya es un reto, pero el verdadero salto está en transmitir qubits a distancias mayores, por ejemplo entre edificios o entre centros de datos que se encuentran a kilómetros de distancia. Ahí es donde entran en juego los fotones ópticos y la infraestructura de fibra ya desplegada a nivel global.
IBM y Cisco investigarán cómo integrar tecnologías de fotones ópticos y transductores microondas-ópticos en una red cuántica que pueda transportar información solo cuando sea necesario, minimizando pérdidas y manteniendo el entrelazamiento. La meta final es ser capaces de extender esta red cuántica ciudad a ciudad, país a país y, a la larga, a escala planetaria.
En este futuro posible, la llamada Internet de computación cuántica no se limitará solo a conectar ordenadores cuánticos. También será el pegamento que una sensores cuánticos ultra sensibles, sistemas de comunicaciones cuánticas y otros dispositivos distribuidos que compartan información a distancia sin perder las ventajas de la física cuántica.
Las aplicaciones que se barajan son muy variadas: desde comunicaciones ultra seguras (gracias a protocolos de distribución cuántica de claves que permiten saber si alguien intenta espiar) hasta una monitorización ambiental mucho más precisa, capaz de seguir con detalle el clima, el tiempo atmosférico, la actividad sísmica o incluso procesos industriales muy delicados.
Todo esto abre la puerta a lo que los propios IBM y Cisco describen como un espacio computacional exponencialmente más amplio. Cuando tienes muchos ordenadores cuánticos trabajando juntos, y los combinas con supercomputadores clásicos y aceleradores como GPUs, obtienes un marco de supercomputación centrado en la cuántica que puede atacar problemas que hoy son simplemente inabordables.
En paralelo, IBM colabora con instituciones como el Centro de Materiales y Sistemas Cuánticos Superconductores (SQMS), liderado por el Fermilab en Estados Unidos, para estudiar cuántas QNUs pueden operar de forma eficiente en estos centros de datos cuánticos y cómo escalar de unas pocas QPUs interconectadas a decenas o cientos en los próximos años.
Retos técnicos, ciberseguridad y calendario realista
Aunque el discurso pueda sonar muy ambicioso, las compañías son conscientes de que todavía hay obstáculos técnicos muy serios por delante. El ruido cuántico, la decoherencia y la necesidad de mantener temperaturas cercanas al cero absoluto siguen siendo grandes limitaciones a la hora de escalar el hardware.
Los procesadores cuánticos basados en circuitos superconductores necesitan funcionar alrededor de los -273 ºC, lo que implica criostatos complejos, consumo energético y requisitos de infraestructura poco habituales en los centros de datos tradicionales. Escalar hasta arquitecturas con cientos de miles de qubits lógicos tolerantes a fallos es un reto de ingeniería monumental.
A nivel de redes, la fragilidad de la información cuántica en tránsito obliga a desarrollar dispositivos como transductores y repetidores cuánticos con eficiencias muy altas y pérdidas mínimas. Además, sincronizar operaciones cuánticas entre nodos diferentes con precisiones inferiores al nanosegundo no es precisamente trivial.
También falta mucha madurez en las capas de software superiores: hacen falta protocolos de enrutamiento cuántico, herramientas de orquestación para distribuir tareas cuánticas, sistemas de corrección de errores coordinados entre varios nodos, APIs para que los desarrolladores programen algoritmos distribuidos sin volverse locos, etc.
En el terreno de la seguridad, existe una doble cara. Por un lado, ordenadores cuánticos suficientemente potentes podrían romper los algoritmos criptográficos actuales basados en RSA o curvas elípticas (ECC), poniendo en jaque transacciones bancarias, comunicaciones militares o datos médicos sensibles. Por otro, las mismas técnicas cuánticas ofrecen herramientas como la distribución cuántica de claves que permiten comunicaciones con seguridad teóricamente inquebrantable.
Por eso, tanto IBM como Cisco y otros actores del sector están trabajando en criptografía post-cuántica y protocolos cuánticos de seguridad al mismo tiempo que desarrollan el hardware. La idea es que, cuando los ordenadores cuánticos sean capaces de atacar los esquemas actuales, ya tengamos desplegadas alternativas resistentes a este nuevo tipo de amenaza.
En cuanto al calendario, las estimaciones han ido acelerándose. Hace unos años se hablaba de que un ordenador cuántico plenamente operativo no llegaría antes de 2040. Ahora, IBM sitúa la computación cuántica de utilidad práctica en una horquilla de entre 5 y 10 años para aplicaciones específicas, y marca finales de la década de 2030 como momento razonable para una Internet cuántica en un estado más maduro.
Mientras tanto, la propia alianza IBM-Cisco contempla ir mostrando hitos intermedios: primero, conexiones entre dos QPUs en distintos criosistemas; después, redes dentro de un mismo centro de datos; más tarde, conexiones entre centros. Todo ello acompañado de cofinanciación de proyectos de investigación académica y colaborativa para impulsar un ecosistema cuántico más amplio.
Esta colaboración entre IBM y Cisco dibuja un escenario en el que la computación cuántica deja de ser un experimento aislado y empieza a integrarse como pieza clave de la infraestructura digital global. Si logran resolver los retos de estabilidad, corrección de errores, interconexión y seguridad, podríamos ver en la próxima década el nacimiento de una red cuántica distribuida capaz de transformar sectores como las finanzas, la medicina, la logística o la ciencia de materiales, del mismo modo que Internet cambió para siempre la informática clásica.
Tabla de Contenidos
- Qubits: el corazón de la computación cuántica moderna
- Entrelazamiento cuántico y redes: donde Cisco entra en escena
- Objetivos de la alianza IBM y Cisco: de los hitos a 2030
- QPU, QNU y el nuevo centro de datos cuántico
- Más allá de un único edificio: hacia la Internet cuántica
- Retos técnicos, ciberseguridad y calendario realista