La Computación Cuántica, ese gran misterio

Home ☛ Negocios  ☛  La Computación Cuántica, ese gran misterio

Fundamentos esenciales de la computación cuántica

La computación cuántica es un nuevo paradigma informático que explota principios de la física cuántica para procesar información de formas imposibles para las computadoras clásicas. En lugar de bits binarios (0 ó 1), emplea bits cuánticos o cúbits, capaces de existir en múltiples estados simultáneamente (superposición) es decir, 0 y 1. Esta capacidad de tomar 2 valores a la vez (hasta el colapso) permite que la velocidad de cálculo se multiplique exponencialmente. Así, ciertos cálculos complejos que a un superordenador clásico le tomarían miles de años, podrían resolverse en minutos con un procesador cuántico. Grandes tecnológicas, Gobiernos, instituciones y laboratorios invierten en esta tecnología por su potencial transformador en múltiples industrias.

¿Por qué es diferente la computación cuántica?

Una computadora cuántica utiliza cúbits y operaciones cuánticas para explorar simultáneamente múltiples posibilidades de solución. A diferencia de un bit clásico (0 ó 1), un cúbit puede ser 0 y 1 a la vez, procesando múltiples estados en paralelo. Además, dos o más cúbits pueden entrelazarse, compartiendo estados de forma correlacionada (lo que le ocurra a uno afecta al otro instantáneamente). Estas propiedades permiten que los algoritmos cuánticos exploren muchas configuraciones a la vez y refuercen la probabilidad de las respuestas correctas, logrando aceleraciones dramáticas en ciertos problemas frente a los métodos clásicos.

Físicamente, la computación cuántica no funciona con transistores como la computación digital, sino que trabaja directamente con partículas, que pueden ser electrones o fotones, entre otros. Esto hace que sea mucho más rápida porque permite un movimiento más acelerado, además de contar con otras propiedades que vamos a ver continuación.

Propiedades cuánticas clave

  • Superposición: un cúbit puede representar una combinación de estados (0 y 1 al mismo tiempo). Un registro de n cúbits puede codificar hasta 2^n valores a la vez, ofreciendo un paralelismo masivo en el cálculo. Por ejemplo, mientras que en la compuntación digital 50 bits pueden tomar 50 estados, la computación cuántica permite que 50 qbits puedan tomar 250 estados a la vez. Esto supone algo más de mil billones, para que entendamos el potencial de cálculo de esta tecnología.
  • Entrelazamiento: fenómeno por el cual dos o más cúbits comparten un estado correlacionado. Una medición sobre un cúbit entrelazado afecta instantáneamente a sus compañeros, sin importar la distancia. Esto permite que grupos de cúbits actúen coordinadamente como una sola unidad lógica.
  • Probabilidad: debido a esta superposición que acabamos de ver, los qubits no tiene un valor definido de origen, sino que toman el valor basado en una probabilidad. Esto hace que ya no manejemos certezas, sino solamente probabilidades mientras las partículas están en movimiento.
  • Colapso: el momento en el que las partículas del qbit dejan de moverse, alcanzan su valor final, esto es que colapsan, dejan de moverse.
  • Interferencia: las amplitudes de probabilidad de los estados cuánticos pueden combinarse de forma constructiva o destructiva. Un algoritmo cuántico bien diseñado hace que las amplitudes que conducen a la solución correcta se refuercen y las de soluciones incorrectas se anulen, aumentando la probabilidad de obtener el resultado deseado al medir.

¿Por qué no se democratiza si tiene tantas ventajas?

La computación cuántica sigue en fase experimental. Los dispositivos de hoy –conocidos como sistemas NISQ (Noisy Intermediate-Scale Quantum)– operan con decenas o pocos centenares de cúbits ruidosos. El motivo principal es que, para que se den las propiedades vistas anteriormente, es necesario que las partículas operen en el cero absoluto de temperatura (-173 grados Celsius) porque si no cualquier interferencia haría colapsar a esas partículas antes de tiempo y por tanto ofrecer valores erróneos. Como hemos visto, se trabaja con probabilidades, pero el ruido puede llevar a errores en esas probabilidades y en sus resultados finales.

Esta situación no se espera que perdure en el tiempo de forma indefinida, ya que se proyecta que seamos capaces de controlar ese ruido que influye en los resultados (siempre que no se trabaja en el cero absoluto). Para que se hagan una idea, la fotosíntesis es un proceso cuántico que se da a temperatura ambiente y la naturaleza consigue controlar, por lo que es de esperar que el ser humano consiga controlar los procesos que se dan en los chips cuánticos.

No obstante, no es una tecnología que se deba utilizar de forma generalizada, al menos en el mediano plazo, ya que implica una potencia que no es necesaria para la mayoría de los cálculos que hace la población general. Por el contrario, será muy útil en cálculos que hasta el momento son inviables (por falta de tiempo básicamente) sobre temas que son esenciales para el ser humano: medicina (mapa del genoma humano), universo (qué hay más allá de lo que conseguimos ver, cómo se creó el universo), fondo marino, etc.

¿Qué nos debe interesar como líderes?

Como ven, todo esto está muy lejos de nuestra actividad empresarial cotidiana, pero existe un asunto en el que sí debemos estar alerta porque se espera que cambie mucho en la próxima década (y ya en ésta). Se trata de la ciberseguridad. Como saben, la ciberseguridad se basa en encriptaciones que, debido a su complejidad, implicarían cálculos tan extensos que los datos que se protegen de esta forma se consideran seguros (si un ordenador tradicional va a tardar 10,000 años en resolver el algoritmo que permite esconder la información podemos estar tranquilos de que nadie va a llegar a averiguar los datos originales). Sin embargo, la rapidez de cálculo de un computador cuántico hace que ese paradigma de seguridad se destruya y empiecen a ser inseguras las encriptaciones con las que nos protegemos hoy en día. Se espera que las encriptaciones más seguras disponibles a la fecha ya no lo sean para el año 2029, es decir, pasado mañana. Y lo que es peor, existe una práctica delictiva que ya está en marcha que es el “harvest now, decryot later” por la cual los hackers roban hoy material que previsiblemente va a estar vigente en el 2029 para almacenarlo y desencriptarlo cuando sea viable. Esto puede afectar a datos bancarios, por ejemplo de tarjetas, entre otros muchos, que no venzan antes de esa fecha. Por tanto, hay que estar atentos. Imaginen la importancia que le dan los gobiernos, sistemas de inteligencia etc. Que tienen tanta información clasificada.

¿Dónde estamos a final del 2025?

La prioridad es doble: por un lado escalar la cantidad de cúbits y a la vez reducir los errores de operación debido al ruido e interferencias provocadas; ya se han superado los 100 cúbits por procesador (IBM Eagle alcanzó 127 cúbits en 2021) .

Sin embargo, sin corrección de errores, añadir más cúbits no garantiza mejores resultados debido a la decoherencia que degrada los cálculos cuánticos. Por ello, empresas como IBM, Google o Microsoft, junto a varias startups, trabajan en códigos de corrección de errores para obtener cúbits lógicos estables a partir de cúbits físicos ruidosos . Solo con cientos o miles de cúbits libres de errores se alcanzará una ventaja cuántica práctica en aplicaciones reales.

Por el momento, lo que se observa es una fuerte inversión por parte de Gobiernos (con China a la cabeza), instituciones relacionadas con la seguridad y grandes tecnológicas. Éstas últimas están poniendo a disposición de la comunidad científica chips cuánticos “as a Service” para poder experimentar y realizar pilotos. Google e IBM son 2 de los principales ejemplos.

Avances destacados a finales de 2025:

  • QuantWare VIO-40K (dic 2025): la startup neerlandesa QuantWare anunció una arquitectura de procesador cuántico (QPU) llamada VIO-40K, capaz de integrar 10.000 cúbits en un solo chip . Este diseño 3D modular (basado en chiplets) proporciona 40.000 interconexiones para escalar el número de cúbits en dos órdenes de magnitud. VIO-40K elimina el cuello de botella de tener que enlazar muchos procesadores cuánticos pequeños para aumentar capacidad, obstáculo que había frenado la escalabilidad hasta ahora. La empresa planea abrir en 2026 una fábrica especializada (Kilofab) para producir estos chips, con la meta de entregar los primeros QPU de 10K cúbits en 2028.
  • IBM Nighthawk y Loon (nov 2025): IBM presentó dos nuevos procesadores en su hoja de ruta cuántica. IBM Quantum Nighthawk es un chip superconductor de 120 cúbits con alta conectividad interna, capaz de ejecutar circuitos ~30% más complejos que la generación anterior manteniendo niveles de error similares. Se preveía que entrara en servicio a fines de 2025, pero a cierre de año no hay evidencia pública de que lo haya hecho. El plan es demostrar ventaja cuántica en 2026. Por su parte, IBM Quantum Loon es un chip experimental que integra en un solo dispositivo los componentes necesarios para la corrección de errores (enrutamiento multicapa, conexiones de larga distancia entre cúbits, reinicio rápido, etc.), prototipo hacia futuros computadores cuánticos tolerantes a fallos. Loon refleja el enfoque de IBM en la escalabilidad con corrección de errores, con el objetivo de lograr un sistema cuántico fault-tolerant para 2029 .

Supremacía cuántica vs. ventaja cuántica: ¿cuál es la diferencia?

Se denomina supremacía cuántica al punto en que un computador cuántico realiza un cálculo que ningún superordenador clásico puede igualar en un tiempo razonable. Un ejemplo ocurrió en 2019, cuando Google anunció que su procesador de 53 cúbits resolvió en 200 segundos un problema matemático especial que a un superordenador clásico le habría tomado miles de años. (Ese problema se diseñó deliberadamente para ser muy difícil de simular por métodos clásicos, sin utilidad práctica directa).

En cambio, hablamos de ventaja cuántica cuando una computadora cuántica supera a las clásicas en la resolución de un problema útil del mundo real. Es decir, el cálculo cuántico aporta un valor tangible (por ejemplo, descubrir una molécula óptima para un fármaco mucho más rápido que con métodos clásicos). Alcanzar una ventaja cuántica típicamente requerirá máquinas más avanzadas, probablemente con corrección de errores, para asegurar resultados confiables en problemas de interés industrial o científico.

En resumen, la supremacía cuántica fue un hito experimental que evidenció la superioridad de un dispositivo cuántico en un caso aislado, mientras que la ventaja cuántica es la meta práctica de aplicar esa superioridad de forma útil y repetida a medida que la tecnología madura.

¿Por qué es importante para los líderes?

La computación cuántica está en sus inicios, aún sin una aplicación empresarial inmediata, pero en pocos años podrían lograrse las primeras ventajas cuánticas útiles. Muchas organizaciones ya exploran esta tecnología en proyectos piloto. Además, dado que impacta directamente elementos tan sensibles como la seguridad, es esencial estar alerta y no descuidar la capacitación del talento adecuado para estar preparado.

Quienes se preparen desde hoy –desarrollando talento y alianzas en el ecosistema cuántico– estarán listos para aprovechar sus beneficios estratégicos cuando la tecnología madure, así como atajar las amenazas venideras.

Fuentes

  1. IBM – ¿Qué es la computación cuántica?
  2. IBM – Principios de la mecánica cuántica en computación
  3. Telefónica (BlogThinkBig) – Ventaja cuántica: ¿realidad o ficción tecnológica?
  4. PostQuantum – IBM “Nighthawk” y “Loon” (nov. 2025)
  5. Interesting Engineering – QuantWare VIO-40K (10,000 qubits)
  6. PostQuantum – Supremacía vs. ventaja cuántica

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *