Es más o menos de dominio público que los grandes del sector tecnológico están trabajando en la computación cuántica. Este concepto, que ya ha sido desarrollado con poco rigor en algunas películas de ciencia ficción, no resulta, a priori, fácil de entender.
El consumidor piensa que todo será cuestión de sustituir la CPU normal de su ordenador por otra cuántica, notando mejoras épicas en el rendimiento de su máquina, pero es mucho más complejo. Por ahora nos quedaremos con que la computación regular y la cuántica parten de distintos enfoques.
¿Qué es la computación cuántica?
Dejando de lado la proposición original de los cuantos enunciada por Planck y Einstein, el desarrollo posterior de la teoría por parte de otros físicos cristalizó en afirmaciones sorprendentes sobre la materia. Para no irnos por derroteros, diremos que hay dos premisas fundamentales a este respecto que guiarán nuestra exposición: la superposición de estados y el entrelazamiento.
Ahora bien, para entender cómo afectan estas dos propiedades en el campo del procesamiento de datos, primero debemos entender la computación estándar. Así, la unidad básica de almacenamiento es el bit, que puede registrar dos estados: 1 ó 0. Integrando varios bits (n) es posible componer números y realizar operaciones. Claro está, existen limitaciones. Y es que solo se pueden mostrar 2^n estados. Por otro lado, para cambiar los bits debemos operar sobre ellos, es decir, debemos alterarlos, puesto ellos no pueden hacerlo por sí solos.

Sin embargo, en el plano cuántico, la superposición, por ejemplo, permite almacenar más de 2^n estados en qubits (bits cuánticos). Por su parte, el entrelazamiento congela algunas relaciones entre qubits. De este modo, los cambios en uno de ellos, inciden obligatoriamente sobre el resto.
Aunque suena excitante, y factible, la cosa no es tan sencilla. La superposición en el procesamiento crea problemas, tal y como desmostró Alexander Holevo en 1973. Según este, a pesar de que haya más estados guardados, tan solo es posible leer 2^n. Además, en este sentido, un qubit no vale 1 ó 0 (como sucedía con los bits normales); por el contrario puede valer 1 en un 80% y 0 en un 20%.
Logros de la computación cuántica
Hasta el momento los ordenadores cuánticos no han acometido grandes logros, pero se espera que su contribución a la ciencia y a la investigación crezca exponencialmente en los próximos años.
Echando la vista atrás, 1998 fue el año en el que se presentó el primer ordenador cuántico. Con solo dos qubits era capaz de resolver el problema Deutsch-Jozsa, que no demasiado complejo, pero daba cuenta de las posibilidades de este coloso arropado por una resonancia magnética nuclear.
Unos años más tarde, D-Wave introducía el primer ordenador capaz de ejecutar el algoritmo de temple cuántico. Tenía 16 qubits; ese mismo año la compañía lo amplió a 2000 qubits.
En relación a sus aplicaciones para el futuro, la computación cuántica puede ser la base de la nueva generación de sistemas de IA. Asimismo, se espera que el citado algoritmo sea capaz de resolver problemas complejos propios de la medicina molecular y la química moderna.