En esta reflexión intentaré poner en claro la situación actual y explicar los importantes retos a los que hay que enfrentarse para lograr un computador cuántico de propósito general, que sea capaz de ejecutar cualquier algoritmo cuántico y como predicen algunos expertos, represente un verdadero riesgo para la criptografía tal como la conocemos en la actualidad, detallando la ponencia que tuve ocasión de impartir en la jornada sobre Tecnologías Cuánticas organizada por APTIE recientemente, en las que debatimos sobre el futuro de estas tecnologías, así como sobre la necesidad de elaborar una estrategia y una política científicas, que garanticen la seguridad de las comunicaciones.
Col. Fernando Antonio Acero Martín. Director de Ciberdefensa del Ejército del Aire
Tras una serie de artículos aparecidos recientemente en prensa relacionados con los avances en computación cuántica logrados por IBM y Google y sus supuestas implicaciones catastróficas para la criptografía tradicional y para las criptomonedas, que bien podríamos calificar de FUD (Fear, Uncertainty and Doubt), he considerado interesante repasar algunas cuestiones que traté en dicha conferencia, que creo que pueden ayudar a comprender las implicaciones los recientes avances en computación cuántica.
Asimismo, durante la jornada se pudo comprobar que hay un gran debate en torno a la criptografía que ha de sustituir a la criptografía tradicional, que teóricamente sería vulnerable a la computación cuántica. Hay expertos que mantienen que la única solución ante el computador cuántico, es utilizar sistemas cuánticos para el intercambio seguro de claves. Sin embargo, para poder intercambiar claves de forma segura mediante métodos cuánticos, es necesario un canal cuántico punto a punto (por ejemplo una fibra óptica), algo que no es muy útil si queremos hacer operaciones de forma segura con nuestro banco usando nuestro teléfono móvil. Este importante hecho, fue oportunamente señalado por Luis Sanz, Responsable de Innovación en Seguridad del BBVA. Afortunadamente, existen algoritmos, muy parecidos a los que se utilizan actualmente, que si bien necesitan más memoria y capacidad de computación, tienen un nivel de complejidad lo suficientemente elevado como para ser resistentes a la computación cuántica.
CONDICIONES QUE HA DE REUNIR UN COMPUTADOR CUÁNTICO
Lo primero que tenemos que tener en cuenta en relación a las noticias sobre computación cuántica, es que una cosa es el plano teórico y otra bien distinta, una implementación funcional de un dispositivo cuántico plenamente operativo y de propósito general, es decir que pueda ejecutar cualquier algoritmo cuántico.
Para que un ordenador cuántico sea funcional, se necesita que cumpla las condiciones publicadas por David DiVincenzo, que es un físico teórico que trabajó para IBM y que lleva años investigando temas de computación cuántica,. Dichas condiciones son las siguientes:
a) El sistema ha de poder inicializarse a unos valores definidos y controlados (probabilidad arbitraria para que un qubit (bit cuántico) sea un |0> o |1>).
b) Ha de permitir la manipulación de qubits de forma controlada, usando un conjunto universal de puertas lógicas cuánticas, que permitan realizar cualquier operación lógica.
Frente a un ordenador tradicional, cuya puerta universal (la puerta que permite ejecutar cualquier operación lógica) es la NAND, en el caso del ordenador cuántico, la puerta universal es la CNOT (NOT controlada).
Asimismo, en los ordenadores tradicionales, se requieren puertas de tres bits para lograr la universalidad de las mismas, sin embargo, DiVincenzo demostró en el año 1994 que cualquier puerta cuántica se puede descomponer en combinaciones de puertas de dos qubits y de un qubit.
c) El sistema cuántico ha de mantener la coherencia cuántica (estado en el que un qubit está en estado de superposición cuántica, es decir, que tiene un |0> y un |1> al mismo tiempo) durante un tiempo superior al necesario para hacer los cálculos.
En la actualidad, los tiempos de decoherencia están en el orden de milisegundos a segundos, (pero usando temperaturas cercanas al cero absoluto y del orden de 0,015 ºK) y este hecho, junto a la enorme tasa de errores de las tecnologías utilizadas actualmente para fabricar qubits (superconductores y efecto túnel), son los factores que más limitan la potencia de un ordenador cuántico en este momento.
Si no se mejoran de forma sensible las técnicas de fabricación de los qubits, se comprueba de forma experimental, que al aumentar el número de qubits del procesador cuántico, también aumenta la tasa de errores y al mismo tiempo, disminuyen los tiempos de decoherencia. Es decir, el número de qubits del procesador cuántico, no es una medida muy adecuada para expresar la potencia de un procesador cuántico.
De hecho, la tasa de errores está vinculada con los tiempos de decoherencia y es proporcional a la razón entre tiempo de operación y el tiempo de decoherencia. Es decir, cualquier operación tiene ser completada en un tiempo mucho menor que el tiempo de decoherencia teórico, si no se desea que la tasa de errores se dispare hasta un límite que implique que el resultado sea inutilizable.
Si la tasa de errores se mantiene suficientemente baja, cabe la posibilidad de hacer una corrección de errores efectiva. Teóricamente, solamente se necesitan 5 qubits adicionales por qubit (según demostró Laflamme) para corregir los errores cuánticos de forma eficiente. Pero el problema es que con las tecnologías actuales de creación de qubits (como las puertas Josephson, que se basan en el efecto túnel entre dos superconductores a muy bajas temperaturas), generan qbits muy ruidosos y además es complicado que el comportamiento cuántico de dos qubits sea estadísticamente igual, lo que complica enormemente el escenario.
Lo dicho anteriormente provoca que se dispare el número de qubits necesarios para realizar cálculos cuánticos complejos fiables y repetibles. Es decir, existe una enorme brecha entre lo que dice la teoría y lo que se logra en implementaciones reales de procesadores cuánticos. Por ejemplo, mientras que en teoría se podría factorizar una clave de 2048 bits con aproximadamente 4096 qubits, si no fueran ruidosos, la realidad es bien distinta. Los investigadores Craig Gidney y Martin Ekerå, publicaron el pasado 23 de mayo de 2019, un documento titulado “How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits”, que demostraba que eran necesarios 20 millones de qubits ruidosos para factorizar una clave RSA de 2018 bits. Aunque parezcan muchos qubis, que lo son para la tecnología actual, el documento reduce en varios órdenes de magnitud la cantidad de qubits necesarios para factorizar con éxito una clave RSA 2048 bits, que anteriormente se estimaba en 2.000 millones de qubits ruidosos.
Es evidente que este documento se queda en el plano teórico y si se consideran las limitaciones tecnológicas actuales en el número de qubits de los procesadores cuánticos de propósito general (128 qubits para el procesador de propósito general de Rigetti ) y en los tiempos de decoherencia repetibles (90 ms para el procesador de IBM), podemos hacernos una idea clara de lo lejos que estamos de poder factorizar una clave RSA de 2048 bits mediante un ordenador cuántico y el algoritmo de Shor. Tampoco debemos olvidar que en este momento se recomienda usar claves RSA de 4096 bits o más.
Otro factor que afecta a la tasa de errores, además de la que hemos comentado relacionada con la dificultad de fabricación de qubits con un comportamiento cuántico similar, es la necesidad y dificultad de asilar el procesador cuántico de las interacciones cuánticas que provienen del resto del universo. A un ordenador cuántico le afecta casi todo, por ejemplo, los campos electromagnéticos, las vibraciones, la temperatura, la radiación y si intervienen partículas con masa en sus puertas cuánticas, hasta la gravedad, que es algo que no sabemos aislar en este momento. La primera consecuencia negativa de todas estas interacciones, es un aumento en la tasa de errores y la necesidad de qubits adicionales para corregirlos.
Como hemos dicho anteriormente, se están logrando tiempos de decoherencia cuántica de forma práctica y repetible, del orden de 90 milisegundos (procesador de IBM), lo que implica que teóricamente se podrían realizar 3.600.000 operaciones de puertas de 1 qubit (25ns por operación), o 900.000 operaciones de puertas de 2 qubits (100ns por operación). Pero como se ha dicho anteriormente, en la realidad estos tiempos de decoherencia son mucho menores, ya que cuanto más se acerca el tiempo de cálculo al tiempo de decoherencia máximo, también aumenta la tasa de errores. Si la progresión en los tiempos de decoherencia fuera lineal, cosa que podemos poner en duda con casi toda certeza, se lograrían tiempos de decoherencia de unos 10 segundos en el año 2027, algo que todavía está muy lejos de permitir una factorización de una clave RSA de 2048 bits, que un ordenador cuántico de 20 millones de qubits ruidosos, necesitaría unas 8 horas para hacerlo.
d) Se ha de poder leer el resultado tras las operaciones, qubit por qubit.
e) La tecnología cuántica ha de ser escalable en número de qubits y en la reducción de tasa de errores. Esto que parece sencillo, tiene grandes dificultades con la tecnología actual. La tasa de errores de los qubits actuales, obligan a usar una gran cantidad de qubits adicionales, lo que a su vez dificulta el entrelazamiento cuántico y reduce los tiempos de decoherencia.
Además, cuando hablamos de un ordenador cuántico de propósito general, es necesario que haga uso del entrelazamiento cuántico (fenómeno cuántico en el que en el cual los estados cuánticos de dos o más qubits se deben describir mediante un estado único que involucra a todos los qubits del sistema, aunque estén separados en el espacio) y de la interferencia cuántica (fruto de la dualidad onda corpúsculo y que es observable con el experimento de la doble rendija de Young), lo que añade otras complicaciones adicionales a la construcción de un ordenador cuántico de propósito general. En este momento, IBM ha logrado entrelazamientos de 16 qubits en sus procesadores cuánticos más modernos, por lo que todavía estamos lejos de poder enlazar la gran cantidad de qubits que necesitamos para poder factorizar una clave RSA de 2048 bits.
Dicho lo anterior, ya estamos en disposición analizar si un determinado avance en las tecnologías cuánticas puede ser útil o no para la fabricación de un ordenador cuántico de propósito general y de evaluar si una noticia sobre los riesgos de la computación cuántica para la criptografía tradicional tiene fundamento o no.
De hecho, muchas noticias recientes sobre avances en las tecnologías cuánticas aparecidas recientemente en prensa, como récords en el número de qubits entrelazados y en el tiempo de decoherencia, por la forma en la que se han logrado, no tienen aplicación a la computación cuántica, principalmente, por ser tecnologías que no permiten la inicialización, la manipulación o la lectura individual de cada qubit, algo que es fundamental para la computación cuántica, según las leyes de David DiVincenzo.
DIFERENCIAS DE UN ORDENADOR CUÁNTICO CON UNO TRADICIONAL
La principales diferencias entre un ordenador cuántico y uno tradicional son:
a) Un qubit está en un estado de superposición cuántica durante el tiempo de decoherencia, es decir, contiene al mismo tiempo un |1> y un |0>. Esto proporciona una enorme potencia a un ordenador cuántico, puesto que si en un ordenador tradicional de 8 bits tenemos 2^8 posibilidades, es decir (256 valores posibles), en uno cuántico de 8 qubits tenemos 2^256 valores simultáneos gracias a la superposición cuántica, lo que es un número enorme. Dicho de otro modo, un computador cuántico tiene todas las soluciones posibles de un problema antes de empezar a resolverlo.
Para ponerlo en un lenguaje más cercano, podemos decir que un ordenador cuántico de 20 qubits efectivos equivale a un ordenador de 12 teraflops/s (10 x 10^12 operaciones en coma flotante por segundo). Si consideremos el ordenador convencional más potente de la actualidad, denominado Summit y que alcanza 200 petaflops/s (200 x 10^15 operaciones en coma flotante por segundo), se necesitaría un ordenador cuántico de como mínimo 50 qubits para igualar su potencia. Aunque como veremos más adelante, la potencia de un ordenador cuántico no depende solamente del número de qubits de su procesador.
b) No se puede copiar un estado cuántico desconocido de un qubit en otro qubit (lo que es bueno para la criptografía, pero es malo para la computación cuántica, ya que añade una limitación importante a la hora de elaborar algoritmos cuánticos). Sin embargo, sí se pueden copiar bits tradicionales en qubits mediante puertas cuánticas mediante la puerta de Hadamard, que es el nexo de unión entre la computación tradicional y la computación cuántica.
Además, la puerta de Hadamard es una de las puertas cuánticas de mayor utilidad ya que permite que n qubits se pongan en superposición de 2^n estados. Además es la representación en qubits de la transformada cuántica de Fourier, operación que es básica para la factorización de claves RSA mediante el algoritmo cuántico de Shor.
c) En un ordenador tradicional podemos ejecutar cualquier algoritmo mediante puertas NAND usando las Leyes de Morgan, sin embargo, en el ordenador cuántico la puerta lógica universal es la CNOT (NOT Controlada) y necesitamos recurrir a la puerta de Hadamard para poder convertir qubits en bits y viceversa, cuando es necesario disponer de un mecanismo de “copia”, ya que no es posible copiar el estado de un qubit en otro qubit.
Además, todas las puertas cuánticas son reversibles, es decir, se pueden conocer las condiciones de entrada de una puerta cuántica mediante la lectura de la salida. Este hecho tiene dos consecuencias adicionales. La primera es que una puerta cuántica nunca destruye información mediante borrado o sobreescritura durante las operaciones. La segunda, es que las puertas cuánticas no deberían disipar energía durante las operaciones.
d) Una puerta cuántica puede ejecutar varias operaciones al mismo tiempo, es lo que se denomina paralelismo cuántico, lo que también es una consecuencia de la superposición cuántica. Este hecho nos permite calcular y conocer el resultado de varias operaciones cuánticas al mismo tiempo.
En este punto hay que aclarar que aunque la mecánica cuántica es de naturaleza claramente probabilística (principio de incertidumbre de Heisenberg), eso no impide que un ordenador cuántico pueda proporcionar resultados deterministas, ya que hay algoritmos cuánticos con probabilidad del 100%. Eso es en la teoría, ya que como hemos visto, en este momento existen problemas (tiempos de decoherencia, escalabilidad y tasa de errores principalmente), que dificultan obtener con facilidad esos resultados deterministas tan deseados. Por ejemplo, si se desea factorizar una clave RSA con el algoritmo de Shor, que es un algoritmo determinista.
HABLANDO DE LA POTENCIA DE UN ORDENADOR CUÁNTICO
Para considerar la potencia de un procesador tradicional se suele hablar del tamaño en bits de la palabra que usa (8, 16, 32 o 64 bits), del número de puertas lógicas contenidas en el procesador, del número de núcleos (procesos en paralelo), o de forma más general, del número de transistores que tiene el procesador. Sin embargo, esto no nos sirve para los ordenadores cuánticos.
La potencia real de un ordenador cuántico (también denominado volumen cuántico) no depende solamente del número de qubits, o del número de puertas cuánticas disponibles, depende de:
- El número de qubits reales tras la corrección de errores (teóricamente se tiene que dividir por 5 el número de qubits brutos del procesador cuántico).
- El número de puertas cuánticas (de un qubit y de dos qubits) que se pueden generar y usar con esos qubits del procesador.
- La conectividad de cada qubit con los adyacentes, siendo lo normal en este momento, que un qubit se conecte con 15 adyacentes.
- El número de operaciones que se pueden realizar en paralelo.
Según lo anterior, se podría pensar que un procesador cuántico de 50 qubits es más potente que uno de 40, sin embargo IBM ha demostrado que:
- Duplicar el número de qubits, sin mejorar la tasa de errores al mismo tiempo, no aumenta la potencia de un ordenador cuántico.
- Reducir por 10 la tasa de error, sin aumentar el número de qubits, puede incrementar la potencia de un ordenador cuántico en un factor de 24.
Lo anterior indica que es más conveniente avanzar en la reducción en la tasa de errores que aumentar el número de qubits del procesador, si se desea tener mayor potencia a corto plazo.
Si embargo, en las noticias recientes relacionadas con avances en computación cuántica se suele hablar solamente del incremento en el número de qubits, algo que como vemos, puede que no sea tan relevante a la hora de considerar un aumento en la potencial de un ordenador cuántico. Como sabemos, el incremento en el número de qubits más que aumentar la potencia del procesador, lo que puede hacer es reducir los tiempos de decoherencia y al mismo tiempo, aumentar la tasa de errores.
Con lo que se ha dicho hasta ahora, se puede ver que hay una íntima relación entre varios factores y en algunos casos, hay valores que pueden empeorar cuando mejoran otros. Por ello, se puede ver que es necesario avanzar en paralelo en varios campos. Básicamente es necesario aumentar el número de qubits, hay que reducir la tasa de errores, hay que crear qubits con menos variaciones estadísticas en su comportamiento, hay que mejorar el aislamiento y hay que aumentar los tiempos de decoherencia, la temperatura de funcionamiento de las puertas cuánticas y el número de qubits entrelazados. Como se puede ver, nos encontramos ante un problema muy complejo y multidisciplinar, que necesita obtener resultados en paralelo si se desea avanzar en la capacidad de computación cuántica.
PROFUNDIZANDO EN LA TASA DE ERRORES
Ya hemos visto que hay una estrecha relación entre el número de qubits, los tiempos de decoherencia y la tasa de errores. También hemos visto las enormes limitaciones que imponen estos factores, a la hora de crear un computador cuántico funcional de propósito general. La realidad es que es muy complicado crear qubits que tengan un comportamiento estadísticamente idéntico, de hecho, es muy normal que haya procesadores con qubits inutilizables, o que queden inutilizables tras cierto tiempo de uso.
Por ejemplo, el procesador cuántico de Google de 52 qubits, con el que se ha dicho que se la logrado la supremacía cuántica con un problema de números aleatorios (una operación muy complicada de realizar con un ordenador tradicional), tiene un qubit que no se puede utilizar. En relación con la supremacía cuántica del ordenador de Google, también hay que señalar que se trataba de un procesador especialmente diseñado para resolver un algoritmo muy favorable para un ordenador cuántico. Es decir, no estamos ante la resolución de un problema común, ni ante un ordenador de propósito general
Al igual que el procesador de IBM, el ordenador D-WAVE One que fue instalado en Lockheed Martin en 2011, también tiene qubits que no son utilizables. De los 128 qubits disponibles inicialmente, actualmente solamente se pueden utilizar 108 qubits de forma efectiva, por diferencias estadísticas en el comportamiento individual de los mismos.
Hay que señalar, que este ordenador de D-WAVE, aunque usa los principios de la mecánica cuántica para sus cálculos, no es un ordenador cuántico de propósito general, ya que solamente es capaz de calcular valores óptimos de una función mediante el método Montecarlo, y no usa entrelazamiento cuántico, por lo que muchos autores no lo consideran un ordenador cuántico. Estos autores alegan que un ordenador tradicional también se podría considerar un ordenador cuántico, por los procesos cuánticos que se producen en los transistores y diodos que forman sus puertas lógicas.
Los dos casos anteriores son casos extremos en los que hay qubits que no se pueden utilizar, sin embargo, las variaciones en el comportamiento estadístico del resto de los qubits, provocan que se tenga que aumentar de forma considerable el número de qubits para corregir de forma efectiva los errores. Pero ello también reduce al mismo tiempo los tiempos de decoherencia del procesador y el número de qubits disponible para los cálculos.
La tasa de errores es el factor que más limita a la hora de factorizar enteros grandes con el algoritmo de Shor, mientras que tiempos de decoherencia, es lo que más limita a la hora de hacer cálculos repetitivos de larga duración, como por ejemplo, el minado de criptomonedas.
Asimismo, algoritmos como el del Grover, cuyo resultado no es determinista y que sirve para encontrar una secuencia no ordenada de datos en una base de datos, necesita que toda la base de datos esté en una memoria cuántica (es decir, en una memoria con superposición cuántica), lo que es un serio problema cuando hablamos de Terabytes de información a ordenar y consideramos nuestra limitada capacidad actual para superponer grandes cantidades de qubits y para mantener la coherencia cuántica, necesaria para realizar los cálculos.
Pasando a un entorno práctico real, consideremos el procesador del ordenador D-Wave Two (“Vesuvius”) que dispone de procesadores cuánticos de 512 qubits, que aunque como hemos dicho, no es un ordenador cuántico de propósito general, nos puede ayudar a ver la forma en la que nos afectan la tasa de errores y la complejidad de las operaciones, en el número de qubits necesarios y en la fiabilidad de los resultados.
En estos procesadores de D-WAVE, para cálculos que requieren 86 qubits en puertas cuánticas, es necesario usar un total de 344 qubits, siendo el resto para la corrección de errores. Asimismo, aunque hay algoritmos cuánticos deterministas, la capacidad para lograr datos deterministas con un ordenador cuántico real, como hemos dicho, ello depende de la complejidad del problema y el número operaciones a realizar.
De esta forma, con los procesadores de D-WAVE, para resolver problemas “sencillos” que necesiten 40 qubits o menos, se logra el valor correcto el 100% de las veces, sin embargo, con problemas más “complicados” que necesiten 86 qubits o más, solamente se logra el valor correcto el 20% de las veces.
Como se puede ver, aunque se use un gran número de qubits para la corrección de errores, la fiabilidad cae en picado cuando las operaciones son complejas y requieren un mayor número de puertas y un mayor tiempo de proceso.
Hay otros dos problemas que aumentan la tasa de errores en los procesadores cuánticos de forma indirecta y que también debemos tener en cuenta. El primero es la escasa tensión usada en las puertas cuánticas basadas en superconductores (efecto túnel), que es del orden de los 10-100 microvoltios. El segundo, es la poca diferencia de energía entre estados cuánticos opuestos, lo que dificulta distinguir con éxito si el resultado de una operación es un |0> o un | 1> en un determinado qubit.
Otro límite a la hora de corregir los errores, que es consecuencia directa de la mecánica cuántica. Como sabemos, no se puede leer el estado de un qubit sin destruirlo, por lo que hay que predecir y corregir errores que todavía no se han producido y como se usan qubits adiconales para la corrección de errores, también se pueden producir errores en los qubits usados para la corrección de errores, lo que complica muchísimo las cosas.
Como vemos, la tasa de errores cuántica es un concepto complejo, puesto que depende del número de qubits que se pueden usar para corregir errores (teniendo en cuenta la coherencia y entrelazamiento), del tiempo de cálculo, del número de operaciones y lo ruidosa que sea la tecnología utilizada.
No hay un acuerdo sobre el número máximo de errores por el número de operaciones, hay autores que dicen que el límite es de un error cada 1.000.000 operaciones, mientras que otros dicen que el límite está en 3 errores por cada 100 operaciones. Sin embargo, lo más probable es que cada autor tenga un contexto tecnológico diferente y considere problemas y algoritmias distintas para sus cálculos.
LOS PROBLEMAS DE LA ENERGÍA Y LA REFRIGERACIÓN
Salvo que consideremos un ordenador cuántico con un procesador que use tecnologías cuánticas basada en fotones, en este momento, la mayor parte de los procesadores cuánticos son de estado sólido y usan puertas Josephson de efecto túnel basadas en superconductores. Esta tecnología, aunque es relativamente sencilla de fabricar, puesto que es muy parecida a la de los procesadores tradicionales, pero usando superconductores, tiene el problema de que necesita funcionar a muy bajas temperaturas y eso requiere de mucha energía, lo que limita enormemente que cualquier persona pueda tener un ordenador cuántico en su casa o en su empresa.
Las puertas superconductoras Josephson necesitan trabajar cerca del cero absoluto, más concretamente a 0,015 ºK. Trabajar a estas temperaturas requiere una elevada cantidad de energía para disipar el calor. Por ejemplo, si se desea disipar 1 vatio de energía de procesador trabajando a 0,015 K, se necesitarán 19,5 Kw de energía. Asimismo, si se desea disipar 1 vatio de energía a la temperatura de un condensado Bose-Einstein, a una temperatura de 0,00000017 ºK, se necesitará 1,6 Gw de energía, lo que es una fortuna en la factura de la compañía eléctrica.
Otro problema es que para poder trabajar a estas temperaturas, hay que usar Helio. Preferentemente helio3, que es un isótopo muy escaso en un momento en el que también hay poco helio. El helio3 tiene algunas ventajas frente al helio4 a la hora de refrigerar el computador cuántico. Por ejemplo, el helio3 tiene un mejor comportamiento termodinámico que el helio4 a la hora de trabajar a muy bajas temperaturas.
Esto implica que si no se desarrollan tecnologías cuánticas basadas en procesadores fotónicos, se tendrá que avanzar también en el desarrollo de superconductores que funcionen a mayores temperaturas y en la mejora del aislamiento térmico de los sistemas cuánticos.
Un procesador cuántico basado en fotónica, tendría las siguientes ventajas frente a uno basado en superconductores:
- No necesita trabajar a bajas temperaturas, por lo que también necesita poca energía para funcionar.
- No se ve afectado por los campos electromagnéticos, por el campo gravitatorio, por las vibraciones o la temperatura.
- Las puertas fotónicas son menos ruidosas y tienen una menor dispersión estadística en su comportamiento que las basadas en superconductores.
- No tienen los problemas de ruido asociados a las bajas tensiones y a las reducidas diferencias de energía entre estados cuánticos.
En resumen, hay muchos campos en los que es necesario avanzar y mucho trabajo por hacer para lograr un procesador cuántico de propósito general. Las cosas no son tan sencillas como aparecen en prensa y aunque en este momento no podemos considerar que la criptografía convencional esté en riesgo, no podemos decir que con la enorme inversión en la investigación de la computación cuántica que se está realizando por algunos países, la situación no cambie en breve.
Para lograrlo, es necesario elaborar una estrategia y una política científicas, que garanticen que no nos quedamos atrás en un sector estratégico para las comunicaciones y el desarrollo científico, como es la computación cuántica.