EL COMPUTADOR CUANTICO, UNA ENTELEQUIA?
RESUMEN
La
mecánica cuántica a comienzos del siglo XX dio sus primeros pasos cuando los
pioneros Rutherford y Niels Bohr establecieron los primeros postulados y
principios de la misma; en ese momento ellos no se imaginaban todas las
aplicaciones que esta tendría, (y aun en esta época se desconocen los alcances
de la misma). Las primeras computadoras fueron desarrolladas a mediados de ese
siglo y el desarrollo tecnológico nos ha llevado a las súper computadoras que
hoy con procesadores de alta velocidad y tamaños cada vez mas reducidos, hacen
difícil pensar que se pueda dar el salto hacia una nueva tecnología para
procesar la información. De eso se trata el presente ensayo, reflexionar sobre
el ordenador cuántico como tecnología emergente en el manejo de la información.
En primera instancia se presenta una breve introducción a la mecánica cuántica,
con una pequeña reseña histórica y el enunciado de los principios
fundamentales, luego se hace referencia a la computación tradicional, haciendo
énfasis en lo últimos avances en procesadores y capacidad de manejo de la
información, seguidamente, y ya entrando en el contexto, se presentan las
principales características de los ordenadores modernos, sus alcances y
limitaciones. Para luego mostrar los primeros intentos en desarrollar el
ordenador cuántico, cual es el estado del arte y que perspectivas tienen las
investigaciones mas relevantes que actualmente se realizan en este campo. Las
reflexiones finales del ensayo se orientan hacia la posibilidad cercana de
romper el paradigma del computador tradicional en su esencia y su sustitución
por un computador cuántico que daría un vuelco importante a la forma como se
manejan la gran cantidad de datos con los sistemas de computación actuales.
PLANTEAMIENTO INTRODUCTORIO
A
comienzos del siglo XX la física tradicional, comienza a mostrar debilidades en
su otrora sólida base estructural, Las leyes que rigen el movimiento de los
cuerpos, principalmente atribuidas a Sir Isaac Newton comenzaron a ver como en
partículas muy pequeñas no aplicaban sus principios, cuando Bohr con su teoría
de la estructura atómica, pudo explicar el espectro de radiación electromagnética emitida por algunos átomos.
La mencionada teoría fue posteriormente ratificada por
Planck, Arnold Sommerfeld. Wilson y otros, dando origen a hoy llamado Teoría Cuántica Antigua. Esta
teoría durmió en los archivos hasta que desempolvada, vino a cumplir un
importante papel para el desarrollo de la Mecánica Cuántica moderna.
Los
más notable del trabajo de Bohr consistió en aventurarse a dejar de lado a la
Física clásica y atreverse a decir que algunas de sus leyes no aplicaban a escala
atómica, De esta manera dio un importante paso que marcó el camino por donde
debía transitar el nuevo paradigma. Los postulados de Bohr parecen tener
algunos artificios que no fueron del todo aceptados en su época.
Citado
por Gratton (2003) los postulados son:
Postulados de Bohr:
•
El electrón se mueve en una órbita circular alrededor del núcleo bajo la
influencia de la atracción Coulombiana de éste, obedeciendo las leyes de la
mecánica clásica.
•
Dentro de las infinitas órbitas clásicas, el electrón se mueve sólo en aquellas
en las que el momento angular orbital L tiene los valores L = nh
= nh / 2π , donde n = 1, 2, 3,….
•
Cuando el electrón se mueve en una órbita permitida, no irradia energía
electromagnética a pesar de ser
acelerado constantemente y por lo tanto su energía total E permanece
constante.
•
Un electrón que se mueve inicialmente en una órbita de energía Ei puede
cambiar discontinuamente su movimiento y pasar a moverse en otra órbita de
energía Ef ; cuando esto ocurre se emite un fotón cuya frecuencia es
ν = (Ei − Ef ) / h.
Se puede decir que el tercer postulado muestra
una solución al problema de la inestabilidad
por radiación del electrón acelerado, solo con decir que esta variable de la física clásica no aplica para el electrón cuando se mueve en una órbita permitida. Es
decir este postulado nos dice, basado en la observación, que los átomos son
estables, mientras que la teoría clásica dice lo contrario. Así mismo el cuarto
postulado se articula con los principios de Einstein cuando se refiere a la
energía del fotón. Aquí Bohr mezcla arbitrariamente los principios de la física
clásica con sus postulados, lo cual le resta credibilidad para la época. En su
descargo se puede decir que un postulado es básicamente la descripción de un
fenómeno observado experimentalmente, y es precisamente lo que este científico realizó.
Otras críticas realizadas a la teoría
de Bohr tienen que ver con que aplica
exclusivamente a sistemas que son periódicos temporalmente, lo cual excluye
muchos otros sistemas, y aunque se puede calcular la energía en esos periodos
no permite calcular el tiempo en que sucederá la transición. Por otro lado
cuando el átomo tiene más de un electrón (caso del Helio) la teoría falla
siendo así intelectualmente insatisfactoria.
Es
así como desde finales del siglo XIX considerar el estudio de los fenómenos de
la naturaleza mediante el modelo tradicional comenzó a fallar de manera repetida.
Tal es el caso del éter como sustancia ideal, recurso al que acudieron los
físicos clásicos para intentar salvar la física tradicional cuando no pudieron
explicar por ejemplo la consistencia de la sorprendente velocidad de la luz.
Sobre esto Rindnik nos comenta: ¿Cómo
debe ser el éter? Absolutamente rígido y al mismo tiempo absolutamente
transparente. Esto se parece en algo al vidrio irrompible. Pero, a pesar de su
rigidez, dentro del éter pueden moverse sin dificultad todos los cuerpos. Es
más, estos cuerpos al moverse pueden arrastrar al éter y crear el «viento»
etéreo. Con la particularidad de que este viento es mucho más suave que aquel
«céfiro nocturno» que esparcía el «éter» en el famoso verso de Pushkin.
Al
no poder comprender el comportamiento de
esta sustancia, a pesar del intento de los investigadores, el éter se convirtió
en una fantasía sin ningún sustento científico, adicionalmente la física
clásica se consiguió con otro obstáculo al no poder explicar la emisión de la
energía por parte del uranio de manera
continua y sin la presencia de agentes externos, mas adelante Albert Einstein
presento la hipótesis de los fotones y esta se convirtió en otro golpe bajo
para física clásica.
Fue
así como la física clásica fue perdiendo espacios entre sus adeptos y muchos
investigadores comenzaron a dar giros hacia el comportamiento de pequeñas
partículas, del átomo, de las ondas, de la luz.
El
modelo atómico creado por Rutherford y Bohr muestra cierta evidencia sobre la
presencia de pequeñas partículas, que giran alrededor del núcleo con órbitas
determinadas las cuales son astronómicamente mayores que las dimensiones de los
electrones y sus núcleos.
Para
ello solo basta con imaginarse el tamaño de las orbitas de nuestros sistemas
planetarios comparados con los tamaños de los planetas
Posteriormente Broglie abarcó o generalizó esta teoría al
exponer la tesis de que los electrones, los núcleos y mas allá todos los componentes materiales
unitarios en nuestro mundo tienen la misma propiedad que Einstein de manera
bastante osada atribuyó a los fotones,
en otras palabras, que poseen al mismo
tiempo propiedades de ondas y de partículas.
El
principio de incertidumbre tiene que ver precisamente con la relación que hay
entre la posición y la velocidad en una partícula, para la física clásica el
problema está resuelto pero, para medir la velocidad y la posición del electrón
la situación no era tan clara para los físicos de comienzo del siglo XX.
Ciertamente
aunque en la actualidad existen instrumentos de muy alta precisión no es
posible medir una magnitud con una precisión absoluta, es aquí donde el
principio de incertidumbre se hace presente poniendo un límite a la crecida
elevación de la exactitud de los aparatos de medición.
Para
Heiseberg la culpa la tenía el aparato de medición, en la actualidad medir el
micromundo de esta manera es análogo a medir el cosmos con los más potentes
telescopios. Pero, por muy precisos que estos sean, siempre se conseguirán con la limitaciones
que los humanos tenemos en cuanto a nuestros órganos sensoriales, para
solventar esa carencia necesitaríamos un
aparato que permita traducir los fenómenos en un lenguaje que puede ser captado
por las sensaciones humanas.
Pero
al contrario que el telescopio el
cual no interfiere con los cuerpos que
vagan en el espacio sideral, un hipermicroscopio intervendría de manera directa
en las observaciones y en el comportamiento de las partículas muy pequeñas. Que
tanto se acerque la observación a la exactitud va en función del mencionado
principio de incertidumbre.
En
este nuevo mundo de los objetos muy
pequeños son insuficientes no sólo los principios de la física clásica concernientes a la velocidad y posición del electrón. También son insuficientes
magnitudes como el tiempo, la energía que genera el electrón cuando cambia de
órbita y muchas otras.
Cambiar
de paradigma de lo clásico a lo cuántico se ha convertido en camino difícil,
tortuoso, sinuoso, arduo y pesado, muchos años transcurrieron para que el ser
humano cambiara de manera de pensar sobre las primeras ideas simples de la
vida, de los aspectos esenciales, de la cosmovisión de los fenómenos, y mas
recientemente de la estructura y comportamiento de los átomos. Que tan
simplistas serán las ideas del presente cuando la tecnología y los avances
científicos se mueven vertiginosamente, dentro de trescientos o cuatrocientos
años, cuando nuestros descendientes
vivan en un súper mundo tecnológico lleno de avances hoy inimaginables, lo que
Einstein llamo muy acertadamente “un drama de ideas” .
La
mecánica Cuántica desarrolló sus bases
de manera muy rápida desde el que el
físico De Broglie completó sus investigaciones se desarrollaron en apenas unos
cinco años sus leyes, ecuaciones y demás formalismos metodológicos que la
situaron en el umbral científico donde los investigadores de la época hicieron
toda clase de intentos para entender y darle sentido a sus resultados.
Ya
para el año 1928 la mecánica cuántica se presenta en los eventos científicos,
como una rama de la física completamente estructurada, desarrollada, fuerte en
sus cimientos, algo que le costó a la física clásica más de 200 años, de esta
manera se abre paso y toma posición en el mundo de las ciencias, para ya de
manera más pausada, comenzar un desarrollo que abarca y domina nuevos fenómenos
explicándolos de manera correcta.
Desde
luego que como punto de partida para comenzar los estudios cuánticos, el átomo
se muestra como conejillo de indias presto para ser escudriñado y estudiado
hasta la saciedad y así lo entendieron Planck y Bohr entre otros, y comenzaron
con el estudio de su estructura, el movimiento en sus orbitas. Aunque estas son
en esencia las trayectorias que traza el
electrón en el átomo, y esto es contradictorio
con la mecánica cuántica en cuanto a que las partículas tengan trayectorias en el micromundo.
Es
en este momento cuando en el mundo cuántico las probabilidades entran en juego
ya que es mediante ellas que se puede predecir en cual posición pueda estar el
electrón dentro del átomo, y análogamente el conjunto de energías que con el
cambio de posición se van generando, para justificar la paradoja Ridnik nos
dice:
“Bueno, si tanto lo necesitan, conserven la
idea de la órbita. Tracen una línea curva por aquellos puntos en los cuales es
mayor la probabilidad de que se encuentre el electrón con la energía permitida
dada. Y consideren que esta línea es su órbita. Pero recuerden que el electrón
no es un punto, sino que lo extiende su propia onda. Por esto también su órbita
tiene sólo un sentido convencional”.
El
mismo Ridnik nos recuerda el dicho “Lo que alegra la vista hace que trabaje la
inteligencia”. De esta manera se puede dar
una explicación a los nada sencillos entrelazamientos de las nubes que
forman los electrones, la sabia naturaleza creadora de todo lo existente es la
encargada de edificar toda la estructura atómica como el mejor arquitecto
existente, la solidez y belleza de las estructuras esta básicamente conformada
por electrones y núcleos, usando como pegamento para la unión de los
componentes la fuerza de atracción que las cargas opuestas del electrón y el
núcleo generan.
En
tres grandes etapas se puede dividir el desarrollo de la mecánica cuántica, la
primera de ellas a comienzos del siglo XX con los primeros pasos de Planck y
las propiedades de las ondas luminosas y hasta 1925 cuando De Broglie descubrió las propiedades ondulatorias de
algunas partículas.
Paralelamente
en este periodo, Albert Einstein y Bohr
crean la teoría de los fotones y se da inicio a la primera, y aun inconclusa,
teoría de la estructura atómica y sus fenómenos.
La
segunda etapa se inicia con las investigaciones hechas por De Broglie en 1924. El desarrollo de la mecánica cuántica unida a la teoría de la relatividad, permite la
presentación de un importante papel de
trabajo preparado por Dirac, donde el antagonismo de las teorías se convierte
en el principio de una unión que como toda relación, tiene sus altos y sus
bajos, pero que los años previos a la segunda guerra mundial engendran la
teoría del núcleo atómico lo cual es parte ya de otra historia.
La
tercera etapa llega fundamentalmente en los años de la posguerra y la mecánica
cuántica se abre campo hacia las partículas elementales y al campo. Pero no
todo es color de rosa, la interacción de los átomos, moléculas, núcleos,
electrones, protones, neutrones se convierte en algo muy complicado de explicar
y operacionalizar.
En
la actualidad muchas investigaciones buscar dar explicación a estos fenómenos
atómicos y se cree que la mecánica cuántica puede resolver esos problemas, lo
cual la hace limitada razón por la cual los avances científicos pretenden dar
un giro en este sentido.
En
estos momentos la física clásica se debe sentir regocijada en su tumba al ver
como la física cuántica, está pasando por una situación similar en que se encontraba a finales del siglo XIX la mecánica clásica.
Sin
embargo pareciese que a nivel experimental no se han encontrado hallazgos que
se opongan a los postulados que dan base a
la mecánica cuántica. Pero si muestra incapacidad para explicar una
lista de fenómenos, que la misma teoría a engendrado. La respuesta a las
distintas interrogantes puede necesitar de avances científicos, nuevas leyes o
postulados que den amplitud a los ya existentes y que obviamente no sean
antagónicos a los mismos. Y si esto sucede, serán sustituidos y enviados al
retiro con honores aquellos que sirvieron de base a los inicios de la teoría.
La
historia y la experiencia nos dice que no hay teorías eternas, que al igual que
la teoría del mercado con el ciclo de vida del producto, las teorías tienen
distintas etapas partiendo del lanzamiento, el crecimiento, la etapa de madurez
donde hace sus mayores aportes, la vejez o declive momento en el cual lo
aportado sirve para dar inicio a nuevas
teorías.
Entonces
las nuevas teorías emergentes comienzan a mostrar sus avances ante los
incrédulos científicos opositores que no aceptan los nuevos postulados y todo
comienza de nuevo.
Se
puede decir que la mecánica cuántica está en este momento pasando por la etapa
de madurez, la cual tiende a ser bastante larga, en este lapso una gran
variedad de avances tecnológicos se deben a ella, su espectro de investigación
es bastante amplio desde el macromundo de las galaxias hasta el micromundo de
las partículas sub atómicas. Uno de los avances en desarrollo que nace de esta
teoría es el ordenador cuántico.
Desarrollo Argumental
El
computador Cuantico
La
computación clásica, la que conocemos y usamos en el día a día, ha tenido un
proceso evolutivo que en los últimos 30 años ha dado pasos agigantados, sin
embargo en el siglo XIII, el ábaco que se cree fue inventado por los chinos, ya
facilitaba los cálculos que en la época se realizaban dando inicio a la
realización de operaciones matemáticas asistida por aparatos. Ya varios siglos
después, y más específicamente en el año
de 1830 Babbege creó la maquina diferencial, que no es más que una calculadora
mecánica diseñada para calcular funciones polinómicas, una versión mejorada de
esta máquina se encuentra operativa en el museo de Londres, y es bastante precisa
en sus cálculos.
Más
adelante a mediados del siglo XX se entra en la etapa de la electrónica y se
comienzan a desarrollar equipos con válvulas termoiónicas, cintas de papel y
tarjetas, ya para el año 1956 se crean los primeros transistores, y ya para
esta época los procesadores más modernos tienen varios miles de transistores,
hasta el punto que el número de transistores por chip se duplica
aproximadamente cada 18 meses, lo cual implica velocidades importantes para el
manejo de la información. Sin embargo para Moret (2013) “En este contexto la
computación digital tradicional no debe estar muy lejos de su límite, puesto
que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Estas
reflexiones iban a ser el germen de las actuales ideas acerca de la computación
cuántica y acerca de los ordenadores cuánticos” p 4.
Si
definimos una computadora como un sistema que almacena, procesa y transmite
información, que además tiene como base un sustrato físico que se rige por
leyes o teorías como la de la relatividad la cual regula la velocidad a la cual
puede transmitirse la información o la
termodinámica al momento de disipar el calor, vale la pena preguntarse como
aplican los principios cuánticos en este mundo de microprocesadores, nano transistores
y otras tantas miniaturas.
Nace
un nuevo paradigma, el de la computación cuántica, distinto al de la
computación clásica por nosotros conocido, usa el qubits en lugar del conocido
bits, además abre nuevas compuertas que permiten el nacimiento de nuevos
algoritmos. La resolución de una tarea puede tener un distinto grado de dificultad en computación clásica y en computación cuántica,
lo que ha generado grandes expectativas, debido a que algunos problemas imposibles de solucionar
pasan a ser solucionables.
En
la computación tradicional un bit toma valores 0 ó 1 exclusivamente. Mientras
que en la computación cuántica, lo mencionado anteriormente sobre la mecánica cuántica y sus leyes se hace
presente, ya que la partícula, el qubit, en este caso, puede estar en
superposición es decir: puede ser 0, puede ser 1 y puede ser 0 y 1
simultáneamente, lo cual nos abre
el camino para realizar varias
operaciones al mismo tiempo.
En
este momento es importante resaltar que el número de qubits non viene a indicar
la cantidad de bits que pueden presentar superposición en determinado momento .
Recordemos que con los bits
tradicionales si tenemos un registro de tres bits hay ocho valores posibles, y
este sólo puede tomar uno de esos valores. Mientras que, si tenemos un registro
de tres qubits, el principio de superposición cuántica se hace presente y la
partícula puede tomar ocho valores distintos al momento. Es decir puede hacer
hasta ocho operaciones paralelas creciendo de manera exponencial en función del
número de qubits.
Para
tener una visión más clara de lo que esto
significa basta con imaginarse que un computador cuántico de 30 qubits sería
equivalente a un procesador en
computación clásica de 10 teraflops
(millones de millones de operaciones en un segundo), mientras que en la
actualidad las computadoras más rápidas trabajan alrededor de gigaflops (miles
de millones de operaciones en un segundo).
Pero
la cosa no es tan sencilla, al tratar de llevar esto a la práctica y asumiendo
una postura netamente informática, la computación cuántica enfrenta grandes
retos, y debe responder a varias interrogantes:
Cuál
será su Soporte Físico?
Como
será La Transmisión de Datos?
Cuales
es el margen de error al calcular los Algoritmos Cuánticos?
Como
quedara estructurada la Arquitectura y Modelos?
Respecto
a la primera interrogante, a pesar de ya existir algunos prototipos no se ha resuelto aún de manera satisfactoria
lo del soporte físico idóneo para la computación cuántica y como debe ser a los
ojos del usuario su aspecto
En
referencia a la transmisión de datos, muchos científicos dedican horas la
investigación y hasta el momento, los
resultados más resaltantes nos muestran transmisión de información cuántica usando la
luz como medio, a distancias de 100 km. Con un margen de error que se nivela al
utilizar protocolos de transmisión con
autocorrección.
Por
otra lado, los algoritmos cuánticos
tienen un margen de error conocido en las operaciones de base y se
comportan de forma tal que pueden ir reduciendo el margen de error hasta
llevarlos a ser exponencialmente pequeños, esto si se compara al nivel de error
de las máquinas tradicionales. El algoritmo de Shor es un ejemplo de esto. En
la Actualidad existen varios modelos y
arquitecturas que por su desarrollo y fiabilidad merecen ser llamadas
computadoras cuánticas, es por ello que la de, Benioff, la de Feynman, o la de Deutsch merecen tal distinción.
Es
innegable que la computación cuántica
despierta especial interés ya que se muestra como la computación del futuro.
Inclusive, se ha propuesto el uso de la computación cuántica como alternativa
que supera a la computación tradicional es la solución de varios problemas, tal es el caso de la
factorización de números enteros, la discrecionalidad de los logaritmos
discreto, o la misma simulación de sistemas cuánticos. El asunto está en que,
como en todo disciplina inicio de una tecnología que emerge, aún quedan muchos problemas solución cuya solución está pendiente.
Tal
es el caso del problema de la
decoherencia, que trae como consecuencia la pérdida del carácter unitario y de
la reversibilidad de cada uno de los pasos del algoritmo cuántico. Para
impedirlo se hace necesario que el tiempo de cualquier operación debe ser
considerablemente que el tiempo de
decoherencia. Si la proporción entre estos es tal que la tasa de error sea lo bastante baja, es posible
usar eficientemente la corrección de errores cuánticos, y de esta manera ya
serían factibles tiempos de cálculo más largos que el tiempo de decoherencia.
Otro
escaño duro de salvar es que se genera cuando hablamos de la escalabilidad,
sobre todo cuando hay que considerar que se hace necesario incrementar de manera considerable
el número de qubits para hacer realmente práctica y útil a la computación
cuántica, en la actualidad ninguno de los sistemas propuestos ha logrado
superar este escollo.
La
computación cuántica viene a representar un nuevo paradigma en este campo,
basado en el qubits en lugar del bit tradicional, el qubit constituye la unidad
mínima y por consiguiente constitutiva de la teoría de la información cuántica. Un bit puede tomar un valor (0 ó 1), y un qubit incluye
ambos valores (0 y 1). Representa un concepto básico para la computación
cuántica, igualmente para la criptografía cuántica, se convierte entonces en el
análogo cuántico del bit en informática. Abriendo las puertas a nuevos algoritmos
intratables en la computación clásica; tal como la factorización de algunos
números, con resultados exponencialmente más rápidos que los algoritmos
tradicionales. Para ello el cambio de pensamiento de los programadores debe
comenzar por entender la superposición, tal como lo se representa en la esfera
de Bloch, principio fundamental de la
computación cuántica.
Fígura
1. Esfera de Bloch
Fuente:
Moret (2013)
Algunos de los algoritmos más conocidos de
acuerdo con Diaz y Samborky (2002) son:
Algoritmo
de búsqueda de Grover (O(√n)).
Algoritmo de Shor
(O((log2n)3))
Algoritmo de Kitaev para calcular el orden de un grupo.
Algoritmo de Watrous permite
calcular el orden de grupos solubles.
Descomposición de
Grupos Finitos Abelianos.
El desarrollo del
marco conceptual del qubit, en su mayoría atribuido a Benjamin Schumacher, la presentación de las
‘puertas cuánticas’, análogas a las
puertas lógicas de la computación clásica, desarrolladas por Deutsch en 1985,
unido a los primeros algoritmos para la computación cuántica y al
desarrollo en la transmisión de
información, han despertado un gran interés en la comunidad de investigadores
en el campo cuántico, que creen en el desarrollo de la disciplina, sin embargo
a pesar de todas las potencialidades y la tecnología disponible la computación
cuántica aún está en su fase experimental.
El proceso paralelo y
la superposición de estados son la base del computador cuántico, para ello el
ordenador toma ventaja de los átomos y
electrones que pueden estar en varios
estados de manera simultánea. La computación cuántica usa el Spin representado
en la esfera de Bloch de forma tal de girar en un sentido o en el opuesto lo
que es lo mismo puede tomar el valor 1 y el 0 dando origen al llamado qubit.
La criptografía, la
factorización de números, y el aumento de la velocidad de las operaciónes son
algunas de las visiones que se aspiran podamos convertir en una realidad
cotidiana con el computador cuántico en unas tres décadas, muchas interrogantes
quedan planteadas, situaciones no resueltas como los procesadores que deban
utilizar estos equipos, el hardware que los acompañara o la corrección de los
errores hasta el momento presentados.
Son muchas las
esperanzas que sobre la computación cuántica se tienen, será posible que todo
esto y más pueda alcanzarse? Estamos entre la realidad y la fantasía? Para
Darwish (2004) “Hoy en día el computador
cuántico encuentra enormes dificultades para ser construido en la práctica,
hasta el punto que determinados autores opinan que es inviable” p. 7. Otros si
creemos en su posibilidad.
REFLEXIONES FINALES
La
computación cuántica puede considerarse una revolución en la teoría de la
informática, se cree que un computador cuántico podrá realizar algunas tareas
exponencialmente más rápido que las computadoras tradicionales. La razón es que
en informática los computadores clásicos trabajan, básicamente, equivalentes
entre si, lo cual no significa que trabajen a la misma velocidad, pero si se
comportan siguiendo los mismos patrones, en este sentido la computación
cuántica se comporta completamente diferente. Con ella podemos hacer una
simulación cuántica, veamos, un piloto de un avión de combate F-16 se entrena
en un simulador hasta conocer cada detalle antes de hacer su primer vuelo real,
en la simulación cuántica sucede algo similar pero a otra escala con moléculas
complejas, que tienen un extraño comportamiento cuántico el cual aun no sabemos
controlar, aunque si sabemos lo que queremos hacer con el, por lo tanto usamos
la computación cuántica para simular rutas de medios de transporte, o cura de
enfermedades mediante la simulación del comportamiento molecular del
medicamento y su reacción con otras sustancias químicas. Otras aplicaciones
están en estudio como la detección de mercurio en el pescado, el plomo en la
sangre, juegos de computación, detección de explosivos en sitios públicos, todo
esto de manera mucho más eficiente que en la actualidad con detectores mucho más
potentes y precisos.
Otra
aplicación es el de la factorización de números muy grandes, resultado, por
ejemplo, de la multiplicación de un número de trescientos dígitos por otro de
trescientos dígitos, obteniendo de esta manera un número que sería imposible
factorizar con las computadoras actuales, esto facilitaría la codificación
cuántica muy útil para mantener información secreta en gobierno, banca y otras
instituciones, lo que se puede llamar criptografía
cuántica. De esta manera algún espía que trate de develar algún código
cuántico, será descubierto debido a que el supuesto espía no podrá resolver un
problema computacional difícil sin
violar las leyes de la física y hacer mucho ruido.
Ahora
se conocen los principios de la computación cuántica y lo que por el momento se
quiere hacer con ella, lo complicado ahora es como ponerlo en práctica, como
trasladar todo esto a un hardware real, este debe estar completamente aislado
para mantener a gran escala todas las superposiciones de los qubits, protegido
de interacciones indeseables hasta la
finalización de la operación.
También
ahora estamos aprendiendo a hablar con los átomos su propio idioma, el
cuántico, podemos hablar con ellos y tratar con ellos como nunca antes habíamos
podido. Es muy difícil predecir la repercusión de esta nueva tecnología,
recordemos por ejemplo que el láser se inventó a mediados del siglo XX, quien
se podía imaginar en aquel momento que el láser se podría utilizar para
reproducir seres, para registrar el precio de algún producto, o para realizar
cirugía ocular, en ese momento difícilmente alguien podía predecir el impacto
que sobre la sociedad tendría el láser.
La
tendencia sobre estas situaciones es más o menos común, se comienza con la
investigación básica en algún laboratorio del mundo construyendo una máquina
grande y compleja que cuesta mucho dinero, si en realidad tiene mercado la
tecnología emergente, se le lleva a producción en serie con precios
relativamente económicos, así pasó con el ya mencionado láser, los primeros eran
grandes, complicados y de baja confiabilidad, en casi todos los hogares hay un laser para escuchar música o ver
películas HD con un Blue Ray, y el pequeño láser conductor es muy económico. De
esta manera si los fotones, ya sean simples o entrelazados, tendrían una
aplicación real o un mercado, no cabe duda que serán producidos en seria y a
precios accesibles para todos.
A
mediados del siglo pasado los primeros computadores se hacían para aplicaciones
muy concretas y hasta aburridas, inclusive el presidente de una de las
principales compañías de computación llegó a decir que solo se venderán unas pocas computadoras en todo el mundo. Nadie
pudo predecir que mientras esperamos el servicio en el autolavado podríamos
conversar e intercambiar información de todo tipo con algún amigo al otro lado
del mundo.
La
computación cuántica es potente nos abre
un nuevo mundo para observarlo de una manera distinta sin poder imaginar como
será en veinte o treinta años. ¿Será entonces posible quizás, que por medio de
unos superconductores cuánticos se pueda transportar energía a lugares remotos
sin contaminar, sin dañar el medio ambiente? ¿Será esta una de las sorpresas
que nos tiene preparada la mecánica cuántica?
Todo
esto puede parecer muy extraño, como lo fue, en épocas pasadas, pensar en la
capacidad de los humanos de cruzar de un continente a otro, de un lado a otro,
antes de la invención los aviones y
cohetes y sus efectos antigravitatorios.
Ahora
emprendemos un viaje hacia lo íntimo de
los átomos con la intención de domesticar esos quantums salvajes para que nos
ayuden a transformar nuestras vidas y el mundo de una manera radical
BIBLIOGRAFIA
Darwish
N. (2004) Computación Cuántica. Universidad La Laguna
Diaz
y Samborsky (2002) Brevísima Introducción a la Computación cuántica. UNR
Argentina
Graton
J. (2003) Introducción a la Mecánica Cuántica. Buenos Aires Argentina
Moret
V. (2013) Principios Fundamentales de computación Cuántica. Universidad de la
Coruña. España