martes, 17 de enero de 2017

EL COMPUTADOR CUANTICO, UNA ENTELEQUIA?

EL COMPUTADOR CUANTICO, UNA ENTELEQUIA?

RESUMEN
La mecánica cuántica a comienzos del siglo XX dio sus primeros pasos cuando los pioneros Rutherford y Niels Bohr  establecieron los primeros postulados y principios de la misma; en ese momento ellos no se imaginaban todas las aplicaciones que esta tendría, (y aun en esta época se desconocen los alcances de la misma). Las primeras computadoras fueron desarrolladas a mediados de ese siglo y el desarrollo tecnológico nos ha llevado a las súper computadoras que hoy con procesadores de alta velocidad y tamaños cada vez mas reducidos, hacen difícil pensar que se pueda dar el salto hacia una nueva tecnología para procesar la información. De eso se trata el presente ensayo, reflexionar sobre el ordenador cuántico como tecnología emergente en el manejo de la información. En primera instancia se presenta una breve introducción a la mecánica cuántica, con una pequeña reseña histórica y el enunciado de los principios fundamentales, luego se hace referencia a la computación tradicional, haciendo énfasis en lo últimos avances en procesadores y capacidad de manejo de la información, seguidamente, y ya entrando en el contexto, se presentan las principales características de los ordenadores modernos, sus alcances y limitaciones. Para luego mostrar los primeros intentos en desarrollar el ordenador cuántico, cual es el estado del arte y que perspectivas tienen las investigaciones mas relevantes que actualmente se realizan en este campo. Las reflexiones finales del ensayo se orientan hacia la posibilidad cercana de romper el paradigma del computador tradicional en su esencia y su sustitución por un computador cuántico que daría un vuelco importante a la forma como se manejan la gran cantidad de datos con los sistemas de computación actuales.




PLANTEAMIENTO INTRODUCTORIO
A comienzos del siglo XX la física tradicional, comienza a mostrar debilidades en su otrora sólida base estructural, Las leyes que rigen el movimiento de los cuerpos, principalmente atribuidas a Sir Isaac Newton comenzaron a ver como en partículas muy pequeñas no aplicaban sus principios, cuando Bohr con su teoría de la estructura atómica, pudo explicar el espectro de radiación  electromagnética emitida por algunos átomos. La mencionada teoría fue posteriormente ratificada  por  Planck, Arnold Sommerfeld. Wilson y otros, dando origen a  hoy llamado Teoría Cuántica Antigua. Esta teoría durmió en los archivos hasta que desempolvada, vino a cumplir un importante papel para el desarrollo de la Mecánica Cuántica moderna.
Los más notable del trabajo de Bohr consistió en aventurarse a dejar de lado a la Física clásica y atreverse a decir que algunas de sus leyes no aplicaban a escala atómica, De esta manera dio un importante paso que marcó el camino por donde debía transitar el nuevo paradigma. Los postulados de Bohr parecen tener algunos artificios que no fueron del todo aceptados en su época.
Citado por Gratton (2003) los postulados son:
Postulados de Bohr:
• El electrón se mueve en una órbita circular alrededor del núcleo bajo la influencia de la atracción Coulombiana de éste, obedeciendo las leyes de la mecánica clásica.
• Dentro de las infinitas órbitas clásicas, el electrón se mueve sólo en aquellas en las que el momento angular orbital L tiene los valores L = nh = nh / 2π , donde n = 1, 2, 3,….
• Cuando el electrón se mueve en una órbita permitida, no irradia energía electromagnética  a pesar de ser acelerado constantemente y por lo tanto su energía total E permanece constante.
• Un electrón que se mueve inicialmente en una órbita de energía Ei puede cambiar discontinuamente su movimiento y pasar a moverse en otra órbita de energía Ef ; cuando esto ocurre se emite un fotón cuya frecuencia es
 ν = (Ei Ef ) / h.

Se puede decir que el tercer postulado muestra una solución al  problema de la inestabilidad por radiación del electrón acelerado, solo con decir  que esta variable de la física clásica no aplica para el electrón cuando se mueve en una órbita permitida. Es decir este postulado nos dice, basado en la observación, que los átomos son estables, mientras que la teoría clásica dice lo contrario. Así mismo el cuarto postulado se articula con los principios de Einstein cuando se refiere a la energía del fotón. Aquí Bohr mezcla arbitrariamente los principios de la física clásica con sus postulados, lo cual le resta credibilidad para la época. En su descargo se puede decir que un postulado es básicamente la descripción de un fenómeno observado experimentalmente, y es precisamente lo que este científico realizó.
Otras críticas realizadas a la teoría de Bohr tienen que ver con que  aplica exclusivamente a sistemas que son periódicos temporalmente, lo cual excluye muchos otros sistemas, y aunque se puede calcular la energía en esos periodos no permite calcular el tiempo en que sucederá la transición. Por otro lado cuando el átomo tiene más de un electrón (caso del Helio) la teoría falla siendo así intelectualmente insatisfactoria.

Es así como desde finales del siglo XIX considerar el estudio de los fenómenos de la naturaleza mediante el modelo tradicional comenzó a fallar de manera repetida. Tal es el caso del éter como sustancia ideal, recurso al que acudieron los físicos clásicos para intentar salvar la física tradicional cuando no pudieron explicar por ejemplo la consistencia de la sorprendente velocidad de la luz. Sobre esto Rindnik nos comenta: ¿Cómo debe ser el éter? Absolutamente rígido y al mismo tiempo absolutamente transparente. Esto se parece en algo al vidrio irrompible. Pero, a pesar de su rigidez, dentro del éter pueden moverse sin dificultad todos los cuerpos. Es más, estos cuerpos al moverse pueden arrastrar al éter y crear el «viento» etéreo. Con la particularidad de que este viento es mucho más suave que aquel «céfiro nocturno» que esparcía el «éter» en el famoso verso de Pushkin.

Al no  poder comprender el comportamiento de esta sustancia, a pesar del intento de los investigadores, el éter se convirtió en una fantasía sin ningún sustento científico, adicionalmente la física clásica se consiguió con otro obstáculo al no poder explicar la emisión de la energía por parte  del uranio de manera continua y sin la presencia de agentes externos, mas adelante Albert Einstein presento la hipótesis de los fotones y esta se convirtió en otro golpe bajo para física clásica.
Fue así como la física clásica fue perdiendo espacios entre sus adeptos y muchos investigadores comenzaron a dar giros hacia el comportamiento de pequeñas partículas, del átomo, de las ondas, de la luz.

El modelo atómico creado por Rutherford y Bohr muestra cierta evidencia sobre la presencia de pequeñas partículas, que giran alrededor del núcleo con órbitas determinadas las cuales son astronómicamente mayores que las dimensiones de los electrones y sus núcleos.
Para ello solo basta con imaginarse el tamaño de las orbitas de nuestros sistemas planetarios comparados con los tamaños de los planetas
Posteriormente  Broglie abarcó o generalizó esta teoría   al exponer la tesis de que los electrones, los núcleos y  mas allá todos los componentes materiales unitarios en nuestro mundo tienen la misma propiedad que Einstein de manera bastante osada  atribuyó a los fotones, en otras palabras, que  poseen al mismo tiempo propiedades de ondas y de partículas.

El principio de incertidumbre tiene que ver precisamente con la relación que hay entre la posición y la velocidad en una partícula, para la física clásica el problema está resuelto pero, para medir la velocidad y la posición del electrón la situación no era tan clara para los físicos de comienzo del siglo XX.

Ciertamente aunque en la actualidad existen instrumentos de muy alta precisión no es posible medir una magnitud con una precisión absoluta, es aquí donde el principio de incertidumbre se hace presente poniendo un límite a la crecida elevación de la exactitud de los aparatos de medición.
Para Heiseberg la culpa la tenía el aparato de medición, en la actualidad medir el micromundo de esta manera es análogo a medir el cosmos con los más potentes telescopios. Pero, por muy precisos que estos sean,  siempre se conseguirán con la limitaciones que los humanos tenemos en cuanto a nuestros órganos sensoriales, para solventar esa carencia  necesitaríamos un aparato que permita traducir los fenómenos en un lenguaje que puede ser captado por las sensaciones humanas.
Pero al contrario que  el telescopio el cual  no interfiere con los cuerpos que vagan en el espacio sideral, un hipermicroscopio intervendría de manera directa en las observaciones y en el comportamiento de las partículas muy pequeñas. Que tanto se acerque la observación a la exactitud va en función del mencionado principio de incertidumbre.
En este nuevo mundo de  los objetos muy pequeños son insuficientes no sólo los principios de la física clásica  concernientes a la velocidad y posición  del electrón. También son insuficientes magnitudes como el tiempo, la energía que genera el electrón cuando cambia de órbita  y muchas otras.

Cambiar de paradigma de lo clásico a lo cuántico se ha convertido en camino difícil, tortuoso, sinuoso, arduo y pesado, muchos años transcurrieron para que el ser humano cambiara de manera de pensar sobre las primeras ideas simples de la vida, de los aspectos esenciales, de la cosmovisión de los fenómenos, y mas recientemente de la estructura y comportamiento de los átomos. Que tan simplistas serán las ideas del presente cuando la tecnología y los avances científicos se mueven vertiginosamente, dentro de trescientos o cuatrocientos años, cuando nuestros  descendientes vivan en un súper mundo tecnológico lleno de avances hoy inimaginables, lo que Einstein llamo muy acertadamente “un drama de ideas”  .

La mecánica Cuántica  desarrolló sus bases de manera muy rápida desde el  que el físico De Broglie completó sus investigaciones se desarrollaron en apenas unos cinco años sus leyes, ecuaciones y demás formalismos metodológicos que la situaron en el umbral científico donde los investigadores de la época hicieron toda clase de intentos para entender y darle sentido a sus resultados.
Ya para el año 1928 la mecánica cuántica se presenta en los eventos científicos, como una rama de la física completamente estructurada, desarrollada, fuerte en sus cimientos, algo que le costó a la física clásica más de 200 años, de esta manera se abre paso y toma posición en el mundo de las ciencias, para ya de manera más pausada, comenzar un desarrollo que abarca y domina nuevos fenómenos explicándolos de manera correcta.
Desde luego que como punto de partida para comenzar los estudios cuánticos, el átomo se muestra como conejillo de indias presto para ser escudriñado y estudiado hasta la saciedad y así lo entendieron Planck y Bohr entre otros, y comenzaron con el estudio de su estructura, el movimiento en sus orbitas. Aunque estas son  en esencia las trayectorias que traza el electrón en el átomo, y esto es  contradictorio con la mecánica cuántica en cuanto a que las partículas tengan trayectorias  en el micromundo.

Es en este momento cuando en el mundo cuántico las probabilidades entran en juego ya que es mediante ellas que se puede predecir en cual posición pueda estar el electrón dentro del átomo, y análogamente el conjunto de energías que con el cambio de posición se van generando, para justificar la paradoja Ridnik nos dice:
Bueno, si tanto lo necesitan, conserven la idea de la órbita. Tracen una línea curva por aquellos puntos en los cuales es mayor la probabilidad de que se encuentre el electrón con la energía permitida dada. Y consideren que esta línea es su órbita. Pero recuerden que el electrón no es un punto, sino que lo extiende su propia onda. Por esto también su órbita tiene sólo un sentido convencional”.
El mismo Ridnik nos recuerda el dicho “Lo que alegra la vista hace que trabaje la inteligencia”. De esta manera se puede dar  una explicación a los nada sencillos entrelazamientos de las nubes que forman los electrones, la sabia naturaleza creadora de todo lo existente es la encargada de edificar toda la estructura atómica como el mejor arquitecto existente, la solidez y belleza de las estructuras esta básicamente conformada por electrones y núcleos, usando como pegamento para la unión de los componentes la fuerza de atracción que las cargas opuestas del electrón y el núcleo generan.

En tres grandes etapas se puede dividir el desarrollo de la mecánica cuántica, la primera de ellas a comienzos del siglo XX con los primeros pasos de Planck y las propiedades de las ondas luminosas y hasta 1925 cuando De Broglie  descubrió las propiedades ondulatorias de algunas partículas.
Paralelamente en este periodo, Albert  Einstein y Bohr crean la teoría de los fotones  y  se da inicio a la primera, y aun inconclusa, teoría de la estructura atómica y sus fenómenos.

La segunda etapa se inicia con las investigaciones hechas por De Broglie en 1924.  El desarrollo de la mecánica cuántica  unida a la teoría de la relatividad, permite la presentación  de un importante papel de trabajo preparado por Dirac, donde el antagonismo de las teorías se convierte en el principio de una unión que como toda relación, tiene sus altos y sus bajos, pero que los años previos a la segunda guerra mundial engendran la teoría del núcleo atómico lo cual es parte ya de otra historia.  
La tercera etapa llega fundamentalmente en los años de la posguerra y la mecánica cuántica se abre campo hacia las partículas elementales y al campo. Pero no todo es color de rosa, la interacción de los átomos, moléculas, núcleos, electrones, protones, neutrones se convierte en algo muy complicado de explicar y operacionalizar.

En la actualidad muchas investigaciones buscar dar explicación a estos fenómenos atómicos y se cree que la mecánica cuántica puede resolver esos problemas, lo cual la hace limitada razón por la cual los avances científicos pretenden dar un giro en este sentido.
En estos momentos la física clásica se debe sentir regocijada en su tumba al ver como la física cuántica, está pasando por una situación similar  en que se encontraba a finales del siglo XIX  la mecánica clásica.

Sin embargo pareciese que a nivel experimental no se han encontrado hallazgos que se opongan a los postulados que dan base a  la mecánica cuántica. Pero si muestra incapacidad para explicar una lista de fenómenos, que la misma teoría a engendrado. La respuesta a las distintas interrogantes puede necesitar de avances científicos, nuevas leyes o postulados que den amplitud a los ya existentes y que obviamente no sean antagónicos a los mismos. Y si esto sucede, serán sustituidos y enviados al retiro con honores aquellos que sirvieron de base a los inicios de la teoría.

La historia y la experiencia nos dice que no hay teorías eternas, que al igual que la teoría del mercado con el ciclo de vida del producto, las teorías tienen distintas etapas partiendo del lanzamiento, el crecimiento, la etapa de madurez donde hace sus mayores aportes, la vejez o declive momento en el cual lo aportado  sirve para dar inicio a nuevas teorías.
Entonces las nuevas teorías emergentes comienzan a mostrar sus avances ante los incrédulos científicos opositores que no aceptan los nuevos postulados y todo comienza de nuevo.
Se puede decir que la mecánica cuántica está en este momento pasando por la etapa de madurez, la cual tiende a ser bastante larga, en este lapso una gran variedad de avances tecnológicos se deben a ella, su espectro de investigación es bastante amplio desde el macromundo de las galaxias hasta el micromundo de las partículas sub atómicas. Uno de los avances en desarrollo que nace de esta teoría es el ordenador cuántico.

Desarrollo Argumental

El computador Cuantico

La computación clásica, la que conocemos y usamos en el día a día, ha tenido un proceso evolutivo que en los últimos 30 años ha dado pasos agigantados, sin embargo en el siglo XIII, el ábaco que se cree fue inventado por los chinos, ya facilitaba los cálculos que en la época se realizaban dando inicio a la realización de operaciones matemáticas asistida por aparatos. Ya varios siglos después,  y más específicamente en el año de 1830 Babbege creó la maquina diferencial, que no es más que una calculadora mecánica diseñada para calcular funciones polinómicas, una versión mejorada de esta máquina se encuentra operativa en el museo de Londres, y es bastante precisa en sus cálculos.

Más adelante a mediados del siglo XX se entra en la etapa de la electrónica y se comienzan a desarrollar equipos con válvulas termoiónicas, cintas de papel y tarjetas, ya para el año 1956 se crean los primeros transistores, y ya para esta época los procesadores más modernos tienen varios miles de transistores, hasta el punto que el número de transistores por chip se duplica aproximadamente cada 18 meses, lo cual implica velocidades importantes para el manejo de la información. Sin embargo para Moret (2013) “En este contexto la computación digital tradicional no debe estar muy lejos de su límite, puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Estas reflexiones iban a ser el germen de las actuales ideas acerca de la computación cuántica y acerca de los ordenadores cuánticos” p 4.
           
Si definimos una computadora como un sistema que almacena, procesa y transmite información, que además tiene como base un sustrato físico que se rige por leyes o teorías como la de la relatividad la cual regula la velocidad a la cual puede transmitirse la información  o la termodinámica al momento de disipar el calor, vale la pena preguntarse como aplican los principios cuánticos en este mundo de microprocesadores, nano transistores y otras tantas miniaturas.

Nace un nuevo paradigma, el de la computación cuántica, distinto al de la computación clásica por nosotros conocido, usa el qubits en lugar del conocido bits, además abre nuevas compuertas que permiten el nacimiento de nuevos algoritmos. La resolución de una tarea puede tener  un distinto grado de dificultad en   computación clásica y en computación cuántica, lo que ha generado grandes expectativas, debido a  que algunos problemas imposibles de solucionar pasan a ser solucionables.
En la computación tradicional un bit toma valores 0 ó 1 exclusivamente. Mientras que en la computación cuántica, lo mencionado anteriormente sobre la  mecánica cuántica y sus leyes se hace presente, ya que la partícula, el qubit, en este caso, puede estar en superposición es decir: puede ser 0, puede ser 1 y puede ser 0 y 1 simultáneamente, lo cual nos abre  el  camino para realizar varias operaciones al  mismo tiempo.
En este momento es importante resaltar que el número de qubits non viene a indicar la cantidad de bits que pueden presentar  superposición en determinado momento . Recordemos que con  los bits tradicionales si tenemos un registro de tres bits hay ocho valores posibles, y este sólo puede tomar uno de esos valores. Mientras que, si tenemos un registro de tres qubits, el principio de superposición cuántica se hace presente y la partícula puede tomar ocho valores distintos al momento. Es decir puede hacer hasta ocho operaciones paralelas creciendo de manera exponencial en función del número de qubits.

Para tener una visión más clara de lo que esto  significa basta con imaginarse que un computador cuántico de 30 qubits sería equivalente  a un procesador en computación clásica  de 10 teraflops (millones de millones de operaciones en un segundo), mientras que en la actualidad las computadoras más rápidas trabajan alrededor de gigaflops (miles de millones de operaciones en un segundo).
Pero la cosa no es tan sencilla, al tratar de llevar esto a la práctica y asumiendo una postura netamente informática, la computación cuántica enfrenta grandes retos, y debe responder a varias interrogantes:
Cuál será su Soporte Físico?
Como será La Transmisión de Datos?
Cuales es el margen de error al calcular los Algoritmos Cuánticos?
Como quedara estructurada la Arquitectura y Modelos?
Respecto a la primera interrogante, a pesar de ya existir algunos prototipos  no se ha resuelto aún de manera satisfactoria lo del soporte físico idóneo para la computación cuántica y como debe ser a los ojos del usuario su aspecto
En referencia a la transmisión de datos, muchos científicos dedican horas la investigación y hasta el momento, los  resultados más resaltantes nos muestran  transmisión de información cuántica usando la luz como medio, a distancias de 100 km. Con un margen de error que se nivela al utilizar  protocolos de transmisión con autocorrección.

Por otra lado, los algoritmos cuánticos  tienen un margen de error conocido en las operaciones de base y se comportan de forma tal que pueden ir reduciendo el margen de error hasta llevarlos a ser exponencialmente pequeños, esto si se compara al nivel de error de las máquinas tradicionales. El algoritmo de Shor es un ejemplo de esto. En la Actualidad  existen varios modelos y arquitecturas que por su desarrollo y fiabilidad merecen ser llamadas computadoras cuánticas, es por ello que la de,  Benioff, la de Feynman, o la  de Deutsch merecen tal distinción.
Es innegable que  la computación cuántica despierta especial interés ya que se muestra como la computación del futuro. Inclusive, se ha propuesto el uso de la computación cuántica como alternativa que supera a la computación tradicional es la solución de  varios problemas, tal es el caso de la factorización de números enteros, la discrecionalidad de los logaritmos discreto, o la misma simulación de sistemas cuánticos. El asunto está en que, como en todo disciplina inicio de una tecnología que emerge, aún  quedan muchos problemas  solución cuya solución está pendiente.

Tal es el caso del  problema de la decoherencia, que trae como consecuencia la pérdida del carácter unitario y de la reversibilidad de cada uno de los pasos del algoritmo cuántico. Para impedirlo se hace necesario que el tiempo de cualquier operación debe ser considerablemente  que el tiempo de decoherencia. Si la proporción entre estos es tal que la tasa  de error sea lo bastante baja, es posible usar eficientemente la corrección de errores cuánticos, y de esta manera ya serían factibles tiempos de cálculo más largos que el tiempo de decoherencia.
Otro escaño duro de salvar es que se genera cuando hablamos de la escalabilidad, sobre todo cuando hay que considerar que se hace  necesario incrementar de manera considerable el número de qubits para hacer realmente práctica y útil a la computación cuántica, en la actualidad ninguno de los sistemas propuestos ha logrado superar este escollo. 
La computación cuántica viene a representar un nuevo paradigma en este campo, basado en el qubits en lugar del bit tradicional, el qubit constituye la unidad mínima y por consiguiente constitutiva de la teoría de la información cuántica. Un bit puede tomar un valor (0 ó 1), y un qubit incluye ambos valores (0 y 1). Representa un concepto básico para la computación cuántica, igualmente para la criptografía cuántica, se convierte entonces en el análogo cuántico del bit en informática.  Abriendo las puertas a nuevos algoritmos intratables en la computación clásica; tal como la factorización de algunos números, con resultados exponencialmente más rápidos que los algoritmos tradicionales. Para ello el cambio de pensamiento de los programadores debe comenzar por entender la superposición, tal como lo se representa en la esfera de Bloch,  principio fundamental de la computación cuántica.

Fígura 1. Esfera de Bloch
Fuente: Moret (2013)

 Algunos de los algoritmos más conocidos de acuerdo con Diaz y Samborky (2002) son:

     Algoritmo de búsqueda de Grover (O(√n)).
Algoritmo de Shor (O((log2n)3))
Algoritmo de Kitaev  para calcular el orden de un grupo.
Algoritmo de Watrous permite calcular el orden de grupos solubles.
Descomposición de Grupos Finitos Abelianos.

El desarrollo del marco conceptual del qubit, en su mayoría atribuido a  Benjamin Schumacher, la presentación de las ‘puertas cuánticas’,  análogas a las puertas lógicas de la computación clásica, desarrolladas por Deutsch en 1985, unido a los primeros algoritmos para la computación cuántica y al desarrollo  en la transmisión de información, han despertado un gran interés en la comunidad de investigadores en el campo cuántico, que creen en el desarrollo de la disciplina, sin embargo a pesar de todas las potencialidades y la tecnología disponible la computación cuántica aún está en su fase experimental.

El proceso paralelo y la superposición de estados son la base del computador cuántico, para ello el ordenador toma  ventaja de los átomos y electrones que pueden estar  en varios estados de manera simultánea. La computación cuántica usa el Spin representado en la esfera de Bloch de forma tal de girar en un sentido o en el opuesto lo que es lo mismo puede tomar el valor 1 y el 0 dando origen al  llamado qubit.

La criptografía, la factorización de números, y el aumento de la velocidad de las operaciónes son algunas de las visiones que se aspiran podamos convertir en una realidad cotidiana con el computador cuántico en unas tres décadas, muchas interrogantes quedan planteadas, situaciones no resueltas como los procesadores que deban utilizar estos equipos, el hardware que los acompañara o la corrección de los errores hasta el momento presentados.

Son muchas las esperanzas que sobre la computación cuántica se tienen, será posible que todo esto y más pueda alcanzarse? Estamos entre la realidad y la fantasía? Para Darwish (2004)  “Hoy en día el computador cuántico encuentra enormes dificultades para ser construido en la práctica, hasta el punto que determinados autores opinan que es inviable” p. 7. Otros si creemos en su posibilidad.

REFLEXIONES FINALES

La computación cuántica puede considerarse una revolución en la teoría de la informática, se cree que un computador cuántico podrá realizar algunas tareas exponencialmente más rápido que las computadoras tradicionales. La razón es que en informática los computadores clásicos trabajan, básicamente, equivalentes entre si, lo cual no significa que trabajen a la misma velocidad, pero si se comportan siguiendo los mismos patrones, en este sentido la computación cuántica se comporta completamente diferente. Con ella podemos hacer una simulación cuántica, veamos, un piloto de un avión de combate F-16 se entrena en un simulador hasta conocer cada detalle antes de hacer su primer vuelo real, en la simulación cuántica sucede algo similar pero a otra escala con moléculas complejas, que tienen un extraño comportamiento cuántico el cual aun no sabemos controlar, aunque si sabemos lo que queremos hacer con el, por lo tanto usamos la computación cuántica para simular rutas de medios de transporte, o cura de enfermedades mediante la simulación del comportamiento molecular del medicamento y su reacción con otras sustancias químicas. Otras aplicaciones están en estudio como la detección de mercurio en el pescado, el plomo en la sangre, juegos de computación, detección de explosivos en sitios públicos, todo esto de manera mucho más eficiente que en la actualidad con detectores mucho más potentes y precisos.

Otra aplicación es el de la factorización de números muy grandes, resultado, por ejemplo, de la multiplicación de un número de trescientos dígitos por otro de trescientos dígitos, obteniendo de esta manera un número que sería imposible factorizar con las computadoras actuales, esto facilitaría la codificación cuántica muy útil para mantener información secreta en gobierno, banca y otras instituciones, lo que se puede llamar criptografía cuántica. De esta manera algún espía que trate de develar algún código cuántico, será descubierto debido a que el supuesto espía no podrá resolver un problema computacional difícil  sin violar las leyes de la física y hacer mucho ruido.
Ahora se conocen los principios de la computación cuántica y lo que por el momento se quiere hacer con ella, lo complicado ahora es como ponerlo en práctica, como trasladar todo esto a un hardware real, este debe estar completamente aislado para mantener a gran escala todas las superposiciones de los qubits, protegido de interacciones indeseables hasta  la finalización de la operación.

También ahora estamos aprendiendo a hablar con los átomos su propio idioma, el cuántico, podemos hablar con ellos y tratar con ellos como nunca antes habíamos podido. Es muy difícil predecir la repercusión de esta nueva tecnología, recordemos por ejemplo que el láser se inventó a mediados del siglo XX, quien se podía imaginar en aquel momento que el láser se podría utilizar para reproducir seres, para registrar el precio de algún producto, o para realizar cirugía ocular, en ese momento difícilmente alguien podía predecir el impacto que sobre la sociedad tendría el láser.
La tendencia sobre estas situaciones es más o menos común, se comienza con la investigación básica en algún laboratorio del mundo construyendo una máquina grande y compleja que cuesta mucho dinero, si en realidad tiene mercado la tecnología emergente, se le lleva a producción en serie con precios relativamente económicos, así pasó con el ya mencionado láser, los primeros eran grandes, complicados y de baja confiabilidad, en casi todos los hogares  hay un laser para escuchar música o ver películas HD con un Blue Ray, y el pequeño láser conductor es muy económico. De esta manera si los fotones, ya sean simples o entrelazados, tendrían una aplicación real o un mercado, no cabe duda que serán producidos en seria y a precios accesibles para todos.
A mediados del siglo pasado los primeros computadores se hacían para aplicaciones muy concretas y hasta aburridas, inclusive el presidente de una de las principales compañías de computación llegó a decir que solo se venderán unas pocas computadoras en todo el mundo. Nadie pudo predecir que mientras esperamos el servicio en el autolavado podríamos conversar e intercambiar información de todo tipo con algún amigo al otro lado del mundo.
La computación cuántica  es potente nos abre un nuevo mundo para observarlo de una manera distinta sin poder imaginar como será en veinte o treinta años. ¿Será entonces posible quizás, que por medio de unos superconductores cuánticos se pueda transportar energía a lugares remotos sin contaminar, sin dañar el medio ambiente? ¿Será esta una de las sorpresas que nos tiene preparada la mecánica cuántica?
Todo esto puede parecer muy extraño, como lo fue, en épocas pasadas, pensar en la capacidad de los humanos de cruzar de un continente a otro, de un lado a otro, antes de la invención  los aviones y cohetes y sus efectos antigravitatorios.
Ahora emprendemos  un viaje hacia lo íntimo de los átomos con la intención de domesticar esos quantums salvajes para que nos ayuden a transformar nuestras vidas y el mundo de una manera radical




  
BIBLIOGRAFIA

Darwish N. (2004) Computación Cuántica. Universidad La Laguna

Diaz y Samborsky (2002) Brevísima Introducción a la Computación cuántica. UNR Argentina

Graton J. (2003) Introducción a la Mecánica Cuántica. Buenos Aires Argentina

Moret V. (2013) Principios Fundamentales de computación Cuántica. Universidad de la Coruña. España

Ridnik V. ¿Qué es la Mecánica Cuantica? Tomado de www.librosmaravillosos.com




CUESTIONARIO MANTENIMIENTO 2017

UNEFA ..CUESTIONARIO MANTENIMIENTO 2017



Universidad Nacional Experimental Politécnica
De Las Fuerzas Armadas Nacionales
Maestría: Gerencia de Mantenimiento
Cátedra: Planificación del Mantenimiento

Realizado por: Dr.  Oscar Cabrera Venot

CUESTIONARIO
  El cuestionario es individual y está formado por 38 preguntas, cuyas respuestas deben estar bien fundamentadas y desarrolladas, avaladas de su bibliografía con sus fuentes de información Y GLOSARIO DE TÉRMINOS, el cual debe ser entregado al final del TÉRMINO. Las respuestas deben entregarse en digital al profesor.  Cada una  de las partes debe ser entregada de acuerdo al siguiente cronograma: parte I: 15 de Febrero, parte II: 15 de Marzo, y parte III 15 de Abril.
PARTE I
1.-  Analice el alcance, repercusiones y ventajas de la logística para la empresa Venezolana.
            2.-  Analice el alcance, repercusiones y ventajas del Benchmarking para la empresa venezolana
            3.-  Analice el alcance, repercusiones y ventajas de Cuadro de mando Integral ( Score board card).
            4.- Analice el alcance, repercusiones y ventajas para la gerencia los Thinkertoys.
            5.-Analice el alcance, repercusiones y ventajas de los inventarios ABC.
            6.- Analice el alcance, repercusiones y ventajas de la planificación estratégica.
            7.- Analice el alcance, repercusiones y ventajas del logro de Justo a tiempo
            8.- Analice el alcance, repercusiones y ventajas del mantenimiento predictivo
            9.- Analice el alcance, repercusiones y ventajas del Mantenimiento Productivo Total.
10.- Analice el alcance, repercusiones y ventajas de un sistema de inventarios
11.- Analice el alcance, repercusiones y ventajas del mantenimiento de clase mundial
12.- Analice  el alcance, repercusiones  y ventajas de un buen sistema de Mantenimiento
13.- Analice el alcance, repercusiones y ventajas de la logística verde y la logística inversa.
14.- Analice el alcance, repercusiones y ventajas del empowerment.



PARTE II
15. Explique cuáles son los principales obstáculos para la empresa venezolana el enfrentar la Globalización.
16.- Explique cuáles son las causas que le impiden  a la empresa venezolana ser altamente competitiva y destaque que propone para ello.
17.- Cual cree usted debería ser la política cambiaria del estado para facilitar la importación de insumos.
18.-  Analice el alcance, repercusiones y ventajas y desventajas del control de cambios para la Pyme venezolana.
19.- Explique cuáles son los principales obstáculos para la Pyme el hacer uso del MRP. ¿Qué soluciones como Gerente propone para ello? Fundaméntelo.
20.- ¿Cuáles son a su criterio, en la actualidad,  las características más predominantes de la gerencia de Mantenimiento en Venezuela?  ¿Cuáles sugiere usted?
21. Analice  ¿Cuáles son los  principales obstáculos  que afronta la Pyme venezolana? ¿Qué sugiere al respecto?
22.- Explique a su criterio ¿Cuáles han sido los principales obstáculos que enfrenta la gerencia de mercados de la Pyme venezolana? ¿Qué sugiere al respecto?
             
PARTE III
23.- ¿Explique cuáles son los principales obstáculos que afronta la planificación de recursos humanos de las empresas de la Región? ¿Qué sugiere al respecto?
24.- Explique ¿Cuáles son los principales obstáculos que presenta la planificación del recurso humano (personal docente) del área de postgrado?, además  ¿qué sugiere al respecto?
25.-Evalúe cuáles son los principales obstáculos que afronta el Área de Postgrado de la UNEFA?, además,  ¿qué sugiere al respecto?
26.-Evalúe el pensum actual  de la MAESTRIA y qué sugerencia al respeto señala en pro de su mejoramiento. Justifíquelo
27.- ¿Evalúe los principales obstáculos, misión y visión del Programa de la maestría, además?,  ¿qué sugiere al respecto?
28.- Evalúe la eficiencia y calidad del servicio al estudiante de parte del departamento de Post Grado. ¿Qué sugiere además  al respecto?
29.- De ser el DECANO, ¿cuáles serían sus acciones a seguir en pro de la UNEFA y por qué? Fundaméntelo
30.-  De acuerdo a su criterio y de sus compañeros, evalúe las materias electivas  menos significativas en el actual pensum y proponga las que considera deben ser determinantes en la formación del futuro gerente de Mantenimiento y destaqué su  por qué.
31.- A su criterio evalúe la actual gestión de la UNEFA con respecto a la Comunidad de Puerto Cabello, destacando sus errores y proponiendo soluciones.
32.- Analice las causas determinantes en el estado de deterioro de las instalaciones  de la salud  en Venezuela.  ¿Qué sugiere a propósito?
33.-Evalúe por lo menos dos problemas de contaminación de empresas venezolanas para su entorno. ¿Qué propone al respecto?
34.-A su criterio ¿cuál debe ser el rol del estado y de la Universidad con respecto a la contaminación ambiental? Fundaméntelo.
35.- ¿Cuál es su opinión con respecto al comportamiento del consumidor venezolano? ¿Qué sugerencias le haría a la gerencia de mercados para educar a su consumidor y garantizarle sus derechos?
36.- ¿Cuáles ha su criterio son las causas del incremento de la economía  informal? ¿Qué sugerencias propone para detenerla, o para sacarle ventaja?
37.- ¿Cuáles ha su criterio considera son los principales problemas administrativos que afronta la gerencia venezolana?, analice por lo menos dos y qué propone al respecto.
38.- ¿Cuál considera debe ser el rol del nuevo gerente de MANTENIMIENTO para la empresa venezolana? Fundaméntelo