| Artículos | 01 ENE 1999

Informática cuántica

Tags: Histórico
Eloy Anguiano.

Donde quiera que miremos nos encontramos con ordenadores, ordenadores que controlan electrodomésticos, ordenadores que controlan las comunicaciones, ordenadores en los que se almacena nuestro dinero, en fin, ordenadores para todo .

Pero todos estos ordenadores, sin excepción, utilizan la simple y sencilla lógica de Boole que está directamente relacionada con la matemática binaria . Así mismo su modo de funcionamiento está basado en la teoría de Turing ( ver artículo de la sección perspectiva del mes pasado ) .

Es más, cualquier ordenador actual, incluso los complejos ordenadores de procesamiento paralelo son sólo implementaciones más y más eficaces de las teorías de Turing pero que básicamente funcionan de igual forma: procesando pequeños paquetes de datos que entran en la unidad de procesamiento y que salen de ella una vez realizada la tarea solicitada . Estos paquetes de datos pueden ser datos o instrucciones de ejecución que determinan la operación a realizar con estos datos .

Hasta hace poco parecía que no existía nada nuevo sobre los ordenadores salvo mejoras tecnológicas que consiguen hacer que los computadores sean cada día más potentes . Sin embargo, en los últimos años han surgido dos nuevas líneas de investigación que han traído nuevos y frescos aires al mundo de la computación .

La primera línea de investigación que, además, parece ser la de menos futuro es la línea de investigación basada en elementos de computación biológicos o de origen biológico . Los estudios en computación biológica ha utilizando grandes moléculas biológicas o enzimas como elementos computacionales . Con ellos han conseguido diseñar elementos simples como pueden ser los sistemas de memoria o registros de desplazamiento de bits . Sin embargo, esta línea de investigación no parece prometer ningún resultado verdaderamente positivo a medio plazo . Aún así, es arriesgado hacer apuestas sobre su futuro a largo plazo puesto que el estado de la técnica es absolutamente incipiente .

La segunda línea de investigación es a la que está dedicada este artículo . En las próximas líneas voy a intentar esbozar cómo funcionan estos ordenadores y cuál es su futuro .

La computación quántica

La computación quántica parece tener un futuro un poco más prometedor que la biológica, sobre todo por los beneficios computacionales que podría conllevar .

Un ordenador tradicional de ocho bits sólo puede estar en un estado entre los 256 posibles . Por el contrario, un ordenador quántico estaría en los 256 estados simultáneamente y, por tanto, operar simultáneamente con los 256 estados posibles . Es esto a lo que podríamos denominar: paralelismo quántico . Es esta capacidad de procesamiento múltiple la que permite augurar un prometedor futuro a estos ordenadores . La capacidad de cálculo se hace impresionante cuando en lugar de 8 bits hablamos de, por ejemplo, 64 bits . Un ordenador cuántico de 64 bits es capaz de realizar varios trillones de operaciones simultáneamente .

Sé que esta idea puede resultarles sorprendente a la mayoría de ustedes y sobre todo muy poco ( o nada ) intuitiva . ¿ Cómo es posible que algo tome simultáneamente todos los valores que puede tener ? . ¿ Cómo puede valer algo real 0 y 1 al mismo tiempo ? Esto es debido a que estos elementos operan a escalas en las que el sentido común ( la experiencia personal ) deja de funcionar . Esta escala es la escala nanoscópica . Es decir, este tipo de comportamientos es claro sólo para partículas pequeñas de unos pocos átomos o incluso subatómicas .

Teoría quántica

Para comprender un poco cómo funcionan los ordenadores quánticos es importante recordar algo de la teoría quántica en la que se sustentan y de cómo se comportan las partículas de pequeño tamaño .

Simplificando mucho la situación cualquier partícula es realmente una onda de probabilidad . Por así decirlo, la partícula ocupa todo el universo que le es accesible en todos los estados que le son accesibles al mismo tiempo con la probabilidad que determina su función de onda . Sin embargo, cuando medimos su estado, estas partículas están en uno sólo de ellos . Esto es debido a que cuando se produce una interacción, la onda colapsa a una de las realidades posibles con una probabilidad determinada .

Esta situación es como si usted estuviese al mismo tiempo en el salón, la cocina y el cuarto de baño . Usted estaría al mismo tiempo en todas las habitaciones hasta que alguien preguntase dónde está . Es más, la situación para cualquier objeto, incluso usted y yo, es esa . Sin embargo, para objetos tan masivos, todas las posibles realidades salvo una tienen una probabilidad básicamente nula . La que no tiene una probabilidad nula es, por supuesto, la realidad que acostumbramos a percibir .

Bits y qubits

Una de las primeras tareas es definir los elementos básicos de información con los que se va a operar . Mientras que un ordenador normal utiliza dígitos binarios ( bits ) y pueden tomar el valor 0 o el valor 1; un ordenador quántico usaría qubits cuyo valor es simultáneamente 0 y 1 . Sin embargo, por su propia naturaleza, los qubits son extremadamente difíciles de generar . Esta dificultad proviene de que cualquier tipo de perturbación ( luz, sonido, interacciones con átomos o moléculas, con campos eléctricos o magnéticos o de cualquier otro tipo ) haría que los qubits colapsasen en un sólo estado y, por tanto, la computación sería simple y sencillamente digital .

Una de las grandes dificultades de este tipo de computación es mantener sus elementos básicos de cálculo alejados de cualquier tipo de perturbación que los haga desaparecer y convertirse en bits normales . De esta forma, buena parte de la investigación se encuentra encaminada en esa dirección .

Un poco de historia

Aunque la historia es reciente, muy reciente, ya tiene los suficientes años como para hacer una pequeña reseña histórica sobre sus inicios y desarrollo hasta la actualidad .

La primera aplicación de la teoría quántica a la computación fue propuesta por Paul Benioff del Argonne National Laboratory en 1981 . Posteriormente, en 1985, David Deutsch de la universidad de Oxford propuso de forma teórica la posibilidad de la creación de computadores quánticos de procesamiento paralelo masivo .

Según las hipótesis teóricas propuestas por Deutsch, una computadora con 100 partículas podría realizar 2100 operaciones simultáneamente . Esta enorme capacidad de ?digestión? de números conocida como ?paralelismo masivo? hace a estos ordenadores ideales para algunas tareas, entre ellas la de la factorización de grandes números . Hace pocos años, P . W . Shor de los AT&T Bell Labs presentaron un algoritmo en el que mostraban exactamente el cómo llevaría a cabo esta tarea un ordenador quántico . Otra gran posibilidad de estos sistemas de computación es la de simulación de sistemas de elevada complejidad de cálculo .

Sin embargo, estas tareas están demasiado lejos de ser situaciones útiles y tangibles que tengan algún tipo de aplicación o utilidad . Sin este tipo de aplicaciones más terrenales sería difícil obtener la suficiente financiación para su estudio .

En mayo de este año L . K . Gover, también de los laboratorios Bell, presentó un sistema por el cuál un ordenador quántico sería capaz de buscar en una base de datos a altísima velocidad operando simultáneamente sobre la base de datos al completo para obtener el elemento buscando . Esta capacidad de búsqueda puede ser aplicada a la desencriptación de códigos de mensajes cifrados . Sin embargo, todos aquellos que dependan de la transmisión de datos secretos y cifrados pueden estar tranquilos .

Actualmente es imposib

Contenidos recomendados...

Comentar
Para comentar, es necesario iniciar sesión
Se muestran 0 comentarios
X

Uso de cookies

Esta web utiliza cookies técnicas, de personalización y análisis, propias y de terceros, para facilitarle la navegación de forma anónima y analizar estadísticas del uso de la web. Consideramos que si continúa navegando, acepta su uso. Obtener más información