2 de junio de 2009

La Computación Cuántica: ¿un nuevo paradigma?


El proceso de miniaturización de la electrónica parece estar llegando a su fin. Se están ya alcanzando tamaños tan diminutos que muy pronto se accederá al nivel de las moléculas y átomos individuales, y cuando se cruce esa frontera se ingresará a los dominios de la Mecánica Cuántica, un lugar en el cual operan leyes físicas muy distintas a las que rigen en la vida cotidiana.

Por Hugo Jara Goldenberg

Este artículo fue publicado en la revista de ciencia ficción y divulgación científica
TauZero Ver artículo aquí

Hay consenso en que lo que mejor caracteriza al mundo moderno, es el uso intensivo y masivo de la tecnología. Es tan amplia su penetración en la sociedad, que es difícil encontrar algún ámbito del quehacer humano en que se prescinda de ella, y entre los usuarios se genera un nivel de dependencia tal, que para muchos puede resultar inimaginable la existencia, si se ven privados de algunos de los tantos artilugios que nos acompañan en la vida cotidiana. Por otra parte, esta tecnología avanza a un ritmo tan vertiginoso, que nadie deja de sorprenderse -ni siquiera los especialistas- de la velocidad embriagadora con que se superan las prestaciones de toda variedad de aparatos y dispositivos (ya es una constante que lo ayer nos deslumbraba con su modernidad, mañana será abandonado por obsoleto).

Pero de todas las tecnologías, son aquellas asociadas a la electrónica (en especial la computación, informática y comunicaciones) las que avanzan más rápido. Incluso en el año 1965 se enunció una máxima que por mucho tiempo ha regido el desarrollo de la industria informática. Es la llamada Ley de Moore, que señala que cada 18 meses las capacidades se duplican y los precios disminuyen a la mitad, esto debido a que los componentes electrónicos se tornan cada vez más pequeños y rápidos. Todos podemos dar fe del cumplimiento inexorable, hasta ahora, de esta famosa Ley de la tecnología.

La clave que explica el incremento sostenido en las capacidades de los equipos electrónicos, ha sido la miniaturización, es decir al proceso tecnológico que permite reducir significativamente el tamaño de los componentes, y aumentar su rendimiento. Los primeros computadores, fabricados con tubos de vacío, ocupaban varias habitaciones, posteriormente con la invención de los transistores, los tamaños se redujeron de manera importante. Pero es con la llegada de los circuitos integrados, que realmente comienza la Era de la miniaturización. Actualmente se fabrican “chips” que son capaces de almacenar varios miles de millones de transistores en un pequeño elemento que se puede sostener en la punta de un dedo. Con la moderna tecnología, un microprocesador incrustado en cualquiera de los muchos artefactos de uso cotidiano (teléfonos celulares, electrodomésticos, tarjetas inteligentes, etc.) resulta ser miles de veces más poderoso que cualquiera de aquellos primeros computadores, que pesaban toneladas y ocupaban varios pisos de un edificio.

En los límites de la miniaturización

En estos momentos (2009) la miniaturización está llegando al nivel de fabricar componentes de tamaño del orden de 45 nm (un nanómetro –nm- es la mil millonésima parte de un metro), y ya una conocida empresa de la industria de los microprocesadores ha anunciado el lanzamiento de un “chips” de 32 nm que contendrá 1.900 millones de transistores. Pero pronto ya no será posible continuar con esta reducción, ya que a esas diminutas escalas, se estará a un paso de alcanzar el tamaño de las moléculas y átomos individuales.

Anticipándose al fin de la miniaturización de la electrónica tradicional (que se estima ocurrirá dentro de pocos años), diferentes equipos de investigadores están ya explorando nuevos escenarios. Una de las líneas de desarrollo es la construcción de transistores del tamaño de moléculas individuales (nanotecnología). Ya están en fase de diseño experimental algunos microprocesadores basados en la llamada electrónica molecular, y también se está trabajando con transistores construidos con moléculas orgánicas, las que funcionando químicamente, emulan el comportamiento de los organismos vivos.

Las proyecciones de estas tecnologías son insospechadas, no sólo porque pueden constituir el futuro de la industria de la computación y las comunicaciones, sino también por las aplicaciones que se puedan desarrollar en aspectos relacionados con la salud humana, tales como nuevos tipos de implantes inteligentes o procedimientos médicos que permitan la reparación molecular de tejidos aquejados por enfermedades. Aunque ya existen varios prototipos funcionando, se estima que estas tecnologías estarán disponibles en aplicaciones comerciales dentro de diez años.

Pero es importante destacar que las soluciones basadas en la electrónica molecular, en esencia operan de la misma forma que la electrónica tradicional, ya que su base de funcionamiento (tanto para la representación de la información como para el procesamiento de la misma) se basa en la aritmética y lógica binaria. Con el Sistema Binario se puede representar cualquier número o carácter por secuencias de bits (dígitos binarios), los que pueden tener el valor de “1” o “0”. En tanto que para el procesamiento de la información, se utilizan los circuitos lógicos, que son conjuntos de compuertas (transistores) que, dependiendo del paso, o no, de una cierta señal entregan como resultado un valor de “V” o “F” (verdadero o falso).

La computación cuántica

Sin embargo, hay quienes proponen una solución revolucionaria que consiste en llevar a la computación al territorio del átomo. Esto significa sobrepasar el umbral crítico, tras el cual la materia deja de obedecer a la física clásica y comienza a ser dominada por la Mecánica Cuántica, es decir por un conjunto de leyes especiales que describen el comportamiento de las partículas atómicas y subatómicas, cuyo movimiento e interacción es distinto al actuar de los objetos de nuestro mundo cotidiano. La Mecánica Cuántica es compleja, muy difícil de entender, y describe fenómenos que parecen desafiar al sentido común. Y en ese escenario, regido por leyes físicas exóticas y sorprendentes, las bases de funcionamiento de la electrónica y computación tradicional (basada en el sistema binario) dejan de tener sentido.

En particular, existen dos fenómenos cuánticos que se aplican directamente a este nuevo modelo de computación, se trata de la superposición de estados y el entrelazamiento. Ambos fenómenos nos muestran cuan extraño y perturbador es el comportamiento de la materia en la escala del microcosmos.

La superposición es la propiedad de una partícula subatómica, que le permite estar en más de un estado (o posición) al mismo tiempo. En superposición no podemos asegurar si cierta partícula está en una posición u otra (en realidad está en ambas al mismo tiempo). Se trata de un estado muy frágil, el cual colapsará en un valor determinado, en el momento en que interactuemos con dicha partícula (al observarla o medirla). El entrelazamiento, en tanto, es una propiedad que conecta o “amarra” a más de una partícula, de manera tal que el estado de cualquiera de ellas depende (instantáneamente) de la observación que se haga sobre la otra, sin importar la distancia que las separa.

Basándose en estas propiedades, a principios de los años 80 (del siglo pasado) fue propuesto el primer modelo teórico de computación cuántica. Pero a diferencia de la computación tradicional que representa a la información en término de secuencias de bits (dígitos binarios que pueden tener el valor de “0” o “1”), en este nuevo modelo se utiliza el qubit (quantum bit) que es un bit dotado de la propiedad cuántica de la superposición y que además se encuentra entrelazado con otros qubits. De este modo un qubit podrá almacenar al mismo tiempo los valores de “0” y “1”. Y en el caso de tener dos qubits se podrán almacenar en paralelo los valores “0,0”, “0,1”, “1,0” y “1,1”. Lo relevante, y aunque cueste asimilarlo, es que todos esos valores se almacenan ¡simultáneamente!

Con respecto a las compuertas lógicas, aunque su funcionamiento es similar al modelo tradicional, la gran diferencia radica en que estos nuevos circuitos deben ser capaces de asegurar la persistencia del estado de superposición de los qubits que participan de las operaciones lógicas, y permitir que esa superposición colapse de manera controlada, en un valor específico, y en el momento preciso. Demás está decir que se trata de una funcionalidad muy difícil de lograr, pero se están experimentando novedosas tecnologías a fin de dar con la mejor solución.

A la luz de estas especiales propiedades cuánticas, es fácil percibir las potencialidades del nuevo modelo computacional. En primer lugar, la capacidad de almacenamiento será significativamente mayor que en los sistemas tradicionales, ya que con una sola palabra computacional compuestas por “nqubits, se podrán almacenar 2**n valores simultáneamente. Del mismo modo, gracias a la superposición y al entrelazamiento, el procesamiento será “naturalmente” en paralelo, con lo cual los tiempos de proceso se reducirán drásticamente. En teoría, problemas que potencialmente demorarían años en resolverse con la actual tecnología, al modelo cuántico sólo le tomaría segundos en encontrar la solución.

Pero las novedades no se circunscriben sólo al ámbito de la arquitectura computacional, también se aplican a la programación. En la computación tradicional, las instrucciones deben indicar, en forma lineal (secuencial), todas las posibles alternativas a analizar, y dependiendo de los datos o condiciones presentes, se llega a la solución por un camino específico Pero los algoritmos cuánticos requieren pensar en términos de superposición, es decir, se debe escribir un programa considerando todas los posibles alternativas de solución al mismo tiempo. Ya se han desarrollado varios algoritmos cuánticos experimentales, creados para resolver problemas difíciles de abordar por la computación tradicional, como casos de factorización (los tiempos de proceso se incrementan exponencialmente a medida que crecen los números a manipular), búsquedas masivas de datos (en grandes bases de datos) y criptografía (búsqueda de mecanismos que aseguren la inviolabilidad de los datos transmitidos por las redes de comunicación).

Desarrollo actual

Los orígenes teóricos de la computación cuántica son relativamente recientes. En el año 1981 Paul Benioff habló por primera vez sobre las posibilidades de la computación cuántica. Al año siguiente, el científico, y ganador del Premio Nobel de Física, Richard Feynman sugirió aprovechar algunas propiedades cuánticas para realizar cálculos computacionales. Posteriormente, en el año 1985, el físico David Deutsch describió el modelo de un computador cuántico Universal.

Con esta base teórica, diferentes grupos científicos, comenzaron a explorar las posibilidades de esta exótica tecnología. Así, en el año 1993, investigadores de IBM lograron efectuar la primera teleportación cuántica (aplicación práctica del efecto de entrelazamiento). En forma simultánea se comienzan a experimentar con la superposición y a desarrollar algoritmos cuánticos. Ya para 1998 se presentan los primeros computadores de 1 Qubit y 2 Qubit.

El progreso ha continuado ininterrumpido. En el 2005 se dio a conocer una máquina de 8 Qubits y para el 2007 la empresa canadiense D-Wave presentó uno de 16 Qubits. Al mismo tiempo se han ido desarrollando elementos complementarios, tales como medios de almacenamiento, buses de comunicación, etc. Pero es necesario dejar en claro que todas estas tecnologías son todavía experimentales, y falta aún mucho tiempo para que sean producidas comercialmente.

Expectativas

Según muchos, el futuro de la informática está en las tecnologías cuánticas, ya que en ese escenario las capacidades, tanto de procesamiento como de almacenamiento, de los computadores se multiplicarán exponencialmente, y por lo tanto se podrán resolver muchos problemas que no ha sido posible abordar con la actual tecnología.

Pero también existe una corriente de opinión, no tan optimista, que no cree en las (casí) ilimitadas posibilidades que con tanto entusiasmo se publicitan en muchos medios. El profesor Scott Aaronson (del MIT) escribió un interesante artículo al respecto, titulado “Limitaciones de la computación cuántica”, en donde explica muy bien las verdaderas, según él, potencialidades de este modelo.

¿Cuál será entonces el futuro de la computación? Se trata de una pregunta difícil de responder, pero lo más probable es que coexistirán muchas tecnologías, respondiendo cada una de ellas a necesidades muy específicas, y seguramente también se implementarán arquitecturas híbridas.

Por una parte, la computación tradicional continuará existiendo. Aunque la miniaturización haya alcanzado su límite, se recurrirá (ya se está haciendo) a desarrollos basados en la disposición de múltiples procesadores en un mismo equipo, también a potenciar los procesadores con arquitecturas de múltiples núcleos y seguramente a muchas otras soluciones que iremos conociendo en los años venideros. Por todo el camino recorrido, y también por las impresionantes capacidades que ha alcanzado, se prevé que la electrónica digital seguirá siendo, por razones de costo y eficiencia, la tecnología de uso masivo por mucho tiempo más.

En lo que respecta a la computación basada en la electrónica molecular, es predecible que tendrá una amplia aplicación en la biónica. Con el desarrollo de la ingeniería genética y el mejor conocimiento del funcionamiento del cuerpo humano, es inevitable el surgimiento de tecnologías que apunten, ya no sólo a corregir enfermedades o lesiones, sino a construir órganos o sistemas artificiales que potencien muchas de nuestras funciones orgánicas, y quizá también intelectuales. Esto, que para muchos pueda parecer ciencia ficción y que para otros resulte perturbador, en poco tiempo más será una realidad cotidiana. Y para estas futuristas tecnologías, el medio natural de implementación será con pequeños computadores orgánicos (ya existe la computación basada en ADN).

Y por último, la computación cuántica también tendrá su nicho de aplicación, y éste será un conjunto (no menor) de problemas que jamás podrán ser eficientemente resueltos por la computación basada en la electrónica digital. Esto ocurre porque la base matemática de la ciencia de computación tradicional (conocida como matemática discreta), impone serias limitaciones a la potencialidad de las máquinas, al obligarlas a trabajar con estructuras finitas y numerables (sólo con números naturales y representables como “1” y “0”). En circunstancia que lo que generalmente pedimos al computador es que recree virtualmente (mediante el software) aspectos del mundo real, los cuales, en su gran mayoría, obedecen a la matemática del continuo (universo de números reales, infinitos e innumerables). Para resolver este impasse recurrimos al cálculo numérico, disciplina que nos provee de métodos para transformar las complejas ecuaciones que representan a los fenómenos físicos del continuo, en series finitas de operaciones aritméticas básicas, las cuales pueden ser fácilmente resueltas por el computador. Pero esa transformación, del “continuo” al “discreto” (cuando es posible), nos entrega como resultado sólo una aproximación a la solución verdadera.

Y es aquí donde la computación cuántica surge como un nuevo modelo que permitirá liberarse de las amarras de la lógica binaria, y enfrentar con propiedad el desafío que significa la solución de problemas muy específicos que, por su naturaleza (gran complejidad, comportamiento caótico, inmensos volúmenes de datos, etc.), no han podido ser abordados adecuadamente por la computación tradicional. Como ejemplo, basta mencionar a la Inteligencia Artificial. Cuando ésta surgió como disciplina, a mediados del siglo pasado, generó muchas expectativas, la mayoría de las cuales no se han cumplido. Se esperaba que en los inicios del siglo XXI ya habrían máquinas pensantes (en el amplio sentido de la palabra), sin embargo a pesar de todos los progresos logrados, estamos tan lejos, como al principio, de alcanzar ese objetivo. Después de todo se trata de un desafío mayor, emular el funcionamiento de uno de los órganos más complejos a que ha dado lugar la Evolución: El cerebro y la mente humana. Quizá si con este nuevo paradigma computacional sea posible, finalmente, llegar a esa anhelada meta, y también a muchas otras.

2 comentarios:

Jessica dijo...

Muy interesante el artículo. Aunque para muchos nos resulte difícil la comprensión del mundo informático, hay una realidad que se manifiesta y evoluciona. Así ha pasado en la ciencia cuando el punto de atención dejó de ser el objeto (como una partícula) y pasó al paradigma interpretativo (o de infinitas tendencias y posibilidades). Pero, tal como se expresa en este contexto, para avanzar hemos de trascender la dualidad, ir más allá de las identificaciones para nadar en el mar de la creación. No nos sirve, ver para creer, porque si creemos que otro mundo más avanzado es posible, sin duda seguiremos dando pasos, en "los hombros de gigantes". Gracias por tus valiosas aportaciones!

Unknown dijo...

A esto me refería...es dificil que la inteligencia artificial se desarrolle con el modelo de procesamiento (sistema binario) que se cuenta hoy en día.