Noticias sobre salud y tecnología en Colombia y el mundo

Encuentre todo sobre el panorama actual sobre salud y tecnología.

Los computadores cuánticos han sido promocionados durante mucho tiempo como máquinas increíblemente potentes que serán capaces de resolver problemas computacionales enormemente complejos mucho más rápido que cualquier ordenador que tengamos disponible hoy en día. Pero nadie puede ponerse de acuerdo sobre la mejor manera de hacerlos. ¿Quién ganará la carrera?

Las computadoras cuánticas superrápidas podrían acelerar el descubrimiento de nuevos medicamentos, descifrar los sistemas de seguridad criptográfica más complejos, diseñar nuevos materiales, modelar el cambio climático y sobrecargar la inteligencia artificial, dicen los científicos informáticos.

Pero actualmente no hay consenso sobre la mejor manera de hacerlos o de ponerlos a disposición del mercado masivo.

Físicos, ingenieros e informáticos de todo el mundo están intentando desarrollar cuatro tipos muy diferentes de ordenadores cuánticos, basados en partículas de luz, iones atrapados, qubits superconductores o centros de vacío de nitrógeno en diamantes.

Compañías como IBM, Google, Rigetti, Intel y Microsoft lideran actualmente la carga cuántica.

Cada método tiene sus ventajas y desventajas, pero el reto general es la fragilidad de la propia cuántica.

¿Qué es la computación cuántica?

En lugar de usar unos y ceros llamados bits, representando encendido o apagado, en secuencias largas como en la computación clásica, un bit cuántico -o qubit- utiliza las propiedades casi mágicas de las partículas subatómicas.

Los electrones o los fotones, por ejemplo, pueden estar en dos estados al mismo tiempo - un fenómeno llamado superposición. Como resultado, una computadora basada en qubit puede hacer muchos más cálculos mucho más rápido que una computadora convencional.

¿Cómo se construye la nueva generación de Internet?

"Si tienes una computadora de dos qubits y añades dos qubits, se convierte en una computadora de cuatro qubits. Pero no estás duplicando la potencia de la computadora, sino que la estás incrementando exponencialmente", explica Martin Giles, jefe de la oficina de San Francisco de la MIT Technology Review.

Los informáticos a veces describen este efecto de la computación cuántica como si fueran capaces de recorrer cada uno de los caminos de un laberinto muy complejo al mismo tiempo.

También le puede interesar: Google quiere decirle adiós a las URL’s

Los cúbitos también pueden influirse entre sí incluso cuando no están físicamente conectados, un proceso llamado "enredo". En términos informáticos, esto les da la capacidad de dar saltos lógicos que los ordenadores convencionales nunca podrían dar.

La búsqueda de la estabilidad

Pero las qubits son muy inestables y propensas a interferencias o "ruido" de otras fuentes de energía, lo que conduce a errores en los cálculos. Así que la carrera es para encontrar una manera de estabilizarlos para la producción en masa.

El gigante informático IBM cree firmemente que los "qubits superconductores transmon" son los más prometedores para la computación cuántica, y tienen tres prototipos de procesadores cuánticos a los que el público puede acceder en la nube.

"Hasta ahora, más de 94.000 personas han accedido a los ordenadores cuánticos de IBM en la nube. Han realizado más de cinco millones de experimentos y escrito 110 artículos", dice el Dr. Robert Sutor, vicepresidente de estrategia y ecosistema de computación cuántica de IBM Research.

"La gente está aprendiendo y experimentando... esperamos que en tres a cinco años seamos capaces de señalar un ejemplo específico, y decir que lo cuántico mejora significativamente todo lo que los ordenadores clásicos pueden hacer".

Pero el método de IBM requería que el ordenador cuántico se almacenara dentro de una gran nevera, donde los qubits se almacenan a temperaturas cercanas al cero absoluto para asegurar que permanezcan en sus estados útiles.

Esto significa que sería muy difícil de miniaturizar y, por lo tanto, muy caro.

"Parece probable que las qubits superconductoras estén entre las primeras tecnologías que permitan una computación cuántica útil", dice Joseph Fitzsimons, investigador principal del Centro de Tecnologías Cuánticas de la Universidad Nacional de Singapur.

"Sin embargo, mi impresión es que son análogos a los tubos de vacío de los primeros ordenadores, en lugar de los transistores que aparecieron más tarde.

"Quizá veamos emerger otra tecnología que se convierta en la ganadora final."

Microsoft y los académicos del Instituto Niels Bohr de Copenhague están trabajando en lo que creen que serán qubits mucho más estables basados en las llamadas partículas Majorana.

Mientras otros equipos trabajan en la captura de qubits en silicio, se han fabricado con el material tradicional de los chips de ordenador.

Y los informáticos de la Universidad de Oxford están buscando formas de conectar ordenadores más pequeños en lugar de crear ordenadores más grandes con muchos qubits.

Hay muchas maneras de despellejar a Schrodinger's Cat, al parecer.

¿Potencial clásico?

Mientras esperamos los ordenadores cuánticos, ¿cuál es el futuro de la informática convencional o clásica?

En julio, Ewin Tang, de 18 años, graduado en ciencias de la computación y matemáticas de la Universidad de Texas en Austin, causó sensación en el mundo de la computación internacional al desarrollar un algoritmo informático clásico que puede resolver un problema casi tan rápido como una computadora cuántica.

El problema consistía en desarrollar un motor de recomendación que sugiriera productos a los usuarios en función de los datos sobre sus preferencias.

Y la UE anunció recientemente que está trabajando en la próxima generación de ordenadores -exascale- que permitiría realizar mil millones de cálculos por segundo.

"Exascale significa 10 a la potencia de 18 operaciones por segundo", explica el profesor Scott Aaronson, un teórico informático de la Universidad de Texas en Austin que fue mentor del Sr. Tang.

"10 a la potencia de 18 es grande, pero los sistemas cuánticos, que serán capaces de 10 a la potencia de 1.000 operaciones por segundo, es mucho, mucho más grande."

Y el problema de la informática clásica es que estamos llegando a los límites de cuántos transistores podemos colocar en un chip: por ejemplo, el A11 de Apple alcanza la asombrosa cifra de 4.300 millones.

La ley de Moore -que cada dos años, los microprocesadores obtendrán el doble de rápido, utilizarán la mitad de energía y ocuparán la mitad del espacio- finalmente se está rompiendo.

Salto cuántico

Incluso si un ordenador cuántico estable y producido en serie sigue siendo esquivo, la investigación ya está dando resultados interesantes.

"Si no hubiéramos invertido en computación cuántica, el algoritmo cuántico que inspiró al Sr. Tang no habría existido", dice el profesor Robert Young, investigador de la Royal Society y director del Centro de Tecnología Cuántica de la Universidad de Lancaster.

Una nueva forma de organizar componentes avanzados de computador llamados memristores en un chip podría allanar el camino para su uso en la informática general. Esto podría reducir el consumo de energía en un factor de 100.

El uso de memristores mejoraría el rendimiento en entornos de bajo consumo, como los teléfonos inteligentes, o haría más eficientes los superordenadores, dice Wei Lu, profesor de ingeniería eléctrica e informática de la Universidad de Michigan y cofundador de la empresa de arranque de memristores Crossbar Inc.

"Históricamente, la industria de los semiconductores ha mejorado el rendimiento haciendo que los dispositivos sean más rápidos. Pero, aunque los procesadores y las memorias son muy rápidos, no pueden ser eficientes porque tienen que esperar a que los datos entren y salgan", dice Lu.

Los Memristores podrían ser la respuesta. Nombrados como un portanteau de memoria y resistencia, pueden programarse para tener diferentes estados, lo que significa que almacenan información como niveles de resistencia. Estos elementos de circuito permiten la memoria y el procesamiento en el mismo dispositivo, lo que elimina el cuello de botella de la transferencia de datos que experimentan los computadores convencionales en los que la memoria está separada del procesador.

Sin embargo, a diferencia de los bits ordinarios, que son 1 o 0, los memristores pueden tener resistencias que están en un continuo. Algunas aplicaciones, como la informática que imita al cerebro (neuromórfica), aprovechan la naturaleza analógica de estos nuevos dispositivos.

También le puede interesar: ¿Por qué los computadores son tan malos comparando objetos? Conozca la respuesta

Para la computación ordinaria, sin embargo, tratar de diferenciar entre pequeñas variaciones en la corriente que pasa a través de un dispositivo de memristor no es lo suficientemente preciso para los cálculos numéricos.

Lu y sus colegas solucionaron este problema digitalizando las salidas de corriente, definiendo los rangos de corriente como valores de bits específicos (es decir, 0 o 1). El equipo también fue capaz de mapear grandes problemas matemáticos en bloques más pequeños dentro del arreglo, lo que mejoró la eficiencia y flexibilidad del sistema.

Los ordenadores con estos nuevos bloques, que los investigadores llaman "unidades de procesamiento de memoria", podrían ser particularmente útiles para implementar algoritmos de aprendizaje automático e inteligencia artificial. También son muy adecuados para tareas basadas en operaciones matriciales, como las simulaciones utilizadas para la predicción meteorológica. Las matrices matemáticas más simples, similares a las tablas con filas y columnas de números, pueden mapearse directamente en la cuadrícula de memristores.

Una vez que los memristores están configurados para representar los números, las operaciones que multiplican y suman las filas y columnas pueden realizarse simultáneamente, con un conjunto de pulsos de voltaje a lo largo de las filas. La corriente medida al final de cada columna contiene las respuestas.

Un procesador típico, en contraste, tendría que leer el valor de cada celda de la matriz, realizar la multiplicación y luego sumar cada columna en serie."Obtenemos la multiplicación y la suma en un solo paso. Se cuida a través de las leyes físicas. No necesitamos multiplicar y sumar manualmente en un procesador", dice Lu.

Su equipo optó por resolver ecuaciones diferenciales parciales como prueba para un arreglo de memristores de 32×32, que Lu imagina como un solo bloque de un sistema futuro. Estas ecuaciones, incluyendo las que están detrás del pronóstico del tiempo, apuntalan muchos problemas de la ciencia y la ingeniería, pero son muy difíciles de resolver. La dificultad viene de las formas complicadas y las múltiples variables necesarias para modelar los fenómenos físicos.

Cuando resolver ecuaciones diferenciales parciales es exactamente imposible, resolverlas aproximadamente puede requerir superordenadores. Estos problemas a menudo involucran matrices de datos muy grandes, por lo que el cuello de botella de comunicación entre memoria y procesador se resuelve perfectamente con una matriz de memristores. Las ecuaciones que el equipo de Lu utilizó en su demostración simularon un reactor de plasma, como los utilizados para la fabricación de circuitos integrados.

Una nueva investigación arroja luz sobre por qué los ordenadores son tan malos en una clase de tareas con las que ni siquiera los niños pequeños tienen problemas: determinar si dos objetos de una imagen son iguales o diferentes.

Los algoritmos de visión por computador han avanzado mucho en la última década. Estos desarrollos han demostrado ser tan buenos o mejores que la gente en tareas como categorizar razas de perros o gatos, y tienen la notable habilidad de identificar caras específicas de un mar de millones.

En un documento que presentaron la semana pasada en la reunión anual de la Sociedad de Ciencias Cognitivas, el equipo examina por qué los algoritmos de visión por computador fallan en las tareas de comparación y sugiere vías hacia sistemas más inteligentes.

Esto vs. aquello

"Hay mucho entusiasmo acerca de lo que la visión por computador ha sido capaz de lograr, y comparto mucho de eso", dice Thomas Serre, profesor asociado de ciencias cognitivas, lingüísticas y psicológicas en la Universidad de Brown y autor principal del documento. "Pero creemos que trabajando para entender las limitaciones de los sistemas de visión por computador actuales, como lo hemos hecho aquí, podemos realmente avanzar hacia nuevos sistemas mucho más avanzados en lugar de simplemente ajustar los sistemas que ya tenemos".

Para el estudio, Serre y sus colegas usaron algoritmos de visión computarizada de avanzada para analizar imágenes simples en blanco y negro que contenían dos o más formas generadas aleatoriamente. En algunos casos los objetos eran idénticos; a veces eran los mismos, pero con un objeto girado en relación con el otro; a veces los objetos eran completamente diferentes. Se le pidió a la computadora que identificara la misma o diferente relación.

El estudio mostró que, incluso después de cientos de miles de ejemplos de entrenamiento, los algoritmos no eran mejores que la oportunidad de reconocer la relación apropiada. La pregunta, entonces, era por qué estos sistemas son tan malos en esta tarea.

Serre y sus colegas sospecharon que tiene algo que ver con la incapacidad de estos algoritmos de visión por computador para individuar objetos. Cuando los equipos miran una imagen, en realidad no pueden saber dónde se detiene un objeto de la imagen y comienza el fondo u otro objeto. Sólo ven una colección de píxeles que tienen patrones similares a las colecciones de píxeles que han aprendido a asociar con ciertas etiquetas.

Esto funciona bien para problemas de identificación o categorización, pero se rompe al tratar de comparar dos objetos.

Uno a la vez

Para demostrar que esto era realmente la razón por la que los algoritmos se estaban rompiendo, Serre y su equipo realizaron experimentos que aliviaron al ordenador de tener que individuar objetos por sí mismo. En lugar de mostrarle al ordenador dos objetos en la misma imagen, los investigadores le mostraron los objetos uno a la vez en imágenes separadas.

Los experimentos mostraron que los algoritmos no tenían problemas para aprender relaciones iguales o diferentes siempre y cuando no tuvieran que ver los dos objetos en la misma imagen.

La fuente del problema en la individuación de objetos, dice Serre, es la arquitectura de los sistemas de aprendizaje automático que potencian los algoritmos.

Los algoritmos utilizan redes neuronales convolucionales: capas de unidades de procesamiento conectadas que imitan vagamente redes de neuronas en el cerebro. Una diferencia clave con respecto al cerebro es que las redes artificiales son exclusivamente "feed-forward", lo que significa que la información tiene un flujo unidireccional a través de las capas de la red. Así no es como funciona el sistema visual en los humanos, según Serre.

"Si observamos la anatomía de nuestro propio sistema visual, nos damos cuenta de que hay muchas conexiones recurrentes, en las que la información va de un área visual más alta a un área visual más baja y de vuelta a través de ella", dice Serre.

Aunque no está claro exactamente qué es lo que hacen esas retroalimentaciones, dice Serre, es probable que tengan algo que ver con nuestra capacidad para prestar atención a ciertas partes de nuestro campo visual y hacer representaciones mentales de objetos en nuestras mentes.

"Presumiblemente la gente atiende a un objeto, construyendo una representación de la característica que está ligada a ese objeto en su memoria de trabajo", dice Serre. "Luego cambian su atención a otro objeto. Cuando ambos objetos están representados en la memoria de trabajo, su sistema visual es capaz de hacer comparaciones como si fueran iguales o diferentes".

Serre y sus colegas plantean la hipótesis de que la razón por la que las computadoras no pueden hacer algo así es porque las redes neuronales de retroalimentación no permiten el tipo de procesamiento recurrente requerido para esta individuación y representación mental de los objetos. Podría ser, dice Serre, que para hacer más inteligente la visión por computador se necesitarán redes neuronales que se aproximen más a la naturaleza recurrente del procesamiento visual humano.

Los experimentos mostraron que los algoritmos no tenían problemas para aprender relaciones iguales o diferentes siempre y cuando no tuvieran que ver los dos objetos en la misma imagen.
La fuente del problema en la individuación de objetos, dice Serre, es la arquitectura de los sistemas de aprendizaje automático que potencian los algoritmos.

Los algoritmos utilizan redes neuronales convolucionales: capas de unidades de procesamiento conectadas que imitan vagamente redes de neuronas en el cerebro. Una diferencia clave con respecto al cerebro es que las redes artificiales son exclusivamente "feed-forward", lo que significa que la información tiene un flujo unidireccional a través de las capas de la red. Así no es como funciona el sistema visual en los humanos, según Serre.

"Si observamos la anatomía de nuestro propio sistema visual, nos damos cuenta de que hay muchas conexiones recurrentes, en las que la información va de un área visual más alta a un área visual más baja y de vuelta a través de ella", dice Serre.

Aunque no está claro exactamente qué es lo que hacen esas retroalimentaciones, dice Serre, es probable que tengan algo que ver con nuestra capacidad para prestar atención a ciertas partes de nuestro campo visual y hacer representaciones mentales de objetos en nuestras mentes.

"Presumiblemente la gente atiende a un objeto, construyendo una representación de la característica que está ligada a ese objeto en su memoria de trabajo", dice Serre. "Luego cambian su atención a otro objeto. Cuando ambos objetos están representados en la memoria de trabajo, su sistema visual es capaz de hacer comparaciones como si fueran iguales o diferentes".

Serre y sus colegas plantean la hipótesis de que la razón por la que las computadoras no pueden hacer algo así es porque las redes neuronales de retroalimentación no permiten el tipo de procesamiento recurrente requerido para esta individuación y representación mental de los objetos. Podría ser, dice Serre, que para hacer más inteligente la visión por computador se necesitarán redes neuronales que se aproximen más a la naturaleza recurrente del procesamiento visual humano.