Publicidad

¿Qué es la computación cuántica y por qué las ciencias y los negocios se apuntan a esta tendencia?

Compartir esta noticia
Chip de computación cuántica. (Foto: Shutterstock)

TECNOLOGÍA

El mundo de las computadoras con una capacidad exponencial para operar se superó sucesivas veces en los últimos tiempos; empresas e industrias buscan sacar provecho de una tecnología emergente

Chip de computación cuántica. (Foto: Shutterstock)
Chip de computación cuántica. (Foto: Shutterstock)

El debate sobre la agenda de futuro está, al igual que sucede con la economía o las decisiones de la vida cotidiana, repleto de sesgos. Uno muy habitual consiste en creer que el punto de explosión de una tecnología se da cuando esta equipara a los mejores humanos en eficiencia y calidad, cuando, en realidad, el derrame se produce a partir de resultados que son «lo suficientemente buenos» para la mayoría de la población.

Por ejemplo, las imágenes que toman los fotógrafos profesionales son mejores que las de quienes no se capacitaron, pero la difusión de cámaras de altísima resolución en celulares (una tecnología popularizada en los últimos años) hace que esta profesión haya ingresado en un replanteo total, porque se multiplicó por millones la disponibilidad de fotos tal vez no perfectas, pero «lo suficientemente buenas» para la mayor parte de los consumidores. Se debate si la inteligencia artificial (IA) podrá escribir como Borges o Hemmingway, pero pasamos por alto el hecho —disruptivo— de que los sistemas de lenguaje natural (como GPT-3 y otros) ya pueden escribir por nosotros la mayoría de los mails que mandamos a diario.

En el mundo de la cuántica aplicada a distintas tecnologías (y especialmente a la computación) se está dando una dinámica similar. Todos los titulares sobre este tema se los lleva la especulación sobre la «supremacía» cuántica: el momento en el cual los ordenadores de este tipo pueden solucionar un problema que todas las PC tradicionales del mundo no logran abordar, algo que ya ocurrió —primero con un proyecto de Google y luego en China—, aunque con desafíos que por ahora no tienen una aplicación práctica. La «supremacía» se asemeja al concepto de «ventaja amplia». La «ventaja estrecha», en cambio, es menos glamorosa y genera menos titulares: el momento en el cual «piezas de Lego» cuánticas se empiezan a insertar en procesos dominados por computación tradicional para hacerlos más eficientes. Y se vuelven «lo suficientemente buenas».

De teoría a realidad

Rebobinemos la historia por un par de párrafos: la computación cuántica fue anticipada en un famoso discurso del físico Richard Feynman a principios de los 80. En la computación tradicional, los bits pueden ser 1 o 0, pero en la cuántica los qbits pueden superponerse y adoptar muchos más valores, con lo cual la capacidad de cómputo —para algunos problemas— se multiplica exponencialmente.

Durante décadas, la predicción de Feynman fue solo teórica, porque la inestabilidad y el «ruido» de los sistemas de qbits los volvían un desafío de ingeniería casi imposible de resolver. Pero en 2021 llegaron muy buenas noticias por el lado del hardware, e incluso se anunciaron nuevas tecnologías que permiten estabilizar los qbits sin tener que ir a temperaturas extremas bajo cero, lo que elevaba el costo de estos ordenadores a decenas de millones de dólares.

La computación cuántica puede superponerse y adoptar muchos más valores que la convencional, con lo cual su capacidad de cómputo —para algunos problemas— se multiplica exponencialmente

El panorama cambió drásticamente en los últimos tres años, a tal punto que en este ambiente se habla de los «viejos tiempos» para referirse a... ¡2018!
Google logró la supremacía con una máquina de 54 qbits, y en noviembre IBM se anotó un nuevo récord, con una computadora cuántica («Eagle») de 127 qbits.

Google.
Google.

«Están pasando cosas increíbles porque muchas disciplinas, como la física, la geología y la biología, entre otras, se están volcando masivamente a las ciencias de datos» (que son el lenguaje tanto de la cuántica como de la IA), cuenta Facundo Sapienza, que hizo las carreras de Matemática y Física en Ciencias Exactas de la Universidad de Buenos Aires (UBA) en paralelo y que actualmente cursa su doctorado en Berkeley. Su tesis fue sobre cuántica y en EE.UU. trabaja en IA.

Primeros de la lista

Además de las mencionadas IBM y Google, en esta carrera están también
—con distintos abordajes— Intel, Microsoft, Honeywell y IonQ, la primera startup del rubro en hacer una oferta pública de acciones (OPI, por sus siglas en inglés) con un valor inicial de US$ 2.000 millones.

Se espera que pronto haga su OPI también la firma californiana Rigetti. Su CEO, Chad Rigetti, sostuvo en un reciente reportaje que en el entorno de los 100-200 qbits empezaremos a ver aplicaciones comerciales interesantes, y defendió el concepto de «ventaja angosta» como verdadera cota de disrupción. ¿Cuál será el primer sector en «enchufar» partes cuánticas a sus procesos computacionales? Rigetti cree que el de los derivados financieros. La industria farmacéutica sigue en la cola de entusiasmo.

Finanzas y pharma aparecen como dos sectores adelantados para incorporar tecnología cuántica a sus procesos computacionales

«Es importante remarcar el hecho de que se sigue estabilizando la tecnología y se sigue incrementando el rendimiento de los procesos cuánticos», cuenta Román Zambrano, chief technology officer (CTO) de IBM para Argentina y Uruguay. Si tiene que nombrar las áreas en las que cree que esta nueva tecnología será más impactante, cree que no hay que dejar de considerar «el rendimiento de algoritmos de machine learning para acelerar la explotación de datos y el desarrollo de modelo de inteligencia artificial; la posibilidad de recrear ciertos procesos que por su escala o complejidad son difíciles de representar en modelos tradicionales, y la criptografía y la seguridad».

Para Rigetti y otros expertos, el camino cuántico es «la liana» a la cual la computación va a pasarse para poder seguir sosteniendo la ley de Moore (crecimiento exponencial en la capacidad de cómputo) que apalancó la revolución digital en las últimas décadas. Esta vez el camino no pasará por seguir haciendo chips cada vez más diminutos, sino con un formato completamente distinto.

En la literatura de innovación se habla de las «tecnologías de propósito general» (TPG) para describir aquellas avenidas de avance que tienen impacto en todos (o casi todos) los sectores de la economía. Lo fueron la electricidad, el motor de combustión interna, la PC, Internet o la movilidad. En estos «años interesantes» hay varias TPG interactuando: la IA, la descentralización (Web3) o la biotecnología, que va más allá del negocio de la salud y tiene efectos sobre la energía, la alimentación, la infraestructura, etcétera.

La cuántica tal vez sea la TPG menos conocida, la más críptica y difícil de descifrar, pero no por ello la menos interesante.

La carrera de Google, China e IBM

Un hito de «supremacía» cuántica fue el que logró Google con su procesador Sycamore de 54 qbits. Según el gigante tecnológico su desarrollo fue capaz de realizar en 200 segundos una tarea que a las mejores supercomputadoras del mundo les llevaría 10.000 años completar.
Tras ese punto de inflexión hubo una demostración exitosa de 60 qbits por parte de la Universidad de Ciencias y Tecnología de China (USTC) en Hefei. Aquí el progreso no debe leerse en forma lineal: un ordenador de 200 qbits no es «el doble» de poderoso que uno de 100, sino más potente (y difícil de estabilizar) en varios órdenes de magnitud. IBM espera llegar a los 400 qbits a fin de año y a los 1.000 qbits en 2023.

¿Encontraste un error?

Reportar

Te puede interesar

Publicidad

Publicidad