Buscar
Cerrar este cuadro de búsqueda.

Román Orús (Multiverse Computing): “La IA generativa actual empieza a quedar prehistórica”

román orús

En su conversación con Innovaspain, Orús se ratifica en la que podemos definir como la frase más provocadora escuchada sobre el escenario del último encuentro de AMETIC en Santander. Con permiso de la llamada de la exministra Ana Palacio a volver al hard power en Europa y a modelizar una posible guerra con Rusia. Profesor en el DIPC de San Sebstián, Director Científico Multiverse Computing, premio Future Unicorn 2024 de Digital Europe, el físico español se ha propuesto ayudar a crear una IA generativa sostenible desde el punto de vista energético utilizando sus algoritmos de inspiración cuántica.

Pregunta: En un tiempo en el que nos preguntamos como país cómo captar y retener talento, eres una de las pocas personas del sector tecnológico español que puede decir que profesionales de otros países llaman a la puerta de Multiverse Computing porque quieren trabajar contigo.

Respuesta: No hemos tenido problemas en captación de talento, más bien al revés, estamos aceptando un uno por ciento o incluso menos de los currículums que nos llegan. Estamos en San Sebastián, pero tenemos gente de todas las partes del mundo. La gente viene a Multiverse principalmente por el proyecto, porque ven la capacidad de innovar. Como yo procedía del mundo académico y ya tenía un track y es cierto que ha podido venir gente que quería trabajar directamente conmigo. Eso también ayuda, claro. Cuando tienes tirón y además un buen proyecto, la gente quiere estar contigo.

Pregunta: Os habéis especializado recientemente en mejorar la eficiencia de los modelos de lenguaje extenso (LLM), base de la inteligencia artificial (IA) generativa. ¿Qué estáis viendo en el desarrollo de esta tecnología?

Respuesta: Lo que estamos viendo es que tiene un tirón tremendo. Trabajamos en muchas cosas, pero la IA y los modelos de lenguaje se venden solos, casi no hay que explicarlo a la gente. Hemos desarrollado un compresor de IA y lo estamos aplicando a los LLM. Se puede comprimir en torno a un 96-97% manteniendo casi toda la precisión, es algo muy innovador.

Nos hemos especializado en hacer entender a los clientes para qué pueden utilizar tecnologías cuánticas hoy en día y obtener un valor, pero en el caso de los modelos de lenguaje no hay que explicar nada, nos vienen ya directamente con casos de uso. También estamos viendo mucho tirón financiero. Si a todas estas predicciones de Mckinsey sobre cuánto va a crecer el mercado de IA en los próximos años se añade la cuántica, el incremento es todavía mayor. De rebote, nos está beneficiando.

"En la naturaleza, la inteligencia no funciona así. Para enseñarle a hablar a tu hijo no gastas 100 millones de euros en la factura de la luz"

Pregunta: Bernardino Romera, jefe de proyecto en DeepMind, me decía que estamos tratando explorar nuevos territorios y evolucionar la tecnología, sin que todavía hayamos aprovechado la que ya hay disponible.

Respuesta: La tecnología que ya tenemos todavía se puede explotar mucho más. Hemos empezado a ver la punta del iceberg. La IA generativa empezó a explotar en 2022, no hemos hecho más que empezar a ver y atisbar qué se puede llegar a hacer, el rango de aplicaciones posibles, por eso muchísimas empresas están buscando desarrollar más modelos. Lo que estamos viendo, en particular los que venimos de tecnologías cuánticas, es que estos modelos obviamente son muy ineficientes.

En la naturaleza, la inteligencia no funciona así, para enseñarle a hablar a tu hijo no gastas 100 millones de euros en la factura de la luz. Hay cosas que se nos escapan. La gente que viene de computer science y machine learning tiene algunas ideas, y los que vienen de física y tecnologías cuánticas tienen otras. Va a nacer una nueva generación de métodos y algoritmos, porque el ChatGPT4 es casi lo máximo que podemos hacer sin gastar una barbaridad de energía.

La mejora de la eficiencia de los centros de datos donde se entrena de la IA tiene que venir por el lado del software y del hardware, como el espectacular chip fotónico de iPronics, pero todo indica que será el software el que marque la diferencia.

Lo que nosotros hagamos es compatible con lo que hagan otros. Si podemos concatenar el 80% de consumo energético que pueden reducir los procesadores fotónicos con el 90 y pico por ciento que podemos conseguir desde el punto de vista del software, todavía habrá más eficiencia.

Los proveedores de hardware para ordenadores cuánticos en España son unos grandes desconocidos ¿Cómo anda de salud el ecosistema?

En España, hay mucha conexión entre la gente que la gente del software y del hardware. Somos muy conscientes de las distintas iniciativas que hay, como el desarrollo de un procesador cuántico en el BSC (Barcelona SuperComputing Center) y los proyectos regionales: el País Vasco tiene un acuerdo con IBM para instalar un ordenador cuántico a finales de este año y en Galicia también han comprado un ordenador cuántico para el centro de supercomputación…

Cómo prepararse para la tecnologías cuánticas

Interesante esto, ¿qué opinas de la carrera de las comunidades autónomas por tener un ordenador cuántico? Madrid y Andalucía anuncian también los suyos propios.

Como investigador y emprendedor a mí ya me va bien que haya muchos ordenadores cuánticos, esto genera atracción de talento. Es cierto que se puede pensar para qué queremos cuatro o cinco ordenadores cuánticos distintos en España. Sería peor que no hubiera ninguno. El hecho de que en el País Vasco se quiera ubicar uno de IBM está provocando que, a su alrededor, se esté generando un ecosistema de tecnologías cuánticas e IA muy potente. Está viniendo gente solo porque se va a poner ahí esa máquina, las empresas están empezando a mirar esto con otros ojos.

¿Cómo es la relación de Multiverse con ese ecosistema?

Somos partners de todos los proveedores de hardware cuántico. Es verdad que últimamente estamos hablando mucho con IBM por el tema de proximidad al País Vasco, pero también nos llevamos muy bien con Pasqal, con Qilimanjaro en Barcelona, con D-Wave en Canadá… dependiendo del problema a solucionar, sabemos que funciona mejor con un hardware o con otro, de modo que nos conviene llevarnos bien con todos.

Hay una cierta psicosis en el mercado ante el riesgo de que los datos y algoritmos se vean afectados por la llegada de la supremacía cuántica. ¿Está justificada?

La pregunta no es si las tecnologías cuánticas van a llegar o no, porque van a llegar seguro. La pregunta es si vas a estar preparado para cuando eso suceda. Una empresa no puede esperar a que tengamos ya un ordenador cuántico completamente funcional, sin errores, para ponerse a ello. Es un cambio de paradigma, se tiene que aprender desde cero, y no vale ver un par de vídeos de Youtube.

Empezamos a tener los primeros procesadores, que son ruidosos, etcétera, pero en un plazo de 5 o 10 años van a evolucionar mucho, incluso el hardware, y se va a liquidar la supremacía cuántica. Para entonces, las empresas tienen que estar ya dentro y eso implica meterse ahora, porque empieza a ser factible aprender cómo funciona. Las empresas tienen que crear sus propios grupos en computación cuántica e IA para identificar qué casos de uso son susceptibles de mejora de eficiencia y explorar ya la aplicación de estas tecnologías.

Definir nuevos protocolos de ciberseguridad

¿Bastará colocar una capa de cuántica y ya está o implica algo más?

Habrá cosas que se mantendrán, por supuesto, pero otras habrá que rehacerlas por completo. Por ejemplo, todo el tema de la ciberseguridad. Ahora mismo se están cambiando los protocolos de los algoritmos de cifrado para cuando haya un ordenador cuántico. Y, pese a todo, estos protocolos que se están implementando ahora tampoco son 100% fiables. Seguro que mañana a alguien se le ocurre un algoritmo cuántico para hackear ese protocolo. Pero hay que hacerlo porque hay otro factor: si tu competidor está metido en tecnologías cuánticas y es capaz de aprovecharlo, tiene una ventaja y eso puede condenarte a ser irrelevante.

¿Lo que está escrito en cobol en el mainframe tampoco se salva?

Habrá que protegerlo, claro.

Pero si eso no lo ha tocado nadie en décadas.

Una vez que haya un ordenador cuántico funcional, la única forma de salir de ahí es con otros tipos de cifrado, incluso utilizando criptografía cuántica.

En el Encuentro de AMETIC en Santander utilizaste una expresión lapidaria realmente provocadora. Dijiste que la IA generativa es ya “prehistoria”. ¿Te ratificas o fue un desliz?

Es prehistórica, sí. Lo dije con toda la intención. Me ratifico, por supuesto. Estamos trabajando ya en la siguiente generación de algoritmos. Es prehistórica porque ahora tenemos chat GPT4, pero no sé cuánto consumo energético va a necesitar GPT5 en entrenamiento. La demanda crece a un nivel exponencial.

Un reto crucial: la calidad del dato

¿Esa nueva generación de algoritmos seguirá basándose en transformers?

Sí, pero hace falta que los transformers mejoren en eficiencia. Hemos identificado muchos cuellos de botella matemáticos que precisamente se pueden solucionar con tecnologías y herramientas matemáticas, como las que utilizamos en computación cuántica. Por eso hemos podido acelerar todos estos algoritmos y los hemos podido comprimir. Me ratifico cuando digo que la IA generativa, los transformers, etcétera, funcionan muy bien, pero están empezando a quedar prehistóricos.

Los creadores de dispositivos autónomos y robots, especialmente para la industria 4.0, andan preocupados por la cuestión del entrenamiento de modelos de IA a partir de imágenes, porque escasean las de calidad. El gran desafío de futuro es integrar la IA generativa en el mundo físico. ¿Cómo participa Multiverse en ello?

Es cierto que el tema del dato y de las imágenes es un problema, porque tu modelo es tan bueno como los datos que hayas usado para entrenarlo. Puedes crear datos sintéticos, pero si solo utilizas datos sintéticos, la calidad de la solución se degrada. Este es un aspecto que sí habrá que ver. Por otra parte, ha habido una pelea tremenda por las bases de datos con las que se han entrenado estos modelos de código abierto. Las empresas que los han creado no los revelan y eso es también un problema.