"Los robots del futuro serán tan imperfectos como sus creadores"

Ramón López de Mántaras es uno de los pioneros de la inteligencia artificial en nuestro país y un destacado experto a nivel europeo. Doctor en física por la Universidad de Toulouse III y en informática por la Universidad Politécnica de Cataluña, destaca en investigación en creatividad computacional, especialmente en el ámbito de la música. Junto con su equipo fue precursor de la creación de programas capaces de añadir expresividad a interpretaciones musicales.

También ha trabajado en el razonamiento basado en casos y en lógica borrosa aplicada a la navegación de robots. Es investigador del CSIC desde 1985 y desde 2007 dirige el Instituto de Investigación en Inteligencia Artificial (IIIA).

Entre sus muchos reconocimientos, el año pasado recibió el galardón europeo más prestigioso en el ámbito de la inteligencia artificial, el Distinguished Service Award de la Asociación Europea para la Inteligencia Artificial, EurAI. El premio, que se concede cada dos años, es un reconocimiento a los investigadores que han hecho contribuciones excepcionales a la inteligencia artificial en Europa.

La semana pasada participó en la tercera edición de los Impact Innovation Talks, organizada por PWN Madrid y Telefónica Open Future  (TOF). Para López de la Mantara, “dotar a las máquinas de sentido común es uno de los grandes desafíos de la IA en los próximos años”. Según este experto, “hemos exagerado la capacidad del IA para resolver problemas. El mundo real es mucho más complejo que un juego de damas o de ajedrez. La IA ha tenido grandes éxitos. Pero allí donde se necesita el sentido común, la IA falla. A día de hoy la IA sigue requiriendo de mucha CIENCIA, con mayúsculas”.

Las máquinas aprenden de acuerdo con lo que las enseñamos. Y si las proporcionamos datos sesgados o incorrectos aprenderán mal. Si tienen que tomar decisiones delicadas en las que pueden discriminar por el color de piel o la razá, lo harán si los datos son sesgados”. Y es que, lejos de lo que ocurre en el cine, nuestras “criaturas de metal” serán tan imperfectas como puedan serlo sus creadores, como nos explica López de Mántaras.

Me imagino la inteligencia artificial como la presenta el cine en películas como el hombre bicentenario, ¿irá por ahí?

El robot que quiere ser humano, que desarrolla conciencia de sí mismo, siente amor y emociones, lo veo tan de ciencia ficción que creo que por ahí no van a ir las cosas. Pero hay otras películas que reflejan aspectos más razonables, como “Un amigo para Frank”, que plantea la relación entre una persona que empieza a tener déficits cognitivos y un robot cuidador. Eso si será posible, aunque no a corto plazo. Como describe la película, el robot no siente emociones, pero sí el humano, que primero tiene una sensación de rechazo hacia la máquina, y luego le toma mucho afecto al robot. Esto es más realista. De hecho, ya sentimos emociones hacia máquinas mucho más estúpidas, como nuestro ordenador, coche, teléfono, algo bastante ridículo. No nos debería extrañar que ocurriera en el futuro, si tenemos un robot doméstico que tenga un comportamiento bastante inteligente visto desde fuera, y que incluso puede simular algún tipo de expresión facial, que hable con un tono de voz afectivo, que pueda hacer que se genere algún tipo de afectividad hacia esa máquina. Y esto puede generar ciertos problemas también, porque seguramente esperaremos más de lo que en realidad nos puede dar una máquina. Y para algunas personas puede ser contraproducente. Tiene también un efecto positivo, porque comunicaremos más y quizás aceptaremos más la socialización con una máquina si nos transmite algún tipo de afecto afectivo o algún tipo de emoción.

¿Cuál es su línea de trabajo?

El aprendizaje por refuerzo y cómo transferir a una máquina o un robot que lo que ha aprendido a una cierta tarea, lo pueda generalizar a otra tarea parecida. Se llama transferencia de aprendizaje. Que en la siguiente área no parta de cero. Si es completamente distinta la transferencia es más complicada.  Por ejemplo, si aprende a jugar al ajedrez, cómo transferir este conocimiento para que la máquina aprenda a jugar a las damas. O si aprender a equilibrar un péndulo invertido, como puede ser el típico ejercicio de mantener en equilibrio una escoba, como utilizar estos movimientos para caminar sin caerte. Es lo que hemos hecho con unos colegas brasileños. Que un software que aprende a mantener el equilibrio. Esto lo hemos utilizado para que un robot humanoide pueda caminar. Las acciones que hace para que no se caiga el péndulo invertido les sirve para aprender a no caerse como caminan.

El modelo de aprendizaje por refuerzo es el mismo que se utiliza con los niños, no siempre con buenos resultados, por cierto…

Está inspirado en los modelos de aprendizaje de animales y personas. Mucho de lo que se hacemos en IA, nos inspiramos en la parte más externa de la inteligencia humana, aunque no al pie de la letra, porque no podemos reproducir un cerebro con todas sus conexiones. Y el aprendizaje por refuerzo es algo que funciona en humanos y animales y se reproduce en IA. Igual que los pájaros vuelan batiendo las alas y los aviones no, son maneras distintas de conseguir resultados similares. No necesariamente imitando al más mínimo detalle como la naturaleza ha hecho algo, pero el resultado puede ser muy similar. Un robot, en un contexto dado muy bien definido puede aprender por refuerzo igual que una persona, aunque los mecanismos cerebrales no tienen por qué coincidir con los computacionales.

¿Es la única forma de enseñar a las máquinas o hay otras?

Hay muchos otras, pueden aprender por inducción, a generalizar, etc. Hay muchos mecanismos de aprendizajes de las máquinas, pero siempre hay alguna inspiración en cómo aprendemos las personas.

Esto tiene cierto peligro, porque depende de quién programe, la máquina puede hacer un servicio útil o puede ser absolutamente nefasta. ¿Hay comités éticos que regulen esto?

Por supuesto, puede haber muchos problemas, no solo en el algoritmo de aprendizaje, que esté sesgado, sino también en los datos. Hay quien propone que esto se debería controlar y pasar unos filtros, igual que cuando quieres introducir un nuevo fármaco en el mercado hay unos filtros muy serios que debe pasar. Hay personas que reclaman que los algoritmos de inteligencia artificial pasen algún tipo de control, de manera que no den lugar a comportamientos indeseables.

¿Cómo se ve Asimov desde el mundo de la inteligencia artificial?

Sus leyes de la robótica son muy razonables, de sentido común, y a tener en cuenta en un futuro robot social que conviva con nosotros, pero se queda corto. Hay aspectos que no tienen que ver necesariamente con preservar la integridad física de la persona o el robot, como Asimov plantea en sus libros. Ahora hay que añadir leyes más allá de esto, porque no necesariamente todo el problema tiene que ver con la integridad física de los humanos. También hay que tener en cuenta aspectos de perfil más social o psicológico. Pero estas leyes ideadas por Asimov son un muy buen punto de partida. De hecho, ya ha habido reuniones internacionales en varios lugares donde se han debatido normas y regulaciones de robots, softwares e inteligencia artificial. La idea es poder escrutar qué ha llevado a la máquina a tener un razonamiento y no otro. No es fácil saber como el software ha llegado a una conclusión. Es importante que sean máquinas más transparentes, que rindan cuentas. Si como consecuencia de una decisión de un software ha pasado algo grave, a muchos niveles, porque ejemplo un accidente con un coche autónomo, hay que pedir rendición. Algo parecido a las cajas negras de los aviones, que permiten hacer informes para saber qué ocurrió. Eso con los coches autónomos tendrá que ser posible.

¿Los coches autónomos será factibles en un futuro próximo?

Depende del grado de autonomía del que estemos hablando. Hay cinco niveles, el máximo, donde el ser humano no hace nada, no hay volante ni pedales, y no hay posibilidad de manejar la máquina. El hardware tendrá que pasar controles muy estrictos antes de salir al mercado, asegurarse de que la probabilidad de que falle sea muy baja, muy inferior a la de los humanos. Tendrán que demostrar mucha más eficacia que el ser humano.

¿La inteligencia artificial está muy presente en nuestras vidas, aunque no nos demos cuenta?

Sí, por ejemplo, en aviones, con el piloto automático, en los navegadores, en los móviles cuando haces una llamada. O incluso a un nivel mucho más bajo, cuando escribimos un mensaje y el teléfono nos da las posibles palabras que tienen sentido en la conversación, en función de las anteriores. Pero este tipo de escritura predictiva falla mucho. Si no, llegaría un momento en que le darías una palabra y te escribiría la novela entera (ríe)

¿Qué nivel tiene la inteligencia artificial en España comparada con otros países?

Está muy bien, hay grupos académicos bastante potentes en Universidades de Madrid, Barcelona, Valencia, Santiago, Granada, Carlos III, Rey Juan Carlos, Pompeu Fabra, Autónoma de Barcelona.

¿Y a la hora de transferirlo la empresa?

A nivel de transferir resultado a las empresas, estamos peor que lo que nos correspondería por el nivel académico. Porque falta gente preparada, las empresas tienen problemas en encontrar expertos en IA.

Eso parece un contrasentido, puesto que hay buenos profesionales en las Universidades…

En un mundo globalizado, la gente muy bien preparada se va fuera, porque les ofrecen sueldos más atractivos en Europa o Estados Unidos, y con esto no se puede competir. Hay un problema de falta de captación de gente, y es necesario que se valore mucho más la formación doctoral, como ocurre en países como Francia, Alemania o Estados Unidos. Ahora muchas empresas están viendo que para ser competitivas tienen que subirse al carro de la Inteligencia Artificial. La gente más joven que crea empresas con base tecnológica tiene ya muy claro esto.

Especiales