¿Deberían pagar impuestos los robots?

“El problema no es el monstruo de Frankenstein, sino el doctor”, resume Ramón López de Mántaras sobre la ética en la Inteligencia Artificial
etica inteligencia artificial

En los foros de debate sobre la Sociedad Digital que organiza Fundación Telefónica ha habido espacio para la ética aplicada a la Inteligencia Artificial. La mesa redonda ‘La Inteligencia Artificial se introduce en nuestras vidas’ ha estado dirigida por Richard Benjamins, chief AI & data strategist en Telefónica, y en ella se ha puesto de manifiesto la preocupación por los efectos de la tecnología en el trabajo, la economía o el consumo. Pero, ¿cómo colaborarán las máquinas y los humanos? Y, sobre todo, ¿es necesario el humanismo en esta relación?

Ramón López de Mántaras, profesor de Investigación del CSIC y fundador y exdirector del Instituto de Investigación en Inteligencia Artificial del CSIC en Barcelona, no conoce "a fondo” los nuevos presupuestos de Ciencia e Innovación –lea aquí nuestro análisis–. Aún así, en su opinión, “el punto clave en todo este asunto es la escasez de expertos en IA”. En un estudio realizado en Barcelona, se calculó que faltaban unos 15.000 expertos en Inteligencia Artificial solo en la capital catalana. “Espero que esta estrategia que está a punto de salir aborde este aspecto de forma decidida. No podemos esperar unos años para formar a estos expertos”.

A corto plazo, ha insistido, “hay que atraer talento de fuera y recuperar el talento que se nos ha ido por falta de oportunidades. Lo he vivido en mi propio instituto, y ese el gran problema. Si podemos recuperar una parte significativa (han sido muchísimos, muchísimos) sería un buen comienzo”.

En este punto ha coincidido Asunción Gómez Pérez, vicerrectora de Investigación, Innovación y Doctorado y miembro de la Academia Europea de Ciencias, que ha aportado su visión sobre la formación. “Desde las primeras etapas, desde que los niños están en el colegio, hay que enseñarles, hay que reformarles ese pensamiento”. Además, ha propuesto crear perfiles de FP para trabajar en los aspectos más tecnológicos de la IA. 

Gómez cree que los planes de estudio, a nivel de grado, ya se han empezado a especializar en diferentes universidades. “Hasta ahora, siempre se ha enseñado en carreras de Informática o en másters o en doctorados. Lo ideal es la formación continuada, sobre todo para pymes y para formar a un elenco de funcionarios y tecnólogos para la administración pública. Las grandes empresas ya los tienen en cartera”. Considera que esta ouede ser la clave para que la inversión que se realice no caiga en saco roto. “Y, si queremos atraer el talento que se fue, la parte salarial tiene que actualizarse”. 

El punto ético sobre el debate lo ha puesto Eva García San Luis, responsable de D&A e Inteligencia Artificial en KPMG España: “Necesitamos talento. Pero no solo tecnológico, sino también humanístico. No sé si tiene que haber un ciclo mezclado. Necesitamos otro tipo de talentos para la Inteligencia Artificial como filólogos, filósofos, sociólogos…”. Por otra parte, ve importante también la compartición de datos en diferentes ministerios. "He hecho trabajo reciente con ellos y es muy difícil compartir datos. Se pierde parte del juego y de la información. Es una pena, sobre todo para temas importantes, como la sanidad”. 

La presencialidad de la ética en la IA

López de Mántaras también piensa que hay que tener cuidado con tecnificar demasiado. “La ética también debe estar presente. No concibo un nuevo grado sin un componente de aspectos relacionados con aspectos sociales, éticos, humanísticos. Tienen que tener un papel primordial. Para que no solamente se pregunten si pueden hacerlo, sino si deben hacerlo”. 

Para él, esto requiere “mucho esfuerzo y mucho dinero, no se hace a coste cero. Son decisiones al más alto nivel, a nivel de gobierno. Desde abajo podemos llamar la atención y exigir y patalear. Pero el convencimiento tiene que venir de las altas esferas. Espero que esté cuajando a nivel de algunos. Falta la pata de las propias empresas, las que tienen un potencial importante. O bancos, o instituciones, que tendrían que mojarse y apoyar más todo esto. Financiando, claro". 

"En nuestro centro –ha subrayado la vicerrectora Gómez– hemos metido una asignatura optativa, porque la única forma de hacerlo, sobre aspectos éticos y legales”. Y García San Luis ha sentenciado que el tema de la ética es “superamplio”. “Podemos hablar de cosas que debemos hacer o que no debemos hacer. ¿Podríamos predecir cómo se va a comportar un adulto en función de las notas de un niño? ¿Lo debemos hacer? Los modelos no deben ser cajas negras [mecanismos y algoritmos ocultos para el público], es fundamental”. 

Según ella, ahora mismo, los modelos son cajas negras porque son “muy complejos”. "Por mucho que los abras no sabes cómo funcionan. Necesitamos explicabilidad de los procesos, lo necesitamos. Si estamos en una consultoría necesitamos que se nos expliquen los procesos, ¿no?. Pues los modelos deben explicarse y, si no es así, que sean autoexplicativos”.

Y siempre habrá sesgos. ¿Puede haber una ética común para que no exista? “No es que los modelos tengan sesgos –ha especificado García San Luis–, sino que cogen información histórica que ya tenía sesgos. Ya existía, pero necesitamos la información… Se ha hablado mucho sobre modelos que hacían que se cogieran más hombres que mujeres. ¿En base a qué? Pues porque antes se cogían a más hombres que mujeres, no hay más. No es que mi modelo tenga un sesgo. La información es la que tiene el sesgo”. 

¿Puede regularse la ética?

“Los mismos que hablan de la autorregulación son los mismos que defendían la autorregulación de los mercados y se ha visto que esto no es así”, ha afirmado López de Mántaras. “Es un precio muy alto que estamos pagando. Son los capitalistas neoliberales. Estoy en las antípodas de todo esto. Creo que el reto más importante es el de gobernanza. Si por cada euro invertido en Inteligencia Artificial y otro en gobernanza y regulación seriamos más optimistas sobre el mundo digital…”.

“Las instituciones usan algoritmos para tomar decisiones y, si sale mal, te quitas la responsabilidad. Los ciudadanos de a pie no son los mismos que se benefician y esto crea simetrías de poder. Los incentivos tienen que estar en consonancia con las preocupaciones de los ciudadanos. Los algoritmos son herramientas, nosotros somos los actores morales. Desarrollamos un rol primordial. Somos responsables nosotros de sus errores”.

“Lo resumo en una frase: el problema no es el monstruo de Frankenstein, sino el doctor. Para mí, hay que regular. Hay un control y un monopolio de muy pocas empresas que moldean a su interés. Son muy buenas evitando pagar en otros países. Sí soy muy duro, pero quiero predicar en el desierto”, ha sentenciado.

Los aspectos que son éticos, cómo uno responde hacia un tema ético, se lleva discutiendo a lo largo de toda la historia de la humanidad y hay diferentes enfoques”, ha indicado, por su parte, Gómez Pérez. “No creo que vaya a haber una única ética porque existen muchos países con muchas tendencias políticas y lo que a uno sorprende en un país en otro no sorprende”.

Para ella, lo que se necesita son criterios y pautas de actuación. Un marco normativo existente y amplio y llevar a los gobiernos la instrumentalización de los países. “En cuestión de datos no todas las administraciones comparten los mismos principios y eso es un tema por lo que veo imposible unir la ética. Sobre la regulación… depende. Para mí, la clave viene porque los ciudadanos y las empresas sepan que es una tecnología segura, probada, certificada y que se va a utilizar para el bien”.

"Para cualquier otra cosa, soy antirregulación”, ha confesado García San Luis. “Pero en la parte ética sí, aunque sea difícil por cada cultura. Debe haber ciertos límites y mucha transparencia. Los tecnólogos pecamos de que nadie nos entiende y genera desconfianza. Hay que ser mas transparente”. 

Del mismo modo, cree que, ahora mismo, el mundo se está escorando. "Vivir en un mundo digital con noticias donde solo te afectan a ti no sé si es bueno. Lo mejor es tener tu propia opinión, aunque viendo opiniones diferentes. Tenemos que ayudar para que no le pase a nuestros hijos. Yo se lo digo a mi hija: que no todo lo que parece en Internet está para ella”. 

Especiales