Ética y responsabilidad en el uso de la Inteligencia artificial

El Foro Sociedad Digital ha planteado varias cuestiones, como si los algoritmos afectan a la sostenibilidad o qué grado de humanidad tiene una IA
inteligencia artificial sostenibilidad

Fundación Telefónica ha organizado la tercera sesión del Foro Sociedad Digital 2021, donde cuatro expertos se han reunido para hablar sobre la ética y responsabilidad en el uso de la Inteligencia artificial. En el evento se han planteado varias cuestiones como si los algoritmos afectan a la sostenibilidad o qué grado de factor humano debe haber en una IA. La Inteligencia artificial tiene un gran impacto en los negocios y ya no hay ninguna empresa grande que no esté trabajando en esta temática. Pero también es verdad que tiene algunos efectos no deseados, o no intencionados. ¿Cuáles son los retos a superar?

Nacho Rivera, cofundador y CEO de The Overview Effect, ha considerado que la filantropía y los modelos de negocio sostenibles deben existir a la vez. Según él, al final, si se piensa en la agenda a la cual nos enfrentamos como humanidad –o los retos globales como el desarrollo sostenible, con temáticas sociales, medioambientales o económicas–, siempre se va a necesitar de filantropía o de altruismo. 

“Pero hay que entender que el impacto positivo de sostenibilidad es una oportunidad de generar valor a los modelos de negocio. Venimos de muchos años de áreas de responsabilidad social corporativa alejada de los negocios, donde al final dependía de un área que se encargaba de devolver a la sociedad. Creo que se está transformando. La sostenibilidad se está convirtiendo en algo transversal a las compañías y, en ese sentido, por muchas tendencias que haya, hay un mercado de oportunidad se está empezando a ver como un generador de valor”, ha explicado.

Cuando ha hablado de problemáticas como el cambio climático y cómo utilizar la IA para crear soluciones, cree que hay que pensar de una manera que culturalmente no estamos preparados para pensar. “Hacerlo desde un prisma más global, donde el sector público, el privado, la ciencia, la universidad trabaje de una manera colaborativa y donde se junten sectores y compañías con retos comunes. Al final, estos retos de los que hablamos requieren de que los sectores trabajen de manera coordinada, compartan datos como nunca se han compartido y que también tengamos maneras de gobernar globalmente estos retos”.

En España, ha indicado, estamos en una doble transformación. "Hay una transformación digital que sigue. Estamos al principio de una transformación de sostenibilidad, que en las compañías está como la digitalización en los 2000. Y creo que la clave es combinar ambas cosas. ¿Qué hay más importante que garantizar el propio futuro, no solo del planeta, sino del propio modelo de negocio, que es dependiente del planeta?”, se ha preguntado.

El problema de la Inteligencia artificial

“Es evidente que la Inteligencia artificial nos puede ayudar mucho como Humanidad. Tiene que ser global. Y creo que se esta haciendo todo muy deprisa. La Onteligencia artificial, por ejemplo, en la universidad, siempre ha estado ahí. Pero a nivel conceptual, la IA ya estaba bien elaborada. El problema es que ahora se le quiere confiar todo a esta tecnología. Se está poniendo el foco en solucionar problemas, que es de lo que se trata, la tecnología está para solucionar problemas. Pero se está haciendo todo tan deprisa, que nos estamos dejando a un lado el ver cómo lo estamos haciendo, cómo está impactando”, ha explicado, por su parte, Coral Calero, experta en software verde. “Y hay un problema”.

La IA maneja grandes cantidades de datos –y más que va a manejar–, porque la sociedad se ha acostumbrado a generar datos de manera continua y no se encarga de borrarlos ni depurarlos. “Consideramos que tenemos que estar en la nube como si fuera el cielo. Y no: la nube son ordenadores que requieren de energía”, ha señalado. 

“Es cierto que se están haciendo muchos esfuerzos, por ejemplo, en centros de datos, para conseguir que estén bien almacenados y que se nutran de energías alternativas y demás. Pero eso no es suficiente”.

Hay algunas estimaciones, aunque pocas, porque es un campo que está empezando, que dicen que entrenar a un algoritmo de procesamiento de lenguaje natural, solo el entrenamiento, equivale a la vida útil de cinco coches. “Cinco coches puede parecer poco para la de coches que hay”, ha advertido. “Pero cuidado: solo un algoritmo, y solo su entrenamiento. Los algoritmos que hay a nuestro alrededor, que son muchísimos, gestionan millones y millones de datos”. 

Por otro lado, los percentiles más altos de precisión de un algoritmo, para pasar de un 80% a un 90% de precisión en un algoritmo de Inteligencia artificial, puede suponer el poder ejecutarlo en un PC o tener que necesitar un clúster de superordenadores. Ahora, ha asegurado, se usa el clúster de superordenadores, “porque lo que queremos es una máxima precisión, queremos solucionar el problema. Y, a lo mejor, nos tenemos que plantear que con un 80% solucionamos el problema”. Y, por lo tanto, ha planteado, se estaría ahorrando mucha energía. 

"La ética es de los seres humanos”

Idoia Salazar, cofundadora, presidenta, y codirectora del Área de Ética y responsabilidad de OdiseIA, por su parte, ha afirmado que la ética en la Inteligencia artificial tiene algo fundamental, que es entender que la ética sigue siendo la de los seres humanos. “Tener cuidado con el uso de los algoritmos de la IA es nuestra responsabilidad”.

Según ella, tenemos que vigilarlo, los datos que damos, las variables de entrenamiento… Y muchas veces no es suficiente. “Realmente, muchas veces, esas particularidades no están en contexto, como la raza o el sexo. El ser humano tiene que estar muy pendiente de todas estas cuestiones, más allá de haber tenido cuidado con la abstracción de estas variables”.

Y ha destacado: “No se puede dejar autonomía a los algoritmos de Inteligencia artificial en cuestiones de impacto, en algo que puedan causar un daño o un perjuicio, como el acceso a una determinada empresa. No dejemos que un departamento de recursos humanos se lave las manos y sea la tecnología quien decida quién entra o quién no”. 

En ese tipo de decisiones, ha asegurado, hay algo más que un análisis meramente objetivo de unos datos. Cuando se toman ciertas decisiones, muchas veces no se es tan objetivo. Ni se debe serlo: “Hay veces que tomamos decisiones dependiendo del contexto porque consideramos que puede ser mejor para el impacto de una empresa, o en un hospital. Por ahora, no lo tiene la máquina. Siempre que podamos automatizarlo no tendremos problemas, pero siempre puede haber algún tipo de consecuencia. Hay que entender que es una ayuda al ser humano y complementa nuestras decisiones”.

Estado actual vs. Estado sostenible

El concepto de robot es un poco difuso”, ha indicado, por último, Ignacio Gavilán, fundador y CEO de Reingeniería Digital. “Hay cuatro tipos. Primero, el industrial, el brazo articulado que está en fábricas. En diez años se ha triplicado su crecimiento y es estable. Segundo, el robot de servicio, que hacen tareas de índole doméstica o de servicio en empresas. Como por ejemplo, los robots aspiradoras. También están los robots software, los que no tienen realidad física, pero que se comportan como un robot. Están en un hardware de propósito general y tiene un comportamiento inteligente. Y luego están, los que de cara al tema ético, más interesan, que son los robots sociales. Un tipo robots cuyo objetivo es relacionarse con personas”. 

Y ha puesto ejemplos, como Sofía, “que tiene mucho de marketing, pero que tiene mucho de social” o Pepper, “que es otro, más sencillo". Asimismo, de cara a los retos y oportunidades, en cuanto a empleos, una problemática social, en el fondo no se sabe muy bien lo que va a pasar. 

“Hay informes que dicen que sí, que se destruirá empleo pero se crearán otros y que de manera neta van a crecer. Hay quien dice que no, que se va a destruir empleo… Sinceramente, creo que no lo sabemos”. 

“Realmente –ha continuado–, si automatizamos es para generar de forma más eficiente los mismos productos y servicios. Esto quiere decir que la riqueza de la sociedad no debería verse perjudicada, sino todo lo contrario, por la robotización y la automatización. Eso querría decir que en caso de que se dé, que no estamos seguros, una situación de desempleo masivo, habría riqueza suficiente para repartirla. Otra cosa es que hagamos bien ese reparto y otra cosa es que la transición entre el Estado actual y el Estado sostenible fuera posible”.

Gavilán suele decir, ha recordado, que en ese camino hay ganadores y perdedores. “Siempre los ha habido. Por eso se necesitarían políticas estatales, de empresa, si tienen esa responsabilidad social, y responsabilidad individual, porque el primer interesado en ser útil y empleable es cada uno”. 

Especiales

Ajustes
Innovación española

A través del presente Panel de Configuración, puede aceptar o rechazarlas en su totalidad o puede seleccionar qué tipo de cookies quiere aceptar y cuáles quiere rechazar.

Para obtener más información, acceda a nuestra Política de Cookies

Cookies técnicas

Las cookies técnicas que son estrictamente necesarias y permanecen siempre activas son para que el usuario acceda y navegue en INNOVASPAIN.COM.

Cookies de Preferencias o personalización

Utilizamos cookies de personalización que son aquellas que, tratadas por nosotros o por terceros, nos permiten recordar información para que el usuario acceda al servicio con determinadas características que pueden diferenciar su experiencia de la de otros usuarios.

Si desactivas esta cookie no podremos guardar tus preferencias. Esto significa que cada vez que visites esta web tendrás que activar o desactivar las cookies de nuevo.

Cookies Analíticas

Utilizamos cookies de análisis o medición que son aquellas que, tratadas por nosotros o por terceros, nos permiten el seguimiento y análisis del comportamiento de los usuarios de los sitios web a los que están vinculadas, incluida la cuantificación de los impactos de los anuncios.