Anuario de la innovación en España. Especial inteligencia artificial

En busca de la inteligencia artificial ética

Por Idoia Salazar, presidenta del Observatorio para el Impacto Social y Ético de la Inteligencia Artificial (OdiseIA)
fundacion telefonica idoia salazar inteligencia artificial algoritmo
Idoia Salazar durante la presentación de 'El algoritmo y yo' en el Espacio Fundación Telefónica.

La inteligencia artificial (IA) ya incide en múltiples ámbitos de nuestra vida cotidiana, desde el reconocimiento de voz en nuestros teléfonos hasta el análisis de datos en la investigación médica. Su avanzada tecnología ofrece innumerables ventajas como la automatización de tareas, eficiencia, capacidad de procesamiento de grandes volúmenes de datos y personalización de múltiples servicios.

Sin embargo, a medida que se propaga, sin aparentes límites, el uso/desarrollo de esta tecnología, se vislumbra un lado no tan positivo derivado de las propias características que hacen especial a la IA: la ‘toma de decisiones’ y su ‘capacidad’ para ejecutarlas de manera autónoma. Cuando un ser humano toma decisiones normalmente la envuelve de un contexto ético (o al menos tiene esa capacidad de discernir entre lo bueno y lo malo de su aplicación). La IA, como software que es, al menos por ahora, no la tiene. Por tanto, es importante que nosotros, las personas, acompañemos las grandes bondades de esta tecnología, aplicando nuestra ética en estos procesos en función del caso. Pero veamos, brevemente cuáles son algunos de los principales riesgos actuales, y por qué son cada vez más voces las que claman sobre la necesidad de una regulación más dura (como el AI act), que sobrepase a la, a veces, laxa ética.

“Uno de los peligros más significativos de una IA no convenientemente regulada es el sesgo”

Uno de los peligros más significativos de una IA no convenientemente regulada es el sesgo. Ya hemos visto incidencias al respecto que han provocado casos de discriminación por sexo o raza, entre otras. Los sistemas de IA aprenden a partir de datos y, si esos datos reflejan prejuicios existentes en la sociedad, restos palpables de injusticias sociales de la historia de los seres humanos. En este caso, existe el riesgo de perpetuar o incluso exacerbar esos sesgos, si no se tiene la supervisión adecuada. Esta cuestión se ha manifestado ya, en ocasiones, en sistemas de contratación, créditos y sistemas judiciales. Por otro lado, surge la cuestión de la responsabilidad en caso de errores o accidentes causados por sistemas de IA. Sin un marco legal claro, determinar quién es responsable puede ser un desafío. Estos son solo algunos de los frentes abiertos.

A la hora de combatir estos desafíos, la IA no es diferente a otras tecnologías de gran impacto como lo fue el automóvil, en su día, o Internet. Éstas también necesitaron regularse para prevenir consecuencias negativas. En este caso, y teniendo en cuenta su rápida evolución, sin duda se requiere una regulación dinámica y adaptativa. En cualquier caso, en la mayoría de países, la regulación en materia de IA se encuentra en etapas incipientes. Por ejemplo, en Estados Unidos, la regulación ha sido más sectorial y depende en gran medida de los estados individuales, aunque existen ciertos marcos federales en áreas específicas, como la privacidad o la discriminación.

“Una regulación excesiva podría sofocar la innovación, mientras que una falta de regulación podría dejar a las personas desprotegidas”

A nivel global, el reto radica en equilibrar la innovación con la protección del ciudadano. Una regulación excesiva podría sofocar la innovación, mientras que una falta de regulación podría dejar a las personas desprotegidas. En este sentido, la UE ha aprobado, en agosto de 2024, el llamado AI ACT en un esfuerzo común entre los organismos reguladores europeos, empresas, expertos en IA y sociedad civil. Su objetivo: proteger los derechos fundamentales de las personas, garantizar la transparencia en la toma de decisiones de los sistemas de IA y establecer mecanismos de rendición de cuentas y supervisión humana adecuados, entre otras cuestiones básicas.

No pretenden regular la tecnología en sí misma, ya que esto supondría un problema para su implementación y desarrollo en la industria de la UE, sino casos de uso específicos que pueden suponer un riesgo: usos/desarrollos prohibidos, de alto riesgo (aquellos cuya implementación puede afectar a los derechos fundamentales de la persona), riesgo medio (obligaciones de transparencia. Ej: Deep Fakes) y riesgo bajo (automatismos sin riesgo).

En definitiva, la IA presenta un potencial transformador inmenso. Sin embargo, como cualquier herramienta poderosa, conlleva tanto oportunidades como riesgos. Aunque existen esfuerzos en curso para desarrollar una regulación sólida, todavía hay un largo camino por recorrer para garantizar un uso seguro y ético de la IA en nuestra sociedad.

En cualquier caso, debemos recordar que el peligro no es la IA, en sí misma (al menos por ahora), sino el uso que nosotros, los humanos, hacemos de ella. La clave está en aumentar la consciencia popular y profesional sobre los riesgos, y usar herramientas, desde el diseño, para prevenirlos. La cuestión es que que, hoy día, no es una opción plantearse el uso de la IA, pero se debe incentivar su uso/desarrollo ético y responsable desde el diseño.

Especiales