Consultor, articulista, autor de libros, el más reciente se titula Civilización artificial, además de director del Foro de Humanismo Tecnológico de ESADE, profesor de Filosofía del Derecho en la Universidad Pontificia de Comillas y miembro del grupo de expertos de AMETIC, José María Lassalle pasó por la gestión pública como secretario de Estado durante la última etapa del PP en el poder. Conoce bien, por tanto, la dificultad de convertir las ideas en hechos.
Pregunta: Nicholas Negroponte, padre del MIT Media Lab, me dijo exactamente lo contrario de lo que defiendes: “Algunas veces en mi mundo de innovación tecnológica haces cosas porque puedes. Así es. Bingo. No porque deberías, no porque alguien lo pida, no porque estás resolviendo un problema, no porque hay mercado. No. Lo haces porque puedes”.
Respuesta: El problema de la innovación es que se ha analizado desde una perspectiva muy económica y utilitaria, es decir, se ha puesto al servicio de la capacidad competitiva de la empresa, mejorando la productividad. Y no solamente se innova en términos materiales y, por tanto, con capacidad para medir el impacto en términos cuantitativos. Para el mundo griego, la primera civilización que ha reflexionado en términos filosóficos sobre lo que representa la tecnología, implicaba también un mejoramiento de la vida humana, en términos también cualitativos. Y ahí entra evidentemente la moral, la ética, factores que tienen que ver con algo tan esencial como el bienestar humano. Ahí es donde entran en juego la libertad y la equidad.
Pregunta: El pragmatismo radical y amoral de Negroponte parece más rentable.
Respuesta: La creación tiende normalmente, en todos los ámbitos, no solamente en el tecnológico, sino también en el escritural, en las artes plásticas, a justificarse a sí misma. El ser humano necesita progresar en su capacidad de visualizar el futuro, de proyectarse hacia adelante, y el creador, el innovador, está absolutamente instalado en esa mirada, por eso siempre piensa que llevar las fronteras de la creación humana más allá de lo conocido y de sus límites, tiene un valor en sí mismo. Y es verdad, pero requiere evidentemente de una capa de una lectura envolvente que supere eso porque, y ahí es donde nuestra tradición occidental es determinante, hace falta también enmarcar ese cambio en una búsqueda moralizadora de los efectos. Tiene que tener un propósito y un sentido definido por ese propósito.
Sobre las consecuencias morales del cambio
Hoy estamos rodeados de innovaciones que sí, generan demanda y actividad económica, pero carecen de sentido.
Porque se agota en el poder del cambio en sí mismo y en lo que implica. El cambio se ve como un factor positivo y eso condiciona la acción del ser humano, pero no se entra en las consecuencias morales a las que puede abocar. Ese es el debate que a veces no somos capaces de afrontar. En la relación con la innovación, hace falta generar un marco de propósito que implique una gobernanza y darle un sentido a lo que estamos haciendo.
En los debates sobre Europa y la democracia frente a los regímenes autoritarios se suele decir que el futuro dependerá de su eficacia para garantizar el bienestar material de los ciudadanos. Puede ser una verdad a medias. La regulación de la inteligencia artificial lo ha aflorado.
La inteligencia artificial nace hace 70 años fundamentalmente como un producto utópico. Se quería desarrollar una inteligencia sin los defectos de la inteligencia y sin sus imperfecciones. Cuando el ser humano desarrolla una capacidad lógica de análisis de la información y comete errores, no solamente están basados en un error de cálculo, sino que a veces se basan en un error moral, de incertidumbre, de dudas, de incapacidad para asimilar los conceptos o los datos en sus funciones. La inteligencia artificial busca crear alguien consciente, sin conciencia. El problema está en que no solamente la autoconsciencia tenga una ética, sino una conciencia, es decir, unas pautas morales. Si no, tienes inteligencia, pero la inteligencia de un psicópata.
"De pronto el ser humano le disputa a Dios la función de ser Dios"
Europa debe ser capaz de resolver estos desafíos sin caer en la trampa de la batalla ideológica.
En torno a la inteligencia artificial aparecen tres problemas. Un riesgo de sustitución, que no hemos sido capaces de identificar correctamente, porque opera sobre el trabajo intelectual. Hay un segundo riesgo, que es el que acabo de mencionar. Y un tercero: imaginemos alcanzar una inteligencia artificial consciente. Por primera vez el ser humano se relacionará con una alteridad radical, con un otro con el que no puede empatizar y sin condicionantes morales. Ahí se va a producir un abismo real. Porque tú puedes simpatizar incluso con un yihadista y con una antropófaga, te puedes asomar al horror moral y evaluarlo. Hay otras tecnologías que plantean también retos morales, como la edición genética, pero la IA es diferente porque es capaz de convertirse en otro yo. De pronto el ser humano le disputa a Dios la función de ser Dios, porque es capaz de crear ex novo.
Frankenstein.
Estamos generando una vida. En principio carecemos de una capacidad de evaluación de lo que eso, en términos morales, puede impactar.
José María Lasalle en el último encuentro de AMETIC.
George Steiner escribió que, como civilización, no solo hemos visto a los nazis cultivar un huerto dedicado a Goethe junto a un campo de concentración, sino que no hemos sido capaces de crear un mito para explicar la llegada del hombre a la luna. El mundo de la cultura no va al ritmo de la innovación tecnológica.
El gran problema que puede provocar la incapacidad de que el sector cultural se adapte a la revolución tecnológica es que, como se ha visto en determinados debates muy específicos en EEUU con los guionistas y los creativos alrededor de los derechos de autor en el entrenamiento de inteligencias artificiales, se transformen en los nuevos luditas, es decir, que se planteen la destrucción de los telares.
El rol del pensador es hoy en día de resistencia.
Mi resistencia es crítica, no ludita. Cuando se abre una trinchera se olvida que la ciencia es un producto de la cultura y no se puede entender la modernidad sin la revolución científica.
Grandes poetas del romanticismo inglés eran químicos. Es increíble que esté sucediendo hoy, pero vivimos una época de distanciamiento.
Porque también la cultura ha sido víctima de la especialización. Ha perdido la perspectiva, ha entrado en debates muy circulares sobre sí misma, que responden a una interpretación de gestionar su pequeño poder que muchas veces tiene naturaleza muy clientelar y que olvida que la cultura no monopoliza la manera de entender el mundo, sino que debe relacionarse con él. No puedes excluir a la ciencia, sino integrarla, pero eso implica otra actitud.
"En las plataformas digitales gobernadas por la inteligencia artificial, el ser humano es un factor residual"
La catedrática Sonia Contera de Oxford suele ilustrar esto que dices con un cuadro precioso de Kasimir Malévich en sus conferencias. Yo te imagino en JP Morgan Health Conference de San Francisco hablando ante inversores en biotecnología preguntándose qué retorno va a tener.
Así como el establecimiento de reglas tiene un efecto en el desarrollo de una regulación que genera marcos de seguridad jurídica, vamos a ir evolucionando hacia situaciones en las que las reglas no van a ser sólo regulatorias en términos legales, sino también en términos morales. ¿Y qué valor tiene eso para la inversión? Importantísimo. Es importante el marco de seguridad moral, la confianza que el otro te proporciona. Y si el otro tiene claro cuáles son los propósitos y la definición facilitadora para algo que tiene un efecto positivo para el ser humano es evidentemente una ventaja competitiva a la hora de discernir dónde invertir y dónde no.
Con el tema del cambio climático sí hemos aceptado ese propósito.
Hemos aceptado que la extractividad que el ser humano proyectaba sobre el mundo podía tener efectos negativos inasumibles en una perspectiva de futuro, pero la extractividad que en términos morales hacemos con los datos humanos y con la sustitución del ser humano en su propia identidad, mediante la inteligencia artificial, no proyecta ese mismo efecto negativo sobre futuro. Ese es el debate.
Esto último lo dices por las plataformas digitales.
En las plataformas digitales gobernadas por la inteligencia artificial, el ser humano es un factor residual, porque la relación de poder es del algoritmo sobre los datos, como en la empresa era el capital sobre el trabajo. La relación capital-trabajo liberaba un valor económico que se traducía en bienes y servicios. Aquí la relación algoritmo-datos libera evidentemente la prestación de bienes y servicios en el ámbito digital.
Está como vaciada.
Porque el ser humano ocupa una posición, respecto a los datos, consecuencia de una extractividad de su conducta; y respecto a los algoritmos, porque hay evidentemente diseño matemático de los tecnólogos que generan una secuencia que permite hilar los sesgos para operar sobre los datos. El ser humano se ha relativizado y de pronto estamos diciendo que incluso la empresa tiene que digitalizarse y se hace más competitiva si se plataformiza. Pero claro, en esa plataformización está residualizando al ser humano en la gestión del capital y en la gestión del trabajo.