“Lo complicado es pasar de un mar de datos a un mar de conocimiento”, apuntaba hace unos días Ramón López de Mántaras, Director y Profesor de Investigación del Instituto de Investigación en Inteligencia Artificial del CSIC, en la conferencia que abría la jornada organizada por Fundación Telefónica, al hilo de una nueva edición de Vivir en un Mar de Datos, un ciclo que celebra su cuarta edición, que se ha convertido en un clásico necesario y por el que han pasado más de 50 ponentes. Bajo el título Humanos y máquinas, un futuro con inteligencia artificial, tema central en esta ocasión, López de Mántaras -Premio Rober S. Engelmore de la Asociación Americana de Inteligencia Artificial, y hasta hoy día el único galardonado que realiza su labor investigadora fuera de los EEUU- analizó las dificultades para transitar de la Inteligencia Artificial actual, poco evolucionada, y en su opinión “débil”, a una IA general, “realmente inteligente”.
“La IA es un software capaz de resolver problemas complejos que requieren percepción, acción, razonamiento, planificación, aprendizaje automático y comunicación; a ser posible en un lenguaje natural, no solo hablado, también gestual”. Un escenario en el que hoy no es contemplado el sentido común. La experiencia, la cultura, las vivencias… “Lo que no está implícito distingue a la IA actual de la inteligencia humana”.
La dosis de realismo propuesta por el también Doctor en Física por la Universidad de Toulouse tocó además la resonancia mediática de informaciones recientes, como la victoria de Alpha Go contra el mejor oponente real del famoso juego. “Los titulares están muy bien, pero Alpha Go no es espontáneo, sino fruto de la mente humana, con técnicas avanzadas y sofisticadas sí, pero que no sabe que está jugando a Go, que no puede jugar a las damas o al parchís. Solo sabe hacer muy bien una cosa específica, no tiene la flexibilidad de la mente humana. Es débil”.
Tarde o temprano llegará
Sin embargo, los motivos que invitan a confiar en una evolución óptima de la IA se hacen tangibles con avances en distintos campos, dando sentido al Big Data. Es el caso de la inclusión de tres nuevos marcadores para evaluar una biopsia de células mamarias permitiendo un diagnóstico más certero en este tipo de tumores. Un trabajo desarrollado en la Universidad de Queensland (Australia), que se suma a otros pasos adelante como los de la Universidad de Stanford, que tras analizar el estado de una gran cantidad de pacientes de la UCI de diferentes hospitales de Chicago, ha logrado predecir la probabilidad de que estas personas sufrieran un infarto con 4 horas de antelación, frente a los 30 minutos escasos de los que los médicos disponían antes para actuar.
Sin abandonar el ámbito sanitario, un mapeo masivo de las redes sociales ha logrado detectar a tiempo la propagación de epidemias en Costa de Marfil a través de los comentarios de médicos rurales, etc. En un entorno más lúdico, el estudio de 300.000 pases determinó que era más difícil predecir lo que harían los jugadores del Atlético de Madrid en comparación con los del Barcelona o Real Madrid; un trabajo elaborado por el Qatar Computing Research Institute que explica algunos hechos recientes…
Inmersión en el Big Data
Datos, muchos datos, y carencias importantes, dificultades que obligan a trabajar de forma prioritaria en el perfeccionamiento de una tecnología que apenas salió del cascarón se convirtió en el nuevo maná evolutivo por su carácter multidisciplinar. “Desde un punto de vista técnico, al margen de los problemas para preservar la privacidad de datos sensibles, es la ausencia de capacidad explicativa, algo fundamental para confiar en el sistema”, añadía el responsable del CSIC, que ejemplificaba estos déficits con la falta de confianza que sistemas como Watson, de IBM, generan a día de hoy, fundamentalmente entre colectivos dedicados a actividades sensibles como las finanzas y la medicina. “Ni Watson ni Google Translator entienden ni una palabra de lo que les decimos, aunque respondan bien”. Y como caso de claro desmarque, López de Mántaras citó, avivando el debate, a Reed Hastings, CEO de Netflix, quien asegura no confiar en el análisis de los datos en los sistemas Big Data porque el factor humano sigue resultando el elemento crucial para tomar decisiones. “Hay que trabajar muchísimo para darle robustez a este entramado, es el caso de los coches autónomos que tienen que interpretar lo que hay a su alrededor. Hoy es difícil confiar en ellos”.
Hombre - máquina, una pareja infalible
Si hay una conclusión clara es que la interpretación semántica y el procesamiento del lenguaje natural serán la piedra angular para llegar a una IA nueva y real. “Si el sistema comprende lo que lee, lo que ve o lo que escucha, será capaz de responder a todo lo que tenga respuesta en cada caso. Esto no ocurrirá con técnicas estadísticas”. “Si un invitado en mi casa pide una copa de vino a mi robot, y esa copa está sucia, la máquina tiene que ser capaz de saber que ahí no puede servirlo, y a día de hoy lo más probable es que lo sirva”- explicaba el profesor, para quien, evoluciones al margen, el binomio persona – máquina es preferible a actuar por separado. “Dotar de autonomía absoluta a las máquinas puede generar problemas”; y sobre los temores relativos a la pérdida de empleos en un marco en el que los robots tomen el mando de algunos oficios, López de Mándaras es rotundo: “Habrá que preparar a la gente con formaciones mas flexibles y versátiles para que una persona asuma que a lo largo de su vida puede cambiar drásticamente de actividad”.