Buscar
Cerrar este cuadro de búsqueda.

Fake news, lenguaje y vigilancia: “Hay que evitar que las máquinas se desmadren”

Telefónica reúne a expertos en un evento en el que la Inteligencia Artificial ha sido la gran protagonista, sobre todo, por la ética que debe rodearla
fake news Telefonica

Bajo la idea poner a la Inteligencia Artificial “bajo el microscopio”, Fundación Telefónica ha organizado un evento en su Espacio en el que, con ayuda de varios expertos, ha querido poner de manifiesto la importancia de la ética que debe rodear a esta tecnología. Las fake news o noticias falsas son el principal síntoma de su mala utilización, pero los entornos digitales también tienen problemas con el buen uso de los idiomas. Cuestiones como su control o su posibles soluciones –también tecnológicas– se han puesto a debate. O su propio futuro. ¿Quién dirá qué es falso o no? ¿Quién vigilará a los vigilantes?

La población es consciente de las fake news, de las noticias falsas, de los bulos. Somos conscientes de ello”, ha afirmado Marilín Gonzalo, coordinadora de Contenidos Digitales en Newtral. Según ella, aunque las fake news han existido siempre, ha sido a partir de la campaña presidencial de Donald Trump cuando han aparecido en las redes campañas de desinformación, de ambigüedad.

Marilín Gonzalo ha mostrado, a través del último informe de Digital News Report de Reuters Insitute, que solo un 42 % de las personas –a nivel mundial– se fía de las noticias que salen en los medios. Asimismo, ese número baja a un 33 % cuando se les ha preguntado si se fían de las noticias que leen online. Pero el número es todavía es más pequeño, un 23 %, las personas que se fían de las noticias que les llegan a través de redes sociales. “El mismo estudio, adaptado a España, revela que solo un 55 % de los españoles se creen capaces de identificar si una noticia es falsa. Nos sentimos más vulnerables”, ha subrayado.

Otro periodista, Jaime García Cantero, responsable de contenidos de Retina, ha considerado que el problema es “amplísimo”, y que es difícil imaginar su calado. “¿La gente sabe lo que son las fake news? Creo que hay una parte de las noticias falsas, como los ordenadores que crean informaciones, de la que somos conscientes, pero es solo una parte del problema. Hay mucho más. Está el clickbait, algo de lo que tenemos mucha culpa los medios, información, posverdad, etcétera. Es todo parte de lo mismo”.

García Cantero ha puesto un ejemplo, situándose unos diez años atrás, en la Primavera Árabe- “¿Cuántos blogueros egipcios hubieran sido tachados de creadores fake news? –se ha preguntado–. En manos de ciertas personas se puede convertir en una herramienta de represión absoluta y todo el que se salga del mensaje dominante miente. Tenemos el caso Trump, pero quién elige qué es falso o no. ¿Trump o Zuckerberg? Uno de los dos ha dicho ante el Congreso de los Estados Unidos que no sabe si en su empresa existen herramientas para saber si una noticia es falsa o no. Me parece aterrador».

Más allá de la definición de fake news y su contexto, también ha habido lugar para sus posibles soluciones. Como los procesos de lenguaje natural. “Hay muchas cosas que se pueden identificar de manera automatizada a través los procesos de lenguaje natural. El lenguaje de las fake news tiene unas características que se pueden captar a través de determinados modelos. Por ejemplo, es altamente emotivo, hay una gran cantidad de emociones; es controvertido; es muy simple, un léxico simple para que sea fácil asimilarlo, y es agresivo. Tiene, en gran medida, mucho lenguaje de descrédito hacia las fuentes alternativas. Y se capta a través de los procesos de lenguaje natural”, ha explicado José Manuel Gómez, director de I+D de Expert System Iberia.

Según él, hay máquinas basadas en lo que ahora se llama ‘language models’ que son capaces de interpretar, con un 92 % de precisión, si algo ha sido generado como falso por otra máquina. Solo con un texto escrito. En su compañía también trabajan en detección automática de bots basándose solo en el contenido… Aun así, “hay mucho trabajo por delante”.

“Sin embargo, únicamente con el procesamiento de lenguaje natural no es suficiente para detectar la desinformación, las noticias falsas. Estamos yendo hacia modelos que combinan el análisis del texto con análisis de la reputación o el crédito de las fuentes. Gran parte de esos modelos, de su éxito, radica en poder propagar de manera adecuada las distintas fuentes por las que va pasando un determinado contenido”

Antonio Sánchez Valderrábanos, fundador de Bitext, también ha hablado de la tecnología que rodea a las fake news: la Inteligencia Artificial. “Como cualquier herramienta, la IA está para defender y para atacar. Es inevitable. El resultado de que esté en los dos lados es que las noticias las puede crear una máquina, otra la identifica, y entonces se crea como un ping-pong. Eso significa que la escala del problema es tremebunda”.

La gran duda es: ¿a quién se va a dejar que haga esa tecnología? “Cuando hablamos de fake news, ¿a quién le damos ese poder? ¿A Google? ¿A Facebook? ¿Quién va a decir que una noticia es falsa en español? ¿Qué presidente vamos a tener porque no hemos sido capaces de desarrollar esa tecnología en casa? La continuación del problema ya es esto; porque ya ha empezado”, ha enfatizado Sánchez Valderrábanos.

LEIA: humanos y máquinas por el buen uso del español

Además, en Fundación Telefónica también han querido aprovechar para hacer una nueva presentación de su proyecto LEIA, junto a la Real Academia Española (RAE), que tiene por objeto “la defensa, proyección y buen uso de la lengua española en el universo digital y, especialmente, en el ámbito de la inteligencia artificial y las tecnologías actuales”.

Así, Juan Romeu, asesor lingüístico y técnico de comunicación en la RAE, ha explicado en la presentación que LEIA “es una princesa que define un proyecto galáctico. En la Guerra de las Galaxias, la princesa crea unidad. Aquí se unen humanos con máquinas, ciencias con letras y crea unidad en distintas zonas lingüísticas, algo crucial para el idioma”.

Según él, hemos llegado a un punto en el que más máquinas hablan español que personas y, de hecho, “puede ser que los humanos hablen más con máquinas que con personas, de ahí la importancia del español”. Los hispanohablantes tienen que tener acceso a hablar inglés, pero si no se puede, el español debe ser utilizado en tecnologías. “Es un idioma con más de 580 millones de habitantes (7,6 % del mundo), casi 483 millones son de lengua materna. La contribución del conjunto de países hispanohablantes al PIB mundial es del 6,9 %. Es la tercera lengua más hablada en Internet, y la segunda más utilizada en Facebook, Twitter, LinkedIn y Wikipedia”, ha apuntado para destacar su importancia.

Asimismo, parafraseando al director de la RAE y presidente de la ASALE, Santiago Muñoz, Romeu ha declarado que “no podemos permitir que la tecnología rompa la unidad del idioma. Hemos regulado el lenguaje humano 300 años, ahora hay que evitar que las máquinas se desmadren. El español debe dominar el lenguaje de la inteligencia artificial, las traducciones que hacen las máquinas son inadmisibles”.

Mucha gente cree que la RAE pone normas, pero sirve para que no se rompa la unidad de la lengua. Si hay una entidad que da pautas nos podemos acoger a ellas y entendernos bien, si se rompe puede quebrarse esa unidad. Hay que permitir que gente que no pueda hablar inglés no se pierda”.

Sobre la posición del español como idioma en el mundo digital, Romeu ha indicado que, cada año, consultan el diccionario 800 millones de personas. Se resuelven de forma personalizada 80.000 consultas anuales y almacena cientos de miles de esas consultas. Además, el conjunto de textos literarios que tienen preparados para su consulta es enorme, y pueden educar a las máquinas en un uso correcto del español.

“Ante esto nos hemos propuesto tres objetivos: enseñar a hablar un correcto español a las máquinas; aprovechar la IA para ayudar a personas a hablar un correcto español; y crear un certificado de uso del buen español, que esperamos que esté en un año o año y medio”, ha finalizado.