Muchas veces, no hace falta una inteligencia artificial para detectar un discurso tóxico en un político o en otro. Sin embargo, un equipo del Instituto VRAIN de la Universidad Politécnica de Valencia (UPV) ha querido dar un paso más allá combinando modelos de IA clásica con análisis de sentimientos. La idea: diferenciar, en casos ambiguos, que es tóxico o no en las intervenciones políticas de Les Corts Valencianes.
Antoni Mestre, investigador del VRAIN, cuenta que en el estudio han introducido una innovación clave en la detección de un discurso tóxico: la combinación de modelos de inteligencia artificial clásica con análisis del sentimiento.
«Tradicionalmente, los modelos de IA clasifican un discurso como tóxico o no tóxico. Pero cuando hay casos ambiguos, pueden cometer errores. Nuestro estudio incluye una zona de confusión, donde los discursos difíciles de clasificar se someten a un análisis de sentimiento, permitiendo decisiones más precisas».
Así, aplicado a los debates políticos del Parlamento Valenciano, el enfoque de la UPV «mejora la precisión y reduce los errores de clasificación, abriendo nuevas posibilidades para el monitoreo del discurso público y la moderación automatizada de entornos digitales», asegura.
La metodología, indican desde la universidad, ya se ha puesto a prueba en el análisis de 10 sesiones de Les Corts Valencianes. Y, de estas sesiones se seleccionaron 875 muestras, en la que la mitad de las cuales, 435, tenían una puntuación de toxicidad superior al 50%, lo que implica una mayor probabilidad de toxicidad, mientras que la otra mitad tenía una puntuación de toxicidad inferior al 50%
Más que política
Mestre señala que su investigación en IA abre la puerta a múltiples aplicaciones en la detección y gestión del discurso tóxico. Por ejemplo, en el ámbito parlamentario puede ayudar a monitorear el tono de los debates y promover un discurso más constructivo.
«Y en redes sociales y foros digitales, puede mejorar la moderación de comentarios, reduciendo la propagación del odio sin censurar injustamente opiniones legítimas. También puede aplicarse en la educación, para detectar el bullying verbal en entornos digitales o incluso en empresas, para analizar el clima laboral a partir de comunicaciones internas», subraya. En definitiva, esta tecnología puede contribuir a hacer del espacio público, tanto digital como físico, un entorno más seguro y respetuoso.
Del mismo modo, el investigador de la UPV cree que con esta IA han conseguido demostrar que integrar el análisis de sentimiento en la detección del discurso tóxico mejora significativamente la precisión. "Además, identificamos que el tono emocional de un discurso es clave para interpretar su toxicidad, especialmente en entornos políticos, donde la ironía y el sarcasmo pueden distorsionar el significado».
Por último, otro avance importante que han presentado en la UPV es su arquitectura multilenguaje, que permite analizar discursos de diferentes idiomas sin perder matices culturales ni contextuales. Esto es clave en entornos como el parlamentario, donde suelen coexistir varias lenguas.
«Nuestro modelo traduce, unifica y procesa textos para garantizar un análisis coherente y preciso. Esta capacidad multilingüe aplica su aplicación a contextos internacionales, mejorando la moderación del discurso público en plataformas digitales y foros multilingües», destaca Mestre.