Las sexagésimas elecciones a la presidencia de Estados Unidos que se celebran mañana pueden convertirse en unas de las más reñidas de la historia. Todo indica que el triunfo de Trump o Harris está en manos de los votantes indecisos, y es en ese margen para la acción donde la inteligencia artificial más perniciosa está desplegando su potencial. El gran acontecimiento político a escala planetaria ha generado la tormenta perfecta entre la madurez de la IA como elemento capacitado para manipular, y la receptividad de millones de personas a fake news acordes a sus intereses.
Como explica Francisco José García Ull, profesor de la Universidad Europea de Valencia y especialista en inteligencia artificial, “los actuales modelos y algoritmos de IA permiten generar y distribuir contenidos altamente persuasivos y segmentados, explotando los sesgos de confirmación que inclinan a las personas a aceptar información que coincide con sus creencias preexistentes”. El profesor añade que este contexto “amplifica la polarización y facilita que las noticias falsas se propaguen rápidamente, en especial en tiempos electorales, cuando la atención está centrada en el ámbito político”.
Antonio Flores, profesor de la Universidad Francisco de Vitoria y asesor para la Comisión Europea en materia de IA, apunta que a todos nos gusta ver y escuchar las cosas de las que estamos convencidos. “Es una forma de demostrar al mundo que tenemos la razón. La IA no solo es capaz de generar esos contenidos “adaptados” a nuestros gustos, con imágenes y noticias fake, sino que también puede realizar un análisis muy complejo de todos los datos que están dispersos en Internet y en las redes sociales sobre nosotros para conocer exactamente lo que creemos y lo que nos gusta. Esto, utilizado en el pasado para organizar campañas de marketing y motores de recomendación en el ámbito comercial, incluso cuando no se utilizaba IA sino simples análisis estadísticos, ahora se ha vuelto un arma de máximo poder para los partidos políticos, sobre todo porque aún no hay regulación al respecto y prácticamente todo está permitido”.
No faltan ejemplos que demuestran con hechos los argumentos de los expertos. Una llamada automatizada con la voz de Joe Biden, generada con IA, fue enviada a votantes en New Hampshire. La comunicación sugería falsamente que votar en las primarias les impediría participar en las elecciones generales de noviembre, lo cual es incorrecto y buscaba confundir y disuadir a los votantes. “Aunque se reveló como un deepfake de audio, este incidente resalta que la IA permite difundir desinformación de manera efectiva y dirigida, explotando la confianza que se tiene en las figuras públicas. Refleja un desafío creciente en el contexto electoral, ya que las herramientas de IA hacen que la creación de estos engaños sea más rápida y accesible”, detalla García Ull.
Además, circulan vídeos hiperrealistas que simulan a líderes diciendo o haciendo cosas que nunca ocurrieron. Hay evidencia de deepfakes de Putin o Zelensky utilizados para generar desconcierto durante el conflicto en Ucrania. “Aunque, en este caso, se identificaron como falsos, su impacto ya había afectado la percepción pública”, señala el profesor de la Universidad Europea de Valencia. “Por otro lado, el uso de bots en redes sociales para difundir información polarizada y atacar a candidatos es cada vez más común. Los bots interactúan con personas reales, amplificando el alcance de la desinformación y distorsionando la percepción de ciertos eventos y posturas políticas”.
En redes sociales, los bots tienen la capacidad de amplificar mensajes hasta el punto de convertirlos en trending topics. “Esto significa que ciertos temas, etiquetas o mensajes, reciben tanta visibilidad en las plataformas que alcanzan una prominencia destacada. Los algoritmos de redes como X, TikTok, Facebook o Instagram interpretan esta actividad como relevante, lo que hace que los mensajes se muestren a un público aún mayor”.
Para García Ull, esta visibilidad no pasa desapercibida para los medios de comunicación tradicionales, “que monitorean constantemente las tendencias en redes sociales para estar al tanto de los asuntos de interés público”.
Así las cosas, el flujo de información -que empieza en redes y termina en prensa, radio y televisión- amplifica el alcance de ciertos mensajes más allá de los usuarios iniciales de las plataformas digitales. “Por eso, los temas y puntos de vista generados o manipulados en redes pueden llegar a formar parte de la opinión pública general, influenciando a personas que no necesariamente interactúan con el contenido en su origen digital. Este efecto convierte a las redes sociales en un canal poderoso para moldear la percepción social a gran escala, al influir tanto en los usuarios digitales como en quienes consumen información a través de medios convencionales”.
Para Antonio Flores, la principal manipulación es aquella de la que no somos conscientes. “Al margen de la famosa pregunta a Alexa: ¿Debo votar a Donald Trump?, que era contestada indicando que no podía dar una recomendación sobre cuestiones políticas (sin embargo, alababa las ventajas de votar a Kamala Harris cuando se le hacía la pregunta equivalente), la IA tiene el poder de mostrarnos en buscadores de Internet y sobre todo en redes sociales lo que supuestamente nos interesa. En realidad, es lo que le interesa a alguien que está detrás del algoritmo de IA. Y, sin embargo, si queremos buscar determinada información, muchas veces resulta imposible localizarla, como ocurrió durante la pandemia cuando alguien trataba de saber qué vacunas ponían en un hospital concreto. Aunque mucha gente lo publicara en redes sociales, esas búsquedas simplemente daban resultados que no tenían nada que ver con la pregunta. Pese a que la información estaba ahí, para el mundo no existia”.
“La regulación debe considerar la IA como una tecnología de alto riesgo”
“La regulación en este ámbito es crucial, pero debe diseñarse para equilibrar la innovación con la protección del público”, explica Francisco José García Ull. “Es fundamental que las plataformas tecnológicas identifiquen claramente los contenidos generados o manipulados por IA y que se implementen normas de transparencia en sus algoritmos y procesos de moderación. Además, una regulación efectiva requiere un enfoque internacional para adaptarse a la rápida evolución de las tecnologías y su alcance global. Este tipo de regulación colaborativa sería clave para mitigar los riesgos de desinformación a escala internacional”.
El profesor opina que, más allá de la regulación, educar a la sociedad es la mejor defensa contra estas técnicas de manipulación. “Los ciudadanos deben contar con las herramientas necesarias para identificar contenido falso, cuestionar la veracidad de las fuentes y evaluar críticamente la información que consumen. Esto implica fomentar el pensamiento crítico y la alfabetización digital desde una edad temprana, de modo que puedan reconocer señales de desinformación y no ser fácilmente manipulados por campañas engañosas. Solo así podrán navegar el entorno digital de manera más segura y resistente a los intentos de manipulación”.
Antonio Flores menciona un primer paso en este camino: el Reglamento Europeo de IA, aprobado recientemente, aunque no será efectivo hasta febrero. “Mientras tanto, no hay regulación, es decir, se puede hacer prácticamente cualquier cosa con IA mientras no se vulneren otras leyes como la de protección de datos. Además, el reglamento tiene algunos fallos que considero muy graves, como no regular el uso de la IA en el sector salud”.
El profesor de la Universidad Francisco de Vitoria opina que el principal cambio que necesitamos en la regulación es considerar la IA como “una tecnología de alto riesgo”, igual que sucede con la energía nuclear o la industria farmacéutica. “Bajo mi punto de vista, no tiene ningún sentido que el sector financiero, las eléctricas e incluso los vehículos estén sometidos a regulaciones muy estrictas y extensas para garantizar la protección de los usuarios y, sin embargo, en la IA simplemente nos limitemos a prohibir determinadas cosas como la identificación biométrica y a recomendar códigos de buenas prácticas. Tiene que haber una regulación sobre cómo, dónde y con qué nivel de auditoría y licencias puede usarse la IA. Quien prefiera el salvaje oeste digital, que se vaya a otros países donde tampoco tengan regulación financiera ni de servicios públicos, que los hay”.
La responsabilidad de los gurús tecnológicos
Flores incluye en la ecuación de la culpabilidad para haber llegado hasta aquí a los líderes tecnológicos. “Ahora más que nunca, estos magnates tienen casi toda la responsabilidad. Debemos tener en cuenta que los grandes modelos de IA, como GPT, Gemini o Claude, del que beben prácticamente todas las aplicaciones de IA en el mundo, están en manos de un puñado de empresas”.
Según el experto, que una tecnología estratégica dependa de unos pocos agentes privados, sin una regulación estricta detrás, es algo “nunca visto”. Y apunta que podría implicar “el salto definitivo de los sistemas democráticos al imperio de las corporaciones”, donde los ciudadanos pasemos de confiar en las instituciones a preferir la protección privada de un grupo reducido de multinacionales. “Creo que los líderes tecnológicos tienen no solo la obligación moral de gestionar un ecosistema sostenible de IA, sino que ostentan gran parte del poder para hacerlo”.
García Ull coincide. “Los líderes tecnológicos, como gestores de las plataformas que facilitan la difusión de la información, tienen una responsabilidad directa en garantizar que sus herramientas no se conviertan en vectores de manipulación masiva”. Considera que estos empresarios cuentan con los recursos necesarios para implementar tecnologías que detecten y limiten el alcance de la desinformación de manera efectiva. “Es esencial que adopten una postura transparente, implementando medidas para evitar que sus plataformas fomenten la polarización y la confusión, y asumiendo un papel clave en la estabilidad informativa en tiempos críticos”.
El profesor de la Universidad Europea de Valencia opina que también cabe preguntarse a quién beneficia esta polarización. “Elon Musk, propietario de X, ha participado activamente en la campaña de Trump, lo que sugiere la posibilidad de que la red social pueda favorecer ciertos mensajes alineados con posturas ideológicas específicas. ¿Podría esta polarización beneficiar a Trump? No se trata solo de amplificar ciertos mensajes, sino también de ocultar información y aplicar shadow banning sobre usuarios con opiniones opuestas. Cada tecnología lleva implícita la ideología de sus creadores. ¿Cuál es, entonces, la ideología de X? ¿Y la de TikTok? ¿Cuál es la visión que sus plataformas están promoviendo? Quizás sea necesario un análisis profundo de la intencionalidad detrás de estas redes sociales y de cómo influyen en el comportamiento y las creencias de sus usuarios”.