
Katerina Turska, copresidenta de la Asociación de Ucranianos de Nueva Zelanda (Norte), directora de Mahi For Ukraine
Fuente: The Post
El auge de la inteligencia artificial ha profundizado la crisis de la posverdad. Los modelos de IA procesan y generan enormes cantidades de información, lo que los convierte en blancos ideales para la manipulación.
Un informe de NewsGuard de marzo de 2025 expuso una red respaldada por el Kremlin llamada “Pravda” (irónicamente), que inundó Internet con 3,6 millones de artículos inventados en 150 dominios en 49 países. Este volumen de desinformación se infiltró en los datos de entrenamiento de la IA, lo que llevó a que los chatbots de la IA repitieran las narrativas del Kremlin aproximadamente el 33% del tiempo.
La inteligencia artificial se basa en grandes conjuntos de datos, y una cantidad significativa de desinformación rusa asegura su presencia en el contenido generado por IA. Esta estrategia deliberada es un ejemplo de tácticas de posverdad, donde falsedades repetidas una y otra vez oscurecen hechos objetivos, fomentando la confusión y la desconfianza.
Rusia ha utilizado la IA de diversas maneras para mejorar su propaganda. Un ejemplo bien conocido es la falsificación profunda del presidente de Ucrania creada por inteligencia artificial en marzo de 2022, que pidió falsamente a las tropas ucranianas que se rindieran. Este vídeo, distribuido a través de un sitio de medios de comunicación ucraniano pirateado, tenía como objetivo socavar la moral.
Además de los deepfakes, Rusia está utilizando inteligencia artificial para gestionar redes a gran escala de perfiles falsos en redes sociales y sitios de noticias. Durante las elecciones alemanas, más de un centenar de recursos vinculados a Rusia difundieron información falsa sobre políticos pro-OTAN y pro-ucranianos, imitando a medios de comunicación alemanes ficticios para crear la ilusión de veracidad.
En 2024, el Departamento de Justicia de Estados Unidos cerró una operación rusa que utilizaba inteligencia artificial para crear y administrar casi mil cuentas falsas en redes sociales que se hacían pasar por estadounidenses y promovían narrativas del Kremlin. Meta también detectó y bloqueó 20 campañas de influencia encubiertas, la mayoría con presencia rusa, destinadas a manipular las elecciones en Estados Unidos, Georgia, Armenia y Azerbaiyán.
Las elecciones rumanas de 2024 demostraron la eficacia de la desinformación impulsada por la inteligencia artificial. TikTok eliminó 66.000 cuentas falsas y 10 millones de seguidores falsos que intentaban influir en la votación. Un candidato poco conocido, Georgescu, ganó inesperadamente el 22% de los votos en tres días, gracias a un contenido viral en TikTok generado por inteligencia artificial que lo retrató como un nacionalista moderado. Sin estructura partidaria ni financiación, su éxito se creó artificialmente mediante desinformación impulsada por inteligencia artificial. Si sólo una plataforma, en una elección, en un país, detectó 66.000 cuentas falsas, la escala global de este problema es asombrosa.
Fotografía: Shutterstock