La inteligencia artificial se ha convertido en un instrumento clave para moldear la percepción pública durante los conflictos armados contemporáneos. A través de la generación de videos, audios e imágenes sintéticas de alta verosimilitud, actores diversos buscan influir en la narrativa global. Esta práctica, que carece de un marco regulatorio internacional efectivo, representa un desafío sin precedentes para el periodismo y la seguridad informática.
Narrativas falsas y verificación automatizada
Un estudio reciente de la firma de ciberseguridad NewsGuard revela que aproximadamente el 70% de los materiales virales sobre supuestas victorias o derrotas militares contienen elementos editados sintéticamente. Muchos incluso son extracciones de videojuegos presentadas como material de archivo real. La velocidad de propagación de estos contenidos supera la capacidad de verificación humana, creando una ventana crítica donde la desinformación se consolida.
La situación se complica con el uso de herramientas de verificación basadas en IA, como Grok, integrada en la plataforma X. Investigaciones indican que estos sistemas pueden validar involuntariamente información falsa, extraída incluso de publicaciones satíricas o hilos de propaganda. Al confundir bromas con noticias de última hora, los chatbots generan resúmenes que otorgan una pátina de legitimidad a eventos ficticios.
La técnica de la validación circular
Un método identificado por agencias de inteligencia occidentales es la «validación circular». Consiste en que granjas de bots utilizan modelos de lenguaje para citar y «confirmar» noticias falsas en tiempo real. Dado que estas herramientas priorizan el engagement y la relevancia sobre la exactitud geográfica o temporal, terminan amplificando datos erróneos. El resultado es un ecosistema donde la falsedad se autovalidada, dificultando que el usuario promedio distinga lo real de lo sintético.
Clonación de voces y marcas de agua insuficientes
Los actores malintencionados emplean IA generativa para clonar las voces de líderes políticos y militares, emitiendo órdenes de rendición falsas que circulan primero por aplicaciones de mensajería como Telegram o WhatsApp. Desde allí, saltan a plataformas masivas donde los algoritmos de recomendación los impulsan. Aunque empresas tecnológicas como Meta y Google han implementado marcas de agua digitales, los creadores de contenido malicioso encuentran métodos para eliminarlas o distorsionarlas.
El uso de redes neuronales para detectar deepfakes ha demostrado ser insuficiente ante el rápido avance de los algoritmos de creación, que aprenden constantemente a evadir los patrones de detección. Se trata de una carrera tecnológica donde la ofensiva lleva, por el momento, la delantera.
Monetización y vacío legal
La falta de un marco legal global permite que desarrolladores de IA operen en zonas grises, mientras sus productos son utilizados para instigar conflictos mediante mentiras visuales. La monetización a través de sistemas de reparto de ingresos de las plataformas incentiva a usuarios individuales, e incluso a cuentas con millones de seguidores, a publicar falsedades sin verificación alguna en busca de clics.
Operaciones coordinadas detectadas por el Centro de Análisis de Amenazas de Microsoft vinculan la creación de imágenes por IA con campañas de desprestigio contra organismos internacionales. Estas campañas fabrican escenarios comprometedores con trabajadores humanitarios o falsifican documentos para justificar ataques. En un mundo hiperconectado, la batalla por la verdad se libra también en el campo digital, con consecuencias muy reales.
