El mes pasado, la Casa Blanca aumentó esa confusión al publicar dos videos vagos con el mensaje "próximo lanzamiento", para luego eliminarlos después de que investigadores en línea y expertos en fuentes abiertas comenzaran a analizarlos.
La revelación resultó decepcionante: una simple campaña promocional para la aplicación oficial de la Casa Blanca. Sin embargo, el episodio demostró hasta qué punto la comunicación oficial ha asimilado la estética de las filtraciones, la viralidad y la intriga propia de las plataformas digitales. Incluso cuando las cuentas oficiales adoptan la estética de las filtraciones, cuestionar si un documento es real o sintético es la única estrategia defensiva que queda.
Informe de Referencia sobre el Estado del Tráfico de IA y las Ciberamenazas de 2026. Estos sistemas no solo distribuyen contenido, sino que priorizan la viralidad de baja calidad, asegurando que el registro sintético se propague mientras la verificación aún se está implementando.Los investigadores de fuentes abiertas siguen resistiendo, pero se enfrentan a una guerra de volumen. El auge de los hiperactivos "supercompartidores", a menudo respaldados por verificaciones de pago, añade una capa de falsa autoridad con la que la inteligencia de fuentes abiertas (OSINT) tradicional ahora tiene que lidiar.
"Siempre estamos intentando alcanzar a alguien que comparte una publicación sin pensarlo dos veces. El algoritmo prioriza ese reflejo, y nuestra información siempre irá un paso por detrás", afirma Maryam Ishani, periodista de OSINT que cubre el conflicto.
imágenes de Irán y de la zona de conflicto de Oriente Medio en general, con efecto retroactivo al 9 de marzo, tras una solicitud del gobierno estadounidense.La respuesta del secretario de Defensa de Estados Unidos, Pete Hegseth, a las preocupaciones sobre la demora fue inequívoca: "El código abierto no es el lugar para determinar qué sucedió o no sucedió".
Ese cambio es importante. Cuando se restringe el acceso a la evidencia visual primaria, la capacidad de verificar los hechos de forma independiente disminuye. Y en esa brecha que se reduce, algo más se expande. En ese vacío, la IA generativa no solo llena el silencio, sino que compite por definir lo que se ve en primer lugar.
La IA generativa es cada vez más difícil de ver
Las plataformas de IA han aprendido de sus errores. Henk van Ess, formador en investigación y especialista en verificación, afirma que muchos de los fallos clásicos, como el recuento incorrecto de dedos, los carteles de protesta ilegibles o el texto distorsionado, se han corregido en gran medida en la última generación de modelos. Herramientas como Imagen 3, Midjourney y DALL·E han mejorado en la comprensión inmediata, el fotorrealismo y la representación de texto en imágenes.
Pero el problema más difícil es lo que van Ess llama el híbrido. En estos casos, el 95% de la imagen es una fotografía de prensa real: metadatos reales, ruido del sensor real, física de la iluminación real. La manipulación reside en un solo detalle: un parche añadido a un uniforme, un arma colocada en una mano, un rostro sutilmente sustituido. Los detectores a nivel de píxel suelen detectarla sin problemas, porque analizan lo que, en la mayoría de los aspectos, es una imagen auténtica. La falsificación puede ocupar apenas una pulgada cuadrada.
"Todos los métodos antiguos partían de la base de que la imagen era un registro de algo. Los medios generativos rompen con esa premisa de raíz", afirma van Ess.
Henry Ajder, investigador de deepfakes y asesor de IA que ha rastreado los medios sintéticos desde 2018, va más allá. La IA ya no es evidente, sino que está integrada. El volumen de contenido sintético de alta calidad que circula actualmente en línea significa que la era de los errores visibles está llegando a su fin. Lo que lo reemplaza es contenido que parece completamente creíble.
herramientas de detección nunca deben utilizarse como único indicador para determinar qué medidas tomar".Esa infraestructura aún no existe a gran escala. Hasta que exista, la responsabilidad recae en otro lugar: sobre las personas que consumen esas imágenes.
los verificadores de hechos, son más útiles que una única puntuación de confianza. ImageWhisperer es una herramienta gratuita que combina estas señales.