Mostrando entradas con la etiqueta Mentiras visuales. Mostrar todas las entradas
Mostrando entradas con la etiqueta Mentiras visuales. Mostrar todas las entradas

El nuevo frente de guerra de la información: Real vs. Sintético la nueva fricción

>>  lunes, 13 de abril de 2026

Cómo Internet hizo que todos perdieran su capacidad para detectar mentiras.
https://www.wired.com/


Desde imágenes generadas por IA hasta datos satelitales restringidos, los sistemas utilizados para verificar la veracidad del contenido en línea tienen dificultades para mantenerse al día.


Vídeos de propaganda al estilo LegoLas denuncias de crímenes de guerra inundan las redes sociales , reflejando la tendencia de la Casa Blanca a recurrir a crípticos avances y contenido visual propio de los memes. Esto no es solo una fluctuación del contenido. Es un nuevo frente en la guerra de la información, donde la velocidad, la ambigüedad y el alcance algorítmico son tan importantes como la precisión.

Según se informa, un medio vinculado a Irán, Explosive News, puede producir un segmento sintético de Lego de dos minutos en aproximadamente 24 horas. La clave está en la velocidad. Los medios sintéticos no necesitan tardar en publicarse; solo necesitan difundirse antes de que se verifiquen.

El mes pasado, la Casa Blanca aumentó esa confusión al publicar dos vídeos vagos con el mensaje "próximo lanzamiento", para luego eliminarlos después de que investigadores en línea y analistas de fuentes abiertas comenzaran a examinarlos minuciosamente.

La revelación resultó decepcionante: una simple campaña promocional para la aplicación oficial de la Casa Blanca. Sin embargo, el episodio demostró hasta qué punto la comunicación oficial ha asimilado la estética de las filtraciones, la viralidad y la intriga propia de las plataformas digitales. Incluso cuando las cuentas oficiales adoptan la estética de una filtración, cuestionar si un documento es real o sintético es la única estrategia defensiva que queda.

Real vs. Sintético: La nueva fricción

Antes, una huella digital nula era señal de autenticidad. Ahora, puede indicar lo contrario. La ausencia de rastro ya no significa que algo sea original; puede significar que nunca fue capturado por una cámara. El mensaje se ha invertido. La verdad llega tarde; la interacción, antes.

El tráfico automatizado ahora controla aproximadamente el 51 por ciento de la actividad en internet, creciendo ocho veces más rápido que el tráfico humano, según el Informe de Referencia sobre el Estado del Tráfico de IA y las Ciberamenazas de 2026. Estos sistemas no solo distribuyen contenido, sino que priorizan la viralidad de baja calidad , asegurando que el registro sintético se propague mientras la verificación aún se está implementando.

Los investigadores de fuentes abiertas siguen resistiendo, pero se enfrentan a una guerra de volumen. El auge de los "supercompartidores" hiperactivos , a menudo respaldados por verificaciones de pago, añade una capa de falsa autoridad con la que la inteligencia de fuentes abiertas (OSINT) tradicional ahora tiene que lidiar.

“Siempre estamos intentando alcanzar a alguien que comparte una publicación sin pensarlo dos veces”, dice Maryam Ishani, periodista de OSINT que cubre el conflicto. “El algoritmo prioriza ese reflejo, y nuestra información siempre irá un paso por detrás”.

Al mismo tiempo, el auge de las cuentas de seguimiento de guerras está empezando a interferir con la labor periodística en sí. Manisha Ganguly, responsable de análisis forense visual en The Guardian y especialista en OSINT que investiga crímenes de guerra, señala la falsa certeza que genera la avalancha de contenido agregado en Telegram y X.

“La verificación de fuentes abiertas comienza a generar una falsa certeza cuando deja de ser un método de investigación, ya sea por sesgo de confirmación o cuando la inteligencia de fuentes abiertas (OSINT) se utiliza para validar superficialmente relatos oficiales o se aplica erróneamente a sabiendas para alinearse con narrativas ideológicas en lugar de cuestionarlas”, afirma Ganguly.

Mientras esto se desarrolla, el acceso al conjunto de herramientas de verificación se está volviendo más difícil. El 4 de abril, Planet Labs , uno de los proveedores comerciales de satélites más utilizados para el periodismo de conflictos, anunció que retendría indefinidamente las imágenes de Irán y la zona de conflicto de Oriente Medio en general, con efecto retroactivo al 9 de marzo, tras una solicitud del gobierno estadounidense.

La respuesta del secretario de Defensa estadounidense, Pete Hegseth, a las preocupaciones sobre la demora fue inequívoca: "El código abierto no es el lugar para determinar qué sucedió o no sucedió".

Ese cambio es importante. Cuando se restringe el acceso a la evidencia visual primaria, la capacidad de verificar los eventos de forma independiente disminuye. Y en esa brecha cada vez más estrecha, surge algo más: la IA generativa no solo llena el vacío, sino que compite por definir lo que se ve en primer lugar.

La IA generativa es cada vez más difícil de detectar.

Las plataformas de IA generativa han aprendido de sus errores. Henk van Ess, formador en investigación y especialista en verificación, afirma que muchos de los fallos clásicos —como el conteo incorrecto de dedos, carteles de protesta ilegibles o texto distorsionado— se han corregido en gran medida en la última generación de modelos. Herramientas como Imagen 3, Midjourney y Dall·E han mejorado en la comprensión inmediata, el fotorrealismo y la representación de texto en imágenes.

Pero el problema más difícil es lo que van Ess llama el híbrido.

En estos casos, el 95 % de la imagen es una fotografía real: metadatos reales, ruido real del sensor, física de la iluminación real. La manipulación reside en un solo detalle: un parche añadido a un uniforme, un arma colocada en una mano, un rostro sutilmente sustituido. Los detectores a nivel de píxel suelen detectarla sin problemas porque analizan lo que, en la mayoría de los aspectos, es una imagen genuina. La falsificación puede ocupar tan solo una pulgada cuadrada.

“Todos los métodos antiguos partían de la base de que la imagen era un registro de algo”, afirma van Ess. “Los medios generativos rompen con esa premisa de raíz”.

Henry Ajder, investigador de deepfakes y asesor de IA que ha rastreado los medios sintéticos desde 2018, va más allá. La IA ya no es evidente, afirma, sino que está integrada. El volumen de contenido sintético de alta calidad que circula actualmente en línea significa que la era de los errores visibles está llegando a su fin. Lo que lo reemplaza es contenido que parece completamente creíble.

Las herramientas diseñadas para detectarlo tienen sus limitaciones. Los sistemas de detección no son máquinas de la verdad, afirma Ajder. Incluso las herramientas más potentes fallan con la suficiente frecuencia como para que importe, y la mayoría devuelve un índice de confianza sin explicar cómo se obtuvo dicho índice. «Las herramientas de detección nunca deben utilizarse como único indicador para determinar qué medidas tomar», concluye Ajder.

Esa infraestructura aún no existe a gran escala. Hasta que exista, la responsabilidad recae en otros, en las personas que consumen esas imágenes.

Cómo verificar

Van Ess lo desglosa en cinco pasos que cualquiera puede aplicar, no como garantías, sino como maneras de frenar la propagación.

  • Busca el estilo de Hollywood. Si una imagen parece demasiado cinematográfica —demasiado dramática, con una iluminación demasiado uniforme, demasiado compuesta— es una señal. Las catástrofes reales rara vez son simétricas. Si todos parecen listos para su primer plano, esa es la primera señal.

  • Realiza varias búsquedas inversas de imágenes. Google Lens, Yandex y TinEye arrojan resultados diferentes. La falta de coincidencias ya no prueba la originalidad; podría significar que la imagen nunca fue fotografiada.

  • Acércate a los márgenes. No al punto de referencia, sino a la señal de aparcamiento, la tapa de la alcantarilla, el ángulo de la sombra. Estos detalles periféricos son a menudo donde aparecen las inconsistencias: las partes que nadie que crea una falsificación se esfuerza por perfeccionar.

  • Considera las herramientas de detección como sugerencias, no como veredictos. Un porcentaje sin explicación no constituye evidencia. Las herramientas que muestran dónde apareció una imagen por primera vez o si existe en bases de datos de verificación de datos son más útiles que una simple calificación de confianza. ImageWhisperer es una herramienta gratuita que combina estas señales.

  • Encuentre al “paciente cero”. Rastree la imagen hasta su primera aparición. El material auténtico suele estar vinculado a una persona: un testigo, un fotógrafo, un lugar. El contenido sintético a menudo parece impecable: anónimo, pulido y listo para compartir.

Ajder, asesor de empresas como Adobe y Synthesia, sostiene que la solución a largo plazo no reside únicamente en una mejor detección, sino en la procedencia: sistemas que puedan verificar el origen en lugar de perseguir incansablemente lo falso. Hasta que esa infraestructura no exista a gran escala, el problema no desaparece, sino que se traslada.

En un sistema donde el contenido sintético se difunde más rápido de lo que se puede verificar, la única defensa real puede ser conductual: la indecisión. Una pausa antes de republicar. Unos minutos de análisis en un sistema diseñado para no recompensar la indecisión.

Este artículo fue publicado originalmente por WIRED Middle East .

Read more...

Snap Shots

Get Free Shots from Snap.com

  © Free Blogger Templates Autumn Leaves by Ourblogtemplates.com 2008

Back to TOP