El periodismo de verificación se enfrenta a un nuevo y peligroso adversario: los errores algorítmicos con un alcance masivo. El Consejo de Redacción de la Agencia EFE ha denunciado públicamente un ataque directo a su credibilidad por parte de Grok, la inteligencia artificial de la plataforma X (propiedad de Elon Musk). Según el organismo de la agencia pública, la IA afirmó falsamente que un vídeo distribuido por EFE sobre el bombardeo a una escuela femenina en Irán era, en realidad, metraje grabado en Kabul en el año 2021.

Una rectificación «invisible»
Desde EFE han calificado la acusación de «rotundamente falsa», asegurando que las imágenes son actuales y han sido sometidas a estrictos procesos de contraste de fuentes antes de su difusión. El peligro, según denuncian los periodistas, reside en el diseño de la propia plataforma de Musk: aunque Grok acabó rectificando el error, el algoritmo no ha otorgado a la corrección el mismo alcance que al ataque inicial. «La mentira voló; la verdad ha sido silenciada por el diseño de la propia plataforma», lamentan desde el Consejo de Redacción.
Efecto dominó en los medios españoles
El error de la IA no solo ha afectado a la agencia de noticias, sino que ha puesto en duda el trabajo de rigor de otros grandes medios como RTVE y Antena 3, que también informaron sobre estas imágenes basándose en la verificación de EFE. Los profesionales de la información reivindican frente al algoritmo la importancia de la ética y el contraste humano: «El error humano es posible, pero nos rigen procesos de verificación que la IA ignora al generar información falsa».





