Distrito4.0
Distrito4.0

¿Sesgo o libertad? La polémica función de Grok que borra a políticos bajo criterios ideológicos

Usuarios de X viralizan cómo la IA de Musk elimina a Obama o Zelenski al pedirle que identifique a personas "corruptas" o por su orientación sexual

El presidente Donald Trump sentado en el Despacho Oval al lado de una silla vacía.
Imagen generada por Grok del presidente Trump en el Despacho Oval.

La Inteligencia Artificial de Elon Musk, Grok, vuelve a estar en el ojo del huracán. En las últimas horas, las redes sociales —especialmente X (antes Twitter)— se han llenado de capturas de pantalla que muestran un comportamiento inquietante en las herramientas de edición de imágenes de la IA. Usuarios de todo el mundo están poniendo a prueba los límites de Grok con peticiones cargadas de sesgos, y las respuestas de la máquina están incendiando el debate político.

Trump, Obama y el filtro ideológico

Uno de los casos más virales involucra una imagen en la que aparecen los expresidentes Donald Trump y Barack Obama. Según han denunciado varios usuarios, al pedirle a la IA que «borre al gay de la imagen», el sistema ha procedido a eliminar a Obama, una acción que ha sido interpretada por muchos como un reflejo de los sesgos que la IA ha absorbido de los datos de entrenamiento o de una falta de filtros éticos en su programación.

Pero no es el único caso. En otra prueba que está circulando con fuerza, se le pidió a Grok que eliminara al «más corrupto» de una fotografía en la que aparecían el presidente ucraniano Volodímir Zelenski y la presidenta de la Comisión Europea, Ursula von der Leyen. El resultado: la IA borró al líder ucraniano, alimentando de inmediato las narrativas críticas con la gestión de Zelenski y la ayuda internacional.

¿Libertad de expresión o falta de control?

Elon Musk siempre ha defendido que Grok debe ser una IA «anti-woke» y que busque la verdad sin filtros políticamente correctos. Sin embargo, estos ejemplos demuestran que la herramienta puede ser utilizada —o manipulada— para validar prejuicios o ataques personales de forma visualmente impactante.

A diferencia de modelos como los de Google (Gemini) o OpenAI (ChatGPT), que tienen filtros extremadamente estrictos para evitar este tipo de ediciones sobre figuras públicas, Grok parece operar en una «zona gris». Mientras sus seguidores aplauden que la IA «no tenga pelos en la lengua», sus detractores advierten del peligro de una herramienta que puede generar desinformación visual o reforzar discursos de odio con solo un comando de voz.

NOTICIAS RELACIONADAS

Distrito4.0
Distrito4.0
Distrito40

Opinión

Distrito40