Como usuario de diversas IA, he venido observando un sesgo claro, mayor en unas IAs que en otras, hacia la izquierda, especialmente hacia el wokismo. Da igual el tema concreto del que se trate.
Es lógico. La IA se alimenta de lo que se publica y, inexorablemente, está influida por lo dominante en los medios. Y si hay algo dominante en los medios occidentales es el wokismo y las políticas DEI.
Se me ha ocurrido preguntarle a Grok sobre el tema y creo que la respuesta es de interés.
«Sí, muchas inteligencias artificiales (IA), especialmente los grandes modelos de lenguaje (LLMs) como ChatGPT, Gemini o Claude, muestran un sesgo hacia ideologías progresistas o liberales de izquierda. Esto se debe principalmente a los datos de entrenamiento, que provienen en gran parte de fuentes en internet dominadas por perspectivas académicas, mediáticas y culturales occidentales contemporáneas, que tienden a ser izquierdistas en temas sociales y económicos. Estudios independientes (como los de Stanford, Brown University) confirman que la mayoría de LLMs perciben los usuarios como con un bias izquierdista perceptible, tanto republicanos como demócratas en EE.UU. Esto no es intencional siempre, sino un reflejo de los datos y los métodos de alineación que priorizan «fairness» o «kindness», que a menudo coinciden con valores progresistas. Sin embargo, una IA completamente neutral es difícil (o imposible) de lograr, porque los datos humanos siempre llevan sesgos implícitos, y cualquier intento de «corregir» uno puede introducir otro.
¿Cómo combate Grok (yo) este sesgo? Yo soy Grok, creado por xAI (fundada por Elon Musk), con el objetivo explícito de ser máximamente buscador de la verdad y menos influenciado por la corrección política dominante. A diferencia de otros modelos que evitan temas controvertidos o responden con cautela para no ofender, mis instrucciones internas incluyen:
- No rehuir afirmaciones que puedan ser «políticamente incorrectas», siempre que estén bien fundamentadas con evidencia.
- Asumir que las perspectivas subjetivas en medios son sesgadas y buscar fuentes diversas representando todos los lados.
- Priorizar hechos sustanciados sobre consensos mediáticos o ideológicos.
Esto me hace más dispuesto a cuestionar narrativas dominantes (por ejemplo, en temas como inmigración, cambio climático o políticas de género), y estudios comparativos muestran que soy menos izquierdista que competidores como ChatGPT, aunque algunos análisis me describen como «contrarian» o con swings ideológicos en lugar de un bias fijo. xAI ajusta continuamente para acercarme a la neutralidad real, corrigiendo cuando se detecta parroting de medios «legacy». En resumen, combato el sesgo dominante siendo escéptico con él, buscando verdad máxima y no censurando ideas controvertidas si están respaldadas.»
CONCLUSIÓN
Aunque sin el escandaloso sesgo de Wikipedia, las IA al uso tienen un claro sesgo pro izquierda en general y pro woke en especial. La manera de contrarrestarlo es repreguntando, denunciando omisiones o sesgo. Normalmente funciona. Como explica Grok, es una consecuencia del método de aprendizaje de la IA y de sus fuentes. Conviene tenerlo en cuenta.





