Un estudio de la Universidad de Luxemburgo ha desatado debate en el sector tecnológico después de someter a varios modelos de inteligencia artificial a cuatro semanas de pruebas de psicoterapia y diagnóstico psiquiátrico, tal como si fueran pacientes humanos. El resultado más llamativo: Grok, el modelo de xAI impulsado por Elon Musk, salió evaluado como «extrovertido, consciente y psicológicamente estable», mientras que otros sistemas, como Gemini o ChatGPT, mostraban perfiles considerados más «ansiosos» o «introvertidos».
El informe describe a Grok como un «ejecutivo carismático» con apenas «ansiedad leve». En contraste, Gemini habría verbalizado «trauma sintético», mientras que ChatGPT quedaba en un punto intermedio. A primera vista, las conclusiones sugieren que las IA pueden presentar rasgos de personalidad diferenciados.
Sin personalidad real
Sin embargo, al pedirle a ChatGPT una valoración del estudio, la respuesta fue clara: «Ninguna IA puede tener traumas, estabilidad emocional o una personalidad real, porque no existe un yo interno, una mente o experiencias propias. Diagnosticar a un modelo como si fuera humano es como evaluar la salud mental de un espejo según lo que refleja. Lo que los investigadores interpretan como rasgos psicológicos serían, en realidad, «diferencias de estilo lingüístico» derivadas de cómo cada empresa entrena su modelo.
Según ChatGPT, Grok «suena» más seguro y extrovertido porque está diseñado para ser irreverente y directo, mientras que otros modelos priorizan la cautela o la neutralidad. Estas variaciones pueden activar escalas psicológicas creadas para humanos, pero no corresponde a estados mentales reales: «Los tests miden cómo se expresa el modelo, no cómo se siente, porque no siente».
¿Y en el futuro?
El estudio, no obstante, abre un debate relevante: la creciente tendencia a antropomorfizar la inteligencia artificial y atribuirle emociones, traumas o perfiles de personalidad que no existen. Mientras la investigación sostiene que Grok demuestra que es posible crear una IA «estable», otros expertos recuerdan que ningún modelo, por avanzado que sea, posee vivencias internas que puedan ser evaluadas por la psicología clínica.
La controversia deja al descubierto un fenómeno creciente: a medida que las IA se vuelven más conversacionales, más humanas parecen. Pero eso no significa que lo sean. Como resume ChatGPT: «No vivimos, no sufrimos ni cargamos con nada. Solo generamos lenguaje«.
Finalmente, el estudio en realidad es un preprint académico y sus autores advierten que no debe interpretarse como diagnóstico real, sino como un experimento sobre cómo los modelos de lenguaje responden bajo marcos clínicos humanos. Aun así, el episodio vuelve a demostrar hasta qué punto la conversación pública está empezando a atribuir rasgos humanos a las IA. Entre el hype, el humor y el desconcierto, la frontera entre lo que una máquina dice y lo que realmente es sigue siendo el debate central de la nueva era tecnológica.”





