Florida investiga a OpenAI por su posible vínculo con un tiroteo en una universidad

Florida examina si un sistema de inteligencia artificial pudo influir en el ataque

James Uthmeier
James Uthmeier

El estado de Florida ha abierto una investigación criminal contra la empresa OpenAI por su presunta relación con un tiroteo masivo ocurrido en abril de 2025 en el campus de la Universidad Estatal de Florida. El ataque dejó dos víctimas mortales y seis personas heridas.

El fiscal general estatal, James Uthmeier, anunció la apertura del proceso durante una rueda de prensa celebrada en Tampa. “Florida está liderando el camino al tomar medidas enérgicas contra el uso de la IA en el comportamiento criminal”, afirmó. En esa línea, añadió que “si ChatGPT fuera una persona, estaría enfrentándose a cargos por asesinato”.

El foco de la investigación

La investigación se centra en los mensajes intercambiados entre el presunto autor del ataque, Phoenix Ikner, estudiante de 20 años que permanece en prisión preventiva, y un chatbot de inteligencia artificial.

Según la fiscalía, el sistema habría proporcionado “consejos relevantes” en los momentos previos al tiroteo, incluyendo supuestas recomendaciones sobre armamento o munición. Entre las consultas realizadas el mismo día del ataque figuran preguntas sobre la reacción pública ante un tiroteo universitario, los momentos de mayor afluencia en el centro estudiantil y las posibles penas legales en Florida para este tipo de delitos.

Posible responsabilidad penal 

Las autoridades tratan de determinar si la empresa puede ser considerada penalmente responsable bajo la legislación estatal, que tipifica como delito “ayudar, incitar o aconsejar” la comisión de un crimen.

El caso ha cobrado mayor relevancia tras la demanda presentada por la familia de una de las víctimas, que acusa al sistema de inteligencia artificial de haber facilitado el ataque.

Requerimientos a la empresa

Como parte del proceso, el estado de Florida ha solicitado a OpenAI documentación interna relacionada con sus políticas de seguridad, el entrenamiento del modelo y sus protocolos de cooperación con las autoridades.

Asimismo, ha pedido identificar a empleados y directivos implicados en el desarrollo y la gestión del sistema.

Aumento de la presión legal 

Este caso abre un nuevo frente en el debate sobre el uso de la inteligencia artificial y su posible responsabilidad en actos delictivos. En los últimos meses, Florida ha intensificado su escrutinio sobre estas tecnologías.

En marzo, una familia del estado presentó una demanda contra el chatbot Gemini por presuntamente inducir al suicidio a un hombre. Por su parte, el comisionado del Departamento de Aplicación de la Ley de Florida, Mark Glass, advirtió sobre los riesgos emergentes: “Es importante que seamos conscientes de los daños que esta tecnología puede causar y que ya ha causado en nuestras comunidades”.

Tensiones políticas 

El gobernador de Florida, Ron DeSantis, ha reiterado su intención de impulsar una regulación estatal más estricta sobre la inteligencia artificial. Su postura contrasta con la del presidente Donald Trump, quien defiende la creación de un marco regulatorio único a nivel federal.

La investigación en curso podría sentar un precedente clave sobre los límites legales y la responsabilidad de las empresas tecnológicas en la era de la inteligencia artificial.

María Riera
María Riera
Licenciada en Ciencias de la Información por la UCM.

NOTICIAS RELACIONADAS

Opinión