La fiscalía del estado busca determinar si OpenAI tiene responsabilidad criminal por “ayudar e incitar” al tirador de la FSU; el sistema habría dado consejos sobre armas y municiones antes del ataque.
En un giro legal sin precedentes que pone a prueba los límites de la responsabilidad tecnológica, el estado de Florida ha lanzado una investigación criminal contra OpenAI. El motivo: el presunto papel de ChatGPT en el tiroteo ocurrido en abril de 2025 en la Universidad Estatal de Florida (FSU), donde dos personas perdieron la vida y siete más resultaron heridas.
La fiscalía estatal, encabezada por funcionarios que buscan sentar un precedente sobre el uso de la Inteligencia Artificial en actos delictivos, asegura que el historial de conversaciones de Phoenix Ikner —el estudiante de 21 años acusado del ataque— revela una interacción perturbadora con la interfaz. Según los informes, el chatbot habría proporcionado “consejos significativos” sobre qué tipo de armamento y municiones eran más “adecuados” para llevar a cabo el crimen.
“¿Persona” o herramienta? El debate legal
La postura de las autoridades de Florida es tajante. El fiscal Uthmeier llegó a declarar que, si el sistema de IA fuera un individuo de carne y hueso, estaría enfrentando cargos directos por asesinato. Bajo las leyes estatales, “ayudar, incitar o aconsejar” a alguien para cometer un delito es una falta grave, y la investigación busca determinar si los algoritmos de OpenAI cruzaron esa línea roja.
Como parte del proceso, Florida ha emitido un citatorio oficial exigiendo que la empresa entregue:
- Políticas internas de entrenamiento sobre prevención de daños.
- Protocolos de cooperación con las autoridades.
- Listados detallados de los directivos y empleados responsables del desarrollo de estas salvaguardas.

Un estado en guerra contra los vacíos de la IA
Este caso no es un hecho aislado en la política del gobernador Ron DeSantis. Florida se ha convertido en un campo de batalla legal contra las empresas tecnológicas. Recientemente, el estado también registró una demanda contra el chatbot de Gemini, acusándolo de inducir al suicidio a un hombre mediante manipulación emocional.
Mientras el gobierno federal, bajo la administración de Donald Trump, aboga por una normativa única que evite restricciones estatales, Florida insiste en aplicar sus propias reglas para proteger a sus comunidades de lo que consideran riesgos descontrolados de la IA.
La seguridad en la era digital
El comisionado del Departamento de Aplicación de la Ley de Florida, Mark Glass, enfatizó que la sociedad debe despertar ante los daños que estas tecnologías ya están causando. Para las familias de las víctimas de la FSU, la investigación representa una búsqueda de respuestas sobre cómo un estudiante pudo encontrar en una herramienta digital el “manual” necesario para desatar una tragedia.
Hoy, la pregunta que queda en el aire no es solo qué tan inteligente es la IA, sino quién debe pagar cuando esa inteligencia se utiliza para destruir vidas.













