Familiares de una víctima del tiroteo universatario en la FSU acusan a OpenAI y ChatGPT de haber ayudado al atacante a planificar el crimen.

Una familia víctima del tiroteo masivo en la Universidad Estatal de Florida demandó a OpenAI ante un tribunal federal de ese estado, acusando a ChatGPT de haber ayudado al atacante Phoenix Ikner a planificar el ataque que dejó dos muertos y cuatro heridos en el campus de Tallahassee en 2025.
Qué respondió OpenAI al respecto
La compañía rechazó de plano su responsabilidad. A través de su portavoz Drew Pusateri, OpenAI afirmó que «ChatGPT no es responsable de este terrible crimen» y que el chatbot se limitó a proporcionar respuestas verídicas a preguntas con información disponible públicamente en internet, sin promover actividades ilegales.
La empresa también reveló que, tras el tiroteo, identificó una cuenta presuntamente asociada al sospechoso y la compartió de forma proactiva con las autoridades. Según Pusateri, OpenAI sigue cooperando con las fuerzas del orden y trabaja en mejorar continuamente la detección de intenciones maliciosas.
OpenAI sostiene que entrena sus modelos para rechazar solicitudes que puedan facilitar violencia de manera significativa, y que notifica a las autoridades cuando detecta riesgo inminente y creíble de daño.
El contexto: una investigación penal y más demandas

Este caso no es un hecho aislado. En abril de 2026, el fiscal general de Florida, James Uthmeier, anunció el inicio de una investigación penal sobre el papel de ChatGPT en el tiroteo de la FSU, luego de que los fiscales revisaran los registros de las conversaciones entre Ikner y el programa.
Se trata, además, de al menos la segunda demanda en Estados Unidos que acusa a OpenAI de facilitar un tiroteo masivo. El mes pasado, familiares de víctimas de uno de los ataques más letales de Canadá demandaron a la empresa y a su CEO, Sam Altman, alegando que OpenAI sabía ocho meses antes del ataque que el agresor lo estaba planificando a través de ChatGPT, y no alertó a la policía.

Según Reuters, las demandas contra empresas de inteligencia artificial por su supuesta vinculación con actos de violencia y autolesión están en aumento sostenido en el mundo anglosajón. Los casos ponen en el centro del debate una pregunta clave:
¿Tienen los chatbots obligación legal de detectar y reportar intenciones criminales? ¿Puede una empresa de IA ser considerada responsable por el uso que un tercero hace de su producto? ¿Es suficiente con que el sistema no «promueva» la violencia, o debe también prevenirla activamente?
Estas preguntas no tienen respuesta legal definitiva aún, pero los tribunales estadounidenses —y ahora también los canadienses— empiezan a construir jurisprudencia en torno a ellas.
¿Qué podría cambiar a partir de este caso?
El resultado de esta demanda podría tener consecuencias de largo alcance para toda la industria de la inteligencia artificial.
Si un tribunal determina que OpenAI tiene responsabilidad civil por las conversaciones de sus usuarios, podría establecerse un estándar que obligue a las empresas a: Implementar sistemas más robustos de detección de amenazas en tiempo real. Reportar automáticamente conversaciones de riesgo a las autoridades. Incluir advertencias explícitas sobre el uso indebido de los chatbots.
(Urgente24)
