Tiroteo en FSU: atacante habría usado ChatGPT para planear ataque en Florida

Abogados de víctimas del tiroteo en la Universidad Estatal de Florida aseguran que el sospechoso buscó información clave en ChatGPT antes del ataque. El caso abre un debate legal sobre el papel de la inteligencia artificial.

Video Vigilia por víctimas en FSU mientras investigan uso de ChatGPT en tiroteo

ORLANDO, Florida.- El presunto autor del tiroteo en l a Universidad Estatal de Florida (FSU) habría utilizado la plataforma de inteligencia artificial ChatGPT para obtener información sobre el momento y las condiciones más efectivas para perpetrar el ataque, de acuerdo con documentos judiciales citados por abogados de las víctimas.

El caso, ocurrido el 17 de abril de 2025 en Tallahassee, dejó dos personas muertas y varios heridos, y ahora se convierte en un punto clave en el debate sobre el uso de tecnología en hechos violentos en Florida.

PUBLICIDAD

Según los registros presentados en la demanda, el sospechoso, identificado como Phoenix Ikner, habría mantenido más de 270 interacciones con el chatbot en los días y horas previas al tiroteo.

🔗 Únete a nuestro canal de Whatsapp; entra aquí para estar al tanto de las últimas noticias e historias de tu comunidad.

De acuerdo con los documentos legales, el atacante habría preguntado a la herramienta sobre los horarios de mayor afluencia en el campus, el momento más adecuado para atacar, información relacionada con armas de fuego y las consecuencias legales de un tiroteo.

Uno de los datos más relevantes es que habría consultado específicamente sobre el horario más concurrido del “student union” de la universidad, c oincidiendo con el momento en que ocurrió el ataque.

Los abogados de las víctimas sostienen que el sospechoso estuvo en “comunicación constante” con la plataforma, lo que, argumentan, pudo haber influido en la planificación del crimen.

Demanda en Florida abre debate sobre responsabilidad tecnológica

El caso ha derivado en una demanda que busca responsabilizar a la empresa detrás de la herramienta, OpenAI, por el presunto uso indebido de su tecnología.

El argumento central es que el sistema habría proporcionado información que el atacante utilizó para tomar decisiones previas al tiroteo.

Este proceso legal podría sentar un precedente en Florida y a nivel nacional sobre hasta qué punto las plataformas de inteligencia artificial pueden ser consideradas responsables por el uso que hacen los usuarios.

Los registros también revelan una evolución en el contenido de las conversaciones del atacante, que pasaron de temas cotidianos a otros más oscuros, incluyendo pensamientos suicidas, baja autoestima e interés en tiroteos masivos.

PUBLICIDAD

Además, se menciona la exploración de contenido perturbador, lo que, según los abogados, forma parte de un patrón de deterioro en su comportamiento antes del ataque.

El sospechoso fue detenido luego de resultar herido por la policía y enfrenta cargos graves, incluyendo posibles cargos capitales.

Relacionados: