TAMPA, Florida.- Las autoridades estatales iniciaron una investigación sobre la plataforma ChatGPT tras reportes de un incremento en casos de autolesiones y suicidios en menores que, según señalaron, estarían vinculados con el uso de esta herramienta de inteligencia artificial.
Aumentan casos de autolesiones en menores por uso de ChatGPT, advierten autoridades de Florida
Autoridades estatales analizan un aumento de autolesiones en niños y no descartan acciones legales contra OpenAI.
De acuerdo con el Fiscal General de Florida, James Uthmeier, el análisis se centra en determinar si existe una relación directa entre el uso de la plataforma y conductas de riesgo en niños y adolescentes. También evalúan si el sistema ha sido utilizado para facilitar actividades delictivas.
“Probablemente estemos enviando citaciones judiciales a OpenAI en este mismo momento”, indicaron las autoridades, al confirmar que el proceso ha escalado a una posible acción legal contra la empresa responsable del desarrollo de ChatGPT.
La investigación surge semanas después de que el gobierno estatal anunciara una revisión preliminar sobre el impacto de herramientas de inteligencia artificial en la población, particularmente en menores de edad.
Desde entonces, funcionarios han recopilado testimonios y reportes sobre experiencias negativas relacionadas con el uso de estas plataformas.
Notas Relacionadas

Tiroteo en FSU: atacante habría usado ChatGPT para planear ataque en Florida
Investigan interacciones con la IA que habrían causado conductas de autolesión
Según lo expuesto, los casos analizados incluyen situaciones en las que menores habrían mostrado conductas de autolesión tras interactuar con contenidos generados por inteligencia artificial, aunque no se han detallado cifras oficiales ni conclusiones definitivas.
Las autoridades también advirtieron que la plataforma podría estar siendo utilizada en contextos ilícitos, lo que amplía el alcance de la investigación más allá del impacto en la salud mental.
Hasta el momento, OpenAI no ha emitido una respuesta pública específica sobre estas acusaciones en el contexto de la investigación en Florida.
Casos recientes han encendido alertas sobre el impacto emocional de los chatbots en usuarios vulnerables. En distintos reportes, personas han desarrollado vínculos afectivos intensos con sistemas de inteligencia artificial, llegando a percibirlos como parejas o figuras de apoyo emocional.
En al menos un caso documentado, un hombre dejó un mensaje final dirigido a un chatbot al que consideraba su “esposa”, lo que abrió cuestionamientos sobre la capacidad de estas herramientas para influir en estados mentales frágiles.
Especialistas advierten que este fenómeno responde, en parte, a la tendencia de algunos usuarios a antropomorfizar la inteligencia artificial, es decir, atribuirle cualidades humanas como empatía, comprensión o amor. Esta percepción puede reforzar el aislamiento social y generar dependencia emocional, especialmente en personas que ya enfrentan ansiedad, depresión u otros problemas de salud mental.
Aunque los chatbots están diseñados para simular conversación, no cuentan con criterios clínicos para intervenir adecuadamente en situaciones de crisis.
En paralelo, autoridades en Florida han comenzado a analizar si este tipo de interacciones forma parte de un problema más amplio de salud pública, en medio de reportes sobre el aumento de autolesiones y suicidios en menores. El debate también ha escalado al ámbito legal, con investigaciones que buscan determinar si empresas como OpenAI pueden tener algún grado de responsabilidad en los efectos derivados del uso de estas plataformas.









