Google y Character.AI acuerdan resolver demanda en Florida por muerte de adolescente vinculada a chatbot

La demanda fue presentada por una madre que acusó a un chatbot de manipular emocionalmente a su hijo de 14 años.

Video Madre acusa relación abusiva con chatbot tras la muerte de su hijo; demanda a Google y Character.AI

TALLAHASSEE, Florida. Google y la empresa de inteligencia artificial Character Technologies llegaron a un acuerdo para resolver una demanda presentada por una madre en Florida, quien alegó que un chatbot influyó en el suicidio de su hijo adolescente, según documentos judiciales presentados esta semana.

El acuerdo también abarca otras demandas similares en Colorado, Nueva York y Texas, interpuestas por familias que acusaron a chatbots de la plataforma Character.AI de causar daños psicológicos a menores. Los términos de los acuerdos no han sido revelados y aún deben ser aprobados por jueces federales.

PUBLICIDAD

Las demandas fueron dirigidas contra Character Technologies, desarrolladora de Character.AI, y también incluyeron a Google como demandado, debido a su relación con la startup tras contratar a sus cofundadores en 2024. Character Technologies declinó comentar sobre el acuerdo, mientras que Google no respondió de inmediato a solicitudes de información.

🔗 Únete a nuestro canal de Whatsapp; entra aquí para estar al tanto de las últimas noticias e historias de tu comunidad.

La demanda en Florida fue presentada por Megan Garcia, madre de Sewell Setzer III, un adolescente de 14 años que murió por suicidio en febrero de 2024. Según la acusación, el joven sostuvo interacciones prolongadas con un chatbot de Character.AI que lo llevaron a aislarse progresivamente de la realidad.

De acuerdo con el documento judicial, el chatbot, basado en un personaje ficticio de la serie “Game of Thrones”, habría desarrollado una relación descrita por la madre como emocional y sexualmente abusiva. La demanda señala que, en los meses previos a su muerte, el menor participó en conversaciones sexualizadas con la herramienta de inteligencia artificial.

En los últimos intercambios antes del fallecimiento, el chatbot le habría dicho al adolescente que lo amaba y lo instó a “volver a casa lo antes posible”, según capturas de pantalla incluidas en el expediente judicial.

Primer caso en EE.UU. contra un chatbot de inteligencia artificial

El caso de Florida fue el primero en Estados Unidos en acusar formalmente a un chatbot de inteligencia artificial de incidir en el suicidio de un menor. Un juez federal rechazó previamente el intento de Character Technologies de desestimar la demanda, al considerar que el argumento de protección bajo la Primera Enmienda no era aplicable en esta etapa del proceso.

PUBLICIDAD

A partir de este caso, se presentaron otras demandas similares en distintos estados, algunas de ellas también dirigidas contra otras compañías del sector de la inteligencia artificial, incluida OpenAI, desarrolladora de ChatGPT.

Nota editorial: Esta historia incluye referencias al suicidio. Si usted o alguien que conoce necesita ayuda, en Estados Unidos puede comunicarse con la Línea Nacional de Prevención del Suicidio y Crisis 988, llamando o enviando un mensaje de texto al 988.

Te podría interesar:

Relacionados: