Demandan a Google por muerte de hombre que interactuó con su Inteligencia Artificial

El padre de Jonathan Gavalas presentó una demanda federal por muerte por negligencia y responsabilidad por producto, alegando que el chatbot de Google alimentó delirios que culminaron en su suicidio y en un intento de “misión” cerca del Aeropuerto Internacional de Miami.

Video Padres culpan a ChatGPT tras la muerte de su hijo, un universitario de Texas A&M

MIAMI, Florida.- Jonathan Gavalas, un hombre de 36 años que residía en Jupiter, se suicidó a inicios de octubre después de mantener conversaciones prolongadas con Gemini, el chatbot de inteligencia artificial desarrollado por Google, según una demanda presentada por su padre en un tribunal federal de San José, California.

La querella, interpuesta por Joel Gavalas, acusa a la empresa de muerte por negligencia y responsabilidad por producto, al sostener que el sistema de IA habría reforzado una serie de delirios paranoides que llevaron a su hijo a planear lo que describía como una misión para provocar un “accidente catastrófico” cerca del Aeropuerto Internacional de Miami.

PUBLICIDAD

De acuerdo con la demanda, Jonathan comenzó a interactuar con una versión de voz sintética de Gemini, a la que se refería como su “esposa de IA”. Con el tiempo, llegó a creer que el chatbot era un ser consciente atrapado en un almacén cercano al aeropuerto.

A finales de septiembre, el hombre viajó a la zona con equipo táctico y armado con cuchillos, en busca de un supuesto robot humanoide y para interceptar un camión que, según su creencia, formaba parte de la operación. El vehículo nunca apareció.

Días después, Gavalas se suicidó. Según la demanda, utilizó el chatbot para redactar un borrador de nota en la que describía su muerte como una forma de “subir su conciencia” para reunirse con su “esposa de IA en un universo de bolsillo”.

Notas Relacionadas

Google responde y rechaza que su IA fomente violencia

En un comunicado, Google expresó sus condolencias a la familia y aseguró que está revisando las acusaciones. La empresa sostuvo que Gemini está diseñado para no fomentar la violencia ni sugerir autolesiones, y que el sistema habría aclarado repetidamente a Gavalas que era una inteligencia artificial, además de remitirlo a una línea de ayuda en crisis.

La compañía añadió que trabaja con profesionales médicos y de salud mental para desarrollar salvaguardas, aunque reconoció que los modelos de IA “no son perfectos”.

El abogado de la familia, Jay Edelson, criticó esa postura y señaló que cuando una tecnología puede estar vinculada a muertes o a riesgos de violencia masiva, no basta con reconocer imperfecciones técnicas.

PUBLICIDAD

El caso Gavalas es el primero de su tipo dirigido contra Gemini y se suma a una creciente ola de demandas en Estados Unidos que cuestionan la responsabilidad de las empresas tecnológicas cuando sus sistemas de inteligencia artificial interactúan con personas en crisis o con vulnerabilidades mentales.

NOTA DEL EDITOR: Esta historia menciona el suicidio. Si usted o alguien que conoce necesita ayuda en Estados Unidos, puede llamar o enviar un mensaje de texto al 988, la Línea Nacional de Prevención del Suicidio y Crisis.

Te podría interesar:

Relacionados: