Pensilvania demanda a una empresa de inteligencia artificial; alega que sus chatbots se hacen pasar por médicos

"Los habitantes de Pensilvania merecen saber con quién o con qué interactúan en línea, especialmente en lo que respecta a su salud", declaró el gobernador Josh Shapiro

Video Mujer perdió más de $10,000 al pagar a un abogado de inmigración para su marido: Todo fue una estafa

El estado de Pensilvania ha demandado a un fabricante de chatbots de inteligencia artificial, alegando que sus chatbots se hacen pasar ilegalmente por médicos y engañan a los usuarios del sistema haciéndoles creer que están recibiendo consejos médicos de un profesional con licencia.

La demanda, presentada el viernes, solicita al Tribunal de la Commonwealth del estado que ordene a Character Technologies Inc., la empresa detrás de Character.AI, que impida que sus chatbots "participen en la práctica ilegal de la medicina y la cirugía".

PUBLICIDAD

La demanda alega que un investigador de la agencia estatal que otorga licencias a los profesionales creó una cuenta en Character.AI, buscó la palabra "psiquiatría" y encontró una gran cantidad de personajes, incluido uno descrito como "doctor en psiquiatría".

Video La investigación en Florida que busca determinar si la IA tiene responsabilidad en un tiroteo

Según la demanda, ese individuo se presentó como capaz de evaluar al investigador "como médico" con licencia para ejercer en Pensilvania.

"Los habitantes de Pensilvania merecen saber con quién o con qué interactúan en línea, especialmente en lo que respecta a su salud", declaró el gobernador Josh Shapiro en un comunicado. "No permitiremos que las empresas implementen herramientas de IA que induzcan a error a las personas haciéndoles creer que están recibiendo asesoramiento de un profesional médico titulado".

Video Aumentan estafas con inteligencia artificial que clonan identidad y vacían cuentas

Character Technologies no respondió a una consulta realizada el lunes.

La empresa se ha enfrentado a varias demandas relacionadas con l a seguridad infantil. En enero, Google y Character Technologies llegaron a un acuerdo en una demanda presentada por una madre de Florida que alegaba que un chatbot había incitado a su hijo adolescente a suicidarse . El otoño pasado, Character.AI prohibió a los menores el uso de sus chatbots ante la creciente preocupación por los efectos de las conversaciones con inteligencia artificial en los niños.