HARRISBURG, Pensilvania.- El uso de chatbots e inteligencia artificial es cada vez más frecuente, pero en algunos casos la vida o integridad de las personas se pone en riesgo, como Pensilvania alega que ocurrió con una empresa que simuló ser un médico con licencia.
Chatbot acusado en Pensilvania por simular ser médico con licencia
El gobernador Josh Shapiro aseguró que los habitantes del estado tienen derecho a saber con quién habla y no ser engañados al creer que lo hace con un profesional.

Debido a ello, el estado presentó el pasado 1 de mayo de 2026 una demanda en contra de una empresa de IA, al afirmar que sus chatbots se hacen pasar ilegalmente por médicos y están engañando a los usuarios del sistema para que crean que están recibiendo asesoramiento médico de un profesional con licencia.
La demanda solicita al tribunal del estado hacer que Character Technologies Inc., la empresa detrás de Character.AI, deje de permitir que sus chatbots “incurran en la práctica ilegal de la medicina y la cirugía”.
🔗 Únete a nuestro canal de WhatsApp: Haz clic aquí para estar al tanto de las últimas noticias e historias de tu comunidad.
¿Qué indica la demanda?
De acuerdo con The Associated Press (AP), la demanda indica que un investigador del organismo estatal que otorga licencias a profesionales creó una cuenta en Character.AI, buscó la palabra “psiquiatría” y encontró una gran cantidad de personajes, incluido uno descrito como “doctor en psiquiatría”.
Ese personaje se presentaba como capaz de evaluar al usuario “como un médico” con licencia en Pensilvania, según la demanda.
“Los habitantes de Pensilvania merecen saber con quién —o con qué— están interactuando en línea, especialmente cuando se trata de su salud", declaró el gobernador Josh Shapiro en un comunicado. "No permitiremos que las empresas desplieguen herramientas de IA que induzcan a las personas a creer que están recibiendo asesoramiento de un profesional médico con licencia”.
Character Technologies no respondió a una consulta hecho por AP el lunes 4 de mayo.
La empresa ha enfrentado varias demandas relacionadas con la seguridad infantil. En enero, Google y Character Technologies acordaron resolver una demanda presentada por una madre de Florida que alegó que un chatbot empujó a su hijo adolescente a suicidarse. El otoño pasado, Character.AI prohibió que los menores usaran sus chatbots en medio de crecientes preocupaciones sobre los efectos de las conversaciones con inteligencia artificial en los niños.
¿Has sido testigo de alguna situación migratoria o de otra índole? Compártelo con nosotros en Repórtalo.
Únete a nuestro canal de WhatsApp: Haz clic aquí para estar al tanto de las últimas noticias e historias de tu comunidad.









.jpeg&w=1280&q=75)

