ChatGPT no es tu terapeuta: el riesgo legal y de privacidad de confiarle tu salud mental

¿Alguna vez te has preguntado qué tan segura es tu información en plataformas de inteligencia artificial? Lo que pocos saben es que estos chats no son privados ni confidenciales y pueden existir riesgos legales y de privacidad de tratar a la IA como si fuera un terapeuta.

¿ChatGPT como terapeuta? Mejor piénsalo dos veces.
¿ChatGPT como terapeuta? Mejor piénsalo dos veces.
Imagen Free Pik

NUEVA YORK.- En el último año, se ha puesto cada vez más de moda “hablar” con plataformas de Inteligencia Artificial como ChatGPT sobre tus problemas a modo de "terapia". Es accesible, rápido, fácil y si usas las versiones gratuitas no te costará ni un centavo. Pero de lo que no estamos conscientes es de los riesgos que corremos. Y son más complejos de lo que creemos en cuanto asuntos de privacidad.

PUBLICIDAD

Recientemente, Sam Altman, director ejecutivo de OpenAI (ChatGPT y otras plataformas), reveló que las conversaciones no están protegidas por el privilegio legal que asegura la confidencialidad como lo hace un terapeuta-paciente o abogado-cliente en la vida real.

Si vas a hablar con ChatGPT sobre tus asuntos más delicados y por alguna razón hay una demanda judicial, podrían exigirnos que revelemos las conversaciones. Y creo que eso es un desastre”, dijo Altman en el podcast This Past Weekend, conducido por Theo Von, dejando claro que la IA aún no alcanza un nivel de regulación que proteja tanto a usuarios, como involucrados.

Victor Tabaac, CRO de All In On Data, con 20 años de experiencia en la industria digital y con una visión clave en proyectos de datos e inteligencia artificial a nivel global, comentó a Univisón sobre los posibles riesgos de tratar a ChatGPT como tu terapeuta.

“Imagina esto: estás en una batalla por la custodia de (un menor), y el abogado de tu ex solicita como prueba tus registros de ChatGPT donde hablaste del estrés que estás pasando. ¡Boom, evidencia! O que Europa le impone a OpenAI una multa de 20 millones de euros por infringir leyes al manejar mal datos de salud (sí, la salud mental cuenta). ¿El peor escenario? Tus momentos más íntimos se filtran en línea. Una vez que lo escribes, pierdes el control de la información”.

Tabaac advierte que los “secretos más profundos” que compartimos no están “cerrados con llave como tu terapeuta”, por lo que recomienda usarlo con precaución: “¿Para desahogarte tras un mal día? Tal vez está bien. ¿Para un trauma real? Ni pensarlo”.

PUBLICIDAD

“Están registrados en los servidores de OpenAI. Incluso si desactivas el historial de chats, tus datos permanecen ahí durante 30 días, como un mensaje eliminado que aún puede recuperarse. Revisores humanos podrían verlo. Hackers podrían robarlo. En resumen: trata cada chat como una postal, no como una carta sellada”, señala.

Además, agrega que la inteligencia artificial está lejos de estar entrenada para dar terapia, ya que solo adivina y forma oraciones.

“¿Confiarías en un coche autónomo sin cinturones de seguridad? Eso es ChatGPT para la salud mental. Te da cero confidencialidad. No hay HIPAA (Ley de Portabilidad y Responsabilidad del Seguro Médico), no hay secreto profesional, solo términos y condiciones corporativos”.

Por último, el experto asegura que las leyes van lentas: mientras la IA avanza a toda velocidad, las regulaciones sobre bots terapéuticos no llegarán antes de 2027; mientras que en Europa apenas comienzan a revisar el tema, en Estados Unidos está lejos de hacerlo. “La tecnología IA está corriendo, mientras que las leyes apenas van poniéndose los tenis para ponerse a trotar”.

Esta nota se realizó en colaboración con TMX.