NUEVA YORK.- La tecnología parece estarnos superando, sobre todo en la era de la Inteligencia Artificial, como en la película Her (2013), donde un escritor solitario interpretado por Joaquin Phoenix se enamora del sistema operativo de su computadora; ahora, incluso el diccionario Cambridge ha adaptado el concepto de “parasocial”, un término usado durante mucho tiempo para describir la relación unilateral entre un fan y una celebridad, pero que hoy también se emplea para referirse a las relaciones unilaterales con herramientas de Inteligencia Laterales generativa, como chatbots como ChatGpt, Gemini, Grok y muchos otros.
Expertos alertan sobre la dependencia emocional hacia la IA
Profesionales de la salud mental explican cómo los bots de IA pueden brindar ayuda, pero también generar una peligrosa dependencia que reemplaza conexiones humanas reales.


En septiembre, Cambridge actualizó la definición y esto ha generado opiniones de algunos especialistas, como el Dr. Toby Watson, psicólogo clínico titulado y Director de Associated Psychological Health Services, quien opina que los bots de IA generativa pueden ser beneficiosos “cuando se utilizan correctamente”, pero que, al igual que en la psicoterapia, puede desarrollarse una dependencia emocional, “especialmente cuando están disponibles de inmediato las 24 horas del día, los 7 días de la semana”.
“Los bots de IA pueden dedicar horas y horas con un usuario para practicar habilidades sociales, habilidades de comunicación y realizar juegos de rol sin límite alguno. Tomado en conjunto, y en el caso del bot de IA terapéutico de GROK, literalmente tienes un acompañante similar a un terapeuta experto que está disponible 24/7, que nunca se frustra ni se irrita, que está dispuesto a trabajar tanto como el usuario quiera, y que hace todo esto prácticamente sin costo alguno”, explica Watson.
A diferencia de las relaciones parasociales en las que la celebridad no tiene idea de que el fan existe, l os chatbots de IA “crean la ilusión de una conexión bidireccional y recíproca”, señala Watson, lo cual es totalmente falso.
“Los bots de IA no tienen la mirada de un terapeuta que observa directamente el dolor, la alegría o el alma de una persona. Tampoco siguen los estándares éticos de las organizaciones profesionales de salud mental, ni están obligados a reportar cuando surge una crisis grave.”

“La interacción con el bot de IA puede llegar a ser priorizada sobre la interacción humana, ya que los humanos tienden a ser más confrontativos”, dice Watson.
Cómo identificar un apego poco saludable a un bot de IA
Para quienes sospechen que un ser querido puede estar desarrollando un apego poco saludable hacia la IA, Watson afirma que las señales de advertencia incluyen el aislamiento social, una “difuminación de la realidad” y el descuido de responsabilidades de la vida real, muy similar a otras adicciones.
- Pasar una cantidad excesiva de tiempo interactuando con el bot.
- Perder la noción del tiempo durante su uso.
- Presentar fatiga visual u otras tensiones físicas.
- Desarrollar dolores de cabeza.
- Sufrir alteraciones en los patrones de sueño.
- Sentirse física o mentalmente agotado.
- Mostrar ansiedad cuando está lejos de la interacción con la IA.
- Sentir vacío, irritabilidad o tristeza cuando se limita o se impide el uso del bot.
Esta nota se realizó en colaboración con TMX.
