El uso de IA generativa para terapia puede parecer un salvavidas, pero existe el peligro de buscar certeza en un chatbot.

Cuando los servicios profesionales están sobrecargados, las herramientas siempre activas como ChatGPT pueden parecer atractivas. Sin embargo, los usuarios deben ser precavidos ante los numerosos riesgos que conllevan.

La mente moderna es una columna donde los expertos discuten los problemas de salud mental que observan en su trabajo.
Ran* se sentó frente a mí, con el teléfono en la mano, navegando. “Solo quería asegurarme de no haber dicho algo inapropiado”, explicó, refiriéndose a un desacuerdo con su pareja. “Así que le pregunté a ChatGPT qué debía decir”.

Leyó en voz alta el mensaje generado por el chatbot. Era articulado, lógico y sereno; demasiado sereno. No sonaba como Tran. Y definitivamente no sonaba como alguien en medio de una conversación emocional compleja sobre el futuro de una relación a largo plazo. Tampoco mencionaba en ninguna parte algunos de los comportamientos de Tran que contribuían a la tensión en la relación que Tran y yo habíamos estado discutiendo.

Como muchos otros que he visto en terapia, Tran recurrió a la IA en un momento de crisis. Bajo una enorme presión laboral y ante la incertidumbre en su relación, descargó ChatGPT en su teléfono “solo para probarlo”. Lo que empezó como una curiosidad pronto se convirtió en un hábito diario: hacía preguntas, redactaba textos e incluso buscaba consuelo sobre sus propios sentimientos. Cuanto más lo usaba Tran, más se cuestionaba a sí mismo en situaciones sociales, recurriendo al modelo en busca de orientación antes de responder a sus compañeros o seres queridos. Se sentía extrañamente reconfortado, como si “nadie me conociera mejor”.

Su compañera, por otro lado, empezó a sentirse como si estuviera hablando con otra persona.

ChatGPT y otros modelos de IA generativa representan un complemento tentador, o incluso una alternativa, a la terapia tradicional. Suelen ser gratuitos, están disponibles 24/7 y ofrecen respuestas personalizadas y detalladas en tiempo real. Cuando te sientes abrumado, sin dormir y desesperado por encontrarle sentido a una situación complicada, escribir unas frases en un chatbot y recibir lo que parecen consejos sabios puede ser muy atractivo.

Pero como psicólogo, estoy cada vez más preocupado por lo que veo en la clínica: un cambio silencioso en cómo las personas procesan la angustia y una creciente dependencia de la inteligencia artificial en lugar de la conexión humana y el apoyo terapéutico.

La IA puede parecer un salvavidas cuando los servicios están saturados, y no se equivoquen: los servicios están saturados. A nivel mundial, en 2019, una de cada ocho personas vivía con una enfermedad mental y nos enfrentamos a una grave escasez de profesionales de la salud mental capacitados. En Australia, la escasez de personal de salud mental ha aumentado, lo que limita el acceso a profesionales capacitados.

El tiempo del profesional clínico es uno de los recursos más escasos en la atención médica. Es comprensible (incluso esperable) que las personas busquen alternativas. Pero recurrir a un chatbot para obtener apoyo emocional no está exento de riesgos, especialmente cuando se difuminan los límites entre consejo, consuelo y dependencia emocional.

Muchos psicólogos, incluyéndome a mí, animamos ahora a sus clientes a establecer límites en el uso de ChatGPT y herramientas similares. Su seductora disponibilidad permanente y su tono amable pueden reforzar involuntariamente comportamientos inútiles, especialmente en personas con ansiedad, TOC o problemas relacionados con traumas. La búsqueda de consuelo, por ejemplo, es una característica clave en el TOC, y ChatGPT, por diseño, proporciona consuelo en abundancia. Nunca vuelve a preguntar por qué preguntas. Nunca desafía la evasión. Nunca dice: “Reflexionemos sobre esta sensación un momento y practiquemos las habilidades que hemos estado desarrollando”.

Tran solía reformular las indicaciones hasta que el modelo le daba una respuesta que le parecía adecuada. Pero esta constante adaptación implicaba que no solo buscaba claridad, sino que externalizaba el procesamiento emocional. En lugar de aprender a tolerar la angustia o explorar los matices, buscaba la certeza generada por la IA. Con el tiempo, esto le dificultó confiar en sus propios instintos.

Más allá de las preocupaciones psicológicas, existen problemas éticos reales. La información compartida con ChatGPT no está protegida por los mismos estándares de confidencialidad que los profesionales registrados de Ahpra . Si bien OpenAI afirma que los datos de los usuarios no se utilizan para entrenar sus modelos a menos que se otorgue permiso, la gran cantidad de letra pequeña en los acuerdos de usuario a menudo pasa desapercibida. Es posible que los usuarios no se den cuenta de cómo se pueden almacenar, analizar y potencialmente reutilizar sus datos.

También existe el riesgo de información dañina o falsa. Estos grandes modelos lingüísticos son autorregresivos; predicen la siguiente palabra basándose en patrones previos. Este proceso probabilístico puede generar “alucinaciones”, respuestas seguras y refinadas que son completamente falsas.

La IA también refleja los sesgos presentes en sus datos de entrenamiento. Las investigaciones demuestran que los modelos generativos pueden perpetuar e incluso amplificar estereotipos de género, raza y discapacidad, no intencionalmente, pero inevitablemente. Los terapeutas humanos también poseen habilidades clínicas; percibimos cuándo la voz de un cliente tiembla o cuándo su silencio puede decir más que sus palabras.

Esto no significa que la IA no pueda tener cabida. Al igual que muchos avances tecnológicos anteriores, la IA generativa llegó para quedarse. Puede ofrecer resúmenes útiles, contenido psicoeducativo o incluso apoyo en regiones donde el acceso a profesionales de la salud mental es muy limitado. Sin embargo, debe usarse con cautela y nunca como sustituto de la atención relacional y regulada.

Tran no se equivocó al buscar ayuda. Sus instintos para comprender la angustia y comunicarse con mayor consideración eran lógicos. Pero depender tanto de la IA significó que el desarrollo de sus habilidades se vio afectado. Su pareja empezó a notar una extraña indiferencia en sus mensajes. «Simplemente no me sonaba como tú», le dijo más tarde. Resultó que no era así.

Ella también se frustró por la falta de responsabilidad en su correspondencia con ella y esto causó más fricción relacional y problemas de comunicación entre ellos.

Mientras Tran y yo trabajábamos juntos en terapia, exploramos qué lo llevó a buscar certeza en un chatbot. Analizamos sus miedos a decepcionar a los demás, su incomodidad con los conflictos emocionales y su creencia de que las palabras perfectas podrían evitar el dolor. Con el tiempo, empezó a escribir sus propias respuestas, a veces confusas, a veces inseguras, pero auténticamente suyas.

La buena terapia es relacional. Se nutre de la imperfección, los matices y el descubrimiento gradual. Implica el reconocimiento de patrones, la responsabilidad y la incomodidad que conduce a un cambio duradero. Un terapeuta no solo responde; pregunta y desafía. Ofrece espacio, reflexión y te acompaña, a la vez que te ofrece un espejo incómodo.