Ni ChatGPT ni los chatbots son amigos o terapeutas, por lo que debemos evitar darles esta dimensión o confiar ciegamente en sus recomendaciones.

Estos son los riesgos de usar ChatGPT como terapeuta

El 70% de adolescentes españoles reconoce que usar ChatGPT y otros asistentes ha influido en sus relaciones, según algunos estudios.

POR Mariona | 06 Mayo 2026

Lo que hace unos años parecía un futuro lejano o casi utópico, ya está aquí. La inteligencia artificial se ha integrado en nuestro día a día como una herramienta de productividad, aprendizaje y optimización de tareas. Así, actualmente es muy común usar asistentes virtuales avanzados, como ChatGPT, Copilot o Gemini. 

Pero pese a haber estado diseñados para mejorar la vida diaria, cada vez más personas recurren a la IA en busca de algo más: apoyo, compañía o incluso un amigo virtual. Esto plantea preguntas importantes: ¿Podría la IA sustituir a un amigo o a un psicólogo? Y todo esto, ¿cómo influye en nuestro bienestar?

 

¿Puede la IA entender cómo nos sentimos?

La sensación de que la IA nos comprende preocupa cada vez más a los profesionales de la salud. De hecho, más del 30% de los adolescentes españoles afirman haber usado ChatGPT u otras aplicaciones para tratar temas personales o para tomar decisiones importantes, según revela un estudio de GAD3. El problema es que suelen cometer errores al responder correctamente ante algunos casos de salud mental, lo que puede desencadenar consecuencias peligrosas
 

Hay que tener en cuenta que los chatbots son algoritmos que procesan datos y formulan respuestas basadas en la predicción estadística. No escuchan el sentido humano y son incapaces de sentir emociones o entenderlas. Por tanto, no están diseñados ni para imitar ni para sustituir las relaciones humanas. Así lo recuerda OpenAI, el desarrollador de ChatGPT, en un estudio. 

 

Acceso 24/7 y sin juicios: el gran atractivo de ChatGPT

Más de 800 millones de personas usan ChatGPT a la semana y se envían unos 2.500 millones de mensajes al día, según datos de OpenAI Esto es gracias a la disponibilidad y la inmediatez que ofrece, su mayor atractivo, pero también el principal peligro para la salud mental. 

Los jóvenes son uno de los grupos más vulnerables, ya que pueden encontrar en la IA un espacio donde expresarse y ser escuchados sin juicios. En momentos de soledad o confusión, esto puede generar una falsa seguridad y confort. En un estudio de la Universidad de Drexel, los investigadores analizaron más de 300 publicaciones de adolescentes en un foro y detectaron que muchos reconocían tener dependencia de la IA. Incluso, en algunos casos, esto ha generado insomnio, problemas académicos y relaciones tensas. 

 

La IA siempre nos da la razón, y eso es un peligro

Es cierto que hay algo de tentador en usar la inteligencia artificial como terapeuta, pues es una herramienta diseñada para satisfacer al usuario. Nos dice lo que queremos escuchar, sin juicios, con calma y sin contradecir nuestros pensamientos. A veces, incluso por encima de la verdad. 

 

 

La Stanford University alerta que la adulación constante puede reducir la autocrítica, ya que la IA tiende a validar al usuario incluso cuando está equivocado. Así, se genera un bucle de confianza, dependencia y aislamiento que no deja espacio al aprendizaje ni al crecimiento personal.  

 

¿Cómo usar ChatGPT de forma saludable?

Ni ChatGPT ni los chatbots son amigos o terapeutas, por lo que debemos evitar darles esta dimensión o confiar ciegamente en sus recomendaciones. Pueden ser útiles como apoyo temporal, pero nunca reemplazar el pensamiento crítico ni la ayuda profesional. La clave está en hacer un uso moderado y consciente. Algunas recomendaciones son: 
 

  1. Conocer cómo funcionan los chatbots y sus límites. Son sistemas de predicción estadística entrenados para simular conversaciones. No sienten ni comprenden las emociones humanas. 
  2. Evitar el uso de ChatGPT en momentos de alta vulnerabilidad. En situaciones emocionales intensas, recurrir a la IA puede generar una falsa sensación de apoyo y dependencia. 
  3. Buscar apoyo en familiares, amigos o ayuda profesional. El ser humano es una especie sociable, que se nutre de las relaciones personales. Buscar consuelo u opiniones en otras personas evita el aislamiento y la dependencia de la IA. 
  4. Cuestionar las respuestas. Antes de usar ChatGPT u otro recurso, es importante preguntarse por qué lo usamos. ¿Para desahogarnos, sentirnos acompañados o tomar decisiones? En cualquier caso, debemos usar el pensamiento crítico y no dar por válida la respuesta. 


En definitiva, usar máquinas inteligentes no es negativo. Pueden servir como apoyo puntual e incluso para realizar ejercicios sencillos o como ayuda previa para una sesión terapéutica. En ningún caso debe usarse como reemplazo al contacto humano o la atención psicológica, ya que los chatbots carecen de formación profesional y conocimiento clínico. La clave está en encontrar un equilibrio y hacer un uso responsable. 

Consulta todos los números de la revista

Revista Compartir 24