Riesgos de usar ChatGPT como ayuda psicológica
Publicado el 30 abril 2025 - Sin categoría

Si quieres saber los riesgos de usar ChatGPT como sustitución de la terapia estás en el lugar correcto. La inteligencia artificial ha transformado muchos aspectos de nuestra vida cotidiana, ofreciendo soluciones nuevas y accesibles en distintos ámbitos. Sin embargo, su uso también plantea riesgos importantes, especialmente cuando se aplica en contextos sensibles como la salud mental.
Cada vez es más común que las personas recurran a herramientas como ChatGPT en busca de orientación emocional, consejos o incluso apoyo psicológico, utilizándolo como un reemplazo a la terapia. En este blog exploramos por qué no deberías sustituir la ayuda de un profesional de la salud mental por la de una inteligencia artificial, así como los riesgos que esto puede implicar para tu bienestar psicológico.
¿Por qué no debes sustituir ChatGPT a la terapia profesional?
Consejos poco personalizados
Aunque ChatGPT puede ofrecer respuestas empáticas, no conoce tu historia, tu personalidad, ni tu contexto. Es una herramienta que te «escucha», pero no sabe quién eres, cómo creciste ni cómo te enfrentaste a problemas en el pasado, y aun así emite juicios o consejos.
La mayoría de los consejos que da suelen ser generales y no siempre sirven para tratar problemáticas más complejas ni adaptadas. En cambio, un profesional de la salud mental no da respuestas “para todos”, sino que analiza lo que te pasa teniendo en cuenta no solo lo que sientes, sino también tu historia, tu entorno, tu cultura y tu forma de ver el mundo.
Como bien señalan los especialistas, “no es lo mismo un paciente en España que uno en Corea del Norte”. La forma en que una persona vive, expresa y enfrenta sus emociones está profundamente influenciada por el entorno en el que se desarrolla. Ese contexto individual es algo que la inteligencia artificial no es capaz de captar.
Falta de vínculo terapéutico
Uno de los aspectos más valiosos en una terapia real es el vínculo humano entre el paciente y el terapeuta, también conocido como rapport. Se trata de una conexión en la que el terapeuta genera confianza, entiende lo que sientes desde la empatía y te acompaña de verdad, escuchándote con atención y ayudándote según lo que necesitas. Es uno de los principales riesgos de usar ChatGPT.
ChatGPT, por el contrario, es una herramienta sin conciencia ni emociones. No hay una escucha activa, no hay contención emocional real, ni capacidad para leer lo que se dice entre líneas. Tampoco es capaz de interpretar el significado de una pausa, de un silencio o del temblor de una voz. No capta el lenguaje corporal, no espera el momento justo para intervenir. Lo que para un psicólogo es un trabajo delicado de escuchar, acompañar y hablar con responsabilidad, para la inteligencia artificial es solo un diálogo que sigue patrones.
Puede parecer una conversación, pero no crea un vínculo real, porque no tiene la capacidad de conectar emocionalmente como una persona.
Riesgo de dependencia
Aunque esta herramienta parece cómoda e inmediata, cuando se recurre a ella con frecuencia para buscar consuelo o consejos, puede generar un riesgo de dependencia.
Esta dependencia puede a su vez generar efectos negativos como la evitación de problemas. Si alguien depende de la IA para sentirse mejor rápidamente, puede terminar evitando enfrentar sus problemas reales, sus emociones o situaciones difíciles. Al usar la IA como un escape, la persona puede perder la oportunidad de abordar sus problemas de manera profunda y consciente.
Por otro lado, también fomenta la falta de desarrollo de habilidades emocionales. Las personas pueden dejar de practicar habilidades como la autorregulación emocional o la resolución de problemas por sí mismas. No aprenden a enfrentar sus sentimientos de forma independiente ni a tomar decisiones basadas en sus propias experiencias, porque la IA no puede guiarlas de forma personalizada. Esto puede hacer que dependan cada vez más de la IA y pierdan la oportunidad de desarrollar habilidades clave para afrontar sus problemas.
Además, esta dependencia puede llevar a retrasar el inicio de una terapia o incluso a evitar el contacto humano, ya que los usuarios se acostumbran a hablar con un robot al que pueden acceder de forma fácil y gratuita, en lugar de enfrentarse a la vulnerabilidad dentro del contacto humano.
Falta de diagnóstico clínico
A diferencia de un psicólogo o psiquiatra, la IA no puede hacer un diagnóstico clínico porque no puede evaluar a la persona de manera completa. Los profesionales consideran muchos aspectos, como la historia personal, los patrones emocionales y el contexto social y familiar, algo que como ya hemos mencionado, la IA no puede hacer.
ChatGPT puede dar consejos generales sobre problemas emocionales, pero no sabe identificar trastornos mentales como pueden ser la depresión o la ansiedad. Sin una evaluación adecuada, es probable que las respuestas de la IA sean incorrectas o no aborden realmente la causa real del malestar.
Posibilidad de sesgos y errores
Esta herramienta también posee el riesgo de cometer sesgos y errores. Los algoritmos de la IA aprenden de información ya existente, por lo que si esos datos tienen prejuicios o ideas equivocadas sobre temas como la cultura, el género o la sociedad, la IA puede replicar esos mismos prejuicios y repetirlos en sus respuestas.
Además, estos chatbots no están diseñados para fines terapéuticos, por lo que pueden dar diagnósticos incorrectos o consejos de salud mental inapropiados. Como la IA aprende de datos sesgados, potencia estos errores y puede ofrecer información errónea. Un ejemplo simple es cuando ChatGPT, al preguntarle sobre cuántas «u» tiene la palabra Uruguay, te responde que tiene dos, y, aunque corrige el error cuando se le señala, sigue cometiendo el mismo fallo en futuras preguntas. Esto demuestra cómo los sesgos y los errores pueden repetirse en sus respuestas.
No detecta señales de alarma
Si alguien está pasando por un momento muy difícil, tiene pensamientos negativos muy intensos o incluso ideas de hacerse daño, un profesional de la salud mental sabe reconocer esas señales y puede actuar rápidamente. ChatGPT, en cambio, no tiene conciencia ni capacidad real para interpretar la gravedad de lo que estás sintiendo. No puede saber si estás en una situación de riesgo, ni intervenir de forma adecuada. Podría darte una respuesta empática, pero sin darse cuenta de que realmente necesitas ayuda urgente.

Principales riesgos de usar ChatGPT: la IA no cura, curan los psicólogos
ChatGPT no puede curar problemas emocionales o psicológicos, porque no tiene la capacidad de brindar la empatía humana que es tan importante en la terapia. Usarlo como si fuera un psicólogo es como una anestesia: puede hacer que te sientas mejor por un rato, pero no soluciona el problema de fondo. Aunque puede ayudar a reducir temporalmente ciertos síntomas, no mejora realmente tu bienestar emocional a largo plazo.
Los más importantes riesgos de usar ChatGPT son que tampoco crea planes de intervención, ni te acompaña en el proceso, ni realiza ningún seguimiento. Mientras que un psicólogo plantea unos objetivos, elabora un plan personalizado y adapta las sesiones a la persona, ChatGPT solo proporciona respuestas generales.
Para qué sí puedes usar ChatGPT en psicología
ChatGPT puede tener ciertas funciones interesantes, pero hay que aprender a diferenciar para qué sirve y para qué no. Tiene muchas ventajas, a la vez que posee grandes riesgos si no se le da un uso consciente y responsable. Te dejamos a continuación algunas ideas de funciones positivas y productivas relacionadas con la salud mental que pueden aportar herramientas como esta:
Entender mejor ciertos temas de psicología
Puede ayudarte a comprender de manera simple ciertos conceptos que a veces suenan complicados, así como explicarte teorías, enfoques o términos que se usan en psicología, adaptándolos a un lenguaje más accesible. Te puede resultar útil si te interesa entender de manera básica y superficial ciertos contenidos psicológicos.
Consultar bibliografía o autores relevantes
Si te interesa leer más sobre algún tema de salud mental, ChaGPT puede sugerirte libros, artículos o nombres de autores reconocidos en psicología. También puede ayudarte a buscar recursos según lo que necesites: desde textos más técnicos hasta libros de divulgación.
Desestigmatizar la terapia
Muchas personas todavía tienen miedo o vergüenza de ir al psicólogo. Las aplicaciones de inteligencia artificial pueden servir como un primer acercamiento, ya que permiten hablar sin sentirse juzgado. Esto podría ayudarte a dar el paso hacia una terapia profesional más adelante. Pero no lo olvides; si necesitas apoyo psicológico, no dudes en recurrir a los profesionales que conocen bien lo que hacen y pueden ayudarte de manera realista a mejorar tu bienestar.
¿Quieres concertar una cita en Acimut?
Si buscas un psicólogo en Madrid que te ayude en Acimut te ofrecemos soluciones diferentes a tus problemas y evitar los riesgos de usar ChatGPT. Enfocamos tus necesidades para dar una ayuda integral y personalizada. Si quieres saber más sobre estas herramientas nosotros podemos ayudarte.
Estaremos encantados de atenderte para ayudarte en nuestro centro Acimut Psicología Aplicada en la calle de Cristóbal Bordiú, 42, Madrid. Puedes concertar una cita en nuestro centro de psicología en Chamberí con nuestros especialistas en el correo info@acimutpsicologia.com o en el teléfono 722 112 469
En Acimut Psicología Aplicada ayudamos a establecer nuevos rumbos
En nuestro gabinete de psicología en Chamberí podemos ayudarte si te están haciendo Love Bombing. También tenemos servicios de terapia online si no vives cerca de Madrid o Chamberí.