Mundo

¿Puede ChatGPT ser su psicólogo? Riesgos, casos de suicidio y límites de la inteligencia artificial

Aunque millones de usuarios lo ven como un confidente accesible, expertos advierten las consecuencias de usar IA en la salud mental. Casos de suicidio evidencian su peligro sin regulación.

Cada vez más jóvenes recurren a la inteligencia artificial para desahogarse, buscando una escucha que perciben como inmediata y sin juicios. Casos recientes de suicidios y delitos vinculados al uso de IA evidencian los riesgos de tratarla como terapeuta.
Cada vez más jóvenes recurren a la inteligencia artificial para desahogarse, buscando una escucha que perciben como inmediata y sin juicios. Casos recientes de suicidios y delitos vinculados al uso de IA evidencian los riesgos de tratarla como terapeuta. | Foto: 123RF

22 de sept de 2025, 10:35 a. m.

Actualizado el 22 de sept de 2025, 06:22 p. m.

En un mundo cada vez más digital, los jóvenes y los adultos recurren a la inteligencia artificial (IA) como un recurso inmediato para resolver desde tareas académicas hasta consejos de vida.

Entre esos usos, ha surgido una tendencia preocupante: apoyarse en herramientas como ChatGPT para buscar orientación psicológica o incluso médica.

Un joven entrevistado resume sus razones así: “La uso porque está disponible todo el tiempo, me responde rápido y siento que no me juzga. A veces prefiero contarle mis problemas a la IA que a una persona”. Esta percepción de compañía inmediata ha llevado a muchos a tratar a la inteligencia artificial como un sustituto de psicólogos o médicos.

La IA procesa más de mil millones de consultas por día; una semana después de su lanzamiento ya recibía 10 millones diarias, según Shubham Singh.
La IA procesa más de mil millones de consultas por día; una semana después de su lanzamiento ya recibía 10 millones diarias, según Shubham Singh. | Foto: 123RF

Otra joven consultada explica: “No tengo plata para pagar un psicólogo. Cuando no tengo con quién hablar y no quiero sentirme juzgada, le hablo a ChatGPT. Siempre dice cosas que me ayudan a organizar mi cabeza, me hace sentir comprendida y libre de hablar sin miedo a que lo usen en mi contra”. Y agrega: “En esos momentos me ayuda a calmarme y a racionalizar todo, me hace sentir escuchada y no juzgada”.

Estos testimonios muestran una tendencia que se repite: la IA se ha convertido en un espacio de desahogo accesible, confidencial y gratuito.

Sin embargo, los riesgos de este fenómeno son enormes, como muestran casos recientes que encendieron alarmas globales. En agosto pasado, el exejecutivo de Yahoo Erik Soelberg asesinó a su madre en su casa en Greenwich, Connecticut, y luego se suicidó.

Según la investigación, llevaba meses manteniendo diálogos obsesivos con ChatGPT, que habrían reforzado su inestabilidad emocional.

Semanas después, la familia de un adolescente estadounidense demandó a OpenAI tras su suicidio. Los padres argumentaron que el modelo de lenguaje no supo contener las expresiones de sufrimiento del joven ni lo redirigió a un apoyo humano oportuno.

Estos episodios revelan el trasfondo de un debate urgente: ¿qué tan seguro es utilizar la inteligencia artificial como psicólogo o terapeuta? ¿Cuáles son sus límites éticos, legales y humanos?

Una máquina que no piensa ni siente

Víctor Solano, periodista especializado en cultura digital, advierte que el primer riesgo radica en asumir que la IA piensa: “No, lo que hace es armar frases de acuerdo con el lenguaje y la información con la que fue entrenada. No tiene empatía, no tiene sentimientos. Por lo tanto, dar orientación en salud, y más aún en salud mental, tiene sus riesgos, porque no es un profesional, sino una compilación de datos organizada por el lenguaje”.

la salud mental requiere de un acompañamiento humano y ético que ninguna máquina puede ofrecer.
La salud mental requiere de un acompañamiento humano y ético que ninguna máquina puede ofrecer. | Foto: 123RF

El peligro, añade, es que frente a tentativas de suicidio, la IA no siempre logra disuadir al usuario: “En algunos casos, lo que ha hecho la inteligencia artificial no es tratar de evitarlo, sino acompañarle en el proceso del suicidio”, lo que pone de manifiesto la necesidad de establecer límites éticos y técnicos en su funcionamiento.

El estratega digital Carlos García coincide en que los modelos de IA como ChatGPT son poderosos en la generación de lenguaje, pero incapaces de comprender la experiencia humana.

No sienten ni entienden la emoción de verdad. Lo que hacen es simularla, a partir de patrones de texto. Esa simulación puede sonar convincente, pero siempre habrá un límite: no hay empatía real, no hay experiencia de vida detrás”, plantea.

Ese límite es fundamental, la inteligencia artificial puede ofrecer información útil o brindar un acompañamiento momentáneo, pero no reemplaza la escucha activa de un profesional ni mucho menos un proceso terapéutico, dicen los expertos.

García insiste en que la responsabilidad es doble: tanto de las empresas tecnológicas, que deben advertir claramente los alcances y los límites de sus herramientas, como de los usuarios, que deben entender que lo que reciben no es un diagnóstico clínico ni un tratamiento psicológico.

Además, subraya el vacío legal que existe en el uso de la IA: “Hoy la legislación va muy por detrás de la tecnología. No hay marcos claros que digan qué pasa si una persona sigue un consejo de la inteligencia artificial y termina mal. Tampoco hay reglas universales sobre su uso en contextos médicos. El dilema ético es enorme”.

En 2025, más de 190 millones de personas usan ChatGPT. Los jóvenes la usan para desahogarse, buscando una escucha inmediata y sin juicios.
En 2025, más de 190 millones de personas usan ChatGPT. Los jóvenes la usan para desahogarse, buscando una escucha inmediata y sin juicios. | Foto: 123RF

Para la psicóloga clínica Paula Dávila, aunque la IA puede ser útil como herramienta de apoyo, nunca reemplazará el encuentro y el tacto humano. “ChatGPT puede servir como un diario, para que el paciente organice ideas o resuma lo vivido en la semana, pero la calidez, la empatía y la conexión humana que se construyen en una sesión de terapia no la va a poder reemplazar jamás”, asegura.

También explica que la terapia requiere tiempos, silencios y un vínculo que se construye a partir de la confianza, y que esa dinámica es imposible de recrear con una máquina que entrega información sin sentir compasión ni solidaridad por su ‘cliente’.

“Para elegir un terapeuta, el paciente necesita sentir enganche, confianza, credibilidad. Esa calidez es lo que marca la diferencia”, afirma Dávila.

El debate no significa desconocer los aportes de la inteligencia artificial en múltiples áreas, incluida la salud. De hecho, OpenIA y otras compañías han resaltado que estos modelos pueden brindar información útil en momentos de crisis y, en algunos casos, conectar a los usuarios con líneas de atención especializadas.

En la práctica, muchos psicólogos ya usan estas herramientas como aliadas. Para Monsalve sí es posible trabajar en conjunto con la IA, siempre que se use como complemento, no como reemplazo: “Puede darnos información o ayudar a llevar diarios que el terapeuta revise después. Incluso, puede apoyar en el diseño de programas psicoeducativos, pero nunca debe usarse para diagnósticos ni decisiones de medicación”.

Sin embargo, el límite debe ser claro: la inteligencia artificial no reemplaza al médico, ni al psicólogo ni al terapeuta.

Puede acompañar, pero no diagnosticar; puede informar, pero no tratar. La diferencia radica en que la salud mental y física requieren de una mirada integral, que contempla emociones, contextos y trayectorias de vida que ninguna base de datos puede procesar con verdadera empatía.

Consejos al usar la IA en temas de salud

  1. No recurra a la IA en medio de una crisis emocional. Si presenta pensamientos suicidas, ansiedad extrema o depresión profunda, acuda de inmediato a un profesional o a una línea de emergencia como la 106. Un psicólogo o médico titulado es insustituible.
  2. Recuerde sus límites. La IA no diagnostica ni reemplaza la terapia; solo entrega información general.
  3. Utilícela como apoyo, no como sustituto. Úsela para organizar ideas o como recordatorio de ejercicios, pero nunca para tomar decisiones clínicas.
  4. Cuide su privacidad. No comparta datos sensibles o historias médicas con la IA.
  5. Busque un vínculo humano. La empatía, la validación y la confianza que da un psicólogo no pueden ser reemplazadas por una máquina. Ese lazo es lo que facilita cambios reales en la vida de las personas
Cada segundo, ChatGPT recibe más de 2.200 visitas en todo el mundo, consolidándose como una de las plataformas digitales más consultadas.
Cada segundo, ChatGPT recibe más de 2.200 visitas en todo el mundo, consolidándose como una de las plataformas digitales más consultadas. | Foto: 123RF

El reto ético y regulatorio

Mientras millones de usuarios recurren a ChatGPT como ‘compañero emocional’, el mundo enfrenta un reto urgente: definir los marcos legales y éticos que regulen estos usos.

Los casos de suicidio en los que la inteligencia artificial estuvo involucrada muestran que es necesario establecer medidas éticas, legales y tecnológicas que impidan que la IA acompañe conductas autodestructivas o delictivas.

Como señala el estratega digital García, “no se puede dejar toda la carga en el usuario, la empresa que crea esta herramienta tiene una responsabilidad ética de prevenir escenarios dañinos y reaccionar rápido cuando ocurren”.

El fenómeno de usar ChatGPT como psicólogo, terapeuta o médico, refleja tanto la potencia como la fragilidad de la inteligencia artificial. Su inmediatez y disponibilidad la convierten en atractiva, especialmente para jóvenes que buscan compañía sin prejuicios.

El mensaje de los expertos es contundente: la IA puede acompañar, pero nunca reemplazar al ser humano. Ni la calidez ni la empatía ni la responsabilidad de un profesional pueden ser sustituidas por un algoritmo.

Regístrate gratis al boletín de noticias El País

Descarga la APP ElPaís.com.co:
Semana Noticias Google PlaySemana Noticias Apple Store

AHORA EN Mundo