Cada vez más jóvenes usan inteligencia artificial para hablar de su salud mental: alertan riesgos reales

Un estudio revela que más de la mitad de los jóvenes consulta a herramientas como ChatGPT por ansiedad o tristeza. Expertos advierten sobre la falta de contención emocional y riesgos clínicos.

Joven triste con la tablet en la mano
Joven triste con la tablet en la mano
Imagen creada por Chat GPT

Redacción El País
La inteligencia artificial (IA) dejó de ser solo una herramienta para estudiar o resolver tareas: hoy también funciona como una suerte de confidente emocional. Un reciente estudio académico reveló que más de la mitad de los jóvenes ya habló, o tiene la intención de hablar, con una IA sobre su salud mentalsalud mental.

Según la investigación, uno de cada cuatro ya utilizó plataformas como ChatGPT o Gemini para conversar sobre sus emociones, mientras otro grupo planea hacerlo. Los jóvenes eligen este tipo de interacción porque no se sienten juzgados, valoran el anonimato y encuentran que resulta más accesible que una consulta profesional, explicaron los especialistas que participaron del estudio.

Ansiedad, estrés y tristeza: las emociones más consultadas

Detrás de esta tendencia hay una búsqueda emocional más que tecnológica. La ansiedad, la tristeza, el estrés y los problemas de autoestima figuran entre los temas más frecuentes. Casi un 20% busca consejos para manejar la ansiedad o la frustración, otro grupo consulta sobre el sueño o la relajación, y muchos intentan comprender la diferencia entre estrés, nostalgia y depresión.

Aunque esta práctica parece ofrecer alivio inmediato, los propios usuarios reconocen sus límites. Seis de cada diez admiten que la IA no entiende realmente las emociones humanas, sino que las simula. Sin embargo, siguen recurriendo a ella por su disponibilidad las 24 horas, su anonimato y la gratuitad del servicio.

Teléfono celular..jpg
Muchos adolescentes evitan hablar con sus padres de sus problemas online.
Foto: Substackcdn.

Una herramienta que no sustituye la presencia humana

Los expertos advierten que, aunque la IA puede ofrecer orientación inicial, no reemplaza el acompañamiento terapéutico. Entre los riesgos más importantes se mencionan la incapacidad para detectar cuadros clínicos o riesgo suicida, la posibilidad de entregar consejos genéricos o erróneos y la falta total de contención emocional.

Además, alertan sobre un efecto silencioso: refuerza el aislamiento. “Se habla, pero no se genera vínculo”, resumen los investigadores, al señalar la falsa sensación de compañía que puede provocar este tipo de interacción con algoritmos. Por eso recomiendan usar estas herramientas solo como complemento, nunca como reemplazo de un profesional de la salud mental.

Depresion
EL PAIS FOTOS

Cuándo pedir ayuda profesional

El informe también incluye señales que indican cuándo es necesario buscar ayuda real: si la tristeza, ansiedad o irritabilidad duran más de dos semanas; si hay problemas para dormir o concentrarse, pensamientos repetitivos o sensación de vacío, y sobre todo si aparecen ideas de autodaño. En esos casos, la recomendación es clara: no continuar conversando con la IA y acudir a un profesional de salud mental.

El fenómeno deja en evidencia un cambio de época: la digitalización del desahogo emocional. En tiempos de chatbots empáticos y algoritmos que parecen comprender, los especialistas insisten en que la salud mental sigue siendo un espacio profundamente humano, y que ninguna máquina puede reemplazar la escucha, la empatía y la presencia real.

En base a El Tiempo/GDA

¿Encontraste un error?

Reportar

Temas relacionados

salud mental

Te puede interesar