Hablar con una inteligencia artificial sobre ansiedad, tristeza, conflictos de pareja o pensamientos repetitivos se ha vuelto una práctica cada vez más frecuente. Muchas personas recurren hoy a chatbots de IA para expresar lo que sienten, desahogarse o intentar ordenar sus ideas en momentos de angustia. Este fenómeno abrió un debate inevitable: ¿puede la inteligencia artificial convertirse en una forma de terapia?
Desde el ámbito de la salud mental, la respuesta es clara, aunque incómoda. La inteligencia artificial no puede ser terapeuta. Especialistas advierten que asumir lo contrario puede implicar riesgos clínicos. La IA no reemplaza la tarea de un profesional, pero puede transformarse en una herramienta útil si se comprende correctamente cuál es su lugar dentro del cuidado de la salud mental.
Para entender este límite, es clave comprender qué ocurre realmente en una consulta psicológica o psiquiátrica, especialmente cuando una persona atraviesa una crisis. El trabajo del profesional va mucho más allá de escuchar palabras. En cada encuentro se realiza una evaluación compleja del lenguaje verbal y no verbal: el tono de voz, las pausas, la coherencia del discurso, la expresión emocional, el juicio de realidad y el nivel de riesgo.
En ese proceso se analizan posibles señales de ideación suicida, síntomas psicóticos incipientes, desorganización del pensamiento o alteraciones cognitivas. Además, hay un componente que ninguna tecnología puede replicar: la regulación emocional que se produce a través de la presencia humana. En momentos de crisis, la persona no necesita información, sino que otro sistema nervioso humano la ayude a regular el propio.
Ese es el principal límite de la inteligencia artificial. No puede asumir responsabilidad clínica, no puede intervenir ante un riesgo vital, no puede detectar con fiabilidad una psicosis ni ofrecer contención desde una presencia física y emocional. Por eso, utilizarla como sustituto de un profesional en situaciones de crisis puede resultar peligroso, ya que genera una falsa sensación de acompañamiento terapéutico y puede retrasar la búsqueda de ayuda adecuada.
Sin embargo, el problema no es la inteligencia artificial en sí, sino la forma en que se la utiliza. Aunque no puede ni debe reemplazar un proceso terapéutico, la IA puede convertirse en una herramienta complementaria de valor cuando se integra de manera adecuada.
Entre sus posibles usos se encuentra la ayuda para ordenar pensamientos caóticos en momentos de insomnio o angustia, algo habitual durante la noche. También puede servir como apoyo para personas con rumiación mental, que tienen dificultades para poner en palabras lo que sienten durante una consulta. En ese sentido, la inteligencia artificial puede facilitar la expresión emocional y preparar el terreno para un trabajo terapéutico más profundo.
Además, puede reforzar procesos de psicoeducación entre consultas, disminuir la sensación de soledad en situaciones de malestar leve o moderado y colaborar cuando el propio profesional enseña a usarla como complemento, no como sustituto. Utilizarla como apoyo es comparable a contar con un cuaderno guiado que ayuda a entender lo que ocurre internamente mientras se espera la consulta; pretender que reemplace a un terapeuta en una crisis es otra cosa muy distinta.
La clave, entonces, no está en rechazar la inteligencia artificial ni en idealizarla, sino en aprender a usarla de forma responsable. Si ayuda a ordenar ideas antes de una consulta, puede ser útil. Si sirve para sentirse menos solo mientras se espera atención profesional, también. Pero si se utiliza para evitar consultar o se la confunde con un tratamiento en sí mismo, ahí aparece el verdadero problema.
Con base en El Tiempo/GDA
-
Del talento infantil al éxito adulto: cómo la mentalidad fija o de crecimiento moldea el futuro de los hijos
La dieta Zen: por qué el ánimo de quien cocina es tan importante como los ingredientes del plato
Por qué deberías dejar de pedir deseos cuando ves números espejo y qué hacer en su lugar, según la numerología