En los primeros días de 2026, OpenAI anunció una novedad que ha llamado la atención de millones de personas en todo el mundo: ChatGPT Health, una nueva experiencia dentro de la plataforma ChatGPT diseñada específicamente para consultas y conversaciones sobre salud y bienestar.
La idea central de esta herramienta es responder al uso que ya hacen las personas de los modelos de lenguaje para temas de salud: más de 230 millones de usuarios preguntan semanalmente sobre síntomas, medicación, bienestar y salud general en ChatGPT.
ChatGPT Health propone agrupar estas consultas en un espacio separado, con mayores protecciones de privacidad, opciones para conectar datos de salud de apps y, en algunos casos, incluso tus propios registros médicos.
Como psicóloga, quiero compartir contigo qué significa realmente este avance, qué puede aportar y, muy importante, qué no puede reemplazar.
Uno no anula al otro
No hay dos interpretaciones: es una herramienta de apoyo, no un sustituto clínico. ChatGPT Health está diseñado para informar, contextualizar y ayudarte a entender temas relacionados con tu salud, por ejemplo:
· interpretar resultados de exámenes médicos,
· comprender patrones de sueño o ejercicio registrados en tus dispositivos,
· prepararte para una consulta médica,
· ayudarte a organizar preguntas importantes para tu profesional de salud.
Este enfoque responde a un fenómeno real: muchas personas, ante la complejidad de los sistemas de salud, la ansiedad que provocan los síntomas o la dificultad de procesar información médica, recurren a herramientas digitales en busca de claridad. Sin embargo, entender es distinto a diagnosticar; orientar es distinto a tratar.
Incluso cuando ChatGPT Health accede a tus datos personales de salud (si tú decides vincularlos), sigue siendo una inteligencia artificial que opera a partir de patrones de texto y datos, no una entidad profesional con licencia para evaluar, diagnosticar o tratar condiciones médicas. Su propio diseño y términos de uso enfatizan que no está destinado a diagnosticar ni a sustituir la atención médica o psocológica profesional.
Eso no es un detalle menor: la práctica clínica, sea médica o psicológica, implica una evaluación profunda, entrevistas clínicas, exámenes físicos o psicológicos, contexto cultural y emocional, y la responsabilidad ética y legal que solo profesionales formados pueden asumir.
Auge
¿Por qué tanta demanda de ayuda en salud a través de la IA? Vivimos una paradoja: la información está en todas partes y, al mismo tiempo, es difícil integrarla en sentido. El cerebro busca coherencia cuando percibe amenaza o incertidumbre, y en ausencia de claridad de los canales tradicionales, porque el sistema de salud es complejo, costoso o inaccesible, muchas personas buscan respuestas rápidas en internet o en IA.
Desde una perspectiva cognitiva-conductual, entender motivaciones, creencias y patrones de interpretación es clave: la necesidad de certezas ante la ambigüedad puede llevar a sobreinterpretar información médica, caer en auto diagnóstico o malinterpretar datos de salud sin evidencia clínica sólida.
Esto mismo sucede cuando las personas buscan apoyo para estrés, ansiedad o malestar emocional en herramientas digitales. El chatbot puede ser útil para explicar conceptos, normalizar experiencias comunes o sugerir ideas generales de autocuidado, pero nunca puede reemplazar el trabajo de un terapeuta que evalúa tu historia personal, tu contexto emocional y tus recursos de afrontamiento.
ChatGPT Health
¿Puede ayudar? Sí, si se usa con criterio puede ser útil.
En ese sentido, herramientas como ChatGPT Health pueden cumplir un papel complementario valioso cuando:
1. Se usa para prepararte antes de una consulta, listando preguntas o entendiendo términos complejos de tu historial clínico.
2. Te ayuda a organizar información para que tu conversación con un profesional sea más productiva.
3. Aclara conceptos generales de salud o bienestar sin ofrecer diagnósticos ni recomendaciones personalizadas de tratamiento.
Es decir: puede ayudarte a entender, preparar y reflexionar, pero no a sustituir la evaluación profesional ni a personalizar tratamientos sin supervisión clínica.
Riesgos y precauciones
También es importante mencionar que, aunque ChatGPT Health está diseñado con privacidad mejorada (con cifrado y aislamiento de datos sensibles) siempre hay riesgos inherentes al manejo de información personal en plataformas digitales. Elegir qué compartir, con quién y para qué propósito es una decisión personal que debe tomarse con conciencia de privacidad, consentimiento y protección de datos.
Además, no toda respuesta generada por un modelo de lenguaje es correcta, actualizada o aplicable a cada caso individual. La inteligencia artificial no tiene acceso directo a la evidencia clínica más reciente en su totalidad ni puede reemplazar la experiencia humana en diagnósticos complejos o decisiones terapéuticas.
Una invitación a usar la IA con responsabilidad
La aparición de ChatGPT Health nos ofrece una oportunidad para pensar críticamente sobre cómo abordamos la salud en la era digital. La inteligencia artificial puede ser una herramienta poderosa para educar, clarificar y acompañar, siempre y cuando esté integrada dentro de un marco de cuidado responsable, ético y humano.
Como profesional de la salud mental, invito a las personas a usar estas herramientas con mucho criterio, a seguir confiando en los profesionales cuando se trata de diagnósticos y tratamientos, y a ver la IA como un complemento de información, no un sustituto de la escucha clínica.
La salud es compleja, polifacética y profundamente personal. La tecnología puede respaldarnos y acompañarnos, pero la humanidad del cuidado siempre seguirá siendo insustituible.
-
La inteligencia artificial (IA) de Google podrá diagnosticar enfermedades solo con la tos
La tecnológica que crearon tres amigos de la infancia y ahora es referente de innovación en salud de EE.UU.
ChatGPT está bajo investigación europea por sospechas de violación de datos privados y derechos de autor