ChatGPT Health: qué aporta la inteligencia artificial a la salud y por qué no reemplaza al profesional

Una psicóloga analiza el lanzamiento de ChatGPT Health, sus beneficios como herramienta de apoyo, los riesgos de su uso y los límites claros entre informar, orientar y reemplazar la atención médica.

 Inteligencia Artificial
Representación de la inteligencia artificial.
Foto: Archivo.

En los primeros días de 2026, OpenAI anunció una novedad que ha llamado la atención de millones de personas en todo el mundo: ChatGPT Health, una nueva experiencia dentro de la plataforma ChatGPT diseñada específicamente para consultas y conversaciones sobre salud y bienestar.

La idea central de esta herramienta es responder al uso que ya hacen las personas de los modelos de lenguaje para temas de salud: más de 230 millones de usuarios preguntan semanalmente sobre síntomas, medicación, bienestar y salud general en ChatGPT.

ChatGPT Health propone agrupar estas consultas en un espacio separado, con mayores protecciones de privacidad, opciones para conectar datos de salud de apps y, en algunos casos, incluso tus propios registros médicos.

Como psicóloga, quiero compartir contigo qué significa realmente este avance, qué puede aportar y, muy importante, qué no puede reemplazar.

Uno no anula al otro

No hay dos interpretaciones: es una herramienta de apoyo, no un sustituto clínico. ChatGPT Health está diseñado para informar, contextualizar y ayudarte a entender temas relacionados con tu salud, por ejemplo:

· interpretar resultados de exámenes médicos,
· comprender patrones de sueño o ejercicio registrados en tus dispositivos,
· prepararte para una consulta médica,
· ayudarte a organizar preguntas importantes para tu profesional de salud.

Este enfoque responde a un fenómeno real: muchas personas, ante la complejidad de los sistemas de salud, la ansiedad que provocan los síntomas o la dificultad de procesar información médica, recurren a herramientas digitales en busca de claridad. Sin embargo, entender es distinto a diagnosticar; orientar es distinto a tratar.

Inteligencia Artificial.
Inteligencia Artificial.
Foto: archivo El País.

Incluso cuando ChatGPT Health accede a tus datos personales de salud (si tú decides vincularlos), sigue siendo una inteligencia artificial que opera a partir de patrones de texto y datos, no una entidad profesional con licencia para evaluar, diagnosticar o tratar condiciones médicas. Su propio diseño y términos de uso enfatizan que no está destinado a diagnosticar ni a sustituir la atención médica o psocológica profesional.

Eso no es un detalle menor: la práctica clínica, sea médica o psicológica, implica una evaluación profunda, entrevistas clínicas, exámenes físicos o psicológicos, contexto cultural y emocional, y la responsabilidad ética y legal que solo profesionales formados pueden asumir.

Auge

¿Por qué tanta demanda de ayuda en salud a través de la IA? Vivimos una paradoja: la información está en todas partes y, al mismo tiempo, es difícil integrarla en sentido. El cerebro busca coherencia cuando percibe amenaza o incertidumbre, y en ausencia de claridad de los canales tradicionales, porque el sistema de salud es complejo, costoso o inaccesible, muchas personas buscan respuestas rápidas en internet o en IA. 

Desde una perspectiva cognitiva-conductual, entender motivaciones, creencias y patrones de interpretación es clave: la necesidad de certezas ante la ambigüedad puede llevar a sobreinterpretar información médica, caer en auto diagnóstico o malinterpretar datos de salud sin evidencia clínica sólida.

Esto mismo sucede cuando las personas buscan apoyo para estrés, ansiedad o malestar emocional en herramientas digitales. El chatbot puede ser útil para explicar conceptos, normalizar experiencias comunes o sugerir ideas generales de autocuidado, pero nunca puede reemplazar el trabajo de un terapeuta que evalúa tu historia personal, tu contexto emocional y tus recursos de afrontamiento.

Mano sosteniendo un teléfono móvil con la aplicación de ChatGPT en pantalla, sobre un fondo digital con un candado que simboliza los riesgos de privacidad y protección de datos en el uso de inteligencia artificial.

ChatGPT Health

¿Puede ayudar? Sí, si se usa con criterio puede ser útil.

En ese sentido, herramientas como ChatGPT Health pueden cumplir un papel complementario valioso cuando:

1. Se usa para prepararte antes de una consulta, listando preguntas o entendiendo términos complejos de tu historial clínico.

2. Te ayuda a organizar información para que tu conversación con un profesional sea más productiva.

3. Aclara conceptos generales de salud o bienestar sin ofrecer diagnósticos ni recomendaciones personalizadas de tratamiento.

Es decir: puede ayudarte a entender, preparar y reflexionar, pero no a sustituir la evaluación profesional ni a personalizar tratamientos sin supervisión clínica.

Riesgos y precauciones

También es importante mencionar que, aunque ChatGPT Health está diseñado con privacidad mejorada (con cifrado y aislamiento de datos sensibles) siempre hay riesgos inherentes al manejo de información personal en plataformas digitales. Elegir qué compartir, con quién y para qué propósito es una decisión personal que debe tomarse con conciencia de privacidad, consentimiento y protección de datos.

Además, no toda respuesta generada por un modelo de lenguaje es correcta, actualizada o aplicable a cada caso individual. La inteligencia artificial no tiene acceso directo a la evidencia clínica más reciente en su totalidad ni puede reemplazar la experiencia humana en diagnósticos complejos o decisiones terapéuticas.

Una invitación a usar la IA con responsabilidad

La aparición de ChatGPT Health nos ofrece una oportunidad para pensar críticamente sobre cómo abordamos la salud en la era digital. La inteligencia artificial puede ser una herramienta poderosa para educar, clarificar y acompañar, siempre y cuando esté integrada dentro de un marco de cuidado responsable, ético y humano.

Como profesional de la salud mental, invito a las personas a usar estas herramientas con mucho criterio, a seguir confiando en los profesionales cuando se trata de diagnósticos y tratamientos, y a ver la IA como un complemento de información, no un sustituto de la escucha clínica.

La salud es compleja, polifacética y profundamente personal. La tecnología puede respaldarnos y acompañarnos, pero la humanidad del cuidado siempre seguirá siendo insustituible.

¿Encontraste un error?

Reportar

Temas relacionados

ChatGPT

Te puede interesar