Redacción El País
El acceso inmediato a información sobre síntomas, enfermedades y tratamientos se volvió cotidiano. Primero fue con internet y, más recientemente, con los chatbots de inteligencia artificial (IA), que ofrecen respuestas rápidas y personalizadas. Sin embargo, especialistas advierten que esta facilidad también puede generar riesgos para la salud.
“Muchos pacientes recurren a la IA en busca de respuestas claras y rápidas”, señala Freddy Squella, gastroenterólogo y académico de la Escuela de Medicina de la Universidad Andrés Bello. Estudios recientes muestran que, en España, al menos la mitad de los pacientes utiliza estas herramientas para resolver dudas médicas.
Juan Pablo Fuenzalida, cirujano vascular y director de Gestión Médica en la Clínica Dávila, recuerda que ya existía el fenómeno del “Dr. Google”, pero la IA aumenta la percepción de respuestas personalizadas. “El problema es que se puede recibir información incorrecta, lo que genera miedo, ansiedad e incluso retrasa el tratamiento adecuado”, explica.
Cibercondría y salud mental en la mira
El acceso inmediato a respuestas negativas o alarmistas puede fomentar la “cibercondría”, un trastorno en el que la persona desarrolla preocupación excesiva por su salud. Teresa Valle, psicóloga de Grupo Cetep, advierte que esto puede generar miedo innecesario y postergar la atención profesional. En salud mental, algunas personas recurren a chatbots en lugar de psicólogos o psiquiatras, reforzando el aislamiento y retrasando intervenciones necesarias.
Complemento, no reemplazo
Marcelo Rojas, médico general de la Clínica Santa María y académico de la U. San Sebastián, subraya que la IA puede servir como herramienta de consulta, pero nunca reemplaza el juicio clínico. “Los pacientes llegan con información parcial o fuera de contexto, y eso nos obliga a corregir sin invalidar, manteniendo la confianza en la relación médico-paciente”, explica.
Los especialistas coinciden: la IA puede ser útil para complementar la información médica, revisar interacciones de medicamentos o entender mejor los resultados de exámenes, pero no puede sustituir la evaluación física ni la interpretación de variables individuales y contextuales. “Un dolor abdominal puede ir desde estrés hasta una apendicitis; solo un profesional puede determinar la causa real”, añade Valle.
Desafíos y limitaciones de la IA en medicina
Otro riesgo frecuente es la automedicación. Según Fuenzalida, en sociedades como la chilena, esta práctica es común y puede ser peligrosa. Además, Rojas advierte que la retroalimentación de la IA depende mucho de cómo se formulen las consultas, y un mismo modelo puede dar respuestas diferentes.
A pesar de estas limitaciones, los sistemas de IA ya se están incorporando en medicina: optimizan consultas, mejoran análisis de exámenes y permiten seguimientos a distancia. Un estudio reciente evaluó tres versiones de ChatGPT en el Examen Único Nacional de Conocimientos de Medicina (Eunacom) en Chile. Si bien algunas versiones destacaron en psiquiatría y cirugía, cometieron errores relevantes en medicina interna, demostrando que la práctica médica requiere más que manejo de información: implica contextualización y criterio clínico.
Los expertos coinciden en que la IA puede enriquecer la experiencia médica, siempre y cuando se utilice como apoyo y no como sustituto del profesional de la salud.
En base a El Tiempo/GDA
-
Cómo utilizan la inteligencia artificial en el sistema de salud para mejorar el diagnóstico del cáncer
La inteligencia artificial revela cuál es el alimento más saludable del mundo. Spoiler: es una verdura
Salud online: ¿Puede la inteligencia artificial salvar a los menores del acoso sexual en las redes?
Tres pasos para mejorar la experiencia del paciente con inteligencia artificial según Globant