En una época donde circulan cada vez más contenidos convincentes pero basados en evidencia parcial o mal interpretada, el desafío ya no es solo verificar datos, sino entender si las conclusiones que se presentan realmente se desprenden de esa evidencia. Con ese problema en mente, Eduardo Mangarelli, decano de ingeniería de la Universidad ORT Uruguay, diseñó un protocolo de uso en ChatGPT que busca transformar a la inteligencia artificial en una herramienta para fact-checking y análisis crítico de información.
La idea, explicó a El País, es simple pero ambiciosa: obligar al modelo a analizar un contenido siguiendo reglas estrictas que separen con claridad hechos verificables, interpretaciones, predicciones y juicios de valor.
“Mi objetivo principal fue armar una herramienta que les diera a los lectores una forma efectiva de verificar tanto la información del contenido como la coherencia entre los datos presentados y las conclusiones propuestas”, señaló Mangarelli.
El proyecto surge de una preocupación concreta: hoy muchas piezas informativas, desde artículos hasta posteos en redes, llegan a conclusiones contundentes con evidencia incompleta, lo que puede inducir a interpretaciones o decisiones equivocadas.
“Las reglas estrictas están justamente para separar con disciplina qué es un hecho verificable de qué es una inferencia, exigir referencias cuando corresponde y obligar a declarar incertidumbre cuando no hay evidencia suficiente”, explicó.
Qué es el fact-checking
La verificación de hechos o fact-checking es una práctica periodística que busca comprobar la veracidad de afirmaciones públicas y contrastarlas con evidencia verificable.
En el contexto actual de desinformación digital, donde circulan desde noticias falsas hasta deepfakes, esta tarea se volvió central para medios y lectores.
En el diario, por ejemplo, la periodista Ana Laura Pérez ha advertido en varias oportunidades sobre el impacto de la desinformación y las nuevas tecnologías en la circulación de contenidos digitales y en el debate público.
Ese mismo fenómeno también expone un límite clave: muchas veces el problema no pasa solo por detectar una falsedad evidente, sino por entender bien qué se está afirmando. Como ha señalado Ana Laura Pérez, incluso en el fact-checking humano no siempre es sencillo establecer “la verdad” de forma directa, porque una afirmación puede cambiar según el dato, el recorte o la referencia que se tome. Decir, por ejemplo, que “bajó el desempleo en 2025” puede ser verdadero o falso según qué período se compare o qué indicador se use.
Para una herramienta automatizada, resolver ese nivel de ambigüedad sigue siendo muy difícil. Si incluso en el trabajo humano de fact-checking muchas veces cuesta establecer con precisión qué es verdadero, falso o engañoso según el contexto, para un bot el desafío es todavía mayor.
Ahí es donde estas herramientas funcionan mejor como apoyo y no como sustituto. En manos de un usuario entrenado, con conocimiento del tema y mirada crítica, pueden servir para ordenar evidencia, detectar inconsistencias, señalar preguntas relevantes y reducir el riesgo de aceptar como sólida una conclusión que en realidad está apoyada en bases débiles.
Cómo funciona el protocolo
El sistema diseñado por Mangarelli obliga a la IA a seguir una secuencia de análisis.
Primero identifica las afirmaciones principales del texto. Luego las clasifica según su tipo —por ejemplo si son verificables o interpretativas— y, en el caso de las afirmaciones verificables, evalúa su estado: correctas, parciales, inciertas o no verificables.
Recién después de ese paso llega el análisis crítico: el modelo examina supuestos implícitos, sesgos, saltos lógicos y conclusiones no respaldadas.
El resultado final se presenta como un informe estructurado que incluye un “semáforo de confiabilidad”, una tabla de fact-checking y un resumen crítico del contenido.
Lo que más sorprendió del experimento
Mangarelli reconoció que esperaba buenos resultados, pero aun así el comportamiento del modelo superó sus expectativas.
“Mi mayor sorpresa fue el nivel de efectividad y de sentido crítico para detectar inconsistencias entre la evidencia presentada y las conclusiones propuestas”, afirmó.
Incluso cuando los datos del texto eran correctos, el análisis aportaba algo adicional: una nueva forma de leer el contenido.
“Leer el análisis crítico —aun cuando el contenido y las conclusiones sean verificables— enriquece la lectura, porque permite darle otro ángulo a la pieza”, sostuvo.
El modelo también logró detectar datos incorrectos, dudosos o presentados sin fuente verificable, algo clave en un ecosistema informativo cada vez más saturado.
¿Realmente entiende los argumentos?
Uno de los temores habituales sobre el uso de IA en tareas intelectuales es que el modelo simplemente siga una plantilla sin comprender realmente el contenido.
En este caso, dijo Mangarelli, el comportamiento fue distinto.
“El análisis crítico muestra comprensión del argumento y, sobre todo, de los supuestos implícitos”, explicó.
También destacó que el sistema puede identificar un error frecuente en textos persuasivos: confundir correlación con causalidad o saltar de datos a conclusiones sin justificar el vínculo.
Dónde puede aportar valor
Para Mangarelli, el uso de este tipo de herramientas va mucho más allá del periodismo.
“Veo valor en cualquier instancia de consumo de información, especialmente cuando es relevante para nosotros o cuando nos condiciona para tomar decisiones”, señaló.
También cobra importancia cuando alguien decide compartir información con otros.
“Compartir contenido implica algún nivel de aval. Una herramienta que ayude a revisarlo antes puede ser muy útil”, sostuvo.
Los límites de la IA
Sin embargo, el propio creador del protocolo advierte que el sistema tiene límites claros.
No es confiable cuando no hay acceso a fuentes o cuando el análisis requiere validación en un dominio altamente especializado, como interpretaciones clínicas, legales o regulatorias.
En esos casos, la IA puede ayudar a ordenar preguntas y detectar inconsistencias, pero no debería reemplazar el criterio experto.
Una herramienta simple para lectores no expertos
La experiencia dejó una conclusión clara para Mangarelli: el valor no está solo en modelos cada vez más grandes, sino en cómo se diseñan los prompts y las herramientas que los usan.
“Esta prueba refuerza cómo construir herramientas pequeñas, simples y de enorme valor para usuarios no expertos”, afirmó.
La meta no es que la IA piense por nosotros, sino que ayude a detectar cuando un texto llega a una conclusión convincente, pero no suficientemente respaldada por la evidencia.
La herramienta creada por Eduardo Mangarelli está disponible como un GPT público para hacer fact-checking y análisis crítico de textos, artículos, posteos, mails, transcripciones o tablas.
Herramienta: https://chatgpt.com/g/g-699c79716464819198337dd23568a919-gpt-fact-checking-analisis-critico
Caso de ejemplo: https://chatgpt.com/share/699c939e-88b4-800a-8e17-975498d95c13
Para que el resultado funcione bien, Mangarelli recomienda usarlo sobre un modelo con buena capacidad de razonamiento y seguimiento estricto de instrucciones. En su caso, el trabajo fue pensado sobre ChatGPT en modo GPT-5.2 Thinking, porque el protocolo exige distinguir entre hechos verificables, inferencias, predicciones y juicios de valor, además de marcar incertidumbre cuando no hay evidencia suficiente.
La lógica no es pedirle una opinión a la IA, sino forzarla a seguir un método: extraer afirmaciones, verificar datos, analizar supuestos y evaluar si la evidencia realmente sostiene la conclusión. Por eso, cuanto mejor sea el modelo en razonamiento, más sólido tiende a ser el resultado.
-
Katy Perry y millones de usuarios impulsan #CancelChatGPT tras el polémico acuerdo militar de OpenAI
Cuando la Inteligencia Artificial no reemplaza al humano, sino que lo reconfigura: otra lectura del MIT sobre ChatGPT
Elon Musk y los implantes cerebrales, la promesa que desafía a la ciencia y enciende el debate ético