Durante años, los celulares definieron nuestra idea de innovación tecnológica. Cada nuevo modelo traía cambios visibles en usos y hábitos. Hoy, un teléfono es prácticamente idéntico que el del año anterior. Con la inteligencia artificial generativa empieza a aparecer una sensación similar.
A esto me hizo acordar el artículo publicado por The MIT Technology Review esta semana con el título “La corrección del hype de la IA en 2025”. No es que estemos en una etapa de fracaso ni de estancamiento, sino de un ajuste de expectativas después de promesas demasiado amplias. Desde el lanzamiento de ChatGPT a fines de 2022, la narrativa dominante fue la del crecimiento exponencial: modelos cada vez más capaces y una supuesta marcha inevitable hacia sistemas que reemplazarían tareas complejas y trabajo calificado. Pero llegamos a 2025, y ese relato empezó a enfrentarse con la realidad.
Un dato de ese choque aparece en un estudio del MIT publicado en julio del que surge que 95% de las empresas que intentaron implementar sistemas de IA a medida no logró escalar esos proyectos más allá de la fase piloto después de seis meses. No significa que la IA “no sirva”, sino que integrarla a procesos existentes es más lento y costoso de lo que se prometió. En paralelo, datos del Censo de Estados Unidos y de la Universidad de Stanford indican que la adopción empresarial de herramientas de IA se estancó durante 2024 y 2025, tras un crecimiento inicial fuerte.
Otra pista relevante: el mismo estudio del MIT encontró que alrededor de 90% de las empresas tiene una “economía en la sombra” de IA, con empleados usando chatbots en cuentas personales, fuera de los programas oficiales (¿suena conocido?). Ese uso existe, pero no está medido ni integrado a métricas de productividad. La tecnología circula, pero no transforma estructuras.
Algo similar mostró un informe de Upwork publicado en noviembre, donde agentes basados en modelos de OpenAI, Google DeepMind y Anthropic fallaron en completar de forma autónoma muchas tareas laborales básicas. Cuando esos mismos agentes trabajaron junto a personas con conocimiento del dominio, las tasas de éxito mejoraron de forma significativa. El patrón es claro: la IA funciona mejor como apoyo que como sustituto.
A esto se suma el cambio en la percepción sobre los grandes modelos de lenguaje. Durante años se los presentó como el camino directo hacia la inteligencia artificial general. Hoy, incluso figuras centrales del sector reconocen sus límites. Ilya Sutskever, cofundador de OpenAI y actual responsable de Safe Superintelligence, lo dijo con claridad en noviembre: los LLM aprenden tareas específicas, pero generalizan peor que los humanos. Son buenos resolviendo muchos problemas distintos; no tanto entendiendo los principios detrás de ellos.
El lanzamiento de GPT-5 en agosto mostró algo de ese cambio de clima. No porque el modelo fuera débil, sino porque ya no produjo un salto perceptible para la mayoría de los usuarios. Las mejoras existen, pero son graduales. Como con los celulares, la etapa de avances visibles para cualquiera parece estar dando paso a una fase de optimización.
Sobre la discusión de la burbuja —si esto se parece más al colapso financiero de 2008 o al estallido de internet en 2000— el diagnóstico ya lo mencionamos en una columna anterior: no hay todavía un modelo de negocio claro para los LLM ni una aplicación dominante que justifique por sí sola las inversiones masivas en centros de datos. Pero tampoco se trata de una repetición del colapso subprime: quedan infraestructura, capacidades técnicas y conocimiento acumulado. Como en la burbuja puntocom, muchas empresas pueden caer y otras consolidarse sobre lo construido.
El 2026 seguramente es menos épico y más realista. El problema no es que la IA haya decepcionado, sino que se la cargó con expectativas que ninguna tecnología podía cumplir en tan poco tiempo. La corrección del hype no implica descartarla, sino ubicarla mejor: entender qué hace bien, dónde falla y cómo se integra al trabajo cotidiano. Lo que viene es menos espectacular, más lento y probablemente más relevante.