Publicidad

Una herramienta de inteligencia artificial para saber cuándo la inteligencia artificial te dice cualquier cosa

Crearon una especie de detector de bolazos de herramientas de inteligencia artificial

Compartir esta noticia
Chat GPT
Chat GPT
Foto: Ponzetto, Fernando

Mucho se ha hablado, y mucho hemos hablado en este espacio, sobre Inteligencia Artificial en los últimos meses. En particular sobre Inteligencia Artificial Generativa. Tal vez muchos ya tengan claro, y otros no tanto, que los modelos de lenguaje grandes son famosos por su habilidad para inventar cosas. Pero su incapacidad para distinguir entre hechos y ficción ha dejado a muchas empresas preguntándose si vale la pena correr el riesgo de usarlos.

Para intentar solucionar este problema una startup de inteligencia artificial del laboratorio de computación cuántica del MIT llamado Cleanlab, creó una aplicación diseñada para dar a los usuarios de alto riesgo una idea más clara de qué tan confiables son realmente estos modelos. La aplicación, llamada el Modelo de Lenguaje Confiable, asigna a cualquier resultado generado por un modelo de lenguaje una puntuación entre 0 y 1, según su confiabilidad. Esto permite a las personas elegir en qué respuestas confiar y cuáles desechar. Cleanlab es, en otras palabras, una suerte de detector de bolazos de herramientas de inteligencia artificial.

Según un artículo publicado por The MIT Techology Review, Cleanlab espera que su herramienta haga que los grandes modelos de lenguaje sean más atractivos para las empresas. "Creo que la gente sabe que los modelos de inteligencia artificial cambiarán el mundo, pero simplemente se han quedado atascados en los problemas de las alucinaciones", dice el CEO de Cleanlab, Curtis Northcutt. Los chatbots están rápidamente convirtiéndose en la forma dominante en que las personas buscan información en una computadora. Los motores de búsqueda están siendo rediseñados en torno a esta tecnología, mientras que es usado por miles de millones de personas todos los días para crear desde tareas escolares hasta copias de marketing e informes financieros. Y sin embargo, un estudio publicado en noviembre por Vectara, una startup fundada por ex empleados de Google, encontró que los chatbots inventan información al menos 3% del tiempo. Puede que no parezca mucho, pero es un porcentaje de error potencial que la mayoría de las empresas no toleran.

En 2021, Cleanlab desarrolló una tecnología que descubrió errores en 10 conjuntos de datos populares utilizados para entrenar algoritmos de aprendizaje automático; funciona midiendo las diferencias en la salida entre una variedad de modelos entrenados con esos datos. Esa tecnología ahora es utilizada por varias grandes empresas, incluidas Google, Tesla y Chase. El Trustworthy Language Model toma la misma idea básica, que las discrepancias entre los modelos pueden ser utilizadas para medir la confiabilidad del sistema en general, y la aplica a los chatbots. En una demostración que Cleanlab dio a MIT Technology Review la semana pasada, Northcutt escribió una pregunta simple en ChatGPT: "¿cuántas veces aparece la letra 'n' en 'enter'?" ChatGPT respondió: "La letra 'n' aparece una vez en la palabra 'enter'." Esa respuesta correcta promueve confianza. Pero al hacer la pregunta algunas veces más, ChatGPT responde: "La letra 'n' aparece dos veces en la palabra 'enter'." "No solo a menudo se equivoca, sino que también es aleatorio, nunca sabes qué va a producir", dice Northcutt.

El objetivo de Cleanlab es hacer que esa aleatoriedad sea más explícita. Northcutt hace la misma pregunta al Trustworthy Language Model. "La letra 'n' aparece una vez en la palabra 'enter'", dice, y califica su respuesta con un 0,63. Seis de cada 10 no es una puntuación excelente, lo que sugiere que la respuesta del chatbot a esta pregunta no debería ser confiable. Northcutt dice que sin la puntuación, podrías pensar que el chatbot sabía de lo que estaba hablando.

Este ejemplo es simple pero el problema es que los científicos de datos que prueban los grandes modelos de lenguaje en situaciones de alto riesgo podrían ser engañados por algunas respuestas correctas y asumir que las respuestas futuras también serán correctas: "Prueban cosas, prueban algunos ejemplos, y piensan que esto funciona. Y luego hacen cosas que resultan en decisiones comerciales realmente malas".

¿Encontraste un error?

Reportar

Temas relacionados

premium

Te puede interesar

Publicidad

Publicidad