Siete piques para que las respuestas de tu IA sean más útiles

Entender los llamados settings o configuraciones internas te permite diseñar estrategias inteligentes para mitigar o dirigir el comportamiento del modelo

Inteligencia Artificial.
Inteligencia Artificial.
Foto: archivo El País.

Cuando hablamos de inteligencia artificial y modelos de lenguaje como ChatGPT, muchas personas creen que la calidad o el tono de las respuestas dependen únicamente del “lado técnico”, de configuraciones fijas o inaccesibles para el usuario. Sin embargo, aunque no podamos acceder directamente al “panel de control” interno, entender los llamados settings o configuraciones internas te permite diseñar estrategias inteligentes para mitigar o dirigir el comportamiento del modelo. En otras palabras, podés ajustar cómo preguntás para influir activamente en el tipo de respuesta que recibís.

Una de las configuraciones centrales es la temperatura, que define el nivel de aleatoriedad en las respuestas. Cuando se utiliza un valor bajo, por ejemplo 0.2, las respuestas suelen ser más conservadoras, directas y predecibles. En cambio, si se aumenta la temperatura a valores cercanos a 0.8 o incluso 1.0, se obtiene mayor creatividad y variedad, aunque a veces sacrificando precisión. Este comportamiento se puede modular desde el propio prompt: si lo que se busca es exactitud, se puede pedir explícitamente que la respuesta sea factual, basada solo en datos verificados. Por el contrario, si se busca un texto más original, se pueden solicitar ideas innovadoras o enfoques distintos.

Otro parámetro importante es el llamado top-k sampling. Este ajuste establece un límite al número de opciones posibles que el modelo considera en cada paso de generación de texto. Cuando el valor de k es bajo, por ejemplo 10, las respuestas tienden a ser más enfocadas, directas y coherentes. A medida que se incrementa k, el modelo explora más opciones y se abre a una mayor diversidad de posibles continuaciones, aunque eso también puede implicar un mayor riesgo de desvío o alucinaciones. Aun sin poder cambiar este valor directamente, podemos guiar el resultado desde el prompt indicando, por ejemplo, que se limite la respuesta a opciones más comunes o tradicionales, o invitando a incluir alternativas menos evidentes o más disruptivas.

El top-p, también conocido como nucleus sampling, funciona de manera diferente. En lugar de elegir un número fijo de opciones, incluye todas aquellas que en conjunto suman un cierto porcentaje de probabilidad acumulada, por ejemplo 0.9. Cuando el valor de p es bajo, como 0.5, el modelo tiende a producir respuestas muy seguras y típicas. Si se eleva el p, las respuestas pueden volverse más ricas y variadas. Al igual que con los otros parámetros, podemos influir de forma indirecta solicitando desde el prompt un estilo más experto y preciso si necesitamos un texto sobrio y exacto, o pidiendo explorar diferentes interpretaciones si queremos amplitud y creatividad.

Otro ajuste relevante es el número máximo de tokens, que define la longitud total de la respuesta. Aunque no podamos fijar el número exacto, es posible pedir al modelo que responda en pocas oraciones, que resuma en cierta cantidad de palabras o que desarrolle con ejemplos y explicaciones detalladas. De esta forma, controlamos si queremos una respuesta corta y directa o un desarrollo más extenso y profundo.

La penalización por frecuencia o frequency penalty es otro aspecto clave. Este parámetro penaliza las repeticiones de palabras o conceptos ya utilizados, promoviendo un lenguaje más variado. Con valores altos, el modelo evita repetir términos y busca sinónimos o expresiones alternativas. Para influir en esto desde el prompt, se pueden usar indicaciones como evitar repetir conceptos o términos y solicitar la incorporación de sinónimos o un vocabulario variado, logrando así un texto más rico y menos redundante.

A su vez, el presence penalty penaliza la repetición de palabras aunque no se hayan usado recientemente, incentivando la introducción de temas nuevos. Si este parámetro es alto, el modelo tiende a diversificar aún más el contenido, generando respuestas que abordan distintos aspectos o perspectivas. Mediante el prompt, podemos animar al modelo a incluir ideas o temas que no se hayan mencionado antes o a sumar ángulos nuevos en la conversación.

Por último, están las instrucciones del sistema o system prompt, que definen el tono general, el estilo y la personalidad del modelo en cada interacción. Aunque estas instrucciones no se pueden cambiar directamente, sí es posible simular su efecto desde el prompt. Podemos pedirle al modelo que actúe como un académico, como una profesora de secundaria que explica con claridad, o que adopte un tono informal, cercano y conversacional, como si se tratara de una charla entre amigos.

En conjunto, conocer estos ajustes y estrategias permite transformar el prompt en una herramienta poderosa para moldear las respuestas y optimizar la experiencia de uso. Con pequeñas modificaciones en la forma de preguntar, es posible obtener resultados más precisos, creativos o personalizados, incluso sin acceder al corazón técnico del modelo.

¿Encontraste un error?

Reportar

Te puede interesar