El Contexto lo es todo en Agentes de IA: Por qué un buen prompt no basta (y cómo lo construyo yo)

El Contexto lo es todo en Agentes de IA: Por qué un buen prompt no basta (y cómo lo construyo yo)

Publicado el

Cada vez que veo a alguien hablar de ‘prompt engineering’ como la panacea para construir agentes de IA, me da un escalofrío. Sí, un buen prompt ayuda, y mucho. Pero en mi experiencia, no es ni la mitad de la batalla. La verdadera magia, el verdadero dolor de cabeza y la diferencia entre un agente útil y uno que solo ‘parece que funciona’ radica en cómo gestionas el contexto.

La primera vez que intenté que un agente hiciera algo mínimamente complejo, como investigar una serie de productos y compararlos, pensé: “Vale, le paso todo el texto de las reviews y las specs, y que se apañe.” Error. El LLM se ahogaba en información irrelevante, repetía cosas, y a veces, simplemente inventaba. No era un problema de que el prompt fuera malo, sino de que el contexto que le daba era una sopa indiferenciada de datos.

No es cantidad, es calidad (y relevancia)

Un Large Language Model (LLM) es increíble para razonar y generar texto, pero es inherentemente estateless por sí mismo. Cada interacción es como un nuevo comienzo si no le provees la información adecuada. Y ‘adecuada’ no significa ‘toda’. Significa la información necesaria y suficiente para la tarea actual.

Yo he llegado a la conclusión de que hay dos grandes problemas con el contexto mal gestionado:

  1. Ruido: Demasiada información irrelevante distrae al modelo, lo confunde, e incluso puede llevarlo a ‘olvidar’ partes críticas del prompt o la conversación.
  2. Coste y Latencia: Mandar prompts gigantescos con montones de texto que no se usa es ineficiente en tiempo y dinero. Un ciclo de query -> retrieve -> augment prompt -> LLM call bien orquestado es mucho más eficiente que un query -> dump-everything-in-the-prompt -> LLM call.

Mis pilares para un contexto efectivo

Entonces, ¿cómo lo hago yo? He desarrollado una filosofía simple basada en estos puntos:

1. Memoria Activa y Selectiva

Mis agentes no solo tienen un historial de conversación. Eso es memoria a corto plazo. Tienen una memoria de trabajo que se actualiza con los puntos clave de la interacción, las decisiones tomadas y los objetivos actuales. Es como la ‘RAM’ del agente. Y luego está la memoria a largo plazo, que es donde guardo el conocimiento que el agente podría necesitar en el futuro, pero que no es relevante ahora. Aquí es donde las bases de datos vectoriales y el RAG (Retrieval Augmented Generation) se vuelven imprescindibles. Sin una buena gestión de esto, el agente ‘olvida’ cosas importantes. Es un tema que me quita el sueño, como expliqué en La Memoria en Agentes de IA: El ingrediente secreto para que dejen de ‘olvidar’ lo que les acabas de decir.

2. Conocimiento Estructurado (cuando el texto no basta)

Hay situaciones en las que un montón de texto, incluso bien filtrado, no es suficiente. Cuando necesito que mi agente entienda relaciones complejas o navegue por un dominio específico con reglas claras, me decanto por los Grafos de Conocimiento. Esto no es para todos los proyectos, pero cuando lo necesitas, no hay sustituto. Es como darle un mapa detallado en lugar de solo una descripción de los caminos. Si te pica la curiosidad, hablé de ello en Grafos de Conocimiento en IA: Mi salvavidas cuando los prompts ya no bastan (y por qué tus agentes los necesitan).

3. Observación del Entorno y Estado Interno

Para que un agente sea verdaderamente autónomo, necesita saber qué está pasando a su alrededor y qué ha hecho él mismo. El contexto no es solo lo que le damos nosotros, es también lo que él percibe. Esto implica:

  • Resultados de herramientas: Si el agente ejecuta una función o hace una llamada a una API, el resultado de esa acción es contexto valioso. No se lo puedes pedir de nuevo al LLM como si no lo supiera.
  • Variables de estado: ¿Ha completado un paso? ¿Ha encontrado un error? Mantener un estado interno para el agente, más allá del LLM, es fundamental para que el agente pueda razonar coherentemente a lo largo de varias interacciones y no dar bandazos.
  • Retroalimentación: Si un paso falló, el motivo del fallo debe ser parte del contexto para que el agente intente una solución distinta. Los Ciclos de Retroalimentación: El alma de un agente de IA que realmente aprende (y cómo los monto yo) son clave aquí.

El valor real

Lo que he aprendido es que construir un buen contexto es una tarea de ingeniería. Implica decisiones sobre arquitectura de datos, estrategias de recuperación, gestión de estado y diseño de sistemas. No es algo que se solucione con una frase más en el prompt. Es lo que permite que el agente no solo responda, sino que razone, planifique y ejecute acciones de forma coherente y efectiva. Si ignoras esto, tu agente se convertirá en un ‘robot de un solo truco’, incapaz de manejar cualquier desviación o complejidad mínima, por muy inteligente que suene su primera respuesta.