Estamos construindo agentes da forma errada
Encher o contexto piora o agente. Três consequências práticas da pesquisa recente sobre context rot e como isso muda o que você constrói.
Nas últimas semanas ando construindo agentes de IA para lideranças (volto nesse tema em outro post) e estudando a literatura técnica recente sobre o assunto. A ideia que mais me surpreendeu: dar mais contexto ao agente costuma piorar o resultado.
A intuição é que mais é melhor. Você cola a base de conhecimento inteira, manda todo o histórico da conversa, adiciona mais regras. A pesquisa mostra o contrário.
A Anthropic publicou três artigos entre 2024 e 2025 com a confirmação: encher o contexto piora o agente. Eles chamam o fenômeno de context rot. A precisão cai à medida que a conversa cresce.
Dois mecanismos explicam isso. Modelos de IA distribuem sua “atenção” entre todos os tokens do contexto ao mesmo tempo, então mais tokens significam menos atenção em cada um. E esses modelos se acostumaram com textos curtos durante o treino, então performam melhor com inputs enxutos.
Se você pega um agente que estava ok e tenta “melhorar” carregando mais documentos e histórico no prompt, tem uma chance grande de piorar o resultado.
Três consequências práticas
1. Curar vence carregar
Não enfie toda a base de conhecimento no prompt. Dê ao agente ferramentas de busca e deixe ele puxar só o pedaço relevante na hora. É como um engenheiro sênior que abre os arquivos certos quando precisa, em vez de memorizar o repositório inteiro. A Anthropic chama isso de “recuperação sob demanda”.
2. Ferramentas melhores vencem prompts melhores
Ferramentas que devolvem informação crua (UUIDs, payloads enormes) entopem o contexto. A equipe da Anthropic relata ter gastado mais tempo otimizando ferramentas do que prompts em benchmarks de programação.
Uma ferramenta agendar_reuniao que já resolve “ver disponibilidade + marcar” gasta menos contexto do que três ferramentas separadas (listar_usuarios, listar_eventos, criar_evento) coordenadas passo a passo pelo agente.
3. Fluxos simples vencem agentes autônomos
“Agente que decide sozinho” soa moderno, mas cada passo autônomo extra adiciona contexto que pode confundir o passo seguinte. Em muitos problemas reais, um fluxo pré-definido de 3 a 5 passos resolve com menos custo e menos imprevisibilidade.
Três perguntas antes de ajustar o prompt do seu agente
- O que você está carregando no contexto que não precisava estar lá?
- Suas ferramentas devolvem informação limpa ou entulho?
- Você precisava de autonomia, ou um fluxo fixo resolvia?
Responder essas três perguntas vai te entregar mais resultados que qualquer ajuste no prompt.