Escritos · 28 de abril de 2026

Estamos construindo agentes da forma errada

Encher o contexto piora o agente. Três consequências práticas da pesquisa recente sobre context rot e como isso muda o que você constrói.

Nas últimas semanas ando construindo agentes de IA para lideranças (volto nesse tema em outro post) e estudando a literatura técnica recente sobre o assunto. A ideia que mais me surpreendeu: dar mais contexto ao agente costuma piorar o resultado.

A intuição é que mais é melhor. Você cola a base de conhecimento inteira, manda todo o histórico da conversa, adiciona mais regras. A pesquisa mostra o contrário.

A Anthropic publicou três artigos entre 2024 e 2025 com a confirmação: encher o contexto piora o agente. Eles chamam o fenômeno de context rot. A precisão cai à medida que a conversa cresce.

Dois mecanismos explicam isso. Modelos de IA distribuem sua “atenção” entre todos os tokens do contexto ao mesmo tempo, então mais tokens significam menos atenção em cada um. E esses modelos se acostumaram com textos curtos durante o treino, então performam melhor com inputs enxutos.

Se você pega um agente que estava ok e tenta “melhorar” carregando mais documentos e histórico no prompt, tem uma chance grande de piorar o resultado.

Três consequências práticas

1. Curar vence carregar

Não enfie toda a base de conhecimento no prompt. Dê ao agente ferramentas de busca e deixe ele puxar só o pedaço relevante na hora. É como um engenheiro sênior que abre os arquivos certos quando precisa, em vez de memorizar o repositório inteiro. A Anthropic chama isso de “recuperação sob demanda”.

2. Ferramentas melhores vencem prompts melhores

Ferramentas que devolvem informação crua (UUIDs, payloads enormes) entopem o contexto. A equipe da Anthropic relata ter gastado mais tempo otimizando ferramentas do que prompts em benchmarks de programação.

Uma ferramenta agendar_reuniao que já resolve “ver disponibilidade + marcar” gasta menos contexto do que três ferramentas separadas (listar_usuarios, listar_eventos, criar_evento) coordenadas passo a passo pelo agente.

3. Fluxos simples vencem agentes autônomos

“Agente que decide sozinho” soa moderno, mas cada passo autônomo extra adiciona contexto que pode confundir o passo seguinte. Em muitos problemas reais, um fluxo pré-definido de 3 a 5 passos resolve com menos custo e menos imprevisibilidade.

Três perguntas antes de ajustar o prompt do seu agente

  • O que você está carregando no contexto que não precisava estar lá?
  • Suas ferramentas devolvem informação limpa ou entulho?
  • Você precisava de autonomia, ou um fluxo fixo resolvia?

Responder essas três perguntas vai te entregar mais resultados que qualquer ajuste no prompt.