Parsed: Uma Ferramenta de SEO que Escreve no Seu Codebase
Parsed — ferramenta SEO que escreve mudanças diretamente no código via agentes AI.
A maioria das ferramentas de SEO termina com um relatório. O Parsed começa por aí.
Você recebe uma lista de schema faltando, lacunas de palavras-chave, URLs não indexadas. Aí você fecha a aba e esquece. O trabalho não aconteceu — você só foi informado do que é o trabalho.
Construí o Parsed para pular esse passo.
O problema com ferramentas de SEO
Toda ferramenta de auditoria que já usei tem o mesmo formato: escaneia seu site, mostra o que está errado e te deixa consertar sozinho. Isso fazia sentido quando o trabalho era manual. Faz menos sentido quando agentes existem.
A lacuna não é informação. Eu sei que preciso de schema JSON-LD nas minhas páginas de produto. Sei que tenho lacunas de palavras-chave no meu blog. Sei que metade do meu sitemap ainda não está indexado. Tenho sabido essas coisas por meses. A restrição é execução — sentar e fazer cada coisa.
O Parsed trata isso como o problema real a resolver.
O que o Parsed faz
Parsed é um super-agente local que roda junto com o seu monorepo. Ele se conecta diretamente ao seu codebase, não por meio de uma interface web que te entrega um snippet para copiar.
Três agentes principais:
Agente de otimização autônoma — escaneia suas páginas, identifica dados estruturados ausentes ou fracos, gera componentes de schema JSON-LD e os escreve diretamente no seu projeto. No próximo deploy, o schema está no ar. Sem copiar e colar.
Agente de publicação — encontra lacunas de palavras-chave no seu conteúdo, gera artigos de SEO, os passa por uma verificação de pontuação humana e escreve arquivos .md na sua pasta de conteúdo. O artigo existe em disco. Você revisa, faz commit, pronto.
Agente de indexação rápida — busca seu sitemap, envia cada URL para o IndexNow. Google, Bing e Yandex são notificados imediatamente. Sem esperar um crawler descobrir uma página que você publicou há três semanas.
Tem também rastreamento de citações — monitorando com que frequência seu site é citado por mecanismos de busca de IA. Chamadas reais de API, não dados simulados.
O stack é Next.js 14, Zustand, OpenRouter roteando entre GPT-4o e Claude 3.5 Sonnet dependendo da tarefa, e IndexNow para a camada de envio.
AEO: a coisa que a maioria das ferramentas de SEO ignora
Google não é mais o único mecanismo de busca que importa.
ChatGPT, Perplexity e Claude estão puxando tráfego significativo — e eles citam fontes. Quando alguém pergunta ao Perplexity “qual é a melhor ferramenta para X,” ele mostra alguns sites com citações inline. Essas citações geram cliques reais.
A lógica de otimização é diferente do SEO tradicional. O Google ranqueia páginas com base em links, autoridade, sinais técnicos. Mecanismos de IA citam com base em clareza do conteúdo, riqueza de schema, autoridade temática e quão bem o seu conteúdo responde uma pergunta específica diretamente.
O Parsed rastreia os dois. O trabalho de schema alimenta o Google. O trabalho de conteúdo alimenta a citação por IA. Eles se sobrepõem mas não são idênticos, e tratá-los da mesma forma é deixar cobertura na mesa.
Comecei a pensar nisso como AEO — answer engine optimization. Não é um rebranding de SEO, é uma camada adicional. Seu conteúdo precisa ranquear na busca tradicional e ser citável por IA. Esses são objetivos relacionados mas distintos.
O loop humanizador
Aqui está a parte desconfortável.
Estou gerando artigos com IA, depois passando por um detector de IA, depois reescrevendo as seções sinalizadas até a pontuação humana atingir 87% ou mais, depois escrevendo o arquivo em disco.
O paradoxo: usando IA para escrever conteúdo, depois usando IA para verificar se o conteúdo parece que não foi escrito por IA, depois usando IA para corrigir as partes que parecem ter sido.
Funciona. Os artigos passam. O Google não tem um detector confiável no nível de conteúdo — ele olha para sinais como links, autoridade, comportamento do usuário. Mas prefiro publicar conteúdo que pareça escrito por humano independentemente de o detector importar. É simplesmente uma escrita melhor.
O loop humanizador faz parte do pipeline do agente de publicação. Não é opcional. Todo artigo que sai do Parsed passou por ele.
Limitação atual
O Parsed roda localmente.
Ele tem acesso direto ao sistema de arquivos porque precisa escrever no seu projeto. É o que o torna útil e o que dificulta a produtização. Uma versão hospedada exigiria uma integração com o repositório — GitHub app, permissões de escrita, fluxo de PR. Isso é um produto real, não um projeto paralelo.
Por enquanto é uma ferramenta que rodo nos meus próprios sites. igindin.com é o principal caso de teste. O agente de schema escreveu dados estruturados para todas as páginas principais. O agente de publicação gerou e commitou vários artigos. O agente de indexação roda sempre que publico novo conteúdo.
O caminho para SaaS é uma integração com GitHub que cria um branch, escreve os arquivos, abre um PR para revisão. Você tem a execução autônoma sem dar a uma ferramenta de terceiro acesso direto de escrita ao main. Essa é a arquitetura certa. Ainda não construí.
O que vem a seguir
Curto prazo: loop de feedback mais preciso entre rastreamento de citações e geração de conteúdo. Se um artigo específico está sendo citado pelo Perplexity, quero saber qual seção está sendo puxada e escrever mais conteúdo em torno daquele enquadramento.
Médio prazo: a integração com GitHub. Parsed como serviço que roda em agendamento, abre PRs e permite aprovar o trabalho sem mexer em um ambiente local.
Longo prazo: não tenho certeza. Ferramentas de SEO é um espaço concorrido. Mas “escreve no seu codebase” é uma categoria diferente de “te mostra um relatório.” O valor está na lacuna de execução, e essa lacuna é real.
A ferramenta existe. Roda. Produziu resultado mensurável. Isso é suficiente para continuar construindo.