edit_square igindin

Parsed: Uma Ferramenta de SEO que Escreve no Seu Codebase

Parsed — ferramenta SEO que escreve mudanças diretamente no código via agentes AI.

Ilya Gindin
translate de  · en  · es  · fr  · ru
ler versao ilao dzindin arrow_forward

A maioria das ferramentas de SEO termina com um relatório. O Parsed começa por aí.

Você recebe uma lista de schema faltando, lacunas de palavras-chave, URLs não indexadas. Aí você fecha a aba e esquece. O trabalho não aconteceu — você só foi informado do que é o trabalho.

Construí o Parsed para pular esse passo.

O problema com ferramentas de SEO

Toda ferramenta de auditoria que já usei tem o mesmo formato: escaneia seu site, mostra o que está errado e te deixa consertar sozinho. Isso fazia sentido quando o trabalho era manual. Faz menos sentido quando agentes existem.

A lacuna não é informação. Eu sei que preciso de schema JSON-LD nas minhas páginas de produto. Sei que tenho lacunas de palavras-chave no meu blog. Sei que metade do meu sitemap ainda não está indexado. Tenho sabido essas coisas por meses. A restrição é execução — sentar e fazer cada coisa.

O Parsed trata isso como o problema real a resolver.

O que o Parsed faz

Parsed é um super-agente local que roda junto com o seu monorepo. Ele se conecta diretamente ao seu codebase, não por meio de uma interface web que te entrega um snippet para copiar.

Três agentes principais:

Agente de otimização autônoma — escaneia suas páginas, identifica dados estruturados ausentes ou fracos, gera componentes de schema JSON-LD e os escreve diretamente no seu projeto. No próximo deploy, o schema está no ar. Sem copiar e colar.

Agente de publicação — encontra lacunas de palavras-chave no seu conteúdo, gera artigos de SEO, os passa por uma verificação de pontuação humana e escreve arquivos .md na sua pasta de conteúdo. O artigo existe em disco. Você revisa, faz commit, pronto.

Agente de indexação rápida — busca seu sitemap, envia cada URL para o IndexNow. Google, Bing e Yandex são notificados imediatamente. Sem esperar um crawler descobrir uma página que você publicou há três semanas.

Tem também rastreamento de citações — monitorando com que frequência seu site é citado por mecanismos de busca de IA. Chamadas reais de API, não dados simulados.

O stack é Next.js 14, Zustand, OpenRouter roteando entre GPT-4o e Claude 3.5 Sonnet dependendo da tarefa, e IndexNow para a camada de envio.

AEO: a coisa que a maioria das ferramentas de SEO ignora

Google não é mais o único mecanismo de busca que importa.

ChatGPT, Perplexity e Claude estão puxando tráfego significativo — e eles citam fontes. Quando alguém pergunta ao Perplexity “qual é a melhor ferramenta para X,” ele mostra alguns sites com citações inline. Essas citações geram cliques reais.

A lógica de otimização é diferente do SEO tradicional. O Google ranqueia páginas com base em links, autoridade, sinais técnicos. Mecanismos de IA citam com base em clareza do conteúdo, riqueza de schema, autoridade temática e quão bem o seu conteúdo responde uma pergunta específica diretamente.

O Parsed rastreia os dois. O trabalho de schema alimenta o Google. O trabalho de conteúdo alimenta a citação por IA. Eles se sobrepõem mas não são idênticos, e tratá-los da mesma forma é deixar cobertura na mesa.

Comecei a pensar nisso como AEO — answer engine optimization. Não é um rebranding de SEO, é uma camada adicional. Seu conteúdo precisa ranquear na busca tradicional e ser citável por IA. Esses são objetivos relacionados mas distintos.

O loop humanizador

Aqui está a parte desconfortável.

Estou gerando artigos com IA, depois passando por um detector de IA, depois reescrevendo as seções sinalizadas até a pontuação humana atingir 87% ou mais, depois escrevendo o arquivo em disco.

O paradoxo: usando IA para escrever conteúdo, depois usando IA para verificar se o conteúdo parece que não foi escrito por IA, depois usando IA para corrigir as partes que parecem ter sido.

Funciona. Os artigos passam. O Google não tem um detector confiável no nível de conteúdo — ele olha para sinais como links, autoridade, comportamento do usuário. Mas prefiro publicar conteúdo que pareça escrito por humano independentemente de o detector importar. É simplesmente uma escrita melhor.

O loop humanizador faz parte do pipeline do agente de publicação. Não é opcional. Todo artigo que sai do Parsed passou por ele.

Limitação atual

O Parsed roda localmente.

Ele tem acesso direto ao sistema de arquivos porque precisa escrever no seu projeto. É o que o torna útil e o que dificulta a produtização. Uma versão hospedada exigiria uma integração com o repositório — GitHub app, permissões de escrita, fluxo de PR. Isso é um produto real, não um projeto paralelo.

Por enquanto é uma ferramenta que rodo nos meus próprios sites. igindin.com é o principal caso de teste. O agente de schema escreveu dados estruturados para todas as páginas principais. O agente de publicação gerou e commitou vários artigos. O agente de indexação roda sempre que publico novo conteúdo.

O caminho para SaaS é uma integração com GitHub que cria um branch, escreve os arquivos, abre um PR para revisão. Você tem a execução autônoma sem dar a uma ferramenta de terceiro acesso direto de escrita ao main. Essa é a arquitetura certa. Ainda não construí.

O que vem a seguir

Curto prazo: loop de feedback mais preciso entre rastreamento de citações e geração de conteúdo. Se um artigo específico está sendo citado pelo Perplexity, quero saber qual seção está sendo puxada e escrever mais conteúdo em torno daquele enquadramento.

Médio prazo: a integração com GitHub. Parsed como serviço que roda em agendamento, abre PRs e permite aprovar o trabalho sem mexer em um ambiente local.

Longo prazo: não tenho certeza. Ferramentas de SEO é um espaço concorrido. Mas “escreve no seu codebase” é uma categoria diferente de “te mostra um relatório.” O valor está na lacuna de execução, e essa lacuna é real.

A ferramenta existe. Roda. Produziu resultado mensurável. Isso é suficiente para continuar construindo.

← arrow keys or swipe →