Pular para o conteúdo

Gerador robots.txt

Gerador robots.txt online e gratuito. Configure regras de acesso para crawlers e URLs de sitemap. Essencial para SEO. No navegador.

O gerador de robots.txt é uma ferramenta online gratuita que cria facilmente arquivos robots.txt para controlar o acesso de rastreadores. Configure regras Allow/Disallow, URLs de sitemap e atrasos de rastreamento. Processamento no navegador, totalmente gratuito.

Predefinições
User-Agent
Atraso de rastreamento
URL do Sitemap
Resultado
User-agent: *
Allow: /
lock Os arquivos não são enviados a nenhum servidor

Como usar Gerador robots.txt?

  1. Selecione o agente de usuário (rastreador).
  2. Defina as regras de caminho Allow e Disallow.
  3. Adicione a URL do sitemap e copie o robots.txt gerado.

Perguntas frequentes sobre Gerador robots.txt

O que é robots.txt?

robots.txt é um arquivo de texto colocado na raiz do site que informa aos rastreadores quais páginas rastrear ou ignorar.

O robots.txt pode ocultar completamente páginas dos resultados de busca?

Não. robots.txt só controla o rastreamento — páginas podem aparecer se vinculadas de outros sites. Use a meta tag noindex para remoção completa.