Gerador robots.txt online e gratuito. Configure regras de acesso para crawlers e URLs de sitemap. Essencial para SEO. No navegador.
O gerador de robots.txt é uma ferramenta online gratuita que cria facilmente arquivos robots.txt para controlar o acesso de rastreadores. Configure regras Allow/Disallow, URLs de sitemap e atrasos de rastreamento. Processamento no navegador, totalmente gratuito.
Predefinições
User-Agent
Atraso de rastreamento
URL do Sitemap
Resultado
User-agent: *
Allow: /
lock Os arquivos não são enviados a nenhum servidor
Como usar Gerador robots.txt?
Selecione o agente de usuário (rastreador).
Defina as regras de caminho Allow e Disallow.
Adicione a URL do sitemap e copie o robots.txt gerado.
Perguntas frequentes sobre Gerador robots.txt
O que é robots.txt?
robots.txt é um arquivo de texto colocado na raiz do site que informa aos rastreadores quais páginas rastrear ou ignorar.
O robots.txt pode ocultar completamente páginas dos resultados de busca?
Não. robots.txt só controla o rastreamento — páginas podem aparecer se vinculadas de outros sites. Use a meta tag noindex para remoção completa.