Inspecteur robots.txt

Contrôlez les règles robots.txt par user-agent, détectez les conflits Allow/Disallow et validez les sitemaps déclarés.

Chargement de l'inspecteur...

Résultats

Les résultats apparaîtront ici après l'inspection d'une URL robots.txt.

🚫 Robots.txt Inspector

Robots.txt Inspector valide la syntaxe robots.txt, la logique par groupe d’user-agent et les conflits entre règles Allow/Disallow.

Le résultat indique quels patterns d’URL sont effectivement bloqués ou autorisés, et si les sitemaps déclarés sont accessibles.

  • Si une URL clé est bloquée, vérifiez d’abord la règle la plus spécifique dans le bon groupe user-agent.
  • Si Allow et Disallow ont la même longueur de préfixe, vérifiez ensuite les conflits de règles.
  • Vérifiez que les sitemaps déclarés répondent correctement et restent joignables.
  • Relancez l’audit après changement CDN/proxy/routage pour éviter des régressions de crawl silencieuses.

Etapes suivantes