Audit SEO (prix d'un café)À partir de 1$ →
SEO Technique

Qu'est-ce que le fichier Robots.txt?

Le fichier robots.txt indique aux moteurs de recherche quelles pages de votre site ils peuvent ou ne peuvent pas explorer.

Le fichier robots.txt est un fichier texte placé à la racine de votre site web (exemple : h1site.com/robots.txt). Il sert de guide pour les robots d'indexation (crawlers) des moteurs de recherche comme Google, Bing ou Yahoo.

À quoi sert-il?

  • Contrôler l'exploration : Vous pouvez bloquer l'accès à certaines sections de votre site (pages d'administration, fichiers sensibles, pages en double).
  • Économiser le budget de crawl : Les moteurs de recherche allouent un nombre limité de requêtes par site. En bloquant les pages non importantes, vous orientez les robots vers votre contenu prioritaire.
  • Pointer vers le sitemap : Vous pouvez y indiquer l'emplacement de votre fichier sitemap.xml.

Exemple de fichier robots.txt

User-agent: *

Disallow: /admin/

Disallow: /tmp/

Allow: /

Sitemap: https://h1site.com/sitemap.xml

Erreurs courantes

  • Bloquer accidentellement tout le site avec Disallow: /
  • Oublier de référencer le sitemap
  • Penser que robots.txt empêche l'indexation (il empêche l'exploration, pas l'indexation)

Impact SEO

Un robots.txt bien configuré améliore l'efficacité du crawl et s'assure que Google concentre ses ressources sur vos pages les plus importantes.