Skip links

Un fichier robots.txt pour optimiser son référencement Google

Fichier robots.txt : un levier technique du référencement naturel

Le référencement naturel repose sur 3 piliers incontournables : le SEO technique , le contenu et la notoriété. Le travail du référencement technique consiste à tout mettre en place pour que les moteurs de recherche puissent facilement accéder aux pages de votre site web durant la phase d'exploration (appelée crawl), mais surtout qu’ils puissent les interpréter et les indexer de manière optimale. Des éléments techniques opérationnels et optimisés permettent à Google de parcourir votre site web sans difficulté et de procéder à l'indexation de vos pages. C'est-à-dire qu’elles seront affichées sur les pages de résultats des moteurs de recherche (également appelée SERP) et qu'elles seront visibles aux yeux des internautes. L’optimisation technique SEO est donc un facteur clé du référencement naturel.

― En savoir plus
Fichier robots txt

Quel est le rôle du fichier robots.txt en SEO ?

Le fichier robots.txt est un fichier texte implanté à la racine de votre site internet dont le rôle est de donner des indications aux robots d’indexation des moteurs de recherche. Les commandes intégrées sur ce fichier permettent de préciser aux robots de Google quelles sont les pages à explorer et à indexer et celles qui ne doivent pas l’être. Vous avez ainsi la possibilité de demander au googlebot de ne pas indexer certaines pages (directive disallow), mais également de fournir le sitemap de votre site web (document indiquant l’URL de chaque page à indexer). Il est donc important de bien optimiser le fichier texte robots txt pour le référencement de votre site internet.