Comment utiliser le fichier robots.txt pour améliorer la façon dont les robots de recherche explorent votre site web ?
Le but du fichier robots.txt est d’indiquer aux robots de recherche quels fichiers doivent être indexés ou non par eux. Le plus souvent, elle est utilisée pour spécifier les fichiers qui ne doivent pas être indexés par les moteurs de recherche.
Pour permettre aux robots des moteurs de recherche d’explorer et d’indexer l’intégralité du contenu de votre site web, ajoutez les lignes suivantes dans votre fichier robots.txt :
Agent utilisateur: *
Interdire:
D’un autre côté, si vous souhaitez interdire l’indexation complète de votre site web, utilisez les lignes ci-dessous:
Agent utilisateur: *
Interdire: /
Pour obtenir des résultats plus avancés, vous aurez besoin de comprendre les sections du fichier robots.txt . La ligne « User-agent: » spécifie pour quels bots les paramètres doivent être valides. Vous pouvez utiliser « * » comme valeur pour créer la règle pour tous les robots de recherche ou le nom du robot pour lequel vous souhaitez créer des règles spécifiques.
La partie « Disallow: » définit les fichiers et dossiers qui ne doivent pas être indexés par les moteurs de recherche. Chaque dossier ou fichier doit être défini sur une nouvelle ligne. Exemple:
Agent utilisateur: *
Interdire: /private
Interdire: /security
Notez que l’instruction « Disallow: » utilise le dossier racine de votre site web comme répertoire de base, donc le chemin d’accès à vos fichiers doit être /sample.txt et non /home/user/public_html/sample.txt par exemple.