Comment créer un SITMAP et un ROBOT.TXT pour archiver automatiquement les articles de votre blog.
Bienvenue à nouveau dans cette série de cours, donc comme suite aux cours de la formation pour apprendre la création d'un blog professionnel, nous verrons aujourd'hui une explication complète qui concerne le fichier du robot txt ainsi que du sitmap et ce pour archiver les articles de votre blog.
De même pour que
votre blog va pouvoir bien figurer et se classe bien dans les moteurs de
recherche ce qui aide à accélérer l'archivage des articles d’un blog.
Ce cours est la première étape vers la reconnaissance du bon fonctionnement d’un blog et pour s'assurer que votre blog va pouvoir apparaisse dans les résultats de recherche.
Non
seulement cela, mais aussi pour arriver au sommet des résultats de recherche sur
Google.
Le Sitemap et son importance pour Google, ainsi que pour les moteurs de recherche
Au cours de l’année 2005, le moteur de recherche Google a lancé un protocole basé sur l’utilisation du format Sitmap comme un plan du site.
Il s’agit d’un moyen pour s’organiser sur
Internet.
Il est important que dans le
passé, ce plan de site était destiné aux utilisateurs du site, jusqu'à ce que
Google l'utilise pour en profitant des moteurs de recherche, ce qui permet au
moteur de recherche Google de trouver des données plus rapidement et plus
efficacement en ayant tous les liens du site sur une seule page. C’est le
Sitmap.
Avec l'augmentation du nombre de sites Web sur Internet et l'augmentation des pages de chaque site, il était difficile pour les moteurs de recherche de suivre toutes ces pages de manière efficace et transparente.
Google a donc utilisé ce protocole pour faire classer
les pages de tout le site sur une seule page qui se trouvent dans des liens
facilement et rapidement archivés.
Ce n'est pas, comme certains
le pensent, un excellent outil qui affecte le classement des résultats de
recherche et la publicité de votre site, mais il aide seulement les robots des
moteurs de recherche à classer et archiver facilement et plus précisément votre
blog en prenant en compte tenu de la présence de millions de sites sur le net.
Comme un sitmap et un fichier rebot.txt peuvent-ils être configurer ?
Tout ce que dont vous avez
besoin pour réussir à établir ce processus est un ensemble de codes, que vous
trouverez à la fin de cet article.
Don en grosso modo, la carte
du sitmap assure l'archivage des sites et de toutes leurs pages et ce uniquement
via les outils de webmaster (Google Search Console) que nous connaissions
auparavant et pour en savoir je vous invite à suivre cette vidéo, qui
explique toutes les étapes à suivre de façon détaillée.
Télécharger les codes
utilisés dans l'explication vers ici.