Lorsqu’une ou plusieurs pages sont publiées, il arrive qu’elles soient explorées par les robots d’exploration des moteurs de recherche et indexées sans qu’elles n’apparaissent dans le fichier sitemap.xml rattaché au nom de domaine.
Comment cela est-il possible ?
La réponse à cette question est simple. Les robots d’explorations des moteurs de recherche ne font que suivre les liens qu’ils croisent lorsqu’ils atterrissent sur une page web. Ils n’ont d’autres rôles que celui-là.
La présence du fichier sitemap.xml n’est là que pour faciliter le travail d’exploration et d’indexation des bots des moteurs de recherche. Et par conséquent faciliter le classement de vos urls dans les pages de résultats de recherche des moteurs de recherche.
D’ailleurs, un site web relativement petit (disons une centaine de pages) est tout à fait capable d’être correctement exploré et indexé sans posséder de sitemap.xml.
Le travail d’exploration et d’indexation des crawlers devient plus compliqué quand un site web de quelques milliers de pages et plus ne possède pas de sitemap.xml.