Crawl


Un crawl (ou exploration) est le processus par lequel les moteurs de recherche parcourent le web en suivant les liens entre les pages pour découvrir de nouveaux contenus et les ajouter à leur index. Les robots d'exploration (ou crawlers) des moteurs de recherche parcourent le web en suivant les liens entre les pages pour trouver de nouveaux contenus. Lorsqu'un robot d'exploration trouve une page, il analyse son contenu et suit les liens sur cette page pour découvrir d'autres pages. Ces pages sont ensuite analysées et ajoutées à l'index du moteur de recherche.

Les crawlers des moteurs de recherche suivent les liens entre les pages pour découvrir de nouveaux contenus, ils peuvent également suivre les instructions de fichiers comme les Sitemaps et robots.txt pour accéder aux pages. Les moteurs de recherche effectuent des crawl régulièrement pour s'assurer que leurs index sont à jour.

Il est important pour les propriétaires de sites web de s'assurer que leur site est bien structuré pour faciliter les crawl des moteurs de recherche. Il est également important de s'assurer que les pages importantes sont accessibles aux robots d'exploration en utilisant des fichiers tels que Sitemaps et robots.txt, et de résoudre les erreurs d'exploration potentielles en utilisant des outils tels que Google Search Console.




Articles de blog en relation avec cette définition

Agence web websource

Module Instantly indexing for Google


Notre expertise

Nous maîtrisons le framework Français le plus célèbre,
mais aussi les CMS Français les plus connus !