Un spider, aussi connu sous le nom de crawler ou bot, est un programme utilisé par les moteurs de recherche pour parcourir le web de manière méthodique et automatisée. Les spiders visitent les sites web, lisent le contenu, les métadonnées et suivent les liens sur ces sites pour récupérer de nouvelles informations. Ces données sont ensuite indexées et utilisées pour classer les sites web dans les résultats de recherche.
Spider