J’ai parlé à plusieurs reprises de l’impact des performances sur le volume de pages crawlé par Googlebot.
Voici un exemple concret.
Mise en prod -> dégradation des performances -> chute de crawl.
La sanction est immédiate.
Amélioration des performances le lendemain -> rétablissement du crawl.
Et bin, je ne pensais pas qu’il pouvait y avoir tant de répercutions! Ca m’en bouche un coin…
Oui en effet, les deux courbes inversées parlent d’elles-mêmes, on peut même parler ici de très gros impact, merci pour l’illustration.
Salut,
Comment as tu eu ces graphes stp ?
Merci :)
Avec un terminal linux, des logs serveur et mes petits doigts ;-)
Je découvre le blog. Pas mal d’articles super intéressants sur le crawl & l’étude des logs ! Merci pour le partage.
Merci pour ce retour, pensez-vous qu’un test de charge (avec plus de données/pages analysées) permettrait de confirmer cette conclusion tirée d’un test unitaire ?
Je ne présente ici qu’un exemple parmi d’autres, mais c’est un phénomène que j’ai rencontré à de très nombreuses reprises.
On est donc, de mon côté en tout cas, loin d’un test unitaire.