Les webmasters et autres spécialistes en référencement savent qu'avoir un serveur lent ou trop chargé peut avoir comme conséquence que GoogleBot crawlera plus lentement votre site web. Il est également de notoriété publique que si un site est vraiment trop lent, le classement de ses pages pourrait en pâtir. Mais à partir de quand est-ce qu'un site est trop lent ? John Mueller a donné quelques explications.
Lors d'une discussion sur le forum Google Webmaster Help, un internaute a demandé de l'aide concernant une erreur selon laquelle son site était « temporairement indisponible » (Temporarily Unreachable) lorsqu'il utilisait l'outil de Google « Explorer comme Google » dans Google Webmaster Tools.
Assez rapidement, le Googler John Mueller a répondu à cet internaute en lui demandant de vérifier l'état de son serveur car il apparaît qu'il faut actuellement plus de 2 secondes pour explorer une seule URL, ce qui limite sévèrement le nombre d'URL qui sera crawlée par Googlebot !
Voici la version originale de la réponse de John Mueller:
« We're seeing an extremely high response-time for requests made to your site (at times, over 2 seconds to fetch a single URL). This has resulted in us severely limiting the number of URLs we'll crawl from your site, and you're seeing that in Fetch as Google as well.
My recommendation would be to make sure that your server is fast and responsive across the board. As our systems see a reduced response-time, they'll automatically ramp crawling back up (which gives you more room to use Fetch as Google too). »
Insistons encore sur le fait que John Mueller ne parle pas ici de l'algorithme PageSpeed mais uniquement de la capacité de Google à crawler les pages d'un site internet.
Vous avez un doute sur les performances de votre serveur ? Vous souhaitez mettre toutes les chances de votre côté pour améliorer l'expérience de l'internaute et répondre aux exigences de Google ? N'hésitez pas à nous contacter !