L'algorithme Panda 4.0 pénaliserait fortement les sites bloquant l'accès aux ressources CSS et JavaScript

Par:
fredericmazue

mer, 25/06/2014 - 16:20

A lire, un très intéressant billet de blog sur yoast.com L'auteur explique avoir constaté une chute de 50% du trafic sur les sites qu'il gère, consécutivement à la mise en place de l'algorithme Panda 4.0 par Google.

Selon lui, la raison de cette chute du trafic était l'interdiction faite au robot de Google  d'accéder aux ressources CSS et JavaScript. Interdiction faite par le fichier robots.txt.

Toujours selon l'auteur de ce billet, cette interdiction perturbe le robot de Google qui ne peut plus savoir déterminer où sont les emplacements publicitaires dans les pages des sites dans un tel cas. Ce qui semble sujet à caution.

Cependant, l'auteur fait remarquer, sans doute très pertinemment, que justement un nouveau bouton est apparu dans les Webmasters Tools de Google : Explorer et afficher. (Explorer comme en étant le robot de Google s'entend) Utiliser ce bouton permet justement de savoir très précisément si votre fichiers robots.txt bloque l'accès à de tels ressources, et si oui lesquelles.

Selon l'auteur du billet, avoir donné l'accès à ces ressources en corrigeant le fichier robots.txt des sites pénalisés a provoqué une "remarquable résurrection".

Panda 4.0 est-il aussi sévère ? A chaque webmaster de le vérifier. Quoi qu'il en soit, Google, dans ses recommandations aux webmasters, a toujours indiqué qu'il ne fallait pas bloquer l'accès aux fichiers CSS et JavaScript, blocage qui est souvent fait avec l'intention d'économiser de la bande passante. Ce qui est une mauvaise idée.