Cominmag.ch

Le Zoo Google

Oui vous avez bien lu le titre. Vous n’étiez pas au courant que Google avait un zoo ? Il s’agit en fait d’une ménagerie bien particulière composée, entre autres, d’un panda, d’un pingouin et d’un colibri. Je ne vous parle pas d’animaux mais des noms des algorithmes (ou filtres) déployés par Google pour affiner son moteur de recherche.

Google ne cesse d’entreprendre des solutions et de nouveaux changements majeurs dans ses technologies de recherches robotisées. À en croire ses dirigeants, ces opérations ont notamment pour but de modifier et d’améliorer les dispositifs de contrôle et de traitement du moteur de recherche, par rapport à l’évolution des technologies et de l’expérience utilisateur des internautes. Par conséquent, chaque changement entrepris chez Google devient une importante source d’inquiétude pour les webmasters et les référenceurs de sites Internet, toutes catégories confondues. Ainsi, ceux qui ne respectent pas les guidelines du moteur de recherche devraient être pénalisés d’une manière automatique ou manuelle, ce qui n’est pas encore totalement le cas.

Voici un récapitulatif des différents algorithmes et mises à jour utilisés à ce jour par le célèbre moteur de recherche.

Google Panda
Mis en place en février 2011, Google Panda vise avant tout les fermes de contenu ainsi que les sites dont les contenus sont de mauvaise qualité.
Pourtant, Google Panda s’est aussi révélé plus complexe, de nombreux sites ayant pu en subir les effets nuisibles, notamment les comparateurs de prix qui ont été pénalisés dans les pages de résultats de recherche. Google Panda fonctionne en fait comme un filtre qui pénalise, entre autres, les contenus dupliqués, impertinents ou de mauvaise qualité.
Cette opération a pour objectif d’épurer les résultats de recherche en épluchant les techniques de spam et de la duplication de contenu. Panda se focalise avant tout sur :

• les sites dont les contenus sont pauvres et rarement mis à jour ;
• les fermes de contenu : les sites qui produisent une certaine quantité de contenus à thématiques populaires et génératrices de trafic dans le but de générer des revenus publicitaires ;
• les sites qui effectuent la copie de contenus existants et contournent les filtres de duplication en utilisant des techniques de spinning ;
• les sites qui servent d’intermédiaires entre l’internaute et le moteur de recherche.

Google Penguin
À la différence de Panda, Google Penguin se focalise sur les techniques de référencement abusif comme les échanges de liens, le spam de commentaires, le keyword stuffing (bourrage de mots clés) et le cloaking (technique permettant de présenter un contenu différent selon si le visiteur du site est le moteur de recherche ou un internaute). Penguin permet donc de déclasser les sites sur-optimisés et les sites abusant de certaines pratiques frauduleuses selon les règles de Google.

Google Hummingbird
Hummingbird a été mis en service en septembre 2013 ; il s’agit d’une importante mise à jour de l’algorithme censée améliorer la pertinence des résultats de recherche par une meilleure compréhension des requêtes des utilisateurs. Il s’agit donc d’intégrer un principe de recherche sémantique dans le moteur de recherche. Hummingbird utilise une technique qui reformule les requêtes pour mieux les interpréter.

Google Pigeon
Dernier-né, Google Pigeon a été mis en service en juillet 2014 aux USA. Ce nouvel algorithme a pour objectif de traiter de manière plus précise les recherches locales (par exemple: restaurant Lausanne ou serrurier Genève). Il aura donc un impact sur les résultats de recherches locales, mais il est encore difficile d’en connaitre les retombées car il n’a pas encore été déployé en dehors des USA.

Il vous faut donc surveiller de près l’évolution de cette ménagerie afin de vous éviter de vous « prendre un Penguin ou un Panda », comme on dit dans le jargon du référencement, et de voir votre site tomber dans les profondeurs obscures du célèbre moteur de recherche.

Patrick Chareyre, www.xenoht.net

Quitter la version mobile