Qu'est-ce que Google Panda ?

Google Panda : le filtre qui scrute votre contenu !

| Référencement naturel

Le contenu est extrêmement important en référencement naturel à bien des égards. La sémantique se situant au cœur de l’algorithme de Google, certains référenceurs ont utilisé tous les subterfuges pour attirer un grand nombre de visiteurs sur leur site web sans nécessairement produire de contenus de grande qualité. Ça c’était avant 2011… avant le lancement du filtre Google Panda par la firme de Mountain View, qui a rebattu les cartes. Petit focus sur ce qu’est Panda, les pratiques pénalisées, la nature des sanctions infligées et la manière d’en sortir.

Définition de Google Panda

Google Panda est un filtre algorithmique qui a pour objectif de lutter contre les pages et sites internet proposant un contenu de mauvaise qualité.

Lancé le 24 février 2011, 14 mois avant Google Penguin, Panda a été conçu pour assainir les résultats de recherche en déclassant les contenus de mauvaise qualité ou en les supprimant purement et simplement de son index. Cela s’inscrit pleinement dans la politique de qualité de Google dont le but a toujours été de fournir les résultats les plus pertinents aux internautes.

« Panda » provient du nom de l’ingénieur indien qui est à l’origine de ce filtre : Navneet Panda.

Les pratiques et sites ciblés par Panda

Depuis sa création, l’algorithme de Google a toujours fait l’objet de manipulations et nombreux sont les référenceurs qui ont tenté d’exploiter les failles du moteur de recherche pour atteindre rapidement les premières positions sur Google. Le contenu étant crucial pour le référencement naturel, certains sites employaient des techniques visant à générer du contenu à grande échelle, très optimisé « SEO » et de manière automatisée. C’est pour lutter contre ces techniques dites « Black Hat » que Google Panda a été créé.

Les pratiques visées

  • Le contenu dupliqué (« duplicate content » en anglais) : on entend par contenu dupliqué interne la présence d’un texte identique sur différentes pages d’un même site ;
  • Le scraping : c’est une technique de pillage de contenu consistant à extraire le contenu d’un site pour le reprendre sur son propre site. On parle ici de « contenu dupliqué externe ». Cela se produit notamment lors de la syndication de contenu quand un site reprend tel quel un article d’un autre media sans en indiquer la source ni l’url canonique (url d’origine) ;
  • Le content spinning : cette technique permet d’automatiser la création de contenu grâce à des logiciels, en partant d’un contenu existant et en remplaçant certains termes ou expressions par des synonymes. Cela permet d’éviter le contenu dupliqué ;
  • Le cloaking : cette pratique consiste à distribuer deux contenus différents pour une même page. Un contenu sera proposé aux internautes et l’autre, optimisé pour le SEO, sera destiné aux robots des moteurs de recherche. Cette pratique, comme toutes les autres, est particulièrement déconseillée.

Lire également : Rédaction web, les 6 règles d’or incontournables

Les sites dans le collimateur

  • Fermes de contenu : sites produisant de nombreux articles de faible qualité spécifiquement conçus pour répondre à des sujets très recherchés sur le web. Ces plateformes n’ont pour but que de générer un trafic élevé afin de le monétiser sans adopter une ligne éditoriale cohérente ;
  • Agrégateurs de contenu : sites reprenant et agrégeant le contenu d’autres sites internet grâce au scraping ;
  • Comparateurs de prix ;
  • Forums de discussion ;
  • Annuaires contenant trop peu de contenu et d’avis utilisateurs ;
  • Plateformes d’avis : on ne parle pas là de plateformes telles que « Avis Vérifiés » ou « Trustpilot » qui ont un certain crédit auprès de Google notamment pour l’e-commerce ;
  • Sites de communiqués de presse qui n’ont eu pour but que de générer artificiellement des backlinks ;
  • Sites proposant un faible contenu en général : nombre de mots insuffisants, suroptimisation des mots clés, textes cachés en arrière-plan…

Il s’agit des grandes catégories de sites qui en 2011 étaient dans le viseur de Panda (et qui le sont toujours). Cependant google ne déclasse pas systématiquement tous les annuaires, comparateurs de prix ou plateformes d’avis. Le moteur de recherche se base sur la qualité et la fiabilité des contenus proposés par chaque site. C’est la raison pour laquelle Trip Advisor, Foursquare, TheFork et consorts jouissent d’une autorité certaine auprès de Google.

En mai 2011, Google a par ailleurs précisé sa pensée sur son blog sur ce qu’il considère comme un site de qualité ou non. Le géant américain liste ainsi 23 questions qui permettent aux éditeurs d’évaluer la qualité de leur site.

Les différentes mises à jour de Google Panda

Depuis son lancement en 2011, Google a mis à jour à 30 reprises son filtre. En 2016, Google décide d’intégrer définitivement Panda dans le cœur de son algorithme. Il semblerait qu’aujourd’hui Panda n’existe plus et a été remplacé par l’algorithme Coati qui remplit les mêmes fonctions, selon les dires de Hyung-Jin Kim, Vice President de Google Search, pendant l’événement SMX Next en 2022.

  • Panda 1 (« Panda 1.0 ») : lancement le 24 février 2011
  • Panda 2 (« Panda 2.0 ») : mise à jour le 11 avril 2011, déploiement du filtre sur les moteurs en anglais
  • Panda 3 : 10 mai 2011
  • Panda 4 : 16 juin 2011
  • Panda 5 : 23 juillet 2011
  • Panda 6 : mise à jour le 12 août 2011, déploiement du filtre dans les autres langues (exceptées le mandarin, japonais et coréen)
  • Panda 7 : 28 septembre 2011
  • Panda 8 (« Panda 3.0 ») : 19 octobre 2011
  • Panda 9 : 18 novembre 2011
  • Panda 10 : 18 janvier 2012
  • Panda 11 : 27 février 2012
  • Panda 12 : 23 mars 2012
  • Panda 13 : 19 avril 2012
  • Panda 14 : 27 avril 2012
  • Panda 15 : 8 juin 2012
  • Panda 16 : 25 juin 2012
  • Panda 17 : 25 juillet 2012
  • Panda 18 : 19 août 2012
  • Panda 19 : 18 septembre 2012
  • Panda 20 : 27 septembre 2012
  • Panda 21 : 5 novembre 2012
  • Panda 22 : 21 novembre 2012
  • Panda 23 : 21 décembre 2012
  • Panda 24 : 22 janvier 2013
  • Panda 25 : mars 2013
  • Panda 26 : mai 2013
  • Panda 27 : juillet 2013
  • Panda 28 (« Panda 4.0 ») : mai 2014
  • Panda 4.1 : 25 septembre 2014
  • Panda 4.2 : 18 juillet 2015

Quelle est la sanction ?

Si Google estime que vous produisez du contenu de faible qualité ou que vous employez les techniques abusives évoquées ci-dessus, il déclassera votre site dans les pages de résultats de recherche (SERP), ce qui entraînera une perte de trafic. Il peut également procéder à sa désindexation, votre site n’ayant plus aucune visibilité sur le web.

Panda peut également induire une diminution de la fréquence de crawl de votre site par les robots. Google a tendance à explorer beaucoup moins les sites qu’il juge de faible qualité.

Comment savoir si mon site a été sanctionné par Panda ?

Contrairement aux sanctions manuelles notifiées par Google dans l’outil search console, les pénalités algorithmiques sont beaucoup plus difficiles à détecter, d’autant plus que Panda fonctionne en temps réel depuis 2013. Cela ne permet donc pas d’effectuer une corrélation entre une perte de trafic soudaine et une éventuelle mise à jour Panda lancée à une date précise.

Si votre site a perdu brutalement ou progressivement des positions dans les SERP et par conséquent du trafic, il se peut que vous ayez été frappé par Panda. La perte de trafic peut également avoir d’autres causes comme Google Penguin. C’est pourquoi il est important d’envisager tous les scénarios possibles avant de tirer des conclusions définitives.

Cependant, si votre site produit des contenus insuffisants ou de très mauvaise qualité, si vous utilisez le cloaking et le spinning comme pratiques courantes, il y a fort à parier que vous avez été pris la main dans le sac.

Comment sortir d’une pénalité Panda ?

Si vous êtes certain que votre site a fait l’objet d’une pénalité Panda, alors c’est au niveau du contenu de votre site qu’il faut regarder :

  • Améliorez ou supprimez les contenus de mauvaise qualité : textes n’ayant aucune richesse sémantique, contenus courts, bourrage de mots clés… ;
  • Détectez le contenu dupliqué au sein de votre site avec des outils tels que siteliner. Si vous trouvez du contenu dupliqué, il convient soit de supprimer le contenu en question, soit de renseigner la balise canonique dans le code source de la page en indiquant l’url hébergeant le contenu original ;
  • Adoptez une ligne éditoriale cohérente et pertinente servant les intérêts de l’internaute ;
  • Renoncez au cloaking, spinning, scraping et autres techniques proscrites ;
Que doit faire un éditeur de site s’il pense avoir été pénalisé par Google Panda ? (source : Google Search Central)

Si vous souhaitez bénéficier de conseils dans le cadre d’une sortie de pénalité Panda, les consultants de notre Agence SEO Netinshape sont à votre écoute.

Pour conclure, comme pour les backlinks, privilégiez la qualité à la quantité. Lorsque vous rédigez des contenus, pensez avant tout à celui ou celle qui vous lira. N’écrivez pas de contenu destiné aux robots, ce qui ne signifie pas que votre contenu ne doit pas être optimisé pour le SEO. Nous parlons plutôt là de suroptimisation et de pratiques abusives. Si vous appliquez ces quelques conseils, Panda devrait vous laisser tranquille.


Florian Geri

Auteur

Florian Geri

Partager: