Parmi les innombrables mises à jour de l’algorithme de Google introduites au cours de la dernière décennie, voici celles qui ont changé le référencement à jamais.
Google prétend mettre à jour son algorithme de recherche plusieurs milliers de fois par an. Dans la majorité absolue des cas, les mises à jour de l’algorithme de Google sont trop petites pour être remarquées. Mais, de temps en temps, Google introduit un changement si fondamental qu’il perturbe à jamais la façon dont nous faisons du référencement.
Dans cet article, nous allons faire le compte à rebours de huit des changements les plus critiques de l’algorithme de recherche. Nous examinerons pourquoi ces mises à jour ont été introduites, comment elles fonctionnent et quels ajustements nous avons dû apporter à nos stratégies de référencement pour y répondre.
Mais avant de commencer, voyons si vous avez déjà été touché par une mise à jour d’algorithme. Il vous suffit de lancer Rank Tracker, de le synchroniser avec votre compte Google Analytics et de passer à Organic Traffic.
Passez simplement votre souris sur les lignes de tirets du graphique pour voir si certaines mises à jour de l’algorithme correspondent aux changements de trafic de votre site.

Panda
Date : 24 février 2011
Les risques : Contenu dupliqué, plagié ou mince ; spam généré par l’utilisateur ; bourrage de mots-clés.
Comment cela fonctionne : La mise à jour de l’algorithme Panda attribue un “score de qualité” aux pages web. Ce score est ensuite utilisé comme un facteur de classement. Au départ, les effets de Panda étaient légers, mais en janvier 2016, il a été intégré de façon permanente dans l’algorithme de base de Google. Depuis lors, les mises à jour sont devenues plus fréquentes, de sorte que les pénalités et les récupérations liées à Panda sont désormais plus rapides.
Comment s’adapter : Effectuez des contrôles réguliers du site pour détecter les doublons, les contenus légers et les mots-clés. Pour ce faire, vous aurez besoin d’un robot d’exploration de site, comme le Website Auditor de SEO PowerSuite.
Grâce au nouveau module d’édition de contenu de WebSite Auditor, vous pouvez également éviter une pénalité potentielle et créer des pages sans risque de bourrage accidentel de mots-clés. L’éditeur de contenu analyse les pages de vos principaux concurrents et fournit des recommandations de référencement basées sur le contenu qui a déjà fait ses preuves dans la recherche Google.
Et si vous voulez vérifier si votre contenu est dupliqué ailleurs sur le web, utilisez un vérificateur de plagiat comme Copyscape.

Pingouin
Date : 24 avril 2012
Les risques : Spammy ou liens non pertinents ; liens avec un texte d’ancrage trop optimisé.
Comment cela fonctionne : L’objectif de Google Penguin est de faire baisser le classement des sites dont les liens entrants ne sont pas naturels. Cette mise à jour a mis fin à la création de liens à faible effort, comme l’achat de liens dans des fermes de liens et des PBN.
Comment s’adapter : Pour rester à l’abri des effets de la mise à jour de Google Penguin, surveillez la croissance de votre profil de lien et effectuez des audits réguliers avec un vérificateur de liens entrants comme SEO SpyGlass. Dans le tableau de bord résumé de l’outil, vous trouverez un graphique de progression de la croissance de votre profil de lien. Faites attention aux pics inhabituels : ils peuvent être le résultat d’une attaque SEO négative de la part de vos concurrents.
Les statistiques que nous savons prises en compte par Penguin sont intégrées dans la formule de risque de pénalité de SEO SpyGlass. Naviguez vers l’onglet “Penalty Risk” et triez votre liste de backlinks du risque le plus élevé au plus faible. Les liens présentant un risque supérieur à 50 % doivent être examinés. S’ils s’avèrent être malveillants, ajoutez-les au fichier Disavow, téléchargez-le et soumettez-le à l’outil Disavow Links de Google.

Keyword Stuffing
Date : 22 août 2013
Les risques : Bourrage de mots-clés ; contenu de mauvaise qualité.
Comment cela fonctionne : L’algorithme keyword stuffing aide Google à mieux interpréter les requêtes de recherche et à fournir des résultats qui correspondent à l’intention du chercheur (par opposition aux termes individuels de la requête). Bien que les mots clés restent importants, l’algorithme keyword stuffing permet à une page de se classer pour une requête même si elle ne contient pas les mots exacts que le chercheur a entrés. Ceci est réalisé à l’aide du traitement du langage naturel qui repose sur l’indexation sémantique latente, les termes cooccurrents et les synonymes.
Comment s’adapter : Développez votre recherche de mots-clés et concentrez-vous sur les concepts qui se cachent derrière les mots-clés. Analysez soigneusement les recherches connexes, les synonymes et les termes cooccurrents. Les sources les plus intéressantes sont les recherches connexes de Google et les questions connexes de Google, ainsi que les suggestions de Google Autocomplet. Vous trouverez toutes ces idées dans le module de recherche de mots-clés de Rank Tracker
Utilisez ces connaissances pour mieux comprendre la langue de votre public et diversifier votre contenu. En créant un contenu complet qui satisfait l’intention des chercheurs, vous gagnerez à la fois en termes d’engagement et de référencement.

Mobile
Date : 21 avril 2015
Les risques : Absence d’une version mobile de la page ; mauvaise utilisation du téléphone portable.
Comment cela fonctionne : Cette version et les mises à jour ultérieures de la recherche mobile (2018, 2020) ont fait passer l’accent sur la version mobile de votre site web plutôt que sur la version de bureau. Aujourd’hui, Google classe tous les sites web en fonction de la rapidité et de la convivialité de leurs versions mobiles.
Comment s’adapter : Optimisez vos pages pour la recherche mobile et mettez l’accent sur la rapidité et la convivialité. Les tests de convivialité et de vitesse des pages de Google vous aideront à voir quels aspects de votre page doivent être améliorés. Les tests sont intégrés dans WebSite Auditor afin que vous puissiez vérifier l’optimisation mobile de vos pages dans le cadre de l’audit global de votre site web. Vous le trouverez dans Analyse de contenu > Audit de page :

RankBrain
Date : 26 octobre 2015
Les risques : Manque de pertinence de la requête ; contenu superficiel ; mauvaise qualité de l’UX.
Comment cela fonctionne : RankBrain fait partie de l’algorithme Hummingbird de Google. Il s’agit d’un système d’apprentissage automatique qui aide Google à comprendre le sens des requêtes et à fournir les meilleurs résultats de recherche en réponse à ces requêtes. Google place RankBrain au troisième rang des facteurs de classement les plus importants.
Bien que nous ne connaissions pas la formule exacte derrière cette mise à jour majeure, le consensus est que RankBrain est responsable de la personnalisation des résultats de recherche Google d’un utilisateur. Fondamentalement, Google va au-delà de la requête de recherche d’une personne et prend en compte le contexte plus large, comme les synonymes, les mots implicites et l’historique de recherche personnel.
Comment s’adapter : Optimisez la pertinence et l’exhaustivité de vos pages à l’aide d’une analyse concurrentielle. Grâce à l’outil TF-IDF de l’auditeur de site web, vous pouvez découvrir des listes entières de termes et de concepts pertinents utilisés par un grand nombre de vos concurrents de premier plan. Trouvez un moyen d’ajouter ces termes à votre contenu et vous verrez la pertinence de votre recherche augmenter considérablement.

Medic
Date : 4 mai 2018
Les risques : Manque d’autorité sur les sites web ; signaux faibles.
Comment cela fonctionne-t-il ? La mise à jour de Google Medic semble toucher de manière disproportionnée les sites web médicaux ainsi que d’autres sites web ayant trait à des décisions susceptibles de changer la vie (finances, droit, éducation). Bien que cela ne soit pas explicitement confirmé, les représentants de Google ont laissé entendre que la mise à jour mettait en œuvre certains des signaux E-A-T (expertise, autorité, confiance) du document “Quality Rater Guidelines”.
Comment s’adapter : À ce jour, il n’existe pas de stratégie de redressement éprouvée pour la mise à jour de Medic. Certains SEO suggèrent d’engager des rédacteurs experts pour donner de la crédibilité à votre site web, d’autres prétendent que la solution réside dans la création d’entités pour votre marque. Mais, si l’on s’en tient aux faits, la seule manière fiable d’accroître l’autorité de votre site web est d’augmenter votre profil de backlink. Une approche efficace consisterait à utiliser un outil de recherche de backlink, comme SEO SpyGlass, et à emprunter des idées de backlink à vos concurrents.
SEO SpyGlass vous permet de trouver l’écart de backlink entre votre site web et ceux de vos concurrents. Les meilleures perspectives sont les sites web de haute autorité qui renvoient à deux ou plusieurs de vos concurrents. Cela indique que les sites web s’intéressent à votre niche, mais n’ont pas de relation exclusive avec une entreprise en particulier.
Bert
Date : 22 octobre 2019
Les risques : Contenu mal écrit ; manque de concentration ; manque de contexte.
Comment cela fonctionne : Cette mise à jour de l’algorithme de Google utilise la technologie de traitement du langage naturel pour mieux comprendre les requêtes de recherche, interpréter le texte, identifier les entités et les relations entre les entités. Nous avons vu les mises à jour de Panda, Hummingbird et RankBrain s’éloigner des mots clés, et la mise à jour de BERT est le point culminant de cet effort – elle permet à Google de comprendre beaucoup plus de nuances dans les requêtes et les résultats de recherche.
Comment s’adapter : Nous avons enfin vécu pour voir le jour où Google récompense réellement la bonne écriture. Comme jamais auparavant, il est important de s’efforcer d’obtenir une copie significative. Cela signifie qu’il faut y aller mollo sur les mots en peluche et adopter un style d’écriture exposant. Il est également judicieux de faire des recherches sur les entités lors de la création de la copie – l’inclusion d’entités pertinentes aide à créer un contexte pour votre contenu.

Core Updates
Date : 2017-présent
Comment cela fonctionne : Dès 2017, Google a commencé à se référer à des mises à jour plus importantes en tant que mises à jour de base de Google. Depuis lors, il y a encore moins de transparence sur ce que sont ces mises à jour et sur les parties de la recherche qu’elles sont censées améliorer. Les moteurs de recherche suivent souvent les changements de classement après les mises à jour et tentent de déterminer ce qui a changé exactement, mais il est rare qu’une observation concluante soit faite. Il est probable que les mises à jour de base de Google ne sont que des améliorations par rapport aux précédentes mises à jour de Google ou peut-être des ensembles de mises à jour plus petites liées entre elles.
Comment s’adapter : Comme les effets des mises à jour de base de Google sont souvent inconnus, une chose que vous pouvez faire est de suivre l’historique du SERP pour les mots-clés que vous ciblez. Une fois la mise à jour effectuée, vous pouvez vérifier quels sont vos concurrents qui ont progressé ou reculé dans le classement et faire une estimation éclairée des facteurs qui y contribuent.
Pour commencer à suivre l’historique de votre SERP, lancez le Suivi du classement, allez dans Mots clés ciblés > Suivi du classement > Analyse SERP, et cliquez sur Enregistrer les données SERP. L’outil commencera à suivre les 30 premières positions du SERP pour chacun de vos mots clés.