Non on ne va pas parler aujourd’hui d’une vieille page supprimée de votre WordPress sortant de sa corbeille pour vous manger la cervelle, mais bien d’une notion SEO technique / sémantique aux impacts forts. Eh oui : l’IA (on en revient souvent à elle) apportant à la fois son flux de non-information comme de désinformation, et étant utilisée pour produire des contenus en masse au détriment de qualité, Google et les autres moteurs de recherche ont dû renforcer certains de leur critères pour continuer à proposer des résultats de qualité et expertisés. Alors, en quoi consistent ces pages zombies, quel sont leur impact pour le référencement naturel et surtout, comment les traiter ? Je vous débriefe tout.
Définition de la page zombie
Une page zombie en SEO, qu’est-ce que c’est ?
Une page zombie est une page à très faible valeur ajoutée sur un site web, pouvant aller jusqu’à pénaliser l’expérience de navigation des utilisateurs (UX), et impacter négativement le positionnement des mots-clés du site (SEO). En bref, une page n’ayant plus de raisons aujourd’hui d’être en ligne, et au contraire dont la suppression bénéficiera à tous (humains comme robots).
Contrairement à certaines définitions données par mes confrères, de mon point de vue de spécialiste une page zombie va aller au-delà de ne pas simplement performer en SEO : elle ne va apporter pratiquement aucune valeur ajoutée. Car oui, une page peut très bien être bénéfique pour humains et robots au-delà de ses positions sur le moteur de recherche : par exemple pour la réassurance (mentions légales, à propos…), le marketing (présentation de réalisations passées…), ou encore l’UX (contact…).
Quelques exemples de pages zombies
On l’avait vu lors de l’article sur les problèmes d’indexation, certaines pages n’étaient tout simplement pas indexées en raison de leur manque de qualité. C’est un bon exemple de page zombie.

En même temps, humain ou robot, personne ne voudrait lire ce torchon.
Sinon, on retrouvera dans cette catégorie les pages :
- Archives d’auteurs, tags, etc… pour les articles de blogs (dans le cas où elles fourniraient des doublons par rapport aux listings existants)
- Créées en html automatiquement pour chaque photo de la médiathèque (problème récurrent sous WordPress)
- Obsolètes, plus mises à jour depuis leur parution, voire capable d’apporter de la désinformation aujourd’hui en raison des changements sur le domaine apportés par des domaines extérieurs
- Au contenu dupliqué vis-à-vis des pages de son site, voire depuis d’autres sites (oui c’est déjà arrivé pour certains de mes clients)
- Pour les E-commerces, les pages issues de navigation à facettes vides
- Et tout ce qui se rapproche des contenus au faible valeur ajoutée, en dépit du volume de texte (des galeries d’images sans ou avec peu de texte, par exemple, ne sont pas nécessairement des pages zombies. Regardez, essayez de rechercher « meme SEO » sur Google. Un minimum de contexte est nécessaire ceci dit.).
Attention : les pages dites institutionnelles (à propos, mentions légales, politique de confidentialité, contact…) ne sont pas des pages zombies, même si leur volume de contenu est faible. Au contraire, elles apportent de la réassurance aux utilisateurs et aux robots, elles ont un poids SEO positif pour l’ensemble du site (critères de confiance).
Quels impacts concrets pour le SEO ?
Déjà, vous vous en doutez probablement si vous avez lu la première partie de cet article, mais les pages zombies ont un impact négatif pour elles-mêmes et l’ensemble du SEO de votre site web. Mais qu’en dit Google, et qu’en disent les faits ? C’est ce que nous allons voir de suite.
Déclarations officielles de Google à ce sujet
On remonte au vendredi 6 mai 2011 (ah oui quand même) pour retrouver la 1ère source officielle du point de vue du célèbre moteur de recherche Américain sur les pages à faible qualité. Le ton est déjà donné : il est écrit noir sur blanc que certaines pages de faible qualité d’un site peuvent pénaliser le classement SEO de l’entièreté du site. D’ailleurs, ce n’est pas un hasard si cette déclaration est rédigée peu après le déploiement de la mise à jour d’algorithme Google Panda.
Source : https://developers.google.com/search/blog/2011/05/more-guidance-on-building-high-quality?hl=fr.
Viennent ensuite les annotations, bien plus actuelles (août 2022), de l’algorithme Google HCU (Helpful Content Update), intégré notamment aujourd’hui parmi les algorithmes principaux de classement. Il va traiter l’analyse des pages de faible qualité d’un site, pour définir sa qualité générale des contenus. En bref :
- Si vous avez 90% des pages de votre site à forte VA = elles aident le site à se positionner comme étant une source de qualité et expertisée, facilitant le positionnement de ses contenus.
- Et si vous avez 90% de pages à faible VA = ça va être plus compliqué pour se positionner, même sur les bons contenus.
Cet algorithme a vu notamment son poids être renforcé avec le temps, notamment durant l’update HCU de septembre 2023.
Expériences et analyses des impacts des pages zombies
Une page zombie, comme je le disais, est une page à très faible valeur ajoutée pour les utilisateurs et robots ; donc potentiellement qui fait simplement perdre du temps aux utilisateurs voire les désinforme, et des ressources aux robots (ce qui va ensuite impacter négativement le Budget Crawl). Mais pas seulement : celles avec par exemple un contenu fondamentalement dépassé ou mauvais peut aussi faire baisser votre indice de confiance et d’expertise vis-à-vis des algorithmes des moteurs de recherche. On en revient aux déclarations liées notamment à HCU pour Google.
Il existe malheureusement peu d’études liées à ces pages zombies, pourtant une d’elles nous vient de France (Cocorico), publiée par RM Tech (que je mentionnerai de nouveau plus bas).
Source : https://fr.myrankingmetrics.com/blog/etude-performance-seo/
Concernant mes expériences personnelles, la correction des pages zombies a toujours eu du positif : et d’autant plus quand elles représentaient un fort pourcentage vis-à-vis du nombre total de pages d’un site. Prenons un de mes exemples les plus parlant : ce client avait environ une 50aine de pages, et près de 60% catégorisées comme zombies sur ce site, notamment issues de contenu dupliqué vis-à-vis d’autres articles sur le web. En corrigeant dans un 1er temps ces pages zombies, et en gardant uniquement ses contenus à forte valeur ajoutée, mon hypothèse est que le site a pu reprendre de la confiance et de l’expertise vis-à-vis de Google, et a commencé à se positionner en 1ère page des SERP sur quelques mots-clés.
Source : Ma Google Search Console
Bien sûr, il y avait d’autres optimisations techniques déployées ce mois-ci (indexation des pages notamment), mais uniquement l’intégration de la charte de nommage pour la sémantique, les autres contenus existants étant déjà assez qualitatifs pour commencer à se positionner sans optimisation prioritaire.
Comment identifier une page zombie ?
Via les pages indexables mais non-indexées
Pour cette solution, on va utiliser un crawler tel que Screaming Frog. Le but va être de :
- Crawler le site, en extraire les pages en 200 et indexables.
- Exporter les pages indexées (possible via GSC, ou grâce à un plug-in depuis les SERP).
- Supprimer les doublons : vous devriez vous retrouver avec des pages indexées mais non crawlées, et des pages crawlées mais non indexées. C’est cette 2e liste qui va nous intéresser.
- Si malgré un Budget Crawl décent vous avez des pages crawlées indexables, mais non indexées, il y a de bonnes chances pour qu’elles apportent très peu de valeur ajoutée, et ainsi être des pages zombies.
Attention cependant aux pages orphelines : elles ont plus de chance de ne pas être indexées, peu importe leur qualité. Si possible, on va vérifier que ces pages ne sont pas zombies, et préférer les mailler depuis la structure principale du site.
Via les performances faibles provenant de la Search Console
Il faudra (bien évidemment) l’accès à la GSC du site en question. On va ensuite :
- Extraire les performances sur 12 mois des pages.
- Filtrer les pages en priorité ayant reçu peu de clics, puis peu d’impressions.
- Vous devriez avoir une liste de pages performant peu voire pas du tout. Bien sûr, à adapter selon la taille du site, et ses performances actuelles, surtout s’il est jeune.
Ici le risque est d’y inclure des pages institutionnelles : pour éviter ça, le mieux est encore une fois de faire attention au type de page et de les consulter, si le temps le permet, individuellement (ne serait-ce que brièvement). Dans le cas d’un site plus gros, on essaiera de segmenter les pages avec leur répertoire pour voir si des patterns se dessinent entre plusieurs pages d’un même chemin.
Avec un crawler spécialisé
Aujourd’hui, je ne connais qu’un seul crawler sur le marché français pouvant apporter une réelle valeur ajoutée sur les pages zombies : RM Tech. Pour croiser ses analyses et proposer un résultat le plus exploitable possible, l’outil prend en compte d’ailleurs 2 types de pages :
- Les QualityRisk, étant une appellation proposée par l’outil, sur les pages pouvant avoir plus de difficultés à se positionner (problèmes SEO, ou sous-optimisation).
- Les zombies, précisément celles que nous étudions tout au long de cet article, qui combinent les éléments QR (QualityRisk) à des données de performances notamment données par la Search Console.
Le tout étant sorti sous forme de matrice comparant les scores des pages selon ces 2 catégorisations, et bien sûr des détails pour chaque URL concernée. Très honnêtement, le niveau de scoring des pages QR / zombies est précis, et assez représentatif. Il faut bien entendu garder un œil humain derrière.
Enfin, comment traiter une page zombie ?
Très bonne question ; aujourd’hui je fonctionne avec 3 possibilités :
- Remodeler le fond de la page : dans le cas où la qualité / véracité des informations pêchent. Il s’agit d’apporter de la valeur ajoutée au contenu avec des éléments recherchés par votre public, ou mis à jour en cas de nouveautés sur le secteur.
- Remodeler la forme de la page : dans le cas où c’est la mise en forme du contenu de la page qui n’est pas adaptée. Véritables informations intégrées dans du contenu IA horrible, manque de structure et de hn, remplissage excessif ou suroptimisation… On va se concentrer sur la forme pour faire ressortir au mieux les vraies informations à forte VA.
- Supprimer la page zombie, et mettre en place une 301 si elle était indexée : dans le cas où il n’y a aucun intérêt à l’améliorer. On ne va pas s’embêter à reprendre un contenu ne servant plus sur le site aujourd’hui, ou à inventer un contexte pour garder la page malgré tout. C’est simple, rapide, et efficace.

Parfois, il ne faut pas chercher midi à 14h.
Sachant que la solution 1 et 2 peuvent être faites ensemble au besoin. Si vous pensez avoir des pages zombies, et n’arrivez ni à les identifier ni à les traiter malgré mes conseils, en tant que consultant Lyonnais en référencement naturel indépendant je serais ravi d’y jeter un œil.
Conclusion
Même si je n’ai pas réussi à retrouver l’étymologie de ce terme, il est assez parlant : ce sont des pages qui vont venir manger le positionnement des autres par leur simple existence. J’espère que mon article vous aura éclairé (j’explore encore davantage la question quand j’interviens en tant que formateur SEO), et vous souhaite une bonne chasse aux pages zombies.



Je n’ai lu que le premier H2 et me voilà déjà en commentaires…
J’aime bien la définition. Tu couvres en réalité tous les aspects du sujet tout en restant limpide (pas de jargon inacessible). J’aime !!!
Merci pour ton retour Romaric 😉 Je suis content de lire que tu trouves mon contenu clair, je ne sais jamais si j’arrive ou non à bien le vulgariser. Un plaisir si l’article a pu t’apporter de nouvelles connaissances !