Le content pruning fonctionne. Pas toujours, pas pour tout le monde, et rarement comme les articles clickbait le racontent. Mais quand il est bien exécuté, il produit des résultats mesurables. Le problème, c'est que la majorité des gens confondent pruning et massacre.
Supprimer du contenu pour ranker mieux, c'est contre-intuitif. On nous a répété pendant des années que plus de pages égale plus de trafic. C'est faux. Google a un budget de crawl fini pour chaque site. Leur documentation officielle, mise à jour en décembre 2025, définit le crawl budget comme "the set of URLs that Google can and wants to crawl". Si la moitié de vos URLs sont des pages mortes, Google gaspille son temps dessus au lieu de crawler vos contenus qui performent.
Le verdict d'abord : ce que disent les données terrain#
Auto Body Toolmart a désindexé des milliers de pages et réécrit mille trois cents contenus. Résultat : plus 31 pourcent de trafic en glissement annuel et plus 28 pourcent de revenus.
Trainline, le cas le plus spectaculaire que j'ai vu documenté, a supprimé cent trente millions de pages. Des pages générées dynamiquement, sans valeur pour l'utilisateur. Les pages à valeur réelle sont passées de 64 à 87 pourcent du crawl total. Trois fois plus d'URLs utiles crawlées par jour. Profondeur de crawl réduite de sept à cinq niveaux. Quinze mois de travail.
CNET a affiché plus 29 pourcent de trafic organique entre juin et août 2023, passant de dix-neuf à vingt-quatre millions et demi de visites mensuelles. Prudence : le Prime Day Amazon et le lancement de Threads ont dopé les recherches tech sur la même période. La causalité directe est impossible à établir formellement.
NerdWallet illustre parfaitement le risque. Après un pruning d'environ la moitié de leurs pages, ils ont gagné quatre millions de visites. Puis une mise à jour algorithmique ultérieure leur en a fait perdre six. Le pruning n'est pas un vaccin contre les core updates.
Pruning versus decay : deux problèmes, deux réponses#
Je tiens à clarifier ce point parce que je vois la confusion partout. Le content decay est un déclin passif. Un article qui fonctionnait il y a un an perd du trafic progressivement parce que la concurrence a publié mieux, ou parce que l'intention de recherche a évolué. Le decay se traite par le refresh.
Le content pruning, c'est une action délibérée. Vous identifiez les pages qui plombent votre site et vous décidez de les supprimer, désindexer ou consolider. Ce n'est pas un diagnostic, c'est une chirurgie.
Danny Sullivan l'a dit clairement : "Removing it might mean we're better able to crawl other content." Mais il parlait explicitement des "massive sites", des domaines avec des millions de pages. Et dans la même série de tweets, il a aussi écrit : "Are you deleting content because you believe Google doesn't like 'old' content? That's not a thing!" Google ne pénalise pas le contenu ancien. Il pénalise le contenu inutile.
John Mueller a ajouté une couche : "I would not use page views as the only way of recognizing low-quality content." Les pages vues seules ne suffisent pas à décider quoi supprimer. Un article B2B à trente sessions mensuelles qui convertit peut valoir plus qu'un article B2C à trois mille visites qui ne génère rien.
La méthode Screaming Frog qui marche#
Honnêtement, j'ai testé pas mal d'approches avant de tomber sur celle qui tient la route. Le scoring Screaming Frog combine trois dimensions : un score GSC (impressions et clics), un score analytics (sessions et conversions) et un score backlinks (domaines référents).
Seer Interactive a utilisé des seuils similaires sur quatorze mille URLs : moins de cinquante sessions, moins de cinquante impressions, moins de cinq domaines référents. En dessous de ces trois seuils, la page est candidate. Leur trafic organique baissait de 17,3 pourcent par an depuis cinq ans. Après le pruning : plus 23 pourcent en glissement annuel au premier trimestre 2023.
Cinq actions possibles pour chaque page auditée. Laisser en l'état si elle performe. Améliorer si le potentiel est là. Consolider avec un article connexe si le sujet se recoupe. Désindexer si la page n'a plus de valeur SEO mais reste utile en interne. Supprimer avec redirection 301 vers la page la plus proche thématiquement.
Un point sur lequel j'insiste : ne supprimez jamais une page qui a des backlinks. Jamais. Si elle a des liens entrants de qualité, vous rafraîchissez le contenu et vous redirigez le jus vers votre meilleur article sur le sujet. Supprimer une page avec des backlinks, c'est jeter de l'autorité à la poubelle.
Crawl budget : pour qui c'est vraiment critique#
Google est transparent là-dessus. Le crawl budget n'est un problème que pour les sites avec plus d'un million de pages uniques, des mises à jour fréquentes, ou beaucoup de pages marquées "Découvertes non indexées" dans la Search Console.
Si votre site fait trois cents pages, le crawl budget n'est pas votre problème. Votre problème, c'est la qualité du contenu. Le pruning peut quand même aider pour la topical authority, mais pas pour les raisons qu'on vous vend habituellement.
Kevin Indig et l'équipe de Graphite ont documenté que les pages à haute autorité thématique gagnent du trafic 57 pourcent plus vite que les autres. IBM et Progressive ont pruné massivement avec succès en se concentrant sur la cohérence thématique plutôt que sur le crawl budget. Quand vous supprimez les pages hors-sujet, vous renforcez le signal de pertinence globale du domaine.
Un site Botify dans le secteur automobile a vu son trafic doubler en trois mois après un pruning. Le crawl a été multiplié par dix-neuf. Avant le nettoyage, 99 pourcent de leurs pages étaient invisibles pour Google. Ça fait réfléchir sur ce qu'on laisse trainer dans nos index.
Le facteur qu'on sous-estime : les crawlers IA#
Cloudflare a mesuré une hausse de 18 pourcent du trafic de crawlers en un an. Googlebot a augmenté de 96 pourcent, GPTBot de 305 pourcent. Ces crawlers consomment votre bande passante et votre budget serveur sur des pages qui ne génèrent rien.
Si votre site a des milliers de pages mortes, vous nourrissez les modèles de langage avec votre contenu le plus faible. C'est un argument supplémentaire pour le pruning, au-delà du SEO pur. Structurer vos contenus en clusters thématiques avant de pruner permet d'identifier plus facilement les pages orphelines qui n'apportent rien au maillage.
Ce que je ferais demain matin#
Si je devais auditer un site de cinq cents pages, voici ma séquence. Exporter les données GSC sur douze mois. Croiser avec les analytics (sessions, taux de rebond, conversions). Ajouter le profil de backlinks via Ahrefs ou Majestic. Scorer chaque page sur les trois dimensions. Trier par score croissant. Prendre le quartile inférieur et appliquer les cinq actions : garder, améliorer, consolider, désindexer, supprimer.
Sur ce point, je n'ai pas encore trouvé le ratio idéal entre désindexation et suppression. La désindexation via noindex est réversible, la suppression ne l'est pas. Pour un premier audit, je pencherais vers le noindex sur tout ce qui est douteux, et la suppression uniquement sur les pages manifestement mortes. Mieux vaut être prudent que de devoir reconstruire des URLs.
Et surtout : documentez tout. Chaque URL supprimée, chaque redirection posée, chaque score d'avant et d'après. Sans documentation, vous ne saurez jamais si le pruning a fonctionné ou si c'est une coïncidence saisonnière.
La stratégie de contenu ne s'arrête pas à la publication. Entretenir, élaguer, consolider. C'est le cycle complet.
Sources#
- Google Developers : définition crawl budget, mise à jour 19 décembre 2025 (developers.google.com/search/docs/crawling-indexing/large-site-managing-crawl-budget)
- Danny Sullivan, @SearchLiaison : tweets sur la suppression de contenu ancien, août 2023 (searchengineland.com)
- John Mueller : "page views as the only way of recognizing low-quality content" (searchengineland.com)
- Seer Interactive : pruning 14 000 URLs, inversion de tendance -17,3% vers +23% YoY (seerinteractive.com)
- seo.ai : cas CNET, +29% visites juin-août 2023, causalité non établie (seo.ai/blog/content-pruning-case-study-cnet)
- Kevin Indig / Graphite : topical authority, pages haute autorité +57% trafic (graphite.io)
- Botify : cas secteur automobile, trafic doublé, crawl multiplié par 19 (botify.com)
- Auto Body Toolmart : +31% trafic YoY, +28% revenus, milliers de pages désindexées (searchengineland.com)
- Trainline : 130M pages supprimées, crawl pages valeur 64% vers 87%, 15 mois (botify.com)
- NerdWallet : pruning ~50% pages, +4M puis -6M après update algo (searchenginejournal.com)
- Cloudflare Radar : +18% trafic crawlers, Googlebot +96%, GPTBot +305% (radar.cloudflare.com)





