Tous les mots-clés à utiliser par ordre d’importance pour donner le smile à ta courbe de trafic.

Disparition du ?num=100 : quels impact ?

tuthoriels

TLDR:

Google a supprimé le paramètre &num=100 le 10 septembre 2025

Résultat : baisse brutale des impressions en GSC (–29 % à court terme, –21 % sur 7 jours)

La médiane montre une perte typique de ~15 %, mais les gros sites concentrent les chutes massives.

La position moyenne semble “meilleure” mais reste un indicateur trompeur.

Les rank trackers doivent adapter leurs méthodes → plus de requêtes, coûts accrus, suivi souvent réduit au top 30–70.

Depuis le 10 septembre 2025, Google a officiellement désactivé le paramètre &num=100, qui permettait d’afficher 100 résultats par page au lieu des 10 par défaut. Très utilisé par les SEO et les outils de suivi de positions, ce paramètre offrait une vision plus large des SERP et permettait d’optimiser le suivi jusqu’au top 100.

Capture decran 2025 09 20 a 07.55.16 1

Google a confirmé cette suppression par une réponse laconique :

« L’utilisation de ce paramètre d’URL n’est pas quelque chose que nous supportons officiellement. »

Le sujet avait l’air de vous intéressé alors je me suis fendu d’une petite étude quantitative.

Capture decran 2025 09 19 a 19.40.04 1

Impacts observés sur les GSC

  1. Chute des impressions dans la GSC
    De nombreux sites constatent des baisses importantes. Cela s’explique par la disparition des impressions artificielles générées par les rank trackers qui interrogeaient Google avec &num=100 ainsi que des bots LLM ou autres systèmes qui récupéraient la SERP.
  2. Amélioration de la position moyenne
    Les résultats très bas (au-delà de la 10e page) ne sont plus pris en compte. Résultat : la position moyenne, surtout sur desktop, apparaît meilleure qu’avant, parfois de façon artificielle.

J’ai souhaité en savoir plus et notamment l’impact concret des bots sur nos impressions. C’est une occasion assez unique car pour la première fois nous disposons d’un interval de temps connu où les scrappers ont vraisemblablement été très limité.

D’ailleurs concernant les changements pour les outils SEO :

Les rank trackers doivent multiplier les requêtes (jusqu’à 10 pour obtenir un top 100), ce qui alourdit coûts et infrastructures. Beaucoup réduisent désormais le suivi au top 20, 30 ou 70, jugé suffisant pour la majorité des clients.

Méthodologie de l’étude

Je me suis basé sur 1334 GSC validées, c’est à dire :

  • de vrais sites qui génèrent des clics
  • avec des impressions importantes dans les jours précédents

Au total ce sont plusieurs centaines de milliers d’URLs qui ont été analysées.

J’ai ensuite observé l’évolution des impressions sur 2 périodes différentes :

  • 7 jours avant et 7 jours après le 10 septembre
  • 3 jours avant et 3 jours après le 10 septembre

Concernant le choix des périodes, les outils se sont très vite adaptés et la hausse des impressions en début de semaine suivant est probablement lié à une adaptation des bots.

Aller au delà de 7 jours me semble peu pertinent, et en dessous de 3 jours la masse de data disponible me semble assez peu fiables.

J’ai également supprimé les cas hors normes, c’est à dire les 3% les plus extrêmes en positif et négatif :

Exemples : des sites qui avaient fait +24500% d’impressions suite à du RP et des sites qui ont perdu 98% pour des raisons externes (migrations, erreur 500…)

Les résultats

3 jours après la secousse : -29% d’impressions

Pour la période de 3 jours avant-après, les impressions cumulées des sites analysés ont baissé de 29%.

Les sites ont en moyenne perdus –12,68 % et –11,98 % en médiane.

Hein ? -29% mais -12% en médiane ?

Très bonne observation !

Les gros sites, qui concentrent le plus d’impressions, ont subi les baisses les plus fortes. Pondérés, ils tirent le total global vers le bas, alors que la médiane reflète la perte “typique” d’un site moyen.

👉 La médiane étant proche de –12 %, on peut dire que la majorité des sites ont perdu environ 10–15 % d’impressions.

J’ai également sortie une décomposition par déciles :

Capture decran 2025 09 19 a 19.38.35 1
DécileVariation %
D1 (10 %)–82,86 %
D2 (20 %)–35,71 %
D3 (30 %)–22,24 %
D4 (40 %)–16,33 %
D5 (50 % – médiane)–11,98 %
D6 (60 %)–7,20 %
D7 (70 %)–2,35 %
D8 (80 %)+7,14 %
D9 (90 %)+28,10 %

En observant les déciles sur cette période on peut voir que 80 % des sites ont subi une baisse (négative jusqu’à –35 %), mais 20 % ont vu leurs impressions monter, peut-être liés à des biais de mesure ou des cas particuliers.

7 jours après le changement

Sur une période plus longue (7 jours avant vs 7 jours après le 10 septembre 2025), les résultats montrent un impact global et durable de la disparition de &num=100.

La chute est moins brutale que dans l’analyse très courte (–29 % sur 2 jours), mais se stabilise autour de –21 % sur la semaine.

Au niveau des sites on a sur 7 jours une médiane à –17,1 % (donc la moitié des sites perdent ~17 % d’impressions). En observant les quartiles on voit que :

  • 25 % des sites perdent plus de –31 %
  • 75 % sont au-dessus de –6 %

On retrouve une tendance centrale claire : perte modérée de 15–20 % pour la majorité des sites, avec quelques cas extrêmes.

Capture decran 2025 09 19 a 19.38.27 1
DécileVariation %
D1–74,04 %
D2–37,03 %
D3–26,82 %
D4–20,68 %
D5–17,10 %
D6–13,45 %
D7–9,18 %
D8–2,07 %
D9+12,43 %

Quel impact pour les indicateurs GSC ?

Ce changement pourrait être une bonne nouvelle, mais c’est à modérer.

Certains avancent qu’on a désormais une position moyenne “nettoyée” et des impressions plus proches du volume de recherche. Les bots générant moins d’impressions « vides », la donnée de position deviendrait plus stable et crédible.

La position moyenne était déjà un TRES mauvais indicateur de manière générale et il ne faut pas que ce changement pousse certain à la considérer comme un outil fiable.

En plus il est fort probable que les outils s’adaptent simplement et scrappent le top30-40-50 page par page, générant de nouveau des impressions non-utilisateur.

Certaines connaissances ont d’ailleurs le moyen de le faire en illimité donc cela n’augmentera pas les coût de l’outil (si tu lis ces lignes… 😉)

Ce qu’il faut en retenir c’est que les données GSC sont toujours à remettre dans leur contexte : les SERPs ne sont pas que visitées par les utilisateurs et Google ne filtre pas les données remontées.

Les positions moyennes, impressions et CTR doivent se lire comme des indicateurs de tendance, avec un maximum de filtres (au moins par pays).

Pour compléter votre analyse je vous recommande les posts de Brodie Clark qui s’est très bien emparé du sujet !

Capture decran 2025 09 19 a 19.40.40 1

Si vous avez trouvé cette étude intéressante, chaque partage et très très très apprécié.

Tout cela prend du temps et c’est grâce à vos supers retours que c’est possible ❤️

Paul Grillet

Je vous informe de la prochaine étude de cas ? 💌

Continuez à progresser et à vous inspirer pour votre propre stratégie SEO. 

Étude de cas, conseils, guide… Je vous tiens informés de mes meilleurs contenus.

Garantie 0 spam. Vous pouvez vous désinscrire à tout moment. 

Cela n'a pas fonctionné, pouvez-vous réessayer ?
Vous êtes bien enregistrés ! A très bientôt 😉