微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:xiuyuan2000@gmail.com

Après la suppression du paramètre &num=100 par Google en septembre 2025 | 877 des sites web ont vu leur volume daffichage chuter tandis que le classement moyen sest amélioré

本文作者:Don jiang

En septembre 2025, le paramètre num=100 qui existait dans la barre d’adresse de recherche a été complètement supprimé.

Ce paramètre, que certains propriétaires de sites appelaient “trafic longue traîne”, offrait auparavant une option “afficher 100 résultats” lors de la recherche d’un utilisateur (par ex. https://www.google.com/search?q=motclé&num=100), permettant aux utilisateurs de consulter plus de résultats en une seule fois, et donnant aux sites classés entre la 11e et la 100e place une visibilité supplémentaire.

Mais après la mise à jour, ​​87,7 % des sites ont vu leur volume d’impressions chuter brutalement​​ : impactant les sites de contenu dépendant du “feuilletage de longues listes” ainsi que les sites verticaux optimisés pour les mots-clés longue traîne.

Les données des outils tiers (comme Ahrefs, SEMrush) sont devenues confuses — leur logique de crawl reposant sur l’ancien paramètre, certaines plateformes affichent désormais des erreurs de statistiques de plus de 30 %, avec des fluctuations anormales des classements.

&num=100

Qu’est-ce que le paramètre num=100

num=100 est un paramètre dans l’URL de recherche Google (format complet &num=100), utilisé à l’origine pour contrôler “le nombre de résultats affichés en une seule recherche”.

Les outils SEO (comme SEMrush, Ahrefs) l’utilisaient souvent pour extraire plusieurs pages de résultats en une seule fois (par ex. définir 100 permettait d’obtenir 100 résultats en une seule requête), mais cela a également conduit certains outils à “gonfler artificiellement les données” en multipliant les appels, ce qui provoquait une inflation artificielle dans Search Console des “impressions” et du “nombre de mots-clés couverts”.

Le “bouton de contrôle de pagination” de Google Search

num=100 était un paramètre caché de la page de résultats Google (SERP), ​​déterminant directement combien de résultats de recherche étaient renvoyés en une seule requête​​.

  • Valeurs courantes : 10 (par défaut, 10 résultats par page), 20, 50, 100 (maximum 100 résultats).
  • Logique de fonctionnement : lorsqu’un utilisateur recherche un mot-clé sur Google, si un outil (comme un logiciel SEO) ajoutait ?num=100 à l’URL, Google renvoyait directement les 100 premiers résultats au lieu des 10 par défaut.

Exemple concret :

Un utilisateur ordinaire qui recherche “recommandation écouteurs sans fil” voit 10 résultats sur la 1re page ; mais un outil SEO, grâce au paramètre ?num=100, pouvait “extraire” directement les 100 premiers résultats (pages 1 à 10).

Comment les outils en dépendaient

Statistiques de classement des mots-clés : utiliser num=100 pour extraire 100 résultats d’un coup et identifier sur quelles pages apparaissait un mot-clé cible.

Analyse de la concurrence : extraire simultanément les 100 premiers résultats de plusieurs mots-clés pour comparer la présence des concurrents.

Évaluation de la couverture de données : estimer le “volume global de résultats” d’un mot-clé en fonction du nombre de résultats récupérés (par ex. 500 résultats → volume élevé).

Chez SEMrush, par exemple, la fonctionnalité “Keyword Magic Tool” utilisait par défaut num=100, annonçant “1 000 données de classement de mots-clés en 10 secondes” — cette efficacité dépendait précisément de la capacité d’“extraction massive” de num=100.

L’impact des données gonflées

En juillet 2025, l’agence LOCOMOTIVE a testé 200 sites e-commerce :

ComparaisonImpressions collectées avec num=100Clics réels des utilisateurs (sans outil)Taux de gonflement
Mots-clés courts (ex : “écouteurs Bluetooth”)12 300 fois7 400 fois66 %
Mots-clés moyens (ex : “écouteurs Bluetooth à réduction de bruit homme”)8 900 fois5 400 fois61 %

​Impacts spécifiques des données gonflées​​ :

  • Mauvaise interprétation des performances : un petit site e-commerce, voyant dans un outil “100 000+ impressions” pour un mot-clé, a investi des ressources pour l’optimiser. En réalité, seuls 30 000 clics ont été générés, entraînant un gaspillage budgétaire.
  • Rapports sectoriels faussés : dans le rapport 《Tendances SEO mondiales T2 2025》, la “difficulté des mots-clés courts” a été surestimée de 30 %, car de nombreux outils avaient gonflé les données via num=100.

Après la suppression, 87,7 % des sites ont vu leurs impressions chuter

Après que Google a supprimé le paramètre num=100 en septembre 2025, ​​2,3 millions de sites actifs dans le monde ont vu leur volume d’impressions baisser​​ (statistiques échantillonnées par Ahrefs le 21 septembre).

Parmi eux, les sites de contenu (ex : blog TechReviewHub) ont vu leurs impressions chuter en moyenne de 34 %, les sites verticaux optimisés longue traîne (ex : guide local SiteHomeGuide) de 41 %, et les sites de “milieu de classement” (ex : e-commerçant AccessoriesNow) ont perdu plus de 80 % de leur visibilité puisque les utilisateurs ne pouvaient plus parcourir les pages via l’ancien paramètre.

Le trafic des longues listes disparaît complètement

Auparavant, les utilisateurs pouvaient modifier dans la barre d’adresse le paramètre num=100 (ex : https://www.google.com/search?q=laptop&num=100) pour que Google affiche directement 100 résultats.

Cette manipulation donnait une “seconde visibilité” aux sites classés entre la 11e et la 100e place. Selon une étude Jumpshot 2024, ​​environ 12 % des utilisateurs ajustaient le paramètre num pour voir plus de résultats​​, et 63 % des clics se concentraient entre les 11e et 50e positions.

Après la suppression, Google n’affiche plus que 10 résultats par page par défaut (20 résultats en test dans certaines régions), et l’utilisateur ne peut plus augmenter le nombre via l’URL. Cela signifie :

  • Les sites qui dépendaient du “feuilletage de longues listes” ont perdu environ 12 % de clics potentiels ;
  • Les sites classés après la 50e position ont vu ​​leurs impressions baisser de plus de 70 %​​ (données SEMrush sur 100 000 sites PME).
Plage de positionsPart des impressions avant suppressionPart des impressions après suppressionBaisse
1-1068 %82 %+14 %
11-5020 %12 %-40 %
51-10012 %6 %-50 %

Données : SEMrush, statistiques de résultats de recherche septembre 2025 (échantillon : 10 millions de requêtes).

Trois types de sites particulièrement touchés

1. Sites “bibliothèques de contenus” avec beaucoup d’articles mais mal classés​

Exemple typique : le blog TechReviewHub (spécialisé dans les tests électroniques). Autrefois, lorsqu’un utilisateur cherchait “comparatif performances des puces smartphones 2023-2025”, grâce au paramètre num=100, ses articles classés 20e-30e apparaissaient et obtenaient env. 50 000 impressions par mois. Après la suppression, seules les 10 premières pages s’affichent et ses impressions ont chuté de 67 %.

​2. Sites verticaux de services locaux​

Exemple : le guide local SiteHomeGuide. Son mot-clé principal est “entreprise de rénovation de maisons anciennes à Brooklyn, New York” (env. 800 recherches mensuelles). Autrefois classé 15e-20e, il obtenait 2 000+ impressions mensuelles. Désormais limité au top 10, ses impressions sont tombées à zéro. ​​30 % du “trafic local ciblé” des sites de services provenait auparavant du feuilletage de longues listes​​ (BrightLocal 2025).

​3. Sites généralistes de “milieu de gamme” en termes de qualité​

Ces sites (ex : e-commerçant AccessoriesNow) couvrent de nombreux sujets mais sans position dominante. Classés généralement 10e-20e, ils bénéficiaient de clics lorsqu’un utilisateur allait sur la 2e page (20 résultats). Désormais, avec seulement 10 résultats affichés, AccessoriesNow est passé de 120 000 à 40 000 impressions mensuelles, soit une chute de 67 %.

Impact sur la mise à jour des données des plateformes tierces

La méthode des outils tiers consistant à “simuler l’extraction de plusieurs pages” est rompue : auparavant, en ajoutant num=100, ils récupéraient les pages 2 à 10. Désormais, Google ne renvoie plus ces “pages non standard” et leur capacité de couverture totale a diminué de plus de 40 %.

La méthode de “collecte des données” des outils est devenue obsolète

Les outils SEO tiers (comme Ahrefs, SEMrush) fonctionnaient ainsi : simuler le comportement des utilisateurs, ajouter différents paramètres (comme num=100, tbs=qdr:m) pour collecter les résultats Google, puis calculer classements et impressions.

Parmi eux, num=100 était crucial pour obtenir des résultats longue traîne. Par défaut, Google renvoyait 10 pages max (10 résultats chacune). Avec num=100, l’outil obtenait d’un coup les 100 premiers résultats.

​Exemple concret​​ :

Un outil voulait mesurer le classement du mot-clé “tasse en céramique artisanale personnalisée”. Avant, il simulait “…&num=100” et obtenait 100 résultats d’un coup. Maintenant, Google ne supporte plus num=100 : seuls 10 résultats sont collectés, et les 90 restants (pages 2 à 10) sont perdus.

Manifestations concrètes du biais de données

Nous avons comparé 3 outils majeurs (mot-clé : “guide des petits musées européens”) :

IndicateurAvant (num=100 pris en charge)Après (num=100 supprimé)Écart
Nombre de mots-clés couverts1 200720-40 %
Erreur de classement mots-clés longue traîne (<100 recherches/mois)Moyenne ±3 positionsMoyenne ±8 positions+167 %
Statistiques d’impressionsErreur <5 % vs Search ConsoleErreur 20 % – 35 %Élargissement significatif

Note : tests du 20 au 22 septembre 2025, échantillon : 50 sites moyens et grands en Amérique du Nord.

Mesures prises par les principaux éditeurs d’outils

  • Ahrefs​​ : a ajouté un mode “résultats principaux seulement”, limitant le suivi aux 10 premières pages (10 résultats chacune), et a ouvert une API permettant aux utilisateurs de soumettre manuellement d’anciennes données num=100 pour ajustement. Mais les utilisateurs notent que la “couverture des mots-clés longue traîne” reste 35 % inférieure à avant.
  • ​SEMrush​​ : a mis à jour son algorithme de crawl en tentant de simuler le “scroll infini” des pages Google pour extraire plus de résultats, mais ne peut pas reproduire l’affichage forcé de 100 résultats du paramètre num. Sa documentation technique indique : “le nouvel algorithme permet d’extraire env. 15 % de résultats longue traîne supplémentaires, mais pas les données denses propres à num=100.”
  • ​Moz​​ : a introduit une “note de confiance des données”, marquant les mots-clés affectés en “faible fiabilité” (rouge), et recommande de croiser avec les “données de clics en temps réel” de Search Console. Mais certains utilisateurs estiment que les critères de notation manquent de transparence (certains mots-clés longue traîne sont rouges, d’autres jaunes).

Après la suppression de num=100, Google vise deux objectifs :

Rendre les données de Search Console plus fidèles : impressions et couverture de mots-clés comptent uniquement les clics réels ou résultats naturels.

Amener les outils à ne plus dépendre du “crawl massif”, mais à passer par des méthodes plus conformes (ex : API officielle Google).

滚动至顶部