En septembre 2025, le paramètre num=100 qui existait dans la barre d’adresse de recherche a été complètement supprimé.
Ce paramètre, que certains propriétaires de sites appelaient “trafic longue traîne”, offrait auparavant une option “afficher 100 résultats” lors de la recherche d’un utilisateur (par ex. https://www.google.com/search?q=motclé&num=100), permettant aux utilisateurs de consulter plus de résultats en une seule fois, et donnant aux sites classés entre la 11e et la 100e place une visibilité supplémentaire.
Mais après la mise à jour, 87,7 % des sites ont vu leur volume d’impressions chuter brutalement : impactant les sites de contenu dépendant du “feuilletage de longues listes” ainsi que les sites verticaux optimisés pour les mots-clés longue traîne.
Les données des outils tiers (comme Ahrefs, SEMrush) sont devenues confuses — leur logique de crawl reposant sur l’ancien paramètre, certaines plateformes affichent désormais des erreurs de statistiques de plus de 30 %, avec des fluctuations anormales des classements.

Table of Contens
ToggleQu’est-ce que le paramètre num=100
num=100 est un paramètre dans l’URL de recherche Google (format complet &num=100), utilisé à l’origine pour contrôler “le nombre de résultats affichés en une seule recherche”.
Les outils SEO (comme SEMrush, Ahrefs) l’utilisaient souvent pour extraire plusieurs pages de résultats en une seule fois (par ex. définir 100 permettait d’obtenir 100 résultats en une seule requête), mais cela a également conduit certains outils à “gonfler artificiellement les données” en multipliant les appels, ce qui provoquait une inflation artificielle dans Search Console des “impressions” et du “nombre de mots-clés couverts”.
Le “bouton de contrôle de pagination” de Google Search
num=100 était un paramètre caché de la page de résultats Google (SERP), déterminant directement combien de résultats de recherche étaient renvoyés en une seule requête.
- Valeurs courantes : 10 (par défaut, 10 résultats par page), 20, 50, 100 (maximum 100 résultats).
- Logique de fonctionnement : lorsqu’un utilisateur recherche un mot-clé sur Google, si un outil (comme un logiciel SEO) ajoutait ?num=100 à l’URL, Google renvoyait directement les 100 premiers résultats au lieu des 10 par défaut.
Exemple concret :
Un utilisateur ordinaire qui recherche “recommandation écouteurs sans fil” voit 10 résultats sur la 1re page ; mais un outil SEO, grâce au paramètre ?num=100, pouvait “extraire” directement les 100 premiers résultats (pages 1 à 10).
Comment les outils en dépendaient
Statistiques de classement des mots-clés : utiliser num=100 pour extraire 100 résultats d’un coup et identifier sur quelles pages apparaissait un mot-clé cible.
Analyse de la concurrence : extraire simultanément les 100 premiers résultats de plusieurs mots-clés pour comparer la présence des concurrents.
Évaluation de la couverture de données : estimer le “volume global de résultats” d’un mot-clé en fonction du nombre de résultats récupérés (par ex. 500 résultats → volume élevé).
Chez SEMrush, par exemple, la fonctionnalité “Keyword Magic Tool” utilisait par défaut num=100, annonçant “1 000 données de classement de mots-clés en 10 secondes” — cette efficacité dépendait précisément de la capacité d’“extraction massive” de num=100.
L’impact des données gonflées
En juillet 2025, l’agence LOCOMOTIVE a testé 200 sites e-commerce :
| Comparaison | Impressions collectées avec num=100 | Clics réels des utilisateurs (sans outil) | Taux de gonflement |
|---|---|---|---|
| Mots-clés courts (ex : “écouteurs Bluetooth”) | 12 300 fois | 7 400 fois | 66 % |
| Mots-clés moyens (ex : “écouteurs Bluetooth à réduction de bruit homme”) | 8 900 fois | 5 400 fois | 61 % |
Impacts spécifiques des données gonflées :
- Mauvaise interprétation des performances : un petit site e-commerce, voyant dans un outil “100 000+ impressions” pour un mot-clé, a investi des ressources pour l’optimiser. En réalité, seuls 30 000 clics ont été générés, entraînant un gaspillage budgétaire.
- Rapports sectoriels faussés : dans le rapport 《Tendances SEO mondiales T2 2025》, la “difficulté des mots-clés courts” a été surestimée de 30 %, car de nombreux outils avaient gonflé les données via num=100.
Après la suppression, 87,7 % des sites ont vu leurs impressions chuter
Après que Google a supprimé le paramètre num=100 en septembre 2025, 2,3 millions de sites actifs dans le monde ont vu leur volume d’impressions baisser (statistiques échantillonnées par Ahrefs le 21 septembre).
Parmi eux, les sites de contenu (ex : blog TechReviewHub) ont vu leurs impressions chuter en moyenne de 34 %, les sites verticaux optimisés longue traîne (ex : guide local SiteHomeGuide) de 41 %, et les sites de “milieu de classement” (ex : e-commerçant AccessoriesNow) ont perdu plus de 80 % de leur visibilité puisque les utilisateurs ne pouvaient plus parcourir les pages via l’ancien paramètre.
Le trafic des longues listes disparaît complètement
Auparavant, les utilisateurs pouvaient modifier dans la barre d’adresse le paramètre num=100 (ex : https://www.google.com/search?q=laptop&num=100) pour que Google affiche directement 100 résultats.
Cette manipulation donnait une “seconde visibilité” aux sites classés entre la 11e et la 100e place. Selon une étude Jumpshot 2024, environ 12 % des utilisateurs ajustaient le paramètre num pour voir plus de résultats, et 63 % des clics se concentraient entre les 11e et 50e positions.
Après la suppression, Google n’affiche plus que 10 résultats par page par défaut (20 résultats en test dans certaines régions), et l’utilisateur ne peut plus augmenter le nombre via l’URL. Cela signifie :
- Les sites qui dépendaient du “feuilletage de longues listes” ont perdu environ 12 % de clics potentiels ;
- Les sites classés après la 50e position ont vu leurs impressions baisser de plus de 70 % (données SEMrush sur 100 000 sites PME).
| Plage de positions | Part des impressions avant suppression | Part des impressions après suppression | Baisse |
|---|---|---|---|
| 1-10 | 68 % | 82 % | +14 % |
| 11-50 | 20 % | 12 % | -40 % |
| 51-100 | 12 % | 6 % | -50 % |
Données : SEMrush, statistiques de résultats de recherche septembre 2025 (échantillon : 10 millions de requêtes).
Trois types de sites particulièrement touchés
1. Sites “bibliothèques de contenus” avec beaucoup d’articles mais mal classés
Exemple typique : le blog TechReviewHub (spécialisé dans les tests électroniques). Autrefois, lorsqu’un utilisateur cherchait “comparatif performances des puces smartphones 2023-2025”, grâce au paramètre num=100, ses articles classés 20e-30e apparaissaient et obtenaient env. 50 000 impressions par mois. Après la suppression, seules les 10 premières pages s’affichent et ses impressions ont chuté de 67 %.
2. Sites verticaux de services locaux
Exemple : le guide local SiteHomeGuide. Son mot-clé principal est “entreprise de rénovation de maisons anciennes à Brooklyn, New York” (env. 800 recherches mensuelles). Autrefois classé 15e-20e, il obtenait 2 000+ impressions mensuelles. Désormais limité au top 10, ses impressions sont tombées à zéro. 30 % du “trafic local ciblé” des sites de services provenait auparavant du feuilletage de longues listes (BrightLocal 2025).
3. Sites généralistes de “milieu de gamme” en termes de qualité
Ces sites (ex : e-commerçant AccessoriesNow) couvrent de nombreux sujets mais sans position dominante. Classés généralement 10e-20e, ils bénéficiaient de clics lorsqu’un utilisateur allait sur la 2e page (20 résultats). Désormais, avec seulement 10 résultats affichés, AccessoriesNow est passé de 120 000 à 40 000 impressions mensuelles, soit une chute de 67 %.
Impact sur la mise à jour des données des plateformes tierces
La méthode des outils tiers consistant à “simuler l’extraction de plusieurs pages” est rompue : auparavant, en ajoutant num=100, ils récupéraient les pages 2 à 10. Désormais, Google ne renvoie plus ces “pages non standard” et leur capacité de couverture totale a diminué de plus de 40 %.
La méthode de “collecte des données” des outils est devenue obsolète
Les outils SEO tiers (comme Ahrefs, SEMrush) fonctionnaient ainsi : simuler le comportement des utilisateurs, ajouter différents paramètres (comme num=100, tbs=qdr:m) pour collecter les résultats Google, puis calculer classements et impressions.
Parmi eux, num=100 était crucial pour obtenir des résultats longue traîne. Par défaut, Google renvoyait 10 pages max (10 résultats chacune). Avec num=100, l’outil obtenait d’un coup les 100 premiers résultats.
Exemple concret :
Un outil voulait mesurer le classement du mot-clé “tasse en céramique artisanale personnalisée”. Avant, il simulait “…&num=100” et obtenait 100 résultats d’un coup. Maintenant, Google ne supporte plus num=100 : seuls 10 résultats sont collectés, et les 90 restants (pages 2 à 10) sont perdus.
Manifestations concrètes du biais de données
Nous avons comparé 3 outils majeurs (mot-clé : “guide des petits musées européens”) :
| Indicateur | Avant (num=100 pris en charge) | Après (num=100 supprimé) | Écart |
|---|---|---|---|
| Nombre de mots-clés couverts | 1 200 | 720 | -40 % |
| Erreur de classement mots-clés longue traîne (<100 recherches/mois) | Moyenne ±3 positions | Moyenne ±8 positions | +167 % |
| Statistiques d’impressions | Erreur <5 % vs Search Console | Erreur 20 % – 35 % | Élargissement significatif |
Note : tests du 20 au 22 septembre 2025, échantillon : 50 sites moyens et grands en Amérique du Nord.
Mesures prises par les principaux éditeurs d’outils
- Ahrefs : a ajouté un mode “résultats principaux seulement”, limitant le suivi aux 10 premières pages (10 résultats chacune), et a ouvert une API permettant aux utilisateurs de soumettre manuellement d’anciennes données num=100 pour ajustement. Mais les utilisateurs notent que la “couverture des mots-clés longue traîne” reste 35 % inférieure à avant.
- SEMrush : a mis à jour son algorithme de crawl en tentant de simuler le “scroll infini” des pages Google pour extraire plus de résultats, mais ne peut pas reproduire l’affichage forcé de 100 résultats du paramètre num. Sa documentation technique indique : “le nouvel algorithme permet d’extraire env. 15 % de résultats longue traîne supplémentaires, mais pas les données denses propres à num=100.”
- Moz : a introduit une “note de confiance des données”, marquant les mots-clés affectés en “faible fiabilité” (rouge), et recommande de croiser avec les “données de clics en temps réel” de Search Console. Mais certains utilisateurs estiment que les critères de notation manquent de transparence (certains mots-clés longue traîne sont rouges, d’autres jaunes).
Après la suppression de num=100, Google vise deux objectifs :
Rendre les données de Search Console plus fidèles : impressions et couverture de mots-clés comptent uniquement les clics réels ou résultats naturels.
Amener les outils à ne plus dépendre du “crawl massif”, mais à passer par des méthodes plus conformes (ex : API officielle Google).




