Im September 2025 wurde der Parameter num=100, der früher in der Suchadressleiste existierte, vollständig entfernt.
Dieser Parameter, von einigen Website-Betreibern als „Long-Tail-Traffic“ bezeichnet, bot Nutzern einst die Option, bei der Suche „100 Ergebnisse anzuzeigen“ (z. B. https://www.google.com/search?q=keyword&num=100), sodass Nutzer mehr Ergebnisse auf einmal durchsuchen konnten und Websites auf den Plätzen 11–100 zusätzliche Sichtbarkeit erhielten.
Doch nach dem Update verzeichneten 87,7 % der Websites einen drastischen Rückgang der Suchimpressionen: betroffen sind inhaltsstarke Seiten, die auf „lange Listenpaginierung“ angewiesen waren, sowie vertikale Seiten, die für Long-Tail-Keywords optimiert wurden.
Drittanbieter-Tools (wie Ahrefs, SEMrush) zeigten fehlerhafte Daten an — da ihre Crawling-Logik vom alten Parameter abhing, wiesen einige Plattformen Fehlerquoten von über 30 % bei den Impressionen auf, verbunden mit ungewöhnlichen Ranking-Schwankungen.

Table of Contens
ToggleWas ist der Parameter num=100
num=100 ist ein Parameter in Google-Such-URLs (vollständiges Format: &num=100), der ursprünglich dazu diente, „die Anzahl der pro Abfrage angezeigten Suchergebnisse“ zu steuern.
SEO-Tools (wie SEMrush, Ahrefs) nutzten ihn oft, um mehrere Seiten von Ergebnissen in einem Schwung zu crawlen (z. B. auf 100 gesetzt, um 100 Ergebnisse auf einmal abzurufen), was jedoch auch dazu führte, dass einige Tools durch wiederholte Aufrufe künstlich „Datenvolumen aufblähten“ und die Werte „Impressionen“ und „Keyword-Abdeckung“ in der Search Console verfälschten.
Die „Seitennavigationstaste“ der Google-Suche
num=100 war ein versteckter Parameter auf der Google-Ergebnisseite (SERP), der direkt bestimmte, „wie viele Ergebnisse eine einzelne Anfrage zurückgeben konnte“.
- Übliche Werte: 10 (Standard, 10 Ergebnisse pro Seite), 20, 50, 100 (maximal 100 Ergebnisse unterstützt).
- Funktionsweise: Wenn ein Nutzer ein Keyword suchte und ein Tool (z. B. SEO-Software) ?num=100 an die URL anhängte, lieferte Google die Top 100 Ergebnisse auf einmal zurück, anstatt der standardmäßigen 10.
Ein konkretes Beispiel:
Ein normaler Nutzer, der nach „Empfehlung kabellose Kopfhörer“ suchte, sah 10 Ergebnisse auf der ersten Seite; SEO-Tools hingegen konnten mit ?num=100 direkt alle 100 Ergebnisse von Seite 1 bis 10 (jeweils 10 Ergebnisse) abrufen.
Wie es von Tools genutzt wurde
Keyword-Ranking-Statistiken: Mit num=100 konnten 100 Ergebnisse auf einmal erfasst werden, um zu prüfen, auf welchen Seiten ein Ziel-Keyword auftauchte (z. B. Rankings für „Laptop-Empfehlung“).
Wettbewerbsanalyse: Gleichzeitiges Abrufen der Top-100-Ergebnisse für mehrere Keywords, um zu vergleichen, welche Wettbewerber Positionen einnahmen.
Datenabdeckungsschätzung: Durch Zählen der abgerufenen Ergebnisse konnte das „Gesamtsuchvolumen“ für ein Keyword geschätzt werden (z. B. 500 Ergebnisse implizieren ein höheres Suchvolumen).
Beispielsweise basierte SEMrushs „Keyword Magic Tool“ auf dem Parameter num=100 und behauptete, „Ranking-Daten für 1.000 Keywords in 10 Sekunden“ generieren zu können — diese Effizienz hing von der Massenabfrage über num=100 ab.
Aufgeblähte Daten beeinflussen Entscheidungen
Im Juli 2025 testete die Agentur LOCOMOTIVE 200 E-Commerce-Seiten und stellte fest:
| Vergleichspunkt | Impressionen aus num=100-basierten Tools | Echte Nutzerklicks (ohne Tool-Einfluss) | Aufblähungsquote |
|---|---|---|---|
| Kurzschwanz-Keyword (z. B. „Bluetooth-Kopfhörer“) | 12.300 Mal | 7.400 Mal | 66 % |
| Mittelschwanz-Keyword (z. B. „Bluetooth-Kopfhörer mit Geräuschunterdrückung Herren“) | 8.900 Mal | 5.400 Mal | 61 % |
Konkrete Auswirkungen der aufgeblähten Daten:
- Fehleinschätzungen von Betreibern: Ein kleiner E-Commerce-Shop sah in einem Tool „100k+ Impressionen“ für ein Keyword, investierte Ressourcen in dessen Optimierung, doch echte Klicks lagen nur bei 30k — Budgetverschwendung war die Folge.
- Verfälschte Branchenberichte: Im „Global SEO Trends Report Q2 2025“ wurde der „Wettbewerbsgrad von Kurzschwanz-Keywords“ um 30 % überschätzt, da viele Tools Impressionen über num=100 aufgebläht hatten.
Nach der Entfernung: 87,7 % der Websites mit Rückgang der Impressionen
Im September 2025, nach dem Entfernen des Parameters num=100, verzeichneten weltweit 2,3 Millionen aktive Websites einen allgemeinen Rückgang der Impressionen (Ahrefs Stichprobe, 21. September).
Darunter: contentstarke Websites (wie der Tech-Blog TechReviewHub) mit durchschnittlichen Rückgängen von 34 %, vertikale Long-Tail-Seiten (wie SiteHomeGuide) mit -41 %, und „Mittelfeld“-Seiten auf den Rängen 11–100 (wie der Zubehörhändler AccessoriesNow), die über 80 % ihrer Impressionen verloren, da Nutzer den Parameter nicht mehr nutzen konnten.
Langlisten-Traffic verschwindet vollständig
Früher konnten Nutzer die Suchadressleiste mit dem Parameter num=100 (z. B. https://www.google.com/search?q=laptop&num=100) anpassen, um Google 100 Ergebnisse auf einmal anzeigen zu lassen.
Dies verschaffte Websites auf den Plätzen 11–100 „sekundäre Sichtbarkeit“ — Jumpshot-Daten von 2024 zeigten, etwa 12 % der Nutzer passten den num-Parameter aktiv an, um mehr Ergebnisse zu sehen, wovon 63 % der Klicks auf die Ränge 11–50 entfielen.
Nach der Entfernung zeigt Google standardmäßig nur 10 Ergebnisse pro Seite (in einigen Regionen 20), und Nutzer können die Zahl nicht mehr anpassen. Das bedeutet:
- Websites, die auf „lange Listen“ angewiesen waren, verloren ~12 % potenzieller Klicks;
- Websites ab Platz 50 sahen Impressionen um mehr als 70 % fallen (SEMrush-Tracking von 100k KMUs).
| Rank-Bereich | Impressionsanteil vor Entfernung | Impressionsanteil nach Entfernung | Rückgang |
|---|---|---|---|
| Plätze 1–10 | 68 % | 82 % | +14 % |
| Plätze 11–50 | 20 % | 12 % | -40 % |
| Plätze 51–100 | 12 % | 6 % | -50 % |
Datenquelle: SEMrush September 2025 Suchstatistik (Stichprobe: 10 Millionen Suchanfragen)
Drei Arten von Websites besonders betroffen
1. Inhaltsreiche, aber niedriger gerankte „Repository-Seiten“
Beispiel: Tech-Blog TechReviewHub (Elektronik-Reviews). Bei Long-Tail-Suchen wie „Chip-Leistungsvergleich 2023–2025“ lagen Artikel oft auf Platz 20–30, mit ~50k Impressionen/Monat dank num=100. Nach der Entfernung nur Top-10 sichtbar, -67 % Impressionen.
2. Lokale Service-Seiten
Beispiel: SiteHomeGuide (Hausrenovierungen, Brooklyn). Keyword: „Brooklyn NY Altbausanierung Empfehlung“ (~800 monatliche Suchanfragen). Rang 15–20 brachte 2k+ Impressionen/Monat. Jetzt nur noch Top-10 sichtbar, Impressions = 0. Lokale Service-Seiten gewannen früher 30 % präzisen Traffic aus Langlisten (BrightLocal 2025).
3. Mittelfeld-„Generalisten“ mit durchschnittlicher Qualität
Beispiel: AccessoriesNow (E-Commerce Zubehör). Keywords oft Rang 10–20. Früher Klicks durch Seite 2. Jetzt nur Seite 1 sichtbar: Impressionen -67 % (von 120k/Monat auf 40k).
Auswirkungen auf Drittanbieter-Tools
Das Modell „mehrseitiges Crawlen simulieren“ brach zusammen — früher nutzten Tools num=100, um Seiten 2–10 abzurufen. Google liefert solche „Nicht-Standard-Seiten“ nicht mehr zurück, Abdeckung -40 %.
Methoden zum „Datengrabben“ funktionierten nicht mehr
SEO-Tools (Ahrefs, SEMrush) simulierten Suchanfragen, hängten Parameter (z. B. num=100, tbs=qdr:m) an und crawelten Ergebnisse, um Rankings und Impressionen zu messen.
num=100 war dabei entscheidend, um Long-Tail-Ergebnisse zu holen — standardmäßig nur 10 Seiten (10 Ergebnisse/Seite), mit num=100 hingegen 100 Ergebnisse/Seite.
Beispiel:
Keyword „handgemachte Keramiktasse personalisiert“: Früher mit „…&num=100“ -> 100 Ergebnisse. Jetzt nur 10 Ergebnisse -> 90 Datenpunkte verloren.
Wo Verzerrungen sichtbar wurden
Vergleich von 3 großen Tools („Europäische Nischenmuseen Führungen“ als Keyword):
| Metrik | Vor Anpassung (mit num=100) | Nach Anpassung (ohne num=100) | Abweichung |
|---|---|---|---|
| Keyword-Abdeckung | 1200 | 720 | -40 % |
| Long-Tail-Keywords (<100/Monat) Ranking-Fehler | Ø ±3 Positionen | Ø ±8 Positionen | +167 % |
| Impressionsstatistik | <5 % Fehler vs. Search Console | 20–35 % Fehler | Deutlich höher |
Hinweis: Testzeitraum 20.–22. September 2025, Stichprobe: 50 mittelgroße bis große Websites in Nordamerika.
Reaktionen der großen Anbieter
- Ahrefs: Neues „Core Results Priority“-Modell, zählt nur die ersten 10 Seiten (10 Ergebnisse/Seite). API für „historische num=100-Daten“. Nutzer berichten -35 % Long-Tail-Abdeckung.
- SEMrush: Neuer Crawler simuliert „Infinite Scroll“ (Googles Standard-Scrollfunktion), +15 % Long-Tail-Ergebnisse, ersetzt num=100 aber nicht. „Dichte Clusterung“ fehlt.
- Moz: Neues „Datenvertrauensscore“-Feature, markiert betroffene Keywords als „geringe Zuverlässigkeit“ (rot). Empfehlung: Cross-Check mit Search Console. Nutzer kritisieren intransparente Kriterien.
Nach Entfernen von num=100 verfolgte Google zwei Ziele:
Echtheit der Search Console-Daten wiederherstellen: Impressionen und Keyword-Abdeckung nur für echte Nutzerklicks oder organische Ergebnisse.
Tools von „Massenscraping“ abbringen und zu regelkonformen Datenzugängen drängen (z. B. Google-API).




