Der Grund, warum eine Seite nicht indexiert wird, könnte im Code-Aufbau oder in der Server-Konfiguration liegen.
Zum Beispiel kann es sein, dass Crawler deine dynamischen Inhalte nicht „verstehen“ können oder eine fehlerhafte Parametereinstellung dazu führt, dass die Seite als Duplikat eingestuft wird.
In diesem Artikel werden aus technischer Perspektive 6 oft übersehene, aber direkt die Indexierung beeinflussende Probleme zusammengefasst – inklusive praktischer Tipps zur Fehlerbehebung.

Table of Contens
ToggleLangsame Ladegeschwindigkeit verhindert Crawling durch Suchmaschinen
Beispielsweise geben Googlebot & Co. Seiten auf, wenn die Server-Antwortzeit länger als 3 Sekunden beträgt, oder sie indexieren nur unvollständige Inhalte.
Dieses Problem wird häufig übersehen, da Website-Betreiber meist nur auf das Frontend und die Nutzererfahrung achten (z.B. ob Animationen angezeigt werden), jedoch die „Geduldsschwelle“ der Crawler ignorieren.
Zu lange Server-Antwortzeiten
Fehlerdiagnose:
Prüfe die „Time to First Byte“ (TTFB) mit Google Search Console unter „Core Web Vitals“ oder Tools wie GTmetrix. Liegt der Wert über 1,5 Sekunden, ist Optimierung nötig.
Lösungen:
- Upgrade der Server-Hardware (z.B. CPU, RAM) oder Wechsel zu einem leistungsstärkeren Hosting-Anbieter (z.B. Cloudways, SiteGround).
- Optimierung von Datenbankabfragen: Komplexe JOINs vermeiden und Produktdaten-Tabellen indizieren.
- Aktivieren von Server-Caching (z.B. Redis, Memcached), um die Häufigkeit dynamischer Seitenaufrufe zu reduzieren.
Unoptimierte Ressourcen-Dateien
Typische Probleme:
- Produktbilder nicht komprimiert (z.B. PNG nicht in WebP umgewandelt, Auflösung über 2000px).
- Unkomprimierte CSS/JS-Dateien, die dutzende HTTP-Anfragen erzeugen.
Lösungsansätze:
- Bilder mit Tools wie Squoosh oder TinyPNG komprimieren und auf gängige Bildschirmgrößen (z.B. 1200px Breite) anpassen.
- CSS/JS-Dateien mit Webpack oder Gulp bündeln, um die Anzahl der Anfragen zu minimieren.
- Komprimierung per Gzip oder Brotli aktivieren, um Datenübertragungsvolumen zu reduzieren.
Render-blockierende Skripte
Aus Sicht des Crawlers:
Wenn beim Parsen der HTML-Seite ein synchron geladenes Skript (z.B. Google Analytics) auftritt, pausiert der Crawler, bis das Skript ausgeführt wurde.
Optimierung:
- Unnötige Skripte mit
asyncoderdeferladen (z.B.:). - Drittanbieter-Tools (z.B. Chat-Plugins, Heatmaps) erst nach dem Laden der Seite ausführen.
Prüf-Tools & Prioritätsempfehlungen
Selbst-Checkliste:
- PageSpeed Insights: Identifiziere Ressourcenprobleme (z.B. „JavaScript-Ausführungszeit verkürzen“).
- Screaming Frog: Prüfe TTFB auf vielen Produktseiten und filtere langsame URLs heraus.
- Lighthouse: Im Bereich „Opportunities“ Verbesserungsvorschläge (z.B. ungenutztes CSS entfernen) umsetzen.
Dringende Optimierung:
Priorisiere Seiten mit TTFB > 2 Sekunden, mehr als 50 HTTP-Anfragen oder Bildern > 500KB.
Referenzdaten:
Laut Google steigt die Wahrscheinlichkeit eines Crawl-Abbruchs um 32 %, wenn die Ladezeit von 1 auf 3 Sekunden steigt. Mit den genannten Maßnahmen können die meisten Produktseiten in unter 2 Sekunden geladen werden, was die Indexierungschancen deutlich erhöht.
Fehlerhafte Sperrung der Produktseiten im robots.txt
Ein typisches Beispiel: Wenn in der robots.txt versehentlich Disallow: /tmp/ als Disallow: /product/ eingetragen wird, werden Produktseiten komplett blockiert – selbst bei hochwertigem Content.
Schnelle Diagnose von robots.txt-Blockaden
Prüf-Tools:
- Google Search Console: Unter „Indexierung“ → „Seiten“ prüfen, ob Produktseiten als „blockiert“ angezeigt werden und Details zur robots.txt-Blockade einsehen.
- Online-Testtools: Nutze das robots.txt-Testtool, um URLs aus Sicht des Crawlers zu prüfen.
Typische Fehler:
- Falsche Schreibweise im Pfad (z.B.
/produc/statt/product/). - Übermäßiger Einsatz von Wildcards
*(z.B.Disallow: /*.jpg$blockiert alle Produktbilder).
Fehlerhafte robots.txt-Regeln korrigieren
Grundsätze für korrektes Schreiben:
- Präzise Pfadangabe: Vermeide zu breite Sperrungen, z. B. für temporäre Verzeichnisse besser
Disallow: /old-product/anstelle vonDisallow: /product/verwenden. - Unterscheidung nach Crawler-Typ: Wenn nur Spam-Bots blockiert werden sollen, muss der User-agent gezielt angegeben werden (z. B.:
User-agent: MJ12bot).
Umgang mit URL-Parametern:
- Erlaube notwendige Parameter (z. B. Seiten-Pagination
?page=2), blockiere gezielt nur bestimmte Parameter, z. B.Disallow: *?sort=. - Nutze das Symbol
$, um das Ende von Parametern zu definieren (z. B.:Disallow: /*?print=true$).
Notfall-Wiederherstellung & Prüfprozess
Beispielhafte Vorgehensweise:
- Bearbeite die robots.txt-Datei und kommentiere oder entferne fehlerhafte Zeilen (z. B.:
# Disallow: /product/). - Reiche die robots.txt-Änderung über die Google Search Console ein.
- Nutze das Tool „URL-Prüfung“ zur manuellen Überprüfung der Crawlbarkeit der Produktseiten.
- Prüfe nach 24 Stunden erneut den Indexierungsstatus. Falls keine Besserung, Sitemap der Produktseiten aktiv einreichen.
Schutzmaßnahmen:
- Verwende ein Versionskontrollsystem (z. B. Git), um Änderungen an der robots.txt zu dokumentieren und rückgängig machen zu können.
- Ändere Regeln zuerst in einer Testumgebung, um Fehler im Live-System zu vermeiden.
Praxisbeispiel
Fehlerhafte Konfiguration:
User-agent: *
Disallow: /
Allow: /product/
Problem: Durch Disallow: / wird die gesamte Website blockiert, die nachfolgende Allow-Regel greift nicht.
Korrekte Anpassung:
User-agent: *
Disallow: /admin/
Disallow: /tmp/
Allow: /product/
Logik: Nur Admin- und temporäre Verzeichnisse werden gesperrt, der Produktbereich bleibt zugänglich.
Produktseiten ohne interne Verlinkung
Wenn eine Produktseite intern nicht verlinkt ist (z. B. in Navigation, Empfehlungen oder als Ankertext im Content), wirkt sie wie eine „einsame Insel“ und wird trotz guter Inhalte nur schwer von Suchmaschinen gefunden.
Dies betrifft häufig neue Produkte, spezielle Kampagnenseiten oder Seiten, die aus externen Tools massenhaft importiert wurden — diese sind oft nicht in die Seitenstruktur eingebunden.
Fehlende oder schlecht gestaltete Navigationsstruktur
Typische Probleme:
- Produktseiten sind nicht in die Hauptnavigation oder Kategoriestruktur eingebunden (nur über Suchergebnisse erreichbar).
- Auf Mobilgeräten verstecken sich wichtige Produkt-Links in tiefen Untermenüs (z. B. in Hamburger-Menüs).
Lösungsansätze:
Selbstcheck-Tool: Mit Screaming Frog die gesamte Website crawlen und Produktseiten mit „Anzahl interner Links ≤ 1“ identifizieren.
Optimierungsschritte:
- Füge im Hauptmenü Kategorien wie „Top-Neuheiten“ oder „Empfohlene Produkte“ hinzu, die direkt auf Produktübersichtsseiten verlinken.
- Stelle sicher, dass jede Produktseite mindestens einer Kategorie zugeordnet ist (z. B.:
/category/shoes/product-A).
Unzureichende Nutzung von Empfehlungsmodulen
Aus Sicht von Suchmaschinen-Bots: Dynamische „Das könnte Ihnen gefallen“-Module, die via JavaScript geladen werden, sind für Crawler oft nicht sichtbar.





