微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:xiuyuan2000@gmail.com

6 Motivi Tecnici Per Cui Le Pagine Prodotto Non Sono Indicizzate|Escludendo Contenuti Duplicati E Restrizioni Di Scansione

本文作者:Don jiang

Le ragioni per cui una pagina non viene indicizzata possono nascondersi nell’architettura del codice o nella configurazione del server.

Ad esempio, il crawler potrebbe non “comprendere” i tuoi contenuti dinamici, oppure un parametro errato potrebbe far sì che la pagina venga considerata un duplicato.

In questo articolo, abbiamo raccolto 6 problemi tecnici pratici ma spesso trascurati che influiscono direttamente sull’indicizzazione delle pagine.

6 motivi tecnici per cui le pagine di prodotto non vengono indicizzate

Table of Contens

La lentezza del caricamento della pagina impedisce la scansione del crawler

Ad esempio, se il tempo di risposta del server supera i 3 secondi, Googlebot potrebbe abbandonare la scansione o indicizzare solo una parte del contenuto.

Questo problema viene spesso ignorato perché molti webmaster si concentrano solo sull’esperienza utente (ad esempio, animazioni di caricamento), trascurando però il “limite di pazienza” dei crawler.

Tempo di risposta del server troppo elevato

Come diagnosticare: Utilizza Google Search Console (Core Web Vitals) o strumenti come GTmetrix per verificare il TTFB (Time to First Byte). Se supera 1,5 secondi, è necessario intervenire.

Come risolvere:

  1. Aggiorna la configurazione del server (CPU/RAM) o passa a un hosting ad alte prestazioni come Cloudways o SiteGround.
  2. Ottimizza le query del database: riduci le join complesse e aggiungi indici alle tabelle dei prodotti.
  3. Abilita il caching sul server (ad esempio Redis o Memcached) per ridurre la generazione dinamica delle pagine.

File di risorse non ottimizzati

Problemi comuni:

  • Immagini dei prodotti non compresse (ad esempio PNG non convertiti in WebP o con risoluzioni superiori a 2000px).
  • CSS/JS non combinati, generando decine di richieste HTTP.

Passaggi per la correzione:

  1. Comprimi le immagini con Squoosh o TinyPNG e ridimensionali per i dispositivi più comuni (ad esempio larghezza 1200px).
  2. Combina CSS/JS utilizzando strumenti come Webpack o Gulp per ridurre il numero di richieste HTTP.
  3. Abilita la compressione Gzip o Brotli per ridurre la dimensione dei file trasferiti.

Script che bloccano il rendering

Dal punto di vista dei crawler: Quando il crawler elabora l’HTML, se incontra script caricati in modo sincrono (ad esempio Google Analytics caricato in modo sincrono), il caricamento della pagina si interrompe fino al completamento dello script.

Soluzioni consigliate:

  • Aggiungi gli attributi async o defer agli script non essenziali (ad esempio ).
  • Rimanda il caricamento di strumenti di terze parti (come chat live o heatmap) fino al completamento del caricamento della pagina.

Strumenti di diagnosi e priorità di ottimizzazione

Checklist di autoverifica:

  1. PageSpeed Insights: Identifica problemi specifici nel caricamento delle risorse (ad esempio “Riduci il tempo di esecuzione di JavaScript”).
  2. Screaming Frog: Analizza in massa il TTFB delle pagine di prodotto e individua gli URL con caricamenti lenti.
  3. Lighthouse: Consulta la sezione “Opportunità” per suggerimenti di ottimizzazione (ad esempio rimozione di CSS inutilizzato).

Priorità di ottimizzazione: Intervieni prima sulle pagine con TTFB superiore a 2 secondi, con più di 50 richieste HTTP o con immagini superiori a 500KB.

Dato importante: Secondo Google, quando il tempo di caricamento della pagina aumenta da 1 a 3 secondi, la probabilità di fallimento della scansione aumenta del 32%. Dopo l’ottimizzazione, la maggior parte delle pagine di prodotto può caricarsi in meno di 2 secondi, migliorando significativamente il tasso di indicizzazione.

Blocco accidentale delle directory di prodotto nel file robots.txt

Ad esempio, se per errore scrivi Disallow: /tmp/ come Disallow: /product/, i crawler ignoreranno completamente le pagine di prodotto, anche se di alta qualità.

Come individuare rapidamente i blocchi nel file robots.txt

Strumenti di verifica:

  • Google Search Console: Vai su “Indicizzazione” > “Pagine” e, se le pagine di prodotto sono bloccate, clicca sui dettagli per esaminare il file robots.txt.
  • Strumenti online per il test di robots.txt: Usa lo strumento di test robots.txt per simulare l’accesso ai tuoi URL dal punto di vista dei crawler.

Errori comuni:

  1. Errore di battitura nei percorsi (ad esempio /produc/ invece di /product/).
  2. Uso eccessivo di caratteri jolly * (ad esempio Disallow: /*.jpg$ blocca tutte le immagini dei prodotti).

Come correggere le regole errate nel file robots.txt

Principi di scrittura corretta

  • Abbinamento preciso del percorso: Evitare blocchi imprecisi. Ad esempio, per bloccare una directory temporanea, usa Disallow: /old-product/ invece di Disallow: /product/.
  • Distinzione tra i tipi di crawler: Se desideri bloccare solo determinati bot indesiderati, specifica il User-agent (esempio: User-agent: MJ12bot).

Gestione dei parametri

  • Permetti i parametri necessari (ad esempio la paginazione ?page=2), bloccando solo quelli specifici, come Disallow: *?sort=.
  • Utilizza il simbolo $ per indicare la fine del parametro (esempio: Disallow: /*?print=true$).

Procedura di ripristino e verifica d’emergenza

Esempio di procedura

  1. Modifica il file robots.txt commentando o rimuovendo le righe errate (esempio: # Disallow: /product/).
  2. Invia una richiesta di aggiornamento del file robots.txt tramite Google Search Console.
  3. Utilizza lo strumento “Controllo URL” per verificare manualmente lo stato di scansione delle pagine prodotto.
  4. Ricontrolla lo stato di indicizzazione dopo 24 ore. Se non è ancora risolto, invia manualmente la sitemap delle pagine prodotto.

Misure di protezione

  • Usa strumenti di controllo versione (come Git) per gestire la cronologia delle modifiche di robots.txt e facilitare eventuali rollback.
  • Testa le modifiche in un ambiente di staging prima di applicarle al sito live.

Analisi di un caso reale

Configurazione errata

User-agent: *

Disallow: /

Allow: /product/

Problema: La regola Disallow: / blocca l’intero sito, rendendo inefficace la successiva regola Allow.

Correzione corretta

User-agent: *

Disallow: /admin/

Disallow: /tmp/

Allow: /product/

Logica: Si bloccano solo le directory amministrative e temporanee, consentendo l’accesso alle pagine prodotto.

Pagine prodotto senza collegamenti interni efficaci

Se una pagina prodotto non ha collegamenti interni (come nel menu di navigazione, nei prodotti consigliati o nei link testuali), diventa una “pagina orfana”, difficile da indicizzare anche se il contenuto è valido.

Questo problema è comune per nuovi prodotti, pagine promozionali dedicate o pagine importate in massa tramite strumenti esterni che non sono state integrate nella struttura di navigazione del sito.

Assenza di struttura di navigazione o design inadeguato

Problemi comuni

  • Le pagine prodotto non sono incluse nel menu principale o nelle categorie (sono accessibili solo dai risultati di ricerca).
  • Nei dispositivi mobili, i link ai prodotti sono nascosti in sottomenu a più livelli nei menu a scomparsa.

Soluzioni

Strumento di autoverifica: Usa Screaming Frog per eseguire il crawl del sito e individua le pagine prodotto con “numero di link interni ≤ 1”.

Passaggi di ottimizzazione

  1. Aggiungi nel menu principale sezioni come “Nuovi prodotti in evidenza” o “Categorie consigliate” con link diretti alle pagine prodotto chiave.
  2. Assicurati che ogni prodotto appartenga ad almeno una categoria (esempio: /category/shoes/product-A).

Uso insufficiente dei moduli di raccomandazione

Dal punto di vista dei crawler: Se i contenuti raccomandati come “Ti potrebbe piacere” vengono caricati tramite JavaScript, i crawler potrebbero non riuscire a scansionare questi link.

Fornire un accesso statico ai contenuti consigliati dinamicamente, ad esempio mostrando in una sezione fissa i “Top 10 più venduti della settimana” con link diretti alle pagine dei prodotti.

La navigazione a breadcrumb non copre i livelli chiave

Esempio errato: Il percorso del breadcrumb è troppo corto e non include la pagina di categoria (esempio: Home > Prodotto A).

Metodo di correzione:

  1. Completare tutti i livelli di categoria (esempio: Home > Scarpe sportive > Scarpe da corsa > Prodotto A), aggiungendo link cliccabili per ogni livello.
  2. Configurare la generazione automatica dei breadcrumb nel CMS, assicurandosi che la struttura dell’URL rispetti la gerarchia (esempio: /categoria1/categoria2/nome-prodotto).

Mancanza di link di testo ancorato nelle pagine dei contenuti

Inserire in modo naturale link a prodotti correlati nelle descrizioni dei prodotti (esempio: “Questa fotocamera è compatibile con il treppiede X“).

Aggiungere nella sezione delle recensioni degli utenti suggerimenti come “Gli utenti che hanno acquistato questo prodotto hanno visualizzato anche”.

Strategia di intervento d’emergenza

Soluzione temporanea:

  • Creare una pagina aggregatrice “Novità” che raccolga i link ai prodotti non ancora indicizzati e inserirla nel menu a piè di pagina della homepage.
  • Aggiungere link ai prodotti target nelle pagine ad alta autorità esistenti (ad esempio, articoli del blog), esempio: “Lettura consigliata: Classifica delle migliori scarpe da corsa 2024”.

Manutenzione a lungo termine:

  • Monitorare settimanalmente lo stato di indicizzazione delle pagine dei prodotti (strumento suggerito: Ahrefs Site Audit) e correggere tempestivamente eventuali lacune nei link interni.

Perdita di contenuti causata dal rendering dinamico in JavaScript

Ad esempio, nelle pagine prodotto sviluppate con Vue o React, dove le informazioni essenziali (come SKU e specifiche) vengono caricate in modo asincrono tramite API, i crawler potrebbero non riuscire a catturare i dati per via dei tempi di caricamento.

Risultato: le pagine indicizzate mostrano solo un segnaposto “Caricamento”, compromettendo la visibilità nei motori di ricerca.

Come individuare la perdita di contenuti dovuta al rendering dinamico

Strumenti di verifica:

  1. Test di compatibilità mobile di Google: Inserire l’URL della pagina prodotto e verificare se lo screenshot HTML renderizzato include i contenuti chiave (prezzo, pulsante di acquisto, ecc.).
  2. Simulare il crawler con il comando curl: Eseguire nel terminale il comando curl -A "Googlebot" URL e confrontare l’HTML restituito con il codice sorgente della pagina visto nel browser.

Segnali comuni:

  • Nel sorgente della pagina mancano descrizioni dei prodotti, recensioni e altri testi chiave, mostrando solo contenitori come

    .

  • Nel rapporto di copertura di Google Search Console, la pagina risulta “Scansionata ma non indicizzata”, con motivazione “Pagina vuota”.

Soluzioni: Rendering lato server (SSR) e Pre-rendering

Vantaggi dell’SSR: L’HTML completo viene generato sul server e inviato ai crawler, garantendo che tutto il contenuto sia immediatamente accessibile.

Framework consigliati: Next.js (React), Nuxt.js (Vue), Angular Universal.

Esempio di codice (Routing di una pagina prodotto in Next.js):

export async function getServerSideProps(context) {
const product = await fetchAPI(`/product/${context.params.id}`);
return { props: { product } };
Soluzione alternativa per il pre-rendering: Per i siti che non possono essere facilmente convertiti in SSR, si possono utilizzare Prerender.io o Rendertron per generare snapshot statici.

Passaggi di configurazione:

  1. Configura il middleware sul server per identificare le richieste dai bot e reindirizzarle al servizio di pre-rendering.
  2. Memorizza nella cache i risultati renderizzati per ridurre il carico di rendering ripetuto.

Ottimizzare il tempo di caricamento dei contenuti dinamici

Logica principale: Le informazioni chiave del prodotto (titolo, prezzo, specifiche) devono essere inserite direttamente nell’HTML iniziale, evitando il caricamento asincrono tramite JavaScript.

Esempio errato:

// Caricamento asincrono del prezzo (i bot potrebbero non attendere)
fetch('/api/price').then(data => {
document.getElementById('price').innerHTML = data.price;
});

Soluzione corretta:

<!-- Inserimento diretto del prezzo nell'HTML iniziale -->

$99.99

Controllare il tempo di esecuzione di JavaScript e la dimensione delle risorse

Tolleranza dei bot: Googlebot attende generalmente fino a circa 5 secondi per eseguire e renderizzare JavaScript.

Misure di ottimizzazione:

Suddivisione del codice (Code Splitting): Carica solo i moduli JavaScript necessari per la pagina prodotto (ad esempio, rimuovendo caroselli o gallerie non essenziali).

// Caricamento dinamico di moduli non essenziali (es. lettore video)
import('video-player').then(module => {
module.loadPlayer();
});

Caricamento ritardato dei contenuti sotto la prima schermata: Carica sezioni come i commenti o i prodotti consigliati dopo l’evento DOMContentLoaded.

Parametri disordinati nell’URL causano pagine duplicate

Ad esempio, lo stesso prodotto può generare URL differenti solo cambiando l’ordine dei parametri:
/product?color=red&size=10 e /product?size=10&color=red. I bot potrebbero considerare questi URL come pagine distinte, causando dispersione dell’autorità o addirittura penalizzazioni per contenuti duplicati.

Come individuare l’impatto dei parametri duplicati negli URL

Strumenti di auto-analisi:

  1. Google Search Console: Nel report “Copertura”, filtra le URL “inviate ma non indicizzate” e controlla la proporzione di URL con parametri duplicati.
  2. Screaming Frog: Configura il crawler per ignorare i parametri e analizza il numero di variazioni di URL per la stessa pagina prodotto.

Scenari comuni:

  • Più URL per lo stesso prodotto causati da filtri (es. ordinamento per prezzo o colore).
  • Pagine di paginazione senza il tag rel="canonical", considerate pagine separate dai motori di ricerca.

Normalizzare i parametri e consolidare l’autorità delle pagine

Ordine di priorità delle soluzioni:

Imporre un ordine fisso dei parametri: Definisci una sequenza standard dei parametri nell’URL (es. colore → taglia → ordinamento) per evitare duplicazioni.

  • Esempio: Genera sempre URL nel formato /product?color=red&size=10 e reindirizza (301) automaticamente tutte le altre varianti verso la versione canonica.

Utilizzare il tag Canonical: Aggiungi il tag canonical nel <head> della pagina con parametri, puntando all’URL principale del prodotto.

Bloccare i parametri non significativi

Utilizzare il tag meta robots noindex o il file robots.txt per impedire l’indicizzazione degli URL con parametri di tracciamento (esempio: ?session_id=xxx).

Tecniche di gestione dei parametri lato server

Regole di riscrittura degli URL (URL Rewrite):

Esempio con Apache (nascondere i parametri di paginazione e normalizzare l’URL):


RewriteCond %{QUERY_STRING} ^page=([2-9]|10)$
RewriteRule ^product/?$ /product?page=%1 [R=301,L]

Esempio con Nginx (unificare i parametri di ordinamento):


if ($args ~* "sort=price") {
rewrite ^/product /product?sort=price permanent;
}

Controllo dei parametri dinamici:

  • Preimpostare nell’CMS un elenco di parametri consentiti e rifiutare richieste con parametri non autorizzati (restituendo un errore 404 o reindirizzando alla homepage).

Strategie SEO per pagine di paginazione e di filtro

Pagine di paginazione:

  1. Aggiungere i tag rel="prev" e rel="next" per indicare ai motori di ricerca la relazione tra le pagine.
  2. Per tutte le pagine successive alla prima (ad esempio page=2 e oltre), impostare il tag noindex per consentire l’indicizzazione solo della prima pagina.

Pagine di filtro:

Se non ci sono prodotti corrispondenti ai filtri selezionati (ad esempio: /product?color=purple senza prodotti in magazzino), restituire un errore 404 o reindirizzare a una categoria correlata.

Mancanza di tag HTML strutturali

Ad esempio, la mancanza del tag H1 in una pagina può far sì che i motori di ricerca considerino il contenuto come “non chiaro”. Inoltre, l’assenza di dati strutturati (Schema Markup) può impedire la visualizzazione di informazioni importanti come prezzo e disponibilità nei risultati di ricerca.


<link rel="canonical" href="https://example.com/product" />

Assenza o Duplicazione del Tag H1

Come individuare il problema:

  • Utilizza gli strumenti di sviluppo del browser per verificare se la pagina del prodotto contiene un solo tag

    con parole chiave pertinenti.

  • Errori comuni: più tag H1 (ad esempio uno per il nome del prodotto e uno per il marchio) o H1 non correlato al contenuto (esempio: “Benvenuto nel nostro negozio”).

Come risolvere:

  • Ogni pagina di prodotto deve avere un solo tag H1, che includa il modello del prodotto e il suo beneficio principale (esempio:

    Scarpe Running Serie X | Ammortizzazione e Traspirabilità, Novità 2024

    ).

  • Non sostituire il testo dell’H1 con un’immagine (i motori di ricerca non possono leggere il testo nelle immagini); se proprio necessario, usa l’attributo aria-label.

Meta Description Non Ottimizzata

Impatto: Se la meta description manca o è incompleta, i motori di ricerca estraggono automaticamente parti casuali della pagina, riducendo il CTR (Click Through Rate).

Come ottimizzare:

  1. Limita la descrizione a 150-160 caratteri, includendo parole chiave e una call to action (esempio: ).
  2. Configura il CMS affinché generi automaticamente il campo description dai principali attributi del prodotto, per evitare pagine senza questa meta tag.

Ignorare i Dati Strutturati Schema

Importanza per la SEO: Il markup Schema aiuta i motori di ricerca a identificare prezzo, recensioni, disponibilità e altre informazioni chiave, migliorando la visibilità nei risultati di ricerca.

Come implementare:
Usa il Generatore di Markup Schema per creare il codice JSON-LD di tipo Product e inseriscilo nella sezione della pagina:

<script type="application/ld+json">
{
"@context": "https://schema.org/",
"@type": "Product",
"name": "Scarpe Running Serie X",
"image": "https://example.com/shoe.jpg",
"offers": {
"@type": "Offer",
"price": "99.99",
"priceCurrency": "USD",
"availability": "https://schema.org/InStock"
}
}
script>
  • Strumento di validazione: utilizza il Google Structured Data Testing Tool per verificare il corretto funzionamento del markup.

Immagini Senza Testo Alternativo (Alt)

Valore SEO: L’attributo alt aiuta i motori di ricerca a comprendere il contenuto delle immagini e migliora l’accessibilità.

Errori comuni:

  • Lasciare l’attributo alt vuoto () o sovraccaricare di parole chiave (alt="scarpe running scarpe sportive ammortizzazione nuove 2024").

Buona pratica:

  • Descrivere chiaramente l’immagine e il suo contesto d’uso (esempio: alt="Foto delle Scarpe Running Serie X di colore nero, che mostra la suola con sistema di ammortizzazione").
  • Per immagini decorative, utilizza alt="" per non distrarre gli utenti.

Tag Canonical Errato

Rischio: Se il tag canonical di una pagina prodotto punta alla home o a una categoria, si rischia di perdere autorità SEO sulla pagina specifica.

Come controllare e correggere:

  • Usa Screaming Frog per eseguire un’analisi in massa e identificare eventuali errori nei tag canonical delle pagine prodotto.
  • Esempio corretto di tag canonical: (deve puntare alla versione principale della pagina corrente).

Scegli una pagina prodotto che non viene indicizzata da tempo e controllala seguendo questa checklist. In molti casi il problema principale si individua in meno di 30 minuti.

滚动至顶部