微信客服
Telegram:guangsuan
电话联系:18928809533
发送邮件:xiuyuan2000@gmail.com

6 Razões Técnicas Pelas Quais As Páginas De Produtos Não São Indexadas|Excluindo Conteúdo Duplicado E Restrições De Rastreamento

本文作者:Don jiang

As razões pelas quais a página não é indexada podem estar escondidas na arquitetura do código ou na configuração do servidor.

Por exemplo, o crawler pode não “entender” seu conteúdo dinâmico ou algum parâmetro incorreto pode fazer com que a página seja considerada duplicada.

Neste artigo, reunimos 6 problemas técnicos práticos, mas frequentemente ignorados, que afetam diretamente a indexação.

6 motivos técnicos pelos quais páginas de produtos não são indexadas

Table of Contens

Velocidade de carregamento lenta impede o rastreamento do crawler

Por exemplo, quando o tempo de resposta do servidor ultrapassa 3 segundos, o Googlebot pode abandonar o rastreamento ou indexar apenas parte do conteúdo.

Esse problema costuma ser ignorado, pois muitos administradores de sites focam apenas na experiência do usuário (como animações de carregamento), mas ignoram o “limite de paciência” dos crawlers.

Tempo de resposta do servidor elevado

Como diagnosticar: Use o Google Search Console (Core Web Vitals) ou ferramentas como GTmetrix para verificar o TTFB (Time to First Byte). Se for superior a 1,5 segundos, é necessário otimizar.

Como resolver:

  1. Atualize a configuração do servidor (CPU/memória) ou migre para um host de alto desempenho (como Cloudways ou SiteGround).
  2. Otimize as consultas ao banco de dados: reduza junções complexas e adicione índices nas tabelas de produtos.
  3. Ative cache no servidor (como Redis ou Memcached) para reduzir a frequência de geração dinâmica de páginas.

Arquivos de recursos não otimizados

Problemas comuns:

  • Imagens de produtos não comprimidas (por exemplo, PNGs sem conversão para WebP ou resolução acima de 2000px).
  • CSS/JS não combinados, gerando dezenas de requisições HTTP.

Passos para correção:

  1. Comprima as imagens com Squoosh ou TinyPNG e ajuste o tamanho para telas populares (ex.: 1200px de largura).
  2. Combine CSS/JS usando Webpack ou Gulp para reduzir o número de requisições.
  3. Ative a compressão Gzip ou Brotli para reduzir o tamanho dos arquivos transmitidos.

Scripts que bloqueiam o carregamento

Do ponto de vista dos crawlers: Ao processar o HTML, se o crawler encontrar scripts sem carregamento assíncrono (como Google Analytics carregado de forma síncrona), o carregamento da página será pausado até que o script termine.

Soluções recomendadas:

  • Adicione os atributos async ou defer em scripts não essenciais (ex.: ).
  • Adie o carregamento de ferramentas de terceiros (como chat ao vivo ou mapas de calor) até após o carregamento completo da página.

Ferramentas de diagnóstico e recomendações de prioridade

Checklist de autoavaliação:

  1. PageSpeed Insights: Identifica problemas específicos de carregamento de recursos (ex.: “Reduza o tempo de execução do JavaScript”).
  2. Screaming Frog: Verifica em massa o TTFB das páginas de produtos e encontra URLs com carregamento lento.
  3. Lighthouse: Veja as recomendações na seção “Oportunidades” (ex.: Remover CSS não utilizado).

Prioridade de otimização: Resolva primeiro páginas com TTFB acima de 2 segundos, páginas com mais de 50 requisições HTTP ou imagens com mais de 500 KB.

Dado importante: Segundo o Google, quando o tempo de carregamento aumenta de 1 para 3 segundos, a taxa de falha no rastreamento sobe 32%. Após as otimizações acima, a maioria das páginas de produtos pode carregar em menos de 2 segundos, aumentando significativamente a taxa de indexação.

Arquivo robots.txt bloqueando diretórios de produtos por engano

Por exemplo, se acidentalmente você escrever Disallow: /tmp/ como Disallow: /product/, os crawlers pularão completamente as páginas de produtos, mesmo que o conteúdo seja de alta qualidade.

Como detectar rapidamente bloqueios no robots.txt

Ferramentas de verificação:

  • Google Search Console: Acesse “Indexação” > “Páginas” e, se as páginas de produtos estiverem bloqueadas, clique para ver detalhes e conferir o arquivo robots.txt.
  • Ferramentas online de teste de robots.txt: Use a ferramenta de teste de robots.txt para simular o acesso do crawler ao URL.

Erros comuns:

  1. Erro de digitação no caminho (ex.: /produc/ em vez de /product/).
  2. Uso excessivo de curingas * (ex.: Disallow: /*.jpg$ bloqueia todas as imagens de produtos).

Como corrigir regras incorretas no robots.txt

Princípios para uma escrita correta

  • Correspondência precisa de caminhos: Evite bloqueios imprecisos. Por exemplo, para bloquear um diretório temporário, use Disallow: /old-product/ em vez de Disallow: /product/.
  • Diferenciar tipos de bots: Caso queira bloquear apenas robôs indesejados, especifique o User-agent (Exemplo: User-agent: MJ12bot).

Tratamento de parâmetros

  • Permita parâmetros necessários (como paginação ?page=2), bloqueando apenas parâmetros específicos, como Disallow: *?sort=.
  • Utilize o símbolo $ para indicar o final de um parâmetro (Exemplo: Disallow: /*?print=true$).

Processo de recuperação e verificação de emergência

Exemplo de etapas

  1. Edite o arquivo robots.txt, comentando ou removendo as linhas incorretas (Exemplo: # Disallow: /product/).
  2. Envie o pedido de atualização do arquivo robots.txt no Google Search Console.
  3. Utilize a ferramenta “Inspeção de URL” para testar manualmente o acesso às páginas de produtos.
  4. Revise a indexação após 24 horas. Caso não haja recuperação, envie manualmente o sitemap das páginas de produtos.

Medidas de proteção

  • Use ferramentas de controle de versão (como Git) para registrar mudanças no robots.txt, permitindo reversões se necessário.
  • Teste as alterações em um ambiente de testes antes de aplicar no ambiente de produção.

Análise de caso real

Configuração incorreta

User-agent: *

Disallow: /

Allow: /product/

Problema: A regra Disallow: / bloqueia todo o site, tornando a regra Allow ineficaz.

Correção adequada

User-agent: *

Disallow: /admin/

Disallow: /tmp/

Allow: /product/

Lógica: Apenas as pastas administrativas e temporárias são bloqueadas, permitindo acesso às páginas de produtos.

Páginas de produtos sem links internos eficazes

Se uma página de produto não tiver links internos (como menus de navegação, produtos recomendados ou links de texto), ela se torna uma “ilha isolada”, o que dificulta sua indexação, mesmo com bom conteúdo.

Esse problema é comum em novos produtos, páginas promocionais independentes ou páginas importadas em massa por ferramentas externas — que podem não ter sido integradas corretamente na estrutura de navegação do site.

Falta de estrutura de navegação ou design inadequado

Problemas comuns

  • As páginas de produtos não estão no menu principal nem em categorias (apenas acessíveis via resultados de pesquisa).
  • Em dispositivos móveis, os menus colapsáveis escondem links importantes de produtos em submenus profundos.

Soluções

Ferramenta de autoavaliação: Use o Screaming Frog para rastrear todo o site e identificar páginas de produtos com “número de links internos ≤ 1”.

Passos de otimização

  1. Adicione links diretos no menu principal para páginas importantes de produtos, como “Novidades Populares” ou “Categorias em Destaque”.
  2. Garanta que cada produto esteja associado a pelo menos uma categoria (Exemplo: /category/shoes/product-A).

Uso ineficiente de módulos de recomendação

Perspectiva dos robôs de busca: Se os módulos de recomendação, como “Você pode gostar”, forem carregados via JavaScript, os robôs de busca podem não conseguir acessar esses links.

Forneça uma entrada estática para conteúdo recomendado dinamicamente, como exibir uma seção fixa com “Top 10 Mais Vendidos da Semana” e links diretos para as páginas dos produtos.

Navegação por breadcrumb não cobre níveis essenciais

Exemplo incorreto: Caminho do breadcrumb muito curto, sem link para a página de categoria (exemplo: Início > Produto A).

Como corrigir:

  1. Adicionar todos os níveis de categoria (exemplo: Início > Tênis esportivos > Tênis de corrida > Produto A), com links clicáveis em cada nível.
  2. Configurar no CMS a geração automática de breadcrumbs, garantindo que a estrutura da URL corresponda à hierarquia (exemplo: /categoria1/categoria2/nome-do-produto).

Falta de links de texto âncora nas páginas de conteúdo

Insira links de produtos relacionados de forma natural na descrição do produto (exemplo: “Esta câmera é compatível com o tripé X“).

Adicione na seção de avaliações de usuários recomendações como “Usuários que compraram este produto também visualizaram”.

Plano de ação emergencial

Plano temporário:

  • Criar uma página agregadora chamada “Novidades”, reunindo links de produtos ainda não indexados e adicioná-la ao menu do rodapé da página inicial.
  • Inserir links das páginas de produtos-alvo em páginas de alta autoridade (como artigos de blog), exemplo: “Leitura recomendada: Melhores Tênis de Corrida 2024”.

Plano de manutenção a longo prazo:

  • Monitorar semanalmente o status de indexação das páginas de produtos (ferramenta sugerida: Ahrefs Site Audit) e corrigir rapidamente falhas de links internos.

Perda de conteúdo devido ao carregamento dinâmico com JavaScript

Por exemplo, páginas de produtos desenvolvidas com Vue ou React, onde informações essenciais (como SKU e especificações) são carregadas de forma assíncrona via API, podendo não ser acessíveis aos robôs de busca devido a atrasos no carregamento.

Resultado: apenas a mensagem “Carregando” aparece nas páginas indexadas, prejudicando o ranking.

Como identificar perda de conteúdo por renderização dinâmica

Ferramentas de verificação:

  1. Teste de compatibilidade para dispositivos móveis do Google: Insira a URL da página do produto e veja se a captura de tela do HTML renderizado exibe o conteúdo essencial (preço, botão de compra etc.).
  2. Simulação de rastreamento com o comando curl: Execute no terminal curl -A "Googlebot" URL e compare o HTML retornado com o código-fonte exibido nas ferramentas de desenvolvedor do navegador.

Sinais comuns:

  • O código-fonte da página não contém descrições de produtos, avaliações ou outros textos-chave, apenas contêineres vazios como

    .

  • Relatórios de cobertura do Google Search Console mostram “Rastreada, mas não indexada” com a causa “Página vazia”.

Soluções: Renderização no servidor (SSR) e pré-renderização

Vantagens do SSR: Gera e entrega o HTML completo no servidor, garantindo que os mecanismos de busca consigam capturar o conteúdo.

Frameworks recomendados: Next.js (React), Nuxt.js (Vue), Angular Universal.

Exemplo de código (rota da página de produto em Next.js):

export async function getServerSideProps(context) {
const product = await fetchAPI(`/product/${context.params.id}`);
return { props: { product } };

Solução alternativa de pré-renderização: Para sites que não podem ser adaptados facilmente para SSR, use Prerender.io ou Rendertron para gerar snapshots estáticos.

Passos de configuração:

  1. Configure o middleware no servidor para identificar solicitações de bots e redirecioná-las para o serviço de pré-renderização.
  2. Cache os resultados renderizados para reduzir o custo de geração repetida.

Otimizar o momento de carregamento de conteúdo dinâmico

Lógica principal: Informações essenciais do produto (título, preço, especificações) devem ser inseridas diretamente no HTML inicial, em vez de serem carregadas de forma assíncrona via JavaScript.

Exemplo incorreto:

// Carregamento assíncrono do preço (bots podem não aguardar)
fetch('/api/price').then(data => {
document.getElementById('price').innerHTML = data.price;
});

Solução correta:

<!-- Inserir preço diretamente no HTML inicial -->

$99.99

Controlar o tempo de execução do JavaScript e o tamanho dos recursos

Limite de tolerância dos bots: O Googlebot normalmente aguarda até cerca de 5 segundos para executar e renderizar JavaScript.

Medidas de otimização:

Divisão de código (Code Splitting): Carregar apenas os módulos de JavaScript necessários na página de produto (por exemplo, remover carrosséis ou galerias não essenciais).

// Carregar módulos não essenciais de forma dinâmica (ex: player de vídeo)
import('video-player').then(module => {
module.loadPlayer();
});

Carregar conteúdos fora da primeira dobra de forma atrasada: Executar o carregamento de seções como comentários e recomendações após o evento DOMContentLoaded.

Parâmetros desordenados na URL causam páginas duplicadas

Por exemplo, um mesmo produto pode gerar URLs diferentes apenas pela ordem dos parâmetros:
/product?color=red&size=10 e /product?size=10&color=red. Os bots podem tratar essas URLs como páginas distintas, dispersando a autoridade da página ou até causando penalidades por conteúdo duplicado.

Como identificar o impacto de parâmetros repetidos nas URLs

Ferramentas de autoavaliação:

  1. Google Search Console: No relatório “Cobertura”, filtre URLs “enviadas, mas não indexadas” e observe a proporção de URLs com parâmetros duplicados.
  2. Screaming Frog: Configure para ignorar parâmetros durante o rastreamento e contabilize o número de variações de URL para a mesma página de produto.

Cenários típicos de problema:

  • Um mesmo produto gerando várias URLs por causa de filtros (exemplo: ordenação por preço, filtro por cor).
  • Páginas de paginação sem a tag rel="canonical", que são tratadas como páginas distintas.

Normalizar parâmetros e consolidar autoridade de páginas

Ordem de prioridade das soluções:

Padronizar a ordem dos parâmetros: Defina uma regra fixa para a ordem dos parâmetros (exemplo: cor → tamanho → ordenação) e evite URLs duplicadas.

  • Exemplo: Sempre gerar URLs no formato /product?color=red&size=10 e redirecionar (301) automaticamente outras variações para a versão canônica.

Usar a tag Canonical: Adicione a tag canonical no <head> das páginas com parâmetros, apontando para a URL principal do produto.

Bloquear parâmetros sem importância

Use meta robots noindex ou o arquivo robots.txt para impedir a indexação de URLs com parâmetros de rastreamento (por exemplo: ?session_id=xxx).

Técnicas de tratamento de parâmetros no servidor

Regras de reescrita de URL (URL Rewrite):

Exemplo no Apache (ocultar parâmetros de paginação e padronizar o formato da URL):


RewriteCond %{QUERY_STRING} ^page=([2-9]|10)$
RewriteRule ^product/?$ /product?page=%1 [R=301,L]

Exemplo no Nginx (unificar parâmetros de ordenação):


if ($args ~* "sort=price") {
rewrite ^/product /product?sort=price permanent;
}

Controle de parâmetros dinâmicos:

  • Predefinir no CMS uma lista de parâmetros permitidos e rejeitar requisições com parâmetros inválidos (retornando erro 404 ou redirecionando para a página principal).

Estratégias de SEO para páginas de paginação e filtragem

Páginas de paginação:

  1. Adicionar as tags rel="prev" e rel="next" para indicar aos mecanismos de busca a relação entre as páginas.
  2. Nas páginas posteriores à primeira (por exemplo, page=2 e seguintes), configurar a tag noindex para que apenas a primeira página seja indexada.

Páginas de filtro:

Quando não houver produtos correspondentes aos filtros aplicados (exemplo: /product?color=purple sem estoque disponível), retornar erro 404 ou redirecionar para uma categoria relacionada.

Falta de marcação HTML adequada

Por exemplo, a ausência da tag H1 em uma página pode fazer com que os mecanismos de busca a considerem “sem um tema claro”. Além disso, a não utilização de dados estruturados (Schema Markup) pode impedir que informações importantes como preço e disponibilidade do produto sejam destacadas nos resultados de pesquisa.


<link rel="canonical" href="https://example.com/product" />

Falta ou Duplicação da Tag H1

Como identificar o problema:

  • Use as ferramentas de desenvolvedor do navegador para verificar se a página do produto possui uma única tag

    com palavras-chave relevantes.

  • Erros comuns: múltiplas tags H1 (por exemplo, uma para o nome do produto e outra para a marca) ou conteúdo irrelevante no H1 (exemplo: “Bem-vindo(a) à nossa loja”).

Como corrigir:

  • Garanta que cada página de produto tenha apenas um H1, priorizando o modelo do produto e seu principal benefício (exemplo:

    Tênis Série X | Amortecimento e Respirabilidade, Lançamento 2024

    ).

  • Não substitua o texto do H1 por imagens (os motores de busca não conseguem ler texto em imagens); se for necessário usar imagem, adicione o atributo aria-label.

Meta Description Não Otimizada

Impacto: Quando o meta description está ausente ou incompleto, os mecanismos de busca selecionam trechos aleatórios da página, reduzindo a taxa de cliques.

Passos para otimização:

  1. Limite o conteúdo entre 150 e 160 caracteres, incluindo palavras-chave do produto e um call-to-action (exemplo: ).
  2. Configure no CMS a geração automática do campo description, puxando dados dos principais atributos do produto, para evitar páginas sem esse campo.

Ignorar Dados Estruturados Schema

Importância para SEO: A marcação Schema ajuda os motores de busca a identificar preço, avaliação, disponibilidade e outras informações-chave dos produtos, enriquecendo a apresentação nos resultados de busca.

Como implementar:
Use o Schema Markup Generator para gerar o código JSON-LD do tipo Product e insira-o no da página:

<script type="application/ld+json">
{
"@context": "https://schema.org/",
"@type": "Product",
"name": "Tênis Série X",
"image": "https://example.com/shoe.jpg",
"offers": {
"@type": "Offer",
"price": "99.99",
"priceCurrency": "USD",
"availability": "https://schema.org/InStock"
}
}
script>
  • Ferramenta de validação: utilize o Google Structured Data Testing Tool para verificar se a marcação está correta.

Imagens Sem Texto Alternativo (Alt)

Valor para SEO: O texto alternativo (alt) ajuda os motores de busca a compreender o conteúdo da imagem e melhora a acessibilidade.

Erros comuns:

  • Deixar o alt vazio () ou exagerar nas palavras-chave (alt="tênis sapato esportivo corrida amortecimento novo 2024").

Melhor prática:

  • Descrever a imagem e o contexto de uso (exemplo: alt="Foto do Tênis Série X na cor preta, mostrando o solado com sistema de amortecimento").
  • Para imagens decorativas, utilize alt="" para evitar distrações desnecessárias.

Tag Canonical Incorreta

Risco: Se a tag canonical da página do produto estiver apontando para a página inicial ou de categoria, o SEO será prejudicado por confusão na transmissão de autoridade da página.

Como verificar e corrigir:

  • Use o Screaming Frog para rastrear as páginas de produto em massa e identificar aquelas com canonical incorreta ou externa.
  • Exemplo correto de tag canonical: (deve apontar para a versão principal da página atual).

Escolha uma página de produto que não tenha sido indexada por um longo período e revise-a usando esta lista de verificação. Na maioria dos casos, é possível encontrar o problema principal em menos de 30 minutos.

滚动至顶部