Las razones por las que una página no se indexa pueden estar ocultas en la arquitectura del código o la configuración del servidor.
Por ejemplo, cuando los rastreadores no pueden “entender” el contenido dinámico o un parámetro mal configurado hace que la página se considere duplicada.
Este artículo recopila 6 problemas técnicos prácticos, fácilmente pasados por alto, pero que afectan directamente la indexación, desde la perspectiva de la auditoría técnica.

Table of Contens
ToggleLa velocidad de carga lenta bloquea el rastreo
Por ejemplo, si el tiempo de respuesta del servidor supera los 3 segundos, Googlebot puede abandonar el rastreo o indexar solo contenido incompleto.
Este problema suele pasarse por alto, ya que muchos administradores de sitios se enfocan únicamente en la experiencia del usuario (como si la animación de carga es visible), ignorando el “umbral de paciencia” de los rastreadores.
Tiempo de respuesta del servidor demasiado largo
Diagnóstico: Utiliza Google Search Console (Core Web Vitals) o herramientas como GTmetrix para comprobar el “Tiempo hasta el primer byte” (TTFB); si supera los 1,5 segundos, es necesario optimizarlo.
Soluciones:
- Actualizar la configuración del servidor (CPU/memoria) o cambiar a un proveedor de alojamiento de alto rendimiento (como Cloudways o SiteGround).
- Optimizar las consultas a la base de datos: reducir consultas complejas y añadir índices a las tablas de productos.
- Habilitar la caché del servidor (por ejemplo, Redis o Memcached) para reducir la generación dinámica de páginas.
Archivos de recursos no optimizados
Problemas comunes:
- Imágenes de productos sin comprimir (por ejemplo, PNG no convertidas a WebP o resolución superior a 2000px).
- CSS/JS no combinados, generando decenas de solicitudes HTTP.
Pasos para corregir:
- Comprimir imágenes con herramientas como Squoosh o TinyPNG y ajustar el tamaño para pantallas habituales (por ejemplo, 1200px de ancho).
- Combinar archivos CSS/JS mediante Webpack o Gulp para reducir la cantidad de solicitudes.
- Activar la compresión Gzip o Brotli para reducir el tamaño de transmisión de archivos.
Scripts que bloquean el renderizado
Desde la perspectiva de los rastreadores: Al analizar el HTML, si encuentran scripts que no cargan de forma asíncrona (por ejemplo, Google Analytics en carga síncrona), el rastreo se detendrá hasta que el script se haya ejecutado.
Soluciones de optimización:
- Agregar el atributo
asyncodeferen los scripts no esenciales (Ejemplo:). - Retrasar la carga de herramientas de terceros (como chat en línea o mapas de calor) hasta después de la carga completa de la página.
Herramientas de diagnóstico y prioridades recomendadas
Lista de verificación:
- PageSpeed Insights: Para detectar problemas específicos en la carga de recursos (por ejemplo, “Reducir el tiempo de ejecución de JavaScript”).
- Screaming Frog: Para rastrear en masa el TTFB de las páginas de productos y localizar URL lentas.
- Lighthouse: Para ver las recomendaciones en la sección “Oportunidades” (como eliminar CSS no utilizado).
Prioridades de optimización urgentes: Primero soluciona las páginas con TTFB superior a 2 segundos, aquellas con más de 50 solicitudes HTTP o recursos de imagen que superen los 500KB.
Datos de referencia: Según Google, cuando el tiempo de carga de una página pasa de 1 a 3 segundos, la probabilidad de que el rastreo falle aumenta un 32%. Con estas optimizaciones, la mayoría de las páginas de productos pueden cargarse en menos de 2 segundos, mejorando significativamente la tasa de indexación.
Error en el archivo robots.txt que bloquea el directorio de productos
Por ejemplo, si por error escribes Disallow: /tmp/ como Disallow: /product/, los rastreadores omitirán completamente las páginas de productos, incluso si el contenido es de alta calidad.
Cómo detectar rápidamente bloqueos en robots.txt
Herramientas recomendadas:
- Google Search Console: Ve a “Indexación” > “Páginas”; si las páginas de productos aparecen como “bloqueadas”, revisa los detalles para ver el bloqueo en robots.txt.
- Herramientas online de prueba de robots.txt: Usa la herramienta de prueba de robots.txt para simular la vista del rastreador sobre la URL.
Errores típicos:
- Errores de escritura en la ruta (por ejemplo,
/produc/en lugar de/product/). - Uso excesivo de comodines
*(por ejemplo,Disallow: /*.jpg$bloquea todas las imágenes de productos).
Cómo corregir las reglas erróneas en robots.txt
Principios para una escritura correcta:
- Coincidencia precisa de rutas: Evita bloqueos imprecisos. Por ejemplo, para bloquear un directorio temporal, usa
Disallow: /old-product/en lugar deDisallow: /product/. - Distinguir el tipo de rastreador: Si solo deseas bloquear bots no deseados, debes especificar el User-agent (Ejemplo:
User-agent: MJ12bot).
Gestión de parámetros:
- Permite los parámetros necesarios (por ejemplo, paginación
?page=2), pero bloquea únicamente los parámetros específicos comoDisallow: *?sort=. - Usa el símbolo
$para indicar el final de un parámetro (Ejemplo:Disallow: /*?print=true$).
Proceso de recuperación de emergencia y verificación
Ejemplo de pasos:
- Edita el archivo robots.txt y comenta o elimina las líneas erróneas (Ejemplo:
# Disallow: /product/). - Envía la solicitud de actualización del archivo robots.txt mediante Google Search Console.
- Usa la herramienta “Inspección de URL” para probar manualmente el acceso a las páginas de productos.
- Revisa el estado de indexación después de 24 horas. Si no se recupera, envía manualmente el sitemap de productos.
Medidas de protección:
- Utiliza herramientas de control de versiones (como Git) para registrar los cambios en el archivo robots.txt, facilitando la reversión si es necesario.
- Prueba los cambios en un entorno de prueba antes de aplicarlos en producción.
Análisis de un caso real
Configuración errónea:
User-agent: *
Disallow: /
Allow: /product/
Problema: Disallow: / bloquea todo el sitio, lo que hace que la regla Allow no tenga efecto.
Corrección adecuada:
User-agent: *
Disallow: /admin/
Disallow: /tmp/
Allow: /product/
Lógica: Solo se bloquean los directorios de administración y temporales, permitiendo el acceso a las páginas de productos.
Páginas de productos sin enlaces internos efectivos
Si una página de producto no cuenta con enlaces internos (como menú de navegación, productos recomendados o enlaces contextuales), se convierte en una “isla aislada”, lo que dificulta su indexación, incluso si tiene buen contenido.
Esto es común en productos nuevos, páginas de promociones especiales o páginas importadas en masa mediante herramientas externas, que no siempre se integran correctamente en la estructura de navegación del sitio.
Falta de estructura de navegación o diseño inadecuado
Problemas comunes:
- Las páginas de productos no están integradas en el menú principal ni en las categorías (solo accesibles mediante resultados de búsqueda).
- En dispositivos móviles, los menús desplegables esconden los enlaces clave de productos en submenús profundos.
Soluciones:
Herramienta de autoevaluación: Usa Screaming Frog para rastrear el sitio completo y detectar páginas de productos con “número de enlaces entrantes ≤ 1”.
Pasos de optimización:
- Añade accesos directos a páginas de productos importantes en el menú principal, como “Novedades Populares” o “Categorías Destacadas”.
- Asegúrate de que cada página de producto esté incluida al menos en una categoría (Ejemplo:
/category/shoes/product-A).
Uso ineficiente de módulos de recomendación
Desde la perspectiva de los motores de búsqueda: Si los módulos como “Te podría gustar” se cargan mediante JavaScript, los bots podrían no ser capaces de rastrear esos enlaces.





