Причины, по которым страница не индексируется, могут быть скрыты в архитектуре кода или конфигурации сервера.
Например, если поисковый робот не может «понять» динамический контент или из-за неправильного параметра страница распознается как дублирующаяся.
В этой статье с технической точки зрения собраны 6 практических, но часто игнорируемых проблем, которые напрямую влияют на индексирование.

Table of Contens
ToggleМедленная загрузка страницы мешает индексации
Например, если время ответа сервера превышает 3 секунды, Googlebot может прервать сканирование или проиндексировать только часть страницы.
Эту проблему часто игнорируют, так как владельцы сайтов фокусируются на пользовательском опыте (например, отображается ли анимация загрузки), но не учитывают «порог терпения» поискового робота.
Слишком долгое время отклика сервера
Диагностика: Используйте Google Search Console (Core Web Vitals) или такие инструменты, как GTmetrix, чтобы проверить время до первого байта (TTFB). Если оно превышает 1,5 секунды, требуется оптимизация.
Решения:
- Улучшить конфигурацию сервера (например, увеличить CPU/память) или перейти на более производительный хостинг (например, Cloudways или SiteGround).
- Оптимизировать запросы к базе данных: уменьшить сложные объединения таблиц, добавить индексы для таблицы товаров.
- Включить кэширование на стороне сервера (например, Redis или Memcached) для сокращения динамической генерации страниц.
Неоптимизированные ресурсы
Типичные проблемы:
- Неоптимизированные изображения товаров (например, PNG без конверсии в WebP или разрешение выше 2000px).
- Необъединённые CSS/JS-файлы, вызывающие десятки HTTP-запросов.
Шаги по исправлению:
- Сжать изображения с помощью Squoosh или TinyPNG, адаптировать их к основным разрешениям экранов (например, ширина 1200px).
- Объединить CSS/JS с помощью Webpack или Gulp, чтобы сократить количество запросов.
- Включить сжатие Gzip или Brotli для уменьшения размера передаваемых ресурсов.
Скрипты, блокирующие рендеринг
С точки зрения поисковых роботов: При анализе HTML, если встречаются скрипты без асинхронной загрузки (например, синхронно загружаемый Google Analytics), рендеринг страницы останавливается до завершения выполнения скрипта.
Рекомендации по оптимизации:
- Добавить атрибут
asyncилиdeferдля не критичных скриптов (например:). - Отложить загрузку сторонних инструментов (например, онлайн-чата или тепловых карт) до полной загрузки страницы.
Инструменты для диагностики и рекомендации по приоритету
Чек-лист для проверки:
- PageSpeed Insights: для определения конкретных проблем с загрузкой ресурсов (например, «Сократите время выполнения JavaScript»).
- Screaming Frog: массово проверить TTFB на страницах товаров и найти медленные URL.
- Lighthouse: проверить блок «Возможности» с рекомендациями (например, удалить неиспользуемые CSS).
Приоритетная оптимизация: Сначала устраните страницы с TTFB более 2 секунд, страницы с более чем 50 HTTP-запросами и ресурсы изображений размером более 500KB.
Справочные данные: По данным Google, если время загрузки страницы увеличивается с 1 до 3 секунд, вероятность сбоя сканирования возрастает на 32%. После вышеуказанных оптимизаций большинство страниц товаров можно загрузить менее чем за 2 секунды, что значительно повышает шанс индексации.
Ошибочная блокировка каталога товаров в файле robots.txt
Например, если по ошибке прописать Disallow: /tmp/ вместо Disallow: /product/, поисковые роботы полностью пропустят страницы товаров, даже если контент качественный.
Как быстро выявить блокировки robots.txt
Инструменты проверки:
- Google Search Console: Перейдите в «Индексирование» > «Страницы», если страницы товаров отображаются как «заблокированные», откройте подробности и проверьте блокировки в robots.txt.
- Онлайн-инструменты проверки robots.txt: используйте инструмент проверки robots.txt, чтобы увидеть, имеет ли робот доступ к URL.
Частые ошибки:
- Опечатки в путях (например,
/produc/вместо/product/). - Чрезмерное использование символов подстановки
*(например,Disallow: /*.jpg$блокирует все изображения товаров).
Как исправить ошибки в правилах robots.txt
Принципы правильного написания:
- Точное указание путей: избегайте неопределённых запретов. Например, для временного каталога используйте
Disallow: /old-product/вместоDisallow: /product/. - Разделение типов поисковых роботов: если нужно заблокировать только определённых ботов, указывайте конкретный User-agent (например:
User-agent: MJ12bot).
Обработка параметров:
- Разрешайте необходимые параметры (например, пагинацию
?page=2), но блокируйте только ненужные параметры, напримерDisallow: *?sort=. - Используйте символ
$для указания конца параметра (например:Disallow: /*?print=true$).
Процесс экстренного восстановления и проверки
Пример действий:
- Измените файл robots.txt, закомментировав или удалив ошибочные строки (например:
# Disallow: /product/). - Отправьте запрос на обновление файла robots.txt через Google Search Console.
- С помощью инструмента “Проверка URL” вручную проверьте доступность страниц товаров для поисковых роботов.
- Через 24 часа проверьте статус индексации. Если страницы не восстановились, отправьте карту сайта с продуктами вручную.
Защитные меры:
- Используйте системы контроля версий (например, Git) для отслеживания изменений в файле robots.txt и возможности отката.
- Тестируйте изменения в тестовой среде перед применением их на основном сайте.
Разбор реального случая
Ошибочная настройка:
User-agent: *
Disallow: /
Allow: /product/
Проблема: Правило Disallow: / блокирует весь сайт, делая последующее правило Allow неэффективным.
Корректное исправление:
User-agent: *
Disallow: /admin/
Disallow: /tmp/
Allow: /product/
Логика: Блокируются только административный раздел и временные папки, при этом доступ к страницам продуктов остаётся открытым.
Страницы продуктов без эффективных внутренних ссылок
Если страница товара не имеет внутренних ссылок (например, через меню навигации, блоки рекомендаций или текстовые ссылки), она становится “изолированным островом”, что затрудняет её индексацию даже при высоком качестве контента.
Это часто происходит с новыми товарами, специализированными лендингами или страницами, массово импортированными через внешние инструменты — они могут не быть интегрированы в структуру сайта.
Отсутствие или плохая структура навигации
Типичные проблемы:
- Страницы товаров не добавлены в главное меню или каталоги категорий (доступны только через поиск).
- На мобильных устройствах важные ссылки на товары могут быть спрятаны глубоко в выпадающих меню.
Решения:
Инструмент для самопроверки: Используйте Screaming Frog для сканирования сайта и выявления страниц с количеством внутренних ссылок ≤ 1.
Шаги оптимизации:
- Добавьте в главное меню прямые ссылки на популярные страницы товаров, например “Популярные новинки” или “Рекомендуемые товары”.
- Убедитесь, что каждая страница товара входит хотя бы в одну категорию (например:
/category/shoes/product-A).
Неэффективное использование модулей рекомендаций
С точки зрения поисковых систем: Если блоки рекомендаций, такие как “Вам также может понравиться”, загружаются с помощью JavaScript, поисковые роботы могут не индексировать такие ссылки.





