Заказать SEO-услуги
Согласен с правилами обработки персональных данных
Скорость ответа - до 30 минут!

Почему страницы с get-параметрами попадают в индекс, несмотря на запреты, и как это исправить?

like 0
Есть интернет-магазин с фильтрацией по характеристикам и сортировкой товаров. При включении фильтрации и сортировки в url появляется комбинация get-параметров страниц, которая генерирует бесчисленное множество вариаций страниц с параметрами. При запрете этих параметров в robots.txt в GSC в разделе индексации часть этих комбинаций может появляться в разделе «Проиндексировано, несмотря на блокировку в файле robots.txt», а если мы ставим в head, то роботы google триггерятся и начинают сканировать эти комбинации страниц и добавлять их в раздел «Страница просканирована, но пока не проиндексирована», что тратит краулинговый бюджет в пустую. Тег canonical так же не подходит, т.к. он является «рекомендательным» и может быть проигнорирован при индексировании страницы. Каким способом запретить эти страницы с параметрами, чтобы роботы не обходили и не индексировали их?

Ответ

Краткий ответ – без специальных заморочек это сделать невозможно и нужно ли?

Google в своих рекомендациях прямо указывает, что, цитата: «даже если вы укажете каноническую страницу самостоятельно, мы по той или иной причине можем выбрать другую», ситуация с robots.txt аналогичная. Даже если вы укажите все эти запреты – для алгоритмов Google это лишь рекомендации. Поэтому, через время вы все равно увидите эти страницы в отчете в GSC, но это означает, что вам нужно просто обратить пристальное внимание на эти страницы.

На краулинговый бюджет стоит обращать внимание только когда становится видно, что боты не успевают переобходить важные страницы, до этого момента на него можно не обращать внимание. Если у вас не слишком крупный сайт — с краулинговым бюджетом вообще проблем быть не должно.

Что можно сделать, чтобы робот не индексировал эти страницы?

  • Убрать все возможные внутренние и внешние ссылки на эти страницы: нет ссылок – краулеры поисковой системы их не видят – страницы не попадают в индекс;
  • Сделать фильтрацию при помощи JS, в данном случае вся фильтрация будет происходить в браузере пользователя, в результате будет оставаться статичный URL. Роботы поисковых систем физически не будут видеть никаких ссылок с get-параметрами, а все клики пользователей будут проходить на единственной странице – точке входа;
  • Создать из этих страниц фильтров точки входа (если вы видите, что страница посещаема пользователями, например, это «товар + характеристика», вы просто создаете из этого фильтра (или набора фильтров) статическую страницу, прописываете ей метатеги, и пользователь переходит уже не на страницу фильтра, а на хорошую страницу с url не из набора get параметров, а с нормальным чпу; преимущества этого подхода также и в том, что такая страница может успешно ранжироваться в выдаче по низкочастотному запросу.

Итоговый вывод таков: посмотрите, сколько страниц с наборами фильтров у вас в этих отчетах, создайте из части из них нормальные страницы с хорошими URL, а остальные закройте любым из способов: запрет в robots, запрет индексации на странице.

Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓

Задать свой вопрос

Подписаться на рассылку

Еще по теме:


Никита Д.

Оцените мою статью: 

1 Star2 Stars3 Stars4 Stars5 Stars (Пока оценок нет)

Есть вопросы?

Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.

Siteclinic logo
Наверх

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *


Мы продвигаем: