Ответ
В зависимости от цели создания страниц фильтров будут несколько разных рекомендаций.
- Если Вы создали страницы фильтров для пользователей, а не для поисковых систем. В таком случае мы рекомендуем закрыть такие страницы от индексации поисковым роботом:
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
<meta name= «googlebot» content= «noindex, nofollow»>
Вам необходимо выполнить данную работу для всех страниц фильтров. - Менее эффективный способ закрытия таких страниц, это закрытие через robots.txt. Но во-первых, robots.txt — это лишь рекомендация, и в отличии от первого варианта может быть проигнорирован роботами. А во-вторых, данный способ получится применить, если такие страницы реализованы через подпапку или другой корень в url, к которому можно прикрепить правило Disallow.
Подробнее о том, как заблокировать доступ роботам ПС Google доступ к страницам сайта читайте в справке.
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
- Если страница фильтра создана для продвижения её в выдаче поисковых систем. В этом случае необходимо поработать над основными аспектами:
- Заказывайте ссылки на страницу фильтра. Используйте релевантный анкор с привязкой к параметрам фильтра. Но покупать ссылки необходимо с “разумной” скоростью. Как безопасно наращивать ссылочную массу мы рассказывали в статье.
- Страница фильтра должна отличаться от категории, с которой её склеили. Для этого проработайте по другому принципу метатеги и листинг. Часто встречаем автогенерируемые метатеги, в которых меняется лишь одно слово, — этого недостаточно. Что касается листинга, обратите внимание на сортировку. По возможности сделайте её в другом порядке.
- Наращивайте объемы трафика на страницу фильтра. Учитывая то, что страница является копией и она исключена, наращивать трафик можно только за счет внутренних переходов. Для этого, поработайте над внутренней перелинковкой. По возможности добавьте ссылки на страницу в разные категории.
P.S. Если речь идёт об одной или паре страниц фильтров, то сильных проблем не будет. Но если, их много это может влиять на ранжирование основных категорий, так как Google не любит дубли страниц и при этом, ошибка может не появляться в GSC.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Что делать с дублем сайта из-за индексации IP адреса? Увидел в Гугле проиндексированный айпи адрес, вместо домена. Подскажите, как это могло произойти? Не будет ли конфликтовать основной домен с айпи адресом? Как исправить ошибку?...
- Можно ли использовать текстовое описание конкурентов в товарной карточке? У нас условно говоря 200 товарных позиций, которые не продаются. Думаем, необходимо залить тексты, но под все 200 не успеваем сейчас написать. Можно ли сейчас...
- Можно ли скрыть от индексации дублирующийся контент мобильной версии? Как надежно и безопасно можно закрыть от индексации часть контента от Яндекса и Гугла? Дело в том, что на сайте переработали CMS и в результате,...
- Как найти источник дублей и что с ними делать? В Google Search Console появились ссылки с непонятными символами в конце URL - ?NA, ?MA, ?ND, ?SD и т.д. Как найти источник этих страниц и...
- Что делать, если проиндексировался тестовый домен с дублями страниц сайта? Сайт попал в индекс Яндекса, он ещё дорабатывается и наполнен на 80% + он на рабочем (тестовом) домене. Чем может быть чревата такая ситуация при...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Сайт вышел из-под фильтра, переспам был ликвидирован"
Вячеслав Мусякаев
Vprognoze.ru"Ощутимый рост позиций после второго апа"
Абрамов Дмитрий Сергеевич
Dvermezhkom-service.ru"Я получил рекомендации и процесс сдвинулся с мёртвой точки."