Ответ
В зависимости от цели создания страниц фильтров будут несколько разных рекомендаций.
- Если Вы создали страницы фильтров для пользователей, а не для поисковых систем. В таком случае мы рекомендуем закрыть такие страницы от индексации поисковым роботом:
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
<meta name= «googlebot» content= «noindex, nofollow»>
Вам необходимо выполнить данную работу для всех страниц фильтров. - Менее эффективный способ закрытия таких страниц, это закрытие через robots.txt. Но во-первых, robots.txt — это лишь рекомендация, и в отличии от первого варианта может быть проигнорирован роботами. А во-вторых, данный способ получится применить, если такие страницы реализованы через подпапку или другой корень в url, к которому можно прикрепить правило Disallow.
Подробнее о том, как заблокировать доступ роботам ПС Google доступ к страницам сайта читайте в справке.
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
- Если страница фильтра создана для продвижения её в выдаче поисковых систем. В этом случае необходимо поработать над основными аспектами:
- Заказывайте ссылки на страницу фильтра. Используйте релевантный анкор с привязкой к параметрам фильтра. Но покупать ссылки необходимо с “разумной” скоростью. Как безопасно наращивать ссылочную массу мы рассказывали в статье.
- Страница фильтра должна отличаться от категории, с которой её склеили. Для этого проработайте по другому принципу метатеги и листинг. Часто встречаем автогенерируемые метатеги, в которых меняется лишь одно слово, — этого недостаточно. Что касается листинга, обратите внимание на сортировку. По возможности сделайте её в другом порядке.
- Наращивайте объемы трафика на страницу фильтра. Учитывая то, что страница является копией и она исключена, наращивать трафик можно только за счет внутренних переходов. Для этого, поработайте над внутренней перелинковкой. По возможности добавьте ссылки на страницу в разные категории.
P.S. Если речь идёт об одной или паре страниц фильтров, то сильных проблем не будет. Но если, их много это может влиять на ранжирование основных категорий, так как Google не любит дубли страниц и при этом, ошибка может не появляться в GSC.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Стоит ли дублировать уникальный контент с сайта на сторонних площадках? Как лучше поступить, если хочется писать информационные статьи на сайт и так же раскидывать их по внешним ресурсам типа дзена, vc и пр.? Я тут...
- Как проверить сайт на наличие дублей? Как проверить сайт на наличие дублей? Где указывается информация об их существовании и как с ними бороться? Ответ Чтобы ответить на Ваш вопрос, сперва нужно...
- Что делать, если якорные ссылки создают дубли страниц? Заметил, что в блоке “Содержание статьи” ссылки реализованы через якоря, которые определяются поисковиком. Страницы эти не индексируются, тк есть rel canonical на основной урл, но...
- Какие есть способы борьбы с дублями страниц из-за get-параметров? Подскажите самый эффективный способ борьбы с дублями страниц из-за get параметров? Ответ Для эффективной борьбы с дублями страниц из-за GET-параметров рекомендуем: добавить соответствующую директиву (Disallow)...
- Как избежать появления дублей статей блога при наличии основного домена и поддоменов? Есть сайт с региональными поддоменами. Вся важная коммерческая информация генерится согласно региону (отдельный урл, адрес, номер телефона, привязка в вебмастере, все теги). Но есть одно...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Прекрасно проработанный аудит"
Денис
Eвроавто.рф"Я получил рекомендации и процесс сдвинулся с мёртвой точки."
"Изменения положительно отразились на позициях сайта"
Павел Любимов
Jazztour.ru