Ответ
В зависимости от цели создания страниц фильтров будут несколько разных рекомендаций.
- Если Вы создали страницы фильтров для пользователей, а не для поисковых систем. В таком случае мы рекомендуем закрыть такие страницы от индексации поисковым роботом:
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
<meta name= «googlebot» content= «noindex, nofollow»>
Вам необходимо выполнить данную работу для всех страниц фильтров. - Менее эффективный способ закрытия таких страниц, это закрытие через robots.txt. Но во-первых, robots.txt — это лишь рекомендация, и в отличии от первого варианта может быть проигнорирован роботами. А во-вторых, данный способ получится применить, если такие страницы реализованы через подпапку или другой корень в url, к которому можно прикрепить правило Disallow.
Подробнее о том, как заблокировать доступ роботам ПС Google доступ к страницам сайта читайте в справке.
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
- Если страница фильтра создана для продвижения её в выдаче поисковых систем. В этом случае необходимо поработать над основными аспектами:
- Заказывайте ссылки на страницу фильтра. Используйте релевантный анкор с привязкой к параметрам фильтра. Но покупать ссылки необходимо с “разумной” скоростью. Как безопасно наращивать ссылочную массу мы рассказывали в статье.
- Страница фильтра должна отличаться от категории, с которой её склеили. Для этого проработайте по другому принципу метатеги и листинг. Часто встречаем автогенерируемые метатеги, в которых меняется лишь одно слово, — этого недостаточно. Что касается листинга, обратите внимание на сортировку. По возможности сделайте её в другом порядке.
- Наращивайте объемы трафика на страницу фильтра. Учитывая то, что страница является копией и она исключена, наращивать трафик можно только за счет внутренних переходов. Для этого, поработайте над внутренней перелинковкой. По возможности добавьте ссылки на страницу в разные категории.
P.S. Если речь идёт об одной или паре страниц фильтров, то сильных проблем не будет. Но если, их много это может влиять на ранжирование основных категорий, так как Google не любит дубли страниц и при этом, ошибка может не появляться в GSC.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как бороться с дублями страниц с get параметрами? Как решить критическую ошибку Яндекса "Найдены страницы дубли с Get-параметрами"? Ответ Для того чтобы исправить данную ошибку, можно воспользоваться несколькими способами: Закрыть от индексации URL...
- Как проверить сайт на наличие дублей? Как проверить сайт на наличие дублей? Где указывается информация об их существовании и как с ними бороться? Ответ Чтобы ответить на Ваш вопрос, сперва нужно...
- Анализ и поиск thin контента и неявных дублей на сайте Есть ли какие-то бесплатные решения для анализа и поиска thin контента (НКС для Яндекса), т.е. парсинга сайта на предмет похожих страниц, но не одинаковых? Например,...
- Как устранить дублирование запроса на несколько страниц? Есть ИМ, у которого самый жирный запрос на главной странице, но под него же есть посадочная в каталоге. Понятно, что идет перебивка, но запрос +-...
- Как решить проблему дублей страниц с .php и без в конце URL страниц? Есть страница site.ru/stranica.php, как оказалось эта страница открывается и по адресу без php, то есть site.ru/stranica. Проверили по консоли - часть таких дублей уже проиндексирована,...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Получили ответы на все вопросы"
Павел
Kidride.ru"Яндекс снял фильтр уже после первой заявки"
Люк Усса
CreditProsto.ru"Изменения положительно отразились на позициях сайта"
Павел Любимов
Jazztour.ru