Ответ
В зависимости от цели создания страниц фильтров будут несколько разных рекомендаций.
- Если Вы создали страницы фильтров для пользователей, а не для поисковых систем. В таком случае мы рекомендуем закрыть такие страницы от индексации поисковым роботом:
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
<meta name= «googlebot» content= «noindex, nofollow»>
Вам необходимо выполнить данную работу для всех страниц фильтров. - Менее эффективный способ закрытия таких страниц, это закрытие через robots.txt. Но во-первых, robots.txt — это лишь рекомендация, и в отличии от первого варианта может быть проигнорирован роботами. А во-вторых, данный способ получится применить, если такие страницы реализованы через подпапку или другой корень в url, к которому можно прикрепить правило Disallow.
Подробнее о том, как заблокировать доступ роботам ПС Google доступ к страницам сайта читайте в справке.
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
- Если страница фильтра создана для продвижения её в выдаче поисковых систем. В этом случае необходимо поработать над основными аспектами:
- Заказывайте ссылки на страницу фильтра. Используйте релевантный анкор с привязкой к параметрам фильтра. Но покупать ссылки необходимо с “разумной” скоростью. Как безопасно наращивать ссылочную массу мы рассказывали в статье.
- Страница фильтра должна отличаться от категории, с которой её склеили. Для этого проработайте по другому принципу метатеги и листинг. Часто встречаем автогенерируемые метатеги, в которых меняется лишь одно слово, — этого недостаточно. Что касается листинга, обратите внимание на сортировку. По возможности сделайте её в другом порядке.
- Наращивайте объемы трафика на страницу фильтра. Учитывая то, что страница является копией и она исключена, наращивать трафик можно только за счет внутренних переходов. Для этого, поработайте над внутренней перелинковкой. По возможности добавьте ссылки на страницу в разные категории.
P.S. Если речь идёт об одной или паре страниц фильтров, то сильных проблем не будет. Но если, их много это может влиять на ранжирование основных категорий, так как Google не любит дубли страниц и при этом, ошибка может не появляться в GSC.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как проверить сайт на появление дублей страниц или страниц-каннибалов? Как проверить сайт на появление дублей страниц или страниц-каннибалов? Ответ Проверить наличие дублей можно сканируя сайт парсерами, например: Screaming Frog SEO Spider Netpeak Spider Также...
- Как решить проблему дублей страниц с .php и без в конце URL страниц? Есть страница site.ru/stranica.php, как оказалось эта страница открывается и по адресу без php, то есть site.ru/stranica. Проверили по консоли - часть таких дублей уже проиндексирована,...
- Как найти источник дублей и что с ними делать? В Google Search Console появились ссылки с непонятными символами в конце URL - ?NA, ?MA, ?ND, ?SD и т.д. Как найти источник этих страниц и...
- Как оптимальнее всего бороть со смысловыми дублями На сайте есть смысловые дубли страниц, ранжируются по одним и тем же запросам. Можно просто удалить дубли или обязательно стоит настраивать редирект? И как именно?...
- Как заставить ПС забыть про проиндексированные технические дубли страниц? На сайте были идентичные страницы (технические дубли). И все эти страницы были проиндексированы. Позиции сайта были где-то на 30+ местах. Скажите, как заставить забыть ПС...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Я получил рекомендации и процесс сдвинулся с мёртвой точки."
"Ответы, которые реально помогли в работе"
Анатолий
Photoboom.ua"Рекомендации индивидуальны, с примерами наших страниц и разделов"
София Хаушильдт
Babyplan.ru


