Ответ
В зависимости от цели создания страниц фильтров будут несколько разных рекомендаций.
- Если Вы создали страницы фильтров для пользователей, а не для поисковых систем. В таком случае мы рекомендуем закрыть такие страницы от индексации поисковым роботом:
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
<meta name= «googlebot» content= «noindex, nofollow»>
Вам необходимо выполнить данную работу для всех страниц фильтров. - Менее эффективный способ закрытия таких страниц, это закрытие через robots.txt. Но во-первых, robots.txt — это лишь рекомендация, и в отличии от первого варианта может быть проигнорирован роботами. А во-вторых, данный способ получится применить, если такие страницы реализованы через подпапку или другой корень в url, к которому можно прикрепить правило Disallow.
Подробнее о том, как заблокировать доступ роботам ПС Google доступ к страницам сайта читайте в справке.
- Заблокируйте доступ роботу Googlebot с помощью следующего метатега:
- Если страница фильтра создана для продвижения её в выдаче поисковых систем. В этом случае необходимо поработать над основными аспектами:
- Заказывайте ссылки на страницу фильтра. Используйте релевантный анкор с привязкой к параметрам фильтра. Но покупать ссылки необходимо с “разумной” скоростью. Как безопасно наращивать ссылочную массу мы рассказывали в статье.
- Страница фильтра должна отличаться от категории, с которой её склеили. Для этого проработайте по другому принципу метатеги и листинг. Часто встречаем автогенерируемые метатеги, в которых меняется лишь одно слово, — этого недостаточно. Что касается листинга, обратите внимание на сортировку. По возможности сделайте её в другом порядке.
- Наращивайте объемы трафика на страницу фильтра. Учитывая то, что страница является копией и она исключена, наращивать трафик можно только за счет внутренних переходов. Для этого, поработайте над внутренней перелинковкой. По возможности добавьте ссылки на страницу в разные категории.
P.S. Если речь идёт об одной или паре страниц фильтров, то сильных проблем не будет. Но если, их много это может влиять на ранжирование основных категорий, так как Google не любит дубли страниц и при этом, ошибка может не появляться в GSC.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Можно ли скрыть от индексации дублирующийся контент мобильной версии? Как надежно и безопасно можно закрыть от индексации часть контента от Яндекса и Гугла? Дело в том, что на сайте переработали CMS и в результате,...
- Стоит ли дублировать уникальный контент с сайта на сторонних площадках? Как лучше поступить, если хочется писать информационные статьи на сайт и так же раскидывать их по внешним ресурсам типа дзена, vc и пр.? Я тут...
- Как заставить ПС забыть про проиндексированные технические дубли страниц? На сайте были идентичные страницы (технические дубли). И все эти страницы были проиндексированы. Позиции сайта были где-то на 30+ местах. Скажите, как заставить забыть ПС...
- Что делать с большим количеством дублей страниц на сайте? На сайте порядка 75к страниц в индексе. Образовалось около 1000 страниц- дублей контента - по Title и содержимому. Их лучше удалить полностью или склеить страницы...
- Как бороться с дублями страниц с get параметрами? Как решить критическую ошибку Яндекса "Найдены страницы дубли с Get-параметрами"? Ответ Для того чтобы исправить данную ошибку, можно воспользоваться несколькими способами: Закрыть от индексации URL...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Сайт вышел из-под фильтра, переспам был ликвидирован"
Вячеслав Мусякаев
Vprognoze.ru"Через 1,5 месяца позиции вернулись в ТОП 10"
Евтеев Антон Павлович
Ac-u.ru"Не с первого раза, но мы все равно победили Яндекс"
Алексей
Anapa-new.ru


