Ответ
В Яндексе для правильной обработки страниц с GET параметрами хорошо работает директива Сlean-param в файле robots.txt. Она не только помогает избежать дублирования страниц, но и снимает нагрузку на сервер, поэтому это предпочтительный метод решения проблемы.
Синтаксис директивы следующий:
Clean-param: p0[&p1&p2&..&pn] [path]
p — динамические параметры. Если их несколько, перечисляем через амперсанд, например, sid&sort
path — префикс, указывающий путь применения директивы. Например, если прописать /catalog/oboi/, то директива будет применяться только для данного раздела. Если ничего не прописать – для всего сайта.
К примеру, для страниц фильтров
https://mysite.com/shop/category/?sort_field=PRICE&order=asc
https://mysite.com/shop/category/?sort_field=PRICE&order=asc
директива будет следующая:
Clean-param: sort_field&order /shop/category/
Подробнее о данной директиве можно прочитать в Яндекс Справке.
Параллельно нужно прописать канонические ссылки на страницах с параметрами на основную.
Если же с данной директивой по какой-то причине возникают проблемы, можно закрыть страницы с помощью meta-тега noindex – ‹meta name= «yandex» content= «noindex, follow»›.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как решить проблему дублирования страницы фильтра и страницы категории? Была создана фильтр страница категории со своими ЧПУ, title и т. д. Но Google считает ее полной копией категории. Как лечить? Ответ В зависимости от...
- Стоит ли дублировать уникальный контент с сайта на сторонних площадках? Как лучше поступить, если хочется писать информационные статьи на сайт и так же раскидывать их по внешним ресурсам типа дзена, vc и пр.? Я тут...
- Как проверить сайт на наличие дублей? Как проверить сайт на наличие дублей? Где указывается информация об их существовании и как с ними бороться? Ответ Чтобы ответить на Ваш вопрос, сперва нужно...
- Как проверить сайт на появление дублей страниц или страниц-каннибалов? Как проверить сайт на появление дублей страниц или страниц-каннибалов? Ответ Проверить наличие дублей можно сканируя сайт парсерами, например: Screaming Frog SEO Spider Netpeak Spider Также...
- Можно ли скрыть от индексации дублирующийся контент мобильной версии? Как надежно и безопасно можно закрыть от индексации часть контента от Яндекса и Гугла? Дело в том, что на сайте переработали CMS и в результате,...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Поисковик вернул сайту «отобранных» ранее посетителей"
Александр Люкс
English-easy.info"Мы увидели рост по целому пулу запросов"
Деревянко П.Н.
Expertology.ru"Работы на 100%. Очень рекомендую"
Емельянов Данил Юрьевич
Tortoliano.ru