Ответ
В Яндексе для правильной обработки страниц с GET параметрами хорошо работает директива Сlean-param в файле robots.txt. Она не только помогает избежать дублирования страниц, но и снимает нагрузку на сервер, поэтому это предпочтительный метод решения проблемы.
Синтаксис директивы следующий:
Clean-param: p0[&p1&p2&..&pn] [path]
p — динамические параметры. Если их несколько, перечисляем через амперсанд, например, sid&sort
path — префикс, указывающий путь применения директивы. Например, если прописать /catalog/oboi/, то директива будет применяться только для данного раздела. Если ничего не прописать – для всего сайта.
К примеру, для страниц фильтров
https://mysite.com/shop/category/?sort_field=PRICE&order=asc
https://mysite.com/shop/category/?sort_field=PRICE&order=asc
директива будет следующая:
Clean-param: sort_field&order /shop/category/
Подробнее о данной директиве можно прочитать в Яндекс Справке.
Параллельно нужно прописать канонические ссылки на страницах с параметрами на основную.
Если же с данной директивой по какой-то причине возникают проблемы, можно закрыть страницы с помощью meta-тега noindex – ‹meta name= «yandex» content= «noindex, follow»›.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как найти источник дублей и что с ними делать? В Google Search Console появились ссылки с непонятными символами в конце URL - ?NA, ?MA, ?ND, ?SD и т.д. Как найти источник этих страниц и...
- Что делать, если якорные ссылки создают дубли страниц? Заметил, что в блоке “Содержание статьи” ссылки реализованы через якоря, которые определяются поисковиком. Страницы эти не индексируются, тк есть rel canonical на основной урл, но...
- Как избежать появления дублей статей блога при наличии основного домена и поддоменов? Есть сайт с региональными поддоменами. Вся важная коммерческая информация генерится согласно региону (отдельный урл, адрес, номер телефона, привязка в вебмастере, все теги). Но есть одно...
- Анализ и поиск thin контента и неявных дублей на сайте Есть ли какие-то бесплатные решения для анализа и поиска thin контента (НКС для Яндекса), т.е. парсинга сайта на предмет похожих страниц, но не одинаковых? Например,...
- Как оптимальнее всего бороть со смысловыми дублями На сайте есть смысловые дубли страниц, ранжируются по одним и тем же запросам. Можно просто удалить дубли или обязательно стоит настраивать редирект? И как именно?...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Ощутимый рост позиций после второго апа"
Абрамов Дмитрий Сергеевич
Dvermezhkom-service.ru"Наблюдаем стремительный и уверенный рост трафика"
Пилицын Василий Сергеевич
Seatscan.ru"Яндекс снял фильтр уже после первой заявки"
Люк Усса
CreditProsto.ru