Ответ
Страницы с GET-параметрами в URL нежелательно оставлять открытыми для поисковых роботов, так как они приводят к дублированию страниц, а еще напрасно расходуют краулинговый бюджет.
Директива Clean-param в Robots.txt не только решает данную проблему, но и передает основному URL накопленные на страницах с GET параметрами показатели. Однако, эта директива работает только для роботов Яндекса.
Синтаксис директивы следующий:
Clean-param: p0[&p1&p2&..&pn] [path]
p — динамические параметры. Если их несколько, перечисляем через амперсанд, например, sid&sort
path — префикс, указывающий путь применения директивы. Например, если прописать /catalog/oboi/, то директива будет применяться только для данного раздела. Если ничего не прописать – для всего сайта.
https://mysite.com/shop/all/good1?partner_fid=1
https://mysite.com/shop/all/good1?partner_fid=2
Директива будет следующая:
Clean-param: partner_fid / shop
Подробнее о данной директиве можно прочитать в Яндекс Справке.
Для Google есть следующие варианты решения проблемы:
- Запретить сканирование URL с GET параметрами вручную с помощью инструмента «Параметры URL» в Search Console (можно найти в разделе «Прежние инструменты»). Подробнее в Справке Search Console.
- Использовать мета-тег <meta name= «robots» content= «noindex, nofollow» /> на данных страницах.
Параллельно нужно указать в атрибуте Canonical страниц с GET параметрами ссылку на основную версию страницы.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как проверить маршрут поискового робота по сайту и увеличить частоту индексации страниц? Очень странно попадают страницы в индекс сайта - то днями ждать нужно, то сразу после создания. Как проверить маршрут робота по сайту? Хочу узнать причину...
- Как правильно подвязать группы страниц AMP мобильной и основной версии сайта? На сайте настроены AMP-страницы, мобильная версия реализована на поддомене, плюс есть основная html версия страниц. Как избежать проблем с дублированием контента и определением канонической страницы?...
- Почему Google не индексирует региональные поддомены и как решить проблему? Есть сайт с региональными языковыми поддоменами. С индексацией главного сайта проблем нет, но вот страницы поддоменов Google никак не хочет индексировать. Практически все "Просканировано, но...
- Что делать, если проиндексировался тестовый домен с дублями страниц сайта? Сайт попал в индекс Яндекса, он ещё дорабатывается и наполнен на 80% + он на рабочем (тестовом) домене. Чем может быть чревата такая ситуация при...
- Как переиндексировать около 1 миллиона страниц в Google? Есть ли сравнительно недорогой метод, чтобы вынудить googlebot переиндексировать около 1 миллиона страниц? А то по ошибке при редизайне новые шаблоны с кривым иннер линкингом...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Прошло не так много времени, но первые результаты уже налицо"
Евгений Ильин
Best-stroy.ru"Не с первого раза, но мы все равно победили Яндекс"
Алексей
Anapa-new.ru"Яндекс снял фильтр уже после первой заявки"
Люк Усса
CreditProsto.ru


