Как решить критическую ошибку Яндекса «Найдены страницы дубли с Get-параметрами»?
Ответ
Для того чтобы исправить данную ошибку, можно воспользоваться несколькими способами:
- Закрыть от индексации URL с динамическими параметрами через директиву (Disallow) в файле robots.txt.
- Через директиву (Clean-param) в robots.txt. Данное правило работает лишь с поисковой системой Яндекс и является их основным советом по устранению динамических дублей с метками. С его помощью можно гибко настраивать какие именно GET-параметры вы хотите закрыть от индексации и перенаправлять все показатели на основную, выбранную вами страницу. Подробно про использование и настройку директивы Clean-param мы писали тут.
- Canonical. С помощью атрибута (canonical), указанного в мета-тегах, вы сможете перенаправлять нужные параметры с дублирующих страниц на основную. Но нужно помнить, что правило (canonical) не является строгим и может быть проигнорировано поисковыми роботами и часть ненужных страниц все равно попадет в индекс.
- Noindex. С помощью данного правила, указанного в мета-тегах, вы сможете запретить индексацию (noindex) страниц с GET-параметрами. Директива (noindex) является более строгим правилом, позволяющее запретить индексацию страниц, а из недостатков не передает количественные показатели на основную страницу.
Каждый из предложенных вариантов имеет свои особенности. Выбирать способы решения проблемы дублирования страниц нужно внимательно и под каждый сайт индивидуально.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Подписаться на рассылку
Еще по теме:
- Как решить проблему дублей страниц с .php и без в конце URL страниц? Есть страница site.ru/stranica.php, как оказалось эта страница открывается и по адресу без php, то есть site.ru/stranica. Проверили по консоли - часть таких дублей уже проиндексирована,...
- Настройка директивы Сlean-param для борьбы с дублями страниц в Яндексе? Яндекс в последнее время сильно ругается на get параметры, сначала прописывали в robots — помогало, сейчас уже не помогает. Как победить и как решить эту...
- Что делать с большим количеством дублей страниц на сайте? На сайте порядка 75к страниц в индексе. Образовалось около 1000 страниц- дублей контента - по Title и содержимому. Их лучше удалить полностью или склеить страницы...
- Нужно ли дублировать раздел статей для каждого региона? Думаем над настройкой папок для регионов, чтобы охватывать ГЕО. У меня возник вопрос: стоит ли раздел статей дублировать в каждом регионе? Грубо говоря у меня...
- Стоит ли дублировать уникальный контент с сайта на сторонних площадках? Как лучше поступить, если хочется писать информационные статьи на сайт и так же раскидывать их по внешним ресурсам типа дзена, vc и пр.? Я тут...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Здесь можно реанимировать сайт даже со страшным диагнозом"
Денис Кушнир
Aden-stroy.ru"Повторным аудитом остались довольны на все 100%"
Дмитрий Сокол
Hostings.info"Поисковик вернул сайту «отобранных» ранее посетителей"
Александр Люкс
English-easy.info