Как решить критическую ошибку Яндекса «Найдены страницы дубли с Get-параметрами»?
Ответ
Для того чтобы исправить данную ошибку, можно воспользоваться несколькими способами:
- Закрыть от индексации URL с динамическими параметрами через директиву (Disallow) в файле robots.txt.
- Через директиву (Clean-param) в robots.txt. Данное правило работает лишь с поисковой системой Яндекс и является их основным советом по устранению динамических дублей с метками. С его помощью можно гибко настраивать какие именно GET-параметры вы хотите закрыть от индексации и перенаправлять все показатели на основную, выбранную вами страницу. Подробно про использование и настройку директивы Clean-param мы писали тут.
- Canonical. С помощью атрибута (canonical), указанного в мета-тегах, вы сможете перенаправлять нужные параметры с дублирующих страниц на основную. Но нужно помнить, что правило (canonical) не является строгим и может быть проигнорировано поисковыми роботами и часть ненужных страниц все равно попадет в индекс.
- Noindex. С помощью данного правила, указанного в мета-тегах, вы сможете запретить индексацию (noindex) страниц с GET-параметрами. Директива (noindex) является более строгим правилом, позволяющее запретить индексацию страниц, а из недостатков не передает количественные показатели на основную страницу.
Каждый из предложенных вариантов имеет свои особенности. Выбирать способы решения проблемы дублирования страниц нужно внимательно и под каждый сайт индивидуально.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Подписаться на рассылку
Еще по теме:
- Можно ли скрыть от индексации дублирующийся контент мобильной версии? Как надежно и безопасно можно закрыть от индексации часть контента от Яндекса и Гугла? Дело в том, что на сайте переработали CMS и в результате,...
- Анализ и поиск thin контента и неявных дублей на сайте Есть ли какие-то бесплатные решения для анализа и поиска thin контента (НКС для Яндекса), т.е. парсинга сайта на предмет похожих страниц, но не одинаковых? Например,...
- Как проверить сайт на появление дублей страниц или страниц-каннибалов? Как проверить сайт на появление дублей страниц или страниц-каннибалов? Ответ Проверить наличие дублей можно сканируя сайт парсерами, например: Screaming Frog SEO Spider Netpeak Spider Также...
- Как решить проблему дублей страниц с .php и без в конце URL страниц? Есть страница site.ru/stranica.php, как оказалось эта страница открывается и по адресу без php, то есть site.ru/stranica. Проверили по консоли - часть таких дублей уже проиндексирована,...
- Что делать, если проиндексировался тестовый домен с дублями страниц сайта? Сайт попал в индекс Яндекса, он ещё дорабатывается и наполнен на 80% + он на рабочем (тестовом) домене. Чем может быть чревата такая ситуация при...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Помогли усилить позиции и убрать не точности в структуре магазина"
Вадим Соломенцев
Sportique.ru"Рекомендации индивидуальны, с примерами наших страниц и разделов"
София Хаушильдт
Babyplan.ru"Не с первого раза, но мы все равно победили Яндекс"
Алексей
Anapa-new.ru