Ответ
Чтобы найти источник данных ссылок необходимо:
- Просканировать сайт любым удобным краулером для обнаружения данных URL. Проверьте, ссылаются ли на них канонические страницы.
- Проанализировать файлы .htaccess или другие места, где могут быть настроены перенаправления на данные URL.
- Проверить журналы сервера для обнаружения запросов с такими URL-адресами или к ним. Это может помочь вам определить, какие ресурсы и страницы их вызывают.
- В Google Analytics проверьте переходы к этим URL, так вы сможете проследить источник переходов.
- Проверьте наличие внешних ссылок на данные URL.
Если источником данных URL являются внешние сайты и никак повлиять на их генерацию нельзя, например, эти URL генерируются в результате переходов с социальных сетей, то их стоит закрыть от индексации в файле robots.txt.
Если источником является работа движка сайта или сервера, то необходимо исправить данный баг и удалить нежелательные страницы, присвоив им 404 или 410 ответ сервера.
Если же исправить баг нельзя — то остается прописать правило в файле robots.txt, которое будет запрещать сканирование данных URL. Также можно настроить rel= «canonical» со страниц дублей на страницы оригиналы (без ?*** в конце URL).
Если у ненужных вам страниц появились внешние ссылки — настройте 301 редирект на канонические URL.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Настройка директивы Сlean-param для борьбы с дублями страниц в Яндексе? Яндекс в последнее время сильно ругается на get параметры, сначала прописывали в robots — помогало, сейчас уже не помогает. Как победить и как решить эту...
- Как оптимальнее всего бороть со смысловыми дублями На сайте есть смысловые дубли страниц, ранжируются по одним и тем же запросам. Можно просто удалить дубли или обязательно стоит настраивать редирект? И как именно?...
- Можно ли скрыть от индексации дублирующийся контент мобильной версии? Как надежно и безопасно можно закрыть от индексации часть контента от Яндекса и Гугла? Дело в том, что на сайте переработали CMS и в результате,...
- Анализ и поиск thin контента и неявных дублей на сайте Есть ли какие-то бесплатные решения для анализа и поиска thin контента (НКС для Яндекса), т.е. парсинга сайта на предмет похожих страниц, но не одинаковых? Например,...
- Какие есть способы борьбы с дублями страниц из-за get-параметров? Подскажите самый эффективный способ борьбы с дублями страниц из-за get параметров? Ответ Для эффективной борьбы с дублями страниц из-за GET-параметров рекомендуем: добавить соответствующую директиву (Disallow)...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Сайт был выведен из-под фильтра за 3,5 месяца"
Игорь Логинов
Stomed.ru"Мы увидели рост по целому пулу запросов"
Деревянко П.Н.
Expertology.ru"Помогли усилить позиции и убрать не точности в структуре магазина"
Вадим Соломенцев
Sportique.ru