Ответ
Чтобы найти источник данных ссылок необходимо:
- Просканировать сайт любым удобным краулером для обнаружения данных URL. Проверьте, ссылаются ли на них канонические страницы.
- Проанализировать файлы .htaccess или другие места, где могут быть настроены перенаправления на данные URL.
- Проверить журналы сервера для обнаружения запросов с такими URL-адресами или к ним. Это может помочь вам определить, какие ресурсы и страницы их вызывают.
- В Google Analytics проверьте переходы к этим URL, так вы сможете проследить источник переходов.
- Проверьте наличие внешних ссылок на данные URL.
Если источником данных URL являются внешние сайты и никак повлиять на их генерацию нельзя, например, эти URL генерируются в результате переходов с социальных сетей, то их стоит закрыть от индексации в файле robots.txt.
Если источником является работа движка сайта или сервера, то необходимо исправить данный баг и удалить нежелательные страницы, присвоив им 404 или 410 ответ сервера.
Если же исправить баг нельзя — то остается прописать правило в файле robots.txt, которое будет запрещать сканирование данных URL. Также можно настроить rel= «canonical» со страниц дублей на страницы оригиналы (без ?*** в конце URL).
Если у ненужных вам страниц появились внешние ссылки — настройте 301 редирект на канонические URL.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как найти технические и смысловые дубли страниц? Как найти дубли страниц? Причем интересуют и технические дубли (как они могут образовываться?) и смысловые дубли (откуда они берутся и как их обнаружить можно)? Ответ...
- Что делать с дублем сайта из-за индексации IP адреса? Увидел в Гугле проиндексированный айпи адрес, вместо домена. Подскажите, как это могло произойти? Не будет ли конфликтовать основной домен с айпи адресом? Как исправить ошибку?...
- Можно ли скрыть от индексации дублирующийся контент мобильной версии? Как надежно и безопасно можно закрыть от индексации часть контента от Яндекса и Гугла? Дело в том, что на сайте переработали CMS и в результате,...
- Как правильно поступать с синонимами в поиске/тегах на сайте, чтобы не допускать смысловые дубли? Вопрос по синонимам в поиске/тегах на сайте. Такие страницы имеют практически одинаковый контент. Как вы поступаете с такими запросами? 1️⃣ Выбрать основной термин и редиректить...
- Какие есть способы борьбы с дублями страниц из-за get-параметров? Подскажите самый эффективный способ борьбы с дублями страниц из-за get параметров? Ответ Для эффективной борьбы с дублями страниц из-за GET-параметров рекомендуем: добавить соответствующую директиву (Disallow)...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Сайт выведен из-под фильтра"
Коробов С.А.
Pechimax.ru"Не ожидал получить настолько качественный анализ и советы за минимальную цену"
Дмитрий Сокол
Hostings.info"Я получил рекомендации и процесс сдвинулся с мёртвой точки."


