Ответ
Чтобы найти источник данных ссылок необходимо:
- Просканировать сайт любым удобным краулером для обнаружения данных URL. Проверьте, ссылаются ли на них канонические страницы.
- Проанализировать файлы .htaccess или другие места, где могут быть настроены перенаправления на данные URL.
- Проверить журналы сервера для обнаружения запросов с такими URL-адресами или к ним. Это может помочь вам определить, какие ресурсы и страницы их вызывают.
- В Google Analytics проверьте переходы к этим URL, так вы сможете проследить источник переходов.
- Проверьте наличие внешних ссылок на данные URL.
Если источником данных URL являются внешние сайты и никак повлиять на их генерацию нельзя, например, эти URL генерируются в результате переходов с социальных сетей, то их стоит закрыть от индексации в файле robots.txt.
Если источником является работа движка сайта или сервера, то необходимо исправить данный баг и удалить нежелательные страницы, присвоив им 404 или 410 ответ сервера.
Если же исправить баг нельзя — то остается прописать правило в файле robots.txt, которое будет запрещать сканирование данных URL. Также можно настроить rel= «canonical» со страниц дублей на страницы оригиналы (без ?*** в конце URL).
Если у ненужных вам страниц появились внешние ссылки — настройте 301 редирект на канонические URL.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как избежать появления дублей статей блога при наличии основного домена и поддоменов? Есть сайт с региональными поддоменами. Вся важная коммерческая информация генерится согласно региону (отдельный урл, адрес, номер телефона, привязка в вебмастере, все теги). Но есть одно...
- Как устранить дублирование запроса на несколько страниц? Есть ИМ, у которого самый жирный запрос на главной странице, но под него же есть посадочная в каталоге. Понятно, что идет перебивка, но запрос +-...
- Как решить проблему дублирования страницы фильтра и страницы категории? Была создана фильтр страница категории со своими ЧПУ, title и т. д. Но Google считает ее полной копией категории. Как лечить? Ответ В зависимости от...
- Анализ и поиск thin контента и неявных дублей на сайте Есть ли какие-то бесплатные решения для анализа и поиска thin контента (НКС для Яндекса), т.е. парсинга сайта на предмет похожих страниц, но не одинаковых? Например,...
- Нужно ли дублировать раздел статей для каждого региона? Думаем над настройкой папок для регионов, чтобы охватывать ГЕО. У меня возник вопрос: стоит ли раздел статей дублировать в каждом регионе? Грубо говоря у меня...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Через 1,5 месяца позиции вернулись в ТОП 10"
Евтеев Антон Павлович
Ac-u.ru"Сайт вышел из-под фильтра, переспам был ликвидирован"
Вячеслав Мусякаев
Vprognoze.ru"Прекрасно проработанный аудит"
Денис
Eвроавто.рф