+7 (495) 215-53-73

В Москве

Заказать SEO-услуги
Согласен с правилами обработки персональных данных
Скорость ответа - до 30 минут!

Главная    Вопросы по SEO, продвижению и оптимизации сайтов в Яндекс и Google    URL    Как остановить сканирование несуществующих url и почему это происходит?

Как остановить сканирование несуществующих url и почему это происходит?

Заказать SEO-услуги
Согласен с правилами обработки персональных данных
Скорость ответа - до 30 минут!
Консоль массово сканирует urlы, которых не существует: добавляет уже существующий раздел на сайте дополнительно в url (например, /news/blog/chpu/), естественно, они отдают 404, и позиции на сайте упали. Ссылок на эти урлы 100% нигде нет, откуда они берутся и как это остановить? Замешаны ли тут конкуренты?

Ответ

Проблема не в том, что Search Console сама придумывает URL – консоль лишь показывает, что Googlebot уже где-то увидел эти адреса и просканировал. Поэтому если бот массово идет на несуществующие адреса, значит для него все же где-то существует сигнал на эти URL.

Мы бы рекомендовали просканировать весь сайт с помощью парсера, чтобы выявить не находится ли источник таких ссылок в коде сайта, а затем посмотрели бы есть ли внешние источники таких url. Если причина во внешних ссылках, то скорее всего, это действительно работа конкурентов.

Вторая по вероятности причина — источник вне видимого интерфейса сайта. Google может взять URL не только из текста страницы, но и из sitemap, HTTP-заголовков, JS, микроразметки, а также из соцсетей, ТГ-каналов, открытых Google-таблиц и других источников. Поэтому то, что ссылок на первый взгляд нет, на практике часто означает только «их нет в статическом меню и тексте страницы». Часто такие фантомы всплывают после миграций, правок шаблонов, внедрения фильтров/хлебных крошек или относительных canonical/hreflang вместо абсолютных.

Сами по себе 404 не являются катастрофой. Но если таких адресов стало много, они всё же могут влиять на ранжирование и позиции сайта.

Другое дело, когда на сайте такие битые страницы признаны soft 404 (страница не найдена, но отдаёт код сервера 200 OK) — это может влиять на краулинговый бюджет и оценку качества сайта со стороны ПС. Google отдельно подчёркивает, что для удалённых и несуществующих адресов нужен корректный HTTP-статус, а не маскировка под обычную страницу.

Если вы видите чёткую закономерность в мусорных URL (например, они всегда начинаются с /news/blog/), то попробуйте временно закрыть этот паттерн через Disallow: /news/blog/.

Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓

Задать свой вопрос

Подписаться на рассылку

Еще по теме:


Анастасия Е.

anastasiia.y@siteclinic.ru

Оцените мою статью: 

1 Star2 Stars3 Stars4 Stars5 Stars (Пока оценок нет)

Есть вопросы?

Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.

Отзывы клиентов:

"Работы на 100%. Очень рекомендую"

Емельянов Данил Юрьевич

Tortoliano.ru

"Отчеты и консультации всегда исчерпывающие и действенные"

"Помогли усилить позиции и убрать не точности в структуре магазина"

Вадим Соломенцев

Sportique.ru
Все отзывы

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *


Мы продвигаем: