Ответ
Для поисковой системы Google в файле robots.txt прописываются правила сканирования сайта, но не индексирования. То есть сканирование может быть запрещено, но поисковая система добавит в индекс данный URL адрес, так как нашла его другими способами. Google не будет напрямую сканировать и индексировать контент, указанный в файле robots.txt, однако URL с закрытым доступом может быть найден и добавлен в индекс из-за ссылок на других сайтах. Таким образом, запреты в файле robots.txt не исключают появление URL и других общедоступных сведений, например текстов ссылок, в результатах поиска Google [Справка Google].
Если учитывать, что чаще всего в robots.txt закрывают некачественные, технические, пустые, частичные либо полные дубли страницы, то появление таких страниц в индексе могут негативно повлиять на ранжирование сайта.
Чтобы исправить ошибку, нужно выполнить следующие действия:
- Проверить файлы sitemap на наличие заблокированных страниц в robots.txt, если есть такие — убрать.
- Проверить все бэклинки на сайт, убедится что нет ссылок на страницы, заблокированные в robots.txt.
- Убрать из файла Robots.txt директивы, которые запрещают сканирование указанных в отчете url-адресов.
- Закрыть от индексации все некачественные url-адреса при помощи мета тега robots либо X-Robots-Tag, либо удалить страницу.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Нужно ли дублировать раздел статей для каждого региона? Думаем над настройкой папок для регионов, чтобы охватывать ГЕО. У меня возник вопрос: стоит ли раздел статей дублировать в каждом регионе? Грубо говоря у меня...
- Влияют ли некачественные заходы пользователей из одного региона на ранжирование сайта в Google? Ориентируемся на Google и заметили в последнее время, что трафик из конкретного региона (страны) портит все ПФ нам. Время на сайте у юзеров из этого...
- Учитывает ли Google блок отзывов на страничке как блок с контентом? Учитывает ли Google блок отзывов на страничке как блок с контентом? Учитывает ли он их как кейворды страницы или игнорирует, так как это отзывы? Ответ...
- Настройка директивы Сlean-param для борьбы с дублями страниц в Яндексе? Яндекс в последнее время сильно ругается на get параметры, сначала прописывали в robots — помогало, сейчас уже не помогает. Как победить и как решить эту...
- Товара нет в наличии: что делать с такими страницами Что делать со страницами товаров в магазине, если таких товаров больше не будет в продаже и со страницами товаров, которые временно отсутствуют? Удалять страницы и...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Работы на 100%. Очень рекомендую"
Емельянов Данил Юрьевич
Tortoliano.ru"Не с первого раза, но мы все равно победили Яндекс"
Алексей
Anapa-new.ru"Помогли разобраться с микроразметкой даже в новогодние праздники"


