Ответ
Для поисковой системы Google в файле robots.txt прописываются правила сканирования сайта, но не индексирования. То есть сканирование может быть запрещено, но поисковая система добавит в индекс данный URL адрес, так как нашла его другими способами. Google не будет напрямую сканировать и индексировать контент, указанный в файле robots.txt, однако URL с закрытым доступом может быть найден и добавлен в индекс из-за ссылок на других сайтах. Таким образом, запреты в файле robots.txt не исключают появление URL и других общедоступных сведений, например текстов ссылок, в результатах поиска Google [Справка Google].
Если учитывать, что чаще всего в robots.txt закрывают некачественные, технические, пустые, частичные либо полные дубли страницы, то появление таких страниц в индексе могут негативно повлиять на ранжирование сайта.
Чтобы исправить ошибку, нужно выполнить следующие действия:
- Проверить файлы sitemap на наличие заблокированных страниц в robots.txt, если есть такие — убрать.
- Проверить все бэклинки на сайт, убедится что нет ссылок на страницы, заблокированные в robots.txt.
- Убрать из файла Robots.txt директивы, которые запрещают сканирование указанных в отчете url-адресов.
- Закрыть от индексации все некачественные url-адреса при помощи мета тега robots либо X-Robots-Tag, либо удалить страницу.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как защитить авторские права на первоисточник контента из закрытого платного раздела сайта? У нас есть закрытый платный раздел сайта, там публикуются уникальные статьи. Но они естественно не доступны из поиска рядовому пользователю. Вопрос: возможно ли как-то Google...
- Как поисковые системы относятся к прелоадеру после отключения на сайте JS? При отключении JS на сайте появляется значок прогрузки. Как поисковые системы относятся к прелоадеру (значок прогрузки после отключения на сайте JS)? Ответ Поисковые системы, такие...
- Насколько эффективен покупной крауд: плюсы и минусы крауд-ссылок с бирж Имеет ли смысл покупать крауд-ссылки на биржах? Или это пустая трата денег и нужно искать и ставить самому? Ответ Крауд-ссылки используют для уникализации и придания...
- Стоит сейчас выделять ключевые слова в тексте жирным? Стоит сейчас выделять ключевые слова в тексте жирным? Если нет, то это просто бесполезно или накладывает какие-то негативные эффекты? Ответ По мнению поисковиков чрезмерное выделение...
- Что делать с карточками товаров при переезде интернет-магазина? Планируем переезд ИМ на новый домен. Редирект с основных категорий, фильтров и т.д. уже настроили. Что делать с карточками товаров? Их тысячи, настраивать тысячи редиректов?...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Сайт был выведен из-под фильтра за 3,5 месяца"
Игорь Логинов
Stomed.ru"Изменения положительно отразились на позициях сайта"
Павел Любимов
Jazztour.ru"Сайт вышел из-под фильтра, переспам был ликвидирован"
Вячеслав Мусякаев
Vprognoze.ru