Ответ
Для поисковой системы Google в файле robots.txt прописываются правила сканирования сайта, но не индексирования. То есть сканирование может быть запрещено, но поисковая система добавит в индекс данный URL адрес, так как нашла его другими способами. Google не будет напрямую сканировать и индексировать контент, указанный в файле robots.txt, однако URL с закрытым доступом может быть найден и добавлен в индекс из-за ссылок на других сайтах. Таким образом, запреты в файле robots.txt не исключают появление URL и других общедоступных сведений, например текстов ссылок, в результатах поиска Google [Справка Google].
Если учитывать, что чаще всего в robots.txt закрывают некачественные, технические, пустые, частичные либо полные дубли страницы, то появление таких страниц в индексе могут негативно повлиять на ранжирование сайта.
Чтобы исправить ошибку, нужно выполнить следующие действия:
- Проверить файлы sitemap на наличие заблокированных страниц в robots.txt, если есть такие — убрать.
- Проверить все бэклинки на сайт, убедится что нет ссылок на страницы, заблокированные в robots.txt.
- Убрать из файла Robots.txt директивы, которые запрещают сканирование указанных в отчете url-адресов.
- Закрыть от индексации все некачественные url-адреса при помощи мета тега robots либо X-Robots-Tag, либо удалить страницу.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Влияет ли CTR страницы на её ранжирование в Google? Помогите разобраться: есть мнение, что высокий CTR влияет на ранжирование в Google, но в то же время получить больше кликов можно только заняв место в...
- Можно ли выделять ключевые слова тегами strong и em? Можно ли получить фильтр за переоптимизацию, если выделять ключевые слова в тексте strong и em? И как правильнее выделять текст на сайте: использовать strong и...
- Что делать со старыми статьями, которые теряют вес, трафик и актуальность? У старых страниц постепенно уменьшается трафик и актуальность статей тоже падает. Нужно ли редиректить такие страницы на новые "свежие" материалы или удалять такие страницы с...
- Какую стратегию продвижения выбрать для молодого сайта? Если сайт молодой, только запустили, стоит ли оптимизировать главную страницу и страницы категорий под НЧ запросы? Или лучше начинать двигать подкатегории, а главную под ВЧ...
- Как проверить сайт на наличие дублей? Как проверить сайт на наличие дублей? Где указывается информация об их существовании и как с ними бороться? Ответ Чтобы ответить на Ваш вопрос, сперва нужно...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Через 1,5 месяца позиции вернулись в ТОП 10"
Евтеев Антон Павлович
Ac-u.ru"Изменения положительно отразились на позициях сайта"
Павел Любимов
Jazztour.ru"Не с первого раза, но мы все равно победили Яндекс"
Алексей
Anapa-new.ru


