Ответ
Для поисковой системы Google в файле robots.txt прописываются правила сканирования сайта, но не индексирования. То есть сканирование может быть запрещено, но поисковая система добавит в индекс данный URL адрес, так как нашла его другими способами. Google не будет напрямую сканировать и индексировать контент, указанный в файле robots.txt, однако URL с закрытым доступом может быть найден и добавлен в индекс из-за ссылок на других сайтах. Таким образом, запреты в файле robots.txt не исключают появление URL и других общедоступных сведений, например текстов ссылок, в результатах поиска Google [Справка Google].
Если учитывать, что чаще всего в robots.txt закрывают некачественные, технические, пустые, частичные либо полные дубли страницы, то появление таких страниц в индексе могут негативно повлиять на ранжирование сайта.
Чтобы исправить ошибку, нужно выполнить следующие действия:
- Проверить файлы sitemap на наличие заблокированных страниц в robots.txt, если есть такие — убрать.
- Проверить все бэклинки на сайт, убедится что нет ссылок на страницы, заблокированные в robots.txt.
- Убрать из файла Robots.txt директивы, которые запрещают сканирование указанных в отчете url-адресов.
- Закрыть от индексации все некачественные url-адреса при помощи мета тега robots либо X-Robots-Tag, либо удалить страницу.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Ускорение переиндексации при наличии 301 редиректа Поменяли структуру сайта, при этом сменились URL, со старых страниц был сделан 301 редирект на новые. Как быстро должны переиндексироваться страницы с новыми URL в...
- С чего стоит начинать изучение продвижения PBN — сетками? С чего начать изучение PBN для раскрутки основного сайта? В моем понимании, самое простое — это регистрация новых доменов, наполнение их контентом и прогон через...
- Можно ли проиндексировать покупные ссылки, создав для них карту сайта у себя на сайте? Читал про интересный способ индексации покупных ссылок: на своём домене создаётся страница, закрытая от индексации. На ней есть список ссылок, которые нужно загнать в индекс....
- Как часто проводить ссылочный аудит конкурентов и чистку своего профиля от спамных ссылок? Как часто нужно проводить ссылочный аудит конкурентов? И как часто нужно проводить чистку своего профиля от спамных ссылок? Ответ Мы часто пишем, что для каждого...
- Как ускорить индексацию молодого сайта в Google? Есть мнение, что Google не сильно торопится индексировать новые сайты. Правда ли это и как можно быстро скормить новенький ИМ Google? Какие действия помогут? Ответ...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Получили ответы на все вопросы"
Павел
Kidride.ru"Рекомендации помогли улучшить позиции сайта, которые серьезно просели"
Артур Шаймухаметов
Boogie-shop.ru"Ответы, которые реально помогли в работе"
Анатолий
Photoboom.ua