Ответ
Сам факт того, что страницы видны через site: оператор не означает, что страницы доступны к индексации и на них нет тега. Это лишь индикатор того, что страницы физически находятся в индексе поисковой системы и, возможно, робот еще не успел их обойти, чтобы обновить статус.
Чтобы понять, в чем именно причина такой проблемы, нужно проверить:
- Как видит бот эти страницы с помощью Search Console. Если X-Robots-Tag есть, то консоль это покажет. Альтернативно можно использовать онлайн-сервисы проверки HTTP-заголовков.
- Сетевые логи в браузере (Network tab в DevTools) при загрузке проблемных страниц — там тоже будут видны все заголовки ответа сервера.
Если по факту тега на страницах нет, но Лягушка показывает их как закрытые от индексации — это явный признак некорректной работы инструмента сканирования или неправильных настроек парсинга.
1️⃣ Различия в User-Agent:
Screaming Frog по умолчанию использует свой User-Agent. Может быть такое, что сервер может отдавать разные заголовки X-Robots-Tag в зависимости от агента. Поменяйте его на User-Agent Googlebot и проверьте результат.
2️⃣ Ошибки в конфигурации:
Неправильные правила в файле .htaccess или в конфигурации Nginx могут приводить к отправке неправильных заголовков X-Robots-Tag. Проверьте эти файлы на наличие ошибок и исправьте их, если необходимо.
3️⃣ Ошибки в Screaming Frog:
Хотя это и менее вероятно, возможны ошибки в самом Screaming Frog. Попробуйте обновить программу до последней версии.
4️⃣ Кэширование заголовков:
Может быть такое, что заголовки X-Robots-Tag закэшировались, из-за чего лягушка их видит, хотя по факту их нет. Попробуйте очистить кэш и пересканировать сайт.
Если проблема не устранится и после этих манипуляций, то попробуйте сканировать сайт с настройкой follow internal «nofollow».
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как удалить из индекса ПС большое количество мусорных спамных страниц? У нас взламывали сайт и в индекс попало куча мусорных страниц с вирусами, китайскими текстами и ссылками. Уже ситуация решилась, но мы всё не можем...
- «Страница является копией. Канонические версии страницы, выбранные Google и пользователем, не совпадают» — как решить ошибку? Канонические версии страницы, выбранные Google и пользователем, не совпадают. Почему возникает ошибка и как с ней бороться? Ответ Чаще всего ошибка «Страница является копией. Канонические...
- Как ускорить индексацию страниц сайта после полного запрета? Клиент запретил индексировать весь сайт в Robots.txt. Отменили и поправили всё, но похоже не помогло. Как отменить эффект запрета от индексации и помочь ПС индексировать...
- Как обеспечить индексацию всех языковых версий сайта? Что сделать, чтобы поисковый бот проиндексировал все языковые версии? Как обеспечить корректную и полную индексацию всех версий сайта? Ответ Современные алгоритмы поисковых систем позволяют качественно...
- Как проверить не мешает ли прелоадер индексированию страниц сайта? На сайте есть preloader, который действует, пока контент страницы полностью не загрузится. Вопросы в связи с этим: как вообще поисковики реагируют на такие прелоадеры? Как...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.


