«Анализ логов за указанный период показал множественные обращения к сайту со стороны поисковых ботов google. В данном случае рекомендуется обратиться к разработчику по вопросу тонкой настройки файла robots.txt (необходимо ограничить количество обращений в единицу времени)».
Есть ли смысл выполнять данную рекомендацию, поскольку раньше сервер выдерживал большое количество обращений ботов?
Ответ
Рекомендации вашего хостинга могут быть не совсем корректными. Если ранее сервер справлялся с нагрузкой от поисковых ботов, а сейчас возникли проблемы со скоростью загрузки, то, конечно, есть вероятность, количество запросов со стороны разных ботов значительно увеличилось. Это может быть связано с различными факторами:
- Google может более активно индексировать ваш сайт из-за обновлений алгоритмов или повышения вашей релевантности по определенным запросам.
- Возможно, на сайте появились ошибки или неэффективные элементы, которые увеличивают время обработки каждого запроса.
- Временное увеличение нагрузки на сервер из-за других сайтов, размещенных на том же хостинге.
В первую очередь необходимо докопаться до реальных причин снижения скорости загрузки страниц сайта.
1️⃣ Тщательно изучите логи сайта, убедитесь, что проблема действительно в поисковых ботах Google, а не во внешней атаке на ваш сервер. Иногда такой ерундой занимаются конкуренты, чтобы сделать сайт временно недоступным.
2️⃣ Проведите анализ скорости загрузки проблемных страниц вашего сайта, изучите GSC, откройте страницы с помощью инструментов для разработчика и посмотрите, что именно больше всего грузит вашу страницу. Альтернативно можно воспользоваться инструментом PageSpeed.
При этом, по нашему опыту директива Crawl-Delay в файле robots.txt очень часто игнорируется ботами Google, а потому вряд ли поможет. А выяснив реальные причины, вы сможете предпринять адекватные меры реагирования:
- Защитится от атак ботов можно, например, с помощью Cloudflare.
- Улучшить скорость загрузки на самих страницах сайта можно с помощью оптимизации отдельных элементов, которые имеют наибольшие проблемы (оптимизация изображений, использование Lazy Load, оптимизация скриптов и стилей, использование кєширования и т.п.).
- Возможно, стоит подключить CDN (Content Delivery Network) для распределения нагрузки на несколько серверов.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как бороться предупреждением в GSC «Значение показателя «LCP» слишком велико»? Подскажите, как бороться предупреждением в GSC "Значение показателя "LCP" слишком велико: более 4 сек. (мобильные устройства)"? Что исправлять и как быстро можно отправлять страницы на...
- Влияет ли скорость загрузки сайта на JS на индексирование и продвижение? Сайт на JS и скорость загрузки оставляет желать лучшего. Скажите, может ли быть такое, что из-за низкой скорости работы сайта, Google не обрабатывает и не...
- Почему сервис Google Page Speed показывает разные показатели для одной и той же страницы и на что ориентироваться? Почему сервис Google Page Speed может показывать разные показатели для одной и той же страницы? И на какие показатели скорости загрузки нужно в первую очередь...
- Как время ответа сервера (TTFB) влияет на индексацию Google? Интернет-магазин строительных товаров, сделан по типу каталожки, очень много категорий. Однако, у сайта есть проблема - время ответа сервера (TTFB) чуть ли не 2 секунды,...
- Влияет ли скорость загрузки и скорость ответа сервера на сканирование и индексирование сайта? Если скорость ответа сервера очень маленькая, может это повлиять на сканирование и индексирование сайта? Тот же вопрос про общую скорость загрузки сайта. Ответ Да, скорость...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Поисковик вернул сайту «отобранных» ранее посетителей"
Александр Люкс
English-easy.info"Рекомендации индивидуальны, с примерами наших страниц и разделов"
София Хаушильдт
Babyplan.ru"Через 1,5 месяца позиции вернулись в ТОП 10"
Евтеев Антон Павлович
Ac-u.ru