Ответ
Для отправки на переиндексацию большого количества страниц в Google можно воспользоваться Indexing API Google. С помощью скрипта можно отправить на переобход до 200 страниц в день.
Чтобы воспользоваться скриптом необходимо:
- подключить Indexing API к Google Search Console;
- получить JSON-ключ;
- установить и настроить node.js.
Подробнее об отправке на сканирование большого количества страниц в Google с помощью Indexing API Google читайте в статье: «Как индексировать 200 URL в Google каждый день через Indexing API».
Увеличить краулинговый бюджет сайта можно с помощью:
- увеличения скорости загрузки сайта;
- улучшения внутренней перелинковки;
- уменьшения глубины вложенности приоритетных страниц;
- устранения дублей и мусорных страниц в структуре сайта;
- уменьшить количество страниц с 4ХХ и 5ХХ ответом сервера;
- оптимизации страниц пагинации;
- улучшения внешней ссылочной массы сайта;
- удалить в структуре сайта ссылки с редиректами.
Более детально с возможными способами увеличения квоты на обход страниц читайте в статье: «17 советов как увеличить краулинговый бюджет.
Может ли помочь простановка внешних ссылок на мой сайт или настройка редиректов с других сайтов на мой?
Согласно данным экспериментального исследования: повышение авторитетности сайта с помощью простановки внешних ссылок на сайт может помочь увеличить количество страниц, которые поисковый робот обходит за сутки. Для наращивания качественной ссылочной массы советуем размещаться на трастовых доменах конкурентов.
Редирект предназначен для перенаправления посетителя и поискового робота на другую страницу и не может влиять на увеличение краулингового бюджета.
Подробнее о том как разместиться донорах конкурента читайте в нашем блоге: Как купить ссылки на донорах конкурентов?.
Еще по теме:
- Как правильно реализовать динамический текст в теге Н1, чтобы он был доступен для индексации? Динамический текст в h1. Как правильно с точки зрения SEO реализовать появляющийся с помощью js текст (анимация печати), ведь для поисковых роботов текст не виден?...
- Нужно скрывать от индексации раздел «Новости компании»? На сайте юридической тематики 13 тыс страниц, 10-15% из которых составляют короткие заметки о жизни компании, которые понятное дело никто не читает, и с поиска...
- Нужно ли индексировать js, css файлы и изображения? У товарища сайт стоматологической клиники. Он зачем-то закрыл от индексации js, css и все изображения. Я считаю, что это критическая ошибка, т.к. бот не сможет...
- Что делать, если робот просканировал нерабочий сайт? Если сайт словил пессимизацию из-за того, что был проиндексирован в нерабочем состоянии, какова вероятность и сколько времени нужно для восстановления позиций в Google? Как помочь...
- Почему страницы получают статус «Проиндексировано, несмотря на блокировку в файле robots.txt»? В GSC у части страниц статус "Проиндексировано, несмотря на блокировку в файле robots.txt". Почему страницы индексируются, если они заблокированы? Страницы мусорные, поэтому желательно их удалить...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Прекрасно проработанный аудит"
Денис
Eвроавто.рф"Мы увидели рост по целому пулу запросов"
Деревянко П.Н.
Expertology.ru"Помогли моему сайту выйти из-под фильтра Яндекса"
Ольга Куракина
Dogscat.com
многие страницы на сайте датированы переобходом более полугода назад, хотя в сайтмепе регулярно прописываю изменившиеся страницы. Это просто неприемлемо, спасибо за рекоммендации!