Ответ
Согласно справке Google скорость переобхода страниц с новыми URL зависит от размера сайта и скорости сканирования. Также на скорость переезда сайта влияет скорость серверов, на которых размещен сайт. Большинство страниц сайта среднего размера будут просканированы краулером за несколько недель. Для крупных сайтов срок переезда может занять больше времени.
Для того чтобы ускорить переезд сайта необходимо со старого сайта отправить два файла Sitemap со старыми и новыми URL. Это поможет поисковым роботам обнаружить переадресацию и ускорит перенос сайта.
При соблюдении всех рекомендаций Google по переезду сайта с изменением URL 301 редирект не может стать причиной замедления переноса сайта. Однако, при планировании переезда сайта стоит учесть, что цепочки переадресаций могут замедлять загрузку страниц и поддерживаться не всеми браузерами. Поэтому советуем перенаправлять посетителей на целевой URL.
Подробнее о применении редиректов читайте в статье: «301, 302 или 404? Что применять и в каких случаях?»
Еще по теме:
- Стоит ли закрывать страницы пагинации от индексации? Что делать, если количество страниц пагинации в каталоге в некоторых категориях более 1000? Есть ли какой-то лимит? Стоит ли оставлять как есть или как оптимизировать...
- Как улучшить индексацию ИМ и влияет ли вложенность URL на обход страниц роботом? Влияет ли структура каталога на индексацию страниц? Прошло 2 месяца с момента запуска ИМ, а проиндексировалось менее 10% страниц. Знаю, что чем меньше вложенность, тем...
- Как переиндексировать около 1 миллиона страниц в Google? Есть ли сравнительно недорогой метод, чтобы вынудить googlebot переиндексировать около 1 миллиона страниц? А то по ошибке при редизайне новые шаблоны с кривым иннер линкингом...
- Скрывать ли страницы фильтров от индексации поисковыми системами? Нужно ли скрывать страницу фильтра /filter в robots.txt? Может ли поисковый краулер сгенерировать все страницы, который может выдать фильтр? Или пока на эти страницы не...
- Нужно ли закрывать от индексации файлы json? Нужно ли в wordpress закрывать от индексации файлы json в robots.txt? Или они нужны для корректного видение страницы поисковиками? Ответ Файлы JSON стоит закрывать от...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Результат ‒ восстановление доли трафика Яндекса"
Ирина Смирнова
Diagnos.ru"Получили ответы на все вопросы"
Павел
Kidride.ru"Санкции были сняты. Весь процесс занял полтора месяца"
Сергей Протасов
Svem.ru