Ответ
По сути, изменяя URL страниц (делая их ЧПУ) вы создаете абсолютно новые страницы с точки зрения Google. Редиректы помогают передать вес со старых URL на новые. И нет ничего страшного, что в индексе все еще находятся старые страницы. Причины очень просты – это внешние и, возможно, внутренние ссылки, которые ведут на страницы со старыми URL.
По большому счету в вашем случае ничего делать не нужно, так как основные работы вы уже сделали. Теперь все зависит только от самой поисковой системы – насколько быстро она сможет переиндексировать сайт с учетом всех редиректов. Из-за большого количества ссылок на старые URL процесс может очень сильно затянуться.
Чтобы ускорить процесс переклейки URL:
- Убедитесь, что на сайте не осталось внутренних ссылок ведущих на старые URL;
- Планомерно наращивайте внешние авторитетные ссылки на новые URL;
- Попытайтесь связаться с площадками, где были размещены ссылки на старые URL и изменить их на новые.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как массово загонять покупные ссылки в индекс и как ускорить процесс? Как массово загонять покупные ссылки в индекс? Проиндексировать нужно около 1000 линков и вручную получится очень долго. Можно автоматизировать процесс? Ответ Массовая индексация бэклинков с...
- Возникнут ли проблемы с индексацией, если около года сайт не обновлялся и как исправить ситуацию? Могут ли быть у старого сайта проблемы с индексацией, если им не занимались примерно год? На сайте не проводились никакие работы в течении одного года,...
- Ускорение переиндексации при наличии 301 редиректа Поменяли структуру сайта, при этом сменились URL, со старых страниц был сделан 301 редирект на новые. Как быстро должны переиндексироваться страницы с новыми URL в...
- Как проверить: просканировал ли Google страницу? Как определить: Google знает о существовании страницы, но еще ее не проиндексировал или он вообще еще не был на этой странице? Ответ URL может иметь...
- Нужно ли закрывать от индексации файлы json? Нужно ли в wordpress закрывать от индексации файлы json в robots.txt? Или они нужны для корректного видение страницы поисковиками? Ответ Файлы JSON стоит закрывать от...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Ощутимый рост позиций после второго апа"
Абрамов Дмитрий Сергеевич
Dvermezhkom-service.ru"Изменения положительно отразились на позициях сайта"
Павел Любимов
Jazztour.ru"Яндекс снял фильтр уже после первой заявки"
Люк Усса
CreditProsto.ru

