Ответ
Контент созданный с помощью технологии AJAX будет просканирован и внесен в индекс при соблюдении следующих рекомендаций Яндекса и Google:
- каждая AJAX-страница на сервере должна содержать HTML версию;
- в код AJAX-страницы необходимо добавить метатег ‹meta name=»fragment» content=»!»›. Важный момент – данный метатег не нужно размещать в код HTML версии потому что поисковый робот не сможет проиндексировать данную страницу;
- конструкция адреса AJAX-страницы должна содержать параметр «#!», например https://site.com/#!catalog;
- HTML версия страницы должна быть доступна по адресу в котором «#!» меняется на GET параметр «?_escaped_fragment_=»;
- чтобы помочь поисковому боту обнаружить все предназначенные для индексирования страницы в карту сайта стоит добавить ссылки с параметром «#!»;
- если вы применяете технологию iframe, не забудьте добавить дополнительные текстовые ссылки на контент окон iframe, чтобы робот Googlebot мог просканировать его и внести в индекс.
Чтобы проверить доступен ли контент Googlebot или Яндексботу, следует выполнить предварительный просмотр страницы в обычном браузере с отключенной поддержкой JavaScript. О технических причинах мешающих продвижению сайтов читайте в статье: «Распространённые технические ошибки сайтов».
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Почему в Google не индексируется новый сайт? Выкатили сайт, но он не индексируется в Google уже почти три месяца. В индексе две страницы, GSC пишет: исключено 61 страница, ошибка “Обнаружена, не проиндексирована”....
- Как загнать сайт в индекс в целевом регионе? Как загнать сайт в индекс именно в целевом регионе? Часть страниц моего сайта не в индексе в целевом регионе (к примеру, для Google.ca с регионом...
- Можно ли проиндексировать покупные ссылки, создав для них карту сайта у себя на сайте? Читал про интересный способ индексации покупных ссылок: на своём домене создаётся страница, закрытая от индексации. На ней есть список ссылок, которые нужно загнать в индекс....
- Почему при сканировании сайта находятся страницы с 503-й ошибкой, хотя на самом деле имеют код ответа 200? Краулеры (SiteAnalyzer и ScreamingFrog) при сканировании сайта находят страницы с 503 ошибкой. Сами страницы прекрасно открываются, и в вебмастере и в онлайн сервисах отдают код...
- Что делать, если успешный ранее новостной агрегатор не работал несколько месяцев, потеряв половину страниц из индекса? Был англоязычный новостной агрегатор, который проработал полтора года, набирал аудиторию, получал естественные бэки с жирных и средних сайтов. В индексе Google было 1М страниц. В...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Сайт выведен из-под фильтра"
Коробов С.А.
Pechimax.ru"Наблюдаем стремительный и уверенный рост трафика"
Пилицын Василий Сергеевич
Seatscan.ru"Помогли усилить позиции и убрать не точности в структуре магазина"
Вадим Соломенцев
Sportique.ru


