+7 (495) 215-53-73

В Москве

Заказать SEO-услуги
Согласен с правилами обработки персональных данных
Скорость ответа - до 30 минут!

Главная    Вопросы по SEO, продвижению и оптимизации сайтов в Яндекс и Google    SEO инструменты    С чем могут быть связаны проблемы парсинга сайта Screaming Frog?

С чем могут быть связаны проблемы парсинга сайта Screaming Frog?

Заказать SEO-услуги
Согласен с правилами обработки персональных данных
Скорость ответа - до 30 минут!
С чем может быть связана проблема парсинга лягушкой?
В индексе 5к страниц, лягушка парсит при этом только 2к урлов. Большую часть урлов это товары, которые есть в индексе поисковиков, а лягушка при этом некоторые даже помечает как non-indexable.
Из-за чего возникает подобная проблема и как ее решить?

Ответ

Возможные причины того, что Screaming Frog не обходит все страницы сайта:

  • Самое банальное — у не проиндексированных страниц нет внутренних ссылок. Проверить это можно, просмотрев отчет в Screaming Frog “Внутренние ссылки”. Если вы действительно выявите проблему с внутренней перелинковкой — исправляйте ее.
  • Если ваш сайт использует много JavaScript для отображения контента, Screaming Frog может не обрабатывать его должным образом и пропускать некоторые страницы. Проверьте, какой контент может быть недоступен без JavaScript, и убедитесь, что Screaming Frog имеет возможность парсить такой контент (например, включив опцию «Render JavaScript» в настройках).
  • Та же ситуация и с использованием AJAX. Если ваш сайт использует много AJAX-загрузок контента, Screaming Frog может пропускать эти страницы, так как они не всегда обнаруживаются при обычном сканировании. Включите режим «Crawl JavaScript» и «Crawl AJAX» в Screaming Frog для более полного сканирования.
  • Если у вас на сайте используются динамические URL-адреса, они могут привести к проблемам с парсингом, особенно если Screaming Frog не может правильно интерпретировать параметры в URL. Разберитесь с параметрами URL и убедитесь, что Screaming Frog может обрабатывать их корректно.
  • Проверьте, нет ли на сайте ограничений доступа, таких как файл robots.txt, который запрещает индексацию или сканирование некоторых страниц. Убедитесь, что Screaming Frog имеет доступ к всем нужным страницам, чтобы полностью просканировать сайт.

Некоторые страницы могут помечаться как non-indexable из-за проблем с сервером, ограничений доступа или неправильной настройки парсера. Подробнее:

  • Медленные серверы или проблемы с доступностью сайта могут привести к тому, что часть страниц будет отдавать 500 ошибки и статус non-indexable. Если это так, то советуем уменьшить количество потоков, чтобы снять нагрузку на сервер.
  • Индексирование страниц может быть запрещено метатегам robots.

Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓

Задать свой вопрос

Подписаться на рассылку

Еще по теме:


Siteclinic

d.siteclinic@gmail.com

Оцените мою статью: 

1 Star2 Stars3 Stars4 Stars5 Stars (Пока оценок нет)

Есть вопросы?

Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.

Отзывы клиентов:

"Сайт вышел из-под фильтра, переспам был ликвидирован"

Вячеслав Мусякаев

Vprognoze.ru

"Получили +15-20 к ВЧ-запросам в Яндексе"

Денис Нарижный

Komputernaya.ru

"Развернутый и структурированный отчет с указанием ошибок"

Владислав Аверьянов

Homesoverseas.ru
Все отзывы

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *


Мы продвигаем: