Ответ
Мы используем для анализа логов Excel и Power BI, так как, по нашему мнению, там это сделать проще всего.
Power BI – бесплатный, удобная визуализация данных, можно объединять несколько логов в один, широкие возможности по работе с типами данных, их моделированию.
С помощью анализа логов мы можем определить:
- страницы, на которые чаще всего заходят боты (на такие страницы, к примеру, будет полезно размещать ссылки на новые страницы или страницы с недостаточным весом);
- какие именно боты заходят на сайт (мобильные, десктопные, их User-Agent);
- на какие страницы и как расходуется краулинговый бюджет;
- попадает ли бот на нужные нам страницы;
- мусорные страницы, которые не удалось выявить при парсе;
- технические проблемы – ошибки с редиректами, битые страницы;
- частоту и даты заходов ботов, в какое время наибольшая нагрузка.
Также это полезно в том случае, если наблюдается спамный трафик на сайт – с помощью логов мы можем вычислить подозрительные IP-адреса и заблокировать их.
Главное, что нужно сделать перед анализом логов – понять, зачем Вы его проводите, тогда Вы в них не запутаетесь. Для начала можно попробовать вычислить подозрительные переходы на сайт и проверить, на какие страницы чаще всего ходят боты, чтобы при необходимости направить их в нужное русло и тем самым правильно распределить краулинговый бюджет.
А как это сделать, мы подробно разобрали в нашей статье «Анализ логов сайта с помощью Power BI: пошаговая инструкция».
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как провести A/B тестирование с помощью Google Optimize? На сайте планируется провести A/B тестирование некоторого количества обновленных вариантов шаблонов посадочных страниц. Само тестирование решено проводить через редирект 10% пользователей на обновлённые страницы с...
- Важна ли перелинковка у ссылочного донора? Есть тематический ссылочный донор с хорошими показателями, но покупные страницы с ссылками очень плохо слинкованы с остальным сайтом – есть ссылка со страницы пагинации. Если...
- Какие есть способы борьбы с дублями страниц из-за get-параметров? Подскажите самый эффективный способ борьбы с дублями страниц из-за get параметров? Ответ Для эффективной борьбы с дублями страниц из-за GET-параметров рекомендуем: добавить соответствующую директиву (Disallow)...
- Открывать ли к индексации динамические страницы-фильтры? Будут ли ранжироваться страницы фильтрации (динамические), если внедрить уникальные теги (Н1, Тайтл и Дискрипшн) и закинуть их в индекс? Или все таки закрыть их от...
- Как определить анкорный переспам и как не попасть под санкции? Как определить анкорный переспам? Оценивать анкоры всего сайта или отдельных страниц? И считать брендовые анкоры - анкорами? Ответ Как правило анкорный переспам прослеживается просадкой позиций...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Я получил рекомендации и процесс сдвинулся с мёртвой точки."
"Рекомендации помогли улучшить позиции сайта, которые серьезно просели"
Артур Шаймухаметов
Boogie-shop.ru"Прекрасно проработанный аудит"
Денис
Eвроавто.рф