Накрутка ПФ обрела массовый характер в Яндексе, появилось много вопросов по ней. Один из вопросов, почему накрутка ПФ не работает?
Многие клиенты так или иначе пробовали использовать накрутку, но результат был не у всех.
Итак, почему накрутка может не работать?
Дня начала нужно понимать что Яндекс может распознать всех ботов по отдельности. Но ему нужно работать с Big Data, где важен итоговый вариант в объеме, а не частные случаи.
Если антифрод алгоритм отловил 90% ботов, 10% из них отловил неверно, то это все равно результат, который улучшил общую картину.
Тут есть проблема, Яндекс не знает какой процент занимают боты в его трафике, он обучает ИИ на явно ботовых сессиях/профилях, отобранных по определенному алгоритму.
ИИ ищет определенные связи/схожесть в огромной матрице данных и выдает свой результат. Оценить результат можно только косвенными метриками.
Основные входные данные для ИИ:
— поисковый запрос;
— посещенная страница;
— история профиля.
Поиск Яндекса — это огромный массив поисковых запросов. Было бы логично исходить из запроса.
Берем пул запросов «пластиковые окна» в определенный временной промежуток (1-4 недели) и ищем неестественные повторяющиеся связи.
Т.о. первой связью будет «Запрос+страница», в этой связке все легально, далее «Запрос+страница+набор данных профиля». А вот тут уже множество вариантов по которым можно отлавливать ботов.
1. История профиля
Яндекс хранит множество данных по действиям профиля:
— IP адреса, координаты входа;
— посещенные сайты;
— поисковые запросы;
— информация об устройстве/браузере;
— поведенческие метрики;
— демографические данные.
Мы видим как сейчас работает капча Яндекса, получая данные профиля (включая ip) и введенный запрос моментально принимается решение вывести капчу или нет.
Зная ip, сессию профиля и запрос Яндекс уже делает вывод о потенциальном фроде.
Пересечения данных из истории профиля со связкой «запрос» + «страница входа» могут отлавливаться на уровне:
— одинаковых ip адресов в истории профиля;
— одинаковых посещенных сайтах;
— одинаковых поисковых запросов;
Можно оценивать больше данных профиля и получать лучший результат, но это будет сильно нагружать алгоритмы. Поиску Яндекса достаточно отсеять основную массу ботов по минимальному набору параметров.
2. Охват семантики
Вторая частая проблема — это слабое покрытие семантики. Уникальные боты должны покрыть кликами наиболее частотные запросы продвигаемой страницы.
Страница должна быть оптимизирована под весь пул семантического ядра по которым есть реальные показы.
Стоит учитывать что показы могут быть рассредоточены по разным регионам страны.
Выводы
Существует матрица взаимосвязей во времени. Чем ближе по времени находятся похожие ботовые сессии, тем больше шанс что они будут отсеяны.
Еще по теме:
- Что делать при сообщении «Видео – не основной тип контента этой страницы»? "Видео – не основной тип контента этой страницы." Как решить эту проблему? Т.е. в GSC указана данная "ошибка" и страницы с видео не индексируются. Ответ...
- Как обновить контент на сайте При SEO-оптимизации сайта важно понимать, что сохранять высокие позиции в выдаче можно лишь за счёт регулярной актуализации и обновления контента. Необходимо не только создавать новый...
- 7 ошибок на страницах категорий, из-за которых интернет-магазин не выходит в ТОП 1. Отсутствие ассортимента. 2. Однотипные анкоры карточек на страницах листинга 3. SEO-тексты на страницах листинга SEO-тексты на страницах листинга в Яндексе SEO-тексты на страницах листинга...
- Мобильная скорость загрузки страницы важна, но пока что не для SEO Брайсон Менье полагает, что, хотя скорость загрузки страницы на мобильных устройствах положительно влияет на конверсию и удержание клиентов, на мобильное ранжирование она оказывает несильное влияние....
- Грамотная перелинковка и ее роль в оптимизации сайта На очередном занятии мы рассмотрели очень важный вопрос в seo-продвижении – перелинковку, какой она бывает и что дает веб-ресурсу. (далее…)
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.