Накрутка ПФ обрела массовый характер в Яндексе, появилось много вопросов по ней. Один из вопросов, почему накрутка ПФ не работает?
Многие клиенты так или иначе пробовали использовать накрутку, но результат был не у всех.
Итак, почему накрутка может не работать?
Дня начала нужно понимать что Яндекс может распознать всех ботов по отдельности. Но ему нужно работать с Big Data, где важен итоговый вариант в объеме, а не частные случаи.
Если антифрод алгоритм отловил 90% ботов, 10% из них отловил неверно, то это все равно результат, который улучшил общую картину.
Тут есть проблема, Яндекс не знает какой процент занимают боты в его трафике, он обучает ИИ на явно ботовых сессиях/профилях, отобранных по определенному алгоритму.
ИИ ищет определенные связи/схожесть в огромной матрице данных и выдает свой результат. Оценить результат можно только косвенными метриками.
Основные входные данные для ИИ:
— поисковый запрос;
— посещенная страница;
— история профиля.
Поиск Яндекса — это огромный массив поисковых запросов. Было бы логично исходить из запроса.
Берем пул запросов «пластиковые окна» в определенный временной промежуток (1-4 недели) и ищем неестественные повторяющиеся связи.
Т.о. первой связью будет «Запрос+страница», в этой связке все легально, далее «Запрос+страница+набор данных профиля». А вот тут уже множество вариантов по которым можно отлавливать ботов.
1. История профиля
Яндекс хранит множество данных по действиям профиля:
— IP адреса, координаты входа;
— посещенные сайты;
— поисковые запросы;
— информация об устройстве/браузере;
— поведенческие метрики;
— демографические данные.
Мы видим как сейчас работает капча Яндекса, получая данные профиля (включая ip) и введенный запрос моментально принимается решение вывести капчу или нет.
Зная ip, сессию профиля и запрос Яндекс уже делает вывод о потенциальном фроде.
Пересечения данных из истории профиля со связкой «запрос» + «страница входа» могут отлавливаться на уровне:
— одинаковых ip адресов в истории профиля;
— одинаковых посещенных сайтах;
— одинаковых поисковых запросов;
Можно оценивать больше данных профиля и получать лучший результат, но это будет сильно нагружать алгоритмы. Поиску Яндекса достаточно отсеять основную массу ботов по минимальному набору параметров.
2. Охват семантики
Вторая частая проблема — это слабое покрытие семантики. Уникальные боты должны покрыть кликами наиболее частотные запросы продвигаемой страницы.
Страница должна быть оптимизирована под весь пул семантического ядра по которым есть реальные показы.
Стоит учитывать что показы могут быть рассредоточены по разным регионам страны.
Выводы
Существует матрица взаимосвязей во времени. Чем ближе по времени находятся похожие ботовые сессии, тем больше шанс что они будут отсеяны.
Еще по теме:
- Может ли сайт просесть после модернизации дизайна и обновления текстов и как лучше поступить? Сайт услуг хорошо ранжируется по нужным ключам. Но дизайн давно устарел и контент состоит в основном из простыней текста. Есть желание модернизировать его, сделать современный...
- Нужен ли сайту безопасный протокол? «За» и «Против» переезда на https В каких случаях нужно переезжать на https Когда не стоит спешить с переездом Вывод Тема переезда на https, наверное, самая обсуждаемая в Рунете. Живой...
- Дубли страниц. Чем опасны? Как найти и удалить? Поисковые алгоритмы постоянно развиваются, часто уже сами могут определить дубли страницы и не включать такие документы в основной поиск. Тем не менее, проводя экспертизы сайтов, мы...
- Чем опасны цепочки редиректов и как их можно определить? Вопрос про цепочки редиректов: чем они опасны, всегда ли их нужно исправлять, чем удобнее всего отлавливать? Где-то слышал непопулярное мнение о том, что их специально...
- Может ли в главном меню сайта быть одна услуга (товар) в двух категориях и не посчитает ли ПС страницы дублями? Может ли в главном меню сайта быть одна услуга (товар) в двух категориях. Заказчик может искать эту услугу и в первой и во второй категории....
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.



