Накрутка ПФ обрела массовый характер в Яндексе, появилось много вопросов по ней. Один из вопросов, почему накрутка ПФ не работает?
Многие клиенты так или иначе пробовали использовать накрутку, но результат был не у всех.
Итак, почему накрутка может не работать?
Дня начала нужно понимать что Яндекс может распознать всех ботов по отдельности. Но ему нужно работать с Big Data, где важен итоговый вариант в объеме, а не частные случаи.
Если антифрод алгоритм отловил 90% ботов, 10% из них отловил неверно, то это все равно результат, который улучшил общую картину.
Тут есть проблема, Яндекс не знает какой процент занимают боты в его трафике, он обучает ИИ на явно ботовых сессиях/профилях, отобранных по определенному алгоритму.
ИИ ищет определенные связи/схожесть в огромной матрице данных и выдает свой результат. Оценить результат можно только косвенными метриками.
Основные входные данные для ИИ:
— поисковый запрос;
— посещенная страница;
— история профиля.
Поиск Яндекса — это огромный массив поисковых запросов. Было бы логично исходить из запроса.
Берем пул запросов «пластиковые окна» в определенный временной промежуток (1-4 недели) и ищем неестественные повторяющиеся связи.
Т.о. первой связью будет «Запрос+страница», в этой связке все легально, далее «Запрос+страница+набор данных профиля». А вот тут уже множество вариантов по которым можно отлавливать ботов.
1. История профиля
Яндекс хранит множество данных по действиям профиля:
— IP адреса, координаты входа;
— посещенные сайты;
— поисковые запросы;
— информация об устройстве/браузере;
— поведенческие метрики;
— демографические данные.
Мы видим как сейчас работает капча Яндекса, получая данные профиля (включая ip) и введенный запрос моментально принимается решение вывести капчу или нет.
Зная ip, сессию профиля и запрос Яндекс уже делает вывод о потенциальном фроде.
Пересечения данных из истории профиля со связкой «запрос» + «страница входа» могут отлавливаться на уровне:
— одинаковых ip адресов в истории профиля;
— одинаковых посещенных сайтах;
— одинаковых поисковых запросов;
Можно оценивать больше данных профиля и получать лучший результат, но это будет сильно нагружать алгоритмы. Поиску Яндекса достаточно отсеять основную массу ботов по минимальному набору параметров.
2. Охват семантики
Вторая частая проблема — это слабое покрытие семантики. Уникальные боты должны покрыть кликами наиболее частотные запросы продвигаемой страницы.
Страница должна быть оптимизирована под весь пул семантического ядра по которым есть реальные показы.
Стоит учитывать что показы могут быть рассредоточены по разным регионам страны.
Выводы
Существует матрица взаимосвязей во времени. Чем ближе по времени находятся похожие ботовые сессии, тем больше шанс что они будут отсеяны.
Еще по теме:
- Можно ли снизить показатель отказов, не закрывая от индексации страницы товаров, которых нет в наличии? Интернет магазин по продаже виниловых пластинок. Из-за того что ассортимент специфический (редкие издания, б/у пластинки, много товаров, которых нет в наличии), из-за этого растет показатель...
- Что такое метатеги для сайта? Этот материал я подготовил для новичков в SEO, а также на владельцев сайтов, которые не знают как правильно заполнить метатеги. Рассмотрим, что сейчас актуально, а...
- Как передать вес с карточек товара приоритетным страницам категорий? Как правильно передать вес с карточек товара приоритетным страницам категорий? Достаточно ли будет сквозных ссылок с меню? Ответ Вес с карточек товаров на приоритетные страницы...
- Как правильно и эффективно составлять атрибут Alt? Как составлять АЛЬТЫ? Какой процент альтов включает ГЗ? Какая должна быть длина, какой контекст? Ответ Чтобы атрибут Alt был эффективен как для пользователей, так и...
- Написание текстов на сайт и их последующая оптимизация для эффективного продвижения Продолжаем публикацию обзоров он-лайн обучения в мастер-группе All in Top. На первом занятии мы научились правильно составлять семантическое ядро на основе анализа сайтов-конкурентов. В этом...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.



