Накрутка ПФ обрела массовый характер в Яндексе, появилось много вопросов по ней. Один из вопросов, почему накрутка ПФ не работает?
Многие клиенты так или иначе пробовали использовать накрутку, но результат был не у всех.
Итак, почему накрутка может не работать?
Дня начала нужно понимать что Яндекс может распознать всех ботов по отдельности. Но ему нужно работать с Big Data, где важен итоговый вариант в объеме, а не частные случаи.
Если антифрод алгоритм отловил 90% ботов, 10% из них отловил неверно, то это все равно результат, который улучшил общую картину.
Тут есть проблема, Яндекс не знает какой процент занимают боты в его трафике, он обучает ИИ на явно ботовых сессиях/профилях, отобранных по определенному алгоритму.
ИИ ищет определенные связи/схожесть в огромной матрице данных и выдает свой результат. Оценить результат можно только косвенными метриками.
Основные входные данные для ИИ:
— поисковый запрос;
— посещенная страница;
— история профиля.
Поиск Яндекса — это огромный массив поисковых запросов. Было бы логично исходить из запроса.
Берем пул запросов «пластиковые окна» в определенный временной промежуток (1-4 недели) и ищем неестественные повторяющиеся связи.
Т.о. первой связью будет «Запрос+страница», в этой связке все легально, далее «Запрос+страница+набор данных профиля». А вот тут уже множество вариантов по которым можно отлавливать ботов.
1. История профиля
Яндекс хранит множество данных по действиям профиля:
— IP адреса, координаты входа;
— посещенные сайты;
— поисковые запросы;
— информация об устройстве/браузере;
— поведенческие метрики;
— демографические данные.
Мы видим как сейчас работает капча Яндекса, получая данные профиля (включая ip) и введенный запрос моментально принимается решение вывести капчу или нет.
Зная ip, сессию профиля и запрос Яндекс уже делает вывод о потенциальном фроде.
Пересечения данных из истории профиля со связкой «запрос» + «страница входа» могут отлавливаться на уровне:
— одинаковых ip адресов в истории профиля;
— одинаковых посещенных сайтах;
— одинаковых поисковых запросов;
Можно оценивать больше данных профиля и получать лучший результат, но это будет сильно нагружать алгоритмы. Поиску Яндекса достаточно отсеять основную массу ботов по минимальному набору параметров.
2. Охват семантики
Вторая частая проблема — это слабое покрытие семантики. Уникальные боты должны покрыть кликами наиболее частотные запросы продвигаемой страницы.
Страница должна быть оптимизирована под весь пул семантического ядра по которым есть реальные показы.
Стоит учитывать что показы могут быть рассредоточены по разным регионам страны.
Выводы
Существует матрица взаимосвязей во времени. Чем ближе по времени находятся похожие ботовые сессии, тем больше шанс что они будут отсеяны.
Еще по теме:
- Плагины для WordPress, которые помогут подготовить сайт к продвижению Если ваш сайт на WordPress, упростить процесс его оптимизации и продвижения помогут плагины. Мы подготовили список musthave проверенных плагинов для WordPress, которые сами используем в...
- Lazy loading или «ленивая загрузка» для изображений Что такое «ленивая загрузка» Для кого нужна «ленивая загрузка» Почему следует внедрить lazy loading Виды отображения при «отложенной загрузке» Как реализовать: Рекомендации Google по...
- Как онлайн-консультант повышает конверсии на сайте Обязательные функции онлайн-консультанта Самые популярные сервисы онлайн-консультантов Самые частые ошибки Форма выбивается из общего дизайна сайта Опыт взаимодействия с онлайн-консультантом не всегда положительный Окно чата...
- Семантическое SEO-проектирование сайта Семантическое проектирование – это сбор семантики и её группировка для создания сайта с большими шансами на успешное продвижение. Для чего нужно семантическое проектирование сайта и...
- Как выделить сниппет в поисковой выдаче Google? В конце августа мы рассказали вам, как можно сделать свой сниппет привлекательней в поисковой выдаче Яндекса. Теперь пришла очередь мирового лидера поисковых технологий. И сегодня...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.



