Ответ
Генерировать физические страницы с ЧПУ и уникальными метатегами можно и нужно только для тех комбинаций фильтра, по которым есть реальный поисковый спрос и которые являются приоритетными в продвижении. Для этого проанализируйте частотность запросов и определите какие страницы с какими значениями фильтров можно оставить открытыми к индексации и продвигать в дальнейшем.
Как правило, для наших проектов мы придерживаемся следующих схем сочетаний фильтров, открытых к индексации:
- Схема 1 (1-й фильтр – 1 значение). Например, страница Люстра — В стиле Лофт. Все остальные подкатегории после страницы Лофт и комбинации фильтров закрываем от роботов.
- Схема 2 (1-й фильтр – 1 значение) + (2-й фильтр – 1 значение). Страница Люстра — Лофт — На два цоколя. Любые другие комбинации трёх и более значений или двух и более фильтров мы закрываем от индексации.
Остальные автогенерируемые страницы должны быть закрыты от индексации атрибутом noindex и в robots.txt.
Открытые для роботов автогенерируемые страницы приведет к тому, что на сайте появятся:
- Страницы с похожим содержимым. Поисковым системам важно, чтобы страницы были качественными и уникальными, а реализация автогенерируемых страниц приведет к тому, что страницы потеряют свою “уникальность”. Листинги будут отличаться разными производителями, но при использовании более детального фильтра, листинги будут заполнены похоже.
- Страницы, по которым в дальнейшем не будет переходов с выдачи. С одной стороны, если на сайте есть физическая страница по низкочастотному запросу, она должна ранжироваться выше тех сайтов, у которой такой страницы нет. Но на практике мы получаем большое количество страниц без поисковых сигналов, трафика и потенциала для привлечения трафика.
Наличие автогенерируемых страниц на сайте в дальнейшем может привести к следующим последствиям:
- Объем сайта вырастает в несколько десятков раз. Пример, к нам обращался сайт с подобной реализацией, у которого за год было создано 120 000 страниц. Такое количество страниц затрудняет переобход сайта поисковыми системами. В результате краулинговый бюджет тратится на ненужные страницы.
- Смена релевантности страниц. Из-за большого количества одинаковых страниц, поисковая система может менять релевантность с оптимизированной страницы на не заточенную под основной ассортимент страницу без поведенческих сигналов, ссылочного и с ограниченным ассортиментом.
- В конечном итоге, такие страницы могут быть удалены из индекса как малокачественные или малоценные страницы. К сожалению, в GSC нет отдельного отчета для исключенных страниц по данной проблеме. В ПС Яндекс есть специальный отчет для таких страниц “Малоценная или маловостребованная страница” (отчет Индексирование — Страницы в поиске — Исключенные). Этот отчет показывает, когда и какие страницы были удалены из индекса. На примере вышеупомянутого сайта: Яндекс посчитал автогенерируемые страницы некачественными и исключил из выдачи 115 000 страниц, которые в дальнейшем добавлял и удалял повторно.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как продвигать страницы фильтров, чтобы они не соперничали с основными страницами листингов? Часто слышу, что страницы фильтров каннибализируют запросы основного листинга. Из-за этого долгое время не решаюсь на продвижение таких страниц. Подскажите, как подготовить страницы фильтров к...
- Как поднять релевантность страниц фильтров в глазах ПС? До определенного момента на сайте была главная категория которая оптимизировалась под весь пул запросов этой категории + закупались ссылки на эту категорию. После проработки семантики...
- Стоит ли закрывать от индексации страницы сортировки и как правильно это сделать? Как нужно закрывать и нужно ли закрывать от индексации страницы с параметрами сортировки? Например: сайт.ру/категория?sort=reviews... И еще по висячим узлам: если закрыть страницы от индексации,...
- Как закрыть от индексации страницы фильтрации с частью # в адресе? Столкнулась недавно с проблемой: у нас на сайте страницы фильтрации имеют адрес с частью #. Можно ли как-то закрыть от индексации такие страницы фильтрации, при...
- Как улучшить индексацию страниц фильтров в ИМ? Есть интернет-магазин, фильтрация каталогов которого сейчас производится при помощи get-параметров, например site.com/catalog.html?brand=1¶m=1, закрытых от индексации через meta robots. Насколько верным будет внедрение функционала автоматического построения...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Получили ответы на все вопросы"
Павел
Kidride.ru"Через 1,5 месяца позиции вернулись в ТОП 10"
Евтеев Антон Павлович
Ac-u.ru"Рекомендации помогли улучшить позиции сайта, которые серьезно просели"
Артур Шаймухаметов
Boogie-shop.ru