Ответ
Обычно символ # в url используется для указания хеш-ссылок внутри страницы и не индексируются поисковыми системами, как отдельные страницы. Это связано с тем, что символ # обычно указывает на определенное место на уже существующей странице, а не на новую страницу. Поэтому по умолчанию все, что находится после # в url, игнорируется поисковыми системами при индексации.
Если у вас таким образом обозначаются страницы фильтров, которые вы хотите закрыть от индексации, то можно использовать такие методы:
- Использование мета-тега robots: добавьте в html-код страниц < meta name="robots" content="noindex" >. Этот тег скажет поисковым системам не индексировать страницу;
- Использование заголовка X-Robots-Tag: если фильтрация страниц происходит на сервере, можно настроить сервер так, чтобы он добавлял http-заголовок X-Robots-Tag: noindex для определённых url. Это также предотвратит индексацию этих страниц;
- Использования файла robots.txt: вы можете указать рекомендации для поисковых систем для запрета индексировать определенные пути и url в файле robots.txt. Если вы хотите закрыть от индексации все url с частью # вы можете добавить следующую строку: Disallow: /*#.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Открывать ли к индексации динамические страницы-фильтры? Будут ли ранжироваться страницы фильтрации (динамические), если внедрить уникальные теги (Н1, Тайтл и Дискрипшн) и закинуть их в индекс? Или все таки закрыть их от...
- Как правильно реализовать страницу фильтра на сайте, если наборов фильтров очень много? Как правильно организовать страницу фильтра на продающем сайте, если наборов фильтров очень много, стоит ли делать канонические урлы для таких страниц, чтобы как-то уменьшить число...
- Как оптимизировать страницы фильтров? У страниц фильтров должны быть динамические тайтлы в зависимости от выбранных параметров? И стоит ли закрывать такие страницы от индексации, ведь вариантов фильтрации, а значит...
- Автогенерируемые страницы фильтров: нужно открывать к индексации и продвигать такие листинги? Делаем для ИМ фильтр, заказчик хочет, чтобы для каждого изменения в фильтре генерировался свой URL и метатеги. То есть по сути генерируется миллион страниц, которые...
- Могли ли проиндексированные некачественные страницы фильтров привести к падению позиций? В robots.txt случайно убрали запрет на индексацию страниц фильтров до 3 уровня. В результате в поиск попало огромное количество новых страниц, частотность у которых в...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Помогли разобраться с микроразметкой даже в новогодние праздники"
"Отчеты и консультации всегда исчерпывающие и действенные"
"Результат ‒ восстановление доли трафика Яндекса"
Ирина Смирнова
Diagnos.ru