Ответ
Обычно символ # в url используется для указания хеш-ссылок внутри страницы и не индексируются поисковыми системами, как отдельные страницы. Это связано с тем, что символ # обычно указывает на определенное место на уже существующей странице, а не на новую страницу. Поэтому по умолчанию все, что находится после # в url, игнорируется поисковыми системами при индексации.
Если у вас таким образом обозначаются страницы фильтров, которые вы хотите закрыть от индексации, то можно использовать такие методы:
- Использование мета-тега robots: добавьте в html-код страниц < meta name="robots" content="noindex" >. Этот тег скажет поисковым системам не индексировать страницу;
- Использование заголовка X-Robots-Tag: если фильтрация страниц происходит на сервере, можно настроить сервер так, чтобы он добавлял http-заголовок X-Robots-Tag: noindex для определённых url. Это также предотвратит индексацию этих страниц;
- Использования файла robots.txt: вы можете указать рекомендации для поисковых систем для запрета индексировать определенные пути и url в файле robots.txt. Если вы хотите закрыть от индексации все url с частью # вы можете добавить следующую строку: Disallow: /*#.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Автогенерируемые страницы фильтров: нужно открывать к индексации и продвигать такие листинги? Делаем для ИМ фильтр, заказчик хочет, чтобы для каждого изменения в фильтре генерировался свой URL и метатеги. То есть по сути генерируется миллион страниц, которые...
- Могли ли проиндексированные некачественные страницы фильтров привести к падению позиций? В robots.txt случайно убрали запрет на индексацию страниц фильтров до 3 уровня. В результате в поиск попало огромное количество новых страниц, частотность у которых в...
- Какие есть способы организации фильтров на продающем сайте? Как правильно организовать страницу фильтра на продающем сайте, если наборов фильтров очень много, стоит ли делать канонические урлы для таких страниц, чтобы как-то уменьшить число...
- Как правильно реализовать страницу фильтра на сайте, если наборов фильтров очень много? Как правильно организовать страницу фильтра на продающем сайте, если наборов фильтров очень много, стоит ли делать канонические урлы для таких страниц, чтобы как-то уменьшить число...
- Как улучшить индексацию страниц фильтров в ИМ? Есть интернет-магазин, фильтрация каталогов которого сейчас производится при помощи get-параметров, например site.com/catalog.html?brand=1¶m=1, закрытых от индексации через meta robots. Насколько верным будет внедрение функционала автоматического построения...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Работы на 100%. Очень рекомендую"
Емельянов Данил Юрьевич
Tortoliano.ru"Изменения положительно отразились на позициях сайта"
Павел Любимов
Jazztour.ru"Не ожидал получить настолько качественный анализ и советы за минимальную цену"
Дмитрий Сокол
Hostings.info