Я правильно рассуждаю или ошибаюсь? И почему именно?
Ответ
Закрытие от индексации таких файлов не является критической ошибкой. Но все же мы не рекомендуем запрещать индексацию JS и CSS файлов, особенно если они влияют на отображения сайта.
Поисковые системы в первую очередь, при сканировании страниц, стараются их оценивать с точки зрения удобства пользователя и беспрепятственная обработка технических файлов поможет поисковому роботу:
- более детально проверить сайт с точки зрения юзабилити, а также оценивать полноту информации на нем;
- убедится в отсутствии скрытого контента, что позволит ему более доверительно относится к вашему ресурсу;
- понимать, что сайт адаптирован под мобильную выдачу, у поисковиков индексирование мобильного контента находится в приоритете.
Все эти факторы в свою очередь положительно влияют на оценку страницы и на ранжировании всего сайта в целом. Ознакомится с официальными рекомендациями Google можете по ссылке.
Что касается изображений, их не следует вообще закрывать от индексации (исключением могут быть картинки запрещенных тематик, служебные изображения). В остальных случаях подходящие картинки позитивно влияют на релевантность страниц, а также приносят дополнительный трафик.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Скрытие текста свойством display:none и последствия для SEO Если после полной загрузки страницы я с помощью скрипта JS (просто вывожу свойство display:none) скрываю блок с описанием (чтобы полотно не занимало полстраницы), содержимое внутри...
- Как удалить появляющиеся в индексе страницы, которых нет на сайте? После смены тематики интернет-магазина (с одного вида продукта на другой) из индекса длительное время не исчезают страницы, которых нет на сайте. Эти страницы отдают 404....
- Как переиндексировать около 1 миллиона страниц в Google? Есть ли сравнительно недорогой метод, чтобы вынудить googlebot переиндексировать около 1 миллиона страниц? А то по ошибке при редизайне новые шаблоны с кривым иннер линкингом...
- Доступны ли к индексации страницы, если лягушка показывает, что они закрыты x-robots-tag? Лягушка не сканирует метатеги и показывает, что страницы закрыты x-robots-tag, но в индексе, если проверять страницы через site: поисковики выдают эти страницы - почему так?...
- Что делать, если страницы сайта были спарсены у конкурента без изменений и теперь не попадают в индекс Google? Имеется интернет-магазин (на open cart), который спарсил 40 000 товаров со своего конкурента ничего не изменив. В индекс страницы практически не заходят (особенно в Google),...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Сайт был выведен из-под фильтра за 3,5 месяца"
Игорь Логинов
Stomed.ru"Санкции были сняты. Весь процесс занял полтора месяца"
Сергей Протасов
Svem.ru"Здесь можно реанимировать сайт даже со страшным диагнозом"
Денис Кушнир
Aden-stroy.ru


