Ответ
Директивы прописанные в файле robots.txt не предназначены для того, чтобы запрещать показ ваших материалов в результатах поиска, например если на страницу ведет внешняя или внутренняя ссылка, то скорее всего страница все равно попадет в индекс.
Чтобы этого избежать и убрать ошибку в консоли, нужно:
- проверить sitemap на наличие мусорных URL;
- проверить, что нет бэклинков на страницы которые запрещены в robots.txt;
- настроить блокировку страниц, прописав ‹meta name= «robots» content= «noindex»› в коде страницы или использовав noindex (404, 410 для удаленных URL) в HTTP-ответе сервера.
Такие страницы будут все реже и реже сканироваться краулерами и автоматически выпадут из индекса.
Также можно воспользоваться Google Search Console → “Индекс” → “Удаления” и оставить запрос на удаление необходимых URL. В течении некоторого времени страницы будут удалены из индекса. Подробнее ознакомиться с инструментом можно по ссылке.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как ускорить индексацию нового сайта в Google? Подскажите пожалуйста, почему сайт не индексируется в поиске Google. Был создан новый сайт без настроек 301 редиректа со старого домена на новый домен, так было...
- Как удалить появляющиеся в индексе страницы, которых нет на сайте? После смены тематики интернет-магазина (с одного вида продукта на другой) из индекса длительное время не исчезают страницы, которых нет на сайте. Эти страницы отдают 404....
- Как уменьшить потерю трафика после смены урлов товаров в ключевых категориях? Из-за технической ошибки (при импорте файла с товарами на сайт) изменились урлы у товаров в ключевых категориях. Редиректы на новые адреса настроились на сайте автоматически....
- Как проверить индексацию купленных ссылок в Яндексе и Google? Есть какие-либо ресурсы, сервисы и методы через которые можно проверить индексацию купленных ссылок в Яндексе и Google? Ответ Достоверно проверить индексацию купленных ссылок в Google...
- Доступны ли к индексации страницы, если лягушка показывает, что они закрыты x-robots-tag? Лягушка не сканирует метатеги и показывает, что страницы закрыты x-robots-tag, но в индексе, если проверять страницы через site: поисковики выдают эти страницы - почему так?...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Яндекс снял фильтр уже после первой заявки"
Люк Усса
CreditProsto.ru"Сайт выведен из-под фильтра"
Коробов С.А.
Pechimax.ru"Сайт вышел из-под фильтра, переспам был ликвидирован"
Вячеслав Мусякаев
Vprognoze.ru