Ответ
Директивы прописанные в файле robots.txt не предназначены для того, чтобы запрещать показ ваших материалов в результатах поиска, например если на страницу ведет внешняя или внутренняя ссылка, то скорее всего страница все равно попадет в индекс.
Чтобы этого избежать и убрать ошибку в консоли, нужно:
- проверить sitemap на наличие мусорных URL;
- проверить, что нет бэклинков на страницы которые запрещены в robots.txt;
- настроить блокировку страниц, прописав ‹meta name= «robots» content= «noindex»› в коде страницы или использовав noindex (404, 410 для удаленных URL) в HTTP-ответе сервера.
Такие страницы будут все реже и реже сканироваться краулерами и автоматически выпадут из индекса.
Также можно воспользоваться Google Search Console → “Индекс” → “Удаления” и оставить запрос на удаление необходимых URL. В течении некоторого времени страницы будут удалены из индекса. Подробнее ознакомиться с инструментом можно по ссылке.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Как переиндексировать около 1 миллиона страниц в Google? Есть ли сравнительно недорогой метод, чтобы вынудить googlebot переиндексировать около 1 миллиона страниц? А то по ошибке при редизайне новые шаблоны с кривым иннер линкингом...
- Скрытие текста свойством display:none и последствия для SEO Если после полной загрузки страницы я с помощью скрипта JS (просто вывожу свойство display:none) скрываю блок с описанием (чтобы полотно не занимало полстраницы), содержимое внутри...
- Как замедлить скорость сканирования Googlebot? Как избежать проблем при переносе сайта на другой сервер? Подскажите, пожалуйста, есть ли какой-то метод вынудить google бота cканировать медленнее? Сrawl-rate в консоли я поставил маленький совсем, в robots лишнее закрыто. Бот все равно...
- Влияет ли скорость загрузки и скорость ответа сервера на сканирование и индексирование сайта? Если скорость ответа сервера очень маленькая, может это повлиять на сканирование и индексирование сайта? Тот же вопрос про общую скорость загрузки сайта. Ответ Да, скорость...
- Что делать, если успешный ранее новостной агрегатор не работал несколько месяцев, потеряв половину страниц из индекса? Был англоязычный новостной агрегатор, который проработал полтора года, набирал аудиторию, получал естественные бэки с жирных и средних сайтов. В индексе Google было 1М страниц. В...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Здесь можно реанимировать сайт даже со страшным диагнозом"
Денис Кушнир
Aden-stroy.ru"Поисковик вернул сайту «отобранных» ранее посетителей"
Александр Люкс
English-easy.info"Получили ответы на все вопросы"
Павел
Kidride.ru


