Ответ
Такая ситуация возникает, когда доменное имя и IP-адрес не связаны между собой.
Если доменное имя не имеет соответствующей DNS-записи или если DNS-серверы не обновились с новой информацией, то сайт может быть доступен только по IP-адресу. В таком случае бот не сможет найти доменное имя и будет индексировать только его IP.
Такое может возникать при регистрации нового домена, а также при смене хостинга или сервера хостера.
Чтобы удалить из поиска IP-адрес сайта, после того, как прописаны DNS-записи, нужно:
- Удалить из поиска проиндексированные страницы: сделать это можно с помощью инструмента удаления URL.
- Отправьте домен сайта и его страницы на переиндексацию поисковым роботам: сделать это можно через Google Search Console.
Стоит понимать, что процесс обновления индексации может занять некоторое время, поэтому необходимо запастись терпением.
Хотите получить ответ на свой вопрос? Задайте его нам через телеграм-бота!↓
Еще по теме:
- Что делать с большим количеством дублей страниц на сайте? На сайте порядка 75к страниц в индексе. Образовалось около 1000 страниц- дублей контента - по Title и содержимому. Их лучше удалить полностью или склеить страницы...
- Стоит ли дублировать уникальный контент с сайта на сторонних площадках? Как лучше поступить, если хочется писать информационные статьи на сайт и так же раскидывать их по внешним ресурсам типа дзена, vc и пр.? Я тут...
- Как проверить сайт на появление дублей страниц или страниц-каннибалов? Как проверить сайт на появление дублей страниц или страниц-каннибалов? Ответ Проверить наличие дублей можно сканируя сайт парсерами, например: Screaming Frog SEO Spider Netpeak Spider Также...
- Можно ли скрыть от индексации дублирующийся контент мобильной версии? Как надежно и безопасно можно закрыть от индексации часть контента от Яндекса и Гугла? Дело в том, что на сайте переработали CMS и в результате,...
- Какие есть способы борьбы с дублями страниц из-за get-параметров? Подскажите самый эффективный способ борьбы с дублями страниц из-за get параметров? Ответ Для эффективной борьбы с дублями страниц из-за GET-параметров рекомендуем: добавить соответствующую директиву (Disallow)...
Есть вопросы?
Задайте их прямо сейчас, и мы ответим в течение 8 рабочих часов.
Отзывы клиентов:
"Развернутый и структурированный отчет с указанием ошибок"
Владислав Аверьянов
Homesoverseas.ru"Прекрасно проработанный аудит"
Денис
Eвроавто.рф"Получили +15-20 к ВЧ-запросам в Яндексе"
Денис Нарижный
Komputernaya.ru