Добрый день, коллеги. У меня следующий вопрос. Получили в гугл сёрч консоле письмо от гугл.
На сайте http://www.site.com/ обнаружено слишком много URL
На сайте http://www.site.com/ стало значительно больше URL. Это затрудняет сканирование, а в результатах поиска могут показываться устаревшие страницы. Возможно, робот Googlebot без необходимости сканирует много разных URL, ведущих на идентичное или похожее содержание, или сканирует разделы сайта, не требующие этого. В результате робот может значительно нагружать ваш сервер. Кроме того, есть вероятность, что не удастся полностью просканировать все содержание сайта.
Далее идет список ссылок, не понравившихся гугл боту - в основном это ссылки на страницы каталога товаров, на корзину и т.д. Что в таком случае необходимо предпринять? Закрыть эти ссылки для индексации? Если мы закроем для индексации корзину, не повлияет ли это на ранжирование и позиции? Если не закроем, грозит ли нам в дальнейшем бан со стороны гугла или другие санкции?
На сайте http://www.site.com/ обнаружено слишком много URL
На сайте http://www.site.com/ стало значительно больше URL. Это затрудняет сканирование, а в результатах поиска могут показываться устаревшие страницы. Возможно, робот Googlebot без необходимости сканирует много разных URL, ведущих на идентичное или похожее содержание, или сканирует разделы сайта, не требующие этого. В результате робот может значительно нагружать ваш сервер. Кроме того, есть вероятность, что не удастся полностью просканировать все содержание сайта.
Далее идет список ссылок, не понравившихся гугл боту - в основном это ссылки на страницы каталога товаров, на корзину и т.д. Что в таком случае необходимо предпринять? Закрыть эти ссылки для индексации? Если мы закроем для индексации корзину, не повлияет ли это на ранжирование и позиции? Если не закроем, грозит ли нам в дальнейшем бан со стороны гугла или другие санкции?