Важность: средняя
Описание ошибки «Заблокировано в Robots.txt»
Показывает URL, запрещённые к сканированию с помощью инструкции Disallow в файле robots.txt.
Важность проблемы
Файл robots.txt позволяет запретить поисковым роботам сканировать определённые страницы сайта — следовательно, они не будут участвовать в поиске.
Зачастую с помощью файла robots.txt закрывают неважные для поиска страницы (например, страницы внутреннего поиска, корзины, регистрации и т.д.) для экономии ресурсов робота на их сканирование.
Если на сайте много ссылок на закрытые от сканирования URL, полезные страницы могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.
Пути исправления ошибки
Необходимо, чтобы важные страницы сайта были открыты для сканирования поисковыми роботами.
Также рекомендуется уменьшить количество ссылок на закрытые от сканирования страницы.
Однако если ссылки полезны для навигации пользователя по сайту (например, на страницу корзины или регистрации), не стоит их убирать.
Проверить качество оптимизации страницы можно с помощью бесплатного браузерного расширения SiteAnalyzer SEO Tools.
|