Ссылка на страницы, закрытые от индексирования – почему это плохо


noindex

Самой распространенной ошибкой вебмастеров признана ссылка на страницы, закрытые от индексирования. Это осуществляется с помощью robots.txt, мета-тегов robots=noindex, несуществующих страниц – ошибка 404. Чаще всего страницы закрывают по следующим причинам:

  • не создавать дублирования,
  • избегание системы фильтрации,
  • отсутствие тегов,
  • избавление от малоинформативных страниц.

Но все же на закрытые страницы ссылаются, а вот почему это плохо – постараемся разобраться.

При закрытии страниц происходит потеря их статического веса, распространяемого на более полезные документы при их поиске. Итог – это упущенная выгода, а вот статический вес (PageRank) – очень важный фактор среди оптимизаторов. На его основе перелинковываются документы друг с другом, чтобы более важные стали именно такими, а не погрязли где-то на задворках. Если в основной массе будут присутствовать неиндексируемые страницы, то процесс линковки нарушается.

Выходом из ситуации могут стать следующие решения

ajax
  1. разрешение индексации закрытых документов – используется в том случае, если каждая страница проработана, имеют уникальное наполнение;
  2. невостребованные страницы и ссылки на них убираются, даже если они не пользуются успехом только у пользователей;
  3. использование ajax-решения – например, /search/#tag=статистика вместо /tag/статистика.

Решений может быть великое множество, но какое подходит именно вам – решается самостоятельно.

Оставьте комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *