postPR.ru » SEO/SMO » Robots.txt и дубли WordPress

    Дешевый хостинг



 

Robots.txt и дубли WordPress

Автор: Master-It | Дата: 4-10-2014 в 22:53 | Просмотров: 621 | Комментариев: 1





Robots.txt и дубли WordPress
В оптимизации не существует мелочей, более того, использование настроек по умолчанию может нанести серьезный вред вашему интернет проекту на WordPress.
Если вы используете древовидные комментарии, то по умолчанию получаете еще одну внутреннюю ссылку на сайте, вида:
page.html?replytocom=123#respond
а в индексе, еще одну (или в зависимости от количества комментариев к статье) страницу.
В итоге получается очень большое дублирование материалов сайта, что в свою очередь может привести к очень нехорошим последствиям, от пессимизации до фильтра ПС.
Вопрос дублирования контента можно решить с помощью файла robots.txt, который кстати по умолчанию отсутствует в WordPress.

Категория: SEO/SMO

Уважаемый посетитель, Вы зашли на сайт как незарегистрированный пользователь.
Мы рекомендуем Вам зарегистрироваться либо войти на сайт под своим именем.
<
  • Публикаций: 116
  • Комментариев: 81
  • ICQ:
4-10-2014 в 22:55

Master-It

  • Группа: Опытный
  • Регистрация: 23.01.2013
 
Если у вас еще нет robots.txt, то рекомендую им обзавестись, особо не затягивая.

--------------------

Информация
Комментировать статьи на нашем сайте возможно только в течении 5 дней со дня публикации.