Оригинал сообщения
В прошлой статье рассказал о robots.txt и как с его помощью можно убрать определенные разделы сайта из индексации поисковиками. Нужно мне это было, чтоб не индексировались профайлы пользователей, т.к. последнее время на проекте начали регистрироваться спам аккаунты с единственной целью – кинуть ссылку на очередную копию своего сайта.
В общем убрать из индексации – это конечно хорошо, только вот спамеры об этом не знают и продолжают регистрироваться. Да и обычным пользователям, которые пишут статьи и тем самым косвенно поднимают рейтинг своего профиля, а как следствие – PR, передаваемый на свою ссылку (копейки конечно, но все-таки), палки в колеса ставить не хочется.
Поэтому, чуть-чуть подпилив код напильником, сделал возможность добавления ссылки на сайт в профиле пользователя только после достижения силой определенной величины, саму величину вынес в константу.
Безусловно, возиться с этой ерундой пока еще рано – сейчас можно было бы заняться чем-то более полезным. Скажу так – это было тестовое задание для меня. Теперь чуть более плотно знаком с функционалом livestreet’а.
А robots.txt пока убрал, пусть индексируют все страницы.