С одной стороны, поисковые боты полезны: они индексируют сайт, и впоследствии обеспечивают появление на сайте посетителей из поиска; или же на страницах рейтингов появляются активные ссылки на сайт.
С другой стороны, они создают дополнительную нагрузку.
Есть безусловно полезные боты: яндекс, гугл, ремблер и т.п.
Есть безусловно вредные, как например AhrefsBot, создающий огромные нагрузки, при этом не приносящий никакой пользы, а продающий информацию о моем сайте.
Сейчас доступ ботам делаю черным списком: массив известных мне ботов, и массив "вредных" ботов, которым на любой запрос отдается страница авторизации.
Мой черный список ботов
var $bad_bots = array(
'ahrefsbot' => 'AhrefsBot',
'crawl16.lp' => 'BadBotFR',
'crawler.007ac9' => 'GutteraBot',
'mfibot' => 'mfisoftBot',
'OpenLinkProfiler.org/bot' => 'OpenLinkProfilerBot',
'ac9.net' => 'SpamBotFR',
);
Подумываю, не сделать ли белым списком? То есть, отдавать контент только тем ботам, кто в белом списке, а всем остальным отдавать страницу авторизации.
_____________
Бесплатному сыру в дырки не заглядывают...