成年无码av片,国产精品久久久久久成人影院 ,怡红院av一区二区三区,正在播放老肥熟妇露脸

專業(yè)的廣州網(wǎng)站建設(shè)、廣州網(wǎng)站制作公司為您服務(wù),電話:020-85548809,29883069 手機(jī)訪問(wèn)
微信關(guān)注
關(guān)注奇億廣州網(wǎng)站建設(shè)微信
網(wǎng)站導(dǎo)航
新聞中心
首頁(yè)>新聞中心>網(wǎng)站運(yùn)營(yíng)

如何防止限制搜索引擎蜘蛛占用太多服務(wù)器資源

添加時(shí)間:2012/9/23 15:45:51    編輯:奇億網(wǎng)站建設(shè)公司

如果一個(gè)網(wǎng)站有很多內(nèi)容,吸引到各大搜索引擎蜘蛛不停晝夜地爬行勢(shì)必會(huì)給服務(wù)器資源造成極大的浪費(fèi),特別如果又是流量比較大的站的話更易被無(wú)效蜘蛛占用,下面通過(guò)robots協(xié)議(也稱為爬蟲(chóng)協(xié)議、爬蟲(chóng)規(guī)則、機(jī)器人協(xié)議等)也就是robots.txt即可限制在每天爬行多少次,補(bǔ)充:robots協(xié)議即網(wǎng)站通過(guò)robots協(xié)議告訴搜索引擎哪些頁(yè)面可以抓取,哪些頁(yè)面不能抓取。

將以下內(nèi)容保存為robots.txt文件,然后傳到根目錄即可。

#限制的搜索引擎的User-Agent代碼,*表示所有###########
User-agent: *
Crawl-delay:2000

Disallow: js/
Disallow: template/
Disallow: include/
Disallow: gotourl.php

其中2000是告訴蜘蛛每天只能爬行2000次,Disallow是告訴蜘蛛不要爬行的目錄。