一区自拍_国产成人精品一区二区三区视频_中文字幕观看_亚洲精品电影在线观看_91在线看_国产中文视频

虛擬主機被搜索引擎爬蟲訪問耗費大量流量解決方法

日期:2016/8/3 / 人氣:

問題場景:客戶使用虛擬主機,網(wǎng)站被搜索引擎爬蟲訪問耗費大量流量和帶寬,如何處理

解決方法:可以通過在站點根目錄下創(chuàng)建Robots.txt,Robots.txt文件是網(wǎng)站的一個文件,搜索引擎蜘蛛抓取網(wǎng)站首先就是抓取這個文件,根據(jù)里面的內(nèi)容來決定對網(wǎng)站文件訪問的范圍。它能夠保護我們的一些文件不暴露在搜索引擎之下,從而有效的控制蜘蛛的爬取路徑。

1、首先,先了解一下目前搜索引擎和其對應的User-Agent,如下:

搜索引擎         User-Agent
AltaVista        Scooter
baidu            Baiduspider
Infoseek         Infoseek
Hotbot           Slurp
AOL Search       Slurp
Excite           ArchitextSpider
Google           Googlebot
Goto             Slurp
Lycos            Lycos
MSN              Slurp
Netscape         Googlebot
NorthernLight    Gulliver
WebCrawler       ArchitextSpider
Iwon             Slurp
Fast             Fast
DirectHit        Grabber
Yahoo Web Pages  Googlebot
LooksmartWebPages Slurp
2、Robots.txt樣例代碼:

例1. 禁止所有搜索引擎訪問網(wǎng)站的任何部分
User-agent: *
Disallow: /
例2. 允許所有的搜索引擎訪問網(wǎng)站的任何部分
User-agent: *
Disallow:
例3. 僅禁止Baiduspider訪問您的網(wǎng)站
User-agent: Baiduspider
Disallow: /
例4. 僅允許Baiduspider訪問您的網(wǎng)站
User-agent: Baiduspider
Disallow:
例5. 禁止spider訪問特定目錄
User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /data/
注意事項:1)三個目錄要分別寫。
2)請注意最后要帶斜杠。
3)帶斜杠與不帶斜杠的區(qū)別。
例6. 允許訪問特定目錄中的部分url
實現(xiàn)a目錄下只有b.htm允許訪問
User-agent: *
Allow: /a/b.htm
Disallow: /a/

 

作者:朋友圈科技


Go To Top 回頂部
主站蜘蛛池模板: 国产精品视频一区二区三区 | 日本三级网站在线观看 | 久久精品亚洲精品 | 精久久久| 久久精品视 | 国产精品成人国产乱一区 | 久久99精品久久久久久青青日本 | 精品无人乱码一区二区三区 | av2014天堂网 | 黄色的网站免费观看 | 成人在线看片 | 91手机精品视频 | 日韩电影免费在线 | 欧美视频在线免费看 | 久久91 | 91精品久久久久久久久 | 精品一区二区三区四区视频 | www.99re| 日韩一片 | 久久免费精品视频 | 久久久不卡 | 日韩一区免费观看 | 亚洲伦理一区 | 久久草视频 | 成人网电影| 97香蕉久久国产超碰青草软件 | 操人网| 国产精品第2页 | 久久久久国产亚洲日本 | 婷婷桃色网 | 久久新视频 | 国产真实精品久久二三区 | 成人国产精品一区 | 不卡一区二区三区四区 | 精品综合 | 精品久久久成人 | 久久麻豆 | 亚洲精品久久久久久久久久久 | 日韩午夜一级片 | 日本精品在线视频 | 欧美一区二区三区黄 |