網站建設:robots協議

 二維碼 359
發表時間:2016-08-10 15:33作者:敖游來源:遨游建站網址:http://m.oudifangfumu.com

robots協議(也稱為爬蟲協議、爬蟲規則、機器人協議等)的全稱是“網絡爬蟲排除標準”(Robots Exclusion Protocol),也就是robots.txt,網站通過robots協議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。Robots協議是網站國際互聯網界通行的道德規范,其目的是保護網站數據和敏感信息、確保用戶個人信息和隱私不被侵犯。因其不是命令,故需要搜索引擎自覺遵守。一些病毒如malware(馬威爾病毒)經常通過忽略robots協議的方式,獲取網站后臺數據和個人信息。


robots協議原理

robots.txt文件是一個文本文件,使用任何一個常見的文本編輯器,比如Windows系統自帶的Notepad,就可以創建和編輯它。robots.txt是一個協議,而不是一個命令。robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。

當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網站上所有沒有被口令保護的頁面。百度官方建議,僅當您的網站包含不希望被搜索引擎收錄的內容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網站上所有內容,請勿建立robots.txt文件。

如果將網站視為酒店里的一個房間,robots.txt就是主人在房間門口懸掛的“請勿打擾”或“歡迎打掃”的提示牌。這個文件告訴來訪的搜索引擎哪些房間可以進入和參觀,哪些房間因為存放貴重物品,或可能涉及住戶及訪客的隱私而不對搜索引擎開放。但robots.txt不是命令,也不是防火墻,如同守門人無法阻止竊賊等惡意闖入者。

Robots協議是國際互聯網界通行的道德規范,基于以下原則建立:

1、搜索技術應服務于人類,同時尊重信息提供者的意愿,并維護其隱私權;

2、網站有義務保護其使用者的個人信息和隱私不被侵犯。


Robots協議用來告知搜索引擎哪些頁面能被抓取,哪些頁面不能被抓取;可以屏蔽一些網站中比較大的文件,如:圖片,音樂,視頻等,節省服務器帶寬;可以屏蔽站點的一些死鏈接。方便搜索引擎抓取網站內容;設置網站地圖連接,方便引導蜘蛛爬取頁面。

文件寫法

User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄

Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄

Disallow: /ABC/ 這里定義是禁止爬尋ABC目錄下面的目錄

Disallow: /cgi-bin/*.htm 禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

Disallow: /*?* 禁止訪問網站中所有包含問號 (?) 的網址

Disallow: /.jpg$ 禁止抓取網頁所有的.jpg格式的圖片

Disallow:/ab/adc.html 禁止爬取ab文件夾下面的adc.html文件。

Allow: /cgi-bin/ 這里定義是允許爬尋cgi-bin目錄下面的目錄

Allow: /tmp 這里定義是允許爬尋tmp的整個目錄

Allow: .htm$ 僅允許訪問以".htm"為后綴的URL。

Allow: .gif$ 允許抓取網頁和gif格式圖片

Sitemap: 網站地圖 告訴爬蟲這個頁面是網站地圖

文件用法

例1. 禁止所有搜索引擎訪問網站的任何部分

User-agent: *

Disallow: /

實例分析:淘寶網的 Robots.txt文件

User-agent: Baiduspider

Disallow: /

User-agent: baiduspider

Disallow: /

很顯然淘寶不允許百度的機器人訪問其網站下其所有的目錄。

例2. 允許所有的robot訪問 (或者也可以建一個空文件 “/robots.txt” file)

User-agent: *

Allow: /

例3. 禁止某個搜索引擎的訪問

User-agent: BadBot

Disallow: /

例4. 允許某個搜索引擎的訪問

User-agent: Baiduspider

allow:/

例5.一個簡單例子

在這個例子中,該網站有三個目錄對搜索引擎的訪問做了限制,即搜索引擎不會訪問這三個目錄。

需要注意的是對每一個目錄必須分開聲明,而不要寫成 “Disallow: /cgi-bin/ /tmp/”。

User-agent:后的*具有特殊的含義,代表“any robot”,所以在該文件中不能有“Disallow: /tmp/*” or “Disallow:*.gif”這樣的記錄出現。

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

Robot特殊參數:

允許 Googlebot:

如果您要攔截除Googlebot以外的所有漫游器不能訪問您的網頁,可以使用下列語法:

User-agent:

Disallow: /

User-agent: Googlebot

Disallow:

Googlebot 跟隨指向它自己的行,而不是指向所有漫游器的行。

“Allow”擴展名:

Googlebot 可識別稱為“Allow”的 robots.txt 標準擴展名。其他搜索引擎的漫游器可能無法識別此擴展名,因此請使用您感興趣的其他搜索引擎進行查找。“Allow”行的作用原理完全與“Disallow”行一樣。只需列出您要允許的目錄或頁面即可。

您也可以同時使用“Disallow”和“Allow”。例如,要攔截子目錄中某個頁面之外的其他所有頁面,可以使用下列條目:

User-agent: Googlebot

Allow: /folder1/myfile.html

Disallow: /folder1/

這些條目將攔截 folder1 目錄內除 myfile.html 之外的所有頁面。

如果您要攔截 Googlebot 并允許 Google 的另一個漫游器(如 Googlebot-Mobile),可使用”Allow”規則允許該漫游器的訪問。例如:

User-agent: Googlebot

Disallow: /

User-agent: Googlebot-Mobile

Allow:

使用 * 號匹配字符序列:

您可使用星號 (*) 來匹配字符序列。例如,要攔截對所有以 private 開頭的子目錄的訪問,可使用下列條目: User-Agent: Googlebot

Disallow: /private*/

要攔截對所有包含問號 (?) 的網址的訪問,可使用下列條目:

User-agent: *

Disallow: /*?*

使用 $ 匹配網址的結束字符

您可使用 $字符指定與網址的結束字符進行匹配。例如,要攔截以 .asp 結尾的網址,可使用下列條目: User-agent: Googlebot

Disallow: /*.asp$

您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 表示一個會話 ID,您可排除所有包含該 ID 的網址,確保 Googlebot 不會抓取重復的網頁。但是,以 ? 結尾的網址可能是您要包含的網頁版本。在此情況下,可對 robots.txt 文件進行如下設置:

User-agent: *

Allow: /*?$

Disallow: /*?

Disallow: / *?

一行將攔截包含 ? 的網址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號 (?),而后又是任意字符串的網址)。

Allow: /*?$ 一行將允許包含任何以 ? 結尾的網址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網址)。

盡管robots.txt已經存在很多年了,但是各大搜索引擎對它的解讀都有細微差別。Google與百度都分別在自己的站長工具中提供了robots工具。如果您編寫了robots.txt文件,建議您在這兩個工具中都進行測試,因為這兩者的解析實現確實有細微差別。

上一頁 1 2 下一頁
廣告投放問題
網站建設問題
小程序設計問題

以信載商,良心建站。遨游始終秉承“一次建站、終身維護”的宗旨,竭誠為客戶提供最優質的互聯網服務。遨游建站率先植入seo優化理念,讓你的網頁更利于搜索引擎抓取,關鍵詞排名更靠前。可仿站、可定制。無論是傳統型企業官網、集團型品牌官網,還是營銷型網站、電商型網站、定制型網站、特殊行業網站(醫療、教育),全部搞定。

公司:網站建設_小程序設計_競價托管代運營公司;郵箱:1013601535@qq.com

手機:17073547034;QQ: 1013601535

在線留言咨詢,24小時內回復
我想咨詢
*
企業名稱
手機號碼
*
您的姓名
所在城市
提交
最新發布
我們是中小企業可信賴的合作伙伴!始終專注一件事,一站式互聯網信息技術服務商
19240102767
全國統一服務熱線
遨游建站是全國高端網站建設公司,提供廣州企業網站建設/小程序開發/購物網站設計制作與競價托管代運營服務;秉承“一次建站,終身維護”的宗旨,有償提供互聯網技術支持。
本站部分圖片、音頻、視頻來源于網絡,版權歸原作者,如有侵權請聯系我們刪除。
主站蜘蛛池模板: 亚洲综合av一区二区三区不卡| 久久综合香蕉久久久久久久| 久久99国产综合色| 久久久久噜噜噜亚洲熟女综合| 国产成人亚洲综合a∨| 狠狠色噜噜色狠狠狠综合久久| 久久99国产综合精品女同| 婷婷综合激六月情网| 狠狠色丁香久久婷婷综合| 狠狠色综合TV久久久久久| 久久狠狠一本精品综合网| 伊人情人综合成人久久网小说| 精品久久综合一区二区| 91精品国产综合久久香蕉 | 一本色道久久88亚洲综合| 中文字幕乱码人妻综合二区三区| 91精品国产综合久久青草| 一本久到久久亚洲综合| 久久婷婷五月综合色精品| 亚洲狠狠久久综合一区77777| 思思91精品国产综合在线 | 亚洲另类激情综合偷自拍图| 综合久久久久久中文字幕| 亚洲精品国产第一综合99久久| 久久综合综合久久| 久久综合九色综合97免费下载| 亚洲 自拍 另类小说综合图区| 狠狠色狠狠色综合| 九九久久99综合一区二区| 亚洲 综合 国产 欧洲 丝袜| 天天做天天爱天天综合网| 久久婷婷五月综合色精品| 丁香亚洲综合五月天婷婷| 国产成人综合在线视频| 亚洲精品第一国产综合精品99| 日本久久综合久久综合| 亚洲色欲久久久久综合网| 激情综合色五月六月婷婷| 精品久久久久久综合日本| 亚洲乱码中文字幕小综合| 色偷偷亚洲第一综合|