做過網(wǎng)站優(yōu)化的朋友都知道,搜索引擎蜘蛛爬行抓取網(wǎng)站時首先會去訪問根目錄下的robots.txt文件,如果robots文件存在,則會根據(jù)robots文件內(nèi)設置的規(guī)則進行爬行抓取,如果文件不存在則會順著首頁進行抓取,那么robots文件的工作原理是什么呢?如何對robots.txt文件進行設置
一、robots.txt的工作原理
robots.txt是一個純文本的文件,文件的名字必須全部小寫,并且放置在網(wǎng)站的根目錄下面,通過文件中的規(guī)則聲明網(wǎng)站哪些內(nèi)容不想被搜索引擎蜘蛛抓取收錄,或者指定某個搜索引擎不能收錄robots.txt也叫做爬蟲協(xié)議,遵循爬蟲協(xié)議的搜索引擎蜘蛛,都會根據(jù)協(xié)議的內(nèi)容對網(wǎng)站進行爬蟲抓取的。
二、robots.txt的設置
1.User-agent的設置
在"robots.txt"文件中,如果有多條 User-agent 記錄說明有多個 robot 會受到"robots.txt"的限制,對該文件來說,至少要有一條 User-agent 記錄。如果該項的值設為*,則對任何 robot均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。
2.Disallow的設置
這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以 Disallow 項的值開頭的URL不會被 robot 訪問。
3.Allow的設置
與 Disallow 項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以 Allow項的值開頭的 URL是允許robot訪問的。
合理的運用robots.txt文件對網(wǎng)站優(yōu)化能起到很大的作用,比如當網(wǎng)站出現(xiàn)死鏈的時候,可以通過robots.txt文件進行屏蔽,這樣就不會影響到網(wǎng)站的排名,另外還可以在robots.txt添加網(wǎng)站地圖URL,能有效的幫助搜索引擎蜘蛛對網(wǎng)站內(nèi)容的爬行抓取。
本文名稱:網(wǎng)站優(yōu)化robots.txt的原理與設置
鏈接URL:http://www.rwnh.cn/news43/252593.html
成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站設計、關鍵詞優(yōu)化、定制網(wǎng)站、網(wǎng)頁設計公司、企業(yè)網(wǎng)站制作、建站公司
廣告
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉載內(nèi)容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉載,或轉載時需注明來源:
創(chuàng)新互聯(lián)