當前位置:首頁 >  站長 >  搜索優(yōu)化 >  正文

如何利用robots.txt對wordpress博客進行優(yōu)化

 2015-03-16 16:14  來源: 月光博客   我來投稿 撤稿糾錯

  域名預訂/競價,好“米”不錯過

筆者在百度站長平臺檢測自己的博客時,出于優(yōu)化的慣性,對博客的Rbots進行了檢測,進而在百度搜索了wordpress博客robots的寫法設置問題,看了很多wordpress高手對robots優(yōu)化設置后,終于有所領悟,在此也分享給一些wordpress新手看看如何去善用robots.txt對wordpress博客進行優(yōu)化。

一、先來普及下robots.txt的概念:

robots.txt(統(tǒng)一小寫)是一種存放于網站根目錄下的ASCII編碼的文本文件,它通常告訴網絡搜索引擎的漫游器(又稱網絡蜘蛛),此網站中的哪些內容是不能被搜索引擎的漫游器獲取的,哪些是可以被(漫游器)獲取的。這個文件用于指定spider在您網站上的抓取范圍,一定程度上保護站點的安全和隱私。同時也是網站優(yōu)化利器,例如屏蔽捉取站點的重復內容頁面。

robots.txt目前并不是一種標準,只是一種協(xié)議!所以現(xiàn)在很多搜索引擎對robots.txt里的指令參數都有不同的看待。

二、使用robots.txt需要注意的幾點地方:

1、指令區(qū)分大小寫,忽略未知指令,下圖是本博客的robots.txt文件在Google管理員工具里的測試結果;

2、每一行代表一個指令,空白和隔行會被忽略;

3、“#”號后的字符參數會被忽略;

4、有獨立User-agent的規(guī)則,會排除在通配“*”User agent的規(guī)則之外;

5、可以寫入sitemap文件的鏈接,方便搜索引擎蜘蛛爬行整站內容。

6、盡量少用Allow指令,因為不同的搜索引擎對不同位置的Allow指令會有不同看待。

三、Wordpress的robots.txt優(yōu)化設置

1、User-agent: *

一般博客的robots.txt指令設置都是面對所有spider程序,用通配符“*”即可。如果有獨立User-agent的指令規(guī)則,盡量放在通配“*”User agent規(guī)則的上方。

2、Disallow: /wp-admin/

Disallow: /wp-content/

Disallow: /wp-includes/

屏蔽spider捉取程序文件,同時也節(jié)約了搜索引擎蜘蛛資源。

3、Disallow: /*/trackback

每個默認的文章頁面代碼里,都有一段trackback的鏈接,如果不屏蔽讓蜘蛛去捉取,網站會出現(xiàn)重復頁面內容問題。

4、Disallow: /feed

Disallow: /*/feed

Disallow: /comments/feed

頭部代碼里的feed鏈接主要是提示瀏覽器用戶可以訂閱本站,而一般的站點都有RSS輸出和網站地圖,故屏蔽搜索引擎捉取這些鏈接,節(jié)約蜘蛛資源。

5、Disallow: /?s=*

Disallow: /*/?s=*

這個就不用解釋了,屏蔽捉取站內搜索結果。站內沒出現(xiàn)這些鏈接不代表站外沒有,如果收錄了會造成和TAG等頁面的內容相近。

6、Disallow: /?r=*

屏蔽留言鏈接插件留下的變形留言鏈接。(沒安裝相關插件當然不用這條指令)

7、Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.bmp$

屏蔽捉取任何圖片文件,在這里主要是想節(jié)約點寬帶,不同的網站管理員可以按照喜好和需要設置這幾條指令。

8、Disallow: /?p=*

屏蔽捉取短鏈接。默認頭部里的短鏈接,百度等搜索引擎蜘蛛會試圖捉取,雖然最終短鏈接會301重定向到固定鏈接,但這樣依然造成蜘蛛資源的浪費。

9、Disallow: /*/comment-page-*

Disallow: /*?replytocom*

屏蔽捉取留言信息鏈接。一般不會收錄到這樣的鏈接,但為了節(jié)約蜘蛛資源,也屏蔽之。

10、Disallow: /a/date/

Disallow: /a/author/

Disallow: /a/category/

Disallow: /?p=*&preview=true

Disallow: /?page_id=*&preview=true

Disallow: /wp-login.php

屏蔽其他的一些形形色色的鏈接,避免造成重復內容和隱私問題。

10、Sitemap:http://***.com/sitemap.txt

網站地圖地址指令,主流是txt和xml格式。告訴搜索引擎網站地圖地址,方便搜索引擎捉取全站內容,當然你可以設置多個地圖地址。要注意的就是Sitemap的S要用大寫,地圖地址也要用絕對地址。

上面的這些Disallow指令都不是強制要求的,可以按需寫入。也建議站點開通谷歌管理員工具,檢查站點的robots.txt是否規(guī)范。

好了,以上就是對利用robots.txt對wordpress博客進行優(yōu)化的詳細內容,希望可以幫助和我一樣剛接觸wordpress博客的同學。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

相關標簽
robots.txt標簽

相關文章

  • 看完秒懂robots.txt寫法和注意事項

    robots.txt直接放在網站根目錄下,是蜘蛛訪問網站時,第一個抓取的文件。robots.txt是告訴蜘蛛網站的哪些文件允許抓取,哪些文件不允許抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。沒有抓取就沒有收錄,沒有收錄就沒有排名。所以作為第一蜘蛛訪問的文件,寫好robots.txt是很重要的。

  • 了解robots文件,主動告訴搜索引擎該抓取什么內容

    導讀:首先我們要了解什么是robots文件,比如,在安徽人才庫的首頁網址后面加入“/robots.txt”,即可打開該網站的robots文件,如圖所示,文件里顯示的內容是要告訴搜索引擎哪些網頁希望被抓取,哪些不希望被抓取。因為網站中有一些無關緊要的網頁,如“給我留言”或“聯(lián)系方式”等網頁,他們并不參

  • robots.txt禁止搜索引擎收錄的方法

    什么是robots.txt文件?搜索引擎使用spider程序自動訪問互聯(lián)網上的網頁并獲取網頁信息。spider在訪問一個網站時,會首先會檢查該網站的根域下是否有一個叫做robots.txt的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站中創(chuàng)建一個robots.txt,

  • robots.txt寫法大全和robots.txt語法的作用

    1如果允許所有搜索引擎訪問網站的所有部分的話我們可以建立一個空白的文本文檔,命名為robots.txt放在網站的根目錄下即可。robots.txt寫法如下:User-agent:*Disallow:或者User-agent:*Allow:/2如果我們禁止所有搜索引擎訪問網站的所有部分的話robots

    標簽:
    robots.txt標簽
  • 利用robots.txt找敏感文件教程

    robots.txt是一個協(xié)議,而不是一個命令。robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。當一個搜索蜘蛛訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該

    標簽:
    robots.txt標簽

熱門排行

信息推薦