當(dāng)前位置:首頁 >  站長 >  建站經(jīng)驗(yàn) >  正文

網(wǎng)站誤封Robots該如何處理

 2016-02-18 15:42  來源: 站長學(xué)院   我來投稿 撤稿糾錯

  域名預(yù)訂/競價(jià),好“米”不錯過

robots文件是搜索生態(tài)中很重要的一個環(huán)節(jié),同時(shí)也是一個很細(xì)節(jié)的環(huán)節(jié)。很多站長同學(xué)在網(wǎng)站運(yùn)營過程中,很容易忽視r(shí)obots文件的存在,進(jìn)行錯誤覆蓋或者全部封禁robots,造成不必要損失!

那么如果誤操作封禁了robots怎么辦?今天我們請到了廈門258網(wǎng)站運(yùn)營負(fù)責(zé)人——鄭軍偉,為我們分享網(wǎng)站robots誤封禁后該如何操作?

【案例背景】

網(wǎng)站開發(fā)2.0版本,技術(shù)選擇了在線開發(fā),為了避免搜索引擎抓取開發(fā)版本,要求技術(shù)人員設(shè)置了Robots封禁處理。2.0版本開發(fā)周期1個月,1個月后網(wǎng)站版本迭代,直接覆蓋了1.0版本,包括Robots封禁文件,2天后發(fā)現(xiàn)流量大幅下降,檢查收錄發(fā)現(xiàn)800萬收錄降至0條,關(guān)鍵詞大量掉線。

【處理方式】

1.修改Robots封禁為允許,然后到百度站長后臺檢測并更新Robots。

2.在百度站長后臺抓取檢測,此時(shí)顯示抓取失敗,沒關(guān)系,多點(diǎn)擊抓取幾次,觸發(fā)蜘蛛抓取站點(diǎn)。

3.在百度站長后臺抓取頻次,申請抓取頻次上調(diào)。

4.百度反饋中心,反饋是因?yàn)檎`操作導(dǎo)致了這種情況的發(fā)生。

5.百度站長后臺鏈接提交處,設(shè)置數(shù)據(jù)主動推送(實(shí)時(shí))。

6.更新sitemap網(wǎng)站地圖,重新提交百度,每天手工提交一次。

以上處理完,接下來就是等待了,萬幸,2天的時(shí)間數(shù)據(jù)開始慢慢回升,到第3天基本回升到正常狀態(tài)!

【案例總結(jié)】

本次事故絕對是運(yùn)營生涯的一次敗筆,總結(jié)反思一下,希望大家避免類似問題。

1.產(chǎn)品開發(fā)一定要避免在線開發(fā),不能為了省事不搭建開發(fā)環(huán)境。

2.產(chǎn)品迭代要有流程記錄,開發(fā)時(shí)做了那些設(shè)置處理,那些是不需要放出來的,那些是必須放出來的,要非常清楚。

3.要經(jīng)常關(guān)注百度站長后臺,關(guān)注相關(guān)數(shù)據(jù)變化,從數(shù)據(jù)變化中及時(shí)發(fā)現(xiàn)問題

申請創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots

相關(guān)文章

  • robots協(xié)議怎么寫 作用是什么?

    robots協(xié)議也叫robots.txt(統(tǒng)一小寫)是一種存放于網(wǎng)站根目錄下的ASCII編碼的文本文件,它通常告訴網(wǎng)絡(luò)搜索引擎的漫游器(又稱網(wǎng)絡(luò)蜘蛛),此網(wǎng)站中的哪些內(nèi)容是不應(yīng)被搜索引擎的漫游器獲取的,哪些是可以被漫游器獲取的。

    標(biāo)簽:
    robots
  • robots具體應(yīng)該禁止些什么文件

    今天大概總結(jié)一下:首先說明一點(diǎn):每天百度派出的蜘蛛是有限的,robots寫出來是為了節(jié)省蜘蛛資源讓蜘蛛能更快的進(jìn)行有效爬取和收錄!

  • robots文件編寫秘籍 新手必看

    當(dāng)我們的網(wǎng)站上線之后,一定會有一些不想讓百度抓取的頁面、文件,針對這種問題,我們就要使用協(xié)議去屏蔽。那么這個協(xié)議是什么?究竟怎么寫這個協(xié)議呢?

    標(biāo)簽:
    robots文件
    robots
  • robots.txt文件怎么寫才正確呢?

    曾慶平SEO在前面的文章中講過robots.txt概念的時(shí)候,留下一個問題:為什么曾慶平SEO的robots.txt寫得那么復(fù)雜?曾慶平SEO的robots.txt:http://www.xxx.com/robots.txt這樣做的目的是,讓搜索引擎看來網(wǎng)站更規(guī)范和權(quán)威。

  • 百度站長平臺檢測robots.txt 提示301錯誤代碼 怎么解決

    如果以上都沒有錯誤,那么你就要檢查你的CDN了,很可能是因?yàn)镃DN緩存而造成的,或者是你配置了https,而站長平臺卻綁定的http,無法訪問,這兩點(diǎn)自己排查,如果以上都做到,那么是不會提示這類錯誤的,當(dāng)然也不排查百度站長平臺本身的問題,不過這種機(jī)率性很小。

熱門排行

信息推薦