剛剛上線的新站點,最為憂傷的非被搜索引擎收錄莫屬。有的站長會想,收錄這個應該非常簡單,去搜索引擎入口提交就能被度娘和谷哥加入索引庫了。誠然,站點被收錄是遲早的事,但是你有木有想過通過自己的總結將收錄的速度加快呢?
度 娘放出快照的時間少則一天,多則一個月。谷歌在一般情況下5天內就會放出快照。下面3A環保漆結合分析如何將上述兩個搜索引擎加速規則。
第一,在百度和谷歌的搜索引擎入口進行站點的提交。注意:入口提交的描述這塊最好填寫一下,有一點好處。
第二,新站寫上robots.txt和制作網站地圖。
如果你經常查看IIS日志你會發現不管是baiduspider還是googlebot爬取一個站點首先光臨的都是robots.txt,這個協議貌似已經成為站點和搜索引擎蜘蛛之間的一個潛規則。而網站地圖是一個站點所有鏈接的容器,它是作為搜索引擎爬蟲的“菜”而存在。網站地圖分為xml和html兩種格式,據說谷歌比較喜歡爬取xml的地圖,百度沒說明。如果你是做谷歌優化的那么需要迎合谷歌機器人的口味,如果是百度優化,隨意選擇一種都行。筆者個人建議html格式的地圖,因為更為美觀。
第三,外部鏈接的支持。
李彥宏的超鏈分析是通過分析鏈接網站的多少來評價被鏈接的網站質量(當然,并不是說外鏈在seo優化工作中所占的比例是主導)。多讓蜘蛛在爬取權重高的站點時看到你的鏈接從而進行爬取,百利無一害。當然這個數量上需要把握好,最好是每天都堅持在一個差不多的基數上。外鏈平臺的選擇也很重要,不能只去某一個高權重秒收平臺發,不能去不收錄不怎么樣的平臺發。需要多元化,一方面是為了誘惑爬蟲爬取,一方面為站點以后的外鏈方向做好導航。
第四,每天定時查看IIS日志。
百度的蜘蛛爬取新站通常只會爬取robots.txt、網站地圖和首頁,爬取的頻率很小,所以如果IIS日志上顯示的都是200狀態碼,那么恭喜,如果出現類似404、503的狀態碼,需要進行解決。谷歌的機器人爬蟲爬取的頻率會比較頻繁,只要出現上述不好的狀態碼,需要即使解決。為爬蟲們留下好印象。
第五,站點的空間穩定性。
這個是一個小因素,一般情況下不是問題,但是建議seoer們還是使用百度統計進行訪問速度檢測更為保險。
上述應該是一個新站為了搜索引擎收錄加速而能“犧牲”的問題大綜合了,當然還有包括比如內容充實,網站結構合理等因素在內,如果你的站點做到了,那么正常情況在上線的第二天就能被谷歌收錄,百度則需要一個禮拜左右