关于SEO优化方案
< DOCTYPE html PUBLIC -WCDTD XHTML TransitionalEN httpwwwworgTRxhtmlDTDxhtml-transitionaldtd>
1.title標簽網站標題
一般格式:文章名 – 分類名 – 網站名
如果太長的話,就只要文章名 – 網站名
搜索引擎只考慮標題標簽中有限的字數,比如說前十到前十五個字。所以很長的充滿關鍵詞的title tag,只能使你的網站看起來更像垃圾。
2.meta標簽
標題標簽不要超過十到十二個字。描述標簽也不要超過三十到三十五個字。關鍵詞標簽只要列出確實和你的網站有關的重要關鍵詞
在這所有的三個標簽里,都切忌重復和堆砌關鍵詞。meta不要每個頁面都千篇一律。
3.URL中的關鍵詞
對英文網頁來說,關鍵詞出現在URL中,多少會有點幫助。對搜索引擎相關性算法的幫助可能很小,但其實對用戶幫助蠻大的。因為搜索結果列在搜索引擎中時,用戶可以從你的文件名就判斷出這個網頁是討論什么的。
關鍵詞可以在域名里,也可以在目錄名里,也可以是文件名,不過切忌關鍵詞堆砌在URL中。
4.文章長度有利于SEO
首先,文章最短也應該在200字左右以上。原因有兩個:
1)如果只有幾十個字,搜索引擎不容易判斷出文字的主題是什么,也就判斷不出與什么關鍵詞最相關。
2)正文太短的話,有可能比導航系統,菜單,版權聲明等雜七雜八的東西加起來的字數還少,被懷疑是復制內容。如果這樣的文字過少的頁面大量存在,可能造成網站內部復制網頁增多。因為你的網頁之間相似性太高,有區別的文字太短。
長文章容易吸引鏈接。看過很多很長的文章,甚至長到幾十頁。雖然讀的時候拉來拉去有點兒不方便,但這樣的文章其實是比較容易吸引鏈接的。
5.robots.txt使用
robots.txt是搜索引擎中訪問網站的時候要查看的第一個文件。Robots.txt文件告訴蜘蛛程序在服務器上什么文件是可以被查看的。
語法:最簡單的 robots.txt 文件使用兩條規則:
User-Agent: 適用下列規則的漫游器
Disallow: 要攔截的網頁
1. 每當用戶試圖訪問某個不存在的URL時,服務器都會在日志中記錄404錯誤(無法找到文件)。每當搜索蜘蛛來尋找并不存在的robots.txt文件時,服務器也將在日志中記錄一條404錯誤,所以你應該在網站中添加一個robots.txt。
2. 網站管理員必須使蜘蛛程序遠離某些服務器上的目錄——保證服務器性能。比如:大多數網站服務器都有程序儲存在“cgi-bin”目錄下,因此在robots.txt文件中加入“Disallow: /cgi-bin”是個好主意,這樣能夠避免將所有程序文件被蜘蛛索引,可以節省服務器資源。一般網站中不需要蜘蛛抓取的文件有:后臺管理文件、程序腳本、附件、數據庫文件、編碼文件、樣式表文件、模板文件、導航圖片和背景圖片等等。
User-agent:
該項的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受到"robots.txt"的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效,在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User-agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的Disallow和Allow行的限制。
Disallow:
該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help/index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問/help/index.html。"Disallow:"說明允許robot訪問該網站的所有url,在"/robots.txt"文件中,至少要有一條Disallow記錄。如果"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎robot,該網站都是開放的。
Allow:
該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭的URL是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個網站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現允許訪問一部分網頁同時禁止訪問其它所有URL的功能。
需要特別注意的是Disallow與Allow行的順序是有意義的,robot會根據第一個匹配成功的Allow或Disallow行確定是否訪問某個URL。
使用"*"和"$":
Baiduspider支持使用通配符"*"和"$"來模糊匹配url。
"$" 匹配行結束符。
"*" 匹配0或多個任意字符。
6.建立sitemap站點地圖
XML地圖可以讓搜索引擎更迅速地了解你站點的更新。Google和yahoo都已經使用sitemap xml地圖加速收錄服務了。
#html/xhtml/xml專欄
總結
- 上一篇: 多备份CEO胡茂华:创业路上的五道坎
- 下一篇: SMS短信PDU编码