婷婷久久综合九色综合,欧美成色婷婷在线观看视频,偷窥视频一区,欧美日本一道道一区二区

<tt id="bu9ss"></tt>
  • <span id="bu9ss"></span>
  • <pre id="bu9ss"><tt id="bu9ss"></tt></pre>
    <label id="bu9ss"></label>

    當(dāng)前位置:首頁 >  站長 >  建站經(jīng)驗(yàn) >  正文

    利用robots文件做seo優(yōu)化,讓蜘蛛更好的抓取網(wǎng)站

     2015-08-13 09:06  來源: 用戶投稿   我來投稿 撤稿糾錯(cuò)

      阿里云優(yōu)惠券 先領(lǐng)券再下單

    robots文件存在于網(wǎng)站根目錄,是用來告訴百度蜘蛛那些應(yīng)該抓取,那些不應(yīng)該抓取。正確使用robots文件有助于做好seo優(yōu)化,robots文件的核心詞匯就是allow和disallow用法。百度官網(wǎng)是認(rèn)可這個(gè)文件的,在百度站長平臺(tái)上也有robots這個(gè)欄目,點(diǎn)擊進(jìn)入,就可以看到你網(wǎng)站robots文件是否編寫正確了。

    百度robots文件使用說明

    1、robots.txt可以告訴百度您網(wǎng)站的哪些頁面可以被抓取,哪些頁面不可以被抓取。

    2、您可以通過Robots工具來創(chuàng)建、校驗(yàn)、更新您的robots.txt文件,或查看您網(wǎng)站robots.txt文件在百度生效的情況。

    3、Robots工具暫不支持https站點(diǎn)。

    4、Robots工具目前支持48k的文件內(nèi)容檢測(cè),請(qǐng)保證您的robots.txt文件不要過大,目錄最長不超過250個(gè)字符。

    上圖我給的一個(gè)例子中,disallow語句有問題,原因是把英文的冒號(hào)寫成了中文的冒號(hào)。

    當(dāng)然直接輸入網(wǎng)站根目錄加上robtots.txt文件也可以

    User-agent:* 是用來置頂那些搜索引擎蜘蛛可以抓取的,一般默認(rèn)設(shè)置

    Disallow:/category/*/page/ 分類目錄下面翻頁后的鏈接,比如,進(jìn)入校賺網(wǎng)分類目錄 "推廣運(yùn)營經(jīng)驗(yàn)"目錄后,在翻頁一次,就成了 stcash.com/category/tuiguangyunying/page/2形式了

    Disallow:/?s=*Disallow:/*/?s=*搜索結(jié)果頁面和分類目錄搜索結(jié)果頁面,這里沒必要再次抓取。

    Disallow:/wp-admin/ Disallow:/wp-content/ Disallow:/wp-includes/ 這三個(gè)目錄是系統(tǒng)目錄,一般都是屏蔽蜘蛛抓取

    Disallow:/*/trackback trackback的鏈接

    Disallow:/feed Disallow:/*/feed Disallow:/comments/feed訂閱鏈接

    Disallow:/?p=* 文章短鏈接,會(huì)自動(dòng)301跳轉(zhuǎn)到長連接

    例如,朱海濤博客之前就被收錄過短連接

    Disallow:/*/comment-page-* Disallow:/*?replytocom* 這兩個(gè)我在之前文章有過說明,來自于評(píng)論鏈接,很容易造成重復(fù)收錄。

    在robots.txt文件的最后還可以制定sitemap文件Sitemap:http://***.com/sitemap.txt

    sitemap地址指令,主流是txt和xml格式。在這里分享一段張戈所寫txt格式的simemap文件。

    將上述代碼保存到txt文件,上傳到根目錄,并且在robots.txt文件中指定即可

    這里給大家共享下我的robots.txt文件

    User-agent: *

    Disallow:/wp-admin/

    Disallow: /*/comment-page-*

    Disallow: /*?replytocom*

    Disallow: /wp-content/

    Disallow: /wp-includes/

    Disallow: /category/*/page/

    Disallow: /*/trackback

    Disallow: /feed

    Disallow: /*/feed

    Disallow: /comments/feed

    Disallow: /?s=*

    Disallow: /*/?s=*\

    Disallow: /attachment/

    Disallow: /tag/*/page/

    Sitemap:

    來源:校賺網(wǎng)朱海濤(微信:81433982),原創(chuàng)文章如轉(zhuǎn)載,請(qǐng)注明本文鏈接:

    申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

    相關(guān)標(biāo)簽
    robots標(biāo)簽
    搜索引擎蜘蛛

    相關(guān)文章

    • 什么是搜索引擎蜘蛛?SEO搜索引擎蜘蛛工作原理

      作為一名編輯乃至站長,在關(guān)注網(wǎng)站在搜索引擎排名的時(shí)候,最重要的就是蜘蛛(spider)。搜索引擎蜘蛛是一個(gè)自動(dòng)抓取互聯(lián)網(wǎng)上網(wǎng)頁內(nèi)容的程序,每個(gè)搜索引擎都有自己的蜘蛛,那么,蜘蛛是怎樣在網(wǎng)站上抓取內(nèi)容的呢?一起來看看它的工作原理吧

      標(biāo)簽:
      搜索引擎蜘蛛
    • 什么是搜索引擎蜘蛛?SEO搜索引擎蜘蛛工作原理

      作為一名編輯乃至站長,在關(guān)注網(wǎng)站在搜索引擎排名的時(shí)候,最重要的就是蜘蛛(spider)。搜索引擎蜘蛛是一個(gè)自動(dòng)抓取互聯(lián)網(wǎng)上網(wǎng)頁內(nèi)容的程序,每個(gè)搜索引擎都有自己的蜘蛛,那么,蜘蛛是怎樣在網(wǎng)站上抓取內(nèi)容的呢?一起來看看它的工作原理吧

      標(biāo)簽:
      搜索引擎蜘蛛
    • 七類蜘蛛陷坑 網(wǎng)站優(yōu)化中必須要躲避

      不少的網(wǎng)站就是沒有優(yōu)化好這一方面造成了站內(nèi)存在很多蛛蛛陷坑,到最終壓根兒一個(gè)好好的網(wǎng)站被搜索引擎網(wǎng)站屢屢錯(cuò)判,要不是不給名次,甚至于是造成了數(shù)量多頁面都搜索引擎網(wǎng)站拋棄。下面小編就為大家介紹網(wǎng)站優(yōu)化中必須要躲避的七類蛛蛛陷坑

      標(biāo)簽:
      搜索引擎
      搜索引擎蜘蛛
    • 網(wǎng)站怎么做seo才能吸引蜘蛛收錄更多的頁面?

      網(wǎng)站怎么做seo才能吸引蜘蛛收錄更多的頁面?蜘蛛爬行的次數(shù)越多,網(wǎng)頁收錄的名次越高,該怎么做才能吸引蜘蛛收錄更多的頁面呢?下面我們就來看看詳細(xì)的教程,需要的朋友可以參考下

      標(biāo)簽:
      搜索引擎蜘蛛
    • SEO優(yōu)化:淺談如何避免蜘蛛陷阱

      在SEO優(yōu)化的過程中如何避免蜘蛛陷阱是非常重要的一件事情,本文主要為大家淺談幾招可以避免蜘蛛陷阱的方法,有興趣的朋友們就來了解下吧

    熱門排行

    信息推薦