婷婷久久综合九色综合,欧美成色婷婷在线观看视频,偷窥视频一区,欧美日本一道道一区二区

<tt id="bu9ss"></tt>
  • <span id="bu9ss"></span>
  • <pre id="bu9ss"><tt id="bu9ss"></tt></pre>
    <label id="bu9ss"></label>

    當(dāng)前位置:首頁(yè) >  站長(zhǎng) >  搜索優(yōu)化 >  正文

    robots.txt寫(xiě)法大全和robots.txt語(yǔ)法的作用

     2015-03-16 16:11  來(lái)源: 百度文庫(kù)   我來(lái)投稿 撤稿糾錯(cuò)

      阿里云優(yōu)惠券 先領(lǐng)券再下單

    1如果允許所有搜索引擎訪問(wèn)網(wǎng)站的所有部分的話 我們可以建立一個(gè)空白的文本文檔,命名為robots.txt放在網(wǎng)站的根目錄下即可。

    robots.txt寫(xiě)法如下:

    User-agent: *

    Disallow:

    或者

    User-agent: *

    Allow: /

    2如果我們禁止所有搜索引擎訪問(wèn)網(wǎng)站的所有部分的話

    robots.txt寫(xiě)法如下:

    User-agent: *

    Disallow: /

    3如果我們需要某一個(gè)搜索引擎的抓取的話,比如百度,禁止百度索引我們的網(wǎng)站的話

    robots.txt寫(xiě)法如下:

    User-agent: Baiduspider

    Disallow: /

    4如果我們禁止Google索引我們的網(wǎng)站的話,其實(shí)跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot

    即可

    robots.txt寫(xiě)法如下:

    User-agent: Googlebot

    Disallow: /

    5如果我們禁止除Google外的一切搜索引擎索引我們的網(wǎng)站話

    robots.txt寫(xiě)法如下:

    User-agent: Googlebot

    Disallow:

    User-agent: *

    Disallow: /

    6如果我們禁止除百度外的一切搜索引擎索引我們的網(wǎng)站的話

    robots.txt寫(xiě)法如下:

    User-agent: Baiduspider

    Disallow:

    User-agent: *

    Disallow: /

    7如果我們需要禁止蜘蛛訪問(wèn)某個(gè)目錄,比如禁止admin、css、images等目錄被索引的話

    robots.txt寫(xiě)法如下:

    User-agent: *

    Disallow: /css/

    Disallow: /admin/

    Disallow: /images/

    8如果我們?cè)试S蜘蛛訪問(wèn)我們網(wǎng)站的某個(gè)目錄中的某些特定網(wǎng)址的話

    robots.txt寫(xiě)法如下:

    User-agent: *

    Allow: /css/my

    Allow: /admin/html

    Allow: /images/index

    Disallow: /css/

    Disallow: /admin/

    Disallow: /images/

    9我們看某些網(wǎng)站的robots.txt里的Disallow或者Allow里會(huì)看很多的符號(hào),比如問(wèn)號(hào)星號(hào)什么的,如果使用“*”,主要是限制訪問(wèn)某個(gè)后綴的域名,禁止訪問(wèn)/html/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

    robots.txt寫(xiě)法如下:

    User-agent: *

    Disallow: /html/*.htm

    10如果我們使用“$”的話是僅允許訪問(wèn)某目錄下某個(gè)后綴的文件

    robots.txt寫(xiě)法如下:

    User-agent: *

    Allow: .asp$

    Disallow: /

    11如果我們禁止索引網(wǎng)站中所有的動(dòng)態(tài)頁(yè)面(這里限制的是有“?”的域名,例如index.asp?id=1)

    robots.txt寫(xiě)法如下:

    User-agent: *

    Disallow: /*?*

    有些時(shí)候,我們?yōu)榱斯?jié)省服務(wù)器資源,需要禁止各類搜索引擎來(lái)索引我們網(wǎng)站上的圖片,這里的辦法除了使用“Disallow: /images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。

    示例12

    如果我們禁止Google搜索引擎抓取我們網(wǎng)站上的所有圖片(如果你的網(wǎng)站使用其他后綴的圖片名稱,在這里也可以直接添加)

    robots.txt寫(xiě)法如下:

    User-agent: Googlebot

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    13如果我們禁止百度搜索引擎抓取我們網(wǎng)站上的所有圖片的話

    robots.txt寫(xiě)法如下:

    User-agent: Baiduspider

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    14除了百度之外和Google之外,禁止其他搜索引擎抓取你網(wǎng)站的圖片

    (注意,在這里為了讓各位看的更明白,因此使用一個(gè)比較笨的辦法——對(duì)于單個(gè)搜索引擎單獨(dú)定義。)

    robots.txt寫(xiě)法如下:

    User-agent: Baiduspider

    Allow: .jpeg$

    Allow: .gif$

    Allow: .png$

    Allow: .bmp$

    User-agent: Googlebot

    Allow: .jpeg$

    Allow: .gif$

    Allow: .png$

    Allow: .bmp$

    User-agent: *

    Disallow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    15僅僅允許百度抓取網(wǎng)站上的“JPG”格式文件

    (其他搜索引擎的辦法也和這個(gè)一樣,只是修改一下搜索引擎的蜘蛛名稱即可)

    robots.txt寫(xiě)法如下:

    User-agent: Baiduspider

    Allow: .jpg$

    Disallow: .jpeg$

    Disallow: .gif$

    Disallow: .png$

    Disallow: .bmp$

    16僅僅禁止百度抓取網(wǎng)站上的“JPG”格式文件

    robots.txt寫(xiě)法如下:

    User-agent: Baiduspider

    Disallow: .jpg$

    17如果 ? 表示一個(gè)會(huì)話 ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會(huì)抓取重復(fù)的網(wǎng)頁(yè)。但是,以 ? 結(jié)尾的網(wǎng)址可能是您要包含的網(wǎng)頁(yè)版本。在此情況下,沃恩可將與 Allow 指令配合使用。

    robots.txt寫(xiě)法如下:

    User-agent:*

    Allow:/*?$

    Disallow:/*?

    Disallow:/ *?

    一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開(kāi)頭、后接任意字符串,然后是問(wèn)號(hào) (?),而后又是任意字符串的網(wǎng)址)。Allow: /*?$ 一行將允許包含任何以 ? 結(jié)尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開(kāi)頭、后接任意字符串,然后是問(wèn)號(hào) (?),問(wèn)號(hào)之后沒(méi)有任何字符的網(wǎng)址)。

    18如果我們想禁止搜索引擎對(duì)一些目錄或者某些URL訪問(wèn)的話,可以截取部分的名字

    robots.txt寫(xiě)法如下:

    User-agent:*

    Disallow: /plus/feedback.php?

    以上內(nèi)容供大家參考下即可。

    申請(qǐng)創(chuàng)業(yè)報(bào)道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

    相關(guān)標(biāo)簽
    robots.txt標(biāo)簽

    相關(guān)文章

    • 看完秒懂robots.txt寫(xiě)法和注意事項(xiàng)

      robots.txt直接放在網(wǎng)站根目錄下,是蜘蛛訪問(wèn)網(wǎng)站時(shí),第一個(gè)抓取的文件。robots.txt是告訴蜘蛛網(wǎng)站的哪些文件允許抓取,哪些文件不允許抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。沒(méi)有抓取就沒(méi)有收錄,沒(méi)有收錄就沒(méi)有排名。所以作為第一蜘蛛訪問(wèn)的文件,寫(xiě)好robots.txt是很重要的。

    • 了解robots文件,主動(dòng)告訴搜索引擎該抓取什么內(nèi)容

      導(dǎo)讀:首先我們要了解什么是robots文件,比如,在安徽人才庫(kù)的首頁(yè)網(wǎng)址后面加入“/robots.txt”,即可打開(kāi)該網(wǎng)站的robots文件,如圖所示,文件里顯示的內(nèi)容是要告訴搜索引擎哪些網(wǎng)頁(yè)希望被抓取,哪些不希望被抓取。因?yàn)榫W(wǎng)站中有一些無(wú)關(guān)緊要的網(wǎng)頁(yè),如“給我留言”或“聯(lián)系方式”等網(wǎng)頁(yè),他們并不參

    • robots.txt禁止搜索引擎收錄的方法

      什么是robots.txt文件?搜索引擎使用spider程序自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。spider在訪問(wèn)一個(gè)網(wǎng)站時(shí),會(huì)首先會(huì)檢查該網(wǎng)站的根域下是否有一個(gè)叫做robots.txt的純文本文件,這個(gè)文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站中創(chuàng)建一個(gè)robots.txt,

    • 如何利用robots.txt對(duì)wordpress博客進(jìn)行優(yōu)化

      筆者在百度站長(zhǎng)平臺(tái)檢測(cè)自己的博客時(shí),出于優(yōu)化的慣性,對(duì)博客的Rbots進(jìn)行了檢測(cè),進(jìn)而在百度搜索了wordpress博客robots的寫(xiě)法設(shè)置問(wèn)題,看了很多wordpress高手對(duì)robots優(yōu)化設(shè)置后,終于有所領(lǐng)悟,在此也分享給一些wordpress新手看看如何去善用robots.txt對(duì)word

      標(biāo)簽:
      robots.txt標(biāo)簽
    • 利用robots.txt找敏感文件教程

      robots.txt是一個(gè)協(xié)議,而不是一個(gè)命令。robots.txt是搜索引擎中訪問(wèn)網(wǎng)站的時(shí)候要查看的第一個(gè)文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的。當(dāng)一個(gè)搜索蜘蛛訪問(wèn)一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該

      標(biāo)簽:
      robots.txt標(biāo)簽

    熱門排行

    信息推薦