本文實(shí)例講述了帝國CMS中robots.txt文件用法。分享給大家供大家參考。具體分析如下:
在說帝國CMS中robots.txt文件使用前先給大家解釋下robots.tx是干什么的.
robots協(xié)議(也稱為爬蟲協(xié)議、爬蟲規(guī)則、機(jī)器人協(xié)議等)也就是robots.txt,網(wǎng)站通過robots協(xié)議告訴搜索引擎哪些頁面可以抓取,哪些頁面不能抓取。Robots協(xié)議是網(wǎng)站國際互聯(lián)網(wǎng)界通行的道德規(guī)范,其目的是保護(hù)網(wǎng)站數(shù)據(jù)和敏感信息、確保用戶個(gè)人信息和隱私不被侵犯。因其不是命令,故需要搜索引擎自覺遵守。一些病毒如malware(馬威爾病毒)經(jīng)常通過忽略robots協(xié)議的方式,獲取網(wǎng)站后臺(tái)數(shù)據(jù)和個(gè)人信息。
robots.txt文件是一個(gè)文本文件,使用任何一個(gè)常見的文本編輯器,比如Windows系統(tǒng)自帶的Notepad,就可以創(chuàng)建和編輯它。robots.txt是一個(gè)協(xié)議,而不是一個(gè)命令。robots.txt是搜索引擎中訪問網(wǎng)站的時(shí)候要查看的第一個(gè)文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的。
當(dāng)一個(gè)搜索蜘蛛訪問一個(gè)站點(diǎn)時(shí),它會(huì)首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會(huì)按照該文件中的內(nèi)容來確定訪問的范圍;如果該文件不存在,所有的搜索蜘蛛將能夠訪問網(wǎng)站上所有沒有被口令保護(hù)的頁面。百度官方建議,僅當(dāng)您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時(shí),才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請(qǐng)勿建立robots.txt文件。
如果將網(wǎng)站視為酒店里的一個(gè)房間,robots.txt就是主人在房間門口懸掛的“請(qǐng)勿打擾”或“歡迎打掃”的提示牌。這個(gè)文件告訴來訪的搜索引擎哪些房間可以進(jìn)入和參觀,哪些房間因?yàn)榇娣刨F重物品,或可能涉及住戶及訪客的隱私而不對(duì)搜索引擎開放。但robots.txt不是命令,也不是防火墻,如同守門人無法阻止竊賊等惡意闖入者。
帝國CMS默認(rèn)robots.txt為:
# robots.txt for EmpireCMS
#
User-agent: * *允許所有搜索引擎抓取
Disallow: /d/ *禁止所有搜索引擎抓取D目錄
Disallow: /e/class/ *禁止所有搜索引擎抓取/e/class/ 目錄
Disallow: /e/data/ *禁止所有搜索引擎抓取/e/data/ 目錄
Disallow: /e/enews/ *禁止所有搜索引擎抓取/e/enews/ 目錄
Disallow: /e/update/ *禁止所有搜索引擎抓取/e/update/ 目錄
希望本文所述對(duì)大家的帝國CMS建站有所幫助。