Copyright 2013-2014 All Rights Reserved Theme by www.tbwwir.cn 版權所有
AB模板網(www.tbwwir.cn)專注企業網站模板制作,包括企業pbootcms網站模板,靜態網頁模板,網站源碼下載,HTML網站模板等等。XML地圖 網站地圖 今日更新
免責聲明:本站所有資源(模板、圖片)搜集整理于互聯網或者網友提供,僅供學習與交流使用,如果不小心侵犯到你的權益,請及時聯系我們刪除該資源。
什么是 Robots.txt 文件?
robots.txt 文件是一組指令,告訴搜索引擎要抓取哪些頁面以及要避免哪些頁面,指導抓取工具訪問但不一定會將頁面排除在百度索引之外。此文件位于網站的根目錄中,為搜索引擎爬蟲提供網站范圍內的指令,說明它們應該和不應該爬取網站的哪些區域
robots.txt 文件如下所示:
為什么Robots.txt對SEO很重要?
robots.txt 文件對于 SEO 很重要,因為它有助于管理網絡爬蟲活動,以防止它們使您的網站超載并抓取不供公眾訪問的頁面。
以下是使用 robots.txt 文件的一些原因:
1.優化抓取預算
使用 robots.txt 阻止不必要的頁面可讓百度的網絡爬蟲將更多的抓取預算(百度在一定時間范圍內將抓取您網站上的多少頁面)花在重要的頁面上。
抓取預算會根據您網站的大小、健康狀況和反向鏈接的數量而有所不同。
如果您的網站的頁面數量超出其抓取預算,重要頁面可能無法被編入索引。
未編入索引的頁面不會排名,這意味著您浪費了時間創建用戶在搜索結果中永遠看不到的頁面。
2. 屏蔽重復和非公開頁面
并非所有頁面都適合包含在搜索引擎結果頁面 (SERP) 中,而 robots.txt 文件可讓您阻止爬蟲程序訪問那些非公開頁面。
考慮暫存網站、內部搜索結果頁面、重復頁面或登錄頁面。一些內容管理系統會自動處理這些內部頁面。
例如,WordPress 禁止所有爬蟲訪問登錄頁面“/wp-admin/”。
3.隱藏資源
如果您希望將 PDF、視頻和圖像等資源保密,或者讓百度專注于更重要的內容,Robots.txt 可讓您將其排除在抓取范圍之外。
Robots.txt 文件如何工作?
robots.txt 文件告訴搜索引擎機器人要抓取哪些 URL 以及(更重要的是)要避免抓取哪些 URL。
當搜索引擎機器人抓取網頁時,它們會發現并跟蹤鏈接。這個過程會引導它們從一個網站到另一個網站的不同頁面。
如果機器人找到 robots.txt 文件,它會在抓取任何頁面之前讀取該文件。
如何查找 robots.txt 文件
您的 robots.txt 文件托管在您的服務器上,就像您網站上的其他文件一樣。
您可以在瀏覽器中輸入網站主頁 URL 并在末尾添加“/robots.txt”來查看任何網站的 robots.txt 文件。
例如:“http://www.tbwwir.cn/robots.txt”。