robots.txt
放在網站根目錄的抓取規則檔,用來告訴爬蟲哪些路徑可或不可抓。
放在網站根目錄的抓取規則檔,用來告訴爬蟲哪些路徑可或不可抓。
在這份 SEO 大辭典裡,「robots.txt」被當成 技術 SEO 的核心語彙之一。它指的是放在網站根目錄的抓取規則檔,用來告訴爬蟲哪些路徑可或不可抓。真正重要的不是背定義,而是理解這個詞會影響你怎麼規劃內容、怎麼安排頁面訊號,以及怎麼把搜尋能見度接回商業目標。
如果你是在做內容、SEO 或 AI 搜尋布局,「robots.txt」真正要幫你回答的不是名詞題,而是:判斷搜尋引擎到底看到了哪個版本、能不能抓、該不該收。
Semrush 的 robots.txt 語境會把它放進技術 SEO 基礎設施,用來管理 crawler 可走的路徑與稽核問題定位。
比較適合拿來看「robots.txt」在工具欄位、術語分類與 SEO 工作流裡扮演什麼角色。
官方來源Ahrefs glossary 一貫會把 robots.txt 放進 crawl 控制類術語,提醒你它控制的是抓取,而不是直接保證索引結果。
比較適合拿來對齊這個名詞在搜尋需求、內容競爭或連結資料中的實際使用語境。
官方來源Moz 的教學框架適合拿來理解 robots.txt 在技術 SEO 的基本位置:它是 crawler 管理檔,不是萬用封鎖工具。
比較適合拿來補基礎概念、與其他 SEO 概念的邊界,以及這個詞的教育型解釋方式。
官方來源Neil Patel 的語境通常會把 robots.txt 放進網站健康度與技術檢查清單,重點是檢查有沒有誤擋重要頁面。
比較適合拿來看這個名詞在內容策略、流量成長與商業執行上怎麼落地。
官方來源不論從工具商術語、教學框架或內容策略角度來看,「robots.txt」的共識都是:它不是孤立名詞,而是 技術 SEO 裡用來判斷頁面是否更容易被找到、理解與採用的重要訊號。真正的差別只在於,有些來源把它當成分析欄位,有些把它當成教學概念,有些把它當成決策依據。
差異主要不在定義本身,而在著重點。Semrush 與 Ahrefs 比較常把「robots.txt」放進分析工具與 SEO 操作語境;Moz 比較偏概念教學;Neil Patel / Ubersuggest 則更常延伸到內容策略、流量成長與轉換決策。換句話說,同樣一個詞,在不同來源裡可能分別回答「它是什麼」、「它怎麼量」、「它怎麼做」三種不同問題。
robots.txt指的是放在網站根目錄的抓取規則檔,用來告訴爬蟲哪些路徑可或不可抓。在技術 SEO的語境裡,它通常用來判斷頁面該怎麼被組織、理解與衡量。
這一頁把「robots.txt」當成 canonical 詞條,頁內也保留常見別名與同義詞。實務上要先看團隊怎麼命名,再看工具與文件如何對應,避免同一概念被拆成多個頁面。
先看它要解的決策問題。對這個詞來說,重點是判斷搜尋引擎到底看到了哪個版本、能不能抓、該不該收。如果沒有先鎖定這一點,就很容易變成有做名詞、沒有做結果。