在线Robots.txt测试工具

在线Robots.txt测试工具

网站类型
路径管理
未添加任何路径规则
高级配置选项
网站地图URL
多个URL用逗号分隔
抓取间隔(秒)
目标搜索引擎
Robots.txt 编辑器
请输入robots.txt内容并点击"验证内容"按钮查看结果
关于Robots.txt

robots.txt是一个位于网站根目录的文本文件,用于告诉搜索引擎爬虫哪些页面可以抓取,哪些页面不应抓取。正确配置有助于保护隐私、节省服务器资源并优化SEO。

基本语法示例:

# 允许所有搜索引擎抓取
User-agent: *
# 禁止抓取管理后台
Disallow: /admin/
# 允许抓取文章目录
Allow: /articles/
# 指定网站地图位置
Sitemap: https://tuyuanma.com/sitemap.xml
# 设置抓取间隔(秒)
Crawl-delay: 10

针对特定搜索引擎的配置示例:

# 对百度爬虫的设置
User-agent: Baiduspider
Disallow: /private/
Allow: /

# 对谷歌爬虫的设置
User-agent: Googlebot
Disallow: /admin/
Allow: /

# 对所有其他搜索引擎的设置
User-agent: *
Disallow: /

了解更多: Google官方文档 | 百度搜索资源平台

更多在线工具尽在 兔源码(tuyuanma.com)

广告
大象广告联盟AD 大象广告联盟AD
返回顶部