AI智能
当前位置:
涂社首页 / 网站资讯 / 技术相关 / 常见的robots.txt文件用法实例

常见的robots.txt文件用法实例

2021-04-09 00:00   责任编辑: 涂社互联      阅读次数:14764   

常见的robots.txt文件用法实例:

1、禁止所有搜索引擎抓取网站的任何部分

User-agent: *
Disallow: /

这是禁止所有目录和文件被所有搜索引擎收录。网站还没上线时,有的会先屏蔽所有蜘蛛抓取。

2、允许所有的spider抓取(或者也可以建一个空的robots.txt文件)

User-agent: *
Allow: /

这是允许所有搜索引擎抓取网站的任何部分,既然是允许所有文件被抓取,可以不用创建robtos.txt文件,即默认全部允许抓取。

3、禁止spider抓取特定目录

User-agent: *
Disallow: /a/
Disallow: /b/
Disallow: /c/

这是禁止所有的spider抓取a、b、c目录。这个规则我们最常用到,比如网站的程序后台、程序目录等都可以禁止spider抓取,以减少spider无意义的浪费我们的空间资源。

4、禁止spider抓取搜索结果页面

User-agent: *
Disallow: /so_article?*

如果你网站的搜索结果页面URL格式如:/so_article?keyword=搜索关键字,则按以上格式进行屏蔽,注意最后带了一个星号*,代表屏蔽so_article?带头的所有URL。


对于大部分网站,常用的就是以上4种情况。


扩展

扫二维码与项目经理沟通

我们在微信上24小时期待您的声音

解答:网站建设APP开发小程序开发

涂社互联是色涂君网络旗下专注于网站建设APP开发小程序开发定制解决方案为主的互联网营销落地品牌。以客户需求为导向,客户利益为出发点,结合自身设计及专业建站优势,为客户提供从基础建设到营销推广的一整套解决方案,探索并实现客户商业价值较大化,为所有谋求发展的企业贡献全部力量。

涂社互联公众号
色涂君网络旗下涂社互联官方微信公众号