AI智能
当前位置:
涂社首页 / 网站资讯 / 技术相关 / robots.txt:如何让搜索引擎不要抓取没用的页面

robots.txt:如何让搜索引擎不要抓取没用的页面

2021-11-04 00:00   责任编辑: 涂社互联      阅读次数:58815   

robots.txt.

| 什么是robots文件?

Robots是站点与spider沟通的重要渠道,是网站与搜索引擎爬虫之间的协议,告知哪些可抓取哪些不允许。


| 为什么要做robots文件?

网站上总有一些页面是禁止蜘蛛抓取的。例如:搜索页面、筛选页面、后台登录地址等。


| 如何制作 robots文件?

编写robots.txt文件并上传到网站根目录。

 

| 制作 robots.txt注意事项

● 所有搜索引擎则用星号表示

● Allow(允许)和Disallow(不允许)优先级

● 至少屏蔽一个,可以屏蔽:搜索结果页面/404页面

● 记得将sitemap放到Robots文件中

● 可以陆续放入更多,而不是一次性决定所有

● 网站后台地址/图片地址/下载文件地址/错误链接

 

扫二维码与项目经理沟通

我们在微信上24小时期待您的声音

解答:网站建设APP开发小程序开发

涂社互联是色涂君网络旗下专注于网站建设APP开发小程序开发定制解决方案为主的互联网营销落地品牌。以客户需求为导向,客户利益为出发点,结合自身设计及专业建站优势,为客户提供从基础建设到营销推广的一整套解决方案,探索并实现客户商业价值较大化,为所有谋求发展的企业贡献全部力量。

涂社互联公众号
色涂君网络旗下涂社互联官方微信公众号