robots.txt蜘蛛收录规则文件常用写法
发布时间:2025-08-05 16:09:41

robots.txt文件是搜索引擎收录规则文件,告诉搜索引擎哪些是不希望被收录的,可以定义为哪些目录允许搜索引擎抓取,哪些搜索引擎可以抓取,将以下代码根据需求另存为robots.txt存放到网站根目录中,即可生效。

禁止所有搜索引擎收录

User-agent: *

Disallow: /

禁止google爬虫

User-agent: Googlebot

Disallow: /

禁止百度爬虫

User-agent: Baiduspider

Disallow: /

禁止抓取后台目录

User-agent: *

Disallow: /admin/

Disallow: /user/

禁止收录所有动态页面

User-agent: *

Disallow: /*.asp  或 .php

禁止收录图片

User-agent: *

Disallow: .jpg$

Disallow: .png$

Disallow: .gif$

只允许收录html静态页面

User-agent: *

Allow: .html$

Disallow: /

以上规则可以根据实际需要组合使用。

免责声明:本站内容(文字信息+图片素材)来源于互联网公开数据整理或转载,仅用于学习参考,如有侵权问题,请及时联系本站删除,我们将在5个工作日内处理。

联系邮箱:chuangshanghai#QQ.COM(把#换成@)

Copyright © 格特瑞商务咨询 版权所有