添加robots.txt文件减少搜索引擎蜘蛛乱抓取
程序交流
2 5165
首先来解释下robots.txt是什么?robots.txt有什么作用?
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
以上内容来自百度百科。
给大家一个示范的robots.txt也就是本站的robots.txt文件:
User-agent: AhrefsBot
Disallow: /
Sitemap:http://hao.ym-ym.com/sitemap.xml
User-agent: *
Disallow:/top.html?type=today
Disallow:/top.html?type=art
Disallow:/add.html
Disallow:/dans/2.html
Disallow:/dans/1.html
Disallow:/admin.php
如何添加?
在你的根目录 新建文件夹 重命名:robots.txt
吧上面代码复制进去即可
然后去百度 更新robots.txt
最新会员
- 精选帖子
- 新版4.2授权码的填写方式 5910
- 国际导航30多款模板进行免费 7711
- 国际导航采集扩展 12324
- api接口使用教程【v3.1.3】 8201
- 使用本系统搭建违法,触犯,站点公告 8892
- 虚拟主机安装出现数据连接失败解决方案 18258
- 国际网址导航新版标签大全 18394
- 关于2.4之前版本想转3.0新版教程 9296
- GUOJIZ国际网址导航系统全新V5.8(2022-04-26) 70500
- 热门帖子
- 导航系统正式发布欢迎下载测试反馈 9969
- QQ登录、功能配置、xml生成显示模块不存在 953
- Guojiz下载系统素材系统抢先发布1.0版本 9406
- 关于2.4之前版本想转3.0新版教程 9296
- Guojiz导航系统模板标签调用参数大全 9283
- 素材系统预计月底发布 8996
- 使用本系统搭建违法,触犯,站点公告 8892
- MyuCMS社区+商城内容管理系统V2.0正式版 8789
- 广告添加万能调用方法 8788