添加robots.txt文件减少搜索引擎蜘蛛乱抓取
程序交流
2 5540
首先来解释下robots.txt是什么?robots.txt有什么作用?
robots.txt是搜索引擎中访问网站的时候要查看的第一个文件。当一个搜索蜘蛛访问一个站点时,它会首先检查该站点根目录下是否存在robots.txt,如果存在,搜索机器人就会按照该文件中的内容来确定访问的范围;如果该文件不存在,所有的搜索蜘蛛将能够访问网站上所有没有被口令保护的页面。
以上内容来自百度百科。
给大家一个示范的robots.txt也就是本站的robots.txt文件:
User-agent: AhrefsBot
Disallow: /
Sitemap:http://hao.ym-ym.com/sitemap.xml
User-agent: *
Disallow:/top.html?type=today
Disallow:/top.html?type=art
Disallow:/add.html
Disallow:/dans/2.html
Disallow:/dans/1.html
Disallow:/admin.php
如何添加?
在你的根目录 新建文件夹 重命名:robots.txt
吧上面代码复制进去即可
然后去百度 更新robots.txt
最新会员
- 精选帖子
- 新版4.2授权码的填写方式 6960
- 国际导航30多款模板进行免费 8772
- 国际导航采集扩展 13450
- api接口使用教程【v3.1.3】 9263
- 使用本系统搭建违法,触犯,站点公告 10063
- 虚拟主机安装出现数据连接失败解决方案 21738
- 国际网址导航新版标签大全 19458
- 关于2.4之前版本想转3.0新版教程 10379
- GUOJIZ国际网址导航系统全新V5.8(2022-04-26) 78910
- 热门帖子
- MyuCMS社区+商城内容管理系统V2.0正式版 9778
- 广告添加万能调用方法 9762
- api接口使用教程【v3.1.3】 9263
- Guojiz导航系统手机模板【xin】 9257
- 国际导航30多款模板进行免费 8772
- Guojiz导航系统升级到2.3.6丁【20191015】 8727
- 关于安装后登录后台账号密码 8230
- 安装完成 但是后台无法打开, 8075
- 收集导航案例 为5.0做发布演示准备 7931