Dedecms 模板中心

您现在的位置: 秀站网 > 站长学院 > SEO资讯 >

如何让网站robots.txt不泄露后台等安全秘密

来源:重庆时时彩独胆技巧 发布时间:2016-10-17热度: ℃我要评论
搞过网站的朋友都知道robots.txt文件是用来限制搜索引擎不乱抓取,只抓取我们希望被收录的内容的。比如我们网站的后台就不希望被搜索抓取,那么robots文件需要这样写: User-agent: * Disallow...

本文地址:http://www.helaal.com/seo/753.html
文章摘要:如何让网站robots.txt不泄露后台等安全秘密_SEO资讯_站长学院,别墅网景观灯偃甲息兵,进校孙女婿喂养。

搞过网站的朋友都知道robots.txt文件是用来限制搜索引擎不乱抓取,只抓取我们希望被收录的内容的。比如我们网站的后台就不希望被搜索抓取,那么robots文件需要这样写:

User-agent: *

Disallow: /admin/

但是这样我们很容易发现了一个问题,如果有人要破解攻击的话,很容易就知道了后台,一下子就清楚了网站的结构。

我们并不想这样!

有没有办法让robots.txt既能限制搜索引擎,又不泄露后台地址和隐私目录呢?有!

一、使用通配符(*):

User-agent: *

Disallow: /a*/

这样的写法,禁止所有的搜索引擎抓取根目录下a开头的目录。当您的后台是admok165的话,还有谁会看到呢?

二、只写目录前几个字母,不写全:

User-agent: *

Disallow: /ad

这种的写法,是禁止所有的搜索引擎抓取根目录下ad开头的目录。

最后说明一下,以上这两种方法,需要网站目录没有相同字母开头的,例如ad目录,如果有两个一样的,那需在robots.txt文件里再加上一个字母区别开来。

本文地址:http://www.helaal.com/seo/753.html

    时时彩杀一码 时时彩官网上竤彩玩 中国福彩时时彩平台 时时彩名度 博悦分分彩走势图解
    内蒙古时时彩专家推号 多盈开户 ua时时彩官网 时时彩黑平台查询 时时彩个位杀号怎么买
    时时彩娱乐平台哪个好 帝王时时彩大底软件 l领航时时彩软件 天津时时彩人工计划 搜狐时时彩软件
    重庆时时彩毒担 时时彩计划上竤彩玩 时时彩双胆是什么意思 内蒙古时时彩走势 时时彩有那几种
    江苏十一选五 十一选五计算器 重庆时时彩安卓手机版 白小姐资料 北京赛车pk10
    云南11选5走试图 pc蛋蛋怎么赚钱 青海快三今日开奖号码 新疆时时彩开奖号码走时图 美高梅娱乐城
    时时彩免费计划软件 河北快3走势图基本图 十一选五开奖 湖北快三遗漏走势图 北京赛车pk10冠军玩法
    决胜21点在线观看 湖北快3遗漏444 青海快3走势7天 幸运飞艇开奖视频链接 陕西十一选五通用号