正在加载周涛博客
自留地
切勿乱来!
        找回密码

禁止直接访问robots.txt文件

很久没去360站长平台,一直听说他把robots当漏洞来处理,其实很不地道,也就为了推广他家主机卫士吧,实际上这个算不上漏洞,充其量是因此泄露而已!
以下代码是禁止直接访问,但匹配并排除搜索引擎蜘蛛

nginx站点配置文件中加入以下节点:

location = /robots.txt {
    if ($http_user_agent !~* "spider|bot|yahoo|sogou") {
        return 404;
    }
}

然后重载nginx配置
/usr/local/shuyangwang/nginx/sbin/nginx -s reload (此配置文件路径以你安装为准)

赞(2) 打赏
版权声明:本文采用知识共享 署名4.0国际许可协议 [BY-NC-SA] 进行授权
文章名称:《禁止直接访问robots.txt文件》
文章链接:https://www.ediok.cn/blog/2017/04/682.html
本站资源仅供个人学习交流,请于下载后24小时内删除,不允许用于商业用途,否则法律问题自行承担。

评论 抢沙发

评论前必须登录!

 

关注互联网发展前沿,关注PHPCMS技术演进,钻研PHPCMS技术开发

模块开发联系我们

觉得文章有用就打赏一下文章作者

非常感谢你的打赏,我们将继续给力更多优质内容,让我们一起创建更加美好的网络世界!

支付宝扫一扫打赏

微信扫一扫打赏