注册 登录  
 加关注
   显示下一条  |  关闭
温馨提示!由于新浪微博认证机制调整,您的新浪微博帐号绑定已过期,请重新绑定!立即重新绑定新浪微博》  |  关闭

不透明的雾的博客

人生是一次记忆的旅行

 
 
 

日志

 
 
 
 

查询并禁止apache中异常访问量的用户ZT  

2007-06-28 17:33:02|  分类: 默认分类 |  标签: |举报 |字号 订阅

  下载LOFTER 我的照片书  |

Apache中的异常访问,通常指的是频繁、大量访问的用户,通过apache的log,结合linux下的几个命令,可以分析这些用户,并通过apache的配置文件来禁止他们访问。

首先,更改apache的log方式,不记录一些图像、css等文件,这样在log中每一行基本上都能对应一次访问,如果不去除图像等文件的记录,正常用户访问一个页面,同时也会下载页面上的图像、css等文件,会产生多条log记录,影响计数的结果。在apache的conf文件中增加如下配置:

SetEnvIfNoCase Request_URI .css$ useless-fileSetEnvIfNoCase Request_URI .gif$ useless-fileSetEnvIfNoCase Request_URI .ico$ useless-fileSetEnvIfNoCase Request_URI .jpg$ useless-fileSetEnvIfNoCase Request_URI .js$ useless-fileCustomLog logs/hebgc.com/access.log combined env=!useless-file

这样就可以了,关于SetEnvIf的其他用法,可以参见Apache文档中SetEnvIfEnvironment Variables in Apache部分。

接下来,经过一段时间的运行,我们就可以分析log文件中访问量最大的用户了,只需要一条命令:

cat access.log |awk '{print $1}'| sort | uniq -c |sort -n

一点点的来看:

  • cat就不用说了;
  • awk的作用,就是把第一列,也就是客户端ip地址分拣出来;
  • 第一个sort,是把分拣出来的ip地址排序,这样相同的ip地址会排在一起
  • uniq是一个去除重复值的工具,但是带上-c参数,就可以统计出每个值出现了多少次
  • 最后的sort,把uniq产生的结果进行排序,按照-n这个参数的默认设置,最大的排在最下面。

所以,我们得到的结果应该是这样的:

......2040 219.148.106.1982047 218.12.78.142149 218.12.26.2332205 121.28.4.34

第一列就是访问次数,第二列是ip地址,再回去对照log文件中的详细内容,如果发现哪个访问量大户是某某机器人的话,就可以禁止掉了,还是修改apache的conf文件:

<Directory />     Order Deny,Allow     Deny from 219.143.69.2     Deny from 218.12.26.233     Deny from 61.135.162.51     Allow from all</Directory>

如此反复监测、设置,直到没有人捣乱为止。

同理,如果想查看反复刷新查看某一页面的用户,可以用如下命令:

grep "GET /url/to/some/file" access.log |awk '{print $1}' |sort |uniq -c |sort -n
来源:http://www.fwolf.com/blog/post/331
  评论这张
 
阅读(91)| 评论(0)
推荐 转载

历史上的今天

评论

<#--最新日志,群博日志--> <#--推荐日志--> <#--引用记录--> <#--博主推荐--> <#--随机阅读--> <#--首页推荐--> <#--历史上的今天--> <#--被推荐日志--> <#--上一篇,下一篇--> <#-- 热度 --> <#-- 网易新闻广告 --> <#--右边模块结构--> <#--评论模块结构--> <#--引用模块结构--> <#--博主发起的投票-->
 
 
 
 
 
 
 
 
 
 
 
 
 
 

页脚

网易公司版权所有 ©1997-2017