awk分析apache日志文件综合实例

发布时间:2020-11-23编辑:脚本学堂
awk命令分析apache日志文件的一些例子,通过日志查看当天ip连接数,当天ip连接数最高的ip地址,查看某一时间段的ip连接数,用awk分析apache日志非常方便。

linuxjishu/13830.html target=_blank class=infotextkey>awk分析apacherizhi/ target=_blank class=infotextkey>apache日志文件

1、通过日志查看当天ip连接数,过滤重复:
 

cat access_log | grep "20/Oct/2008" | awk '{print $2}' | sort | uniq -c | sort -nr

2、当天ip连接数最高的ip都在干些什么(原来是蜘蛛):
 

cat access_log | grep "20/Oct/2008:00" | grep "122.102.7.212" | awk '{print $8}' | sort | uniq -c | sort -nr | head -n 10

3、查看apache进程:
 

ps aux | grep httpd | grep -v grep | wc -l

4、查看80端口的tcp连接:
 

netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l

5、当天访问页面排前10的url:
 

cat access_log | grep "20/Oct/2008:00" | awk '{print $8}' | sort | uniq -c | sort -nr | head -n 10

6、用tcpdump嗅探80端口的访问看看谁最高
 

tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr

从日志结果中查看指定IP地址的访问内容:
 

cat access_log | grep 122.102.7.212| awk '{print $1"t"$8}' | sort | uniq -c | sort -nr | less

7、查看某一时间段的ip连接数:
 

grep "2006:0[7-8]" www20060723.log | awk '{print $2}' | sort | uniq -c| sort -nr | wc -l

以上分析日志使用cat命令,执行时间比较长。

以下采用awk数组,执行效率高了很多:
 

awk '{++S[$2]} END {for (a in S) print S[a],a}' access_log | sort -rn | head -n 10