awk分析apache日志脚本示例

发布时间:2020-03-15编辑:脚本学堂
有关awk命令分析apache日志的方法,分享下awk日志分析命令,学习下awk命令的用法,需要的朋友参考下。

linuxjishu/13830.html target=_blank class=infotextkey>awk分析apacherizhi/ target=_blank class=infotextkey>apache日志

1,查看apache进程:
 

ps aux | grep httpd | grep -v grep | wc -l

2,查看80端口的tcp连接:
 

netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l

3,通过日志查看当天ip连接数,过滤重复:
 

cat access_log | grep "20/Oct/2008" | awk '{print $2}' | sort | uniq -c | sort -nr

4,当天ip连接数最高的ip都在干些什么(原来是蜘蛛):
 

cat access_log | grep "20/Oct/2008:00" | grep "122.102.7.212" | awk '{print $8}' | sort | uniq -c | sort -nr | head -n 10

5,当天访问页面排前10的url:
 

cat access_log | grep "20/Oct/2008:00" | awk '{print $8}' | sort | uniq -c | sort -nr | head -n 10

6,用tcpdump嗅探80端口的访问看看谁最高
 

tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr
 

接着从日志里查看该ip在干嘛:
 

cat access_log | grep 122.102.7.212| awk '{print $1"t"$8}' | sort | uniq -c | sort -nr | less

7,查看某一时间段的ip连接数:
 

grep "2006:0[7-8]" www20060723.log | awk '{print $2}' | sort | uniq -c| sort -nr | wc -l
 

上面的分析日志都是用cat,执行时间比较长,用awk的数组执行时间会快很多:
 

awk '{++S[$2]} END {for (a in S) print S[a],a}' access_log | sort -rn | head -n 10