当前位置: 首页 > 新闻动态 > 软件编程

Nginx日志统计分析的常用命令总结

作者:用户投稿 浏览: 发布日期:2026-01-11
[导读]:这篇文章主要给大家总结了关于Nginx日志统计分析的一些常用命令,其中包括IP相关统计、页面访问统计、性能分析、蜘蛛抓取统计、TCP连接统计等相关命令的总结,相信对大家具有一定的参考学习价值,需要的朋友们下面来一起看看吧。
目录
  • 一、IP相关统计
  • 二、页面访问统计
  • 三、性能分析
  • 四、蜘蛛抓取统计
  • 五、TCP连接统计
  • 六、实例脚本
  • 常用操作命令
    • 备注
    • 最后提供一个综合有用的脚本
  • 总结

    本文主要给大家总结了关于Nginx日志统计分析的一些常用命令,分享出来供大家参考学习,下面来一起看看详细的介绍:

    一、IP相关统计

    统计IP访问量

    awk '{print $1}' access.log | sort -n | uniq | wc -l

    查看某一时间段的IP访问量(4-5点)

    grep "07/Apr/2017:0[4-5]" access.log | awk '{print $1}' | sort | uniq -c| sort -nr | wc -l

    查看访问最频繁的前100个IP

    awk '{print $1}' access.log | sort -n |uniq -c | sort -rn | head -n 100

    查看访问100次以上的IP

    awk '{print $1}' access.log | sort -n |uniq -c |awk '{if($1 >100) print $0}'|sort -rn

    查询某个IP的详细访问情况,按访问频率排序

    grep '104.217.108.66' access.log |awk '{print $7}'|sort |uniq -c |sort -rn |head -n 100

    二、页面访问统计

    查看访问最频的页面(TOP100)

    awk '{print $7}' access.log | sort |uniq -c | sort -rn | head -n 100

    查看访问最频的页面([排除php页面】(TOP100)

    grep -v ".php" access.log | awk '{print $7}' | sort |uniq -c | sort -rn | head -n 100

    查看页面访问次数超过100次的页面

    cat access.log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less

    查看最近1000条记录,访问量最高的页面

    tail -1000 access.log |awk '{print $7}'|sort|uniq -c|sort -nr|less

    每秒请求量统计

    统计每秒的请求数,top100的时间点(精确到秒)

    awk '{print $4}' access.log |cut -c 14-21|sort|uniq -c|sort -nr|head -n 100

    每分钟请求量统计

    统计每分钟的请求数,top100的时间点(精确到分钟)

    awk '{print $4}' access.log |cut -c 14-18|sort|uniq -c|sort -nr|head -n 100

    每小时请求量统计

    统计每小时的请求数,top100的时间点(精确到小时)

    awk '{print $4}' access.log |cut -c 14-15|sort|uniq -c|sort -nr|head -n 100

    三、性能分析

    在nginx log中最后一个字段加入$request_time

    列出传输时间超过3秒的页面,显示前20条

    cat access.log|awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20

    列出php页面请求时间超过3秒的页面,并统计其出现的次数,显示前100条

    cat access.log|awk '($NF > 1 && $7~/\.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100

    四、蜘蛛抓取统计

    统计蜘蛛抓取次数

    grep 'Baiduspider' access.log |wc -l

    统计蜘蛛抓取404的次数

    grep 'Baiduspider' access.log |grep '404' | wc -l

    五、TCP连接统计

    查看当前TCP连接数

    netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l

    用tcpdump嗅探80端口的访问看看谁最高

    tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr

    六、实例脚本

    获取前一分钟nginx访问日志条数

    #!/bin/bash
     
    export LANG=C
    export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
    TIME=$(date -d "1 minute ago" +"%d/%h/%Y:%H:%M")
     
    grep "$TIME" /var/log/nginx/access.log | wc -l

    获取前一分钟nginx错误日志条数

    #!/bin/bash
     
    export LANG=C
    export PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin
    TIME=$(date -d "1 minute ago" +"%Y-%m-%d %H:%M")
     
    grep "$TIME" /var/log/nginx/error.log | wc -l

    常用操作命令

    根据访问ip统计UV

    awk '{print $1}'  access.log|sort | uniq -c |wc -l

    根据访问url统计PV量

    awk '{print $7}' access.log | wc -l

    查询访问最频繁的URL

    awk '{print $7}' access.log|sort | uniq -c |sort -n -k 1 -r|more
    

    查询访问最频繁的IP

    awk '{print $1}' access.log|sort | uniq -c |sort -n -k 1 -r|more
    

    查询传输时间超过3秒的页面

    cat access.log |awk '($NF > 3){print $7}'|sort -n|uniq -c|sort -nr|head -20

    统计某路由平均响应时间

    grep "/" access.log | awk '{print  $NF}' | grep -P '\d{3}?$' | awk '{sum += $0;}END {if(sum==0)print 0;else print sum/NR}'
    

    获取每分钟的请求数量,输出到文件

    cat access.log  | awk '{print substr($4,14,5)}' | uniq -c | awk '{print $2","$1}' > access.txt 
    

    日志截取

    # 从总日志文件中截取昨天一整天的数据出来,并覆盖到新文件中:
    cat  access.log | awk '$4 >="[14/Mar/2025:00:00:00" && $4 <="[14/Mar/2025:23:59:59"'  > access.2025051010.log
    

    将某一时间段的日志输出到文件中

    # 打印一天的日志
    cat access.log | egrep "2025-05-04" > test.log     
    # 打印一小时的日志cat access.log | egrep "04/Jun/2025:10" > test.log       
    #打印任意时间段的日志
    sed -n '/04\/Jun\/2025:10/,/04\/Jun\/2025:12/p' access.log > test.log  

    备注

    sort 排序
        sort 默认是升序,sort -r 降序
        sort -u 去除重复行
    uniq 去重
         -i 忽略大小写字符
         -c 进行计数
         -u 只显示唯一的行
    cut   从文件文件中截取
         -d 后接分割字符
         -f 依据-d的分隔符将信息分割成数段,-f 取出第几段
         -c 以字符的单位取出固定字符区间
    wc  统计文件里面有多少单词,多少行,多少字符
        -l  :仅列出行
        -w  :仅列出多少字(英文单字)
        -m  :多少字符

    最后提供一个综合有用的脚本

    #!/bin/bash
    #此脚本用于统计nginx日志当前时间n分钟之内不同接口的访问量统计
    LOG=/mnt/data/nginx-1.20.1/logs/access.log
    TMP=/tmp/url.tmp
    URLSTATS=mnt/data/nginx-1.20.1/logs/urlstats.log
    #删除临时统计文件
    [ -f $TMP ] && rm -fr $TMP
    
    for i in `seq 15`
    do
       d=`date +%d/%h/%Y:%H:%M  -d "$i minutes ago"`
       #将每个时间段的URL进行统计并追加到临时文件
       awk -v b="$d" '{if ($4 ~ b)a[$7]++}END{for(i in a)printf("%-42s %-d\n", i,a[i])}' $LOG >> $TMP
    done
    
    #将汇总到临时文件的URL统计进行汇总
    if [ -s $TMP ];then
       awk '{a[$1]+=$2;}END{for(i in a)printf("%-42s %-d\n", i,a[i])}' $TMP | sort -nr -k2 > $URLSTATS
    else
       echo "没有统计到相关数据"
    fi

    总结

    以上就是这篇文章的全部内容了,希望本文的内容对大家的学习或者工作能带来一定的帮助,如果有疑问大家可以留言交流,谢谢大家对的支持。

    免责声明:转载请注明出处:http://sczxchw.cn/news/161541.html

    扫一扫高效沟通

    多一份参考总有益处

    免费领取网站策划SEO优化策划方案

    请填写下方表单,我们会尽快与您联系
    感谢您的咨询,我们会尽快给您回复!