CN116071710A - 一种基于智慧体育场馆监控视频的客流量统计方法 - Google Patents
一种基于智慧体育场馆监控视频的客流量统计方法 Download PDFInfo
- Publication number
- CN116071710A CN116071710A CN202310356877.3A CN202310356877A CN116071710A CN 116071710 A CN116071710 A CN 116071710A CN 202310356877 A CN202310356877 A CN 202310356877A CN 116071710 A CN116071710 A CN 116071710A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- detection
- formula
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title claims description 21
- 238000001514 detection method Methods 0.000 claims abstract description 94
- 238000001914 filtration Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000007619 statistical method Methods 0.000 claims abstract description 9
- 238000004422 calculation algorithm Methods 0.000 claims description 34
- 239000011159 matrix material Substances 0.000 claims description 27
- 238000005259 measurement Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 238000010586 diagram Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 8
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 3
- 230000001174 ascending effect Effects 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000001172 regenerating effect Effects 0.000 claims description 3
- 238000011524 similarity measure Methods 0.000 claims description 3
- 238000011895 specific detection Methods 0.000 claims description 3
- 230000007704 transition Effects 0.000 claims description 3
- 101100001674 Emericella variicolor andI gene Proteins 0.000 claims description 2
- 230000009467 reduction Effects 0.000 abstract description 4
- 230000000694 effects Effects 0.000 description 3
- 241001239379 Calophysus macropterus Species 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/62—Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
- G06V10/763—Non-hierarchical techniques, e.g. based on statistics of modelling distributions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于智慧体育场馆监控视频的客流量统计方法,首先将智慧体育场馆监控视频输入至目标检测网络并得到目标检测结果,再根据获得的目标检测结果构建YOLOv5损失函数,并对构建好的YOLOv5损失函数进行优化,获得目标所在位置检测框,随后对获得的目标所在位置检测框进行过滤,再通过行人重识别网络提取检测框中的目标深度外观特征,随后基于获得的目标深度外观特征;本发明实现了具有在计算量较小的情况下还能够获得很好的目标检测功能,且Soft‑NMS能利用降低而非过滤的特性对遮挡的目标进行检测并提高了目标被遮挡时的准确率,提高了模型的提取特征能力,降低了模型误检、漏检和错误切换ID等问题的发生。
Description
技术领域
本发明涉及体育场馆监控视频统计技术领域,具体涉及一种基于智慧体育场馆监控视频的客流量统计方法。
背景技术
随着网络和多媒体信息处理技术的不断发展,智能视频监控系统作为安全防范、城市规划和市场决策的一种重要手段越来越受追崇,并广泛应用于银行、医院、车站和商场等公共场所中。
目前,传统的跟踪算法普遍是利用手工方式提取目标表观特征,并进行相似特征的搜索以实现目标追踪,这样容易受到光照和遮挡等因素的影响,且对图像的特征信息不能全面利用;因此,需要设计一种基于智慧体育场馆监控视频的客流量统计方法。
发明内容
本发明的目的是克服现有技术的不足,为更好的解决传统跟踪算法由于普遍是利用手工方式提取目标表观特征,从而导致容易受到光照和遮挡等因素影响的问题,提供了一种基于智慧体育场馆监控视频的客流量统计方法,其实现了具有在计算量较小的情况下还能够获得很好的目标检测功能,且Soft-NMS能利用降低而非过滤的特性对遮挡的目标进行检测并提高了目标被遮挡时的准确率,提高了模型的提取特征能力。
为了达到上述目的,本发明所采用的技术方案是:
一种基于智慧体育场馆监控视频的客流量统计方法,包括以下步骤,
步骤(A),将智慧体育场馆监控视频输入至目标检测网络,得到目标检测结果;
步骤(B),根据获得的目标检测结果构建YOLOv5损失函数,并对构建好的YOLOv5损失函数进行优化,获得目标所在位置检测框;
步骤(C),对获得的目标所在位置检测框进行过滤,再通过行人重识别网络提取检测框中的目标深度外观特征;
步骤(D),基于获得的目标深度外观特征,利用卡尔曼算法对目标轨迹进行预测,得到预测好的目标轨迹;
步骤(E),将目标检测结果与预测好的目标轨迹之间进行级联匹配,若级联匹配失败,使用两个目标框之间的 IOU 作为匹配度量,并对剩余的物体进行配对;
步骤(F),基于级联匹配和IOU匹配的结果,通过数据关联为每个目标分配不同的跟踪ID,完成客流量统计作业。
前述的一种基于智慧体育场馆监控视频的客流量统计方法,步骤(A),将智慧体育场馆监控视频输入至目标检测网络,得到目标检测结果,其中目标检测网络采用1个3×3卷积和11个连续Bneck结构组成,目标检测网络的具体检测步骤如下,
步骤(A1),将监控视频输入3×3卷积,得到初步处理结果,其中3×3卷积采用h-swish为激活函数;
步骤(A2),将初步处理结果输入11个连续Bneck结构,得到第二特征图,其中Bneck结构具体处理步骤如下,
步骤(A21),采用1×1卷积进行升维,再进行3×3深度可分离卷积,得到第一特征图;
步骤(A22),对得到的第一特征图加入SE模块,再经过1×1卷积得到第二特征图;
步骤(A3),将第二特征图送入FPN+PAN结构中进行卷积和采样操作,得到不同尺度特征信息,其中FPN结构采用自顶向下式的上采样,而PAN结构采用自底向上式的下采样。
前述的一种基于智慧体育场馆监控视频的客流量统计方法,步骤(B),根据获得的目标检测结果构建YOLOv5损失函数,并对构建好的YOLOv5损失函数进行优化,获得目标所在位置检测框,具体步骤如下,
步骤(B1),根据获得的目标检测结果构建YOLOv5损失函数,具体步骤如下,
步骤(B11),选择CioU Loss作为边界框时的损失函数,如公式(1)和公式(2)所示,
步骤(B13),CIoU Loss如公式(5)所示,
步骤(B14),每个视频样本单独计算边界框损失、置信度损失和分类损失,并求取所有样本的平均值,再将三个损失相加就得到了YOLOv5的损失函数,如公式(6)所示,
前述的一种基于智慧体育场馆监控视频的客流量统计方法,步骤(C),对获得的目标所在位置检测框进行过滤,再通过行人重识别网络提取检测框中的目标深度外观特征,具体步骤如下,
步骤(C2),通过行人重识别网络提取检测框中的目标深度外观特征,其中行人重识别网络采用的是基于ReID网络结构的多尺度模块MReID网络,具体提取步骤如下,
步骤(C21),对检测框进行多尺度模块处理,再通过两个卷积层提取图像特征至池化层,其中多尺度模块包括四条支路,具体处理步骤如下,
步骤(C211),每条支路均先经过一个1×1卷积,且除第一条支路外,其余每条支路均分别经过卷积大小为3×3、5×5和7×7的卷积,再将不同尺寸的卷积层信息进行融合;
步骤(C212),将四条支路分别经过rate为1、3、5和7的空洞卷积进行融合特征,再完成对目标特征的提取;
步骤(C213),将rate为1和3的卷积层输出进行融合,并将rate为5和7卷积层输出进行融合,再将不同rate特征融合,接着将融合后的特征经 1×1 卷积的输出与Shortcut的输出相加后进行激活操作,得到最终的结果;
步骤(C22),将池化层输出的图像特征经过六个残差块,输出所提取到的外观特征,并在Dense层输出维度为128的特征向量;
步骤(C23),将特征向量通过归一化层投影到单位超球面上,并计算目标间的相似性,再与余弦度量兼容。
前述的一种基于智慧体育场馆监控视频的客流量统计方法,步骤(D),基于获得的目标深度外观特征,利用卡尔曼算法对目标轨迹进行预测,得到预测好的目标轨迹,其中卡尔曼算法是预测目标出现在下一帧中的位置和大小,具体步骤如下,
步骤(D3),由公式(10)和公式(11)所求得的状态量能得到最优估计,如公式(12)和公式(13)所示,
前述的一种基于智慧体育场馆监控视频的客流量统计方法,步骤(E),将目标检测结果与预测好的目标轨迹之间进行级联匹配,若级联匹配失败,使用两个目标框之间的IOU 作为匹配度量,并对剩余的物体进行配对,其中对输入的视频帧进行判断,若为第一帧,则对所有检测目标进行初始化,否则开始匹配流程;
步骤(E1),将目标框检测结果与预测好的目标轨迹之间进行级联匹配,其中级联匹配度量是马氏距离和余弦相似度线性结合,如公式(15)所示,且当同时小于马氏距离度量和余弦相似度度量所设阈值时,目标框级联匹配成功;
其中,为级联匹配度量,为马氏距离度量,为余弦相似度度量,为跟踪物体更新后的卡尔曼协方差矩阵,为第个跟踪物体更新后得到的卡尔曼状态,是第个目标检测物体的状态,为第个跟踪物体其第帧历史特征,为对于每个跟踪物体保留其100帧的历史特征,为第个检测物体的特征,为调节两种度量方式对关联影响的超参数;
步骤(E2),若级联匹配失败,使用两个目标框之间的 IOU 作为匹配度量,并对剩余的物体进行配对,其具体是将卡尔曼滤波器算法得到的预测后的位置信息转换为目标框坐标,如公式(18)所示,这样通过计算两组目标框坐标的距离作为两个目标框之间的重合度,若两个目标框之间的重合度大于所设定阈值时,则两个物体能进行匹配;
前述的一种基于智慧体育场馆监控视频的客流量统计方法,步骤(F),基于级联匹配和IOU匹配的结果,通过数据关联为每个目标分配不同的跟踪ID,完成客流量统计作业,其中若依次进行级联匹配和IOU匹配后还剩余未匹配物体,则认为该物体为新出现的物体,并分配该物体新的 ID,初始化其跟踪状态。
本发明的有益效果是:本发明的一种基于智慧体育场馆监控视频的客流量统计方法,首先以YOLOv5为基础设计了一个更轻量级的深度神经网络,不仅降低了运算成本,还提高了目标检测精度,同时通过加入的通道注意力机制能增强目标特征,减小了模型权重,接着在DeepSort的重识别网络的基础上设计了多尺度模块,保障了跟踪效果,有效的实现了该方法具有在计算量较小的情况下还能够获得很好的目标检测功能,且Soft-NMS能利用降低而非过滤的特性对遮挡的目标进行检测并提高了目标被遮挡时的准确率,提高了模型的提取特征能力,降低了模型误检、漏检和错误切换ID等问题的发生。
附图说明
图1是本发明的整体流程图;
图2是本发明的Bneck网络结构示意图;
图3是本发明的YOLOv5整体网络结构示意图;
图4是本发明的行人重识别网络结构示意图;
图5是本发明的多尺度模块网络结构示意图。
具体实施方式
下面将结合说明书附图,对本发明作进一步的说明。
如图1所示,本发明的一种基于智慧体育场馆监控视频的客流量统计方法,包括以下步骤,
步骤(A),将智慧体育场馆监控视频输入至目标检测网络,得到目标检测结果,其中目标检测网络采用1个3×3卷积和11个连续Bneck结构组成,目标检测网络的具体检测步骤如下,
步骤(A1),将监控视频输入3×3卷积,得到初步处理结果,其中3×3卷积采用h-swish为激活函数;
如图2所示,步骤(A2),将初步处理结果输入11个连续Bneck结构,得到第二特征图,其中Bneck结构具体处理步骤如下,
步骤(A21),采用1×1卷积进行升维,再进行3×3深度可分离卷积,得到第一特征图;
步骤(A22),对得到的第一特征图加入SE模块,再经过1×1卷积得到第二特征图;
其中,由于SE模块会消耗一定的时间,所以在含有SE模块的结构中,将扩张层中的通道变为原来的1/4,这样既提高了精度,同时也没有增加消耗时间。
如图3所示,步骤(A3),将第二特征图送入FPN+PAN结构中进行卷积和采样操作,得到不同尺度特征信息,其中FPN结构采用自顶向下式的上采样,而PAN结构采用自底向上式的下采样。
其中,通过FPN和PAN对图像进行多尺度特征融合,其中上层特征图因为网络层数更深,包含的语义信息也就更强,而下层特征图因为经过的卷积层数较少,位置信息损失就更少,FPN结构通过自顶向下进行上采样,使得底层特征图包含更强的强语义信息;PAN结构自底向上进行下采样,使顶层特征包含强位置信息,两个特征最后进行融合,使不同尺寸的特征图都包含强语义信息和强特征信息,保证了对不同尺寸的目标准确预测。
步骤(B),根据获得的目标检测结果构建YOLOv5损失函数,并对构建好的YOLOv5损失函数进行优化,获得目标所在位置检测框,具体步骤如下,
步骤(B1),根据获得的目标检测结果构建YOLOv5损失函数,具体步骤如下,
其中,损失函数会影响目标框的选取,优良的损失函数可以使模型更快地达到收敛状态,从而减少模型预测值的误差。
步骤(B11),选择CioU Loss作为边界框时的损失函数,如公式(1)和公式(2)所示,
步骤(B13),CIoU Loss如公式(5)所示,
步骤(B14),每个视频样本单独计算边界框损失、置信度损失和分类损失,并求取所有样本的平均值,再将三个损失相加就得到了YOLOv5的损失函数,如公式(6)所示,
其中,在聚类过程中,使用作为距离度量,但不能反映两个框的重合度,即相等但两框之间相交的位置不同,容易对聚类的结果造成影响。而则是在的基础上,考虑到了重叠面积和中心点距离,同时覆盖到两个框,使其对框的尺寸更敏感,因此,使用代替计算算法的距离度量;
步骤(C),对获得的目标所在位置检测框进行过滤,再通过行人重识别网络提取检测框中的目标深度外观特征,具体步骤如下,
其中,NMS算法作为目标检测的最后一步,将目标检测算法的结果进行过滤,去除冗余的检测框,NMS算法会优先过滤掉相邻的检测框,因为相邻的检测框能被认为是同一个目标,这就导致在遮挡情况下会出现漏检问题;因此,提出基于的算法;算法将遮挡的检测框还会保留一段时间,然后判断这个检测框是否属于一个目标而不是重复的检测框,从而降低模型对被遮掩的目标的漏检;
如图4所示,步骤(C2),通过行人重识别网络提取检测框中的目标深度外观特征,其中行人重识别网络采用的是基于ReID网络结构的多尺度模块MReID网络,具体提取步骤如下,
其中,对于多目标跟踪任务,利用已检测出的目标信息将当前帧的目标与已跟踪的目标做数据关联,并保持目标ID的稳定;Deep Sort通过使用距离信息度量和外观信息度量的线性加权作为最终度量,对目标跟踪过程中出现的因遮挡而短时间消失的目标能够稳定的连接之前的轨迹,并维持目标ID稳定;Deep Sort中表观特征提取采用的是行人重识别领域中的ReID网络结构,该网络对特征的提取其实是不够深入的,并且行人多目标总是表现出不同的尺寸大小,因此在进行状态匹配时易出现匹配错误的现象,从而影响跟踪的准确度;本发明基于ReID网络提出了多尺度模块的MReID网络,该网络通过改变卷积核与特征图的计算方式,在保持参数不变的情况下,使得特征提取的范围变大,提高了特征的辨识度,使模型更具有鲁棒性;
如图5所示,步骤(C21),对检测框进行多尺度模块处理,再通过两个卷积层提取图像特征至池化层,其中多尺度模块包括四条支路,具体处理步骤如下,
步骤(C211),每条支路均先经过一个1×1卷积,且除第一条支路外,其余每条支路均分别经过卷积大小为3×3、5×5和7×7的卷积,再将不同尺寸的卷积层信息进行融合;
步骤(C212),将四条支路分别经过rate为1、3、5和7的空洞卷积进行融合特征,再完成对目标特征的提取;
步骤(C213),将rate为1和3的卷积层输出进行融合,并将rate为5和7卷积层输出进行融合,再将不同rate特征融合,接着将融合后的特征经 1×1 卷积的输出与Shortcut的输出相加后进行激活操作,得到最终的结果;
步骤(C22),将池化层输出的图像特征经过六个残差块,输出所提取到的外观特征,并在Dense层输出维度为128的特征向量;
步骤(C23),将特征向量通过归一化层投影到单位超球面上,并计算目标间的相似性,再与余弦度量兼容。
步骤(D),基于获得的目标深度外观特征,利用卡尔曼算法对目标轨迹进行预测,得到预测好的目标轨迹,其中卡尔曼算法是预测目标出现在下一帧中的位置和大小,具体步骤如下,
步骤(D3),由公式(10)和公式(11)所求得的状态量能得到最优估计,如公式(12)和公式(13)所示,
步骤(E),将目标检测结果与预测好的目标轨迹之间进行级联匹配,若级联匹配失败,使用两个目标框之间的 IOU 作为匹配度量,并对剩余的物体进行配对,其中对输入的视频帧进行判断,若为第一帧,则对所有检测目标进行初始化,否则开始匹配流程;
步骤(E1),将目标框检测结果与预测好的目标轨迹之间进行级联匹配,其中级联匹配度量是马氏距离和余弦相似度线性结合,如公式(15)所示,且当同时小于马氏距离度量和余弦相似度度量所设阈值时,目标框级联匹配成功;
其中,为级联匹配度量,为马氏距离度量,为余弦相似度度量,为跟踪物体更新后的卡尔曼协方差矩阵,为第个跟踪物体更新后得到的卡尔曼状态,是第个目标检测物体的状态,为第个跟踪物体其第帧历史特征,为对于每个跟踪物体保留其100帧的历史特征,为第个检测物体的特征,为调节两种度量方式对关联影响的超参数;
步骤(E2),若级联匹配失败,使用两个目标框之间的 IOU 作为匹配度量,并对剩余的物体进行配对,其具体是将卡尔曼滤波器算法得到的预测后的位置信息转换为目标框坐标,如公式(18)所示,这样通过计算两组目标框坐标的距离作为两个目标框之间的重合度,若两个目标框之间的重合度大于所设定阈值时,则两个物体能进行匹配;
步骤(F),基于级联匹配和IOU匹配的结果,通过数据关联为每个目标分配不同的跟踪ID,完成客流量统计作业,其中若依次进行级联匹配和IOU匹配后还剩余未匹配物体,则认为该物体为新出现的物体,并分配该物体新的 ID,初始化其跟踪状态。
本发明的一个具体实施例实验结果表明,本发明构建的 YOLOv5算法在 MOTA 指标上提高了 0.9%,在错误的 ID 身份切换指标上减少了38次,效果一般;本文所进行优化后的算法与现有的跟踪算法相比,MOTA 指标提高了3.8%;本发明通过提高检测精度能够提升跟踪器的跟踪效果,并且对特征提取网络进行的优化后,也提高了一定的跟踪准确度。
综上所述,本发明实现了具有在计算量较小的情况下还能够获得很好的目标检测功能,且Soft-NMS能利用降低而非过滤的特性对遮挡的目标进行检测并提高了目标被遮挡时的准确率,提高了模型的提取特征能力,降低了模型误检、漏检和错误切换ID等问题的发生。
以上显示和描述了本发明的基本原理、主要特征及优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (7)
1.一种基于智慧体育场馆监控视频的客流量统计方法,其特征在于:包括以下步骤,
步骤(A),将智慧体育场馆监控视频输入至目标检测网络,得到目标检测结果;
步骤(B),根据获得的目标检测结果构建YOLOv5损失函数,并对构建好的YOLOv5损失函数进行优化,获得目标所在位置检测框;
步骤(C),对获得的目标所在位置检测框进行过滤,再通过行人重识别网络提取检测框中的目标深度外观特征;
步骤(D),基于获得的目标深度外观特征,利用卡尔曼算法对目标轨迹进行预测,得到预测好的目标轨迹;
步骤(E),将目标检测结果与预测好的目标轨迹之间进行级联匹配,若级联匹配失败,使用两个目标框之间的 IOU 作为匹配度量,并对剩余的物体进行配对;
步骤(F),基于级联匹配和IOU匹配的结果,通过数据关联为每个目标分配不同的跟踪ID,完成客流量统计作业。
2.根据权利要求1所述的一种基于智慧体育场馆监控视频的客流量统计方法,其特征在于:步骤(A),将智慧体育场馆监控视频输入至目标检测网络,得到目标检测结果,其中目标检测网络采用1个3×3卷积和11个连续Bneck结构组成,目标检测网络的具体检测步骤如下,
步骤(A1),将监控视频输入3×3卷积,得到初步处理结果,其中3×3卷积采用h-swish为激活函数;
步骤(A2),将初步处理结果输入11个连续Bneck结构,得到第二特征图,其中Bneck结构具体处理步骤如下,
步骤(A21),采用1×1卷积进行升维,再进行3×3深度可分离卷积,得到第一特征图;
步骤(A22),对得到的第一特征图加入SE模块,再经过1×1卷积得到第二特征图;
步骤(A3),将第二特征图送入FPN+PAN结构中进行卷积和采样操作,得到不同尺度特征信息,其中FPN结构采用自顶向下式的上采样,而PAN结构采用自底向上式的下采样。
3.根据权利要求1所述的一种基于智慧体育场馆监控视频的客流量统计方法,其特征在于:步骤(B),根据获得的目标检测结果构建YOLOv5损失函数,并对构建好的YOLOv5损失函数进行优化,获得目标所在位置检测框,具体步骤如下,
步骤(B1),根据获得的目标检测结果构建YOLOv5损失函数,具体步骤如下,
步骤(B11),选择CioU Loss作为边界框时的损失函数,如公式(1)和公式(2)所示,
步骤(B13),CIoU Loss如公式(5)所示,
步骤(B14),每个视频样本单独计算边界框损失、置信度损失和分类损失,并求取所有样本的平均值,再将三个损失相加就得到了YOLOv5的损失函数,如公式(6)所示,
4.根据权利要求3所述的一种基于智慧体育场馆监控视频的客流量统计方法,其特征在于:步骤(C),对获得的目标所在位置检测框进行过滤,再通过行人重识别网络提取检测框中的目标深度外观特征,具体步骤如下,
步骤(C2),通过行人重识别网络提取检测框中的目标深度外观特征,其中行人重识别网络采用的是基于ReID网络结构的多尺度模块MReID网络,具体提取步骤如下,
步骤(C21),对检测框进行多尺度模块处理,再通过两个卷积层提取图像特征至池化层,其中多尺度模块包括四条支路,具体处理步骤如下,
步骤(C211),每条支路均先经过一个1×1卷积,且除第一条支路外,其余每条支路均分别经过卷积大小为3×3、5×5和7×7的卷积,再将不同尺寸的卷积层信息进行融合;
步骤(C212),将四条支路分别经过rate为1、3、5和7的空洞卷积进行融合特征,再完成对目标特征的提取;
步骤(C213),将rate为1和3的卷积层输出进行融合,并将rate为5和7卷积层输出进行融合,再将不同rate特征融合,接着将融合后的特征经 1×1 卷积的输出与Shortcut的输出相加后进行激活操作,得到最终的结果;
步骤(C22),将池化层输出的图像特征经过六个残差块,输出所提取到的外观特征,并在Dense层输出维度为128的特征向量;
步骤(C23),将特征向量通过归一化层投影到单位超球面上,并计算目标间的相似性,再与余弦度量兼容。
5.根据权利要求4所述的一种基于智慧体育场馆监控视频的客流量统计方法,其特征在于:步骤(D),基于获得的目标深度外观特征,利用卡尔曼算法对目标轨迹进行预测,得到预测好的目标轨迹,其中卡尔曼算法是预测目标出现在下一帧中的位置和大小,具体步骤如下,
步骤(D3),由公式(10)和公式(11)所求得的状态量能得到最优估计,如公式(12)和公式(13)所示,
6.根据权利要求5所述的一种基于智慧体育场馆监控视频的客流量统计方法,其特征在于:步骤(E),将目标检测结果与预测好的目标轨迹之间进行级联匹配,若级联匹配失败,使用两个目标框之间的 IOU 作为匹配度量,并对剩余的物体进行配对,其中对输入的视频帧进行判断,若为第一帧,则对所有检测目标进行初始化,否则开始匹配流程;
步骤(E1),将目标框检测结果与预测好的目标轨迹之间进行级联匹配,其中级联匹配度量是马氏距离和余弦相似度线性结合,如公式(15)所示,且当同时小于马氏距离度量和余弦相似度度量所设阈值时,目标框级联匹配成功;
其中,为级联匹配度量,为马氏距离度量,为余弦相似度度量,为跟踪物体更新后的卡尔曼协方差矩阵,为第个跟踪物体更新后得到的卡尔曼状态,是第个目标检测物体的状态,为第个跟踪物体其第帧历史特征,为对于每个跟踪物体保留其100帧的历史特征,为第个检测物体的特征,为调节两种度量方式对关联影响的超参数;
步骤(E2),若级联匹配失败,使用两个目标框之间的 IOU 作为匹配度量,并对剩余的物体进行配对,其具体是将卡尔曼滤波器算法得到的预测后的位置信息转换为目标框坐标,如公式(18)所示,这样通过计算两组目标框坐标的距离作为两个目标框之间的重合度,若两个目标框之间的重合度大于所设定阈值时,则两个物体能进行匹配;
7.根据权利要求6所述的一种基于智慧体育场馆监控视频的客流量统计方法,其特征在于:步骤(F),基于级联匹配和IOU匹配的结果,通过数据关联为每个目标分配不同的跟踪ID,完成客流量统计作业,其中若依次进行级联匹配和IOU匹配后还剩余未匹配物体,则认为该物体为新出现的物体,并分配该物体新的 ID,初始化其跟踪状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310356877.3A CN116071710B (zh) | 2023-04-06 | 2023-04-06 | 一种基于智慧体育场馆监控视频的客流量统计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310356877.3A CN116071710B (zh) | 2023-04-06 | 2023-04-06 | 一种基于智慧体育场馆监控视频的客流量统计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116071710A true CN116071710A (zh) | 2023-05-05 |
CN116071710B CN116071710B (zh) | 2023-06-09 |
Family
ID=86177168
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310356877.3A Active CN116071710B (zh) | 2023-04-06 | 2023-04-06 | 一种基于智慧体育场馆监控视频的客流量统计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116071710B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117854008A (zh) * | 2024-01-16 | 2024-04-09 | 浙江威星电子系统软件股份有限公司 | 基于数字孪生的智慧运动场馆管理系统 |
CN118397496A (zh) * | 2024-03-14 | 2024-07-26 | 中交第二航务工程局有限公司 | 塔机安拆工序智能识别系统及方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633671A (zh) * | 2019-09-16 | 2019-12-31 | 天津通卡智能网络科技股份有限公司 | 基于深度图像的公交车客流实时统计方法 |
CN111881749A (zh) * | 2020-06-24 | 2020-11-03 | 北京工业大学 | 基于rgb-d多模态数据的双向人流量统计方法 |
CN115311617A (zh) * | 2022-07-22 | 2022-11-08 | 北京交通大学 | 城轨车站区域客流信息获取方法及系统 |
-
2023
- 2023-04-06 CN CN202310356877.3A patent/CN116071710B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110633671A (zh) * | 2019-09-16 | 2019-12-31 | 天津通卡智能网络科技股份有限公司 | 基于深度图像的公交车客流实时统计方法 |
CN111881749A (zh) * | 2020-06-24 | 2020-11-03 | 北京工业大学 | 基于rgb-d多模态数据的双向人流量统计方法 |
CN115311617A (zh) * | 2022-07-22 | 2022-11-08 | 北京交通大学 | 城轨车站区域客流信息获取方法及系统 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117854008A (zh) * | 2024-01-16 | 2024-04-09 | 浙江威星电子系统软件股份有限公司 | 基于数字孪生的智慧运动场馆管理系统 |
CN118397496A (zh) * | 2024-03-14 | 2024-07-26 | 中交第二航务工程局有限公司 | 塔机安拆工序智能识别系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116071710B (zh) | 2023-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116071710B (zh) | 一种基于智慧体育场馆监控视频的客流量统计方法 | |
Shen et al. | Fast online tracking with detection refinement | |
CN111079540B (zh) | 一种基于目标特性的分层可重构车载视频目标检测方法 | |
CN115830075A (zh) | 一种面向行人多目标跟踪的分级关联匹配方法 | |
CN111951297B (zh) | 一种基于结构化逐像素目标注意机制的目标跟踪方法 | |
CN107977660A (zh) | 基于背景先验和前景节点的感兴趣区域检测方法 | |
CN111950498A (zh) | 一种基于端到端实例分割的车道线检测方法及装置 | |
CN113361370B (zh) | 一种基于深度学习的异常行为检测方法 | |
Hassan et al. | An adaptive sample count particle filter | |
Wang et al. | Multi-target pedestrian tracking based on yolov5 and deepsort | |
CN111986225A (zh) | 一种基于角点检测和孪生网络的多目标跟踪方法及装置 | |
CN116402850A (zh) | 一种面向智能驾驶的多目标跟踪方法 | |
CN111784744A (zh) | 一种基于视频监控的目标自动检测与跟踪方法 | |
CN110889347B (zh) | 基于时空计数特征的密度交通流计数方法及系统 | |
CN116229112A (zh) | 一种基于多重注意力的孪生网络目标跟踪方法 | |
CN115457082A (zh) | 一种基于多特征融合增强的行人多目标跟踪算法 | |
CN114419669A (zh) | 一种基于重识别和方位感知的实时跨摄像头行人跟踪方法 | |
CN106447698A (zh) | 一种基于距离传感器的多行人跟踪方法和系统 | |
Xiang et al. | Multitarget tracking using hough forest random field | |
CN113012193B (zh) | 一种基于深度学习的多行人跟踪方法 | |
Xie et al. | A multi-object tracking system for surveillance video analysis | |
CN115792890A (zh) | 基于凝聚量测自适应互联的雷达多目标跟踪方法及系统 | |
CN112907634B (zh) | 基于无人机的车辆跟踪方法 | |
CN114862914A (zh) | 一种基于检测跟踪一体式的行人跟踪方法 | |
Wu et al. | Cervical cell extraction network based on optimized yolo |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |