CN114821480A - 一种可调节算法计算参数量的监控视频人物跟踪方法 - Google Patents

一种可调节算法计算参数量的监控视频人物跟踪方法 Download PDF

Info

Publication number
CN114821480A
CN114821480A CN202210509561.9A CN202210509561A CN114821480A CN 114821480 A CN114821480 A CN 114821480A CN 202210509561 A CN202210509561 A CN 202210509561A CN 114821480 A CN114821480 A CN 114821480A
Authority
CN
China
Prior art keywords
tracks
ghostnet
algorithm
yolox
loss
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210509561.9A
Other languages
English (en)
Inventor
黄英来
李大明
姜忠良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northeast Forestry University
Original Assignee
Northeast Forestry University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northeast Forestry University filed Critical Northeast Forestry University
Priority to CN202210509561.9A priority Critical patent/CN114821480A/zh
Publication of CN114821480A publication Critical patent/CN114821480A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种可调节算法计算参数量的监控视频人物跟踪方法。包括:(1)制作训练数据集。(2)搭建改进的GhostNet‑YOLOX网络,主要改进为:使用GhostNet方法替换YOLOX算法原卷积结构,通过调整压缩比k,控制压缩算法计算参数量,以适应不同算力的处理器,训练GhostNet‑YOLOX网络以及实现视频人物位置信息预测。(3)输入监控行人视频,对视频分帧图片使用自适应伽马变换进行亮度均衡处理,降低或提升过亮或过暗图片的亮度,增强算法的识别率。(4)使用DeepSort算法调用改进后的GhostNet‑YOLOX训练模型,输出预测结果,实现人物跟踪。通过改进,该算法能够保持较好的精度,并提供不同的计算参数量版本,从而更好地在移动设备上进行部署。

Description

一种可调节算法计算参数量的监控视频人物跟踪方法
技术领域
本发明涉及机器视觉目标检测和目标跟踪领域,特别涉及一种基于结合GhostNet-YOLOX目标检测算法和DeepSort算法的监控视频人物跟踪方法。
背景技术
目前,关于监控视频人物跟踪方法,多采用联合目标检测算法的和DeepSort算法的跟踪方法。而该方法其识别率的高低和检测速度,主要受到目标检测算法的检测精度和检测速度的影响。而基于一阶段的目标检测算法(如SSD,Retina-Net,YOLO系列等)相比于二阶段检测算法(Fast R-CNN,Faster R-CNN和Mask R-CNN等),能提供较高的检测速度,YOLO系列是一阶段目标检测算法的优秀代表,且版本不断更新升级,YOLOX是继YOLOv4、YOLOv5之后的新一代检测算法,算法的性能得以提升。
在实际中,由于硬件设备的算力限制,而在不改变算法结构时,算法的计算参数量固定,并不一定适应硬件设备的部署,GhostNet方法提出了一种基于卷积的可调计算参数量的特征提取结构,同时该方法对剩余特征图的拼接利用,减少了精度损失。
发明内容
有鉴于此,本发明提供了一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法。通过对视频分帧图片进行亮度均衡处理、使用结合GhostNet方法和YOLOX算法的目标检测方法,提供了较好的检测精度和多样的计算参数量,能更好地在不同算力的处理器上进行部署。
为了实现上述目的,本发明采用如下技术方案:
一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法,包括如下步骤:
步骤1:对多场景背景(商业区、十字路口、街道)下的监控视频进行分帧成图片,并对其中的人像位置进行标注,将图片和对应的标注信息以VOC数据集格式存储,用作实验的训练集;
步骤2:搭建GhostNet-YOLOX模型;
步骤3:输入训练集数据,训练GhostNet-YOLOX模型,直至损失函数曲线趋于平稳时,停止训练,保存此时的训练权值,以.pth格式保存;
步骤4:输入监控行人视频,对视频的分帧图像进行自适应伽马增强,来调节整个图片的亮度;
步骤5:对当前视频帧图片,调用改进后的训练模型,载入训练权值,输出预测人物位置参数;
步骤6:使用DeepSort算法根据轨迹对当前预测参数进行管理,分配ID实现人物跟踪;
优选地,所述的步骤1具体为:
对多场景背景(商业区、十字路口、街道)下的监控视频进行分帧并对其中的人像位置进行标注,将图片和对应的标注信息以VOC数据集格式存储,抽取其中的4/5,用作实验的训练集;
优选地,所述的步骤2包括:
首先,搭建GhostNet-YOLOX网络,主要包括:BackBone部分,Neck部分和Decouple_Head三部分。网络的基本组成单元为:Focus特征重组结构,由GhostNet、批量归一化层和SiLU函数激活层组成的CBS块,CSPLayer多级残差块,SPP并行池化结构。其中:
SiLU的函数表达式为:
Figure BDA0003637362770000021
使用GhostNet方法替换其中的卷积结构,设输入特征图为F1∈RC×H×W,特征图通道数为C,宽和高分别为W和H。输出特征图为
Figure BDA0003637362770000022
模块压缩比系数为k。GhostNet的过程为:
首先,通过常规卷积操作降低输入特征图通道数,得到浓缩信息的特征图
Figure BDA0003637362770000023
C2值为C4/k;
然后,对浓缩的特征图进行depthwise卷积操作,得到映射特征图
Figure BDA0003637362770000024
C3值为C4·(k-1)/k,同时为缩减参数量,使depthwise卷积组数为C2,则形成F2和F3维度之间的一对多映射;
最后,将浓缩特征图通过残差边和映射特征图进行拼接,得到F4
优选地,步骤3包括:
GhostNet-YOLOX的损失函数为:Loss=loss_loc+k1×loss_con+k2×loss_cls
其中,loss_loc为位置预测框回归损失,loss_con为置信度损失,loss_cls为分类损失。K1和K2为平衡三者的参数。
优选地,步骤4包括:
首先,将待分帧的图片转化为RGB格式,分为R、G、B三张特征图,分别计算R、G、B三张特征图的像素均值M1、M2、M3
然后,分别求取R、G、B三张特征图各自的变换系数αi,(i取值为1、2、3),则最终的变换系数α=(α123)/3。αi计算公式如下:
Figure BDA0003637362770000025
然后,分别对R、G、B三张特征图的每个像素值Xi,映射到Yi∈[0,1]区间内。映射公式如下:
Yi=Xi/255。
最后,将Yi进行伽马变换后,映射回原空间。计算公式为:
Zi=Yi α×255。
优选地,步骤6包括:
步骤6-1:根据GhostNet-YOLOX的检测结果detections初始化预测轨迹信息tracks。
其中,轨迹信息tracks利用8维特征向量
Figure BDA0003637362770000026
表示,u,v表示检测框的坐标,y,h表示宽高比和高,后四个参数分别表示前四个参数的变化率。
步骤6-2:对于预测的轨迹信息通过卡尔曼滤波算法进行导出,产生未确认状态的新轨迹unconfirmed tracks和可确认状态的轨迹confirmed tracks。
步骤6-3:对于确认状态的轨迹confirmed tracks,与detections产生的目标框信息结果进行级联匹配cascade,形成如下两种情况:
(1)tracks和detections失配(2)tracks和detections匹配成功。
当tracks和detections匹配成功的情况,则代表跟踪成功,之后使用卡尔曼滤波法更新预测轨迹tracks信息,返回6-2步骤,进入下一循环。
步骤6-4:对于未确认状态的新轨迹unconfirmed tracks或者原为确认状态的轨迹级联匹配后失配的tracks和detections,进行tracks和detections之间的IoU值计算,形成tracks和detections代价矩阵。代价矩阵值计算方式为1-IoU,IoU值为两者的交并比。
步骤6-5:代价矩阵通过匈牙利算法,得到tracks的三种匹配结果:
(1)tracks失配(2)dections失配(3)tracks和detections匹配成功。
对于第(1)种情况:如果失配的tracks是未确认态或者是确认态的tracks但失配次数超过30,则删除,反之失配次数未超过30,进入步骤6-2,进入下一循环。
对于第(2)种情况:对于失配的detections,则为其分配一个新track,并分配新的ID后进入步骤6-2,进入下一循环。
对于第(3)种情况:则代表跟踪成功,之后使用卡尔曼滤波法更新预测轨迹tracks信息,返回6-2步骤,进入下一循环。
步骤6-6:重复步骤6-2至步骤6-5,直到视频帧结束。
本发明相较现有技术具有以下有益效果:
通过对视频分帧图片进行亮度均衡处理,提高了算法的检测和跟踪精度。
使用结合GhostNet方法和YOLOX算法的目标检测方法,提供了可调的计算参数量,能更好地为在不同算力的硬件上进行部署。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1是本发明提供的基于结合GhostNet-YOLOX的算法和DeepSort算法的监控视频人物跟踪方法流程图;
图2是本发明提供的GhostNet-YOLOX算法结构图;
图3是本发明提供的GhostNet-YOLOX算法中的Decouple_Head结构;
图4是本发明提供的GhostNet-YOLOX算法中的Focus特征图重组原理图;
图5是本发明提供的GhostNet-YOLOX算法中的CSPLayer多级残差块结构;
图6是本发明提供的GhostNet-YOLOX算法中的SPP并行池化结构;
图7是本发明提供的GhostNet-YOLOX算法中的可调计算参数量的GhostNet原理图;
图8是本发明提供的Deepsort算法的原理图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
具体的,本发明实施例公开了一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法,首先整个方法的实施步骤(见图1)如下:
步骤1:对多场景背景(商业区、十字路口、街道)下的监控视频进行分帧成图片,并对其中的人像位置进行标注,将图片和对应的标注信息以VOC数据集格式存储,用作实验的训练集;
步骤2:搭建GhostNet-YOLOX模型;
步骤3:输入训练集数据,训练GhostNet-YOLOX模型,直至损失函数曲线趋于平稳时,停止训练,保存此时的训练权值,以.pth格式保存;
步骤4:输入监控行人视频,对视频的分帧图像进行自适应伽马增强,来调节整个图片的亮度;
步骤5:对当前视频帧图片,调用改进后的训练模型,载入训练权值,输出预测人物位置参数;
步骤6:使用DeepSort算法根据轨迹对当前预测参数进行管理,分配ID实现人物跟踪;
优选地,所述的步骤1具体为:
对多场景背景(商业区、十字路口、街道)下的监控视频进行分帧并对其中的人像位置进行标注,将图片和对应的标注信息以VOC数据集格式存储,抽取其中的4/5,用作实验的训练集。在一个实例中,在对上述三类场景的监控视频进行分帧,获得分帧的视频图片3000张,对其中的人物位置进行标注,将图片和对应的标注信息以VOC数据集格式存储,并随机抽取其中的2400张和对应标注文件,用作GhostNet-YOLOX模型的训练集。
优选地,所述的步骤2包括:
首先,搭建GhostNet-YOLOX网络(见图2),主要包括:BackBone部分,Neck部分和Decouple_Head三部分。网络的基本组成单元为:Focus特征重组结构,由GhostNet、批量归一化层和SiLU函数激活层组成的GBS块,CSPLayer多级残差块,SPP并行池化结构。其中:
SiLU的函数表达式为:
Figure BDA0003637362770000041
Decouple_Head(见图3)分别通过两组GBS块,对类别信息cls、置信度con和预测框位置参数loc进行独立提取。
Focus特征重组结构(见图4),通过分别对特征图的长、宽维度,每间隔一个像素值取一次像素值进行特征图重组。在一个实例中,特征图的维度从(w,h,c)转换为(w/2,h/2,4×c)。
CSPLayer多级残差块(见图5),分别对特征图通过两路GBS块,并在一路CBS结构中添加n个ResBlock,ResBlock结构如图5中虚线所示,最后将两路提取的特征图进行拼接。
SPP并行池化结构(见图6),首先将特征图经过GBS块后,进行池化核为5,9,13和无操作的池化操作,将得到的4组特征拼接后,再经过GBS块后输出。
使用GhostNet方法替换其中的卷积结构,GhostNet方法的压缩参数倍数设置为k(k取值为不小于1的整数)。
其中,GhostNet的过程(见图7)为:设输入特征图为F1∈RC×H×W,特征图通道数为C,宽和高分别为W和H。输出特征图为
Figure BDA0003637362770000042
模块压缩比系数为k。
首先通过常规卷积操作降低输入特征图通道数,得到浓缩信息的特征图
Figure BDA0003637362770000043
C2值为C4/k。
然后对浓缩的特征图进行depthwise卷积操作,得到映射特征图
Figure BDA0003637362770000044
C3值为C4·(k-1)/k,同时为缩减参数量,使depthwise卷积组数为C2,则形成F2和F3维度之间的一对多映射。
最后将浓缩特征图通过残差边和映射特征图进行拼接,得到F4。整个算法通过设置不同k值,实现参数可调。
优选地,步骤3包括:
GhostNet-YOLOX的损失函数为:Loss=loss_loc+k1×loss_con+k2×loss_cls
其中,loss_loc为位置预测框回归损失,loss_con为置信度损失,loss_cls为分类损失。K1和K2为平衡三者的参数。
优选地,步骤4包括:
首先,将待分帧的图片转化为RGB格式,分为R、G、B三张特征图,分别计算R、G、B三张特征图的像素均值M1、M2、M3
然后,分别求取R、G、B三张特征图各自的变换系数αi,(i取值为1、2、3),则最终的变换系数α=(α123)/3。αi计算公式如下:
Figure BDA0003637362770000051
然后,分别对R、G、B三张特征图的每个像素值Xi,映射到Yi∈[0,1]区间内。映射公式如下:
Yi=Xi/255。
最后,将Yi进行伽马变换后,映射回原空间。计算公式为:
Zi=Yi α×255。
优选地,步骤6包括,具体流程参见图8:
步骤6-1:根据GhostNet-YOLOX的检测结果detections初始化预测轨迹信息tracks。
其中,轨迹信息tracks利用8维特征向量
Figure BDA0003637362770000052
表示,u,v表示检测框的坐标,y,h表示宽高比和高,后四个参数分别表示前四个参数的变化率。
步骤6-2:对于预测的轨迹信息通过卡尔曼滤波算法进行导出,产生未确认状态的新轨迹unconfirmed tracks和可确认状态的轨迹confirmed tracks。
步骤6-3:对于确认状态的轨迹confirmed tracks,与detections产生的目标框信息结果进行级联匹配cascade,形成如下两种情况:
(1)tracks和detections失配(2)tracks和detections匹配成功;
当tracks和detections匹配成功的情况,则代表跟踪成功,之后使用卡尔曼滤波法更新预测轨迹Tracks信息,返回6-2步骤,进入下一循环。
步骤6-4:对于未确认状态的新轨迹unconfirmed tracks或者原为确认状态的轨迹级联匹配后失配的tracks和detections,进行tracks和detections之间的IoU值计算,形成tracks和detections代价矩阵。代价矩阵值计算方式为1-IoU,IoU值为两者的交并比。
步骤6-5:代价矩阵通过匈牙利算法,得到tracks的三种匹配结果:
(1)tracks失配(2)dections失配(3)tracks和detections匹配成功。
对于第(1)种情况:如果失配的tracks是未确认态或者是确认态的tracks但失配次数超过30,则删除,反之失配次数未超过30,进入步骤6-2,进入下一循环。
对于第(2)种情况:对于失配的detections,则为其分配一个新track,并分配新的ID后进入步骤6-2,进入下一循环。
对于第(3)种情况:则代表跟踪成功,之后使用卡尔曼滤波法更新预测轨迹tracks信息,返回6-2步骤,进入下一循环。
步骤6-6:重复步骤6-2至步骤6-5,直到视频帧结束。
本发明相较现有技术具有以下有益效果:
通过对视频分帧图片进行亮度均衡处理,提高了算法的检测和跟踪精度。
使用结合GhostNet方法和YOLOX算法的目标检测方法,提供了可调的计算参数量,能更好地为在不同算力的硬件上进行部署。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种可调节算法计算参数量的监控视频人物跟踪方法,结合GhostNet-YOLOX的目标检测算法和DeepSort算法,包括如下步骤:
步骤1:对多场景背景(商业区、十字路口、街道)下的监控视频进行分帧,并对其中的人像位置进行标注,将图片和对应的标注信息以VOC数据集格式存储,用作实验的训练集;
步骤2:搭建GhostNet-YOLOX模型;
步骤3:输入训练集数据,训练GhostNet-YOLOX模型,直至损失函数曲线趋于平稳时,停止训练,保存此时的训练权值,以.pth格式保存;
步骤4:输入监控行人视频,对视频的分帧图像进行自适应伽马增强,来调节整个图片的亮度;
步骤5:对当前视频帧图片,调用改进后的训练模型,载入训练权值,输出预测人物位置参数;
步骤6:使用DeepSort算法根据轨迹对当前预测参数进行管理,分配ID实现人物跟踪。
2.根据权利要求1所述的一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法其特征在于,步骤2包括:
首先,搭建GhostNet-YOLOX网络,主要包括:BackBone部分,Neck部分和Decouple_Head三部分。网络的基本组成单元为:Focus特征图重组结构,由GhostNet、批量归一化层和SiLU函数激活层组成的GBS块,CSPLayer多级残差块,SPP并行池化结构。其中:
SiLU的函数表达式为:
Figure FDA0003637362760000011
然后,使用GhostNet方法替换其中的卷积结构,设输入特征图为F1∈RC×H×W,特征图通道数为C,宽和高分别为W和H。输出特征图为
Figure FDA0003637362760000012
模块压缩比系数为k,通过设定不同k值,调整计算参数量。GhostNet的过程为:
首先,通过常规卷积操作降低输入特征图通道数,得到浓缩信息的特征图
Figure FDA0003637362760000013
C2值为C4/k;
然后,对浓缩的特征图进行depthwise卷积操作,得到映射特征图
Figure FDA0003637362760000014
C3值为C4·(k-1)/k,同时为缩减参数量,使depthwise卷积组数为C2,则形成F2和F3维度之间的一对多映射;
最后,将浓缩特征图通过残差边和映射特征图进行拼接,得到F4
3.根据权利要求1所述的一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法其特征在于,步骤3包括:
GhostNet-YOLOX的损失函数表达式为:Loss=loss_loc+k1×loss_con+k2×loss_cls。
其中,loss_loc为位置预测框回归损失,loss_con为置信度损失,loss_cls为分类损失。K1和K2为平衡三者的参数。
4.根据权利要求1所述的一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法其特征在于,步骤4包括:
首先,将待分帧的图片转化为RGB格式,分为R、G、B三张特征图,分别计算R、G、B三张特征图的像素均值M1、M2、M3
然后,分别求取R、G、B三张特征图各自的变换系数αi,(i取值为1、2、3),则最终的变换系数α=(α123)/3。αi计算公式如下:
Figure FDA0003637362760000015
然后,分别对R、G、B三张特征图的每个像素值Xi,映射到Yi∈[0,1]区间内。映射公式如下:
Yi=Xi/255。
最后,将Yi进行伽马变换后,映射回原空间。计算公式为:Zi=Yi α×255。
5.根据权利要求1所述的一种基于结合GhostNet-YOLOX的目标检测算法和DeepSort算法的监控视频人物跟踪方法其特征在于,步骤6包括:
步骤6-1:首先,根据GhostNet-YOLOX的检测结果detections初始化预测轨迹信息tracks。
其中,轨迹信息tracks利用8维特征向量
Figure FDA0003637362760000021
表示,u,v表示检测框的坐标,y,h表示宽高比和高,后四个参数分别表示前四个参数的变化率。
步骤6-2:对于预测的轨迹信息通过卡尔曼滤波算法进行导出,产生未确认状态的新轨迹unconfirmed tracks和可确认状态的轨迹confirmed tracks。
步骤6-3:对于确认状态的轨迹confirmed tracks,与detections产生的目标框信息结果进行级联匹配cascade,形成如下两种情况:
(1)tracks和detections失配;(2)tracks和detections匹配成功;
当tracks和detections匹配成功的情况,则代表跟踪成功,之后使用卡尔曼滤波法更新预测轨迹Tracks信息,返回6-2步骤,进入下一循环。
步骤6-4:对于未确认状态的新轨迹unconfirmed tracks或者原为确认状态的轨迹级联匹配后失配的tracks和detections,进行tracks和detections之间的IoU值计算,形成tracks和detections代价矩阵。
步骤6-5:代价矩阵通过匈牙利算法,得到tracks的三种匹配结果:
(1)tracks失配;(2)dections失配;(3)tracks和detections匹配成功。
对于6-5的第(1)种情况:如果失配的tracks是未确认态或者是确认态的tracks但失配次数超过30,则删除,反之失配次数未超过30,进入步骤6-2,进入下一循环。
对于6-5的第(2)种情况:对于失配的detections,则为其分配一个新track,并分配新的ID后进入步骤6-2,进入下一循环。
对于6-5的第(3)种情况:则代表跟踪成功,之后使用卡尔曼滤波法更新预测轨迹tracks信息,返回6-2步骤,进入下一循环。
步骤6-6:重复步骤6-2至步骤6-5,直到视频帧结束。
CN202210509561.9A 2022-05-10 2022-05-10 一种可调节算法计算参数量的监控视频人物跟踪方法 Pending CN114821480A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210509561.9A CN114821480A (zh) 2022-05-10 2022-05-10 一种可调节算法计算参数量的监控视频人物跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210509561.9A CN114821480A (zh) 2022-05-10 2022-05-10 一种可调节算法计算参数量的监控视频人物跟踪方法

Publications (1)

Publication Number Publication Date
CN114821480A true CN114821480A (zh) 2022-07-29

Family

ID=82513039

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210509561.9A Pending CN114821480A (zh) 2022-05-10 2022-05-10 一种可调节算法计算参数量的监控视频人物跟踪方法

Country Status (1)

Country Link
CN (1) CN114821480A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035354A (zh) * 2022-08-12 2022-09-09 江西省水利科学院 基于改进yolox的水库水面漂浮物目标检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115035354A (zh) * 2022-08-12 2022-09-09 江西省水利科学院 基于改进yolox的水库水面漂浮物目标检测方法
CN115035354B (zh) * 2022-08-12 2022-11-08 江西省水利科学院 基于改进yolox的水库水面漂浮物目标检测方法

Similar Documents

Publication Publication Date Title
US10628961B2 (en) Object tracking for neural network systems
CN111723645B (zh) 用于同相机内有监督场景的多相机高精度行人重识别方法
CN111950723B (zh) 神经网络模型训练方法、图像处理方法、装置及终端设备
WO2021073418A1 (zh) 人脸识别方法、装置、设备及存储介质
CN109583483B (zh) 一种基于卷积神经网络的目标检测方法和系统
Zhu et al. Towards high performance video object detection for mobiles
WO2020134528A1 (zh) 目标检测方法及相关产品
CN111898547A (zh) 人脸识别模型的训练方法、装置、设备及存储介质
CN112115783A (zh) 基于深度知识迁移的人脸特征点检测方法、装置及设备
CN112651438A (zh) 多类别图像的分类方法、装置、终端设备和存储介质
WO2023082784A1 (zh) 一种基于局部特征注意力的行人重识别方法和装置
CN108491856B (zh) 一种基于多尺度特征卷积神经网络的图像场景分类方法
CN109670555B (zh) 基于深度学习的实例级行人检测和行人重识别系统
CN113052170B (zh) 一种无约束场景下的小目标车牌识别方法
WO2023159898A1 (zh) 一种动作识别系统、方法、装置及模型训练方法、装置、计算机设备及计算机可读存储介质
Raj et al. Feature based video stabilization based on boosted HAAR Cascade and representative point matching algorithm
CN104346630A (zh) 一种异构特征融合的云花卉识别方法
CN114821480A (zh) 一种可调节算法计算参数量的监控视频人物跟踪方法
CN114627269A (zh) 一种基于深度学习目标检测的虚拟现实安防监控平台
CN115953643A (zh) 基于知识蒸馏的模型训练方法、装置及电子设备
CN115171183A (zh) 一种基于改进yolov5的口罩人脸检测方法
CN111339869A (zh) 一种人脸识别方法、装置、计算机可读存储介质及设备
CN112614110B (zh) 评估图像质量的方法、装置及终端设备
Hao et al. Research on an unsupervised person re-identification based on image quality enhancement method
CN117373062A (zh) 一种基于联合学习的实时端到端跨分辨率行人重识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination