CN114494349A - 基于目标特征时空对齐的视频跟踪系统及方法 - Google Patents
基于目标特征时空对齐的视频跟踪系统及方法 Download PDFInfo
- Publication number
- CN114494349A CN114494349A CN202210099782.3A CN202210099782A CN114494349A CN 114494349 A CN114494349 A CN 114494349A CN 202210099782 A CN202210099782 A CN 202210099782A CN 114494349 A CN114494349 A CN 114494349A
- Authority
- CN
- China
- Prior art keywords
- target
- feature
- frame
- information
- offset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于目标特征时空对齐的视频跟踪系统及方法,包括:全局特征提取模块、目标位置预测模块、目标特征提取模块和目标跟踪模块,本发明充分利用目标间的位置关系和前后帧目标的运动特征,并增强不同目标之间的区分度,筛选出最有代表性的目标特征,在视频跟踪时能更为准确地预测和区分目标,可以更加精准地匹配前后帧目标,增强物体类别预测的稳定性。
Description
技术领域
本发明涉及的是一种视频跟踪领域的技术,具体是一种基于目标特征时空对齐的视频跟踪系统及方法。
背景技术
视频跟踪,即对视频中多个感兴趣的目标进行定位,同时对所有目标根据其特征进行编号,记录连续的运动轨迹。
现有的视频跟踪方法包括基于tracking-by-detection框架的算法,例如deepsort算法,对每一帧进行目标检测,将前后帧检测到的目标进行关联,得到一系列轨迹。这种方法仅是把普通的关联和分配算法和目标检测器结合到一起,跟踪效果依赖于目标检测性能的好坏,当目标位于密集场景时和目标或镜头迅速移动情况下,这种依赖位置关联的算法在跟踪时容易丢失目标,造成精度下降。
现有基于检测和跟踪联合的算法,例如FairMOT算法,该类算法将目标检测和关联联合训练,增加匹配和关联之间的特征耦合关系,对两者同时进行提升。该类算法在目标位置处对特征信息进行采样,但是此特征提取方法仅仅作用于物体的物理位置中心却忽视了前后帧的联系以及物体的物理形状、遮挡程度等时空信息,造成该处的特征包含了其他不相干目标的信息,使得提取出的特征不具有代表性。
此外,在基于深度学习的视频跟踪的方法中,通常采用交叉熵损失对目标重识别任务进行监督学习,每个目标是被单独考虑的,同一轨迹的目标检测框分到同一类。而在运用在跟踪上时,需要将目标和上一帧所有目标进行相似度计算,并根据结果进行匹配。该类型的方法由于没有考虑到不同目标之间的差异性而造成前后帧目标失配或错配。
发明内容
本发明针对现有技术存在的上述不足,提出一种基于目标特征时空对齐的视频跟踪系统及方法,充分利用目标间的位置关系和前后帧目标的运动特征,并增强不同目标之间的区分度,筛选出最有代表性的目标特征,在视频跟踪时能更为准确地预测和区分目标,可以更加精准地匹配前后帧目标,增强物体类别预测的稳定性。
本发明是通过以下技术方案实现的:
本发明涉及一种基于目标特征时空对齐的视频跟踪系统,包括:全局特征提取模块、目标位置预测模块、目标特征提取模块和目标跟踪模块,其中:全局特征提取模块将当前帧与参考帧同时输入特征提取网络,得到当前帧以及参考帧的特征图并进行邻帧相似度计算;目标位置预测模块根据特征图预测出各个像素点上存在目标的概率,得到当前帧的热力图(heatmap),再使用参考帧的heatmap对其进行时序信息增强,得到目标的物理中心位置;目标特征提取模块根据特征图预测各个像素点上的特征,即全局的特征,再对目标物理中心位置进行采样位置偏移得到目标特征中心位置,在全局特征上对目标特征中心位置进行采样,得到目标特征;目标跟踪模块根据目标位置和目标特征将各个目标与历史轨迹匹配,使用当前帧的目标信息更新轨迹状态。
所述的参考帧是指用于与当前帧进行比较,通过两者的差异推断出各个目标的运动信息的帧。在本系统中参考帧取邻近的上一帧,第一帧的参考帧取其本身。
所述的邻帧相似度是指:将当前帧特征图的各个像素点与参考帧特征图对应位置及其邻域的点进行相似度计算,得到的相似度包含空间相关信息,在时序上则表现为由目标移动造成的差异,提供目标的运动信息使后续步骤中的像素点偏移预测得更为准确。
所述的heatmap,表示各个像素点上存在目标的概率的矩阵,将矩阵上目标概率的极大值点所处位置作为目标的物理中心位置。
所述的时序信息增强是指:采用参考帧的位置信息弥补因目标运动或遮挡造成当前帧的位置信息缺失,具体为:将邻帧相似度输入目标位置预测模块的可变形卷积预测卷积时像素点的偏移,再将参考帧的heatmap通过该可变形卷积得到邻帧残差,再用邻帧残差对当前帧的heatmap进行修正,即将两者直接叠加得到调整后的heatmap,使得到的heatmap既反映当前帧的目标位置,又融合了历史轨迹的信息。
所述的采样,通过特征互信息方法得到目标特征,具体为:通过计算采样位置与周围像素点的特征互信息,特征互信息越多,则组成特征的权重越高,以此来选取公有的特征,滤除不相干的目标特征。
所述的特征提取网络的训练过程中,将不同目标特征的正交性加入标准进行监督学习,即对于不同的目标i,j,其对应特征向量Fi、Fj,σ(FiFjT)趋近于0,对于两个相同的目标i,σ(FiFiT)趋近于1,其中:σ()表示激活函数,在本系统中采用sigmoid激活函数。
技术效果
与现有常规技术手段相比,本发明通过在特征图上添加特征采样位置偏移分支,预测特征图上各个像素的在x,y轴上的偏移弥补目标物理位置中心与特征位置中心不一致的问题。通过在各个目标的中心位置施加预测的偏移,采样插值得到更具有代表性的目标特征Fi;同时通过使用上一帧的位置信息增强更新当前帧的位置信息。是指:通过计算前后两帧的邻帧相似度,得到视频中目标的运动信息,输入可变形卷积中预测偏移,再将参考帧的heatmap送入到可变形卷积中,得到邻帧残差,将当前帧初始的heatmap做信息融合,更新为当前帧的heatmap,使用上一帧的信息增强更新当前帧的信息。同时本发明提出了一种新的损失函数,使得不同目标的特征具有正交性,在跟踪时对于判别不同目标具有更好的区分度。
附图说明
图1为本发明原理图;
图2为本发明系统示意图;
图3为本发明各网络分支结构示意图。
具体实施方式
如图1和图2所示,为本实施例涉及的一种基于目标特征时空对齐的视频跟踪系统,包括:全局特征提取模块、目标位置预测模块、目标特征提取模块和目标跟踪模块。
如图3所示,所述的全局特征提取模块包括:特征提取网络和邻帧相似度计算单元,其中:特征提取网络根据待测视频的原始帧与参考帧,生成对应的原始帧以及参考帧的特征图,下采样后其大小为(C,H,W)。邻帧相似度计算单元计算得到的两个特征图之间的邻帧相似度。
所述的邻帧特征图相似度计算采用空间相关的方法,即将当前帧特征图上的各像素点与参考帧对应位置及其邻域的像素点都做一次相似度计算,得到的相似度矩阵上各点值为 其中:邻域0≤i,j<K,邻域大小为(K,K),Qxy为位于当前帧的特征图(x,y)上的向量,Q′ij为上一帧对应位置邻域上一点的向量,得到大小为(H,W,K2)的相似度矩阵。
所述的目标位置预测模块包括:热力图分支(Heatmap)、中心偏移分支(CenterOffset)和矩形框尺寸分支(boxsize),其中:热力图分支采用邻帧残差连接的手段融合时序信息生成当前帧的heatmap,预测特征图上存在目标的概率,物体中心值预期为1,周围的值随着与目标中心的距离递增呈指数衰减,将目标概率的极大值点所处位置作为目标的中心位置。中心偏移分支用于预测目标中心位置的偏移oi,弥补下采样时带来的量化误差,对在Heatmap中预测的中心位置施加偏移得到最终的物体中心位置矩形框尺寸分支用于预测各个目标对应框的长宽si。
所述的邻帧残差连接是指:将邻帧相似度计算时得到的相似度矩阵送入可变形卷积中预测卷积时像素点的偏移,再将具有目标历史位置信息的参考帧的heatmap输入可变形卷积中预测邻帧残差,对当前帧的heatmap进行调整修正,得到更新后的heatmap,再根据heatmap得到目标的中心位置。
所述的可变形卷积是指卷积核在每一个元素上额外增加了一个参数方向参数的卷积,在卷积时可以根据视频目标的形状动态地调整卷积的范围。
所述的邻帧残差是指用于弥补因目标运动或遮挡造成的目标位置信息的丢失,用历史帧的位置信息对当前帧的位置信息进行增强。
对于目标位置预测模块得到的三组位置相关参数Heatmap、Center Offset和boxsize,分别采用对应的损失函数进行监督训练。
所述的目标特征提取模块包括:特征提取分支(identity)和采样偏移分支(extract offset),其中:特征提取分支输出全局目标特征信息,在特征图上每个像素点上生成128维的特征向量F,代表该位置可能存在目标的特征。采样偏移分支在特征图上每个像素点上分别生成x,y方向上的偏移通过在目标位置预测模块预测出的目标中心位置施加该偏移,得到特征中心位置在该位置对全局目标特征信息进行采样,得到该目标的特征,最后采用特征正交化约束目标的特征信息。
优选地,本实施例通过特征互信息采样的方式得到偏移之后的坐标值,通过插值更为准确地得到特征信息,具体为:
所述的特征正交化是指:对于采样后得到的第i个目标类别的特征向量Fi,在训练时为每个目标类别用标准正态分布初始化一个特征向量作为第j类的类模板Mj,将特征向量Fi与类模板Mj做内积并经过sigmoid函数,当两者特征越相近,得到的值越接近1,最终的目标特征损失为采用该损失函数对网络生成的目标特征进行监督训练,使得网络预测出的不同目标的特征具有正交性,更加有区分度。
所述的目标跟踪模块:对于初始帧,根据得到的位置和特征信息初始化为一系列轨迹。对于后续帧,根据目标的位置和特征信息将各个目标与历史轨迹匹配,更新当前帧的轨迹状态,创建新的轨迹或者删除消逝的轨迹。
经过具体实际实验,在基于Pytorch的具体环境设置下,在MOT17训练数据集上进行训练和测试,以30次训练迭代,采用Adam优化器,其中前20次迭代学习率取10-4,后10次迭代学习率衰减值10-5,以MOTA为测试指标,MOTA表达式为其中FN是误判数,FP是漏检数,IDSW是目标发生身份切换的数目,在MOT17测试数据集上得到的结果如表1所示,相比基准指标提升了1.6%,误判数和漏检数都有了一定量的减少。
表1实验结果
FairMOT | 本系统 | |
FN | 37926 | 33267 |
FP | 128958 | 123579 |
MOTA(%) | 69.6 | 71.2(+1.6) |
综上,说明目标特征更具代表性,减少了其他不相干信息的混叠,其目标的特征信息得到了增强,对不同目标区分度更加明显,对同一目标匹配更为精准,表明目标特征时空对齐对提升视频跟踪的准确性有一定效果。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。
Claims (10)
1.一种基于目标特征时空对齐的视频跟踪系统,其特征在于,包括:全局特征提取模块、目标位置预测模块、目标特征提取模块和目标跟踪模块,其中:全局特征提取模块将当前帧与参考帧同时输入特征提取网络,得到当前帧以及参考帧的特征图并进行邻帧相似度计算;目标位置预测模块根据特征图预测出各个像素点上存在目标的概率,得到当前帧的热力图,再使用参考帧的heatmap对其进行时序信息增强,得到目标的物理中心位置;目标特征提取模块根据特征图预测各个像素点上的特征,即全局的特征,再对目标物理中心位置进行采样位置偏移得到目标特征中心位置,在全局特征上对目标特征中心位置进行采样,得到目标特征;目标跟踪模块根据目标位置和目标特征将各个目标与历史轨迹匹配,使用当前帧的目标信息更新轨迹状态;
所述的邻帧相似度是指:将当前帧特征图的各个像素点与参考帧特征图对应位置及其邻域的点进行相似度计算,得到的相似度包含空间相关信息,在时序上则表现为由目标移动造成的差异,提供目标的运动信息使后续步骤中的像素点偏移预测得更为准确;
所述的heatmap,表示各个像素点上存在目标的概率的矩阵,将矩阵上目标概率的极大值点所处位置作为目标的物理中心位置;
所述的时序信息增强是指:采用参考帧的位置信息弥补因目标运动或遮挡造成当前帧的位置信息缺失,具体为:将邻帧相似度输入目标位置预测模块的可变形卷积预测卷积时像素点的偏移,再将参考帧的heatmap通过该可变形卷积得到邻帧残差,再用邻帧残差对当前帧的heatmap进行修正,即将两者直接叠加得到调整后的heatmap,使得到的heatmap既反映当前帧的目标位置,又融合了历史轨迹的信息。
3.根据权利要求2所述的基于目标特征时空对齐的视频跟踪系统,其特征是,所述的采样,通过特征互信息方法得到目标特征,具体为:通过计算采样位置与周围像素点的特征互信息,特征互信息越多,则组成特征的权重越高,以此来选取公有的特征,滤除不相干的目标特征。
4.根据权利要求1所述的基于目标特征时空对齐的视频跟踪系统,其特征是,所述的特征提取网络的训练过程中,将不同目标特征的正交性加入标准进行监督学习,即对于不同的目标i,j,其对应特征向量Fi、Fj,σ(FiFjT)趋近于0,对于两个相同的目标i,σ(FiFiT)趋近于1,其中:σ()表示激活函数。
6.根据权利要求1~5中任一所述的基于目标特征时空对齐的视频跟踪系统,其特征是,所述的全局特征提取模块包括:特征提取网络和邻帧相似度计算单元,其中:特征提取网络根据待测视频的原始帧与参考帧,生成对应的原始帧以及参考帧的特征图,下采样后其大小为(C,H,W);邻帧相似度计算单元计算得到的两个特征图之间的邻帧相似度。
7.根据权利要求1~5中任一所述的基于目标特征时空对齐的视频跟踪系统,其特征是,所述的目标位置预测模块包括:热力图分支(Heatmap)、中心偏移分支(Center Offset)和矩形框尺寸分支(box size),其中:热力图分支采用邻帧残差连接的手段融合时序信息生成当前帧的heatmap,预测特征图上存在目标的概率,物体中心值预期为1,周围的值随着与目标中心的距离递增呈指数衰减,将目标概率的极大值点所处位置作为目标的中心位置;中心偏移分支用于预测目标中心位置的偏移oi,弥补下采样时带来的量化误差,对在Heatmap中预测的中心位置施加偏移得到最终的物体中心位置矩形框尺寸分支用于预测各个目标对应框的长宽si。
8.根据权利要求7所述的基于目标特征时空对齐的视频跟踪系统,其特征是,所述的邻帧残差连接是指:将邻帧特征图相似度计算时得到相似度矩阵送入可变形卷积中预测卷积时像素点的偏移,再将具有目标历史位置信息的参考帧的heatmap输入可变形卷积中预测邻帧残差,对当前帧的heatmap进行调整修正,得到更新后的heatmap,再根据heatmap得到目标的中心位置。
10.根据权利要求9所述的基于目标特征时空对齐的视频跟踪系统,其特征是,所述的偏移,通过特征互信息采样的方式实现,通过插值更为准确地得到特征信息,具体为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210099782.3A CN114494349A (zh) | 2022-01-27 | 2022-01-27 | 基于目标特征时空对齐的视频跟踪系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210099782.3A CN114494349A (zh) | 2022-01-27 | 2022-01-27 | 基于目标特征时空对齐的视频跟踪系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114494349A true CN114494349A (zh) | 2022-05-13 |
Family
ID=81477398
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210099782.3A Pending CN114494349A (zh) | 2022-01-27 | 2022-01-27 | 基于目标特征时空对齐的视频跟踪系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114494349A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115272404A (zh) * | 2022-06-17 | 2022-11-01 | 江南大学 | 一种基于核空间和隐式空间特征对齐的多目标跟踪方法 |
-
2022
- 2022-01-27 CN CN202210099782.3A patent/CN114494349A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115272404A (zh) * | 2022-06-17 | 2022-11-01 | 江南大学 | 一种基于核空间和隐式空间特征对齐的多目标跟踪方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11094070B2 (en) | Visual multi-object tracking based on multi-Bernoulli filter with YOLOv3 detection | |
CN108470332B (zh) | 一种多目标跟踪方法及装置 | |
CN112348849B (zh) | 一种孪生网络视频目标跟踪方法及装置 | |
CN107194408B (zh) | 一种混合块稀疏协作模型的目标跟踪方法 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN109544592B (zh) | 针对相机移动的运动目标检测算法 | |
CN111882586B (zh) | 一种面向剧场环境的多演员目标跟踪方法 | |
CN110348437B (zh) | 一种基于弱监督学习与遮挡感知的目标检测方法 | |
CN111144364A (zh) | 一种基于通道注意更新机制的孪生网络目标跟踪方法 | |
CN109242883B (zh) | 基于深度sr-kcf滤波的光学遥感视频目标跟踪方法 | |
CN112836640A (zh) | 一种单摄像头多目标行人跟踪方法 | |
CN112036381B (zh) | 视觉跟踪方法、视频监控方法及终端设备 | |
CN112634369A (zh) | 空间与或图模型生成方法、装置、电子设备和存储介质 | |
JP2024513596A (ja) | 画像処理方法および装置、ならびにコンピュータ可読ストレージ媒体 | |
CN111046847A (zh) | 一种视频处理方法、装置、电子设备以及介质 | |
CN111539987B (zh) | 基于判别模型的遮挡检测系统及方法 | |
CN114842553A (zh) | 基于残差收缩结构和非局部注意力的行为检测方法 | |
CN107657627B (zh) | 基于人脑记忆机制的时空上下文目标跟踪方法 | |
CN116977367A (zh) | 基于Transformer与卡尔曼滤波的校园多目标跟踪方法 | |
Bashar et al. | Multiple object tracking in recent times: A literature review | |
CN114494349A (zh) | 基于目标特征时空对齐的视频跟踪系统及方法 | |
CN112991394B (zh) | 基于三次样条插值和马尔科夫链的kcf目标跟踪方法 | |
CN114820765A (zh) | 图像识别方法、装置、电子设备及计算机可读存储介质 | |
CN110222585B (zh) | 一种基于级联检测器的运动目标跟踪方法 | |
CN115100565B (zh) | 一种基于空间相关性与光流配准的多目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |