CN110084836A - 基于深度卷积特征分层响应融合的目标跟踪方法 - Google Patents
基于深度卷积特征分层响应融合的目标跟踪方法 Download PDFInfo
- Publication number
- CN110084836A CN110084836A CN201910341675.5A CN201910341675A CN110084836A CN 110084836 A CN110084836 A CN 110084836A CN 201910341675 A CN201910341675 A CN 201910341675A CN 110084836 A CN110084836 A CN 110084836A
- Authority
- CN
- China
- Prior art keywords
- target
- frame
- feature
- tracked
- current frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 title claims abstract description 39
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000004927 fusion Effects 0.000 title claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims abstract description 64
- 125000004122 cyclic group Chemical group 0.000 claims description 25
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 102100029469 WD repeat and HMG-box DNA-binding protein 1 Human genes 0.000 claims description 2
- 101710097421 WD repeat and HMG-box DNA-binding protein 1 Proteins 0.000 claims description 2
- 238000012544 monitoring process Methods 0.000 abstract description 2
- 238000004088 simulation Methods 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000005764 inhibitory process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度特征分层响应融合的目标跟踪方法,主要解决现有技术在当目标发生严重遮挡、背景杂乱时,导致跟踪失败的问题。其实现步骤为:1)确定待跟踪目标初始位置,计算第一帧相关滤波器的候选区域目标特征和候选区域循环特征矩阵;2)读取下一帧目标图像,并通过前一帧相关滤波器模板计算目标图像特征响应矩阵,根据该矩阵最大值预测待跟踪目标位置;3)更新相关滤波器模板;6)判断图像是否为待跟踪视频序列的最后一帧图像,若是,结束跟踪,否则返回2)。本发明能在待跟踪目标发生严重遮挡时,利用细节置信图中的背景信息预测待跟踪目标位置,提高了跟踪的准确度,可用于视频监控、机器人导航和定位,无人驾驶的跟踪。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及一种目标跟踪方法,可用于视频监控、机器人导航和定位,无人驾驶机对运动目标的跟踪。
背景技术
运动目标跟踪的主要任务是,从连续的视频图像序列中检测出运动目标,进而在每一帧图像中确定出运动目标的位置。随着人们对计算机视觉领域的不断深入认识,运动目标跟踪在该领域得到广泛应用和发展,目前已经存在大量的跟踪算法来实现运动目标跟踪。但是,由于遮挡、背景杂乱、外观形变、光照变化、视角变化等客观因素的影响,使得实时准确地跟踪目标仍然面临极大挑战。
Chao Ma,Jia-Bin Huang,Xiaokang Yang,Ming-Hsuan Yang在其发表的论文”Hierarchical Convolutional Features for Visual Tracking”(《InternationalConference on Computer Vision》论文集2015年第3074-3082页)中公开了一种使用分层卷积特征对跟踪目标进行学习和表达,将不同层学习到的相关滤波器加权融合对目标进行跟踪。该方法实现的具体步骤是,首先,根据初始的图像帧,确定目标的区域,跟踪器通过该目标区域形成初始目标模板;其次,利用卷积神经网络VGG-19当中的conv3-4、conv4-4、conv5-4的输出结果提取目标候选区域不同层次的特征;接着,分别经过相关滤波器学习得到对应响应图;然后,通过将三个响应图加权融合得到最终的响应图;最后计算响应图的最大值得到目标位置。该方法存在的不足之处是,它更加强调了高层特征的语义信息部分,反而弱化了低层特征的细节信息,当目标被长时间遮挡的时候,比如Girl2和Lemming序列集,跟踪器没有对这面做很好的解决,导致跟踪失败。
Ning Wang,Wengang,Zhou,Qi Tian,et al在其发表的论文”Multi-CueCorrelation Filters for Robust Visual Tracking”(《Computer Vision&PatternRecognition》论文集2018年第4844-4853页)公开了一种基于多线索相关滤波的追踪算法。该方法实现的具体步骤是,首先,以前一帧的目标位置为中心,裁出一个目标候选区域是前一帧目标大小的4倍;其次,利用卷积神经网络VGG-19当中的conv4-4和conv5-4的输出结果提取目标候选区域不同层次的特征,提取目标候选区域的HOG特征;接着,计算不同层次特征对应的置信度;然后,将不同层次的置信度相互融合组成7个不同的专家;最后,根据评估标准评估每个专家的鲁棒分数,选择鲁棒分数最高的专家作为当前帧的最终响应图,从而计算得到目标位置,实现目标跟踪。该方法存在的不足之处是,每一帧都需要对多个专家进行配对评估和自我评估,导致跟踪速度很慢,且也抑制低层特征的细节信息。
发明内容
本发明针对上述现有技术的不足,提出一种基于深度卷积特征分层响应融合的目标跟踪方法,以实现当目标被严重遮挡、背景杂乱时对目标进行快速、准确、有效地跟踪。
本发明的技术方案是,首先,利用卷积神经网络VGG-19当中的conv2-2、conv4-4、conv5-4的输出结果提取待跟踪目标候选区域的不同层次特征,其次,分别经过相关滤波器学习得到不同层次的置信图,最后对所得到的三个置信图融合得到最终的响应图,从而得到待跟踪目标的位置。其实现步骤包括如下:
1.一种基于深度卷积特征分层响应融合的目标跟踪方法,其特征在于,包括如下:
(1)确定运动待跟踪目标第一帧的初始位置及目标候选区域,并利用卷积神经网络VGG-19,提取第一帧图像中的候选区域不同层次特征,计算第一帧不同层次相关滤波器的候选区域目标特征A和候选区域循环特征矩阵B;
(2)依次读取尚未读入的含有待跟踪目标视频图像序列中的任一帧视频图像,作为当前帧视频图像,确定当前帧的目标候选区域,并将前一帧不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵作为当前帧不同层次相关滤波器的候选区域目标特征模板和候选区域循环特征矩阵模板;
(3)计算特征响应矩阵:
(3a)提取当前帧图像候选区域的低层特征、中层特征、高层特征,通过当前帧不同层次相关滤波器的候选区域目标特征模板和候选区域循环特征矩阵模板对当前帧图像的候选区域不同层次特征图做卷积运算,对应地得到低层响应矩阵RLow,中层响应矩阵RMiddle,高层响应矩阵RHigh;
(3b)根据(3a)的结果计算最终的特征响应矩阵R:
R=RHigh.*RMiddle+RHigh.*RLow+Rmiddle.*RLow
其中,.*表示点乘操作;
(4)选取当前帧图像的最终响应矩阵中的元素最大值,将该最大值元素的位置作为当前帧图像的待跟踪目标的目标框中心点的位置;
(5)更新当前帧不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵:
(5a)利用欧式距离计算公式,计算当前帧目标框中心位置与前一帧目标框中心位置的距离dt;
(5b)根据(5a)的结果,计算当前帧距离的轨迹波动分数:其中,σ表示平滑方差,*表示乘操作;
(5c)根据轨迹波动分数St,计算历史轨迹波动度值的平均值:其中,Si表示第i帧的轨迹波动分数,t表示包括当前帧在内的前t个历史轨迹波动度值;
(5d)设置阈值T为0.75的固定值,计算当前帧的轨迹波动分数St与历史置信度的比值r;
(5e)将比值r与阈值T进行比较,当r大于T时,设置学习率η的初始值η0为0.01,否则,更新学习率:其中,β表示值为3的系数,*表示乘操作;
(5f)根据(5e)的结果,更新当前帧不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵
其中,L的取值为1或2或3,1表示低层次Low,2表示中层次Middle,3表示高层次High,表示表示当前帧L相关滤波器的候选区域目标特征,表示前一帧L相关滤波器的候选区域目标特征,表示当前帧L相关滤波器的候选区域循环特征矩阵,表示前一帧L相关滤波器的候选区域循环特征矩阵,*表示乘操作;
(6)判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧视频图像,若是,则结束对运动待跟踪目标的跟踪,否则,将当前帧更新的不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵作为下一帧待跟踪目标视频图像不同层次相关滤波器的候选区域目标特征模板和候选区域循环特征矩阵模板,返回(2)。
本发明与现有的技术相比具有以下优点:
第一,由于本发明利用分层响应融合思想,计算不同层次特征图对应的置信图,再利用分层响应融合模型得到最终的响应图,克服了现有技术中当目标被严重遮挡时,由于响应的直接联合和抑制低层特征的相似性,导致目标跟丢的问题,使得本发明能够更准确、快速地预测待跟踪目标位置和大小。
第二,由于本发明利用轨迹波动分数公式来更新学习率,计算当前帧的轨迹波动值与历史置信度值的比值,小于阈值则学习率减小,从而减缓相关滤波器更新速度,克服了现有技术中由于目标跟踪失败导致学习到错误相关滤波器的问题,增强了目标跟踪的准确性和可靠性。
附图说明
图1为本发明的实现流程图;
图2为本发明在输入的第一帧视频图像中用矩形框标出待跟踪目标的示意图;
图3为本发明仿真实验中输入的待跟踪目标发生严重遮挡时的一帧视频图像的跟踪结果示意图;
具体实施方式
下面结合附图对本发明实施例和效果做进一步的描述。
参照图1,本发明的实现步骤如下:
步骤1,确定运动待跟踪目标的初始位置。
(1a)输入含有待跟踪目标的彩色视频图像序列中的第一帧视频图像,本发明的实施例中,所输入的一段待跟踪视频图像序列的第一帧图像,如图2所示,其中图2为一段一只玩具旅鼠在实验桌子上运动的视频图像序列的第一帧图像,图2中的实线矩形框的位置表示待跟踪目标的初始位置;
(1b)用待跟踪目标的初始位置和初始位置的长度和宽度确定一个矩形框,用该矩形框标出第一帧图像中的待跟踪目标;
(1c)在第一帧图像中,以待跟踪目标的初始位置为中心,用待跟踪目标的初始位置和待跟踪目标的2倍长度和2倍宽度确定一个矩形框,用该矩形框标出第一帧图像中的候选区域,将位于目标候选区域矩形框内的每个采样图像块标注为正图像块,标上正标签+1,其余的采样图像块标注为负图像块,标上负标签-1;
(1d)利用已经训练好的VGG-19网络的第10层、第28层、第37层输出结果,提取第一帧目标候选区域的不同层次特征,计算第一帧不同层次相关滤波器的候选区域目标特征A和候选区域循环特征矩阵B:
A=x*⊙y
B=x*⊙x
其中,x表示当前帧图像中的候选区域特征矩阵的第一行的向量的快速傅里叶变换值,*表示取共轭值操作,⊙表示点乘操作,y表示当前帧图像的候选区域内图像块的标签,标签的值为+1或-1,+1表示正样本,-1表示负样本。
步骤2,读取视频图像。
(2a)载入待跟踪视频序列中下一帧彩色视频图像,作为当前帧图像;
(2b)在当前帧图像中,以前一帧图像中的待跟踪目标位置为中心,确定一个长度和宽度分别是待跟踪目标长度和宽度2倍的矩形框,将该矩形框作为当前帧图像的候选区域;
(2c)将前一帧不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵作为当前帧相关滤波器的候选区域目标特征模板和候选区域循环特征矩阵模板,其中,表示低层特征对应的相关滤波器的候选区域目标特征,表示中层特征对应的相关滤波器的候选区域目标特征,表示高层特征对应的相关滤波器的候选区域目标特征,表示低层特征对应的相关滤波器的候选区域循环特征矩阵,表示中层特征对应的相关滤波器的候选区域循环特征矩阵,表示高层特征对应的相关滤波器的候选区域循环特征矩阵。
步骤3,计算特征响应矩阵。
(3a)利用已经训练好的VGG-19网络的第10层、第28层、第37层输出结果,提取当前帧目标候选区域的低层特征zLow、中层特征zMiddle、高层特征zHigh;
(3b)通过当前帧不同层次相关滤波器的候选区域目标特征模板和候选区域循环特征矩阵模板对当前帧图像的候选区域不同层次特征图做卷积运算,对应地得到低层响应矩阵RLow,中层响应矩阵RMiddle,高层响应矩阵RHigh:
其中,F(·)表示快速傅里叶变换操作,F-1(·)表示快速傅里叶逆变换操作,λ表示值为0.0001的系数;
(3c)利用分层响应融合公式,计算最终的特征响应矩阵R:
R=RHigh.*RMiddle+RHigh.*RLow+Rmiddle.*RLow,
其中,.*表示点乘操作。
步骤4,预测待跟踪目标的位置。
选取当前帧图像的最终响应矩阵中的元素最大值,将该最大值元素的位置作为当前帧图像的待跟踪目标的目标框中心点位置。
步骤5,更新当前帧不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵。
(5a)利用欧式距离公式,计算当前帧目标框中心位置与前一帧目标框中心位置的距离dt:
其中,xt和yt分别表示当前帧目标框中心位置坐标的横坐标和纵坐标,xt-1和yt-1分别表示前一帧目标框中心位置坐标的横坐标和纵坐标。
(5b)利用轨迹波动分数公式,计算当前帧距离的轨迹波动分数St:
其中,σ表示平滑方差,*表示乘操作;
(5c)计算历史轨迹波动度值的平均值
其中,Si表示第i帧的轨迹波动分数,t表示包括当前帧在内的前t个历史轨迹波动度值;
(5d)设置阈值T为0.75的固定值,计算当前帧的轨迹波动分数St与历史置信度的比值:
(5e)将比值r与阈值T进行比较,当r大于T时,设置学习率η的初始值η0为0.01,否则,更新学习率:其中,β表示值为3的系数,*表示乘操作;
(5f)更新当前帧不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵
其中,表示低层特征对应的相关滤波器的候选区域目标特征,表示中层特征对应的相关滤波器的候选区域目标特征,表示高层特征对应的相关滤波器的候选区域目标特征,表示低层特征对应的相关滤波器的候选区域循环特征矩阵,表示中层特征对应的相关滤波器的候选区域循环特征矩阵,表示高层特征对应的相关滤波器的候选区域循环特征矩阵,*表示乘操作。
步骤6,判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧视频图像,若是,则结束对运动待跟踪目标的跟踪,否则,将当前帧更新的不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵作为下一帧待跟踪目标视频图像相关滤波器的候选区域目标特征模板和候选区域循环特征矩阵模板,返回步骤2。
下面结合仿真实验对本发明的效果做进一步说明。
1.仿真实验条件:
本发明仿真实验的硬件测试平台是:处理器为CPU intel Core i5-6500,主频为3.2GHz,内存8GB;软件平台为:Windows 7旗舰版,64位操作系统,MATLAB R2017b。
仿真实验所用数据来自Object trackingbenchmark 2013数据库中的一段玩偶旅鼠在实验桌上运动的视频图像序列,该视频图像序列共有1336帧视频图像。
2.仿真内容仿真结果分析:
用本发明对图2所示视频图像目标进行仿真跟踪,结果如图3,其中实线矩形框标注的是待跟踪目标的位置。
从图3可以看出,当待跟踪目标旅鼠发生严重遮挡时,高层语义特征被抑制,根据低层细节特征的候选区域背景信息跟踪目标,增强了目标跟踪的准确性和可靠性。
Claims (6)
1.一种基于深度卷积特征分层响应融合的目标跟踪方法,其特征在于,包括如下:
(1)确定运动待跟踪目标第一帧的初始位置及目标候选区域,并利用卷积神经网络VGG-19,提取第一帧图像中的候选区域不同层次特征,计算第一帧不同层次相关滤波器的候选区域目标特征A和候选区域循环特征矩阵B;
(2)依次读取尚未读入的含有待跟踪目标视频图像序列中的任一帧视频图像,作为当前帧视频图像,确定当前帧的目标候选区域,并将前一帧不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵作为当前帧不同层次相关滤波器的候选区域目标特征模板和候选区域循环特征矩阵模板;
(3)计算特征响应矩阵:
(3a)提取当前帧图像候选区域的低层特征zLow、中层特征zMiddle、高层特征zHigh,通过当前帧不同层次相关滤波器的候选区域目标特征模板和候选区域循环特征矩阵模板对当前帧图像的候选区域不同层次特征图做卷积运算,对应地得到低层响应矩阵RLow,中层响应矩阵RMiddle,高层响应矩阵RHigh;
(3b)根据(3a)的结果计算最终的特征响应矩阵R:
R=RHigh.*RMiddle+RHigh.*RLow+Rmiddle.*RLow
其中,.*表示点乘操作;
(4)选取当前帧图像的最终响应矩阵中的元素最大值,将该最大值元素的位置作为当前帧图像的待跟踪目标的目标框中心点的位置;
(5)更新当前帧不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵:
(5a)利用欧式距离计算公式,计算当前帧目标框中心位置与前一帧目标框中心位置的距离dt;
(5b)根据(5a)的结果,计算当前帧距离的轨迹波动分数:其中,σ表示平滑方差,*表示乘操作;
(5c)根据轨迹波动分数St,计算历史轨迹波动度值的平均值:其中,Si表示第i帧的轨迹波动分数,t表示包括当前帧在内的前t个历史轨迹波动度值;
(5d)设置阈值T为0.75的固定值,计算当前帧的轨迹波动分数St与历史置信度的比值r;
(5e)将比值r与阈值T进行比较,当r大于T时,设置学习率η的初始值η0为0.01,否则,更新学习率:其中,β表示值为3的系数,*表示乘操作;
(5f)根据(5e)的结果,更新当前帧不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵
其中,L的取值为1或2或3,1表示低层次Low,2表示中层次Middle,3表示高层次High,表示表示当前帧L相关滤波器的候选区域目标特征,表示前一帧L相关滤波器的候选区域目标特征,表示当前帧L相关滤波器的候选区域循环特征矩阵,表示前一帧L相关滤波器的候选区域循环特征矩阵,*表示乘操作;
(6)判断当前帧视频图像是否为待跟踪视频图像序列的最后一帧视频图像,若是,则结束对运动待跟踪目标的跟踪,否则,将当前帧更新的不同层次相关滤波器的候选区域目标特征和候选区域循环特征矩阵作为下一帧待跟踪目标视频图像不同层次相关滤波器的候选区域目标特征模板和候选区域循环特征矩阵模板,返回(2)。
2.根据权利要求1所述的方法,其特征在于,(1)中确定运动待跟踪目标第一帧的初始位置及目标候选区域,实现如下:
首先,输入含有待跟踪目标的彩色视频图像序列中的第一帧视频图像;
接着,用待跟踪目标的初始位置和初始位置的长度和宽度确定一个矩形框,用该矩形框标出第一帧图像中的待跟踪目标;
然后,在第一帧图像中,以待跟踪目标的初始位置为中心,用待跟踪目标的初始位置和待跟踪目标的2倍长度和2倍宽度确定一个矩形框,用该矩形框标出第一帧图像中的候选区域。
3.根据权利要求1所述的方法,其特征在于,(1)中计算第一帧不同层次相关滤波器的候选区域目标特征A和候选区域循环特征矩阵B,计算公式如下:
A=x*⊙y
B=x*⊙x
其中,x表示当前帧图像中的候选区域特征矩阵的第一行的向量的快速傅里叶变换值,*表示取共轭值操作,⊙表示点乘操作,y表示当前帧图像的候选区域内图像块的标签,标签的值为+1或-1,+1表示正样本,-1表示负样本。
4.根据权利要求1所述的方法,其特征在于,(2)中确定当前帧的目标候选区域,是在当前帧图像中,用前一帧图像目标的位置为中心和待跟踪目标的2倍长度和2倍宽度确定一个矩形框,将该矩形框作为当前帧图像的候选区域。
5.根据权利要求1所述的方法,其特征在于,(3a)中计算低层响应矩阵RLow,中层响应矩阵RMiddle,高层响应矩阵RHigh,计算公式如下:
其中,F(·)表示快速傅里叶变换操作,F-1(·)表示快速傅里叶逆变换操作,λ表示值为0.0001的系数,表示前一帧低层特征对应的相关滤波器的候选区域目标特征,表示前一帧低层特征对应的相关滤波器的候选区域循环特征矩阵,表示前一帧中层特征对应的相关滤波器的候选区域目标特征,表示前一帧中层特征对应的相关滤波器的候选区域循环特征矩阵,表示前一帧高层特征对应的相关滤波器的候选区域目标特征,表示前一帧高层特征对应的相关滤波器的候选区域循环特征矩阵。
6.根据权利要求1所述的方法,其特征在于,(5a)中计算当前帧目标框中心位置与前一帧目标框中心位置的距离dt,计算公式如下:
其中,xt和yt分别表示当前帧目标框中心位置坐标的横坐标和纵坐标,xt-1和yt-1分别表示前一帧目标框中心位置坐标的横坐标和纵坐标。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910341675.5A CN110084836B (zh) | 2019-04-26 | 2019-04-26 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910341675.5A CN110084836B (zh) | 2019-04-26 | 2019-04-26 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110084836A true CN110084836A (zh) | 2019-08-02 |
CN110084836B CN110084836B (zh) | 2022-03-04 |
Family
ID=67416789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910341675.5A Active CN110084836B (zh) | 2019-04-26 | 2019-04-26 | 基于深度卷积特征分层响应融合的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110084836B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647836A (zh) * | 2019-09-18 | 2020-01-03 | 中国科学院光电技术研究所 | 一种鲁棒的基于深度学习的单目标跟踪方法 |
CN111179315A (zh) * | 2019-12-31 | 2020-05-19 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种视频目标区域跟踪方法和视频平面广告植入方法 |
CN111311647A (zh) * | 2020-01-17 | 2020-06-19 | 长沙理工大学 | 一种基于全局-局部及卡尔曼滤波的目标跟踪方法及装置 |
CN111354019A (zh) * | 2020-03-31 | 2020-06-30 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
CN111402294A (zh) * | 2020-03-10 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、计算机可读存储介质和计算机设备 |
CN111915648A (zh) * | 2020-07-16 | 2020-11-10 | 郑州轻工业大学 | 一种基于常识和记忆网络的长期目标运动跟踪方法 |
CN111985375A (zh) * | 2020-08-12 | 2020-11-24 | 华中科技大学 | 一种视觉目标跟踪自适应的模板融合方法 |
CN112036381A (zh) * | 2020-11-03 | 2020-12-04 | 中山大学深圳研究院 | 视觉跟踪方法、视频监控方法及终端设备 |
CN112053386A (zh) * | 2020-08-31 | 2020-12-08 | 西安电子科技大学 | 基于深度卷积特征自适应集成的目标跟踪方法 |
CN112762841A (zh) * | 2020-12-30 | 2021-05-07 | 天津大学 | 一种基于多分辨率深度特征的桥梁动位移监测系统及方法 |
CN113269809A (zh) * | 2021-05-07 | 2021-08-17 | 桂林电子科技大学 | 一种多特征融合相关滤波目标跟踪方法及计算机设备 |
CN113393493A (zh) * | 2021-05-28 | 2021-09-14 | 京东数科海益信息科技有限公司 | 目标对象的跟踪方法及装置 |
CN115311329A (zh) * | 2019-10-11 | 2022-11-08 | 杭州云栖智慧视通科技有限公司 | 一种基于双环节约束的视频多目标跟踪方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7676441B2 (en) * | 2004-06-11 | 2010-03-09 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method |
CN103761747A (zh) * | 2013-12-31 | 2014-04-30 | 西北农林科技大学 | 一种基于加权分布场的目标跟踪方法 |
CN104463907A (zh) * | 2014-11-13 | 2015-03-25 | 南京航空航天大学 | 一种基于视觉显著性特征的自适应目标跟踪方法 |
CN104574445A (zh) * | 2015-01-23 | 2015-04-29 | 北京航空航天大学 | 一种目标跟踪方法及装置 |
US20180114056A1 (en) * | 2016-10-25 | 2018-04-26 | Vmaxx, Inc. | Vision Based Target Tracking that Distinguishes Facial Feature Targets |
CN108876816A (zh) * | 2018-05-31 | 2018-11-23 | 西安电子科技大学 | 基于自适应目标响应的目标跟踪方法 |
CN109255304A (zh) * | 2018-08-17 | 2019-01-22 | 西安电子科技大学 | 基于分布场特征的目标跟踪方法 |
-
2019
- 2019-04-26 CN CN201910341675.5A patent/CN110084836B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7676441B2 (en) * | 2004-06-11 | 2010-03-09 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, pattern recognition apparatus, and pattern recognition method |
CN103761747A (zh) * | 2013-12-31 | 2014-04-30 | 西北农林科技大学 | 一种基于加权分布场的目标跟踪方法 |
CN104463907A (zh) * | 2014-11-13 | 2015-03-25 | 南京航空航天大学 | 一种基于视觉显著性特征的自适应目标跟踪方法 |
CN104574445A (zh) * | 2015-01-23 | 2015-04-29 | 北京航空航天大学 | 一种目标跟踪方法及装置 |
US20180114056A1 (en) * | 2016-10-25 | 2018-04-26 | Vmaxx, Inc. | Vision Based Target Tracking that Distinguishes Facial Feature Targets |
CN108876816A (zh) * | 2018-05-31 | 2018-11-23 | 西安电子科技大学 | 基于自适应目标响应的目标跟踪方法 |
CN109255304A (zh) * | 2018-08-17 | 2019-01-22 | 西安电子科技大学 | 基于分布场特征的目标跟踪方法 |
Non-Patent Citations (3)
Title |
---|
CHAO MA 等: "Hierarchical response target tracking", 《2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV)》 * |
LI WANG 等: "Video Tracking Using Learned Hierarchical Features", 《IEEE TRANSACTIONS ON IMAGE PROCESSING 》 * |
郭晓欣 等: "基于多特征自适应融合的目标跟踪", 《华北科技学院学报》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110647836A (zh) * | 2019-09-18 | 2020-01-03 | 中国科学院光电技术研究所 | 一种鲁棒的基于深度学习的单目标跟踪方法 |
CN115311329B (zh) * | 2019-10-11 | 2023-05-23 | 杭州云栖智慧视通科技有限公司 | 一种基于双环节约束的视频多目标跟踪方法 |
CN115311329A (zh) * | 2019-10-11 | 2022-11-08 | 杭州云栖智慧视通科技有限公司 | 一种基于双环节约束的视频多目标跟踪方法 |
CN111179315A (zh) * | 2019-12-31 | 2020-05-19 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种视频目标区域跟踪方法和视频平面广告植入方法 |
CN111311647A (zh) * | 2020-01-17 | 2020-06-19 | 长沙理工大学 | 一种基于全局-局部及卡尔曼滤波的目标跟踪方法及装置 |
CN111402294B (zh) * | 2020-03-10 | 2022-10-18 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、计算机可读存储介质和计算机设备 |
CN111402294A (zh) * | 2020-03-10 | 2020-07-10 | 腾讯科技(深圳)有限公司 | 目标跟踪方法、装置、计算机可读存储介质和计算机设备 |
CN111354019A (zh) * | 2020-03-31 | 2020-06-30 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
CN111354019B (zh) * | 2020-03-31 | 2024-01-26 | 中国人民解放军军事科学院军事医学研究院 | 一种基于神经网络的视觉跟踪失效检测系统及其训练方法 |
CN111915648A (zh) * | 2020-07-16 | 2020-11-10 | 郑州轻工业大学 | 一种基于常识和记忆网络的长期目标运动跟踪方法 |
CN111915648B (zh) * | 2020-07-16 | 2023-09-01 | 郑州轻工业大学 | 一种基于常识和记忆网络的长期目标运动跟踪方法 |
CN111985375B (zh) * | 2020-08-12 | 2022-06-14 | 华中科技大学 | 一种视觉目标跟踪自适应的模板融合方法 |
CN111985375A (zh) * | 2020-08-12 | 2020-11-24 | 华中科技大学 | 一种视觉目标跟踪自适应的模板融合方法 |
CN112053386A (zh) * | 2020-08-31 | 2020-12-08 | 西安电子科技大学 | 基于深度卷积特征自适应集成的目标跟踪方法 |
CN112053386B (zh) * | 2020-08-31 | 2023-04-18 | 西安电子科技大学 | 基于深度卷积特征自适应集成的目标跟踪方法 |
CN112036381B (zh) * | 2020-11-03 | 2021-03-09 | 中山大学深圳研究院 | 视觉跟踪方法、视频监控方法及终端设备 |
CN112036381A (zh) * | 2020-11-03 | 2020-12-04 | 中山大学深圳研究院 | 视觉跟踪方法、视频监控方法及终端设备 |
CN112762841A (zh) * | 2020-12-30 | 2021-05-07 | 天津大学 | 一种基于多分辨率深度特征的桥梁动位移监测系统及方法 |
CN113269809A (zh) * | 2021-05-07 | 2021-08-17 | 桂林电子科技大学 | 一种多特征融合相关滤波目标跟踪方法及计算机设备 |
CN113269809B (zh) * | 2021-05-07 | 2022-06-21 | 桂林电子科技大学 | 一种多特征融合相关滤波目标跟踪方法及计算机设备 |
CN113393493A (zh) * | 2021-05-28 | 2021-09-14 | 京东数科海益信息科技有限公司 | 目标对象的跟踪方法及装置 |
CN113393493B (zh) * | 2021-05-28 | 2024-04-05 | 京东科技信息技术有限公司 | 目标对象的跟踪方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110084836B (zh) | 2022-03-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110084836B (zh) | 基于深度卷积特征分层响应融合的目标跟踪方法 | |
CN108734151B (zh) | 基于相关滤波以及深度孪生网络的鲁棒长程目标跟踪方法 | |
CN109146921B (zh) | 一种基于深度学习的行人目标跟踪方法 | |
CN107689052B (zh) | 基于多模型融合和结构化深度特征的视觉目标跟踪方法 | |
CN109816689A (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN108470355B (zh) | 融合卷积网络特征和判别式相关滤波器的目标跟踪方法 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN108182388A (zh) | 一种基于图像的运动目标跟踪方法 | |
CN110688929B (zh) | 一种人体骨架关节点定位方法及装置 | |
CN108961308B (zh) | 一种漂移检测的残差深度特征目标跟踪方法 | |
CN111311647B (zh) | 一种基于全局-局部及卡尔曼滤波的目标跟踪方法及装置 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN107103326A (zh) | 基于超像素聚类的协同显著性检测方法 | |
CN111862145B (zh) | 一种基于多尺度行人检测的目标跟踪方法 | |
CN112734809B (zh) | 基于Deep-Sort跟踪框架的在线多行人跟踪方法及装置 | |
CN103793926B (zh) | 基于样本重选择的目标跟踪方法 | |
CN109087337B (zh) | 基于分层卷积特征的长时间目标跟踪方法及系统 | |
CN110991397B (zh) | 一种行进方向确定方法及相关设备 | |
US11887303B2 (en) | Image processing model generation method, image processing method and device, and electronic device | |
CN110569706A (zh) | 一种基于时间和空间网络的深度集成目标跟踪算法 | |
KR20210054349A (ko) | 환자의 상지 동작에 의해 도출되는 특징값을 이용한 임상평가척도 예측 방법 | |
Firouznia et al. | Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking | |
CN113470073A (zh) | 一种基于深度学习的动物中心追踪方法 | |
CN106485283B (zh) | 一种基于Online Boosting的粒子滤波行人目标跟踪方法 | |
CN112581502A (zh) | 一种基于孪生网络的目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |