CN110473231A - 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 - Google Patents
一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 Download PDFInfo
- Publication number
- CN110473231A CN110473231A CN201910771373.1A CN201910771373A CN110473231A CN 110473231 A CN110473231 A CN 110473231A CN 201910771373 A CN201910771373 A CN 201910771373A CN 110473231 A CN110473231 A CN 110473231A
- Authority
- CN
- China
- Prior art keywords
- target
- formula
- search
- region
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 239000011159 matrix material Substances 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 51
- 230000013016 learning Effects 0.000 claims description 22
- 238000012549 training Methods 0.000 claims description 15
- 230000007246 mechanism Effects 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 238000013507 mapping Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims description 2
- 239000004568 cement Substances 0.000 claims 1
- 230000008569 process Effects 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000005352 clarification Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001575 pathological effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公布了一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法,所述方法首先利用数据集的中心坐标,构建目标模板和搜索区域;其次采用两个相同的卷积网络模块分别提取目标模板和搜索区域的卷积特征;接着,对目标模板和搜索区域分别建立颜色直方图概率密度分布函数得到置信度值,并与阈值比较,对卷积权值滤波器进行预判式更新;然后,对目标模板和搜索区域的卷积特征进行卷积操作得到预测分数矩阵;最后,将预测分数矩阵线性插值定位到原始图片的目标位置中实现目标跟踪。本发明基于孪生全卷积网络,加入了预判式学习更新策略,有效解决了孪生全卷积网络存在相似目标干扰容易出现跟踪丢失的问题。
Description
技术领域
本发明属于计算机视觉技术领域,特别是一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法。
技术背景
目标跟踪是计算机视觉领域的核心问题,在包括智能交通、医学辅助诊断、军事制导、航空视觉导航等民用和国防领域都发挥着重要的作用。然而在目标跟踪的过程中,目标仍存在相似目标干扰、快速运动和尺度变化、遮挡等难题,特别是相似目标干扰问题,使得复杂环境下实现实时鲁棒的目标跟踪具有很大的挑战性。近年来,随着人工智能技术的飞速发展,深度学习方法在目标跟踪领域展现出巨大潜力。
传统的基于卷积神经网络的深度学习方法进行目标跟踪主要有深度学习跟踪器、在线视觉跟踪算法、训练数据交叉运用算法、连续卷积滤波算法等。由于这些深度学习的目标跟踪方法提取的特征比传统的手工特征更加丰富,具有更强的表达能力,因此极大提高了目标跟踪的跟踪精度和成功率。但是基于卷积神经网络的深度学习方法跟踪的实时性很低,不能满足快速运动目标实时跟踪的需要。
针对上述问题,孪生全卷积网络的目标跟踪方法由于其端到端的训练能力和跟踪的实时性备受关注。Bertinetto等人将DCF视为在孪生全卷积网络中添加的特殊相关滤波器层,通过将网络输出定义为对象位置来推导反向传播,提高了跟踪的成功率和精度。李波等人将孪生全卷积网络与RPN子网络串联,将在线跟踪任务转换为检测任务,实现了跟踪速度的提高。王强等人在孪生全卷积网络中引入Faster RCNN,使得目标跟踪算法回归到检测跟踪目标的位置、形状上来,提高了孪生全卷积网络的跟踪精度和速度。虽然以上基于孪生全卷积网络的目标跟踪算法通过调整卷积网络结构的方式,提高了跟踪的精度和成功率,解决了深度学习在目标跟踪领域的实时性问题,但它的一个关键问题是缺少有效的模型更新策略,无法将来自背景区域或先前跟踪帧的信息融合到模型预测中,不能有效解决相似目标干扰的问题。
发明内容
本发明的目的在于提供一种具有预判式学习更新策略的孪生全卷积网络(Pre-judgment Learning Update Strategy Full-Convolutional Siamese Networks,Prl-SiamFC)的目标跟踪方法,该方法由目标模板和搜索区域模型计算置信度估计值,将模型更新策略加入到端到端的跟踪架构中,解决了孪生全卷积网络在目标跟踪时存在的相似目标干扰问题。
为实现上述目的,本发明采用以下技术方案:
一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法,包括:
(1)利用数据集的中心坐标,构建目标模板和搜索区域,然后根据数据集的正确标注,得到初始模型f(0);
(2)采用两个相同的卷积网络模块分别提取目标模板和搜索区域的卷积特征;
(3)对目标模板和搜索区域分别建立颜色直方图概率密度分布函数,根据该函数得到目标模板和搜索区域的置信度值Csiam;
(4)若置信度值Csiam大于阈值则进行步骤(5);否则对卷积权值滤波器f进行预判式更新,包括如下步骤:
(4.1)定义预判式学习的损失函数L(f)和残差函数r(s,c);
(4.2)根据给定学习率极值ηi min和ηi max,得到具有自重启机制的学习率ηt;
(4.3)利用步骤(4.1)中的损失函数L(f)和残差函数r(s,c),步骤(4.2)中的学习率ηt,得到卷积权值滤波器f的梯度下降值
(4.4)根据卷积权值滤波器f的初始模型f(0)、梯度下降值和自重启机制的学习率ηt,对卷积权值滤波器f进行预判式更新;
(5)对目标模板和搜索区域的卷积特征进行卷积操作,得到预测分数矩阵,再将预测分数矩阵经线性插值定位到原始图片的目标位置中,最终实现目标跟踪。
本发明具有以下优点:
1.本发明在孪生全卷积网络框架中加入了预判式学习更新策略,使用孪生全卷积网络可以更有效提取跟踪目标的特征;预判式学习更新策略,通过置信度值表征目标模板与搜索区域的相似度,根据置信度值进行模型更新,解决了孪生全卷积网络的相似目标干扰问题,提高了跟踪的成功率和精度,实现了实时的目标跟踪。
2.本发明在预判式学习更新策略中加入了具有自重启机制的学习率ηt,避免了神经网络使用固定学习率训练陷入到鞍点中,收敛于局部最优,有效解决了孪生全卷积网络训练中的损失误差和病态函数问题。
附图表说明
图1为本发明方法的流程图。
图2为本发明方法与传统孪生全卷积网络的4组存在相似目标的视频跟踪帧对比。
图3为本发明方法与传统孪生全卷积网络的4组存在相似目标的中心误差对比。
图4为本发明方法在目标跟踪测试平台OTB2013上的跟踪性能测试。
具体实施方式
结合所附图表,对本发明的技术方案作具体说明。
如图1所示,本发明的一种具有预判式学习更新策略孪生全卷积网络的目标跟踪方法,具体包括以下步骤:
步骤1利用数据集的中心坐标,构建目标模板和搜索区域,然后根据数据集的正确标注,得到初始模型f(0),具体过程为:
(1)根据数据集的中心坐标得到初始目标框宽度w和高度h,定义平均维数p=(w+h)/4,尺度因子为K,选取目标模板A=127×127,选取搜索区域A=255×255,采用如下公式构建目标模板和搜索区域:
K(w+2p)×K(h+2p)=A (1)
(2)构建完成目标模板和搜索区域后,将数据集的给定正确标注取平均值输入给初始化模块,作为初始模型f(0)。
步骤2将目标模板与搜索区域组合,选取正负样本,采用两个相同的卷积网络模块分别提取目标模板和搜索区域的卷积特征,具体过程为:
(1)在网络训练过程中将目标模板图像与较大的搜索区域图像组合成训练样本对,与此同时,为有效地为每一对训练样本对产生多个候选目标,对搜索区域的位置点进行区分,取与目标位置相接近的点为正样本,在此范围外的点为负样本,构造正负样本对。
(2)采用AlexNet卷积网络模块提取目标模板与搜索区域的卷积特征,网络结构如下表所示:
在AlexNet中,前两层卷积层后均接有池化层,除了最后一层,每一层均使用ReLu激活函数,进行样本训练。完成样本训练后的卷积网络模块,在进行目标跟踪时得到目标模板和搜索区域卷积特征。
步骤3对目标模板和搜索区域分别建立颜色直方图概率密度分布函数,根据该函数得到目标模板和搜索区域的置信度值Csiam,具体过程为:
(1)假设目标模板的中心坐标为原点,其彩色空间被划分为m个区间,u表示每个区间的颜色簇索引,取值范围为{1,2,...,m},目标模板的各像素点位置由集合{xi *}(i=1,2,...,n)表示,则目标模板的颜色直方图概率密度分布函数由下式计算:
式中,C为归一化系数函数;k(·)为核密度估计函数K(·)的轮廓函数,即K(xi *)=k(||xi *||2);δ(·)为Kronecker Delta函数;b(·):R2→{1,2,...,m}为位于xi *的像素向颜色索引的映射。
(2)设y为搜索区域中心坐标,{xi}(i=1,2,...,nh)表示搜索区域像素位置的集合,则搜索区域的颜色直方图概率密度分布函数由下式计算:
式中,Ch为基于h的归一化系数函数;h为核函数的带宽;其他参数同式(1)。
(3)将目标模板和搜索区域在整个颜色空间上的概率密度分别表示为计算目标模板和搜索区域的置信度值Csiam,具体为:
式中,y0为搜索区域初始中心坐标,wi由下式计算:
步骤4若置信度值Csiam大于阈值则进行步骤5;否则对卷积权值滤波器f进行预判式更新,具体过程为:
(1)定义损失函数L(f)和残差函数r(s,c),具体为:
定义预判式学习的损失函数L(f)为:
式中,其中xj∈χ,χ为卷积网络模块生成的深度特征图,cj为每个样本目标中心坐标;r(s,c)为残差函数,其中,目标置信度得分s=x*f,c为给定的真值目标中心坐标;λ为正则化因子;f为卷积权值滤波器。
定义预判式学习的残差函数r(s,c)为:
r(s,c)=vc(mcs+(1-mc)max(0,s)-yc) (7)
式中,vc为空间权重系数,mc为目标分割系数,如果目标中心在跟踪目标区域,则mc=1,目标中心在跟踪背景区域,则mc=0;S为目标置信度得分;yc为以c=(x0,y0)为中心的二阶高斯函数,表示每个位置的目标期望得分,具体表达式为:
式中,σ为高斯函数分布方差。
(2)根据给定学习率极值ηi min和ηi max,对Ti次已经完成数据集训练的学习率进行余弦退火,得到具有自重启机制的学习率ηt表达式,具体为:
式中,i是数据集训练的运行索引,Tcur用来记录自上次重启以来训练的次数。
(3)利用式(6)损失函数L(f)、式(7)残差函数r(s,c)和式(9)学习率ηt,计算得到卷积权值滤波器f的梯度下降值具体过程为:
对式(6)损失函数L(f)求偏导得:
式中,为式(6)的雅克比矩阵,根据式(7)残差函数r(s,c)的定义对其求偏导得到:
令qc=vcmc+(1-mc)·ls>0,对qc仅使用点操作,对于正样本,取ls>0,对于负样本,取ls=0。由此得到:
由式(10)和式(12)得到卷积权值滤波器f的梯度下降值表达式为:
(4)根据卷积权值滤波器f的初始模型f(0)、梯度下降值和自重启机制的学习率ηt,对卷积权值滤波器f进行预判式更新,具体表达式为:
由于该预判式学习更新策略采用置信度值Csiam提前预判序列帧中是否存在相似目标,当存在相似目标时实现卷积权值滤波器f的实时更新,在保证跟踪的准确性和稳定性的同时,有效解决了相似目标干扰的问题。
步骤5对目标模板和搜索区域进行卷积操作,得到预测分数矩阵,再将预测分数矩阵经三次线性插值重新映射到原始图片的目标位置中,实现目标跟踪,具体过程为:
(1)对经过卷积权值滤波器f过滤掉相似目标的目标模板和搜索区域进行卷积操作,得到预测分数矩阵。
(2)对该预测分数矩阵进行双三次插值操作,使得大小为17×17的预测分数矩阵重新映射到256×256的原始搜索区域中。
(3)对于预测分数矩阵中分数最大的点,其位置乘以网格步长,即可得到目标位置,实现对目标的跟踪。
为了验证方法的可行性和有效性,下面结合实例对本发明做进一步详细的描述。
为了有效地评估本发明方法的性能,实验中的对比方法均来自相应作者的公开代码。所有实验都在Inter(R)Core(TM)i5-2450MCPU@2.50GHZ、4GB内存、NVIDIAGeForceGTX750Ti台式机上进行,方法通过Matlab2018a、VisualStudio2015、CUDA9.0、CUDNN7.0实现。
表1为本发明中具有预判式学习更新策略的孪生全卷积网络仿真参数。
表1 具有预判式学习更新策略的孪生全卷积网络仿真参数
图2为本发明Prl-SiamFC方法与传统孪生全卷积网络SiamFC、SiamFC_3S的4组存在相似目标的视频跟踪帧对比。本发明Prl-SiamFC方法为黑色框,SiamFC和SiamFC_3S方法为白色框。由图中可以看出,4组视频的第10帧均能确定跟踪目标且跟踪精度较高,序列(a)Football第350帧,Prl-SiamFC、SiamFC和SiamFC_3S均出现较大波动,但序列(b)Matrix第50帧、(c)Liquor第1500帧和(d)Soccer第350帧以后,SiamFC、SiamFC_3S均出现跟踪丢失的情况,Prl-SiamFC始终跟踪目标。因此,在存在相似干扰的情况下,本发明Prl-SiamFC方法能有效区分跟踪目标与相似目标,具有较好的跟踪效果。
图3为本发明Prl-SiamFC方法与传统孪生全卷积网络SiamFC、SiamFC_3S的4组存在相似目标的视频中心误差对比。由图中可以看出,Prl-SiamFC的中心位置误差除了在视频序列(a)Football中最后帧数出现波动外,序列(b)Matrix、(c)Liquor和(d)Soccer的中心误差始终保持在较低水平,特别是对(b)Matrix和(d)Soccer,中心位置误差平均小于20,表明本发明有效解决了跟踪目标周围存在相似目标干扰的问题。
图4为本发明Prl-SiamFC方法在目标跟踪测试平台OTB2013上的跟踪性能测试。在进行性能测试中,部分跟踪目标既存在相似目标干扰,也存在遮挡、外观变形、快速运动、平面内外旋转等问题。由图中可以看出,在图4(a)中,跟踪精确度在中心位置误差阈值为20像素时,本发明方法跟踪精确度较高;当中心误差阈值小于20像素时,本发明方法的精确度值更明显高于其他方法,这说明针对既存在相似目标干扰因素,也存在其他干扰因素的目标跟踪,本发明方法的跟踪效果更好。在图4(b)中,当覆盖阈值处于0.2-0.8位置时,本发明方法的成功率明显高于其他对比方法;当覆盖阈值大于0.8时,本发明方法也具有良好的跟踪性能。综上表明,本发明在提高跟踪精确度的同时,保证了跟踪的成功率,有效解决了孪生全卷积网络跟踪目标周围存在相似目标干扰容易出现跟踪丢失的问题。
Claims (5)
1.一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法,其特征在于,该方法包括以下步骤:
(1)利用数据集的中心坐标,构建目标模板和搜索区域,然后根据数据集的正确标注,得到初始模型f(0);
(2)采用两个相同的卷积网络模块分别提取目标模板和搜索区域的卷积特征;
(3)对目标模板和搜索区域分别建立颜色直方图概率密度分布函数,根据该函数得到目标模板和搜索区域的置信度值Csiam;
(4)若置信度值Csiam大于阈值则进行步骤(5);否则对卷积权值滤波器f进行预判式更新,包括如下步骤:
(4.1)定义预判式学习的损失函数L(f)和残差函数r(s,c);
(4.2)根据给定学习率极值ηi min和ηi max,得到具有自重启机制的学习率ηt;
(4.3)利用步骤(4.1)中的损失函数L(f)和残差函数r(s,c),步骤(4.2)中的学习率ηt,得到卷积权值滤波器f的梯度下降值
(4.4)根据卷积权值滤波器f的初始模型f(0)、梯度下降值和自重启机制的学习率ηt,对卷积权值滤波器f进行预判式更新;
(5)对目标模板和搜索区域的卷积特征进行卷积操作,得到预测分数矩阵,再将预测分数矩阵经线性插值定位到原始图片的目标位置中,最终实现目标跟踪。
2.如权利要求1所述的一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法,其特征在于,所述步骤(3)中对目标模板和搜索区域分别建立颜色直方图概率密度分布函数,根据该函数得到目标模板和搜索区域的置信度值Csiam,具体为:
假设目标模板的中心坐标为原点,其彩色空间被划分为m个区间,u表示每个区间的颜色簇索引,取值范围为{1,2,...,m},目标模板的各像素点位置由集合{xi *}(i=1,2,...,n)表示,则目标模板的颜色直方图概率密度分布函数由下式计算:
式中,C为归一化系数函数;k(·)为核密度估计函数K(·)的轮廓函数,即K(xi *)=k(||xi *||2);δ(·)为Kronecker Delta函数;b(·):R2→{1,2,...,m}为位于xi *的像素向颜色索引的映射。
设y为搜索区域中心坐标,{xi}(i=1,2,...,nh)表示搜索区域像素位置的集合,则搜索区域的颜色直方图概率密度分布函数由下式计算:
式中,Ch为基于h的归一化系数函数;h为核函数的带宽;其他参数同式(1)。
将目标模板和搜索区域在整个颜色空间上的概率密度分别表示为计算目标模板和搜索区域的置信度值Csiam,具体为:
式中,y0为搜索区域初始中心坐标,wi由下式计算:
3.如权利要求1所述的一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法,其特征在于,所述步骤(4.1)中定义预判式学习的损失函数L(f)和残差函数r(s,c),具体为:
定义预判式学习的损失函数L(f)为:
式中,其中xj∈χ,χ为卷积网络模块生成的深度特征图,cj为每个样本目标中心坐标;r(s,c)为残差函数,其中,目标置信度得分s=x*f,c为给定的真值目标中心坐标;λ为正则化因子;f为卷积权值滤波器。
定义预判式学习的残差函数r(s,c)为:
r(s,c)=vc(mcs+(1-mc)max(0,s)-yc) (6)
式中,vc为空间权重系数;mc为目标分割系数,若目标中心在跟踪目标区域,则mc=1,若目标中心在跟踪背景区域,则mc=0;S为目标置信度得分;yc为以c=(x0,y0)为中心的二阶高斯函数,表示每个位置的目标期望得分,具体表达式为:
式中,σ为高斯函数分布方差。
4.如权利要求1所述的一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法,其特征在于,所述步骤(4.2)中根据给定学习率极值ηi min和ηi max,得到具有自重启机制的学习率ηt,表达式为:
式中,i为数据集训练的运行索引,Tcur为记录自上次重启以来数据集训练的次数,Ti为已经完成数据集训练的次数。
上述学习率ηt由于根据变化的Ti和Tcur得到,具有衰减变化的性质。当学习率ηt下降到最小值后,将其再次变为初始值,得到具有自重启机制的学习率ηt。
5.如权利要求1所述的一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法,其特征在于,所述步骤(4.4)中根据卷积权值滤波器f的初始模型f(0)、梯度下降值和自重启机制的学习率ηt,对卷积权值滤波器f进行预判式更新,具体为:
利用步骤(4.1)中定义的预判式学习的损失函数L(f)和残差函数r(s,c),计算得到卷积权值滤波器f的梯度下降值表达式为:
式中,qc=vcmc+(1-mc)·ls>0,对qc仅使用点操作,对于正样本,取ls>0,对于负样本,取ls=0。
再根据步骤(4.2)所述的具有自重启机制的学习率ηt,将初始模型f(0)作为卷积权值滤波器f的初始值,得到其预判式更新表达式为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910771373.1A CN110473231B (zh) | 2019-08-20 | 2019-08-20 | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910771373.1A CN110473231B (zh) | 2019-08-20 | 2019-08-20 | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110473231A true CN110473231A (zh) | 2019-11-19 |
CN110473231B CN110473231B (zh) | 2024-02-06 |
Family
ID=68513117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910771373.1A Active CN110473231B (zh) | 2019-08-20 | 2019-08-20 | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110473231B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111062973A (zh) * | 2019-12-31 | 2020-04-24 | 西安电子科技大学 | 基于目标特征敏感性和深度学习的车辆跟踪方法 |
CN111179314A (zh) * | 2019-12-30 | 2020-05-19 | 北京工业大学 | 一种基于残差密集孪生网络的目标跟踪方法 |
CN111199189A (zh) * | 2019-12-18 | 2020-05-26 | 中国科学院上海微系统与信息技术研究所 | 一种目标对象跟踪方法、系统、电子设备及存储介质 |
CN111639551A (zh) * | 2020-05-12 | 2020-09-08 | 华中科技大学 | 基于孪生网络和长短期线索的在线多目标跟踪方法和系统 |
CN111652903A (zh) * | 2020-05-22 | 2020-09-11 | 重庆理工大学 | 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法 |
CN112381792A (zh) * | 2020-11-13 | 2021-02-19 | 中国人民解放军空军工程大学 | 基于深度学习的雷达吸波涂层/电磁屏蔽薄膜损伤的智能化成像在线检测方法 |
CN112989953A (zh) * | 2021-02-20 | 2021-06-18 | 西安理工大学 | 一种基于度量学习的目标遮挡检测与跟踪方法 |
CN113139986A (zh) * | 2021-04-30 | 2021-07-20 | 东风越野车有限公司 | 一种集成式环境感知与多目标跟踪系统 |
CN114972435A (zh) * | 2022-06-10 | 2022-08-30 | 东南大学 | 基于长短时集成外观更新机制的目标跟踪方法 |
CN114970819A (zh) * | 2022-05-26 | 2022-08-30 | 哈尔滨工业大学 | 一种基于意图推理与深度强化学习的移动目标搜索跟踪方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665485A (zh) * | 2018-04-16 | 2018-10-16 | 华中科技大学 | 一种基于相关滤波与孪生卷积网络融合的目标跟踪方法 |
CN108681774A (zh) * | 2018-05-11 | 2018-10-19 | 电子科技大学 | 基于生成对抗网络负样本增强的人体目标跟踪方法 |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109598684A (zh) * | 2018-11-21 | 2019-04-09 | 华南理工大学 | 结合孪生网络的相关滤波跟踪方法 |
CN109727272A (zh) * | 2018-11-20 | 2019-05-07 | 南京邮电大学 | 一种基于双分支时空正则化相关滤波器的目标跟踪方法 |
-
2019
- 2019-08-20 CN CN201910771373.1A patent/CN110473231B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108665485A (zh) * | 2018-04-16 | 2018-10-16 | 华中科技大学 | 一种基于相关滤波与孪生卷积网络融合的目标跟踪方法 |
CN108681774A (zh) * | 2018-05-11 | 2018-10-19 | 电子科技大学 | 基于生成对抗网络负样本增强的人体目标跟踪方法 |
CN109191491A (zh) * | 2018-08-03 | 2019-01-11 | 华中科技大学 | 基于多层特征融合的全卷积孪生网络的目标跟踪方法及系统 |
CN109727272A (zh) * | 2018-11-20 | 2019-05-07 | 南京邮电大学 | 一种基于双分支时空正则化相关滤波器的目标跟踪方法 |
CN109598684A (zh) * | 2018-11-21 | 2019-04-09 | 华南理工大学 | 结合孪生网络的相关滤波跟踪方法 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111199189A (zh) * | 2019-12-18 | 2020-05-26 | 中国科学院上海微系统与信息技术研究所 | 一种目标对象跟踪方法、系统、电子设备及存储介质 |
CN111179314A (zh) * | 2019-12-30 | 2020-05-19 | 北京工业大学 | 一种基于残差密集孪生网络的目标跟踪方法 |
CN111179314B (zh) * | 2019-12-30 | 2023-05-02 | 北京工业大学 | 一种基于残差密集孪生网络的目标跟踪方法 |
CN111062973A (zh) * | 2019-12-31 | 2020-04-24 | 西安电子科技大学 | 基于目标特征敏感性和深度学习的车辆跟踪方法 |
CN111062973B (zh) * | 2019-12-31 | 2021-01-01 | 西安电子科技大学 | 基于目标特征敏感性和深度学习的车辆跟踪方法 |
CN111639551B (zh) * | 2020-05-12 | 2022-04-01 | 华中科技大学 | 基于孪生网络和长短期线索的在线多目标跟踪方法和系统 |
CN111639551A (zh) * | 2020-05-12 | 2020-09-08 | 华中科技大学 | 基于孪生网络和长短期线索的在线多目标跟踪方法和系统 |
CN111652903A (zh) * | 2020-05-22 | 2020-09-11 | 重庆理工大学 | 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法 |
CN111652903B (zh) * | 2020-05-22 | 2023-09-08 | 重庆理工大学 | 一种自动驾驶场景下基于卷积关联网络的行人目标跟踪方法 |
CN112381792A (zh) * | 2020-11-13 | 2021-02-19 | 中国人民解放军空军工程大学 | 基于深度学习的雷达吸波涂层/电磁屏蔽薄膜损伤的智能化成像在线检测方法 |
CN112989953A (zh) * | 2021-02-20 | 2021-06-18 | 西安理工大学 | 一种基于度量学习的目标遮挡检测与跟踪方法 |
CN112989953B (zh) * | 2021-02-20 | 2024-02-13 | 西安理工大学 | 一种基于度量学习的目标遮挡检测与跟踪方法 |
CN113139986A (zh) * | 2021-04-30 | 2021-07-20 | 东风越野车有限公司 | 一种集成式环境感知与多目标跟踪系统 |
CN114970819A (zh) * | 2022-05-26 | 2022-08-30 | 哈尔滨工业大学 | 一种基于意图推理与深度强化学习的移动目标搜索跟踪方法及系统 |
CN114970819B (zh) * | 2022-05-26 | 2024-05-03 | 哈尔滨工业大学 | 一种基于意图推理与深度强化学习的移动目标搜索跟踪方法及系统 |
CN114972435A (zh) * | 2022-06-10 | 2022-08-30 | 东南大学 | 基于长短时集成外观更新机制的目标跟踪方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110473231B (zh) | 2024-02-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110473231A (zh) | 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法 | |
CN111797716B (zh) | 一种基于Siamese网络的单目标跟踪方法 | |
CN109859241B (zh) | 自适应特征选择和时间一致性鲁棒相关滤波视觉跟踪方法 | |
CN104200494B (zh) | 一种基于光流的实时视觉目标跟踪方法 | |
CN101464950B (zh) | 基于在线学习和贝叶斯推理的视频人脸识别与检索方法 | |
CN113706581B (zh) | 基于残差通道注意与多层次分类回归的目标跟踪方法 | |
CN113326731A (zh) | 一种基于动量网络指导的跨域行人重识别算法 | |
CN111160407A (zh) | 一种深度学习目标检测方法及系统 | |
CN112347930B (zh) | 基于自学习半监督深度神经网络高分影像场景分类方法 | |
CN107194929B (zh) | 一种对肺部ct图像感兴趣区域的追踪方法 | |
CN109727272B (zh) | 一种基于双分支时空正则化相关滤波器的目标跟踪方法 | |
CN110569706A (zh) | 一种基于时间和空间网络的深度集成目标跟踪算法 | |
CN111968155B (zh) | 一种基于分割目标掩模更新模板的目标跟踪方法 | |
CN112085765A (zh) | 结合粒子滤波及度量学习的视频目标跟踪方法 | |
CN108830170A (zh) | 一种基于分层特征表示的端到端目标跟踪方法 | |
CN115424177A (zh) | 一种基于增量学习的孪生网络目标跟踪的方法 | |
CN112329784A (zh) | 一种基于时空感知及多峰响应的相关滤波跟踪方法 | |
CN113920159A (zh) | 一种基于全卷积孪生网络的红外空中小目标跟踪方法 | |
CN113763417A (zh) | 一种基于孪生网络和残差结构的目标跟踪方法 | |
CN110544267B (zh) | 一种自适应选择特征的相关滤波跟踪方法 | |
CN115909110A (zh) | 一种基于Siamese网络的轻量级红外无人机目标跟踪方法 | |
CN108280845B (zh) | 一种针对复杂背景的尺度自适应目标跟踪方法 | |
CN113627240A (zh) | 一种基于改进ssd学习模型的无人机树木种类识别方法 | |
CN111160170B (zh) | 一种自学习的人体行为识别与异常检测方法 | |
CN117576149A (zh) | 一种基于注意力机制的单目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |