CN112767450A - 一种基于多损失学习的相关滤波目标跟踪方法及系统 - Google Patents
一种基于多损失学习的相关滤波目标跟踪方法及系统 Download PDFInfo
- Publication number
- CN112767450A CN112767450A CN202110099936.4A CN202110099936A CN112767450A CN 112767450 A CN112767450 A CN 112767450A CN 202110099936 A CN202110099936 A CN 202110099936A CN 112767450 A CN112767450 A CN 112767450A
- Authority
- CN
- China
- Prior art keywords
- target
- image
- features
- filtering
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 51
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000012545 processing Methods 0.000 claims description 18
- 230000008569 process Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims 1
- 238000004422 calculation algorithm Methods 0.000 abstract description 20
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 230000010485 coping Effects 0.000 description 6
- 238000012549 training Methods 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 241000153282 Theope Species 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000021615 conjugation Effects 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/10—Image enhancement or restoration using non-spatial domain filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/292—Multi-camera tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于多损失学习的相关滤波目标跟踪方法及系统,其中,包括:输入当前帧图像包括的需要追踪的目标的目标区域图像;对目标区域图像进行特征提取以获取目标区域的特征并表示为第一特征;根据第一特征对一滤波器模板进行学习和更新;基于第一特征确定下一帧图像的搜索区域,并对确定的搜索区域内的图像进行特征提取并表示为第二特征;采用滤波器模板对第二特征进行滤波处理,根据滤波处理的结果得到下一帧图像中的目标的最新位置;将下一帧图像作为当前帧图像,并根据确定的目标更新目标区域图像,继续上述滤波器模板进行学习和更新。其技术方案的有益效果在于,使得跟踪算法变得更稳健、准确。
Description
技术领域
本发明涉及视频跟踪方法及图像视频处理技术领域,尤其涉及一种基于多损失学习的相关滤波目标跟踪方法及系统。
背景技术
目标跟踪是计算机视觉领域的核心问题之一,具有广泛的应用价值,例如,人体运动分析、视频监控、自动驾驶等。虽然有大量的跟踪算法已被提出来应用于各种场景,但由于诸如形变、遮挡、光照变化、背景杂乱、快速运动等因素的影响,稳健的视觉跟踪系统仍然难以实现。
近年来涌现出很多基于相关和深度特征的目标跟踪算法,能较好的进行视频单目标跟踪,其中具有代表性的是多损失学习的相关滤波目标跟踪算法。但是,基于可判别相关网络的目标跟踪算法(DCFNet)方法没有很好的应对训练过程中的小范围和中间范围的误差能力,模型表征能力的减弱,使得不可靠的响应值严重影响到训练出来的滤波器模板,进一步的积累误差到一定程度之后将导致跟踪失败。
发明内容
针对现有的相关和深度特征的目标跟踪算法存在的应对训练过程中的应对小范围和中间范围的误差能力交叉,模型表征能力的减弱的问题。现提供一种基于多损失学习的相关滤波目标跟踪方法及系统。
具体包括以下:
一种基于多损失学习的相关滤波目标跟踪方法,应用于图像视频处理,其中,包括:
步骤S1,输入当前帧图像包括的需要追踪的目标区域图像;
步骤S2,对所述目标区域图像进行特征提取以获取目标区域的特征并表示为第一特征;
步骤S3,根据第一特征对一滤波器模板进行学习和更新;
步骤S4,基于所述第一特征确定下一帧图像的搜索区域,并对确定的所述搜索区域内的图像进行特征提取并表示为第二特征;
步骤S5,采用所述滤波器模板对所述第二特征进行滤波处理,根据滤波处理的结果得到下一帧图像中的目标的最新位置;
步骤S6,将下一帧图像作为当前帧图像,并根据确定的目标更新所述目标区域图像,随后返回所述步骤S2。
优选的,所述步骤S2中,采用跟踪特征提取器,提取所述目标区域图像的特征,其中所述跟踪特征提起器由卷积网络组成。
优选的,所述步骤S3中,采用岭回归封闭解计算所述第一特征的自相关性,并根据计算结果对所述滤波器模板进行学习和更新。
优选的,所述步骤S4中,基于所述第一特征确定下一帧图像的搜索区域的方法包括:
通过对上一帧图像推测出的目标区域通过尺度的放缩,得到的当前帧的搜索区域,并通过特定的特征提取器提取搜索区域特征。
优选的,所述步骤S3中,所述滤波器模块如下式所示:
优选的,所述步骤S5具体包括:
步骤S51,采用所述滤波器模板对所述第二特征进行滤波处理;
步骤S52,获取对所述第二特征进行滤波得到的输出值,并将输出值中的最大值作为目标的最新位置输出;
步骤S53,根据获得的目标的最新位置确定目标的所述目标区域图像,随后返回所述步骤S2。
优选的,所述步骤S52中,采用下述公式对所述第二特征进行滤波得到所述输出值:
其中,F-1表示离散傅立叶逆变换,^、⊙、*分别表示离散傅立叶变换,点乘和共轭,m为最新跟踪位置,R为目标图像的通道数,wl相关的滤波器参数w的通道l,ψ(z)表示需要裁剪搜索的图像块在新的帧中特征。
还包括一种基于多损失学习的相关滤波目标跟踪系统,其中,包括:
输入模块,用以输入当前帧图像包括的需要追踪的目标的目标区域图像;
特征提取模块一,用以对所述目标区域图像进行特征提取以获取目标区域的特征并表示为第一特征;
更新模块,根据第一特征对一滤波器模板进行学习和更新;
特征提取模块二,用以基于所述第一特征确定下一帧图像的搜索区域,并对确定的所述搜索区域内的图像进行特征提取并表示为第二特征;
滤波处理模块,用以采用所述滤波器模板对所述第二特征进行滤波处理,根据滤波处理的结果得到下一帧图像中的目标的最新位置;
图像处理模块,将下一帧图像作为当前帧图像,并根据确定的目标更新所述目标区域图像。
优选的,所述特征提取模块一为跟踪特征提取器,通过所述跟踪特征提取器提取所述目标区域图像的特征,其中所述跟踪特征提起器由卷积网络组成。
优选的,所述更新模块采用岭回归封闭解计算所述第一特征的自相关性,并根据计算结果对所述滤波器模板进行学习和更新。
上述技术方案具有如下优点或有益效果:在可判别相关网络的目标跟踪算法(DCFNet)的原始L2损失的基础上加入trophy损失,采用L2损失和trophy损失进行梯度下降,抑制了异常离散的大误差样本主导梯度更新程度,也补偿小误差和中间误差样本的梯度更新重要程度,提高了训练过程中应对小范围和中间范围误差的能力,增加了神经网络的特征表示能力,使得模型更加鲁棒。进一步缓解了边界效应,在目标遭受背景混乱、快速移动、低分辨率等各种情况时,显著地提高跟踪算法的鲁棒性,使得跟踪算法依然可以有效地跟踪到目标物体。
附图说明
图1是本发明中的一种基于多损失学习的相关滤波目标跟踪方法的实施例的流程示意图;
图2是本发明中的一种基于多损失学习的相关滤波目标跟踪方法的实施例的流程示意图;
图3是本发明中的一种基于多损失学习的相关滤波目标跟踪方法的实施例的总体网络框架图;
图4是本发明中的一种基于多损失学习的相关滤波目标跟踪方法的实施例中的trophy损失图;
图5是本发明中的一种基于多损失学习的相关滤波目标跟踪方法的实施例中的基线算法精度图和成功率对比图。
图6是本发明中的一种基于多损失学习的相关滤波目标跟踪系统的实施例的结构示意图。
上述附图标记表示:
1、输入模块;2、特征提取模块一;3、更新模块;4、特征提取模块二;5、滤波处理模块;6、图像处理模块。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
具体包括以下内容:
一种基于多损失学习的相关滤波目标跟踪方法的实施例,应用于图像视频处理,如图1所示,其中,包括:
步骤S1,输入当前帧图像包括的需要追踪的目标区域图像;
步骤S2,对目标区域图像进行特征提取以获取目标区域的特征并表示为第一特征;
步骤S3,根据第一特征对一滤波器模板进行学习和更新;
步骤S4,基于第一特征确定下一帧图像的搜索区域,并对确定的搜索区域内的图像进行特征提取并表示为第二特征;
步骤S5,采用滤波器模板对第二特征进行滤波处理,根据滤波处理的结果得到下一帧图像中的目标的最新位置;
步骤S6,将下一帧图像作为当前帧图像,并根据确定的目标更新目标区域图像,随后返回步骤S2。
针对现有技术中存在的问题,本申请在可判别相关网络的目标跟踪算法(DCFNet)的原始L2损失的基础上加入trophy损失,采用L2损失和trophy损失进行梯度下降,抑制了异常离散的大误差样本主导梯度更新程度,也补偿小误差和中间误差样本的梯度更新重要程度,提高了训练过程中应对小范围和中间范围误差的能力,增加了神经网络的特征表示能力,使得模型更加鲁棒。并在背景混乱和快速移动的情况下显著地提高了跟踪器的稳健性和准确性。我们提出的多损失学习的相关滤波跟踪算法(MLCF)。
首先初始化特征提取器参数,通过多损失函数学习特征提取器的参数,将目标区域通过特征提取器进行提取特征,计算特征的自相关性,通过岭回归封闭解学习到滤波器模板。
新的一帧通过上一帧得到的目标位置确定搜索区域,通过设计好的特征提取器进行特征提取,将其特征与滤波器模板进行相关操作,输出值中最大值就是目标跟踪的最新位置。从而使得跟踪算法变得更稳健、准确。
如图1-图4所示,具体包括以下步骤:
步骤一:输入上一帧得到目标区域图像。
步骤二:经过特定的特征提取器得到目标区域的特征。
步骤三:本文利用孪生网络和相关框架,训练出一个岭回归分类器。目标找到一个函数ψ(x)=wTx,使得在循环样本{xi}上的检测结果和回归目标{yi}之间的平方误差最小,即:
在原始的L2损失的基础上,增加了trophy损失函数,如图3所示,神经网络进一步地关注于小范围和中间范围误差,利用岭回归的相关推导,其中表示所有循环样本组成的矩阵,y表示标签矩阵。进一步地,利用离散傅立叶变换,我们可以快速计算出系数矩阵,其中wl相关的滤波器参数w的通道l,循环相关,正则项λ≥0,R是目标图像的通道数,目的是优化
在检测进程中,需要裁剪搜索的图像块在新的帧中特征ψ(z),通过搜索相关响应图m最大值来估计转换。
这里的F-1表示离散傅立叶逆变换,同上^、⊙、*分别表示离散傅立叶变换,点乘和共轭。
步骤四:新的一帧通过上一帧得到的目标位置确定搜索区域,并输入当前帧的搜索区域的图像,将搜索区域通过特定的特征提取器进行提取特征。
步骤五:将其特征与滤波器模板进行相关操作,输出值中最大值就是目标跟踪的最新位置。
步骤六:每一帧图都会对目标滤波器模板学习更新。
在一种较优的实施方式中,步骤S2中,采用跟踪特征提取器,提取目标区域图像的特征,其中跟踪特征提起器由卷积网络组成。
在一种较优的实施方式中,步骤S3中,采用岭回归封闭解计算第一特征的自相关性,并根据计算结果对滤波器模板进行学习和更新。
在一种较优的实施方式中,步骤S4中,基于第一特征确定下一帧图像的搜索区域的方法包括:
通过对上一帧图像推测出的目标区域通过尺度的放缩,得到的当前帧的搜索区域,并通过特定的特征提取器提取搜索区域特征。
在一种较优的实施方式中,步骤S3中,滤波器模块如下式所示:
在一种较优的实施方式中,步骤S5具体包括:
步骤S51,采用滤波器模板对第二特征进行滤波处理;
步骤S52,获取对第二特征进行滤波得到的输出值,并将输出值中的最大值作为目标的最新位置输出;
步骤S53,根据获得的目标的最新位置确定目标的目标区域图像,随后返回步骤S2。
在一种较优的实施方式中,步骤S52中,采用下述公式对第二特征进行滤波得到输出值:
其中,F-1表示离散傅立叶逆变换,^、e、*分别表示离散傅立叶变换,点乘和共轭,m为最新跟踪位置,R为目标图像的通道数,wl相关的滤波器参数w的通道l,ψ(z)表示需要裁剪搜索的图像块在新的帧中特征。
本发明的技术方案中还包括一种基于多损失学习的相关滤波目标跟踪系统的实施例,其中,如图6所示,包括:
输入模块1,用以输入当前帧图像包括的需要追踪的目标的目标区域图像;
特征提取模块一2,用以对目标区域图像进行特征提取以获取目标区域的特征并表示为第一特征;
更新模块3,根据第一特征对一滤波器模板进行学习和更新;
特征提取模块二4,用以基于第一特征确定下一帧图像的搜索区域,并对确定的搜索区域内的图像进行特征提取并表示为第二特征;
滤波处理模块5,用以采用滤波器模板对第二特征进行滤波处理,根据滤波处理的结果得到下一帧图像中的目标的最新位置;
图像处理模块6,将下一帧图像作为当前帧图像,并根据确定的目标更新目标区域图像。
在一种较优的实施方式中,特征提取模块一为跟踪特征提取器,通过跟踪特征提取器提取目标区域图像的特征,其中跟踪特征提起器由卷积网络组成。
在一种较优的实施方式中,更新模块采用岭回归封闭解计算第一特征的自相关性,并根据计算结果对滤波器模板进行学习和更新。
上述技术方案中,如图4所示,采用两种评价准则评估跟踪器的性能:成功率图(Success rate plots)和精度图(Precision plots)。在成功率图中,横坐标表示重叠阈值(Overlap threshold),纵坐标表示成功率(Success rate),重叠率是通过计算跟踪结果目标框与真实结果目标框的重叠率获得的。类似地,在精度图中,横坐标表示位置误差阈值(Location error threshold),单位是像素,纵坐标表示精度(Precision)。
为了进一步验证本技术方案我们采取以下实验分析;
通过上述两种评价方式,选取OTB2015公共标准数据集上进行实验,这些数据集含有不同的挑战因素,包括:光照变化、尺寸变化、遮挡、变形、快速运动、运动模糊、面内旋转、超出范围、面外旋转、背景混乱和低分辨率。同时,将本发明设计的跟踪方法MLCF与现有DCFNet进行了比较,图4分别为成功率和精度的对比。从图5可以看出本文的MLCF跟踪算法,在100组测试视频上2个跟踪器中表现得鲁棒性能最好,OPE准确率值0.817,成功率值为0.626,基线DCFNet算法在OPE的准确率值为0.751和成功率值为0.580,本文算法在精确率上提高了6.6个百分点,在成功率值上提高了4.6个百分点,本文算法在原有的DCFNet上跟踪的效果表现得更加鲁棒。从图5可知,背景混乱挑战下,看出本文的MLCF跟踪器算法成功率值达到0.626,而DCFNet跟踪器算法的成功率值为0.569,相当于提高了5.7个百分点;快速移动属性挑战下,MLCF跟踪器算法成功率值达到0.624,而DCFNet跟踪器算法的成功率值为0.541,相当于提高了8.3个百分点,实验证明了trophy损失抑制了异常离散的大误差样本主导梯度更新程度,也补偿小误差和中间误差样本的梯度更新重要程度,提高了训练过程中应对小范围和中间范围误差的能力,增加了神经网络的特征表示能力,使得模型更加鲁棒。
以上仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (10)
1.一种基于多损失学习的相关滤波目标跟踪方法,应用于图像视频处理,其特征在于,包括:
步骤S1,输入当前帧图像包括的需要追踪的目标的目标区域图像;
步骤S2,对所述目标区域图像进行特征提取以获取目标区域的特征并表示为第一特征;
步骤S3,根据第一特征对一滤波器模板进行学习和更新;
步骤S4,基于所述第一特征确定下一帧图像的搜索区域,并对确定的所述搜索区域内的图像进行特征提取并表示为第二特征;
步骤S5,采用所述滤波器模板对所述第二特征进行滤波处理,根据滤波处理的结果得到下一帧图像中的目标的最新位置;
步骤S6,将下一帧图像作为当前帧图像,并根据确定的目标更新所述目标区域图像,随后返回所述步骤S2。
2.根据权利要求1所述的相关滤波目标跟踪方法,其特征在于,所述步骤S2中,采用跟踪特征提取器,提取所述目标区域图像的特征,其中所述跟踪特征提起器由卷积网络组成。
3.根据权利要求1所述的相关滤波目标跟踪方法,其特征在于,所述步骤S3中,采用岭回归封闭解计算所述第一特征的自相关性,并根据计算结果对所述滤波器模板进行学习和更新。
4.根据权利要求1所述的相关滤波目标跟踪方法,其特征在于,所述步骤S4中,基于所述第一特征确定下一帧图像的搜索区域的方法包括:
通过对上一帧图像推测出的目标区域通过尺度的放缩,得到的当前帧的搜索区域,并通过特定的特征提取器提取搜索区域特征。
6.根据权利要求1所述的相关滤波目标跟踪方法,其特征在于,所述步骤S5具体包括:
步骤S51,采用所述滤波器模板对所述第二特征进行滤波处理;
步骤S52,获取对所述第二特征进行滤波得到的输出值,并将输出值中的最大值作为目标的最新位置输出;
步骤S53,根据获得的目标的最新位置确定目标的所述目标区域图像,随后返回所述步骤S2。
8.一种基于多损失学习的相关滤波目标跟踪系统,其特征在于,包括:
输入模块,用以输入当前帧图像包括的需要追踪的目标的目标区域图像;
特征提取模块一,用以对所述目标区域图像进行特征提取以获取目标区域的特征并表示为第一特征;
更新模块,根据第一特征对一滤波器模板进行学习和更新;
特征提取模块二,用以基于所述第一特征确定下一帧图像的搜索区域,并对确定的所述搜索区域内的图像进行特征提取并表示为第二特征;
滤波处理模块,用以采用所述滤波器模板对所述第二特征进行滤波处理,根据滤波处理的结果得到下一帧图像中的目标的最新位置;
图像处理模块,将下一帧图像作为当前帧图像,并根据确定的目标更新所述目标区域图像。
9.根据权利要求8所示的系统,其特征在于,所述特征提取模块一为跟踪特征提取器,通过所述跟踪特征提取器提取所述目标区域图像的特征,其中所述跟踪特征提起器由卷积网络组成。
10.根据权利要求8所示的系统,其特征在于,所述更新模块采用岭回归封闭解计算所述第一特征的自相关性,并根据计算结果对所述滤波器模板进行学习和更新。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110099936.4A CN112767450A (zh) | 2021-01-25 | 2021-01-25 | 一种基于多损失学习的相关滤波目标跟踪方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110099936.4A CN112767450A (zh) | 2021-01-25 | 2021-01-25 | 一种基于多损失学习的相关滤波目标跟踪方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112767450A true CN112767450A (zh) | 2021-05-07 |
Family
ID=75707309
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110099936.4A Pending CN112767450A (zh) | 2021-01-25 | 2021-01-25 | 一种基于多损失学习的相关滤波目标跟踪方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112767450A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113327273A (zh) * | 2021-06-15 | 2021-08-31 | 中国人民解放军火箭军工程大学 | 一种基于可变窗函数相关滤波的红外目标跟踪方法 |
CN113378598A (zh) * | 2021-06-21 | 2021-09-10 | 北方工业大学 | 一种基于深度学习的动态条码检测方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015163830A1 (en) * | 2014-04-22 | 2015-10-29 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | Target localization and size estimation via multiple model learning in visual tracking |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN109035290A (zh) * | 2018-07-16 | 2018-12-18 | 南京信息工程大学 | 一种基于高置信度更新补充学习的跟踪算法 |
CN109271865A (zh) * | 2018-08-17 | 2019-01-25 | 西安电子科技大学 | 基于散射变换多层相关滤波的运动目标跟踪方法 |
CN110120064A (zh) * | 2019-05-13 | 2019-08-13 | 南京信息工程大学 | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 |
CN110706253A (zh) * | 2019-09-19 | 2020-01-17 | 中国科学院自动化研究所 | 基于表观特征和深度特征的目标跟踪方法、系统、装置 |
CN110728694A (zh) * | 2019-10-10 | 2020-01-24 | 北京工业大学 | 一种基于持续学习的长时视觉目标跟踪方法 |
CN111862167A (zh) * | 2020-07-21 | 2020-10-30 | 厦门大学 | 一种基于稀疏紧凑相关滤波器的快速鲁棒目标跟踪方法 |
CN111915653A (zh) * | 2020-08-17 | 2020-11-10 | 沈阳飞机工业(集团)有限公司 | 双站视觉目标跟踪的方法 |
-
2021
- 2021-01-25 CN CN202110099936.4A patent/CN112767450A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015163830A1 (en) * | 2014-04-22 | 2015-10-29 | Aselsan Elektronik Sanayi Ve Ticaret Anonim Sirketi | Target localization and size estimation via multiple model learning in visual tracking |
CN108986140A (zh) * | 2018-06-26 | 2018-12-11 | 南京信息工程大学 | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 |
CN109035290A (zh) * | 2018-07-16 | 2018-12-18 | 南京信息工程大学 | 一种基于高置信度更新补充学习的跟踪算法 |
CN109271865A (zh) * | 2018-08-17 | 2019-01-25 | 西安电子科技大学 | 基于散射变换多层相关滤波的运动目标跟踪方法 |
CN110120064A (zh) * | 2019-05-13 | 2019-08-13 | 南京信息工程大学 | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 |
CN110706253A (zh) * | 2019-09-19 | 2020-01-17 | 中国科学院自动化研究所 | 基于表观特征和深度特征的目标跟踪方法、系统、装置 |
CN110728694A (zh) * | 2019-10-10 | 2020-01-24 | 北京工业大学 | 一种基于持续学习的长时视觉目标跟踪方法 |
CN111862167A (zh) * | 2020-07-21 | 2020-10-30 | 厦门大学 | 一种基于稀疏紧凑相关滤波器的快速鲁棒目标跟踪方法 |
CN111915653A (zh) * | 2020-08-17 | 2020-11-10 | 沈阳飞机工业(集团)有限公司 | 双站视觉目标跟踪的方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113327273A (zh) * | 2021-06-15 | 2021-08-31 | 中国人民解放军火箭军工程大学 | 一种基于可变窗函数相关滤波的红外目标跟踪方法 |
CN113327273B (zh) * | 2021-06-15 | 2023-12-19 | 中国人民解放军火箭军工程大学 | 一种基于可变窗函数相关滤波的红外目标跟踪方法 |
CN113378598A (zh) * | 2021-06-21 | 2021-09-10 | 北方工业大学 | 一种基于深度学习的动态条码检测方法 |
CN113378598B (zh) * | 2021-06-21 | 2023-04-25 | 北方工业大学 | 一种基于深度学习的动态条码检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110120064B (zh) | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 | |
CN107369166B (zh) | 一种基于多分辨率神经网络的目标跟踪方法及系统 | |
CN109598684B (zh) | 结合孪生网络的相关滤波跟踪方法 | |
CN107452015B (zh) | 一种具有重检测机制的目标跟踪系统 | |
CN109461172A (zh) | 人工与深度特征联合的相关滤波视频自适应跟踪方法 | |
CN103854292B (zh) | 一种人数及人群运动方向的计算方法及装置 | |
CN110175649B (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
CN110555870B (zh) | 基于神经网络的dcf跟踪置信度评价与分类器更新方法 | |
CN109977895B (zh) | 一种基于多特征图融合的野生动物视频目标检测方法 | |
CN113327272B (zh) | 一种基于相关滤波的鲁棒性长时跟踪方法 | |
CN107368802B (zh) | 基于kcf和人脑记忆机制的运动目标跟踪方法 | |
CN109325440A (zh) | 人体动作识别方法及系统 | |
CN112767450A (zh) | 一种基于多损失学习的相关滤波目标跟踪方法及系统 | |
CN114708300B (zh) | 一种可抗遮挡的自适应目标跟踪方法及系统 | |
CN111242003B (zh) | 一种基于多尺度受约束自注意机制的视频显著性物体检测的方法 | |
CN116051601A (zh) | 一种深度时空关联的视频目标跟踪方法及系统 | |
CN110827319B (zh) | 一种基于局部敏感直方图改进的Staple目标跟踪方法 | |
CN110472607A (zh) | 一种船舶跟踪方法及系统 | |
CN116664867B (zh) | 一种基于多证据融合选取训练样本的特征提取方法及装置 | |
CN116193103A (zh) | 一种视频画面抖动等级评估的方法 | |
CN115018878A (zh) | 基于注意力机制的复杂场景下目标跟踪方法、存储介质及设备 | |
CN110830734B (zh) | 一种突变和渐变镜头切换识别方法及系统 | |
CN110610159A (zh) | 一种公交车客流量实时统计方法 | |
CN104182990B (zh) | 一种实时序列图像运动目标区域获取方法 | |
CN113112522A (zh) | 基于可变形卷积和模板更新的孪生网络目标跟踪的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |