CN111462173B - 基于孪生网络判别特征学习的视觉跟踪方法 - Google Patents
基于孪生网络判别特征学习的视觉跟踪方法 Download PDFInfo
- Publication number
- CN111462173B CN111462173B CN202010127710.6A CN202010127710A CN111462173B CN 111462173 B CN111462173 B CN 111462173B CN 202010127710 A CN202010127710 A CN 202010127710A CN 111462173 B CN111462173 B CN 111462173B
- Authority
- CN
- China
- Prior art keywords
- frame
- template
- verification
- branch
- positioning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 230000000007 visual effect Effects 0.000 title claims description 6
- 238000012795 verification Methods 0.000 claims abstract description 54
- 238000012549 training Methods 0.000 claims abstract description 22
- 230000004044 response Effects 0.000 claims description 17
- 238000000605 extraction Methods 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000005457 optimization Methods 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 7
- 125000004122 cyclic group Chemical group 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims 2
- 238000004364 calculation method Methods 0.000 claims 1
- 238000011478 gradient descent method Methods 0.000 claims 1
- 238000001914 filtration Methods 0.000 abstract description 15
- 230000000694 effects Effects 0.000 abstract description 8
- 230000009286 beneficial effect Effects 0.000 abstract description 4
- 230000004927 fusion Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 10
- 238000010276 construction Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于孪生网络判别特征学习的视觉跟踪方法,包括如下步骤:离线定位分类器训练;离线验证分类器训练;在线目标跟踪;在线模板更新。本发明兼具孪生网络结构简单、速度快以及相关滤波判别性强的优点,取长补短将二者的优势融于一体而去除了它们的劣势,同时加入二值化掩膜以削弱边界效应对相关滤波的影响,与此同时,本发明还结合了离线训练以及在线更新,使得该发明既能得到大量训练数据的支持,又能根据所跟踪目标的不同种类及不同状态进行调整,从而提高跟踪的准确性以及鲁棒性,使其可达到极好的跟踪效果,有助于与其它领域融合,具有广阔的应用前景。
Description
技术领域
本发明涉及视觉跟踪技术领域,尤其涉及一种基于孪生网络判别特征学习的视觉跟踪方法。
背景技术
目标跟踪是计算机视觉中具有广泛应用的一个分支,随着视频采集设备的普及和成像质量的提高,视觉跟踪技术被广泛应用于智能交通系统、目标识别、视频检索和人机交互等领域。
针对视觉跟踪问题的研究,国内外的学者做出了大量的贡献。现有的主流视觉跟踪算法大多基于相关滤波及孪生神经网络。相关滤波利用信号与系统中相关运算的性质,将循环矩阵引入到岭回归最优化问题中,进而避免了原问题中复杂的矩阵运算,该算法可以在线快速迭代,是一种很常见的目标外观建模方法。孪生神经网络是一种广泛用于视觉跟踪的神经网络结构,由模板参考支路及目标定位支路两部分组成,该网络通过大量数据进行离线学习,使得学习到的特征可以很好地保留视频中的帧间连续性信息。由于孪生神经网络可以在大量的离线视频上进行预训练,因而具有更好的可扩展性。传统的基于孪生网络的视觉跟踪算法直接将模板支路与定位支路得到的特征图进行相关操作,并利用余弦相似度来判断目标模板与候选样本的相似性,由于模板的生成只考虑了正样本信息而没有充分考虑背景信息,导致其判别能力较弱,不能很好地区分候选样本中与模板外观相似的正样本及负样本。针对孪生网络的这一缺陷,2017年Jack Valmadre等人将相关滤波引入到孪生网络中,该技术在给定模板支路特征图后,首先基于该特征图学习一个判别分类器,然后利用该分类器与定位支路特征图进行相关运算以确定目标的位置,这种方法虽然在一定程度上增加了跟踪算法的判别能力,但是相关滤波算法固有的边界效应问题又制约了其性能。
综上所述,现有跟踪技术有以下几个方面的缺陷:第一,现有基于孪生网络的视觉跟踪算法在构造跟踪模板时只考虑了前景目标信息,判别能力通常较弱,不能很好地在复杂场景下进行目标跟踪;第二,现有孪生网络大多不能进行在线更新,在跟踪过程中跟踪算法不能有效适应目标的外观形变,导致跟踪失败;第三,针对孪生网络的改进算法虽然在一定程度上提升了模型的判别能力,但是相关滤波算法的引入又带来了边界效应,限制了模型性能的进一步提升。
发明内容
本发明所要解决的技术问题是克服现有技术中存在的不足,提供一种基于孪生网络判别特征学习的视觉跟踪方法。
本发明是通过以下技术方案予以实现:
一种基于孪生网络判别特征学习的视觉跟踪方法,其特征在于,包括如下步骤:a.离线定位分类器训练:提取样本图像,定义模板帧和定位帧;以模板帧和定位帧真值目标框的中心点为中心裁剪出对应的图像目标块;将模板帧和定位帧的图像目标块送入到两个由全卷积网络构成的特征提取网络,得到模板帧和定位帧的图像目标块对应的卷积特征;优化模型参数;b.离线验证分类器训练:提取样本图像,定义模板帧和验证帧;提取模板帧和验证帧的图像块,作为模板支路和验证支路的输入;将模板支路及验证支路的输入图像送入两个由全卷积网络构成的特征提取网络,得到模板支路和验证支路的卷积特征;优化模型参数;c.在线目标跟踪:在初始帧,根据模板帧图像目标块对应的卷积特征,得到判别分类器系数;在跟踪过程中,根据定位帧图像目标块,提取出当前帧的定位支路特征,计算出对应的响应图;将大于阈值的响应部分的对应候选样本送入验证分类器进行验证;d.在线更新:在第t帧,根据当前帧目标位置计算更新分类器系数。
根据上述技术方案,优选地,步骤a中所述提取样本图像时,随机地从给定的视频序列中抽取帧间隔小于50帧的两帧图像,定义为模板帧和定位帧。
根据上述技术方案,优选地,步骤a中所述优化模型参数包括:在模板帧图像目标块通过由全卷积网络构成的特征提取网络后,引入判别分类器学习模块,求解最优分类器系数,优化特征提取网络模型参数。
根据上述技术方案,优选地,所述判别分类器学习模块将岭回归建模到神经网络中。
根据上述技术方案,优选地,步骤b中所述提取样本图像时,随机地从给定的视频序列中抽取帧间隔小于50帧的两帧图像,定义为模板帧和验证帧。
根据上述技术方案,优选地,步骤b中所述“提取模板帧和验证帧的图像块,作为模板支路和验证支路的输入”包括:基于每帧图像的真值标注,在模板帧提取出真值目标框内图像块作为模板支路的输入;在验证帧,对真值目标框进行平移及尺度扰动,提取扰动后目标框内的图像块作为验证支路的输入。
根据上述技术方案,优选地,步骤b中所述优化模型参数包括:将模板支路和验证支路的卷积特征做相关操作,使用交叉熵损失函数优化特征提取网络模型参数。
本发明的有益效果是:
本发明兼具孪生网络结构简单、速度快以及相关滤波判别性强的优点,取长补短将二者的优势融于一体而去除了它们的劣势,同时加入二值化掩膜以削弱边界效应对相关滤波的影响;在得到模板支路特征图后,先通过岭回归算法求得一个关于该模板的分类器,然后使用该分类器与目标定位支路的特征图进行相关操作,通过这种方式,模板在构造的过程中可以考虑到目标周围的背景样本信息,从而学习到更有判别能力的目标跟踪模板,有效对视频中外观相似的目标和非目标物体进行判别,使其可达到极好的跟踪效果,有助于与其它领域融合,具有广阔的应用前景;与此同时,本发明还结合了离线训练以及在线更新,使得该发明既能得到大量训练数据的支持,又能根据所跟踪目标的不同种类及不同状态进行调整,从而提高跟踪的准确性以及鲁棒性。
附图说明
图1是本发明的定位分类器训练流程图。
图2是本发明的验证分类器训练流程图。
图3是本发明的在线目标跟踪部分的流程图。
具体实施方式
为了使本技术领域的技术人员更好地理解本发明的技术方案,下面结合附图和最佳实施例对本发明作进一步的详细说明。
如图所示,本发明包括如下步骤:
离线定位分类器训练:提取样本图像,定义模板帧和定位帧;以模板帧和定位帧真值目标框的中心点为中心裁剪出对应的图像目标块;将模板帧和定位帧的图像目标块送入到两个权重共享的全卷积网络构成的特征提取网络,得到模板帧和定位帧的图像目标块对应的卷积特征;优化模型参数。
离线验证分类器训练:提取样本图像,定义模板帧和验证帧;提取模板帧和验证帧的图像块,作为模板支路和验证支路的输入,在验证支路,如果一个图像块对应的目标框与真值重叠率在0.3以下将其定义为负样本,如果图像块对应的目标框与真值的重叠率在0.7以上则将其定义为正样本;将模板支路及验证支路的输入图像送入两个权重共享的全卷积网络构成的特征提取网络,得到模板特征e及验证支路样本特征{oi,yi}i=1,...,S,这里的yi∈{0,1}表示第i个样本的样本类别,oi表示验证支路第i个样本的卷积特征。然后对e与oi进行相关操作,并将结果送入交叉熵损失函数:
在计算得到损失项后,使用随机梯度下降算法对特征提取网络参数进行求解。
在线目标跟踪:在初始帧(即t=1),根据模板帧图像目标块对应的卷积特征,得到判别分类器系数在跟踪过程中(即t≥2),根据定位帧图像目标块对应的卷积特征,提取出当前帧的定位支路特征Xd,t,d=1,...,C,然后根据/>计算出对应的响应图,其中Xd,t表示第t帧第d个通道的特征矩阵,/>表示Xd,t的傅里叶变换;当响应图中某一个候选位置的响应值大于一个预设的阈值时,将其送入验证分类器进行验证,得到一个验证得分,取二者内积作为最终的样本得分。
在线更新:在第t帧,根据当前帧目标位置计算更新分类器系数。为加速算法运算,引入核相关滤波来快速计算分类器系数。为便于描述,将每一个通道的特征张量变化成列向量,并以一维相关滤波为例进行介绍。给定根据跟踪目标(或真值)提取到的特征张量(C表示特征通道数)及期望高斯型真值/>传统核相关滤波算法求解如下最优化问题:
其中,本文档使用及/>来表示Zd,t、G、α的傅里叶变换,H表示向量的共轭。
得到最优的后,可以进一步计算分类器系数为:
公式(2)本质为一岭回归问题,区别在于其训练样本是通过循环移动特征图的方式得到的。如前文所述,直接使用核相关滤波算法会引入边界效应问题,影响目标跟踪结果。基于此,对公式(2)进行改造,将核相关滤波器的最优化目标函数改写如下:
公式(4)在公式(2)的基础上引入了二值化对角矩阵,这里使用表示Zd,t经过循环移位构造得到的特征矩阵。本发明在公式(4)中引入了二值化矩阵D以抑制滤波器Ed,tα中非目标区域对应的权重。与标准岭回归问题类似,公式(4)的最优解也可以通过求解线性方程组的方式得到,该线性方程组公式如下:
本发明使用共轭梯度下降算法对公式(5)进行求解,对照公式(11)可以看出,公式(11)中的A对应于公式(4)中的则根据公式(11)可得,整个运算过程中比较耗时的部分为Ap(i),考虑到Ed,t为循环矩阵,则公式Ap(i)可以按下式计算:
在得到最优的滤波器系数α后,对其进行傅里叶变换得到当t=1时,使用下式作为分类器系数:
当t≥2时,按照下式来更新分类器系数:
根据上述实施例,优选地,离线定位分类器训练中,在提取样本图像时,随机地从给定的视频序列中抽取帧间隔小于50帧的两帧图像,定义为模板帧和定位帧。
根据上述实施例,优选地,离线定位分类器训练中,所述优化模型参数包括:在模板帧图像块送入到由全卷积网络构成的特征提取网络后,引入判别分类器学习模块,优化特征提取网络模型参数。该判别分类器学习模块首先在由模板帧得到的特征张量上进行密集采样,假设采样的基目标块大小为w×h,特征张量大小为W×H×C,则经过密集采样过程可以得到一个特征矩阵这里D=whC,N=WH。给定预设的一个高斯型分布的期望响应G,模板支路通过构建一个岭回归最优化问题来求解最优分类器系数:
根据岭回归最优化相关结论,求解公式(9)等价于求解如下等式方程组问题:
(ZZT+λ)w=ZG (10)
可以得到一次共轭梯度下降迭代如下:
这里各个变量的上标i表示第i步迭代,作为初值,令r(0)=ZG,A=ZZT+λ。经过若干步共轭梯度下降迭代可以得到关于该输入特征图的最优分类器权重w,并将其与定位支路特征图进行相关操作。相关操作得到目标响应图后,将响应图与期望高斯型真值共同送入l1损失函数,并使用随机梯度下降算法进行特征提取网络模型优化求解。
根据上述实施例,优选地,所述判别分类器学习模块将岭回归建模到神经网络中。
根据上述实施例,优选地,离线验证分类器训练中,在提取样本图像时,随机地从给定的视频序列中抽取帧间隔小于50帧的两帧图像,定义为模板帧和验证帧。
根据上述实施例,优选地,离线验证分类器训练中,所述“提取模板帧和验证帧的图像块,作为模板支路和验证支路的输入”包括:基于每帧图像的真值标注,在模板帧提取出真值目标框内图像块作为模板支路的输入;在验证帧,对真值目标框进行平移及尺度扰动,提取扰动后目标框内的图像块作为验证支路的输入。
根据上述实施例,优选地,离线验证分类器训练中,所述优化模型参数包括:将模板支路和验证支路的卷积特征做相关操作,使用交叉熵损失函数优化特征提取网络模型参数。
本发明兼具孪生网络结构简单、速度快以及相关滤波判别性强的优点,取长补短将二者的优势融于一体而去除了它们的劣势,同时加入二值化掩膜以削弱边界效应对相关滤波的影响;在得到模板支路特征图后,先通过岭回归算法求得一个关于该模板的分类器,然后使用该分类器与目标定位支路的特征图进行相关操作,通过这种方式,模板在构造的过程中可以考虑到目标周围的背景样本信息,从而学习到更有判别能力的目标跟踪模板,有效对视频中外观相似的目标和非目标物体进行判别,使其可达到极好的跟踪效果,有助于与其它领域融合,具有广阔的应用前景;与此同时,本发明还结合了离线训练以及在线更新,使得该发明既能得到大量训练数据的支持,又能根据所跟踪目标的不同种类及不同状态进行调整,从而提高跟踪的准确性以及鲁棒性。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (3)
1.一种基于孪生网络判别特征学习的视觉跟踪方法,其特征在于,包括如下步骤:
a.离线定位分类器训练:提取样本图像,随机地从给定的视频序列中抽取帧间隔小于50帧的两帧图像,定义为模板帧和定位帧;以模板帧和定位帧真值目标框的中心为中心裁剪出对应的图像目标块;将模板帧和定位帧的图像目标块送入到两个由全卷积网络构成的特征提取网络,得到模板帧和定位帧的图像目标块对应的卷积特征;在模板帧图像块送入到由全卷积网络构成的特征提取网络时,引入定位分类器学习模块,优化模型参数;
b.离线验证分类器训练:提取样本图像,随机地从给定的视频序列中抽取帧间隔小于50帧的两帧图像,定义模板帧和验证帧;提取模板帧和验证帧的图像块,作为模板支路和验证支路的输入;将模板支路及验证支路的输入图像送入两个由全卷积网络构成的特征提取网络,得到模板支路和验证支路的卷积特征;
c.在线目标跟踪:在初始帧,根据模板帧图像目标块对应的卷积特征,得到定位分类器系数;在跟踪过程中,根据定位帧图像目标块对应的卷积特征,提取出当前帧的定位支路特征,计算出对应的响应值;当响应值大于预设值时,送入验证分类器进行验证;
具体过程包括:
将模板支路及验证支路的输入图像送入两个权重共享的全卷积网络构成的特征提取网络,得到模板特征及验证支路样本特征并将结果送入交叉熵损失函数式(1):计算得到损失项后,使用随机梯度下降算法对特征提取网络参数进行求解;
(1)
其中:为模板特征,{/> ,/>}/>=1 ,2,3..,为验证支路样本特征,/>∈{0 ,1}表示第/>个样本的样本类别,/>表示验证支路第/>个样本的卷积特征;
在线目标跟踪:在初始帧根据模板帧图像目标块对应的卷积特征,得到定位分类器系数,在跟踪过程中,根据定位帧图像目标块对应的卷积特征,提取出当前帧的定位支路特征计算出对应的响应图,当响应图中某一个候选位置的响应值大于一个预设的阈值时,将其送入验证分类器进行验证,得到一个验证得分,取二者内积作为最终的样本得分;
在线更新:在第t帧,根据当前帧目标位置计算更新定位分类器系数:给定根据跟踪目标或真值提取到的特征张量及期望高斯型真值/>,根据式(2)求解最优化问题:
(2);
其中:、/>及/>分别表示/>、/>、/>的傅里叶变换,/>表示向量的共轭,d=1,2,...C,C表示特征通道数,/>为最优滤波器系数;
得到最优的后,进一步根据式(3)计算定位分类器系数:
(3);
对式(2)进行改造,将相关滤波器的最优化目标函数改写式(4):
(4);
其中:表示 />经过循环移位构造得到的特征矩阵,/>表示一个权重矩阵,/>表示两个损失项的权重;
式(4)的最优解通过求解线性方程组式(5)得到:
(5);
使用梯度下降法对式(5)求解出最优滤波器系数,对其进行傅里叶变换得到/>, 当时,使用式 (7)作为定位分类器系数:
(7)
当t≥2时,按照式(8)来更新定位分类器系数:
(8);
其中:表示用于构造定位分类器系数的权重矩阵,/>表示用于构造定位分类器的样本特征矩阵,/>表示用来确定当前学习到的模型权重对加权平均权重影响强度的加权系数;
d.在线更新:在第t帧,根据当前帧目标位置计算更新定位分类器系数。
2.根据权利要求1所述一种基于孪生网络判别特征学习的视觉跟踪方法,其特征在于,所述定位分类器学习模块将岭回归建模到神经网络中。
3.根据权利要求2所述一种基于孪生网络判别特征学习的视觉跟踪方法,其特征在于,步骤b中所述“提取模板帧和验证帧的图像块,作为模板支路和验证支路的输入”包括:基于每帧图像的真值标注,在模板帧提取出真值目标框内图像块作为模板支路的输入;在验证帧,对真值目标框进行平移及尺度扰动,提取扰动后真值目标框内的图像块作为验证支路的输入。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010127710.6A CN111462173B (zh) | 2020-02-28 | 2020-02-28 | 基于孪生网络判别特征学习的视觉跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010127710.6A CN111462173B (zh) | 2020-02-28 | 2020-02-28 | 基于孪生网络判别特征学习的视觉跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111462173A CN111462173A (zh) | 2020-07-28 |
CN111462173B true CN111462173B (zh) | 2023-11-17 |
Family
ID=71684194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010127710.6A Active CN111462173B (zh) | 2020-02-28 | 2020-02-28 | 基于孪生网络判别特征学习的视觉跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111462173B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633517B (zh) * | 2020-12-29 | 2024-02-02 | 重庆星环人工智能科技研究院有限公司 | 一种机器学习模型的训练方法、计算机设备及存储介质 |
CN112686381A (zh) * | 2020-12-30 | 2021-04-20 | 北京灵汐科技有限公司 | 神经网络模型、方法、电子设备及可读介质 |
CN112633222B (zh) * | 2020-12-30 | 2023-04-28 | 民航成都电子技术有限责任公司 | 基于对抗网络的步态识别方法、装置、设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210551A (zh) * | 2019-05-28 | 2019-09-06 | 北京工业大学 | 一种基于自适应主体敏感的视觉目标跟踪方法 |
CN110533691A (zh) * | 2019-08-15 | 2019-12-03 | 合肥工业大学 | 基于多分类器的目标跟踪方法、设备和存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10846593B2 (en) * | 2018-04-27 | 2020-11-24 | Qualcomm Technologies Inc. | System and method for siamese instance search tracker with a recurrent neural network |
-
2020
- 2020-02-28 CN CN202010127710.6A patent/CN111462173B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210551A (zh) * | 2019-05-28 | 2019-09-06 | 北京工业大学 | 一种基于自适应主体敏感的视觉目标跟踪方法 |
CN110533691A (zh) * | 2019-08-15 | 2019-12-03 | 合肥工业大学 | 基于多分类器的目标跟踪方法、设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
基于分类-验证模型的视觉跟踪算法研究;吴敏;查宇飞;张园强;库涛;李运强;张胜杰;;光学学报(05);全文 * |
基于双重注意力孪生网络的实时视觉跟踪;杨康;宋慧慧;张开华;;计算机应用(06);全文 * |
基于注意力机制的在线自适应孪生网络跟踪算法;董吉富;刘畅;曹方伟;凌源;高翔;;激光与光电子学进展(02);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111462173A (zh) | 2020-07-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110135366B (zh) | 基于多尺度生成对抗网络的遮挡行人重识别方法 | |
CN110298404B (zh) | 一种基于三重孪生哈希网络学习的目标跟踪方法 | |
CN112396027B (zh) | 基于图卷积神经网络的车辆重识别方法 | |
Patil et al. | MSFgNet: A novel compact end-to-end deep network for moving object detection | |
CN111462173B (zh) | 基于孪生网络判别特征学习的视觉跟踪方法 | |
CN108960059A (zh) | 一种视频动作识别方法及装置 | |
CN112184752A (zh) | 一种基于金字塔卷积的视频目标跟踪方法 | |
CN111639564B (zh) | 一种基于多注意力异构网络的视频行人重识别方法 | |
CN110781928B (zh) | 一种提取图像多分辨率特征的图像相似度学习方法 | |
CN110728694B (zh) | 一种基于持续学习的长时视觉目标跟踪方法 | |
JP7136500B2 (ja) | ノイズチャネルに基づくランダム遮蔽回復の歩行者再識別方法 | |
CN108520203A (zh) | 基于融合自适应多外围框与十字池化特征的多目标特征提取方法 | |
CN113920472A (zh) | 一种基于注意力机制的无监督目标重识别方法及系统 | |
Hu et al. | Parallel spatial-temporal convolutional neural networks for anomaly detection and location in crowded scenes | |
CN111753667A (zh) | 一种基于孪生网络的智能汽车单目标跟踪方法 | |
CN115359407A (zh) | 一种视频中的多车辆跟踪方法 | |
CN112801019A (zh) | 基于合成数据消除无监督车辆再识别偏差的方法及系统 | |
CN112084895A (zh) | 一种基于深度学习的行人重识别方法 | |
CN115375737A (zh) | 基于自适应时间与序列化时空特征的目标跟踪方法与系统 | |
CN109448024B (zh) | 利用深度数据构建约束相关滤波器的视觉跟踪方法、系统 | |
CN114495170A (zh) | 一种基于局部抑制自注意力的行人重识别方法及系统 | |
CN114038011A (zh) | 一种室内场景下人体异常行为的检测方法 | |
CN113129336A (zh) | 一种端到端多车辆跟踪方法、系统及计算机可读介质 | |
CN115393788B (zh) | 一种基于增强全局信息注意力的多尺度监控行人重识别方法 | |
CN114360058B (zh) | 一种基于行走视角预测的跨视角步态识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |