CN111383249B - 基于多区域层卷积特征的目标跟踪方法 - Google Patents
基于多区域层卷积特征的目标跟踪方法 Download PDFInfo
- Publication number
- CN111383249B CN111383249B CN202010135414.0A CN202010135414A CN111383249B CN 111383249 B CN111383249 B CN 111383249B CN 202010135414 A CN202010135414 A CN 202010135414A CN 111383249 B CN111383249 B CN 111383249B
- Authority
- CN
- China
- Prior art keywords
- target
- layer
- frame
- filter
- convolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/207—Analysis of motion for motion estimation over a hierarchy of resolutions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/262—Analysis of motion using transform domain methods, e.g. Fourier domain methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于多区域层卷积特征的目标跟踪方法,步骤包括:步骤1,第一帧时确定目标区域并划分为多个子区域,提取子区域的卷积特征;初始化每层卷积特征的相关滤波器;步骤2,第二帧使用多层相关滤波器递推和加权融合的方法确定目标区域的位置,更新相关滤波器并初始化目标运动模型;步骤3,从第三帧开始,使用多层相关滤波器递推和加权融合的方法确定目标区域的位置,更新相关滤波器并更新运动模型为下一帧做准备;更新运动模型是为了得到下一帧目标位置的加权平均数和协方差矩阵Σt+1,其作为在下一帧更新相关滤波器的重要参数。本发明基于多区域层卷积特征的目标跟踪方法解决了目标的部分遮挡和特征剧烈变化情况下跟踪精度低的问题。
Description
技术领域
本发明属于视频图像跟踪技术领域,涉及一种基于多区域层卷积特征的目标跟踪方法。
背景技术
随着科技的发展和让社会的进步,人们对机器视觉技术的要求也不断的提高,在无人车驾驶、智能机器人、行为分析、无人飞行器、精确制导、空中预警等方面有着巨大的应用前景。
相关滤波目标跟踪方法具有处理速度快、跟踪精度高等优点,相关滤波目标跟踪方法使用在第一帧中人为选取的目标区域训练一个相关滤波器,在之后帧中使用训练好的滤波器对搜索区域进行相关操作,相关操作的结果中最大响应值点即为目标位置。当相关滤波目标跟踪方法使用从目标区域提取的卷积特征时,使用对多层相关滤波响应使用加权融合的方法推断目标位置。
对于相关滤波目标跟踪方法来说,针对目标区域提取的特征是其中关键,针对目标区域提取的特征分为以下两种:(1)手工特征,手工特征是人为设定的特征如图像的直方图特征、方向梯度直方图特征(HOG)、局部二值模式特征(LBP);(2)卷积特征,卷积特征是使用深度卷积网络(CNNS)提取出的特征,深度卷积网络所提取的深层特征对目标的语义信息进行编码,这种特征对目标的外观变化具有较强的鲁棒性,但其空间解析度太低无法进行准确的定位,深度卷积网络所提取的浅层特征保留了大量空间信息有利于定位但其语义性不够强所以对目标的外观变化的鲁棒性较弱,且对于目标的部分遮挡和部分特征剧烈变化情况下跟踪精度低。
发明内容
本发明的目的是提供一种基于多区域层卷积特征的目标跟踪方法,解决了现有技术中存在的对于目标的部分遮挡和部分特征剧烈变化情况下鲁棒性差和跟踪精度低的问题。
本发明所采用的技术方案是,
基于多区域层卷积特征的目标跟踪方法,具体步骤为:
步骤1,输入待进行目标跟踪的视频序列并人为选取第一帧的目标区域p1,将目标区域p1划分为N+1个子区域,提取每个子区域的卷积特征;初始化每一层卷积特征所对应的相关滤波器;
步骤2,在第二帧时,计算每个子区域每一卷积层的相关滤波器在第二帧的搜索区域上的响应,用多层相关滤波器递推和加权融合的方法确定第二帧目标区域的位置,,更新每个子区域的相关滤波器,根据第二帧的目标位置和第一帧的目标位置初始化目标运动模型;
步骤3,从第三帧起,确定当前帧的目标搜索区域,提取目标搜索区域中的卷积特征及上一帧每个子区域的滤波器在卷积特征上的相关滤波响应通过逐层推断当前帧每个子区域的中心位置对所有子区域的中心位置进行加权融合,得到并输出目标位置pt即为目标跟踪结果之后更新每个区域的相关滤波器和目标运动模型为下一帧的目标跟踪做准备;
本发明的特点还在于,
步骤1的具体步骤为:
步骤1.1,设置当前帧为第一帧,即t=1,人为选取目标跟踪的视频序列中第一帧的目标区域p1;
步骤1.4的具体步骤为:
其中σ为样本值的方差系数人为设定,此时相关滤波器的学习被转化成为一个凸优化问题,如公式(2)所示:
其中为第t帧第i个区域第l层卷积特征所对应的滤波器的时域表示,*表示循环卷积,yi是一大小为hx×hy的矩阵,其矩阵第m行n列的元素yi,m,n=y(m,n),λ为滤波器的正则化系数,根据帕斯瓦尔公式将(2)式变换到频域得到:
是的第d个通道,其中大写字母是由其小写母的离散傅里叶变换,字母上的横线表示复共轭,·表示矩阵的哈达玛积,为第t帧第i个子区域第l层卷积特征所对应的滤波器的频域表示的分子式,为第t帧第i个子区域第l层卷积特征所对应的滤波器的频域表示的分母式。
步骤2的具体步骤为:
步骤2.1,设置当前帧为第二帧,即t=2;
步骤2.2,由上一帧中目标中心位置pt-1和目标大小s确定当前帧的目标搜索区域;
步骤2.4,分别计算上一帧每个子区域的滤波器在卷积特征上的相关滤波响应其中fi为第i个区域对应的滤波器在卷积特征上的相关滤波响应,fi为一个具有L个通道的矩阵,记为其第l个通道(这里第l个通道对应着第l层卷积层的输出),计算方法如下:
F-1表示傅里叶逆变换,其中zl,d是zl的第d个通道,Zl,d是zl,d的频域表示;
其中r是搜索范围,γ'l是正则化系数;
按照公式(5)由深层到浅层逐层的推断每个相关滤波最大响应值点的位置,最终得到的第一层卷积特征的相关滤波最大响应值点的位置就是当前帧第i个子区域的目标中心位置pt,i;
步骤2.6,对所有子区域的中心位置进行加权融合,得到并输出目标位置pt,pt的具体方法如公式(6)所示:
步骤2.7的具体方法为:
步骤2.8的具体方法为:
步骤2.8.1,根据p2和p1,0得到目标的运动速度(vx,vy)T,以为先验分布随机产生粒子得到粒子集合K为粒子数, 分别是第t帧中第k个粒子在图像中x轴和y轴上的速度,记 分别是第t帧中第k个粒子在图像上x轴和y轴上的加速度,粒子权值均为
步骤3的具体方法为:
步骤3.1,设置当前帧为第三帧,即t=3;
令是在第l层相关滤波响应的最大值点的位置,则第在(l-1)层相关滤波响应值点的位置由公式(5)得到,按照公式(5)由深层到浅层逐层的推断每个相关滤波最大响应值点的位置,最终得到的第一层卷积特征的相关滤波最大响应值点的位置就是当前帧第i个子区域的目标中心位置pt,i;
其中Ml和PSRl分别为每个滤波器响应各个通道的运动置信度和峰值旁瓣比;其计算方法分别如公式(11)和公式(12):
步骤3.4,对所有子区域的中心位置进行加权融合,得到并输出目标位置pt,目标位置pt即为当前帧的跟踪结果;
步骤3.5,更新相关滤波器和更新运动模型为下一帧的目标跟踪做准备,之后设置下一帧为当前帧并跳转至步骤3.2。
步骤3.4中,得到目标位置pt的具体方法如公式(13)所示:
其中αt,i为第i个区域去推断的目标中心位置的权值,计算方式为:
步骤3.5中更新相关滤波器的方法与步骤2.7相同。
步骤3.5中更新运动模型的方法具体的为
其中,ΔT为采样间隔;Wt是一个多变量高斯白噪声,计算主区域相关滤波响应f0所有通道的融合特征更新粒子权值若p't,k超出相关滤波的搜索范围则wt,k=0,重采样,计算每个粒子在下一帧中的位置p't+1,k,
本发明的有益效果是
一、本发明对目标区域进行子区域的划分,子区域划分之后再进行汉宁窗加窗操作,减少了汉宁窗操作导致的边缘信息损失,使本发明在特征提取阶段可以保留更多的图像信息,实现了对目标的分块跟踪,提高了跟踪器在目标受到局部遮挡或是局部特征变化时的跟踪能力;
二、本发明采用多层相关滤波器递推和加权融合的方法确定目标区域的位置,实现了卷积层权值的自适应分配,提高了跟踪器的精度和鲁棒性;
附图说明
图1是本发明基于多区域层卷积特征的目标跟踪方法的总体框架图;
图2是本发明基于多区域层卷积特征的目标跟踪方法中子区域划分加窗实验的原图;
图3是图2添加汉宁窗后的结果图;
图4是图2进行划分之后子区域的加窗结果图;
图5是图4复原的整张图像;
图6是本发明基于多区域层卷积特征的目标跟踪方法中实施例1的跟踪结果图;
图7是本发明基于多区域层卷积特征的目标跟踪方法中实施例2的跟踪结果图;
图8是本发明基于多区域层卷积特征的目标跟踪方法中实施例2的精度曲线图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
基于多区域层卷积特征的目标跟踪方法,如图1,具体步骤为:
步骤1,输入待进行目标跟踪的视频序列并人为选取第一帧的目标区域p1,将目标区域p1划分为N+1个子区域,提取每个子区域的卷积特征;初始化每一层卷积特征所对应的相关滤波器;
步骤2,计算每个子区域每一卷积层的相关滤波器在第二帧的搜索区域上的响应,用多层相关滤波器递推和加权融合的方法确定第二帧目标区域的位置,更新每个子区域的相关滤波器,根据第二帧的目标位置和第一帧的目标位置初始化目标运动模型;
步骤3,从第三帧起,确定当前帧的目标搜索区域,提取目标搜索区域中的卷积特征及上一帧每个子区域的滤波器在卷积特征上的相关滤波响应通过逐层推断当前帧每个子区域的中心位置对所有子区域的中心位置进行加权融合,得到并输出目标位置pt即为目标跟踪结果之后更新每个区域的相关滤波器和目标运动模型为下一帧的目标跟踪做准备;
其中步骤1的具体步骤为:
步骤1.1,设置当前帧为第一帧,即t=1,人为选取目标跟踪的视频序列中第一帧的目标区域p1;
其中目标区域划分方法可根据具体任务选择不同的划分方法但划分为N+1个区域中必须包含目标区域;
其中σ为样本值的方差系数人为设定,此时相关滤波器的学习被转化成为一个凸优化问题,如公式(2)所示:
其中为第t帧第i个区域第l层卷积特征所对应的滤波器的时域表示,*表示循环卷积,yi是一大小为hx×hy的矩阵,其矩阵第m行n列的元素yi,m,n=y(m,n),λ为滤波器的正则化系数,根据帕斯瓦尔公式将(2)式变换到频域得到:
是的第d个通道,其中大写字母是由其小写母的离散傅里叶变换,字母上的横线表示复共轭,·表示矩阵的哈达玛积,为第t帧第i个子区域第l层卷积特征所对应的滤波器的频域表示的分子式,为第t帧第i个子区域第l层卷积特征所对应的滤波器的频域表示的分母式。
其中步骤2的具体步骤为:
步骤2.1,设置当前帧为第二帧,即t=2;
步骤2.2,由上一帧中目标中心位置pt-1和目标大小s确定当前帧的目标搜索区域;
步骤2.4,分别计算上一帧每个子区域的滤波器在卷积特征上的相关滤波响应其中fi为第i个区域对应的滤波器在卷积特征上的相关滤波响应,fi为一个具有L个通道的矩阵,记为其第l个通道(这里第l个通道对应着第l层卷积层的输出),计算方法如下:
F-1表示傅里叶逆变换,其中zl,d是zl的第d个通道,Zl,d是zl,d的频域表示;
其中r是搜索范围,γ'l是正则化系数;
按照公式(5)由深层到浅层逐层的推断每个相关滤波最大响应值点的位置,最终得到的第一层卷积特征的相关滤波最大响应值点的位置就是当前帧第i个子区域的目标中心位置pt,i;
步骤2.6,对所有子区域的中心位置进行加权融合,得到并输出目标位置pt,pt的具体方法如公式(6)所示:
步骤2.8.1,根据p2和p1,0得到目标的运动速度(vx,vy)T,以为先验分布随机产生粒子得到粒子集合K为粒子数, 分别是第t帧中第k个粒子在图像中x轴和y轴上的速度,记 分别是第t帧中第k个粒子在图像上x轴和y轴上的加速度,粒子权值均为步骤2.8.2,每个粒子在下一帧中的位置p't+1,k,计算下一帧粒子位置期望和下一帧中所有粒子的位置的协方差矩阵 和Σt+1将在下一帧中评价运动置信度。
其中步骤3的具体方法为:
步骤3.1,设置当前帧为第三帧,即t=3;
令是在第l层相关滤波响应的最大值点的位置,则第在(l-1)层相关滤波响应值点的位置由公式(5)得到,按照公式(5)由深层到浅层逐层的推断每个相关滤波最大响应值点的位置,最终得到的第一层卷积特征的相关滤波最大响应值点的位置就是当前帧第i个子区域的目标中心位置pt,i;
其中Ml和PSRl分别为每个滤波器响应各个通道的运动置信度和峰值旁瓣比;其计算方法分别如公式(11)和公式(12):
步骤3.4,对所有子区域的中心位置进行加权融合,得到并输出目标位置pt,pt的具体方法如公式(13)所示:
其中αt,i为第i个区域去推断的目标中心位置的权值,计算方式为:
步骤3.5,更新相关滤波器和更新运动模型为下一帧的目标跟踪做准备:
更新相关滤波器的方法与步骤2.7相同。
更新运动模型的方法具体的为
其中,ΔT为采样间隔;Wt是一个多变量高斯白噪声,计算主区域相关滤波响应f0所有通道的融合特征更新粒子权值若p't,k超出相关滤波的搜索范围则wt,k=0,重采样,计算每个粒子在下一帧中的位置p't+1,k,
更新相关滤波器和更新运动模型之后设置下一帧为当前帧并跳转至步骤3.2。
子区域划分加窗实验
本发明方法在对目标区域进行子区域的划分,子区域划分之后再进行汉宁窗加窗操作,减少了汉宁窗操作导致的边缘信息损失,如图2为一张脸图像,其直接添加汉宁窗后结果图如图3,现将图分割为上半部分、下半部分、左半部分、右半部分、上四分之三部分、下四分之三部分、左四分之三部分和目标区域共九个子区域,对每个子区域单独加窗,其结果为图4,图为5是由图4各个子区域复原的整张图像;对比图3和图5,我们能够看出,图3只有中心附近区域的信息得到了保留边缘信息被损失;而子区域划分后大大保留了对应部分损失掉的信息,使得图5中更多的将边缘信息保留了下来,综上所述,相比于传统的相关滤波跟踪方法,本发明基于多区域的目标跟踪方法在特征提取阶段可以保留更多的信息。
实施例1
输入视频序列,为女子取书读书的视频;
执行步骤1~步骤3;
其中本实施例使用在ImageNet数据集上训练好的VGG-Net-19网络提取卷积特征,公式(2)(3)中的滤波器正则化系数λ取10-4,粒子数为600,采用将目标区域分割为上半部分、下半部分、左半部分、右半部分、上四分之三部分、下四分之三部分、左四分之三部分和目标区域共九个子区域的划分方法;
最终输出第23帧的目标跟踪结果,如图6所示,其中女子脸部部分被书籍遮挡,其跟踪结果准确。
实施例2
输入视频序列,为行人被车遮挡的视频;
执行步骤1~步骤3;
其中本实施例使用在ImageNet数据集上训练好的VGG-Net-19网络提取卷积特征,公式(2)(3)中的滤波器正则化系数λ取10-4,粒子数为600,采用将目标区域分割为上半部分、下半部分、左半部分、右半部分、上四分之三部分、下四分之三部分、左四分之三部分和目标区域共九个子区域的划分方法;
其输出为第12帧的目标跟踪结果,如图7所示,其中目标下半身被车身遮挡,依然能够输出准确的跟踪结果。
同时,对本实施例2进行了另一组实验,将实施例的原视频在输入时对每一帧的目标位置进行标注之后,执行步骤1~3,在步骤3.5更新运动模型时,根据所标注的目标位置,绘制每一帧运动模型计算出的下一帧粒子位置期望的精度曲线,其精度曲线如图8所示,其横轴代表运动模型计算出的下一帧粒子位置期望与每一帧标注的目标位置之差的绝对值记为误差,纵轴为所占帧数的百分比,曲线上的每个点表示在整个视频中误差小于横轴帧数的百分比,由图8可知,运动模型所计算出的下一帧粒子位置期望的精度足够作为评价目标运动置信度的指标。
Claims (10)
1.基于多区域层卷积特征的目标跟踪方法,其特征在于,具体步骤为:
步骤1,输入待进行目标跟踪的视频序列并人为选取第一帧的目标区域p1,将所述目标区域p1划分为N+1个子区域,提取每个子区域的卷积特征;初始化每一层卷积特征所对应的相关滤波器;
步骤2,在第二帧时,计算每个子区域每一卷积层的相关滤波器在第二帧的搜索区域上的响应,用多层相关滤波器递推和加权融合的方法确定第二帧目标区域的位置,更新每个子区域的相关滤波器,根据第二帧的目标位置和第一帧的目标位置初始化目标运动模型;
步骤3,从第三帧起,确定当前帧的目标搜索区域,提取目标搜索区域中的卷积特征及上一帧每个子区域的滤波器在卷积特征上的相关滤波响应通过逐层推断当前帧每个子区域的中心位置对所有子区域的中心位置进行加权融合,得到并输出目标位置pt即为目标跟踪结果之后更新每个区域的相关滤波器和目标运动模型为下一帧的目标跟踪做准备;
2.如权利要求1所述的基于多区域层卷积特征的目标跟踪方法,其特征在于,所述步骤1的具体步骤为:
步骤1.1,设置当前帧为第一帧,即t=1,人为选取目标跟踪的视频序列中第一帧的目标区域p1;
3.如权利要求2所述的基于多区域层卷积特征的目标跟踪方法,其特征在于,所述步骤1.4的具体步骤为:
其中σ为样本值的方差系数人为设定,此时相关滤波器的学习被转化成为一个凸优化问题,如公式(2)所示:
其中为第t帧第i个区域第l层卷积特征所对应的滤波器的时域表示,*表示循环卷积,yi是一大小为hx×hy的矩阵,其矩阵第m行n列的元素yi,m,n=y(m,n),λ为滤波器的正则化系数,根据帕斯瓦尔公式将(2)式变换到频域得到:
4.如权利要求3所述的基于多区域层卷积特征的目标跟踪方法,其特征在于,所述步骤2的具体步骤为:
步骤2.1,设置当前帧为第二帧,即t=2;
步骤2.2,由上一帧中目标中心位置pt-1和目标大小s确定当前帧的目标搜索区域;
步骤2.4,分别计算上一帧每个子区域的滤波器在目标搜索区域R的卷积特征上的相关滤波响应其中fi为第i个区域对应的滤波器在目标搜索区域的卷积特征上的相关滤波响应,fi为一个具有L个通道的矩阵,记fi l为其第l个通道(这里第l个通道对应着第l层卷积层的输出),计算方法如下:
F-1表示傅里叶逆变换,其中zl,d是zl的第d个通道,Zl,d是zl,d的频域表示;
其中r是搜索范围,γ'l是正则化系数;
按照公式(5)由深层到浅层逐层的推断每个相关滤波最大响应值点的位置,最终得到的第一层卷积特征的相关滤波最大响应值点的位置就是当前帧第i个子区域的目标中心位置pt,i;
步骤2.6,对所有子区域的中心位置进行加权融合,得到并输出目标位置pt,pt的具体方法如公式()所示:
7.如权利要求6所述的基于多区域层卷积特征的目标跟踪方法,其特征在于,所述步骤3的具体方法为:
步骤3.1,设置当前帧为第三帧,即t=3;
令是在第l层相关滤波响应的最大值点的位置,则第在(l-1)层相关滤波响应值点的位置由公式(5)得到,按照公式(5)由深层到浅层逐层的推断每个相关滤波最大响应值点的位置,最终得到的第一层卷积特征的相关滤波最大响应值点的位置就是当前帧第i个子区域的目标中心位置pt,i;
其中Ml和PSRl分别为每个滤波器响应各个通道的运动置信度和峰值旁瓣比;其计算方法分别如公式(11)和公式(12):
步骤3.4,对所有子区域的中心位置进行加权融合,得到并输出目标位置pt,目标位置pt即为当前帧的跟踪结果;
步骤3.5,更新相关滤波器和更新运动模型为下一帧的目标跟踪做准备,之后设置下一帧为当前帧并跳转至步骤3.2。
9.如权利要求7所述的基于多区域层卷积特征的目标跟踪方法,其特征在于,所述步骤3.5中更新相关滤波器的方法与步骤2.7相同。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010135414.0A CN111383249B (zh) | 2020-03-02 | 2020-03-02 | 基于多区域层卷积特征的目标跟踪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010135414.0A CN111383249B (zh) | 2020-03-02 | 2020-03-02 | 基于多区域层卷积特征的目标跟踪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111383249A CN111383249A (zh) | 2020-07-07 |
CN111383249B true CN111383249B (zh) | 2023-02-28 |
Family
ID=71218675
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010135414.0A Active CN111383249B (zh) | 2020-03-02 | 2020-03-02 | 基于多区域层卷积特征的目标跟踪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111383249B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112819865B (zh) * | 2021-02-26 | 2024-02-09 | 西安理工大学 | 基于自适应正则特征联合时间关联的相关滤波跟踪方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182388A (zh) * | 2017-12-14 | 2018-06-19 | 哈尔滨工业大学(威海) | 一种基于图像的运动目标跟踪方法 |
CN109741366A (zh) * | 2018-11-27 | 2019-05-10 | 昆明理工大学 | 一种融合多层卷积特征的相关滤波目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11308350B2 (en) * | 2016-11-07 | 2022-04-19 | Qualcomm Incorporated | Deep cross-correlation learning for object tracking |
-
2020
- 2020-03-02 CN CN202010135414.0A patent/CN111383249B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108182388A (zh) * | 2017-12-14 | 2018-06-19 | 哈尔滨工业大学(威海) | 一种基于图像的运动目标跟踪方法 |
CN109741366A (zh) * | 2018-11-27 | 2019-05-10 | 昆明理工大学 | 一种融合多层卷积特征的相关滤波目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
自适应卷积特征选择的实时跟踪算法;熊昌镇等;《中国图象图形学报》(第11期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN111383249A (zh) | 2020-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816689B (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN110175596B (zh) | 基于双流卷积神经网络的虚拟学习环境微表情识别与交互方法 | |
CN110210551B (zh) | 一种基于自适应主体敏感的视觉目标跟踪方法 | |
CN109741366B (zh) | 一种融合多层卷积特征的相关滤波目标跟踪方法 | |
CN108053419B (zh) | 基于背景抑制和前景抗干扰的多尺度目标跟踪方法 | |
CN108986140B (zh) | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 | |
CN108734723B (zh) | 一种基于自适应权重联合学习的相关滤波目标跟踪方法 | |
CN112348849B (zh) | 一种孪生网络视频目标跟踪方法及装置 | |
CN107016689A (zh) | 一种尺度自适应的相关滤波对冲目标跟踪方法 | |
CN110889863B (zh) | 一种基于目标感知相关滤波的目标跟踪方法 | |
CN110135500A (zh) | 一种基于自适应深度特征滤波器的多场景下目标跟踪方法 | |
CN111008996B (zh) | 一种通过分层特征响应融合的目标跟踪方法 | |
CN106803265A (zh) | 基于光流法和卡尔曼滤波的多目标跟踪方法 | |
CN111582349B (zh) | 一种基于YOLOv3和核相关滤波改进的目标跟踪算法 | |
CN111724411B (zh) | 一种基于对冲算法的多特征融合跟踪方法 | |
CN110276785A (zh) | 一种抗遮挡红外目标跟踪方法 | |
CN113807188A (zh) | 基于锚框匹配和Siamese网络的无人机目标跟踪方法 | |
CN111581313A (zh) | 一种基于实例分割的语义slam鲁棒性改进方法 | |
CN111383249B (zh) | 基于多区域层卷积特征的目标跟踪方法 | |
CN111968155B (zh) | 一种基于分割目标掩模更新模板的目标跟踪方法 | |
CN106651917A (zh) | 基于神经网络的图像目标跟踪算法 | |
CN108537825B (zh) | 一种基于迁移学习回归网络的目标跟踪方法 | |
CN110084834B (zh) | 一种基于快速张量奇异值分解特征降维的目标跟踪方法 | |
CN110660077A (zh) | 一种融合多个特征的多尺度目标跟踪方法 | |
CN116402851A (zh) | 一种复杂背景下的红外弱小目标跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |