CN113222060A - 一种基于卷积特征和手工特征整合的视觉跟踪方法 - Google Patents

一种基于卷积特征和手工特征整合的视觉跟踪方法 Download PDF

Info

Publication number
CN113222060A
CN113222060A CN202110597556.3A CN202110597556A CN113222060A CN 113222060 A CN113222060 A CN 113222060A CN 202110597556 A CN202110597556 A CN 202110597556A CN 113222060 A CN113222060 A CN 113222060A
Authority
CN
China
Prior art keywords
layer
manual
convolution
fourier transform
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110597556.3A
Other languages
English (en)
Inventor
熊兴中
曾锌
骆忠强
张琳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University of Science and Engineering
Original Assignee
Sichuan University of Science and Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University of Science and Engineering filed Critical Sichuan University of Science and Engineering
Priority to CN202110597556.3A priority Critical patent/CN113222060A/zh
Publication of CN113222060A publication Critical patent/CN113222060A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于卷积特征和手工特征整合的视觉跟踪方法,其方法为通过VGG19提取目标图像的深度特征,并采用conv3‑4图层、conv4‑4图层和conv5‑4图层分别作为目标图像的三层卷积特征;获取HOG特征、CN特征和灰度特征,并融合成一层手工特征;获取三层卷积特征的傅里叶变换结果、一层手工特征的傅里叶变换结果,基于相关滤波算法计算得到目标图像的目标估计位置,完成视觉跟踪;通过间隔参数选取当前视觉图像中的部分图像帧,将选取的部分图像帧作为新的目标图像,开始更新视觉跟踪。本发明提升了视觉跟踪的精确度和成功率,提升了跟踪器的运行速度。

Description

一种基于卷积特征和手工特征整合的视觉跟踪方法
技术领域
本发明涉及计算机图形与目标图像处理领域,一种基于卷积特征和手工特征整合的视觉跟踪方法。
背景技术
随着计算机视觉技术的飞速发展,基于视频的目标跟踪算法已经成为国内外研究机构和大学的研究热点。目标跟踪技术通常基于视频中的目标和背景信息来构建鲁棒的模型,以预测视频中目标的形状、大小、位置、轨迹和其他运动状态,从而可以进行行为预测、行为理解和分析。视觉跟踪的当前应用领域非常广泛,包括视频监视、无人驾驶飞行器、军事精确制导、智能交通和人机交互等许多领域,具有重要的研究价值。
自MOSSE算法出现以来,相关过滤器方法在视觉跟踪领域的发展越来越快,本方法也是一种基于相关滤波的跟踪方法。与本方法相关的跟踪算法之一SAMF算法是2014年提出的,该方法集成了HOG、颜色以及灰度特征,旨在解决内核相关滤波跟踪器中算法大小固定的问题,以进一步提高整体跟踪性能,其不足之处在于只是整合了三个手工特征,没有做算法的改进,这使得该方法的精确度不够高。BACF提出了一种基于背景的CF,该CF基于手工制作的特征(HOG),可以有效地模拟对象的前景和背景随时间的变化,并且作者证明了他们的方法具有很高的速度,该方法具有良好的跟踪效果,但在成功率上的表现不佳。传统的手动特征无法准确地表示目标,因此CNN逐渐开始用于视觉跟踪的特征提取中,HCF算法是CNN在相关过滤跟踪算法中应用的经典示例,该方法使用CNN中的不同层特征来表示目标,并在每层中分配不同的权重,其主要存在的问题是运行速度太慢。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于卷积特征和手工特征整合的视觉跟踪方法解决了视觉跟踪精确度低、成功率低和速率低的问题。
为了达到上述发明目的,本发明采用的技术方案为:
提供一种基于卷积特征和手工特征整合的视觉跟踪方法,其包括以下步骤:
S1、通过VGG19提取目标图像的深度特征,并采用conv3-4图层、conv4-4图层和conv5-4图层分别作为目标图像的三层卷积特征;
S2、通过计算目标图像局部区域的梯度方向的直方图,得到HOG特征;通过映射方法将目标图像的RGB空间转换为11维颜色名称空间,得到CN特征;提取目标图像的灰度特征;
S3、将HOG特征、CN特征和灰度特征融合成一层手工特征;
S4、获取当前三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果;
S5、基于相关滤波模板的算法,通过当前三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果得到目标图像的目标估计位置,完成视觉跟踪;
S6、判断是否继续进行视觉跟踪,若是则进入步骤S7;否则结束;
S7、获取当前视觉图像并设置间隔参数,通过间隔参数选取当前视觉图像中的部分图像帧,将选取的部分图像帧作为新的目标图像,通过新的目标图像信息计算得到新的三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果,返回步骤S5。
进一步地,步骤S4的具体方法为:
根据公式:
Figure BDA0003091679810000031
得到当前三层卷积特征相关滤波模板的傅里叶变换结果Hd和一层手工特征相关滤波模板的傅里叶变换结果HM;其中,Y为高斯标签的傅里叶变换结果,⊙为基本积,Xd为第d层卷积特征,Xi为第i层卷积特征,λ为正则化系数,XM为手工特征,
Figure BDA0003091679810000032
为共轭运算。
进一步地,步骤S5的具体方法为:
根据公式:
Figure BDA0003091679810000033
Figure BDA0003091679810000034
得到整个特征的最大响应值rmax,将整个特征的最大响应值的坐标作为目标在目标图像的估计位置,即得到目标估计位置;其中,rd为卷积特征的响应值,F-1为傅里叶逆变换,Zi为第i层卷积特征的当前目标图像patch,rM为手工特征的响应值,Z为手工特征的当前目标图像patch;argmax(·)为求参数的函数,γ为手工特征的权值,wd为卷积特征的权值,Hd为当前三层卷积特征相关滤波模板的傅里叶变换结果,HM为当前一层手工特征相关滤波模板的傅里叶变换结果。
进一步地,步骤S4中通过新的目标图像信息计算得到新的三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果的具体方法为:
根据公式:
Figure BDA0003091679810000041
Figure BDA0003091679810000042
得到新的目标图像的三层卷积特征相关滤波模板的傅里叶变换结果
Figure BDA0003091679810000043
和一层手工特征相关滤波模板的傅里叶变换结果
Figure BDA0003091679810000044
其中,N为间隔参数,A和B均为中间参数,λ为正则化系数,η为学习率,t为当前帧的索引,且t={1,1+N,1+2N,…},Y为高斯标签的傅里叶变换结果,⊙为基本积,
Figure BDA0003091679810000045
为t时刻的第i层卷积特征,Xt为t时刻的手工特征,
Figure BDA0003091679810000046
为共轭运算,T为每一帧的索引,且每N帧中N个相关滤波模板的傅里叶变换结果
Figure BDA0003091679810000047
Figure BDA0003091679810000048
的值分别相等。
进一步地,间隔参数N的值为5。
本发明的有益效果为:采取整合卷积特征和手工特征的方式提升了视觉跟踪的精确度和成功率,在HCF的基础上提升了跟踪器的运行速度,采用设置间隔参数的方式,每N帧进行一次模型更新,在一定程度上避免了模型漂移,同时还保证了运行速度和跟踪准确度。
附图说明
图1为本发明的方法流程图;
图2为本发明的整合效果图;
图3为本发明的成功率对比图;
图4为本发明的精确率对比图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图1所示,该基于卷积特征和手工特征整合的视觉跟踪方法包括以下步骤:
S1、通过VGG19提取目标图像的深度特征,并采用conv3-4图层、conv4-4图层和conv5-4图层分别作为目标图像的三层卷积特征;
S2、通过计算目标图像局部区域的梯度方向的直方图,得到HOG特征;通过映射方法将目标图像的RGB空间转换为11维颜色名称空间,得到CN特征;提取目标图像的灰度特征;
S3、将HOG特征、CN特征和灰度特征融合成一层手工特征;
S4、获取当前三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果;
S5、基于相关滤波模板的算法,通过当前三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果得到目标图像的目标估计位置,完成视觉跟踪;
S6、判断是否继续进行视觉跟踪,若是则进入步骤S7;否则结束;
S7、获取当前视觉图像并设置间隔参数,通过间隔参数选取当前视觉图像中的部分图像帧,将选取的部分图像帧作为新的目标图像,通过新的目标图像信息计算得到新的三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果,返回步骤S5。
步骤S4的具体方法为:
根据公式:
Figure BDA0003091679810000061
得到当前三层卷积特征相关滤波模板的傅里叶变换结果Hd和一层手工特征相关滤波模板的傅里叶变换结果HM;其中,Y为高斯标签的傅里叶变换结果,⊙为基本积,Xd为第d层卷积特征,Xi为第i层卷积特征,λ为正则化系数,XM为手工特征,
Figure BDA0003091679810000062
为共轭运算。
步骤S5的具体方法为:
根据公式:
Figure BDA0003091679810000063
Figure BDA0003091679810000064
得到整个特征的最大响应值rmax,将整个特征的最大响应值的坐标作为目标在目标图像的估计位置,即得到目标估计位置;其中,rd为卷积特征的响应值,F-1为傅里叶逆变换,Zi为第i层卷积特征的当前目标图像patch,rM为手工特征的响应值,Z为手工特征的当前目标图像patch;argmax(·)为求参数的函数,γ为手工特征的权值,wd为卷积特征的权值。
步骤S4中通过新的目标图像信息计算得到新的三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果的具体方法为:
根据公式:
Figure BDA0003091679810000071
Figure BDA0003091679810000072
得到新的目标图像的三层卷积特征相关滤波模板的傅里叶变换结果
Figure BDA0003091679810000073
和一层手工特征相关滤波模板的傅里叶变换结果
Figure BDA0003091679810000074
其中,N为间隔参数,A为当前帧的相关滤波模板的傅里叶变换结果
Figure BDA0003091679810000075
Figure BDA0003091679810000076
的分子值,B为当前帧的相关滤波模板的傅里叶变换结果
Figure BDA0003091679810000077
Figure BDA0003091679810000078
的分母值的一部分,λ为正则化系数,η为学习率,t为当前帧的索引,且t={1,1+N,1+2N,…},Y为高斯标签的傅里叶变换结果,⊙为基本积,Xt i为t时刻的第i层卷积特征,Xt为t时刻的手工特征,
Figure BDA0003091679810000079
为共轭运算,T为每一帧的索引,且每N帧中N个相关滤波模板的傅里叶变换结果
Figure BDA00030916798100000710
Figure BDA0003091679810000081
的值分别相等。
在本发明的一个实施例中,其整合结果为:
如图2所示,Convolutional features框表示分别从卷积网络的conv3-4层、conv4-4层和conv5-4层中提取到的卷积特征图,图片上简称为conv3、conv4和conv5,该框内不同图片表示输入的图像在不同卷积层中的表达形式。其中,conv3为第3卷积层,conv4为第4卷积层,conv5为第5卷积层;Input为输入层;HOG为方向梯度直方图特征;CN为颜色特征;Grayscale为灰度特征;Integrated为整合;Convolutional features为卷积特征;Manual features为手工特征;Allocate weights为分配权重;Weight为权重;Addition为相加;Interval parameter为间隔参数;Frame为帧率;Estimated position为预估位置;Model update strategy为模型更新策略。
Manual features框表示手工特征,包括HOG、CN以及灰度特征,框中从上到下的图分别表示HOG特征图、CN特征图以及灰度特征图;将三个手工特征图加起来即可得到整合的图像,也就是框中的Integrated图。
在Convolutional features上分配权重wd,其中wd包含三个元素,这里取值wd={1,0.5,0.25},不同权值对应不同卷积层。在Manual features上分配权重γ,这里取值γ=0.25。再将分别加权之后所得的两个结果相加,作为图像跟踪帧。
Model update strategy框表示模型更新策略,为了提高跟踪实时性,我们设置了间隔参数N,表示模型将每N帧更新一次,这里N取值为5,若当前帧为第1帧,则第2帧、第3帧、第4帧和第5帧的傅里叶变换结果
Figure BDA0003091679810000082
Figure BDA0003091679810000083
的值分别与第1帧的傅里叶变换结果
Figure BDA0003091679810000084
Figure BDA0003091679810000085
相等。最终将该方法运用于目标跟踪中得到目标的预估位置。
如图3和图4所示,本发明所用的数据集是OTB2013,跟踪器名称为RHCF。图3的精度阈值设置为20像素,图4的成功率阈值设置为0.5。由图3可知,本发明提出的RHCF在成功率上的表现高于HCF,低于BACF,由图4可知,本发明提出的RHCF在精确度上高于BACF。其中,BACF为背景感知相关滤波算法,RHCF为改进的卷积特征相关滤波算法,即本发明的算法,RHCF_LHC为在RHCF上少了手工特征的算法,HCF为卷积特征相关滤波算法,LCT为长期跟踪算法,LMCF为具有循环特征图的大余量对象跟踪算法,RHCF_LM为在RHCF上少了模型更新策略的算法,ARCF为学习荒谬抑制的相关滤波算法,STAPLE为实时跟踪的补充学习算法,SAMF为具有特征整合的自适应尺度核相关滤波跟踪算法,DSST为采用判别相关滤波器的算法,KCF为核相关滤波算法,CN为自适应颜色属性视觉跟踪算法;Success plots of OPE为OPE模式下的成功率图;Success rate为成功率;Overlap threshold为重叠阈值;Precisionplots of OPE为OPE模式下的精确度图;Precision为精确度;Location error threshold为位置错误阈值。
本发明采取整合卷积特征和手工特征的方式提升了视觉跟踪的精确度和成功率,在HCF的基础上提升了跟踪器的运行速度,采用设置间隔参数的方式,每N帧进行一次模型更新,在一定程度上避免了模型漂移,同时还保证了运行速度和跟踪准确度。

Claims (5)

1.一种基于卷积特征和手工特征整合的视觉跟踪方法,其特征在于,包括以下步骤:
S1、通过VGG19提取目标图像的深度特征,并采用conv3-4图层、conv4-4图层和conv5-4图层分别作为目标图像的三层卷积特征;
S2、通过计算目标图像局部区域的梯度方向的直方图,得到HOG特征;通过映射方法将目标图像的RGB空间转换为11维颜色名称空间,得到CN特征;提取目标图像的灰度特征;
S3、将HOG特征、CN特征和灰度特征融合成一层手工特征;
S4、获取当前三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果;
S5、基于相关滤波模板的算法,通过当前三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果得到目标图像的目标估计位置,完成视觉跟踪;
S6、判断是否继续进行视觉跟踪,若是则进入步骤S7;否则结束;
S7、获取当前视觉图像并设置间隔参数,通过间隔参数选取当前视觉图像中的部分图像帧,将选取的部分图像帧作为新的目标图像,通过新的目标图像信息计算得到新的三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果,返回步骤S5。
2.根据权利要求1所述的基于卷积特征和手工特征整合的视觉跟踪方法,其特征在于,步骤S4的具体方法为:
根据公式:
Figure FDA0003091679800000021
得到当前三层卷积特征相关滤波模板的傅里叶变换结果Hd和一层手工特征相关滤波模板的傅里叶变换结果HM;其中,Y为高斯标签的傅里叶变换结果,⊙为基本积,Xd为第d层卷积特征,Xi为第i层卷积特征,λ为正则化系数,XM为手工特征,
Figure FDA0003091679800000022
为共轭运算。
3.根据权利要求1所述的基于卷积特征和手工特征整合的视觉跟踪方法,其特征在于,步骤S5的具体方法为:
根据公式:
Figure FDA0003091679800000023
Figure FDA0003091679800000024
得到整个特征的最大响应值rmax,将整个特征的最大响应值的坐标作为目标在目标图像的估计位置,即得到目标估计位置;其中,rd为卷积特征的响应值,F-1为傅里叶逆变换,Zi为第i层卷积特征的当前目标图像patch,rM为手工特征的响应值,Z为手工特征的当前目标图像patch;argmax(·)为求参数的函数,γ为手工特征的权值,wd为卷积特征的权值,Hd为当前三层卷积特征相关滤波模板的傅里叶变换结果,HM为当前一层手工特征相关滤波模板的傅里叶变换结果。
4.根据权利要求1所述的基于卷积特征和手工特征整合的视觉跟踪方法,其特征在于,步骤S4中通过新的目标图像信息计算得到新的三层卷积特征的傅里叶变换结果和一层手工特征的傅里叶变换结果的具体方法为:
根据公式:
Figure FDA0003091679800000031
Figure FDA0003091679800000032
得到新的目标图像的三层卷积特征相关滤波模板的傅里叶变换结果
Figure FDA0003091679800000033
和一层手工特征相关滤波模板的傅里叶变换结果
Figure FDA0003091679800000034
其中,N为间隔参数,A和B均为中间参数,λ为正则化系数,η为学习率,t为当前帧的索引,且t={1,1+N,1+2N,…},Y为高斯标签的傅里叶变换结果,⊙为基本积,
Figure FDA0003091679800000035
为t时刻的第i层卷积特征,Xt为t时刻的手工特征,
Figure FDA0003091679800000036
为共轭运算,T为每一帧的索引,且每N帧中N个相关滤波模板的傅里叶变换结果
Figure FDA0003091679800000037
Figure FDA0003091679800000038
的值分别相等。
5.根据权利要求4所述的基于卷积特征和手工特征整合的视觉跟踪方法,其特征在于,间隔参数N的值为5。
CN202110597556.3A 2021-05-31 2021-05-31 一种基于卷积特征和手工特征整合的视觉跟踪方法 Pending CN113222060A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110597556.3A CN113222060A (zh) 2021-05-31 2021-05-31 一种基于卷积特征和手工特征整合的视觉跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110597556.3A CN113222060A (zh) 2021-05-31 2021-05-31 一种基于卷积特征和手工特征整合的视觉跟踪方法

Publications (1)

Publication Number Publication Date
CN113222060A true CN113222060A (zh) 2021-08-06

Family

ID=77099431

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110597556.3A Pending CN113222060A (zh) 2021-05-31 2021-05-31 一种基于卷积特征和手工特征整合的视觉跟踪方法

Country Status (1)

Country Link
CN (1) CN113222060A (zh)

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN107578423A (zh) * 2017-09-15 2018-01-12 杭州电子科技大学 多特征分层融合的相关滤波鲁棒跟踪方法
CN107644217A (zh) * 2017-09-29 2018-01-30 中国科学技术大学 基于卷积神经网络和相关滤波器的目标跟踪方法
CN107748873A (zh) * 2017-10-31 2018-03-02 河北工业大学 一种融合背景信息的多峰目标跟踪方法
CN109410246A (zh) * 2018-09-25 2019-03-01 深圳市中科视讯智能系统技术有限公司 基于相关滤波的视觉跟踪的方法及装置
CN109410247A (zh) * 2018-10-16 2019-03-01 中国石油大学(华东) 一种多模板和自适应特征选择的视频跟踪算法
CN109461172A (zh) * 2018-10-25 2019-03-12 南京理工大学 人工与深度特征联合的相关滤波视频自适应跟踪方法
CN109741366A (zh) * 2018-11-27 2019-05-10 昆明理工大学 一种融合多层卷积特征的相关滤波目标跟踪方法
CN109816691A (zh) * 2019-01-10 2019-05-28 常州工学院 背景感知的大分类间隔相关滤波目标跟踪方法
CN110246154A (zh) * 2019-05-07 2019-09-17 重庆邮电大学 一种基于ica-r多特征融合与自适应更新的视觉目标跟踪方法
CN110472577A (zh) * 2019-08-15 2019-11-19 江南大学 一种基于自适应相关滤波的长时视频跟踪方法
CN110544267A (zh) * 2019-07-24 2019-12-06 中国地质大学(武汉) 一种自适应选择特征的相关滤波跟踪方法
WO2020163311A1 (en) * 2019-02-04 2020-08-13 Mobileye Vision Technologies Ltd. Systems and methods for vehicle navigation
CN112329784A (zh) * 2020-11-23 2021-02-05 桂林电子科技大学 一种基于时空感知及多峰响应的相关滤波跟踪方法

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107240122A (zh) * 2017-06-15 2017-10-10 国家新闻出版广电总局广播科学研究院 基于时空连续相关滤波的视频目标跟踪方法
CN107578423A (zh) * 2017-09-15 2018-01-12 杭州电子科技大学 多特征分层融合的相关滤波鲁棒跟踪方法
CN107644217A (zh) * 2017-09-29 2018-01-30 中国科学技术大学 基于卷积神经网络和相关滤波器的目标跟踪方法
CN107748873A (zh) * 2017-10-31 2018-03-02 河北工业大学 一种融合背景信息的多峰目标跟踪方法
CN109410246A (zh) * 2018-09-25 2019-03-01 深圳市中科视讯智能系统技术有限公司 基于相关滤波的视觉跟踪的方法及装置
CN109410247A (zh) * 2018-10-16 2019-03-01 中国石油大学(华东) 一种多模板和自适应特征选择的视频跟踪算法
CN109461172A (zh) * 2018-10-25 2019-03-12 南京理工大学 人工与深度特征联合的相关滤波视频自适应跟踪方法
CN109741366A (zh) * 2018-11-27 2019-05-10 昆明理工大学 一种融合多层卷积特征的相关滤波目标跟踪方法
CN109816691A (zh) * 2019-01-10 2019-05-28 常州工学院 背景感知的大分类间隔相关滤波目标跟踪方法
WO2020163311A1 (en) * 2019-02-04 2020-08-13 Mobileye Vision Technologies Ltd. Systems and methods for vehicle navigation
CN110246154A (zh) * 2019-05-07 2019-09-17 重庆邮电大学 一种基于ica-r多特征融合与自适应更新的视觉目标跟踪方法
CN110544267A (zh) * 2019-07-24 2019-12-06 中国地质大学(武汉) 一种自适应选择特征的相关滤波跟踪方法
CN110472577A (zh) * 2019-08-15 2019-11-19 江南大学 一种基于自适应相关滤波的长时视频跟踪方法
CN112329784A (zh) * 2020-11-23 2021-02-05 桂林电子科技大学 一种基于时空感知及多峰响应的相关滤波跟踪方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
XIN ZENG等: "An Improved Visual Tracking Approach Based on Hierarchical Convolutional Features", 《2021 IEEE ASIA CONFERENCE ON INFORMATION ENGINEERING》 *
YUXIANG YANG等: "Visual Tracking With Long-Short Term Based Correlation Filter", 《IEEE ACCESS》 *
强壮等: "外观表征分析下动态更新相关滤波跟踪", 《中国图象图形学报》 *
熊昌镇等: "融合峰旁比和帧差均值自适应模型更新的视觉跟踪", 《光子学报》 *
马素刚等: "一种基于ResNet网络特征的视觉目标跟踪算法", 《北京邮电大学学报》 *

Similar Documents

Publication Publication Date Title
CN108053419B (zh) 基于背景抑制和前景抗干扰的多尺度目标跟踪方法
CN111797716B (zh) 一种基于Siamese网络的单目标跟踪方法
JP7273157B2 (ja) モデル訓練方法、装置、端末及びプログラム
CN106875406B (zh) 图像引导的视频语义对象分割方法及装置
CN107403426B (zh) 一种目标物体检测方法及设备
CN110473231B (zh) 一种具有预判式学习更新策略的孪生全卷积网络的目标跟踪方法
CN111445488B (zh) 一种弱监督学习自动识别和分割盐体的方法
CN109740537B (zh) 人群视频图像中行人图像属性的精确标注方法及系统
CN113076871A (zh) 一种基于目标遮挡补偿的鱼群自动检测方法
CN113628244B (zh) 基于无标注视频训练的目标跟踪方法、系统、终端及介质
CN111192294B (zh) 一种基于目标检测的目标跟踪方法及系统
CN109087337B (zh) 基于分层卷积特征的长时间目标跟踪方法及系统
CN109448019B (zh) 一种变分光流模型平滑参数的自适应方法
CN111376273A (zh) 一种类脑启发的机器人认知地图构建方法
CN110569706A (zh) 一种基于时间和空间网络的深度集成目标跟踪算法
CN110706252A (zh) 运动模型引导下的机器人核相关滤波跟踪算法
CN110544267B (zh) 一种自适应选择特征的相关滤波跟踪方法
CN110378932B (zh) 一种基于空间正则矫正的相关滤波视觉跟踪方法
CN114973071A (zh) 基于长短期时序特征的无监督视频目标分割方法及系统
CN114708615A (zh) 基于图像增强的低照度环境下人体检测方法、电子设备及储存介质
CN110084834A (zh) 一种基于快速张量奇异值分解特征降维的目标跟踪方法
WO2022120996A1 (zh) 视觉位置识别方法及装置、计算机设备及可读存储介质
CN113628246A (zh) 一种基于3d卷积模板更新的孪生网络目标跟踪方法
CN113361329A (zh) 一种基于实例特征感知的鲁棒单目标跟踪方法
CN117011381A (zh) 基于深度学习和立体视觉的实时手术器械位姿估计方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210806

RJ01 Rejection of invention patent application after publication