CN109886996B - 一种视觉追踪优化方法 - Google Patents

一种视觉追踪优化方法 Download PDF

Info

Publication number
CN109886996B
CN109886996B CN201910034645.XA CN201910034645A CN109886996B CN 109886996 B CN109886996 B CN 109886996B CN 201910034645 A CN201910034645 A CN 201910034645A CN 109886996 B CN109886996 B CN 109886996B
Authority
CN
China
Prior art keywords
frame
tracking
filter
response matrix
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910034645.XA
Other languages
English (en)
Other versions
CN109886996A (zh
Inventor
刘星星
沈波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Donghua University
Original Assignee
Donghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Donghua University filed Critical Donghua University
Priority to CN201910034645.XA priority Critical patent/CN109886996B/zh
Publication of CN109886996A publication Critical patent/CN109886996A/zh
Application granted granted Critical
Publication of CN109886996B publication Critical patent/CN109886996B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明涉及一种视觉追踪优化方法,本发明采用初始模板保留了目标的原始信息,逐帧更新的模板获取了目标的实时信息,将两个模板估计的位置进行加权融合,可以得到最佳的目标位置。目标丢失因子的提出使得在追踪失败情况下不会对逐帧更新模板造成损坏,当追踪目标重新出现在搜索区域时,使用逐帧更新模板仍然能够产生较大的响应值,进而准确的确定目标位置。

Description

一种视觉追踪优化方法
技术领域
本发明涉及一种相关滤波追踪方法,属于深度学习视觉追踪技术领域。
背景技术
视觉目标追踪技术是计算机视觉的一个重要组成部分,涉及到众多的研究领域,如图像处理、人机交互等。而我们通常认为的计算机视觉,可以称为是一门教会计算机(或其他图像设备)如何“看”的学科,或者说是研究如何从复杂的场景和图像数据中感知设备所处环境的学科。其中涉及到目标的识别及识别后的持续跟踪、目标行为理解和说明、摄像头采集的图像进行数据融合及图像处理等。
推动视觉技术发展的最主要的原因是现今监控摄像头、手机等电子设备的高度普及,照片及视频的数据量(或者称样本量)急剧增加,而且这些都是与人们的生产与生活活动密切相关的方面。面对数量如此巨大的图片和视频内容,急需学者们理解这些内容并在其中找出运动的模式,来揭示那些我们忽略的细节,挖掘其中的隐藏价值。
发明内容
本发明的目的是:提高视觉追踪的精度和速度。
为了达到上述目的,本发明的技术方案是提供了一种视觉追踪优化方法,其特征在于,包括以下步骤:
步骤1、获取当前帧的追踪图片;
步骤2、对追踪图片进行预处理后,圈定感兴趣区域;
步骤3、使用VGG-Net网络提取感兴趣区域的深度卷积特征,记为X,X∈RP×Q×D,式中,R表示特征空间,P、Q、D分别表示特征空间的宽度、高度和维数;
步骤4、若当前帧为初始帧,则使用相关滤波算法将从VGG-Net网络中提取到的深度卷积特征X进行训练得到滤波器后,得到滤波器的初始模板,将下一帧作为当前帧,返回步骤1,否则进入步骤5;
步骤5、获得当前帧的滤波器更新模板,其中,滤波器模板的更新公式为:
Figure BDA0001945452520000021
Figure BDA0001945452520000022
式中,
Figure BDA0001945452520000023
表示算法学习到的滤波器,算法第t帧学习到的滤波器定义为
Figure BDA0001945452520000024
Figure BDA0001945452520000025
Y为高斯标签矩阵,Y∈RP×Q,高斯标签矩阵Y中元素大小服从以目标尺寸中心为峰值位置,标准差大小与目标尺寸成正比的二维高斯分布,
Figure BDA0001945452520000026
表示离散傅里叶变换;
Figure BDA0001945452520000027
表示
Figure BDA00019454525200000212
的第d个维度,
Figure BDA0001945452520000028
λ表示一个正则化参数,λ≥0;
Figure BDA0001945452520000029
表示更新后的第t帧追踪图片所对应的滤波器模板;η表示更新速率;
Figure BDA00019454525200000210
表示第t-1帧追踪图片所对应的滤波器模板;⊙表示哈达马积;
步骤6、将滤波器的初始模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵一,相关滤波响应矩阵一最大响应值为估计得到的追踪目标位置一;
将滤波器更新模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵二,相关滤波响应矩阵二最大响应值为估计得到的追踪目标位置二;
步骤7、对追踪目标位置一及追踪目标位置二加权融合得到最终目标位置,将下一帧作为当前帧,返回步骤1。
优选地,步骤2中的所述预处理包括以下步骤:
读入追踪图片的目标尺寸和目标位置坐标,圈定感兴趣区域。
优选地,步骤3中,提取深度卷积特征包括以下步骤:
首先将追踪图片输入到VGG-Net的数据输入层,经过卷积计算层,Relu激励层,池化层,全连接层,最终通过输出层输出所述深度卷积特征。
优选地,步骤6中,第k帧追踪图片的所述追踪目标位置一为(x0,y0),则有:
Figure BDA00019454525200000211
式中,S0表示所述相关滤波响应矩阵一,x0'表示相关响应矩阵一中的元素所在的行数,y0'表示相关响应矩阵一中的元素所在的列数;
第k帧追踪图片的所述追踪目标位置二为(x1,y1),则有:
Figure BDA0001945452520000031
式中,S1表示所述相关滤波响应矩阵二,x1'表示相关响应矩阵中二的元素所在的行数,y1'表示相关响应矩阵二中的元素所在的列数;
步骤7中,第k帧追踪图片的最终目标位置为(xk,yk),则有:
(xk,yk)=l0(x0,y0)+l1(x1,y1),式中,
Figure BDA0001945452520000032
γ0和γ1分别表示S0和S1的最大值。
优选地,步骤6中,计算得到所述相关滤波响应矩阵二后,计算相关滤波响应矩阵二的最大值,将第t帧追踪图片所对应的相关滤波响应矩阵二的最大值定义为γt,并定义第t帧追踪图片所对应的目标丢失因子mt,则有:
Figure BDA0001945452520000033
式中,γt+i表示与第t帧追踪图片相邻的第t+i帧追踪图片对应的相关滤波响应矩阵二的最大值,k表示与第t帧追踪图片相邻的k帧追踪图片;
若目标丢失因子mt,则停止滤波器模板的更新。
优选地,步骤6中,定义第t帧追踪图片所对应的更新系数为αt,则有:
Figure BDA0001945452520000034
式中,ε是预先设定的阈值,则第t帧追踪图片之后所对应的滤波器更新模板更新策略为:
Figure BDA0001945452520000035
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:初始模板保留了目标的原始信息,逐帧更新的模板获取了目标的实时信息,将两个模板估计的位置进行加权融合,可以得到最佳的目标位置。目标丢失因子的提出使得在追踪失败情况下不会对逐帧更新模板造成损坏,当追踪目标重新出现在搜索区域时,使用逐帧更新模板仍然能够产生较大的响应值,进而准确的确定目标位置。
附图说明
图1为本发明提供的一种视觉追踪优化方法的流程图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
结合图1,本发明提供的一种视觉追踪优化方法,包括以下步骤:
步骤1、获取追踪图片序列,将追踪图片序列中的第一帧作为当前帧;
步骤2、对当前帧的追踪图片进行预处理,获得目标尺寸和目标位置坐标,圈定感兴趣区域;
步骤3、使用VGG-Net网络提取感兴趣区域的深度卷积特征,记为X,X∈RP×Q×D,式中,R表示特征空间,P、Q、D分别表示特征空间的宽度、高度和维数。
提取深度卷积特征X时,首先将当前帧的追踪图片输入到VGG-Net的数据输入层,经过卷积计算层,Relu激励层,池化层,全连接层,最终通过输出层输出深度卷积特征。
步骤4、若当前帧为初始帧,即若当前帧为第一帧,则使用相关滤波算法将从VGG-Net网络中提取到的深度卷积特征X进行训练得到滤波器后,得到滤波器的初始模板,将下一帧作为当前帧,返回步骤1,否则进入步骤5。
记有高斯标签矩阵记Y,Y∈RP×Q,该高斯标签矩阵Y中元素大小服从以目标尺寸中心为峰值位置,标准差大小与目标尺寸成正比的二维高斯分布。令:
Figure BDA0001945452520000041
其中,
Figure BDA0001945452520000042
表示离散傅里叶变换。则滤波器在傅里叶变换后的频域中可以表示为
Figure BDA0001945452520000043
则有:
Figure BDA0001945452520000044
式中,λ为一个正则化参数,λ≥0,||·||F为标准欧几里德范数。
Figure BDA0001945452520000045
可计算如下:
Figure BDA0001945452520000046
式中,
Figure BDA0001945452520000047
表示
Figure BDA0001945452520000048
的第d个维度,
Figure BDA0001945452520000049
表示
Figure BDA00019454525200000410
的第d个维度,⊙表示哈达马积;。
公式中的优化问题有闭式解,
Figure BDA0001945452520000051
的第d个维度可以求解如下:
Figure BDA0001945452520000052
步骤5、逐帧更新滤波器的模板,获得当前帧的滤波器更新模板,其中,滤波器模板的更新公式为:
Figure BDA0001945452520000053
Figure BDA0001945452520000054
式中,
Figure BDA0001945452520000055
表示算法学习到的滤波器,算法第t帧学习到的滤波器定义为
Figure BDA0001945452520000056
Figure BDA0001945452520000057
Y为高斯标签矩阵,Y∈RP×Q,高斯标签矩阵Y中元素大小服从以目标尺寸中心为峰值位置,标准差大小与目标尺寸成正比的二维高斯分布,
Figure BDA0001945452520000058
表示离散傅里叶变换;
Figure BDA0001945452520000059
表示
Figure BDA00019454525200000510
的第d个维度,
Figure BDA00019454525200000511
λ表示一个正则化参数,λ≥0;
Figure BDA00019454525200000512
表示更新后的第t帧追踪图片所对应的滤波器模板;η表示更新速率;
Figure BDA00019454525200000513
表示第t-1帧追踪图片所对应的滤波器模板。
步骤6、将滤波器的初始模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵一,相关滤波响应矩阵一最大响应值为估计得到的追踪目标位置一。
令处理第t帧追踪图片时,由VGG-Net网络得到的深度卷积特征为T,令
Figure BDA00019454525200000514
则有:
Figure BDA00019454525200000515
S0表示相关滤波响应矩阵一。
第t帧追踪图片的所述追踪目标位置一为(x0,y0),则有:
Figure BDA00019454525200000516
x0'表示相关响应矩阵一中的元素所在的行数,y0'表示相关响应矩阵一中的元素所在的列数。
将滤波器更新模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵二,相关滤波响应矩阵二最大响应值为估计得到的追踪目标位置二。
第t帧追踪图片的所述追踪目标位置一为(x1,y1),则有:
Figure BDA0001945452520000061
式中,S1表示所述相关滤波响应矩阵二,x1'表示相关响应矩阵二中的元素所在的行数,y1'表示相关响应矩阵二中的元素所在的列数。
计算得到相关滤波响应矩阵二后,计算相关滤波响应矩阵二的最大值,将第t帧追踪图片所对应的相关滤波响应矩阵二的最大值定义为γt,并定义第t帧追踪图片所对应的目标丢失因子mt,则有:
Figure BDA0001945452520000062
式中,γt+i表示与第t帧追踪图片相邻的第t+i帧追踪图片对应的相关滤波响应矩阵二的最大值,k表示与第t帧追踪图片相邻的k帧追踪图片;
若目标丢失因子mt,则停止滤波器模板的更新,定义第t帧追踪图片所对应的更新系数为αt,则有:
Figure BDA0001945452520000063
式中,ε是预先设定的阈值,则第t帧追踪图片之后的所对应的滤波器更新模板更新策略为:
Figure BDA0001945452520000064
步骤7、对追踪目标位置一及追踪目标位置二加权融合得到最终目标位置,将下一帧作为当前帧,返回步骤1。
设第t帧追踪图片的最终目标位置为(xt,yt),则有:
(xt,yt)=l0(x0,y0)+l1(x1,y1),式中,
Figure BDA0001945452520000065
γ0和γ1分别表示S0和S1的最大值。

Claims (6)

1.一种视觉追踪优化方法,其特征在于,包括以下步骤:
步骤1、获取当前帧的追踪图片;
步骤2、对追踪图片进行预处理后,圈定感兴趣区域;
步骤3、使用VGG-Net网络提取感兴趣区域的深度卷积特征,记为X,X∈RP×Q×D,式中,R表示特征空间,P、Q、D分别表示特征空间的宽度、高度和维数;
步骤4、若当前帧为初始帧,则使用相关滤波算法将从VGG-Net网络中提取到的深度卷积特征X进行训练得到滤波器后,得到滤波器的初始模板,将下一帧作为当前帧,返回步骤1,否则进入步骤5;
步骤5、获得当前帧的滤波器更新模板,其中,滤波器模板的更新公式为:
Figure FDA0001945452510000011
Figure FDA0001945452510000012
式中,
Figure FDA0001945452510000013
表示算法学习到的滤波器,算法第t帧学习到的滤波器定义为
Figure FDA0001945452510000014
Figure FDA0001945452510000015
Y为高斯标签矩阵,Y∈RP×Q,高斯标签矩阵Y中元素大小服从以目标尺寸中心为峰值位置,标准差大小与目标尺寸成正比的二维高斯分布,
Figure FDA0001945452510000016
表示离散傅里叶变换;
Figure FDA0001945452510000017
表示
Figure FDA0001945452510000018
的第d个维度,
Figure FDA0001945452510000019
λ表示一个正则化参数,λ≥0;
Figure FDA00019454525100000110
表示更新后的第t帧追踪图片所对应的滤波器模板;η表示更新速率;
Figure FDA00019454525100000111
表示第t-1帧追踪图片所对应的滤波器模板;⊙表示哈达马积;
步骤6、将滤波器的初始模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵一,相关滤波响应矩阵一最大响应值为估计得到的追踪目标位置一;
将滤波器更新模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵二,相关滤波响应矩阵二最大响应值为估计得到的追踪目标位置二;
步骤7、对追踪目标位置一及追踪目标位置二加权融合得到最终目标位置,将下一帧作为当前帧,返回步骤1。
2.如权利要求1所述的一种视觉追踪优化方法,其特征在于,步骤2中的所述预处理包括以下步骤:
读入追踪图片的目标尺寸和目标位置坐标,圈定感兴趣区域。
3.如权利要求1所述的一种视觉追踪优化方法,其特征在于,步骤3中,提取深度卷积特征包括以下步骤:
首先将追踪图片输入到VGG-Net的数据输入层,经过卷积计算层,Relu激励层,池化层,全连接层,最终通过输出层输出所述深度卷积特征。
4.如权利要求1所述的一种视觉追踪优化方法,其特征在于,步骤6中,第k帧追踪图片的所述追踪目标位置一为(x0,y0),则有:
Figure FDA0001945452510000021
式中,S0表示所述相关滤波响应矩阵一,x0'表示相关响应矩阵一中的元素所在的行数,y0'表示相关响应矩阵一中的元素所在的列数;
第k帧追踪图片的所述追踪目标位置二为(x1,y1),则有:
Figure FDA0001945452510000022
式中,S1表示所述相关滤波响应矩阵二,x1'表示相关响应矩阵中二的元素所在的行数,y1'表示相关响应矩阵二中的元素所在的列数;
步骤7中,第k帧追踪图片的最终目标位置为(xk,yk),则有:
(xk,yk)=l0(x0,y0)+l1(x1,y1),式中,
Figure FDA0001945452510000023
γ0和γ1分别表示S0和S1的最大值。
5.如权利要求1所述的一种视觉追踪优化方法,其特征在于,步骤6中,计算得到所述相关滤波响应矩阵二后,计算相关滤波响应矩阵二的最大值,将第t帧追踪图片所对应的相关滤波响应矩阵二的最大值定义为γt,并定义第t帧追踪图片所对应的目标丢失因子mt,则有:
Figure FDA0001945452510000024
式中,γt+i表示与第t帧追踪图片相邻的第t+i帧追踪图片对应的相关滤波响应矩阵二的最大值,k表示与第t帧追踪图片相邻的k帧追踪图片;
若目标丢失因子mt,则停止滤波器模板的更新。
6.如权利要求5所述的一种视觉追踪优化方法,其特征在于,步骤6中,定义第t帧追踪图片所对应的更新系数为αt,则有:
Figure FDA0001945452510000031
式中,ε是预先设定的阈值,则第t帧追踪图片之后所对应的滤波器更新模板更新策略为:
Figure FDA0001945452510000032
CN201910034645.XA 2019-01-15 2019-01-15 一种视觉追踪优化方法 Active CN109886996B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910034645.XA CN109886996B (zh) 2019-01-15 2019-01-15 一种视觉追踪优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910034645.XA CN109886996B (zh) 2019-01-15 2019-01-15 一种视觉追踪优化方法

Publications (2)

Publication Number Publication Date
CN109886996A CN109886996A (zh) 2019-06-14
CN109886996B true CN109886996B (zh) 2023-06-06

Family

ID=66926084

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910034645.XA Active CN109886996B (zh) 2019-01-15 2019-01-15 一种视觉追踪优化方法

Country Status (1)

Country Link
CN (1) CN109886996B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112016537B (zh) * 2020-10-27 2021-01-08 成都考拉悠然科技有限公司 一种基于计算机视觉的综合检测老鼠的方法
CN112767440B (zh) * 2021-01-07 2023-08-22 江苏大学 一种基于siam-fc网络的目标跟踪方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107993250A (zh) * 2017-09-12 2018-05-04 北京飞搜科技有限公司 一种快速多目标行人追踪和分析方法及其智能装置
CN108665482A (zh) * 2018-04-18 2018-10-16 南京邮电大学 一种基于vgg深度网络的视觉目标跟踪方法
CN108734722A (zh) * 2018-04-18 2018-11-02 南京邮电大学 一种基于psr的视觉跟踪错误修正方法
CN108961312A (zh) * 2018-04-03 2018-12-07 奥瞳系统科技有限公司 用于嵌入式视觉系统的高性能视觉对象跟踪方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154024A (zh) * 2017-05-19 2017-09-12 南京理工大学 基于深度特征核相关滤波器的尺度自适应目标跟踪方法
CN107316316A (zh) * 2017-05-19 2017-11-03 南京理工大学 基于多特征自适应融合和核相关滤波技术的目标跟踪方法
CN107993250A (zh) * 2017-09-12 2018-05-04 北京飞搜科技有限公司 一种快速多目标行人追踪和分析方法及其智能装置
CN108961312A (zh) * 2018-04-03 2018-12-07 奥瞳系统科技有限公司 用于嵌入式视觉系统的高性能视觉对象跟踪方法及系统
CN108665482A (zh) * 2018-04-18 2018-10-16 南京邮电大学 一种基于vgg深度网络的视觉目标跟踪方法
CN108734722A (zh) * 2018-04-18 2018-11-02 南京邮电大学 一种基于psr的视觉跟踪错误修正方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于视频序列的运动目标追踪算法;李 扬;《电子科技》;20121231;全文 *

Also Published As

Publication number Publication date
CN109886996A (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
CN108986140B (zh) 基于相关滤波和颜色检测的目标尺度自适应跟踪方法
CN111539273B (zh) 一种交通视频背景建模方法及系统
CN110458895B (zh) 图像坐标系的转换方法、装置、设备及存储介质
CN111242127B (zh) 基于非对称卷积的具有粒度级多尺度特性的车辆检测方法
CN113963445B (zh) 一种基于姿态估计的行人摔倒动作识别方法及设备
US11042991B2 (en) Determining multiple camera positions from multiple videos
JP2022534337A (ja) ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム
CN111985385B (zh) 一种行为检测方法、装置及设备
CN112686928B (zh) 一种基于多源信息融合的运动目标视觉跟踪方法
CN111340881B (zh) 一种动态场景下基于语义分割的直接法视觉定位方法
CN111383244B (zh) 一种目标检测跟踪方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN109886996B (zh) 一种视觉追踪优化方法
CN112215205B (zh) 目标识别方法、装置、计算机设备和存储介质
CN111144220B (zh) 适于大数据的人员检测方法、装置、设备和介质
CN112700476A (zh) 一种基于卷积神经网络的红外船视频跟踪方法
CN114743257A (zh) 图像目标行为的检测识别方法
CN111951298A (zh) 一种融合时间序列信息的目标跟踪方法
Li et al. Collaborative convolution operators for real-time coarse-to-fine tracking
CN112070048B (zh) 基于RDSNet的车辆属性识别方法
CN113537359A (zh) 训练数据的生成方法及装置、计算机可读介质和电子设备
Xing et al. MFENet: Multi-scale feature extraction network for images deblurring and segmentation of swinging wolfberry branch
CN116665177B (zh) 数据处理方法、装置、电子装置和存储介质
CN116668806B (zh) 一种播放端添加目标跟踪标记的方法和装置
CN117974722B (zh) 基于注意力机制和改进的Transformer的单目标跟踪系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant