CN109886996B - 一种视觉追踪优化方法 - Google Patents
一种视觉追踪优化方法 Download PDFInfo
- Publication number
- CN109886996B CN109886996B CN201910034645.XA CN201910034645A CN109886996B CN 109886996 B CN109886996 B CN 109886996B CN 201910034645 A CN201910034645 A CN 201910034645A CN 109886996 B CN109886996 B CN 109886996B
- Authority
- CN
- China
- Prior art keywords
- frame
- tracking
- filter
- response matrix
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000000007 visual effect Effects 0.000 title claims abstract description 15
- 238000005457 optimization Methods 0.000 title claims abstract description 13
- 230000004044 response Effects 0.000 claims abstract description 50
- 239000011159 matrix material Substances 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000004364 calculation method Methods 0.000 claims description 3
- 230000005284 excitation Effects 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 1
- 230000004392 development of vision Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种视觉追踪优化方法,本发明采用初始模板保留了目标的原始信息,逐帧更新的模板获取了目标的实时信息,将两个模板估计的位置进行加权融合,可以得到最佳的目标位置。目标丢失因子的提出使得在追踪失败情况下不会对逐帧更新模板造成损坏,当追踪目标重新出现在搜索区域时,使用逐帧更新模板仍然能够产生较大的响应值,进而准确的确定目标位置。
Description
技术领域
本发明涉及一种相关滤波追踪方法,属于深度学习视觉追踪技术领域。
背景技术
视觉目标追踪技术是计算机视觉的一个重要组成部分,涉及到众多的研究领域,如图像处理、人机交互等。而我们通常认为的计算机视觉,可以称为是一门教会计算机(或其他图像设备)如何“看”的学科,或者说是研究如何从复杂的场景和图像数据中感知设备所处环境的学科。其中涉及到目标的识别及识别后的持续跟踪、目标行为理解和说明、摄像头采集的图像进行数据融合及图像处理等。
推动视觉技术发展的最主要的原因是现今监控摄像头、手机等电子设备的高度普及,照片及视频的数据量(或者称样本量)急剧增加,而且这些都是与人们的生产与生活活动密切相关的方面。面对数量如此巨大的图片和视频内容,急需学者们理解这些内容并在其中找出运动的模式,来揭示那些我们忽略的细节,挖掘其中的隐藏价值。
发明内容
本发明的目的是:提高视觉追踪的精度和速度。
为了达到上述目的,本发明的技术方案是提供了一种视觉追踪优化方法,其特征在于,包括以下步骤:
步骤1、获取当前帧的追踪图片;
步骤2、对追踪图片进行预处理后,圈定感兴趣区域;
步骤3、使用VGG-Net网络提取感兴趣区域的深度卷积特征,记为X,X∈RP×Q×D,式中,R表示特征空间,P、Q、D分别表示特征空间的宽度、高度和维数;
步骤4、若当前帧为初始帧,则使用相关滤波算法将从VGG-Net网络中提取到的深度卷积特征X进行训练得到滤波器后,得到滤波器的初始模板,将下一帧作为当前帧,返回步骤1,否则进入步骤5;
步骤5、获得当前帧的滤波器更新模板,其中,滤波器模板的更新公式为:
式中,表示算法学习到的滤波器,算法第t帧学习到的滤波器定义为 Y为高斯标签矩阵,Y∈RP×Q,高斯标签矩阵Y中元素大小服从以目标尺寸中心为峰值位置,标准差大小与目标尺寸成正比的二维高斯分布,表示离散傅里叶变换;表示的第d个维度,λ表示一个正则化参数,λ≥0;表示更新后的第t帧追踪图片所对应的滤波器模板;η表示更新速率;表示第t-1帧追踪图片所对应的滤波器模板;⊙表示哈达马积;
步骤6、将滤波器的初始模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵一,相关滤波响应矩阵一最大响应值为估计得到的追踪目标位置一;
将滤波器更新模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵二,相关滤波响应矩阵二最大响应值为估计得到的追踪目标位置二;
步骤7、对追踪目标位置一及追踪目标位置二加权融合得到最终目标位置,将下一帧作为当前帧,返回步骤1。
优选地,步骤2中的所述预处理包括以下步骤:
读入追踪图片的目标尺寸和目标位置坐标,圈定感兴趣区域。
优选地,步骤3中,提取深度卷积特征包括以下步骤:
首先将追踪图片输入到VGG-Net的数据输入层,经过卷积计算层,Relu激励层,池化层,全连接层,最终通过输出层输出所述深度卷积特征。
优选地,步骤6中,第k帧追踪图片的所述追踪目标位置一为(x0,y0),则有:
第k帧追踪图片的所述追踪目标位置二为(x1,y1),则有:
步骤7中,第k帧追踪图片的最终目标位置为(xk,yk),则有:
优选地,步骤6中,计算得到所述相关滤波响应矩阵二后,计算相关滤波响应矩阵二的最大值,将第t帧追踪图片所对应的相关滤波响应矩阵二的最大值定义为γt,并定义第t帧追踪图片所对应的目标丢失因子mt,则有:
若目标丢失因子mt,则停止滤波器模板的更新。
优选地,步骤6中,定义第t帧追踪图片所对应的更新系数为αt,则有:
由于采用了上述的技术方案,本发明与现有技术相比,具有以下的优点和积极效果:初始模板保留了目标的原始信息,逐帧更新的模板获取了目标的实时信息,将两个模板估计的位置进行加权融合,可以得到最佳的目标位置。目标丢失因子的提出使得在追踪失败情况下不会对逐帧更新模板造成损坏,当追踪目标重新出现在搜索区域时,使用逐帧更新模板仍然能够产生较大的响应值,进而准确的确定目标位置。
附图说明
图1为本发明提供的一种视觉追踪优化方法的流程图。
具体实施方式
下面结合具体实施例,进一步阐述本发明。应理解,这些实施例仅用于说明本发明而不用于限制本发明的范围。此外应理解,在阅读了本发明讲授的内容之后,本领域技术人员可以对本发明作各种改动或修改,这些等价形式同样落于本申请所附权利要求书所限定的范围。
结合图1,本发明提供的一种视觉追踪优化方法,包括以下步骤:
步骤1、获取追踪图片序列,将追踪图片序列中的第一帧作为当前帧;
步骤2、对当前帧的追踪图片进行预处理,获得目标尺寸和目标位置坐标,圈定感兴趣区域;
步骤3、使用VGG-Net网络提取感兴趣区域的深度卷积特征,记为X,X∈RP×Q×D,式中,R表示特征空间,P、Q、D分别表示特征空间的宽度、高度和维数。
提取深度卷积特征X时,首先将当前帧的追踪图片输入到VGG-Net的数据输入层,经过卷积计算层,Relu激励层,池化层,全连接层,最终通过输出层输出深度卷积特征。
步骤4、若当前帧为初始帧,即若当前帧为第一帧,则使用相关滤波算法将从VGG-Net网络中提取到的深度卷积特征X进行训练得到滤波器后,得到滤波器的初始模板,将下一帧作为当前帧,返回步骤1,否则进入步骤5。
记有高斯标签矩阵记Y,Y∈RP×Q,该高斯标签矩阵Y中元素大小服从以目标尺寸中心为峰值位置,标准差大小与目标尺寸成正比的二维高斯分布。令:其中,表示离散傅里叶变换。则滤波器在傅里叶变换后的频域中可以表示为则有:
步骤5、逐帧更新滤波器的模板,获得当前帧的滤波器更新模板,其中,滤波器模板的更新公式为:
式中,表示算法学习到的滤波器,算法第t帧学习到的滤波器定义为 Y为高斯标签矩阵,Y∈RP×Q,高斯标签矩阵Y中元素大小服从以目标尺寸中心为峰值位置,标准差大小与目标尺寸成正比的二维高斯分布,表示离散傅里叶变换;表示的第d个维度,λ表示一个正则化参数,λ≥0;表示更新后的第t帧追踪图片所对应的滤波器模板;η表示更新速率;表示第t-1帧追踪图片所对应的滤波器模板。
步骤6、将滤波器的初始模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵一,相关滤波响应矩阵一最大响应值为估计得到的追踪目标位置一。
第t帧追踪图片的所述追踪目标位置一为(x0,y0),则有:
将滤波器更新模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵二,相关滤波响应矩阵二最大响应值为估计得到的追踪目标位置二。
第t帧追踪图片的所述追踪目标位置一为(x1,y1),则有:
计算得到相关滤波响应矩阵二后,计算相关滤波响应矩阵二的最大值,将第t帧追踪图片所对应的相关滤波响应矩阵二的最大值定义为γt,并定义第t帧追踪图片所对应的目标丢失因子mt,则有:
若目标丢失因子mt,则停止滤波器模板的更新,定义第t帧追踪图片所对应的更新系数为αt,则有:
步骤7、对追踪目标位置一及追踪目标位置二加权融合得到最终目标位置,将下一帧作为当前帧,返回步骤1。
设第t帧追踪图片的最终目标位置为(xt,yt),则有:
Claims (6)
1.一种视觉追踪优化方法,其特征在于,包括以下步骤:
步骤1、获取当前帧的追踪图片;
步骤2、对追踪图片进行预处理后,圈定感兴趣区域;
步骤3、使用VGG-Net网络提取感兴趣区域的深度卷积特征,记为X,X∈RP×Q×D,式中,R表示特征空间,P、Q、D分别表示特征空间的宽度、高度和维数;
步骤4、若当前帧为初始帧,则使用相关滤波算法将从VGG-Net网络中提取到的深度卷积特征X进行训练得到滤波器后,得到滤波器的初始模板,将下一帧作为当前帧,返回步骤1,否则进入步骤5;
步骤5、获得当前帧的滤波器更新模板,其中,滤波器模板的更新公式为:
式中,表示算法学习到的滤波器,算法第t帧学习到的滤波器定义为 Y为高斯标签矩阵,Y∈RP×Q,高斯标签矩阵Y中元素大小服从以目标尺寸中心为峰值位置,标准差大小与目标尺寸成正比的二维高斯分布,表示离散傅里叶变换;表示的第d个维度,λ表示一个正则化参数,λ≥0;表示更新后的第t帧追踪图片所对应的滤波器模板;η表示更新速率;表示第t-1帧追踪图片所对应的滤波器模板;⊙表示哈达马积;
步骤6、将滤波器的初始模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵一,相关滤波响应矩阵一最大响应值为估计得到的追踪目标位置一;
将滤波器更新模板和当前帧的深度卷积特征进行点乘得到相关滤波响应矩阵二,相关滤波响应矩阵二最大响应值为估计得到的追踪目标位置二;
步骤7、对追踪目标位置一及追踪目标位置二加权融合得到最终目标位置,将下一帧作为当前帧,返回步骤1。
2.如权利要求1所述的一种视觉追踪优化方法,其特征在于,步骤2中的所述预处理包括以下步骤:
读入追踪图片的目标尺寸和目标位置坐标,圈定感兴趣区域。
3.如权利要求1所述的一种视觉追踪优化方法,其特征在于,步骤3中,提取深度卷积特征包括以下步骤:
首先将追踪图片输入到VGG-Net的数据输入层,经过卷积计算层,Relu激励层,池化层,全连接层,最终通过输出层输出所述深度卷积特征。
4.如权利要求1所述的一种视觉追踪优化方法,其特征在于,步骤6中,第k帧追踪图片的所述追踪目标位置一为(x0,y0),则有:
第k帧追踪图片的所述追踪目标位置二为(x1,y1),则有:
步骤7中,第k帧追踪图片的最终目标位置为(xk,yk),则有:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910034645.XA CN109886996B (zh) | 2019-01-15 | 2019-01-15 | 一种视觉追踪优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910034645.XA CN109886996B (zh) | 2019-01-15 | 2019-01-15 | 一种视觉追踪优化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109886996A CN109886996A (zh) | 2019-06-14 |
CN109886996B true CN109886996B (zh) | 2023-06-06 |
Family
ID=66926084
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910034645.XA Active CN109886996B (zh) | 2019-01-15 | 2019-01-15 | 一种视觉追踪优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109886996B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112016537B (zh) * | 2020-10-27 | 2021-01-08 | 成都考拉悠然科技有限公司 | 一种基于计算机视觉的综合检测老鼠的方法 |
CN112767440B (zh) * | 2021-01-07 | 2023-08-22 | 江苏大学 | 一种基于siam-fc网络的目标跟踪方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107316316A (zh) * | 2017-05-19 | 2017-11-03 | 南京理工大学 | 基于多特征自适应融合和核相关滤波技术的目标跟踪方法 |
CN107993250A (zh) * | 2017-09-12 | 2018-05-04 | 北京飞搜科技有限公司 | 一种快速多目标行人追踪和分析方法及其智能装置 |
CN108665482A (zh) * | 2018-04-18 | 2018-10-16 | 南京邮电大学 | 一种基于vgg深度网络的视觉目标跟踪方法 |
CN108734722A (zh) * | 2018-04-18 | 2018-11-02 | 南京邮电大学 | 一种基于psr的视觉跟踪错误修正方法 |
CN108961312A (zh) * | 2018-04-03 | 2018-12-07 | 奥瞳系统科技有限公司 | 用于嵌入式视觉系统的高性能视觉对象跟踪方法及系统 |
-
2019
- 2019-01-15 CN CN201910034645.XA patent/CN109886996B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107154024A (zh) * | 2017-05-19 | 2017-09-12 | 南京理工大学 | 基于深度特征核相关滤波器的尺度自适应目标跟踪方法 |
CN107316316A (zh) * | 2017-05-19 | 2017-11-03 | 南京理工大学 | 基于多特征自适应融合和核相关滤波技术的目标跟踪方法 |
CN107993250A (zh) * | 2017-09-12 | 2018-05-04 | 北京飞搜科技有限公司 | 一种快速多目标行人追踪和分析方法及其智能装置 |
CN108961312A (zh) * | 2018-04-03 | 2018-12-07 | 奥瞳系统科技有限公司 | 用于嵌入式视觉系统的高性能视觉对象跟踪方法及系统 |
CN108665482A (zh) * | 2018-04-18 | 2018-10-16 | 南京邮电大学 | 一种基于vgg深度网络的视觉目标跟踪方法 |
CN108734722A (zh) * | 2018-04-18 | 2018-11-02 | 南京邮电大学 | 一种基于psr的视觉跟踪错误修正方法 |
Non-Patent Citations (1)
Title |
---|
基于视频序列的运动目标追踪算法;李 扬;《电子科技》;20121231;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN109886996A (zh) | 2019-06-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108986140B (zh) | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 | |
CN111539273B (zh) | 一种交通视频背景建模方法及系统 | |
CN110458895B (zh) | 图像坐标系的转换方法、装置、设备及存储介质 | |
CN111242127B (zh) | 基于非对称卷积的具有粒度级多尺度特性的车辆检测方法 | |
CN113963445B (zh) | 一种基于姿态估计的行人摔倒动作识别方法及设备 | |
US11042991B2 (en) | Determining multiple camera positions from multiple videos | |
JP2022534337A (ja) | ビデオターゲット追跡方法と装置、コンピュータ装置、プログラム | |
CN111985385B (zh) | 一种行为检测方法、装置及设备 | |
CN112686928B (zh) | 一种基于多源信息融合的运动目标视觉跟踪方法 | |
CN111340881B (zh) | 一种动态场景下基于语义分割的直接法视觉定位方法 | |
CN111383244B (zh) | 一种目标检测跟踪方法 | |
CN110827312B (zh) | 一种基于协同视觉注意力神经网络的学习方法 | |
CN109886996B (zh) | 一种视觉追踪优化方法 | |
CN112215205B (zh) | 目标识别方法、装置、计算机设备和存储介质 | |
CN111144220B (zh) | 适于大数据的人员检测方法、装置、设备和介质 | |
CN112700476A (zh) | 一种基于卷积神经网络的红外船视频跟踪方法 | |
CN114743257A (zh) | 图像目标行为的检测识别方法 | |
CN111951298A (zh) | 一种融合时间序列信息的目标跟踪方法 | |
Li et al. | Collaborative convolution operators for real-time coarse-to-fine tracking | |
CN112070048B (zh) | 基于RDSNet的车辆属性识别方法 | |
CN113537359A (zh) | 训练数据的生成方法及装置、计算机可读介质和电子设备 | |
Xing et al. | MFENet: Multi-scale feature extraction network for images deblurring and segmentation of swinging wolfberry branch | |
CN116665177B (zh) | 数据处理方法、装置、电子装置和存储介质 | |
CN116668806B (zh) | 一种播放端添加目标跟踪标记的方法和装置 | |
CN117974722B (zh) | 基于注意力机制和改进的Transformer的单目标跟踪系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |