CN110910425A - 一种针对抵近飞行过程的目标跟踪方法 - Google Patents

一种针对抵近飞行过程的目标跟踪方法 Download PDF

Info

Publication number
CN110910425A
CN110910425A CN201911142176.XA CN201911142176A CN110910425A CN 110910425 A CN110910425 A CN 110910425A CN 201911142176 A CN201911142176 A CN 201911142176A CN 110910425 A CN110910425 A CN 110910425A
Authority
CN
China
Prior art keywords
scale
target
model
filtering
trans
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911142176.XA
Other languages
English (en)
Other versions
CN110910425B (zh
Inventor
许倩倩
强晶晶
闫鹏武
张雪
张浩钧
汪亮
孙高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Radio Equipment Research Institute
Original Assignee
Shanghai Radio Equipment Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Radio Equipment Research Institute filed Critical Shanghai Radio Equipment Research Institute
Priority to CN201911142176.XA priority Critical patent/CN110910425B/zh
Publication of CN110910425A publication Critical patent/CN110910425A/zh
Application granted granted Critical
Publication of CN110910425B publication Critical patent/CN110910425B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种针对抵近飞行过程的目标跟踪方法,包含:S1、根据初始目标位置与尺度及跟踪器预装参数进行跟踪其初始化;S2、求解全局运动参数,对上一帧目标中心位置进行全局运动补偿,作为搜索窗口的中心位置;S3、提取位置样本和尺度样本;压缩位置样本和尺度样本;分别计算位置滤波频域响应图和尺度滤波频域响应图;计算位置滤波空域响应图和尺度滤波空域响应图,进行位置估计和尺度估计;自适应更新尺度增量因子;S4、提取位置样本和尺度样本;更新位置模型目标模板和尺度模型目标模板;构建位置特征投影矩阵和尺度特征投影矩阵;更新位置模型和尺度模型。本发明能确保特征点在背景上均匀分布,提高抵近飞行过程中目标跟踪的成功率。

Description

一种针对抵近飞行过程的目标跟踪方法
技术领域
本发明涉及计算机视觉、数字图像处理领域,特别涉及一种针对抵近飞行过程的目标跟踪方法。
背景技术
抵近飞行过程是指飞行器飞行并接近目标的过程,如精确制导武器的末制导过程。在抵近飞行过程中,目标跟踪的主要难点在于快速运动、运动模糊和尺度变化,具体说明如下:
(1)快速运动是指目标在相邻帧图像上的相对位移超出阈值,相对位移定义为目标在相邻帧图像上的位移与目标尺寸的比值。目标跟踪算法往往根据目标尺寸确定搜索范围,具体是将上一帧的目标区域扩大若干倍作为搜索区域。因此,不同于OTB(OnlineTracking Benchmark)属性标准采用的绝对位移,本发明采用目标在相邻帧图像上的相对位移作为快速运动的衡量指标。快速运动往往是由探测平台的抖动引起的。对此,现有目标跟踪算法一般通过在前端加入稳像处理模块,或者在跟踪过程中扩大搜索区域,来消除快速运动对算法跟踪性能的影响。然而,这两种方法均显著加大了算法的计算成本,限制了算法的应用范围。
(2)运动模糊是指由目标或飞行器的运动引起的目标成像模糊。成像模糊使得目标表观发生变化,在复杂场景中,将进一步降低目标与背景的区分度。传统的模板匹配算法,计算简单、易于实现,但已经无法应对实际的应用需求。因此,需要通过特征提取来增大目标与背景的区分度。近年来,梯度方向直方图(HOG,H,Histograms of OrientedGradients)特征及其改进特征在行人检测、人脸识别等领域获得了广泛的应用,其特征表达性能获得了业界的一直认可。
(3)尺度变化是指当前帧目标尺寸与第一帧目标尺寸的比值超出阈值。在抵近飞行的全过程中,目标尺度的变化分为两个阶段。第一阶段,飞行器距目标较远,目标尺度没有明显变化;第二阶段,飞行器距目标较近,目标尺度剧烈变化。现有的跟踪算法在对目标尺度的预测中,采用固定的尺度等级。这种方式,在抵近飞行的第一阶段,目标尺度基本不变,不仅浪费运算资源,还可能因干扰而错误地估计目标尺度;在第二阶段,目标尺度剧烈变化,极有可能超出尺度等级范围,无法准确估计目标尺度。目标跟踪算法若不能正确估计目标尺度,将无法准确维护目标模型,将会出现跟踪框漂移,甚至跟丢目标。
发明内容
本发明的目的在于提供一种针对抵近飞行过程的目标跟踪方法,能够确保特征点在背景上均匀分布,在图像尺寸已知的情况下,几乎没有时间消耗;本发明还提高了算法效率,并提高尺度估计的准确率,从而提高抵近飞行过程中目标跟踪的成功率。
为了达到上述目的,本发明通过以下技术方案实现:
一种针对抵近飞行过程的目标跟踪方法,包含以下步骤:
S1、跟踪器初始化:根据初始目标位置与尺度及跟踪器预装参数进行跟踪器初始化;
S2、确定搜索窗口中心位置:将上一帧提取均匀特征点作为局部特征,在当前帧提取匹配特征点,求解全局运动参数,对上一帧目标中心位置进行全局运动补偿,作为搜索窗口的中心位置;
步骤S3、位置滤波和尺度滤波:根据搜索窗口中心位置和上一帧目标尺度,提取位置样本和尺度样本;压缩位置样本和尺度样本;分别计算位置滤波频域响应图和尺度滤波频域响应图;计算位置滤波空域响应图和尺度滤波空域响应图,并进行位置估计和尺度估计;自适应更新尺度增量因子;
步骤S4、更新位置模型和尺度模型:根据当前帧目标位置和尺度,采用与滤波模块一样的特征提取方法,提取位置样本和尺度样本;更新位置模型目标模板和尺度模型目标模板;分别构建位置特征投影矩阵和尺度特征投影矩阵;分别更新位置模型和尺度模型。
优选地,所述步骤S1中,进一步包含:
步骤S1.1、输入初始目标位置p0、初始目标尺寸sz0、初始目标尺寸缩放因子κresize、目标区域扩展因子κpadding、位置滤波器预期响应标准差因子κσ,trans、尺度等级nS、插值后尺度等级nSI、尺度滤波器预期响应标准差因子κσ,scale与尺度增量因子α;
步骤S1.2、初始化当前目标位置pt和当前目标尺度因子st
Figure BDA0002281247140000034
步骤S1.3、初始化目标基尺寸szbase和跟踪窗口基尺寸szwinbase
Figure BDA0002281247140000035
步骤S1.4、初始化位置滤波预期响应:根据式(3)计算位置滤波预期响应标准σtrans;生成位移矩阵T={(tx,ty)};根据式(4)计算空域位置滤波预期响应gtrans(tx,ty);根据式(5)并通过二维傅里叶变换获得频域位置滤波器预期响应Gtrans
σtrans=κσ,trans×prod(szbase)/rf (3)
Figure BDA0002281247140000031
Figure BDA0002281247140000032
其中,tx表示x表示方向的位移,ty表示y方向的位移;
步骤S1.5、初始化位置滤波汉宁窗:
Figure BDA0002281247140000033
其中,h和w分别表示位置滤波器的高度和宽度;
步骤S1.6、初始化尺度滤波预期响应:根据式(7)计算尺度滤波预期响应标准差σscale;根据式(8)生成尺度因子序列s和sI;根据式(9)计算空域尺度滤波预期响应gscale(si);根据式(10)并通过二维傅里叶变换获得频域尺度滤波器预期响应Gscale
σscale=κσ,scale×nSI (7)
Figure BDA0002281247140000041
Figure BDA0002281247140000042
Figure BDA0002281247140000043
步骤S1.7、初始化尺度滤波汉宁窗:
Figure BDA0002281247140000044
步骤S1.8、输出当前目标位置pt、当前目标尺度因子st、目标基尺寸szbase、跟踪窗口基尺寸szwinbase、位置滤波预期响应Gtrans、位置滤波汉宁窗htrans、尺度因子序列s、插值后的尺度因子序列sI、尺度滤波预期响应Gscale和尺度滤波汉宁窗hscale
优选地,所述步骤S2中,进一步包含以下过程:
输入τ-1时刻的图像I(τ-1),尺寸为[W,H],采样步长为s,对输入图像进行均匀特征点提取的结果为:
{(xi,yi)|i=0,1,…,(mn-1)}; (12)
其中,m=floor((W+s-1)/s);n=floor((H+s-1)/s);(xi,yi)为第i个特征点的坐标,如下:
Figure BDA0002281247140000045
其中,floor(·)为向下取整函数;mod(a,b)为a被b整除的余数。
优选地,所述步骤S2中,采用PyrLK光流法在当前帧提取匹配特征点,进一步包含以下过程:
(1)输入τ-1时刻图像I(τ-1)、τ时刻的图像I(τ)并输入图像I(τ-1)上的待跟踪点集{(xi,yi)|i=0,1,…,(mn-1)};
(2)以递归方式分别对输入图像I(τ-1)和图像I(τ)构建图像金字塔,如下:
(2-a)输入图像I,尺寸为W×H;所述输入图像I包含图像I(τ-1)和图像I(τ);
(2-b)令层数l=0,金字塔的第l层图像I(l)=I,尺寸W(l)×H(l)=W×H;
(2-c)令l=l+1,若l<L,转到步骤(2-d),否则,转到步骤(2-e);L表示金字塔的层数;
(2-d)根据式(14),由金字塔的第l-1层图像I(l-1),计算第l层图像I(l),然后转到步骤(2-c),循环进行;
Figure BDA0002281247140000051
(2-e)输出图像集{I(l)},l=0,1,…,L-1;
(3)对于待跟踪点集中的每一个点,逐层求解,计算金字塔光流,如下:
(3-a)输入图像I(τ-1)、I(τ)的对应的图像金子塔Pyr(τ-1)={I(l)(τ-1)}和Pyr(τ)={I(l)(τ)},l=0,1,…,L-1;
(3-b)对任一点p∈{(xi,yi)|i=0,1,…,(mn-1)},设其坐标为(x,y),按照以下步骤,计算其光流矢量;
(3-c)点p在金字塔Pyr(τ-1)的第(l-1)层图像上的坐标为:
Figure BDA0002281247140000061
(3-d)由上至下逐层求解,以上一层的光流估计结果作为下一层光流估计的起点,获得每一层的光流矢量v(l)
(3-e)最终根据式(16)求得点p的光流矢量:
Figure BDA0002281247140000062
优选地,所述步骤S2中,基于最小中值平方算法求解全局运动参数,进一步包含以下过程:
采用八参数透视模型对全局运动建模,即:
Figure BDA0002281247140000063
Figure BDA0002281247140000064
其中,(xi,yi)和(x′i,y′i)分别表示图像上的点在全局运动补偿前、后的坐标位置;si为尺度因子;a0,…,a7分别为全局运动参数;P称作单应性矩阵;
所述最小中值平方算法的计算步骤如下:
(a)输入匹配特征点对G1={(xi,yi),(x′i,y′i)},i=1,…,N,N表示匹配特征点对的数量;令k=0;
(b)k←k+1;从已获得的N对匹配特征点对中随机选4对,求解线性方程组,获得单应性矩阵
Figure BDA0002281247140000065
(c)利用单应性矩阵
Figure BDA0002281247140000066
将图像I(τ)上的所有特征点(xi,yi)映射到图像I(τ+1)中,得到特征点位置的估计值
Figure BDA0002281247140000067
Figure BDA0002281247140000068
(d)求特征点位置估计残差的中值
Figure BDA0002281247140000071
Figure BDA0002281247140000072
(e)若k<K,则重复上述步骤(b)、(c)、(d),由此获得K组数据:
Figure BDA0002281247140000073
其中,K表示参数估计的次数,为预先设定的常数;
(f)求使得残差中值最小的矩阵估计:
Figure BDA0002281247140000074
优选地,参数K的确定过程包含:
设真实数据模型的错误率为ε,则一次估计中所取的四个数据点均为内点的概率为(1-ε)4
要保证K次估计中至少有一次估计所取的数据点均为内点的概率p较大,则K需要满足:
Figure BDA0002281247140000075
确定p和ε值后,并有式(23)计算得出参数K的值。
优选地,所述步骤S2中,所述全局运动补偿进一步包含:
利用获得的全局运动参数,根据式(24)对(τ-1)时刻的目标位置pτ-1=(xτ-1,yτ-1)进行全局运动补偿,获得补偿后的位置p′τ-1=(x′τ-1,y′τ-1),作为搜索窗口的中心位置:
Figure BDA0002281247140000076
优选地,所述步骤S3中,提取位置样本和尺度样本的方法包含:
步骤S31.1、提取位置滤波窗口和尺度滤波窗口:
设经全局运动补偿后,上一帧的目标位置为p′t-1、目标尺度为st-1
跟踪其初始化模块中确定的目标基尺寸szbase、跟踪窗口基尺寸szwinbase、尺度等级nS、尺度因子序列s;
预装参数位置模型尺寸sztrans和尺度模型尺寸szscale
以上一帧的目标位置p′t-1为中心,提取大小为szwinbase×st-1的图像块,即为位置滤波窗口;
以上一帧的目标位置p′t-1为中心,提取大小为szbase×st-1×si,si∈s的图像块集,即为尺度滤波窗口,共nS个窗口;
步骤S31.2、窗口归整化:采用双线性插值法,将位置滤波窗口缩放到位置模型尺寸sztrans;将尺度滤波器窗口缩放到尺度模型尺寸szscale
步骤S31.3、特征提取:对缩放后的位置滤波窗口进行FHOG特征提取,记作zt,trans;分别对缩放后的nS个尺度滤波窗口进行FHOG提取,将获得的nS个FHOG特征压平,并在尺度方向进行特征拼接,获得多尺度FHOG特征,记作zt,scale
和/或,所述步骤S3中,压缩位置样本和尺度样本的方法包含:
步骤S32.1、设上一帧模型更新阶段获得的位置特征投影矩阵为Pt-1,trans,尺度特征投影矩阵为
Figure BDA0002281247140000083
步骤S32.2、根据式(25)压缩位置样本,根据式(26)压缩尺度样本:
Figure BDA0002281247140000081
Figure BDA0002281247140000082
和/或,所述步骤S3中,计算位置滤波频域响应图和尺度滤波频域响应图的方法包括:
步骤S33.1、根据式(27)~(28)分别将压缩后的位置样本和尺度样本变换到频域;其中,
Figure BDA0002281247140000091
Figure BDA0002281247140000092
分别表示二维傅里叶变换和一维傅里叶变换:
Figure BDA0002281247140000093
Figure BDA0002281247140000094
步骤S33.2、设上一帧模型更新阶段获得的位置滤波器的分子和分母分别为
Figure BDA0002281247140000095
Figure BDA0002281247140000096
尺度滤波器的分子和分母分别为
Figure BDA0002281247140000097
Figure BDA0002281247140000098
预装参数归整化权重为λ;
Figure BDA00022812471400000919
表示位置样本压缩后的维度,压缩前维度为d;根据式(29)~(30)分别计算位置滤波频域响应图
Figure BDA0002281247140000099
和尺度滤波频域响应图
Figure BDA00022812471400000910
Figure BDA00022812471400000911
Figure BDA00022812471400000912
和/或,所述步骤S3中,计算位置滤波空域响应图和尺度滤波空域响应图的方法如下:
步骤S34.1、频率响应图升采样:根据频域特性将位置滤波频域响应图
Figure BDA00022812471400000913
升采样到位置模型尺寸,记作Yt,trans;将尺度滤波频域响应图
Figure BDA00022812471400000914
升采样到插值后尺度等级nSI尺寸,记作Yt,scale
步骤S34.2、根据式(31)~(32)分别将插值后的位置滤波频域响应图Yt,trans和尺度滤波频域响应图Yt,scale变换到空域;其中,
Figure BDA00022812471400000915
Figure BDA00022812471400000916
分别表示二维傅里叶反变换和一维傅里叶反变换:
Figure BDA00022812471400000917
Figure BDA00022812471400000918
和/或,所述步骤S3中,位置估计和尺度估计的方法包含:
步骤S35.1、位置估计:根据式(33),通过最大化位置滤波空域响应yt,trans,估计位移矢量
Figure BDA0002281247140000101
其中,T={(tx,ty)}为位移矩阵;根据式(34),获得当前帧目标位置估计pt
Figure BDA0002281247140000102
Figure BDA0002281247140000103
步骤S35.2、尺度估计:根据式(35),通过最大化尺度滤波空域响应yt,scale,获得当前帧目标尺度因子s;根据式(36),获得当前帧目标尺度估计st
Figure BDA0002281247140000104
st=st-1×s (36)
步骤S35.3、输出当前帧目标位置pt和当前帧尺寸szt=floor(szbase×st);其中,floor(·)表示向下取整;
和/或,所述步骤S3中,自适应更新尺度增量因子的方法包含:
若连续N帧满足式(37):
lg(st)/lg(α)≥(nSI-3), (37)
令α←α+0.03,p0=pt,s0=st,并更新尺度因子序列s、插值后的尺度因子序列sI、尺度滤波预期响应Gscale和尺度滤波汉宁窗hscale
优选地,所述步骤S4中,更新位置模型目标模板和尺度模型目标目标模板的方法包含:
步骤S41.1、设提取的位置样本和尺度样本分别为ft,trans和ft,scale
步骤S41.2、根据式(38)~(39),分别更新位置模型目标模板ut,trans和尺度模型目标模板ut,scale
Figure BDA0002281247140000105
Figure BDA0002281247140000106
其中,η表示模型学习率;
和/或,所述步骤S4中,构建位置特征投影矩阵和尺度特征投影矩阵的方法包含:
步骤S42.1、构建位置特征投影矩阵:对位置模型目标模板ut,trans的自相关矩阵进行奇异值分解,取前dtrans个最大的特征值对应的特征向量,构成位置特征投影矩阵Pt,trans;其中,dtrans为算法预装参数,表示压缩后位置特征的维度;
步骤S42.2、构建尺度特征投影矩阵:分别对尺度模型目标模板ut,scale和尺度样本ft,scale进行奇异值分解,对应地获得尺度特征投影矩阵
Figure BDA0002281247140000111
Figure BDA0002281247140000112
和/或,所述步骤S4中,更新位置模型和尺度模型的方法包含:
步骤S43.1、更新位置模型:根据式(40)分别压缩目标模板和位置样本;根据式(41)将其变换到频域;根据式(42)更新位置模型;其中,
Figure BDA0002281247140000113
为位置模型的分子,
Figure BDA0002281247140000114
为位置模型的分子,η为模型学习率:
Figure BDA0002281247140000115
Figure BDA0002281247140000116
Figure BDA0002281247140000117
其中,
Figure BDA0002281247140000118
表示位置滤波预期响应Gtrans的共轭,
Figure BDA0002281247140000119
表示
Figure BDA00022812471400001110
的共轭;
步骤S43.2、更新尺度模型:根据式(43)分别压缩目标模板和尺度样本;根据式(44)将其变换到频域;根据式(45)更新尺度模型,其中,
Figure BDA00022812471400001111
为位置模型的分子,
Figure BDA00022812471400001112
为位置模型的分子,η为模型学习率:
Figure BDA00022812471400001113
Figure BDA0002281247140000121
Figure BDA0002281247140000122
其中,
Figure BDA0002281247140000123
表示位置滤波预期响应Gscale的共轭,
Figure BDA0002281247140000124
表示
Figure BDA0002281247140000125
的共轭。
与现有技术相比,本发明的有益效果在于:
(1)本发明利用金字塔光流法(PyrLK)和最小中值平方法进行相邻帧间的全局运动估计,从而对前一帧位置进行全局运动补偿;本发明提取均匀特征点作为金字塔光流法的输入:一方面,能够确保特征点在背景上均匀分布;另一方面,在图像尺寸已知的情况下,几乎没有时间消耗;
(2)本发明通过对前一帧位置进行全局运动补偿,确定搜索区域的中心位置。一方面,不需要在前端增加稳像模块,就可以缩小位置滤波的搜索区域,显著减小了算法的运算量;另一方面,减小了搜索区域中心位置与当前帧目标位置的距离,使得位置滤波与尺度滤波的并行计算成为可能,显著提高了算法效率;
(3)本发明在尺度滤波中,采用自适应尺度增量因子,提高了尺度估计的准确率,从而增大了目标跟踪的成功率。
附图说明
图1为本发明的针对抵近飞行过程的目标跟踪算法流程图;
图2为本发明的金字塔跟踪图解。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
如图1-图2所示,本发明提供了一种针对抵近飞行过程的目标跟踪方法,包括以下步骤:
步骤S1、跟踪器初始化:根据初始目标位置和尺度及跟踪器预装参数进行跟踪器初始化。
示例地,所述步骤S1中,进一步包含:如图1所示,当时间t=1时,开始跟踪,记外部输入的目标初始位置和尺寸分别为p0和sz0,此时要根据初始目标位置和尺度及跟踪器预装参数进行跟踪其初始化;具体如下:
步骤S1.1、输入初始目标位置p0、初始目标尺寸sz0、初始目标尺寸缩放因子κresize、目标区域扩展因子κpadding、位置滤波器预期响应标准差因子κσ,trans、尺度等级nS、插值后尺度等级nSI、尺度滤波器预期响应标准差因子κσ,scale、尺度增量因子α。
步骤S1.2、根据下式(1)初始化当前目标位置pt和当前目标尺度因子st
Figure BDA0002281247140000131
步骤S1.3、根据下式(2)初始化目标基尺寸szbase和跟踪窗口基尺寸szwinbase
Figure BDA0002281247140000132
步骤S1.4、初始化位置滤波预期响应:首先,根据式(3)计算位置滤波预期响应标准σtrans;然后,生成位移矩阵T={(tx,ty)};接着,根据式(4)计算空域位置滤波预期响应gtrans(tx,ty);最后,根据式(5),通过二维傅里叶变换获得频域位置滤波器预期响应Gtrans;如下:
σtrans=κσ,trans×prod(szbase)/rf (3)
Figure BDA0002281247140000133
Figure BDA0002281247140000134
其中,tx表示x表示方向的位移,ty表示y方向的位移。
步骤S1.5、根据下式(6)初始化位置滤波汉宁窗:
Figure BDA0002281247140000141
其中,h和w分别表示位置滤波器的高度和宽度,即模型尺寸。
步骤S1.6、初始化尺度滤波预期响应:首先,根据式(7)计算尺度滤波预期响应标准差σscale;然后,根据式(8)生成尺度因子序列s和sI;接着,根据式(9)计算空域尺度滤波预期响应gscale(si);最后,根据式(10),通过二维傅里叶变换获得频域尺度滤波器预期响应Gscale;如下:
σscale=κσ,scale×nSI (7)
Figure BDA0002281247140000142
Figure BDA0002281247140000143
Figure BDA0002281247140000144
步骤S1.7、根据下式(11)初始化尺度滤波汉宁窗:
Figure BDA0002281247140000145
步骤S1.8、输出当前目标位置pt、当前目标尺度因子st、目标基尺寸szbase、跟踪窗口基尺寸szwinbase、位置滤波预期响应Gtrans、位置滤波汉宁窗htrans、尺度因子序列s、插值后的尺度因子序列sI、尺度滤波预期响应Gscale和尺度滤波汉宁窗hscale
步骤S2、确定搜索窗口中心位置:首先,在上一帧提取均匀特征点作为局部特征;然后,采用PyrLK光流法在当前帧提取匹配特征点;接着,基于LMedS算法求解全局运动参数;最后,对上一帧目标中心位置进行全局运动补偿,作为搜索窗口的中心位置。
示例地,所述步骤S2中进一步包含:
步骤S2.1、提取均匀特征点:输入τ-1时刻的图像I(τ-1),尺寸为[W,H],采样步长为s,则对输入图像进行均匀特征点提取的结果为:
{(xi,yi)|i=0,1,…,(mn-1)}; (12)
其中,m=floor((W+s-1)/s),n=floor((H+s-1)/s),W和H分别表示图像的宽度和高度;(xi,yi)为第i个特征点的坐标,如下:
Figure BDA0002281247140000151
其中,floor(·)为向下取整函数;mod(a,b)为a被b整除的余数。
步骤S2.2、基于PyrLK光流法匹配特征点;
如图2所示,输入前一帧图像、当前帧图像以及前一帧图像上的待跟踪点集,金字塔跟踪过程如下:首先,以递归方式自底向上对前一帧图像和当前帧图像构建图像金字塔;然后,对于待跟踪点集中的每一个点,自顶向下逐层求解,获得每一层的光流矢量;最后根据金字塔各层图像之间的比例关系,合成这些光流矢量,获得光流矢量,从而获得待跟踪点的匹配特征点。
所述步骤S2.2进一步包含:
(1)输入τ-1时刻的图像I(τ-1)、τ时刻(当前时刻)的图像I(τ)和图像I(τ-1)上的待跟踪点集{(xi,yi)|i=0,1,…,(mn-1)};
(2)首先,以递归方式分别对输入图像I(τ-1)和图像I(τ)构建图像金字塔,如下:
(2-a)输入图像I(例如I(τ-1)或I(τ)),尺寸为W×H;
(2-b)令层数l=0,金字塔的第l层图像I(l)=I,尺寸W(l)×H(l)=W×H;
(2-c)令l=l+1,若l<L,转到步骤(2-d),否则,转到步骤(2-e);其中,L表示金字塔的层数,层数增加将会增加内存和时间成本,一般取3-5层;
(2-d)根据式(14),由金字塔的第l-1层图像I(l-1),计算第l层图像I(l),然后转到步骤(2-c),循环进行;
Figure BDA0002281247140000161
(2-e)输出图像集{I(l)},l=0,1,…,L-1。
(3)然后,对于待跟踪点集中的每一个点,逐层求解,计算金字塔光流,如下:
(3-a)输入图像I(τ-1)、I(τ)的图像金子塔Pyr(τ-1)={I(l)(τ-1)}和Pyr(τ)={I(l)(τ)},l=0,1,…,L-1;
(3-b)对任一点p∈{(xi,yi)|i=0,1,…,(mn-1)},设其坐标为(x,y),按照以下步骤,计算其光流矢量;
(3-c)点p在金字塔Pyr(τ-1)的第(l-1)层图像上的坐标为:
Figure BDA0002281247140000162
(3-d)由上至下(即自顶向下)逐层求解,以上一层的光流估计结果作为下一层光流估计的起点,获得每一层的光流矢量v(l),如图2所示;其中,图像金字塔的构是由高分辨率到低分辨率以递归的方式构建的,图像尺寸由大到小,即由金字塔的底部向金字塔的顶部方向依次构建。而光流的求解过程是由金字塔的顶部向金字塔的底部依次求解,最终得到在原始图像尺寸上的光流矢量。
(3-e)最终,根据式(16)求得点p的光流矢量:
Figure BDA0002281247140000163
步骤S2.3、基于LMedS算法求解全局运动参数:采用八参数透视模型对全局运动建模,即:
Figure BDA0002281247140000171
Figure BDA0002281247140000172
其中,(xi,yi)和(x′i,y′i)分别表示图像上的点在全局运动补偿前、后的坐标位置;si为尺度因子;a0,…,a7分别为全局运动参数;P也称作单应性矩阵;本发明采用抗噪性能较好的最小中值平方(Least median of squares,LMedS)算法进行全局运动参数估计,该算法的步骤如下:
(a)输入匹配特征点对G1={(xi,yi),(x′i,y′i)},i=1,…,N,N表示匹配特征点对的数量;k为用于计数的参数,令k=0;
(b)k←k+1;从已获得的N对匹配特征点对中随机选4对(任意三点不共线),求解线性方程组,获得单应性矩阵
Figure BDA0002281247140000173
(c)利用矩阵
Figure BDA0002281247140000174
将图像I(τ)上的所有特征点(xi,yi)映射到图像I(τ+1)中,得到特征点位置的估计值
Figure BDA0002281247140000175
即:
Figure BDA0002281247140000176
(d)求特征点位置估计残差的中值
Figure BDA0002281247140000177
即:
Figure BDA0002281247140000178
(e)若k<K,则重复步骤(b)、(c)、(d),由此获得K组数据:
Figure BDA0002281247140000179
(f)求使得残差中值最小的矩阵估计:
Figure BDA00022812471400001710
(g)采用LM(Levenberg-Marquardt)算法,利用所有内点精确优化模型参数。其中,K表示参数估计的次数,为预先设定的常数,大于步骤(g)中算出的值。下面为确定参数K的过程:设真实数据模型的错误率(即错匹配点占特征点集的比例)为ε,则一次估计中所取的四个数据点均为内点的概率为(1-ε)4;要保证“K次估计中至少有一次估计所取的数据点均为内点”的概率p较大,则K需要满足:
Figure BDA0002281247140000181
令p=0.995,ε=0.45,由式(23)计算得K≈56;因此,即使匹配点对中有45%的错匹配,也仅需进行56次估计就可以获得全局最优的参数估计。
步骤S2.4、全局运动补偿:利用前面获得的全局运动参数,根据式(24)对(τ-1)时刻的目标位置pτ-1=(xτ-1,yτ-1)进行全局运动补偿,获得补偿后的位置p′τ-1=(x′τ-1,y′τ-1),作为搜索窗口的中心位置:
Figure BDA0002281247140000182
步骤S3、位置滤波和尺度滤波:首先,根据搜索窗口中心位置和上一帧目标尺度,提取位置样本和尺度样本;然后,压缩位置样本和尺度样本;接着,分别计算位置滤波频域响应图和尺度滤波频域响应图;再计算位置滤波空域响应图和尺度滤波空域响应图,并进行位置估计和尺度估计;最后,自适应更新尺度增量因子。
所述步骤S3中,所述提取位置样本和尺度样本的具体方法包括:
(31.1)提取位置滤波窗口和尺度滤波窗口:
设经全局运动补偿后,上一帧的目标位置为p′t-1、目标尺度为st-1;跟踪其初始化模块中确定的目标基尺寸szbase、跟踪窗口基尺寸szwinbase、尺度等级nS、尺度因子序列s;预装参数位置模型尺寸sztrans和尺度模型尺寸szscale
以p′t-1为中心,提取大小为szwinbase×st-1的图像块,即为位置滤波窗口;
以p′t-1为中心,提取大小为szbase×st-1×si,si∈s的图像块集,即为尺度滤波窗口,共nS个窗口。
(31.2)窗口归整化:采用双线性插值法,将位置滤波窗口缩放到位置模型尺寸sztrans;将尺度滤波器窗口缩放到尺度模型尺寸szscale
(31.3)特征提取:对缩放后的位置滤波窗口进行FHOG特征提取,记作zt,trans;分别对缩放后的nS个尺度滤波窗口进行FHOG提取,将获得的nS个FHOG特征压平,并在尺度方向进行特征拼接,获得多尺度FHOG特征,记作zt,scale
所述步骤S3中,所述压缩位置样本和尺度样本的具体方法包括:
(32.1)设上一帧模型更新阶段获得的位置特征投影矩阵为Pt-1,trans,尺度特征投影矩阵为
Figure BDA0002281247140000191
(32.2)根据式(25)压缩位置样本,根据式(26)压缩尺度样本:
Figure BDA0002281247140000192
Figure BDA0002281247140000193
所述步骤S3中,计算位置滤波频域响应图和尺度滤波频域响应图的具体方法包括:
(33.1)根据式(27)~(28),分别将压缩后的位置样本和尺度样本变换到频域;其中,
Figure BDA0002281247140000194
Figure BDA0002281247140000195
分别表示二维傅里叶变换和一维傅里叶变换:
Figure BDA0002281247140000196
Figure BDA0002281247140000197
(33.2)设上一帧模型更新阶段获得的位置滤波器的分子和分母分别为
Figure BDA0002281247140000201
Figure BDA0002281247140000202
尺度滤波器的分子和分母分别为
Figure BDA0002281247140000203
Figure BDA0002281247140000204
预装参数归整化权重为λ;
Figure BDA0002281247140000205
表示位置样本压缩后的维度,压缩前维度为d。根据式(29)~(30),分别计算位置滤波频域响应图
Figure BDA0002281247140000206
和尺度滤波频域响应图
Figure BDA0002281247140000207
Figure BDA0002281247140000208
Figure BDA0002281247140000209
所述步骤S3中,所述计算位置滤波空域响应图和尺度滤波空域响应图的具体方法如下:
(34.1)频率响应图升采样:根据频域特性,将位置滤波频域响应图
Figure BDA00022812471400002010
升采样到位置模型尺寸,记作Yt,trans;将尺度滤波频域响应图
Figure BDA00022812471400002011
升采样到插值后尺度等级nSI尺寸,记作Yt,scale
(34.2)根据式(31)~(32),分别将插值后的位置滤波频域响应图Yt,trans和尺度滤波频域响应图Yt,scale变换到空域;其中,
Figure BDA00022812471400002012
Figure BDA00022812471400002013
分别表示二维傅里叶反变换和一维傅里叶反变换:
Figure BDA00022812471400002014
Figure BDA00022812471400002015
所述步骤S3中,所述位置估计和尺度估计的具体方法如下:
(35.1)位置估计:首先,根据式(33),通过最大化位置滤波空域响应yt,trans,估计位移矢量
Figure BDA00022812471400002016
其中,T={(tx,ty)}为位移矩阵;然后,根据式(34),获得当前帧目标位置估计pt
Figure BDA00022812471400002017
Figure BDA00022812471400002018
(35.2)尺度估计:根据式(35),通过最大化尺度滤波空域响应yt,scale,获得当前帧目标尺度因子s;然后,根据式(36),获得当前帧目标尺度估计st
Figure BDA0002281247140000211
st=st-1×s (36)
(35.3)输出当前帧目标位置和尺寸:当前帧目标位置为pt,当前帧目标尺寸为szt=floor(szbase×st);其中,floor(·)表示向下取整。
所述步骤S3中,所述自适应更新尺度增量因子的具体方法如下:
(36.1)若连续N帧满足式(37):
lg(st)/lg(α)≥(nSI-3), (37)
则令α←α+0.03,p0=pt,s0=st,并更新尺度因子序列s,插值后的尺度因子序列sI,尺度滤波预期响应Gscale,尺度滤波汉宁窗hscale
步骤S4、更新位置模型和尺度模型:首先,根据当前帧目标位置和尺度,采用与滤波模块一样的特征提取方法,提取位置样本和尺度样本;然后,更新位置模型目标模板和尺度模型目标模板;接着,分别构建位置特征投影矩阵和尺度特征投影矩阵;最后,分别更新位置模型和尺度模型。
所述步骤S4中,所述更新位置模型目标模板和尺度模型目标目标模板的具体方法如下:
(41.1)设提取的位置样本和尺度样本分别为ft,trans和ft,scale
(41.2)根据式(38)~(39),分别更新位置模型目标模板ut,trans和尺度模型目标模板ut,scale
Figure BDA0002281247140000221
Figure BDA0002281247140000222
其中,η表示模型学习率。
所述步骤S4中,所述构建位置特征投影矩阵和尺度特征投影矩阵的具体方法如下:
(42.1)构建位置特征投影矩阵:对位置模型目标模板ut,trans的自相关矩阵进行奇异值分解,取前dtrans个最大的特征值对应的特征向量,构成位置特征投影矩阵Pt,trans;其中,dtrans为算法预装参数,表示压缩后位置特征的维度。
(42.2)构建尺度特征投影矩阵:分别对尺度模型目标模板ut,scale和尺度样本ft,scale进行奇异值分解,获得尺度特征投影矩阵
Figure BDA0002281247140000223
Figure BDA0002281247140000224
所述步骤S4中,所述更新位置模型和尺度模型的具体方法如下:
(43.1)更新位置模型:首先,根据式(40)分别压缩目标模板和位置样本;然后,根据式(41)将其变换到频域;最后,根据式(42)更新位置模型,其中,
Figure BDA0002281247140000225
为位置模型的分子,
Figure BDA0002281247140000226
为位置模型的分子,η为模型学习率:
Figure BDA0002281247140000227
Figure BDA0002281247140000228
Figure BDA0002281247140000229
其中,
Figure BDA00022812471400002210
表示位置滤波预期响应Gtrans的共轭,
Figure BDA00022812471400002211
表示
Figure BDA00022812471400002212
的共轭。
(43.2)更新尺度模型:首先,根据式(43)分别压缩目标模板和尺度样本;然后,根据式(44)将其变换到频域;最后,根据式(45)更新尺度模型,其中,
Figure BDA0002281247140000231
为位置模型的分子,
Figure BDA0002281247140000232
为位置模型的分子,η为模型学习率:
Figure BDA0002281247140000233
Figure BDA0002281247140000234
Figure BDA0002281247140000235
其中,
Figure BDA0002281247140000236
表示位置滤波预期响应Gscale的共轭,
Figure BDA0002281247140000237
表示
Figure BDA0002281247140000238
的共轭。
综上所述,本发明利用金字塔光流法(PyrLK)和最小中值平方法进行相邻帧间的全局运动估计,从而对前一帧位置进行全局运动补偿;本发明提取均匀特征点作为金字塔光流法的输入:一方面,能够确保特征点在背景上均匀分布;另一方面,在图像尺寸已知的情况下,几乎没有时间消耗;本发明通过对前一帧位置进行全局运动补偿,确定搜索区域的中心位置。一方面,不需要在前端增加稳像模块,就可以缩小位置滤波的搜索区域,显著减小了算法的运算量;另一方面,减小了搜索区域中心位置与当前帧目标位置的距离,使得位置滤波与尺度滤波的并行计算成为可能,显著提高了算法效率;本发明在尺度滤波中,采用自适应尺度增量因子,提高了尺度估计的准确率,从而增大了目标跟踪的成功率。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (9)

1.一种针对抵近飞行过程的目标跟踪方法,其特征在于,包含以下步骤:
S1、跟踪器初始化:根据初始目标位置与尺度及跟踪器预装参数进行跟踪器初始化;
S2、确定搜索窗口中心位置:将上一帧提取均匀特征点作为局部特征,在当前帧提取匹配特征点,求解全局运动参数,对上一帧目标中心位置进行全局运动补偿,作为搜索窗口的中心位置;
步骤S3、位置滤波和尺度滤波:根据搜索窗口中心位置和上一帧目标尺度,提取位置样本和尺度样本;压缩位置样本和尺度样本;分别计算位置滤波频域响应图和尺度滤波频域响应图;计算位置滤波空域响应图和尺度滤波空域响应图,并进行位置估计和尺度估计;自适应更新尺度增量因子;
步骤S4、更新位置模型和尺度模型:根据当前帧目标位置和尺度,采用与滤波模块一样的特征提取方法,提取位置样本和尺度样本;更新位置模型目标模板和尺度模型目标模板;分别构建位置特征投影矩阵和尺度特征投影矩阵;分别更新位置模型和尺度模型。
2.如权利要求1所述的针对抵近飞行过程的目标跟踪方法,其特征在于,所述步骤S1中,进一步包含:
步骤S1.1、输入初始目标位置p0、初始目标尺寸sz0、初始目标尺寸缩放因子κresize、目标区域扩展因子κpadding、位置滤波器预期响应标准差因子κσ,trans、尺度等级nS、插值后尺度等级nSI、尺度滤波器预期响应标准差因子κσ,scale与尺度增量因子α;
步骤S1.2、初始化当前目标位置pt和当前目标尺度因子st
Figure FDA0002281247130000011
步骤S1.3、初始化目标基尺寸szbase和跟踪窗口基尺寸szwinbase
Figure FDA0002281247130000012
步骤S1.4、初始化位置滤波预期响应:根据式(3)计算位置滤波预期响应标准σtrans;生成位移矩阵T={(tx,ty)};根据式(4)计算空域位置滤波预期响应gtrans(tx,ty);根据式(5)并通过二维傅里叶变换获得频域位置滤波器预期响应Gtrans
σtrans=κσ,trans×prod(szbase)/rf (3)
Figure FDA0002281247130000021
Figure FDA0002281247130000022
其中,tx表示x表示方向的位移,ty表示y方向的位移;
步骤S1.5、初始化位置滤波汉宁窗:
Figure FDA0002281247130000023
其中,h和w分别表示位置滤波器的高度和宽度;
步骤S1.6、初始化尺度滤波预期响应:根据式(7)计算尺度滤波预期响应标准差σscale;根据式(8)生成尺度因子序列s和sI;根据式(9)计算空域尺度滤波预期响应gscale(si);根据式(10)并通过二维傅里叶变换获得频域尺度滤波器预期响应Gscale
σscale=κσ,scale×nSI (7)
Figure FDA0002281247130000024
Figure FDA0002281247130000025
Figure FDA0002281247130000026
步骤S1.7、初始化尺度滤波汉宁窗:
Figure FDA0002281247130000027
步骤S1.8、输出当前目标位置pt、当前目标尺度因子st、目标基尺寸szbase、跟踪窗口基尺寸szwinbase、位置滤波预期响应Gtrans、位置滤波汉宁窗htrans、尺度因子序列s、插值后的尺度因子序列sI、尺度滤波预期响应Gscale和尺度滤波汉宁窗hscale
3.如权利要求2所述的针对抵近飞行过程的目标跟踪方法,其特征在于,所述步骤S2中,进一步包含以下过程:
输入τ-1时刻的图像I(τ-1),尺寸为[W,H],采样步长为s,对输入图像进行均匀特征点提取的结果为:
{(xi,yi)|i=0,1,…,(mn-1)}; (12)
其中,m=floor((W+s-1)/s);n=floor((H+s-1)/s);(xi,yi)为第i个特征点的坐标,如下:
Figure FDA0002281247130000031
其中,floor(·)为向下取整函数;mod(a,b)为a被b整除的余数。
4.如权利要求3所述的针对抵近飞行过程的目标跟踪方法,其特征在于,所述步骤S2中,采用PyrLK光流法在当前帧提取匹配特征点,进一步包含以下过程:
(1)输入τ-1时刻图像I(τ-1)、τ时刻的图像I(τ)并输入图像I(τ-1)上的待跟踪点集{(xi,yi)|i=0,1,…,(mn-1)};
(2)以递归方式分别对输入图像I(τ-1)和图像I(τ)构建图像金字塔,如下:
(2-a)输入图像I,尺寸为W×H;所述输入图像I包含图像I(τ-1)和图像I(τ);
(2-b)令层数l=0,金字塔的第l层图像I(l)=I,尺寸W(l)×H(l)=W×H;
(2-c)令l=l+1,若l<L,转到步骤(2-d),否则,转到步骤(2-e);L表示金字塔的层数;
(2-d)根据式(14),由金字塔的第l-1层图像I(l-1),计算第l层图像I(l),然后转到步骤(2-c),循环进行;
Figure FDA0002281247130000041
(2-e)输出图像集{I(l)},l=0,1,…,L-1;
(3)对于待跟踪点集中的每一个点,逐层求解,计算金字塔光流,如下:
(3-a)输入图像I(τ-1)、I(τ)的对应的图像金子塔Pyr(τ-1)={I(l)(τ-1)}和Pyr(τ)={I(l)(τ)},l=0,1,…,L-1;
(3-b)对任一点p∈{(xi,yi)|i=0,1,…,(mn-1)},设其坐标为(x,y),按照以下步骤,计算其光流矢量;
(3-c)点p在金字塔Pyr(τ-1)的第(l-1)层图像上的坐标为:
Figure FDA0002281247130000042
(3-d)由上至下逐层求解,以上一层的光流估计结果作为下一层光流估计的起点,获得每一层的光流矢量v(l)
(3-e)最终根据式(16)求得点p的光流矢量:
Figure FDA0002281247130000043
5.如权利要求4所述的针对抵近飞行过程的目标跟踪方法,其特征在于,所述步骤S2中,基于最小中值平方算法求解全局运动参数,进一步包含以下过程:
采用八参数透视模型对全局运动建模,即:
Figure FDA0002281247130000051
Figure FDA0002281247130000052
其中,(xi,yi)和(x′i,y′i)分别表示图像上的点在全局运动补偿前、后的坐标位置;si为尺度因子;a0,…,a7分别为全局运动参数;P称作单应性矩阵;
所述最小中值平方算法的计算步骤如下:
(a)输入匹配特征点对G1={(xi,yi),(x′i,y′i)},i=1,…,N,N表示匹配特征点对的数量;令k=0;
(b)k←k+1;从已获得的N对匹配特征点对中随机选4对,求解线性方程组,获得单应性矩阵
Figure FDA0002281247130000053
(c)利用单应性矩阵
Figure FDA0002281247130000054
将图像I(τ)上的所有特征点(xi,yi)映射到图像I(τ+1)中,得到特征点位置的估计值
Figure FDA0002281247130000055
Figure FDA0002281247130000056
(d)求特征点位置估计残差的中值
Figure FDA0002281247130000057
Figure FDA0002281247130000058
(e)若k<K,则重复上述步骤(b)、(c)、(d),由此获得K组数据:
Figure FDA0002281247130000059
其中,K表示参数估计的次数,为预先设定的常数;
(f)求使得残差中值最小的矩阵估计:
Figure FDA00022812471300000510
6.如权利要求5所述的针对抵近飞行过程的目标跟踪方法,其特征在于,参数K的确定过程包含:
设真实数据模型的错误率为ε,则一次估计中所取的四个数据点均为内点的概率为(1-ε)4
要保证K次估计中至少有一次估计所取的数据点均为内点的概率p较大,则K需要满足:
Figure FDA0002281247130000061
确定p和ε值后,并有式(23)计算得出参数K的值。
7.如权利要求6所述的针对抵近飞行过程的目标跟踪方法,其特征在于,所述步骤S2中,所述全局运动补偿进一步包含:
利用获得的全局运动参数,根据式(24)对(τ-1)时刻的目标位置pτ-1=(xτ-1,yτ-1)进行全局运动补偿,获得补偿后的位置p′τ-1=(x′τ-1,y′τ-1),作为搜索窗口的中心位置:
Figure FDA0002281247130000062
8.如权利要求7所述的针对抵近飞行过程的目标跟踪方法,其特征在于,所述步骤S3中,提取位置样本和尺度样本的方法包含:
步骤S31.1、提取位置滤波窗口和尺度滤波窗口:
设经全局运动补偿后,上一帧的目标位置为p′t-1、目标尺度为st-1
跟踪其初始化模块中确定的目标基尺寸szbase、跟踪窗口基尺寸szwinbase、尺度等级nS、尺度因子序列s;
预装参数位置模型尺寸sztrans和尺度模型尺寸szscale
以上一帧的目标位置p′t-1为中心,提取大小为szwinbase×st-1的图像块,即为位置滤波窗口;
以上一帧的目标位置p′t-1为中心,提取大小为szbase×st-1×si,si∈s的图像块集,即为尺度滤波窗口,共nS个窗口;
步骤S31.2、窗口归整化:采用双线性插值法,将位置滤波窗口缩放到位置模型尺寸sztrans;将尺度滤波器窗口缩放到尺度模型尺寸szscale
步骤S31.3、特征提取:对缩放后的位置滤波窗口进行FHOG特征提取,记作zt,trans;分别对缩放后的nS个尺度滤波窗口进行FHOG提取,将获得的nS个FHOG特征压平,并在尺度方向进行特征拼接,获得多尺度FHOG特征,记作zt,scale
和/或,所述步骤S3中,压缩位置样本和尺度样本的方法包含:
步骤S32.1、设上一帧模型更新阶段获得的位置特征投影矩阵为Pt-1,trans,尺度特征投影矩阵为
Figure FDA0002281247130000071
步骤S32.2、根据式(25)压缩位置样本,根据式(26)压缩尺度样本:
Figure FDA0002281247130000072
Figure FDA0002281247130000073
和/或,所述步骤S3中,计算位置滤波频域响应图和尺度滤波频域响应图的方法包括:
步骤S33.1、根据式(27)~(28)分别将压缩后的位置样本和尺度样本变换到频域;其中,
Figure FDA0002281247130000074
Figure FDA0002281247130000075
分别表示二维傅里叶变换和一维傅里叶变换:
Figure FDA0002281247130000076
Figure FDA0002281247130000077
步骤S33.2、设上一帧模型更新阶段获得的位置滤波器的分子和分母分别为
Figure FDA0002281247130000078
Figure FDA0002281247130000079
尺度滤波器的分子和分母分别为
Figure FDA00022812471300000710
Figure FDA00022812471300000711
预装参数归整化权重为λ;
Figure FDA00022812471300000712
表示位置样本压缩后的维度,压缩前维度为d;根据式(29)~(30)分别计算位置滤波频域响应图
Figure FDA0002281247130000081
和尺度滤波频域响应图
Figure FDA0002281247130000082
Figure FDA0002281247130000083
Figure FDA0002281247130000084
和/或,所述步骤S3中,计算位置滤波空域响应图和尺度滤波空域响应图的方法如下:
步骤S34.1、频率响应图升采样:根据频域特性将位置滤波频域响应图
Figure FDA0002281247130000085
升采样到位置模型尺寸,记作Yt,trans;将尺度滤波频域响应图
Figure FDA0002281247130000086
升采样到插值后尺度等级nSI尺寸,记作Yt,scale
步骤S34.2、根据式(31)~(32)分别将插值后的位置滤波频域响应图Yt,trans和尺度滤波频域响应图Yt,scale变换到空域;其中,
Figure FDA0002281247130000087
Figure FDA0002281247130000088
分别表示二维傅里叶反变换和一维傅里叶反变换:
Figure FDA0002281247130000089
Figure FDA00022812471300000810
和/或,所述步骤S3中,位置估计和尺度估计的方法包含:
步骤S35.1、位置估计:根据式(33),通过最大化位置滤波空域响应yt,trans,估计位移矢量
Figure FDA00022812471300000811
其中,T={(tx,ty)}为位移矩阵;根据式(34),获得当前帧目标位置估计pt
Figure FDA00022812471300000812
Figure FDA00022812471300000813
步骤S35.2、尺度估计:根据式(35),通过最大化尺度滤波空域响应yt,scale,获得当前帧目标尺度因子s;根据式(36),获得当前帧目标尺度估计st
Figure FDA00022812471300000814
st=st-1×s (36)
步骤S35.3、输出当前帧目标位置pt和当前帧尺寸szt=floor(szbase×st);其中,floor(·)表示向下取整;
和/或,所述步骤S3中,自适应更新尺度增量因子的方法包含:
若连续N帧满足式(37):
lg(st)/lg(α)≥(nSI-3), (37)
令α←α+0.03,p0=pt,s0=st,并更新尺度因子序列s、插值后的尺度因子序列sI、尺度滤波预期响应Gscale和尺度滤波汉宁窗hscale
9.如权利要求8所述的针对抵近飞行过程的目标跟踪方法,其特征在于,所述步骤S4中,更新位置模型目标模板和尺度模型目标目标模板的方法包含:
步骤S41.1、设提取的位置样本和尺度样本分别为ft,trans和ft,scale
步骤S41.2、根据式(38)~(39),分别更新位置模型目标模板ut,trans和尺度模型目标模板ut,scale
Figure FDA0002281247130000091
Figure FDA0002281247130000092
其中,η表示模型学习率;
和/或,所述步骤S4中,构建位置特征投影矩阵和尺度特征投影矩阵的方法包含:
步骤S42.1、构建位置特征投影矩阵:对位置模型目标模板ut,trans的自相关矩阵进行奇异值分解,取前dtrans个最大的特征值对应的特征向量,构成位置特征投影矩阵Pt,trans;其中,dtrans为算法预装参数,表示压缩后位置特征的维度;
步骤S42.2、构建尺度特征投影矩阵:分别对尺度模型目标模板ut,scale和尺度样本ft,scale进行奇异值分解,对应地获得尺度特征投影矩阵
Figure FDA0002281247130000101
Figure FDA0002281247130000102
和/或,所述步骤S4中,更新位置模型和尺度模型的方法包含:
步骤S43.1、更新位置模型:根据式(40)分别压缩目标模板和位置样本;根据式(41)将其变换到频域;根据式(42)更新位置模型;其中,
Figure FDA0002281247130000103
为位置模型的分子,
Figure FDA0002281247130000104
为位置模型的分子,η为模型学习率:
Figure FDA0002281247130000105
Figure FDA0002281247130000106
Figure FDA0002281247130000107
其中,
Figure FDA0002281247130000108
表示位置滤波预期响应Gtrans的共轭,
Figure FDA0002281247130000109
表示
Figure FDA00022812471300001010
的共轭;步骤S43.2、更新尺度模型:根据式(43)分别压缩目标模板和尺度样本;根据式(44)将其变换到频域;根据式(45)更新尺度模型,其中,
Figure FDA00022812471300001011
为位置模型的分子,
Figure FDA00022812471300001012
为位置模型的分子,η为模型学习率:
Figure FDA00022812471300001013
Figure FDA00022812471300001014
Figure FDA00022812471300001015
Figure FDA00022812471300001016
其中,
Figure FDA00022812471300001017
表示位置滤波预期响应Gscale的共轭,
Figure FDA00022812471300001018
表示
Figure FDA00022812471300001019
的共轭。
CN201911142176.XA 2019-11-20 2019-11-20 一种针对抵近飞行过程的目标跟踪方法 Active CN110910425B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911142176.XA CN110910425B (zh) 2019-11-20 2019-11-20 一种针对抵近飞行过程的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911142176.XA CN110910425B (zh) 2019-11-20 2019-11-20 一种针对抵近飞行过程的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN110910425A true CN110910425A (zh) 2020-03-24
CN110910425B CN110910425B (zh) 2022-10-18

Family

ID=69818264

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911142176.XA Active CN110910425B (zh) 2019-11-20 2019-11-20 一种针对抵近飞行过程的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN110910425B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112487880A (zh) * 2020-11-13 2021-03-12 河北省科学院应用数学研究所 基于最大误差准则的中值滤波器、设备和系统
CN114611400A (zh) * 2022-03-18 2022-06-10 河北金锁安防工程股份有限公司 一种预警信息筛选方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160275357A1 (en) * 2013-11-19 2016-09-22 Ramot At Tel-Aviv University Ltd. Method and system for tracking a region in a video image
CN108803655A (zh) * 2018-06-08 2018-11-13 哈尔滨工程大学 一种无人机飞行控制平台及目标跟踪方法
CN109978923A (zh) * 2019-04-04 2019-07-05 杭州电子科技大学 一种基于双模板尺度自适应相关滤波目标跟踪方法及系统
CN110222581A (zh) * 2019-05-13 2019-09-10 电子科技大学 一种基于双目相机的四旋翼无人机视觉目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160275357A1 (en) * 2013-11-19 2016-09-22 Ramot At Tel-Aviv University Ltd. Method and system for tracking a region in a video image
CN108803655A (zh) * 2018-06-08 2018-11-13 哈尔滨工程大学 一种无人机飞行控制平台及目标跟踪方法
CN109978923A (zh) * 2019-04-04 2019-07-05 杭州电子科技大学 一种基于双模板尺度自适应相关滤波目标跟踪方法及系统
CN110222581A (zh) * 2019-05-13 2019-09-10 电子科技大学 一种基于双目相机的四旋翼无人机视觉目标跟踪方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112487880A (zh) * 2020-11-13 2021-03-12 河北省科学院应用数学研究所 基于最大误差准则的中值滤波器、设备和系统
CN114611400A (zh) * 2022-03-18 2022-06-10 河北金锁安防工程股份有限公司 一种预警信息筛选方法及系统
CN114611400B (zh) * 2022-03-18 2023-08-29 河北金锁安防工程股份有限公司 一种预警信息筛选方法及系统

Also Published As

Publication number Publication date
CN110910425B (zh) 2022-10-18

Similar Documents

Publication Publication Date Title
CN110503680B (zh) 一种基于非监督的卷积神经网络单目场景深度估计方法
Giachetti Matching techniques to compute image motion
CN106338733B (zh) 基于蛙眼视觉特性的前视声呐目标跟踪方法
CN110310310B (zh) 一种针对航空影像配准的改进方法
EP1235183A2 (en) Modeling shape, motion, and flexion of non-rigie 3D objects in a sequence of images
CN110796691B (zh) 一种基于形状上下文和hog特征的异源图像配准方法
WO2013048641A1 (en) Framework for reference-free drift-corrected planar tracking using lucas-kanade optical flow
CN110211169B (zh) 基于多尺度超像素和相位相关的窄基线视差的重构方法
CN110910425B (zh) 一种针对抵近飞行过程的目标跟踪方法
CN112634333B (zh) 一种基于eco算法和卡尔曼滤波的跟踪装置方法及装置
CN112465021B (zh) 基于图像插帧法的位姿轨迹估计方法
CN112927251B (zh) 基于形态学的场景稠密深度图获取方法、系统及装置
CN114996814A (zh) 一种基于深度学习与三维重建的家具设计系统
CN112288788A (zh) 单目图像深度估计方法
CN106934398B (zh) 基于超像素聚类和稀疏表示的图像去噪方法
CN113256679A (zh) 一种基于车载后视镜系统的电子稳像算法
CN113724379A (zh) 三维重建方法、装置、设备及存储介质
CN110580715B (zh) 一种基于照度约束和格网变形的图像对齐方法
Dorini et al. Unscented feature tracking
CN113642397B (zh) 一种基于手机视频的物体长度测量方法
Buchanan et al. Combining local and global motion models for feature point tracking
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN109741258A (zh) 基于重建的图像超分辨率方法
CN114782507B (zh) 一种基于无监督学习的非对称双目立体匹配方法及系统
CN115861384A (zh) 基于生成对抗和注意力机制的光流估计方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant