CN105184822B - 一种目标跟踪模板更新方法 - Google Patents
一种目标跟踪模板更新方法 Download PDFInfo
- Publication number
- CN105184822B CN105184822B CN201510632705.XA CN201510632705A CN105184822B CN 105184822 B CN105184822 B CN 105184822B CN 201510632705 A CN201510632705 A CN 201510632705A CN 105184822 B CN105184822 B CN 105184822B
- Authority
- CN
- China
- Prior art keywords
- mrow
- target
- image
- point
- msub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Abstract
本发明公开了一种目标跟踪模板更新方法,包括:判断目标跟踪模板是否需要更新;提取上一帧图像和当前帧图像的目标区域的特征点,并将上一帧图像和当前帧图像的目标区域的特征点进行匹配,重新确定跟踪目标的位置;将当前帧图像的目标区域的特征点作为新的特征点进行跟踪,以当前帧图像的目标区域作为更新后的目标跟踪模板。本发明的有益效果:目标跟踪模板更新的判断条件的设置,避免了模板跟不上目标的变化及跟踪过程中噪声的积累,使目标跟踪持续而稳定;图像高斯金字塔的建立,提高了更新的效率;特征点快速检测方法提高了特征检测的可重复性,避免了不稳定的边缘响应;适用于目标出现变化,特别是出现大角度翻转变化的目标跟踪。
Description
技术领域
本发明涉及图像处理技术领域,具体而言,涉及一种目标跟踪模板更新方法。
背景技术
目标跟踪是在序列图像中根据视频信息在空间和时间上的相关性,确定目标在每一帧的位置和姿态,其广泛应用于智能人机交互、医疗诊断、视频监控、导弹制导等众多领域。由于跟踪目标形态的多样性和目标特征变化的不确定性,如何实现各种环境下有效的目标跟踪一直是研究的热点。
基于模板匹配方法的跟踪是一种逐个像素比较的方法,其基本思路是将已知的对象作为模板在所采集的图像上进行平移,计算对象与子图像的相关值,相关值最大的认为是所要跟踪的对象。传统的相关匹配方法中是将模板的大小和形状看作保持不变的,而实际上两者总是变化的。
当目标靠近或是远离摄像机,或摄像机视场变化时,目标会变大或变小,而模板尺寸保持不变就可能造成两个问题:一是目标变小时,模板中会引入多于目标的背景像素;二是目标变大时,模板中只存在小部分目标,将没有足够的目标像素用来区分目标与背景。由于这两个问题,模板将容易与背景相匹配,而使目标跟踪的误警率上升,导致目标跟踪失败。当图像中的目标发生尺度和旋转变化时,会造成跟踪不稳定。因此,需要对模板进行更新。
模板的更新机制是一个非常重要的技术关键,将直接影响目标跟踪性能:如果更新频率过低,则模板跟不上目标的变化;如果更新过于频繁,又容易受到噪声的影响而引入误差,并使误差不断地累积,从而导致跟踪窗口的漂移。所以模板不能随便轻易地更新,必须选择适宜的模板更新准则,使目标跟踪持续而稳定。
发明内容
为解决上述问题,本发明的目的在于提供一种目标跟踪模板更新方法,在目标出现变化,特别是大角度翻转的情况下实现实时稳定跟踪。
本发明提供了一种目标跟踪模板更新方法,包括:
步骤1,判断目标跟踪模板是否需要更新,如果所述目标跟踪模板需要更新,则进行步骤2;
其中,判断目标跟踪模板是否需要更新的方法为满足下列四个条件之一,则需要对当前目标跟踪模板进行更新:
条件一,相邻两帧图像中跟踪目标区域的面积变化超过15%;
条件二,连续两帧图像的目标质心坐标变化超过10%;
条件三,当前帧图像的特征点比上一帧图像的特征点减少了30%以上;
条件四,当边缘区域的特征点占总的特征点的75%以上;
步骤2,提取上一帧图像的目标区域的特征点和当前帧图像的目标区域的特征点,并将上一帧图像的目标区域的特征点和当前帧图像的目标区域的特征点进行匹配,重新确定跟踪目标的位置;
步骤3,将当前帧图像的目标区域的特征点作为新的特征点进行跟踪,以当前帧图像的目标区域作为更新后的目标跟踪模板。
作为本发明进一步的改进,特征点的提取包括多尺度空间构建和特征点检测,首先进行图像的多尺度空间构建,然后进行特征点检测;
其中,多尺度空间构建包括:
步骤S1,利用高斯卷积核对原始图像进行平滑,得到图像的尺度空间表示;
用L(x,y,σ)表示一幅二维图像I(x,y)的尺度空间:
其中,表示卷积运算,G(x,y,σ)是卷积核可变的高斯函数;
式中,σ为图像的尺度因子,表示图像被平滑的程度;
步骤S2,建立S′组S层高斯金字塔,共S′×S层图像,得到任意层图像与0层图像之间的尺度因子关系和相邻层图像之间的尺度因子;
其中,任意层图像与0层图像之间的尺度因子关系为:
σs=σ0ks (3)
式中,σ0为第0层图像的尺度因子,σs为s层图像的尺度因子,s为高斯金字塔中图像的层序数,s={0,1,2,...};
相邻层图像之间的尺度因子为:
k=21/S (4)
式中,S为每组总层数;
特征点检测包括:
步骤S11,在建立了高斯金字塔尺度空间后,对每层图像,以一像素点p为中心点,采用Bresenham算法,得到半径为R的Bresenham圆上共有m个像素点,对圆周上每一个像素点x逐一检测,判断所述中心点p是亮点或暗点或相似点,如果有n个连续的像素点属于亮点或暗点,则p为特征点;
其中,
x∈{1,2,...,m};
如果Ix≤Ip-t,则中心点p是暗点;
如果Ip-t<Ix<Ip+t,则中心点p是相似点;
如果Ip+t≤Ix,则中心点p是亮点;
式中,Ip表示点p的亮度灰度值,Ix表示点x的亮度灰度值,t为亮度阈值;
步骤S22,重复步骤S11,检测出所有层图像的特征点;
步骤S33,将检测出的所有特征点作为拟合点进行曲面拟合,得到该曲面的主曲率Det(H);
步骤S44,在检测出的所有特征点中,选出一特征点作为候选特征点,得到所述候选特征点的Hessian矩阵;
其中,Hessian矩阵为:
式中,Ixx,Ixy,Iyx,Iyy是候选特征点处的二阶偏导数;
步骤S55,将所述主曲率和所述候选特征点对应的Hessian矩阵的特
征值进行比较,得到所述候选特征点的特征值与所述主曲率的比率ratio;
其中,
α=rβ (7)
式中,α为所述候选特征点的最大特征值,β为所述候选特征点的最小特征值;
如果则保留该候选特征点作为特征点,否则就舍弃该候选特征点;
步骤S66,对检测出的所有特征点,重复步骤S44和S55,得到所有保留的特征点。
步骤S77,采用Harris角度检测方法对所有保留的特征点按特征值从大到小进行排序,取前N个关键特征点。
作为本发明进一步的改进,所述目标区域为矩形目标区域。
作为本发明进一步的改进,所述中心区域为所述矩形目标区域中心的36%的矩形区域,即:所述中心区域的长为所述目标矩形区域的60%,所述中心区域的宽为所述矩形目标区域的60%,所述边缘区域为所述矩形目标区域除所述中心区域以外的部分。
作为本发明进一步的改进,在高斯金字塔尺度空间中,每组图像的第一层图像由前一组图像的最后一层图像采样得到。
作为本发明进一步的改进,将原始图像放大2倍作为第0组图像。
作为本发明进一步的改进,步骤S77中,首先降低亮度阈值得到多于N个关键特征点,然后根据Harris响应值取前N个关键特征点。
作为本发明进一步的改进,步骤S11中,n=9。
作为本发明进一步的改进,步骤S55中,r=10。
本发明的有益效果为:
1、通过目标跟踪模板更新的判断条件的设置,避免了模板跟不上目标的变化及跟踪过程中噪声的积累,使目标跟踪持续而稳定;
2、通过图像高斯金字塔的建立,提高了更新的效率;
3、通过特征点快速检测方法,提高了特征检测的可重复性,也避免了不稳定的边缘响应;
4、适用于目标出现变化,特别是出现大角度翻转变化的目标跟踪。
附图说明
图1为本发明实施例所述的一种目标跟踪模板更新方法的流程示意图;
图2为本发明实施例所述的多尺度空间构建的流程示意图;
图3为本发明实施例所述的特征点检测的流程示意图;
图4为本发明在目标出现较大尺度变化时的跟踪效果示意图;
图5为本发明在目标出现旋转时的跟踪效果示意图;
图6为本发明在跟踪背景中有相似物体干扰时的跟踪效果示意图;
图7为本发明在跟踪大角度翻转目标的跟踪效果示意图。
具体实施方式
下面通过具体的实施例并结合附图对本发明做进一步的详细描述。
如图1所示,本发明实施例的一种目标跟踪模板更新方法,包括:
步骤1,判断目标跟踪模板是否需要更新,如果目标跟踪模板需要更新,则进行步骤2;
其中,判断目标跟踪模板是否需要更新的方法为满足下列四个条件之一,则需要对当前目标跟踪模板进行更新:
条件一,相邻两帧图像中跟踪目标区域的面积变化超过15%;
条件二,连续两帧图像的目标质心坐标变化超过10%;
条件三,当前帧图像的特征点比上一帧图像的特征点减少了30%以上;
条件四,当边缘区域的特征点占总的特征点的75%以上;
步骤2,提取上一帧图像的目标区域的特征点和当前帧图像的目标区域的特征点,并将上一帧图像的目标区域的特征点和当前帧图像的目标区域的特征点进行匹配,重新确定跟踪目标的位置;
步骤3,将当前帧图像的目标区域的特征点作为新的特征点进行跟踪,以当前帧图像的目标区域作为更新后的目标跟踪模板。
对于条件一,当跟踪目标与摄像机的距离发生快速改变时,目标在视频中的大小将会发生大幅度的变化,会导致目标区域的面积发生变化,从而使跟踪发生一定偏差。因此,可设定当相邻两帧中跟踪目标面积变化超过15%时,对当前目标模板进行更新。
对于条件二,当跟踪目标运动速度较快时,目标的质心坐标将发生较大变化;此外,当跟踪发生偏移时,目标质心同样会产生较大的变化。因此,可设定当连续两帧的目标质心坐标变化超过10%时,对当前目标模板进行更新。
对于条件三,在跟踪过程中,由于环境及物体本身运动的影响,会导致部分跟踪点被遮挡,或者产生其他因素使得特征点数目相对于上一帧图像的特征点数目有一定减少,当特征点数目减少了30%甚至更多时,代表目标表面发生较大变化,将会严重影响到跟踪的精度,因此,需要对目标模板进行更新。
对于条件四,当跟踪目标发生大角度的仿射变换时,特征点将会趋于边缘化,即边缘区域的特征点远远多于中心区域的特征点。由于跟踪区域大多为跟踪目标的最小外接矩形,因此,边缘区域大多为跟踪目标周围的环境,若对边缘区域的特征点进行跟踪,极容易导致目标跟丢,因此需要在这种情况下,对跟踪区域进行特征点更新,使特征点中心化。
本发明中的跟踪目标区域为矩形目标区域。中心区域为矩形目标区域中心的36%的矩形区域。即,中心区域的长为目标矩形区域的60%,中心区域的宽为矩形目标区域的60%,边缘区域为矩形目标区域除中心区域以外的部分。
其中,特征点的提取包括多尺度空间构建和特征点检测,首先进行图像的多尺度空间构建,然后进行特征点的检测。
如图2所示,多尺度空间构建包括:
步骤S1,利用高斯卷积核对原始图像进行平滑,得到图像的尺度空间表示;
用L(x,y,σ)表示一幅二维图像I(x,y)的尺度空间:
其中,表示卷积运算,G(x,y,σ)是卷积核可变的高斯函数;
式中,σ为图像的尺度因子,表示图像被平滑的程度,σ越大图像越模糊。
步骤S2,为了提高特征点检测效率,建立3组3层高斯金字塔,共3×3=9层图像,得到任意层图像与0层图像之间的尺度因子关系和相邻层图像之间的尺度因子;
其中,任意层图像与0层图像之间的尺度因子关系为:
σs=σ0ks (3)
式中,σ0为第0层图像的尺度因子,σs为s层图像的尺度因子,s为高斯金字塔中图像的层序数,s={0,1,2,...}。
本实施例中,图像金字塔的第0层图像平滑尺度σ0=1.4。
相邻层图像之间的尺度因子为:
k=21/S (4)
式中,S为每组总层数。
本实施例中,S为每组总层数3。
在高斯金字塔尺度空间中,每组图像的第一层图像由前一组图像的最后一层图像采样得到。为了获取更多的特征点,将原始图像放大2倍作为第0组图像。
在建立了高斯金字塔尺度空间后,需要在每层图像上进行特征点检测。如图3所示,特征点检测包括:
步骤S11,在建立了高斯金字塔尺度空间后,对每层图像,以一像素点p为中心点,采用Bresenham算法,得到半径为3的Bresenham圆上共有16个像素点,对圆周上每一个像素点x逐一检测,判断中心点p是亮点或暗点或相似点,如果有n个连续的像素点属于亮点或暗点,则p为特征点;
其中,
x∈{1,2,...,16};
如果Ix≤Ip-t,则中心点p是暗点;
如果Ip-t<Ix<Ip+t,则中心点p是相似点;
如果Ip+t≤Ix,则中心点p是亮点;
式中,Ip表示点p的亮度灰度值,Ix表示点x的亮度灰度值,t为亮度阈值。
一般情况下,Bresenham圆的半径R可取值1、2、3。本实施例中,Bresenham圆的半径取值为3,n=9,此时特征点检测的可重复性最好。
步骤S22,重复步骤S11,检测出所有层图像的特征点。
步骤S33,将检测出的所有特征点作为拟合点进行曲面拟合,得到该曲面的主曲率Det(H);
步骤S44,在检测出的所有特征点中,选出一特征点作为候选特征点,得到候选特征点的Hessian矩阵;
其中,Hessian矩阵为:
式中,Ixx,Ixy,Iyx,Iyy是候选特征点处的二阶偏导数。
本实施例中,在检测特征点时,使用Hessian矩阵去除不稳定的边缘响应。
步骤S55,将主曲率和候选特征点对应的Hessian矩阵的特征值进行比较,得到候选特征点的特征值与主曲率的比率ratio;
其中,
α=rβ (7)
式中,α为候选特征点的最大特征值,代表曲率最大的方向,β为候选特征点的最小特征值,代表曲率最小的方向。
如果则保留该候选特征点作为特征点,否则就舍弃该候选特征点。
本发明中,曲面的主曲率Det(H)和Hessian矩阵的特征值成正比,为了避免直接计算这些特征值,计算它们的之间的比率。
本实施例中,r=10,此时特征点检测的效率高。
步骤S66,对检测出的所有特征点,重复步骤S44和S55,得到所有保留的特征点。
步骤S77,采用Harris角度检测方法对步骤S66中得到的特征点按特征值从大到小进行排序,首先降低亮度阈值得到多于N个关键特征点,然后根据Harris响应值取前N个关键特征点。
Harris角度检测是通过数学计算在图像上发现角度特征的一种方法,而且其具有旋转不变性的特质。基本原理是:角度是一幅图像上最明显与重要的特征,对于一阶导数而言,角度在各个方向的变化是最大的,而边缘区域在只是某一方向有明显变化。
具体的实现步骤为:
第一步:
计算二维图像I(x,y)在X方向与Y方向的一阶高斯偏导数Ix与Iy。
第二步:
根据第一步结果得到Ix 2,Iy 2与Ix*Iy值。
第三步:
高斯模糊第二步三个值得到Sxx,Syy,Sxy。
第四步:
得到每个像素的Harris矩阵M,得到矩阵的两个特征值λ1和λ2。
第五步:
计算出每个像素的角度响应值R。
R=λ1*λ2-k(λ1+λ2)
其中K为系数值,通常取值范围为0.04~0.06之间。
第六步:
使用3*3或者5*5的窗口,实现非最大值压制,得到准确的一个角点像素,去掉非角点值。
第七步:根据角度检测结果,将取到的关键点标记出来显示在原图上。
本发明中,Hessian矩阵实际上就是多变量情形下的二阶导数,它描述了各方向上灰度梯度的变化。直接根据灰度数据矩阵计算出Hessian矩阵,然后再计算出其两个特征值。Hessian矩阵得到了图像中横纵方向的任意组合的二阶导数。采用Hessian矩阵在两个正交方向上都有较大值的点就是亮点。Harris检测将角点转化为亮点,用自相关模板对图像进行卷积,结果的变化率体现了本身灰度的变化率,角点转化为两点,得到了所需要的关键点。
如图4所示,为本发明在目标出现较大尺度变化时的跟踪效果图。从图中可以看到,跟踪目标的前50帧图像比较大,本发明的方法能够锁定目标,当目标快速远离摄像机而变小时,依然能够对目标进行跟踪,而且跟踪框的尺寸能够根据目标大小而自动调整。
如图5所示,为本发明在目标出现旋转时的跟踪效果图。从图中可以看到,跟踪目标在平面内大角度旋转时,本发明的方法依旧能够跟踪目标,并不会影响跟踪效果。
如图6所示,为本发明在跟踪背景中有相似物体干扰时的跟踪效果图。从图中可以看到,对于出现的相似物体,本发明的方法具有很好的区分度,即使相似物体遮挡了跟踪目标,也不能有效干扰对目标的跟踪。
如图7所示,为本发明在跟踪大角度翻转目标的跟踪效果图。从图中可以看到,当跟踪目标在空间中发生了大角度翻转时,此时,用于跟踪的特征点已经完全发生了改变,但发明的方法仍然能够对目标进行跟踪。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种目标跟踪模板更新方法,其特征在于,包括:
步骤1,判断目标跟踪模板是否需要更新,如果所述目标跟踪模板需要更新,则进行步骤2;
其中,判断目标跟踪模板是否需要更新的方法为满足下列四个条件之一,则需要对当前目标跟踪模板进行更新:
条件一,相邻两帧图像中跟踪目标区域的面积变化超过15%;
条件二,连续两帧图像的目标质心坐标变化超过10%;
条件三,当前帧图像的特征点比上一帧图像的特征点减少了30%以上;
条件四,当边缘区域的特征点占总的特征点的75%以上;
步骤2,提取上一帧图像的目标区域的特征点和当前帧图像的目标区域的特征点,并将上一帧图像的目标区域的特征点和当前帧图像的目标区域的特征点进行匹配,重新确定跟踪目标的位置;
步骤3,将当前帧图像的目标区域的特征点作为新的特征点进行跟踪,以当前帧图像的目标区域作为更新后的目标跟踪模板;
特征点的提取包括多尺度空间构建和特征点检测,首先进行图像的多尺度空间构建,然后进行特征点检测;
其中,
多尺度空间构建包括:
步骤S1,利用高斯卷积核对原始图像进行平滑,得到图像的尺度空间表示;
用L(x,y,σ)表示一幅二维图像I(x,y)的尺度空间:
<mrow>
<mi>L</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>&CircleTimes;</mo>
<mi>I</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,表示卷积运算,G(x,y,σ)是卷积核可变的高斯函数;
<mrow>
<mi>G</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>,</mo>
<mi>&sigma;</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>2</mn>
<msup>
<mi>&pi;&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mrow>
<mo>(</mo>
<msup>
<mi>x</mi>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mi>y</mi>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
<mo>/</mo>
<mn>2</mn>
<msup>
<mi>&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,σ为图像的尺度因子,表示图像被平滑的程度;
步骤S2,建立S′组S层高斯金字塔,共S′×S层图像,得到任意层图像与0层图像之间的尺度因子关系和相邻层图像之间的尺度因子;
其中,任意层图像与0层图像之间的尺度因子关系为:
σs=σ0ks (3)
式中,σ0为第0层图像的尺度因子,σs为s层图像的尺度因子,s为高斯金字塔中图像的层序数,s={0,1,2,...};
相邻层图像之间的尺度因子为:
k=21/S (4)
式中,S为每组总层数;
特征点的检测包括:
步骤S11,在建立了高斯金字塔尺度空间后,对每层图像,以一像素点p为中心点,采用Bresenham算法,得到半径为R的Bresenham圆上共有m个像素点,对圆周上每一个像素点x逐一检测,判断所述中心点p是亮点或暗点或相似点,如果有n个连续的像素点属于亮点或暗点,则p为特征点;
其中,
x∈{1,2,...,m};
如果Ix≤Ip-t,则中心点p是暗点;
如果Ip-t<Ix<Ip+t,则中心点p是相似点;
如果Ip+t≤Ix,则中心点p是亮点;
式中,Ip表示点p的亮度灰度值,Ix表示点x的亮度灰度值,t为亮度阈值;
步骤S22,重复步骤S11,检测出所有层图像的特征点;
步骤S33,将检测出的所有特征点作为拟合点进行曲面拟合,得到该曲面的主曲率Det(H);
Det(H)=Ix 2Iy 2-IxyIyx;
步骤S44,在检测出的所有特征点中,选出一特征点作为候选特征点,得到所述候选特征点的Hessian矩阵;
其中,Hessian矩阵为:
<mrow>
<mi>H</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<msub>
<mi>I</mi>
<mrow>
<mi>x</mi>
<mi>x</mi>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>I</mi>
<mrow>
<mi>x</mi>
<mi>y</mi>
</mrow>
</msub>
</mtd>
</mtr>
<mtr>
<mtd>
<msub>
<mi>I</mi>
<mrow>
<mi>x</mi>
<mi>y</mi>
</mrow>
</msub>
</mtd>
<mtd>
<msub>
<mi>I</mi>
<mrow>
<mi>x</mi>
<mi>x</mi>
</mrow>
</msub>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
式中,Ixx,Ixy,Iyx,Iyy是候选特征点处的二阶偏导数;
步骤S55,将所述主曲率和所述候选特征点对应的Hessian矩阵的特征值进行比较,得到所述候选特征点的特征值与所述主曲率的比率ratio;
<mrow>
<mi>r</mi>
<mi>a</mi>
<mi>t</mi>
<mi>i</mi>
<mi>o</mi>
<mo>=</mo>
<mfrac>
<mrow>
<mi>T</mi>
<mi>r</mi>
<msup>
<mrow>
<mo>(</mo>
<mi>H</mi>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mi>D</mi>
<mi>e</mi>
<mi>t</mi>
<mrow>
<mo>(</mo>
<mi>H</mi>
<mo>)</mo>
</mrow>
</mrow>
</mfrac>
<mo>=</mo>
<mfrac>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mi>x</mi>
</msub>
<mo>+</mo>
<msub>
<mi>I</mi>
<mi>y</mi>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<msup>
<msub>
<mi>I</mi>
<mi>x</mi>
</msub>
<mn>2</mn>
</msup>
<msup>
<msub>
<mi>I</mi>
<mi>y</mi>
</msub>
<mn>2</mn>
</msup>
<mo>-</mo>
<msub>
<mi>I</mi>
<mrow>
<mi>x</mi>
<mi>y</mi>
</mrow>
</msub>
<msub>
<mi>I</mi>
<mrow>
<mi>y</mi>
<mi>x</mi>
</mrow>
</msub>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>6</mn>
<mo>)</mo>
</mrow>
</mrow>
其中,
α=rβ (7)
式中,α为所述候选特征点的最大特征值,β为所述候选特征点的最小特征值;
如果则保留该候选特征点作为特征点,否则就舍弃该候选特征点;
步骤S66,对检测出的所有特征点,重复步骤S44和S55,得到所有保留的特征点;
步骤S77,采用Harris角度检测方法对所有保留的特征点按特征值从大到小进行排序,取前N个关键特征点。
2.根据权利要求1所述的目标跟踪模板更新方法,其特征在于,所述目标区域为矩形目标区域。
3.根据权利要求2所述的目标跟踪模板更新方法,其特征在于,所述中心区域为所述矩形目标区域中心的36%的矩形区域,即:所述中心区域的长为所述目标矩形区域的60%,所述中心区域的宽为所述矩形目标区域的60%,所述边缘区域为所述矩形目标区域除所述中心区域以外的部分。
4.根据权利要求1所述的目标跟踪模板更新方法,其特征在于,在高斯金字塔尺度空间中,每组图像的第一层图像由前一组图像的最后一层图像采样得到。
5.根据权利要求1所述的目标跟踪模板更新方法,其特征在于,将原始图像放大2倍作为第0组图像。
6.根据权利要求1所述的目标跟踪模板更新方法,其特征在于,步骤S77中,首先降低亮度阈值得到多于N个关键特征点,然后根据Harris响应值取前N个关键特征点。
7.根据权利要求1所述的目标跟踪模板更新方法,其特征在于,步骤S11中,n=9。
8.根据权利要求1所述的目标跟踪模板更新方法,其特征在于,步骤S55中,r=10。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510632705.XA CN105184822B (zh) | 2015-09-29 | 2015-09-29 | 一种目标跟踪模板更新方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510632705.XA CN105184822B (zh) | 2015-09-29 | 2015-09-29 | 一种目标跟踪模板更新方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105184822A CN105184822A (zh) | 2015-12-23 |
CN105184822B true CN105184822B (zh) | 2017-12-29 |
Family
ID=54906874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510632705.XA Active CN105184822B (zh) | 2015-09-29 | 2015-09-29 | 一种目标跟踪模板更新方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105184822B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106296742B (zh) * | 2016-08-19 | 2019-01-29 | 华侨大学 | 一种结合特征点匹配的在线目标跟踪方法 |
CN111325201A (zh) * | 2016-08-31 | 2020-06-23 | 深圳市大疆灵眸科技有限公司 | 影像处理方法、装置与可移动设备、无人机遥控器及系统 |
CN106447685B (zh) * | 2016-09-06 | 2019-04-02 | 电子科技大学 | 一种红外跟踪方法 |
CN106874942B (zh) * | 2017-01-21 | 2020-03-31 | 江苏大学 | 一种基于正则表达式语义的目标模型快速构建方法 |
CN108596950B (zh) * | 2017-08-29 | 2022-06-17 | 国家计算机网络与信息安全管理中心 | 一种基于主动漂移矫正的刚体目标跟踪方法 |
CN107610108B (zh) * | 2017-09-04 | 2019-04-26 | 腾讯科技(深圳)有限公司 | 图像处理方法和装置 |
CN108053446A (zh) * | 2017-12-11 | 2018-05-18 | 北京奇虎科技有限公司 | 基于点云的定位方法、装置及电子设备 |
CN108537845B (zh) | 2018-04-27 | 2023-01-03 | 腾讯科技(深圳)有限公司 | 位姿确定方法、装置及存储介质 |
CN109033955B (zh) * | 2018-06-15 | 2020-08-14 | 中国科学院半导体研究所 | 一种人脸跟踪方法和系统 |
CN109118517B (zh) * | 2018-07-13 | 2021-02-05 | 南京航空航天大学 | 基于几何估计的多尺度跟踪方法 |
CN110930429B (zh) * | 2018-09-19 | 2023-03-31 | 杭州海康威视数字技术股份有限公司 | 一种目标跟踪处理方法、装置及设备、可读介质 |
CN109598746B (zh) * | 2018-12-26 | 2021-10-22 | 成都纵横自动化技术股份有限公司 | 一种跟踪图像模板生成的方法及装置 |
CN111931720B (zh) * | 2020-09-23 | 2021-01-22 | 深圳佑驾创新科技有限公司 | 跟踪图像特征点的方法、装置、计算机设备和存储介质 |
CN113052875A (zh) * | 2021-03-30 | 2021-06-29 | 电子科技大学 | 一种基于状态感知模板更新的目标跟踪算法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1738426A (zh) * | 2005-09-09 | 2006-02-22 | 南京大学 | 一种视频运动目标分割与跟踪方法 |
CN101106700A (zh) * | 2007-08-01 | 2008-01-16 | 大连海事大学 | 视频监控系统中的智能化目标细节捕获装置及方法 |
CN102034114A (zh) * | 2010-12-03 | 2011-04-27 | 天津工业大学 | 一种基于特征点检测的模板匹配跟踪方法 |
CN102117487A (zh) * | 2011-02-25 | 2011-07-06 | 南京大学 | 一种针对视频运动目标的尺度方向自适应Mean-shift跟踪方法 |
CN102999920A (zh) * | 2012-10-25 | 2013-03-27 | 西安电子科技大学 | 基于最近邻分类器和均值漂移的目标跟踪方法 |
CN103440669A (zh) * | 2013-09-10 | 2013-12-11 | 武汉大学 | 一种基于压缩域融合的Mean shift核窗宽动态更新方法 |
CN104282020A (zh) * | 2014-09-22 | 2015-01-14 | 中海网络科技股份有限公司 | 一种基于目标运动轨迹的车辆速度检测方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070286458A1 (en) * | 2006-06-12 | 2007-12-13 | D&S Consultants, Inc. | Method and System for Tracking a Target |
JP4798259B2 (ja) * | 2009-06-08 | 2011-10-19 | 株式会社ニコン | 被写体追尾装置、およびカメラ |
-
2015
- 2015-09-29 CN CN201510632705.XA patent/CN105184822B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1738426A (zh) * | 2005-09-09 | 2006-02-22 | 南京大学 | 一种视频运动目标分割与跟踪方法 |
CN101106700A (zh) * | 2007-08-01 | 2008-01-16 | 大连海事大学 | 视频监控系统中的智能化目标细节捕获装置及方法 |
CN102034114A (zh) * | 2010-12-03 | 2011-04-27 | 天津工业大学 | 一种基于特征点检测的模板匹配跟踪方法 |
CN102117487A (zh) * | 2011-02-25 | 2011-07-06 | 南京大学 | 一种针对视频运动目标的尺度方向自适应Mean-shift跟踪方法 |
CN102999920A (zh) * | 2012-10-25 | 2013-03-27 | 西安电子科技大学 | 基于最近邻分类器和均值漂移的目标跟踪方法 |
CN103440669A (zh) * | 2013-09-10 | 2013-12-11 | 武汉大学 | 一种基于压缩域融合的Mean shift核窗宽动态更新方法 |
CN104282020A (zh) * | 2014-09-22 | 2015-01-14 | 中海网络科技股份有限公司 | 一种基于目标运动轨迹的车辆速度检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN105184822A (zh) | 2015-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105184822B (zh) | 一种目标跟踪模板更新方法 | |
CN104599286B (zh) | 一种基于光流的特征跟踪方法及装置 | |
Ye et al. | A local phase based invariant feature for remote sensing image matching | |
CN106485275B (zh) | 一种实现盖板玻璃与液晶屏定位贴合的方法 | |
CN104867126B (zh) | 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法 | |
CN105247461B (zh) | 为触摸屏交互确定俯仰和偏航 | |
CN109949340A (zh) | 基于OpenCV的目标尺度自适应跟踪方法 | |
CN104599258B (zh) | 一种基于各向异性特征描述符的图像拼接方法 | |
CN105631872B (zh) | 基于多特征点的遥感图像配准方法 | |
CN103310196B (zh) | 感兴趣区域与方向元素的手指静脉识别方法 | |
CN107563446A (zh) | 一种微操作系统目标检测方法 | |
CN106651942A (zh) | 基于特征点的三维旋转运动检测与旋转轴定位方法 | |
CN106023187A (zh) | 一种基于sift特征和角度相对距离的图像配准方法 | |
CN104835175B (zh) | 一种基于视觉注意机制的核环境中目标检测方法 | |
CN105427298A (zh) | 基于各向异性梯度尺度空间的遥感图像配准方法 | |
CN105279769B (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
CN105096317A (zh) | 一种复杂背景中的高性能相机全自动标定方法 | |
CN101650784B (zh) | 一种利用结构上下文特征进行图像匹配的方法 | |
CN103065135A (zh) | 基于数字图像处理的车牌号码匹配算法 | |
CN112254656B (zh) | 一种基于结构表面点特征的立体视觉三维位移测量方法 | |
WO2014017006A1 (ja) | 姿勢推定装置、姿勢推定方法、および姿勢推定プログラム | |
CN105335973A (zh) | 运用于带钢加工生产线的视觉处理方法 | |
CN106845410B (zh) | 一种基于深度学习模型的火焰识别方法 | |
CN105303566B (zh) | 一种基于目标轮廓裁剪的sar图像目标方位角估计方法 | |
CN110969601B (zh) | 基于视觉特征跟踪算法的结构转动响应非接触式识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |