CN102750708A - 基于快速鲁棒特征匹配的仿射运动目标跟踪算法 - Google Patents

基于快速鲁棒特征匹配的仿射运动目标跟踪算法 Download PDF

Info

Publication number
CN102750708A
CN102750708A CN2012101466279A CN201210146627A CN102750708A CN 102750708 A CN102750708 A CN 102750708A CN 2012101466279 A CN2012101466279 A CN 2012101466279A CN 201210146627 A CN201210146627 A CN 201210146627A CN 102750708 A CN102750708 A CN 102750708A
Authority
CN
China
Prior art keywords
sigma
target
formula
fast robust
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012101466279A
Other languages
English (en)
Other versions
CN102750708B (zh
Inventor
王晋疆
刘阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN201210146627.9A priority Critical patent/CN102750708B/zh
Publication of CN102750708A publication Critical patent/CN102750708A/zh
Application granted granted Critical
Publication of CN102750708B publication Critical patent/CN102750708B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明属于计算机视觉领域。为改善连续自适应均值漂移算法易受颜色相近背景干扰的现象,实现在复杂背景下对仿射运动目标的实时稳健跟踪,本发明采取的技术方案是,一种基于快速鲁棒特征匹配的仿射运动目标跟踪算法,包括如下步骤:1)在视频流中将确定的目标区域从RGB颜色空间转换为HSV颜色空间;2)检测当前帧目标区域H、S、V通道的快速鲁棒特征点;3)通过匹配提纯后的特征点位置获取最小外接兴趣区域;4)采用均值漂移迭代算法确定目标概率分布图的质心即搜索窗口位置;5)进行更新和约束;6)如果迭代收敛,单步跟踪完毕;否则,转步骤2继续运算。本发明主要应用于图像处理。

Description

基于快速鲁棒特征匹配的仿射运动目标跟踪算法
技术领域
本发明属于计算机视觉领域,涉及一种基于快速鲁棒特征匹配的仿射运动目标跟踪算法,可应用于智能安防领域。具体讲,涉及基于快速鲁棒特征匹配的仿射运动目标跟踪算法。
背景技术
运动目标跟踪是实现目标检测的核心技术之一,也是后续的高层次处理,如行为理解等的基础。作为智能视频监控技术自动化的关键,目标跟踪广泛应用于交通监测、公共安防领域。
在信息理论中,目标跟踪可以定义为在给定一组观测的条件下对系统的状态进行估计。在视觉跟踪中,跟踪的目标是图像中提取的目标特征,如果在每一帧图像中特征的位置和形状都能被准确确定,则物体能被很好地跟踪。目标的轨迹就是二维图像中或三维世界中被跟踪特征的位置序列。根据跟踪方法的不同,大致可分为基于滤波理论的目标跟踪方法,基于均值漂移的目标跟踪方法和基于偏微分方程的目标跟踪方法。
基于均值漂移的跟踪方法由于具有实时性、鲁棒性和易于实现的特点,近年来引起了广泛关注。但经典的均值漂移算法采用固定的核函数带宽,无法自适应目标的仿射变化和尺度变化,常常导致定位不够精确。连续自适应均值漂移方法是将均值漂移算法扩展到连续图像序列的结果,能够自动调节搜索窗大小以适应被跟踪目标在图像中的大小。连续自适应均值漂移算法的缺陷在于当存在与目标颜色相近的背景干扰,常常会导致跟踪失效。
至今,已有不少学者针对均值漂移及连续自适应均值漂移算法的缺陷做了改进,如结合图像的矩信息确定目标区域,并采用全局更新策略对模型进行更新以提高跟踪的准确性。但是当目标的外观发生较大变化时,往往会造成跟踪失败。如将尺度不变特征变换的特征匹配和均值漂移算法结合,提高了均值漂移算法的准确性,但计算量较大,不适用于实时跟踪系统。
发明内容
本发明旨在克服现有技术的不足,提供一种基于快速鲁棒特征匹配的仿射运动目标跟踪算法,改善连续自适应均值漂移算法易受颜色相近背景干扰的现象,具备性能优越、运算时间短的特点,以实现在复杂背景下对仿射运动目标的实时稳健跟踪。为达到上述目的,本发明采取的技术方案是,一种基于快速鲁棒特征匹配的仿射运动目标跟踪算法,包括如下步骤:
1)在视频流中将确定的目标区域从RGB颜色空间转换为HSV颜色空间,并进行截断处理;
2)检测当前帧目标区域H、S、V通道的快速鲁棒特征点,在下一帧的搜索区域同样检测三通道的快速鲁棒特征点,使用近似最近邻搜索方法对两区域的特征点集进行匹配,并通过匹配对提纯剔除错误的匹配对;
3)通过匹配提纯后的特征点位置获取最小外接兴趣区域,在当前帧的最小外接兴趣区域统计H通道色度直方图,并计算目标的概率分布图;
4)在下一帧的兴趣区域采用均值漂移迭代算法确定目标概率分布图的质心即搜索窗口位置,并通过概率分布图的零阶矩和二阶矩初步确定搜索窗的尺寸、方向;
5)通过快速鲁棒特征点尺度和主方向对搜索窗尺寸、方向进行更新和约束;
6)如果迭代收敛,单步跟踪完毕;否则,转步骤2继续运算。
步骤1)具体为:将确定的目标区域从RGB颜色空间转换为HSV颜色空间,并对各通道像素值进行截断处理。其中H通道像素值限定在[h_min,h_max]之间,S通道像素值限定在[s_min,s_max]之间,V通道像素值限定在[v_min,v_max]之间。超过范围的像素值一律被压缩到与像素值最接近的值域边界。
步骤2)具体为:先构建图像尺度金字塔,使用积分图像对图像进行盒子滤波,并在各尺度图像上求取海赛矩阵行列式的响应函数,再在响应函数上通过非最大值抑制求取不同尺度的特征点并构建相应的特征描述子,以下是提取快速鲁棒特征的主要步骤:
积分图像:
借助积分图像,图像和高斯二阶微分模板的滤波可转化为对积分图像的加减运算:
积分图像中任意一点(i,j)的值Il(x),为原图像左上角到任意点(i,j)相应的对角线区域灰度值的总和,即:
I l ( x ) = Σ i ′ ≤ i Σ j ′ ≤ i I ( i ′ , j ′ ) - - - ( 1 )
式(1)中,I(i′,j′)表示原图像中点(i′,j′)灰度值;
顶点分别为A、B、C、D的窗口S内像元的灰度和∑s可通过式(2)算得:
s=IA(x)-IB(x)-IC(x)+ID(x)    (2)
海赛矩阵行列式近似:
给定图像I中点x(i,j)处尺度为σ的海赛矩阵H(x,σ)定义如下:
H ( x , σ ) = L xx ( x , σ ) L xy ( x , σ ) L xy ( x , σ ) L yy ( x , σ ) - - - ( 3 )
式(3)中,Lxx(x,σ)是高斯二阶微分
Figure BDA00001630682700023
在点x处与图像I的卷积,Lxy(x,σ)是高斯二阶微分
Figure BDA00001630682700024
在点x处与图像I的卷积、Lyy(x,σ)是高斯二阶微分
Figure BDA00001630682700025
在点x处与图像I的卷积;
实际应用中,采用离散的简化模板替代高斯二阶微分模板;通过如式(2)的过程,卷积就转化为对积分图像的加减运算;
尺度空间搜索特征点:
建立图像的尺度空间金字塔;不断增大盒子滤波的模板尺寸,通过积分图像求取海赛矩阵行列式的响应函数,再在响应函数上通过非最大值抑制求取不同尺度的特征点;
构建快速鲁棒特征描述子:
特征描述子的构建过程可分为两步:第一步在检测得到特征点的半径为6s的圆形邻域中,s为特征点所在尺度,通过一个以特征点为中心,张角为π/3的扇形滑动窗口累积计算哈尔小波在x,y方向的响应值,得到一个矢量(mw,θw):
m w = Σ w dx + Σ w dy - - - ( 6 )
其中w为统计的滑动窗口,dx、dy分别为滑动窗口内任一点在x、y方向的哈尔小波响应值,mw为响应累加值的幅值。
θ w = arctan ( Σ w dy / Σ w dx ) - - - ( 7 )
其中θw为响应累加值的幅角。
主方向θ为最大哈尔响应累加值对应的方向,即
θ=θw|max{mw}    (8)
第二步是在这个选定方向上构造一个边长为20s的正方形区域,沿主方向将图像划分为4×4个子块,每个子块都利用哈尔模板计算响应值,并对响应值进行统计而形成特征矢量V子块,即:
V子块=[∑dx,∑|dx|,∑dy,∑|dy|]    (9)
由于共有4×4个子块,因此特征描述子共有4×4×4=64维特征矢量组成;
使用以上方法在当前帧的目标区域和下一帧的搜索区域分别检测H、S、V通道的快速鲁棒特征,并使用近似最近邻搜索方法对两区域的特征点集进行匹配,即计算特征点对距离并进行排序,对每一个特征点确定其最近邻特征点和次近邻特征点,设定该特征点与其最近邻特征点距离为最近邻距离,同理设定次近邻距离。若两距离满足式(10),则认定匹配成功:
最近邻距离≤次近邻距离×Thr1    (10)
式(10)中,Thr1为设定的匹配阈值;
再通过匹配对提纯剔除错误的匹配对,剔除规则如式(11):
某一匹配对距离≤最近邻距离×Thr2    (11)
式(11)中,Thr2为设定的提纯阈值。
步骤3)具体为:通过凸包算法确定一个包含所有提纯后特征点的最小边界框,即为最小外接兴趣区域:
以式(12)的方式统计兴趣区域H通道色度直方图:
q u ^ = 1 n Σ ( x , y ) ∈ R q δ [ c ( f R q ( x , y ) ) - u ] - - - ( 12 )
式(12)中,
Figure BDA00001630682700034
是图像Rq的图像函数,c(.)是颜色空间的量化函数,u是直方图的索引值,δ为Kronecker函数,n为Rq中的像素个数;
然后通过式(13)的方式获得基于直方图后向投影的概率分布图:
p u = min { 255 q u ^ max ( q u ^ ) , 255 } u = 1 , . . . , n - - - ( 13 )
式(13)中,表示目标颜色直方图中H分量为u的像素个数。
步骤4)具体为:均值漂移迭代公式的一般形式如式(14)所示:
y 1 = Σ i = 1 n h x i w i g ( | | y 0 - x i h | | 2 ) Σ i = 1 n h w i g ( | | y 0 - x i h | | 2 ) - - - ( 14 )
式(14)中,xi为目标各个像素点位置,wi为目标各个像素点所对应权值,nh为像素点个数,h为核函数带宽,
Figure BDA00001630682700044
为核函数的负微分函数,y0为上一次搜索窗位置,y1为当前搜索窗位置;
若使得核函数为Epanechnikov核函数,则
Figure BDA00001630682700045
为常数,式(14)可进一步简化为式(15):
y 1 = Σ i = 1 n h x i w i Σ i = 1 n h w i - - - ( 15 )
详细的计算步骤即在概率分布图I(x,y)上分别计算零阶矩和x轴,y轴方向的一阶矩即M00、M10、M01,从而确定搜索窗口的位置和尺寸,计算各阶矩的方法如式(16)、(17)、(18)所示:
M 00 = Σ x Σ y I ( x , y ) - - - ( 16 )
M 10 = Σ x Σ y xI ( x , y ) - - - ( 17 )
M 01 = Σ x Σ y yI ( x , y ) - - - ( 18 )
由概率分布图的零阶矩以及在x轴、y轴方向的一阶矩,可计算出待搜索区域的质心(xc,yc):
x c = M 10 M 00 - - - ( 19 )
y c = M 01 M 00 - - - ( 20 )
根据概率分布图的零阶矩可以初步确定搜索窗口的尺度参数s:
s = 2 M 00 256 - - - ( 21 )
根据概率分布图的二阶矩M20、M02、M11,可以计算得出初步的目标旋转角度参数
M 20 = Σ x Σ y x 2 I ( x , y ) - - - ( 22 )
M 02 = Σ x Σ y y 2 I ( x , y ) - - - ( 23 )
M 11 = Σ x Σ y xyI ( x , y ) - - - ( 24 )
分别按式(25)、(26)、(27)定义a、b、c:
a = M 20 M 00 - x c 2 - - - ( 25 )
b = 2 ( M 11 M 00 - x c y c ) - - - ( 26 )
c = M 02 M 00 - y c 2 - - - ( 27 )
则目标旋转角度与水平方向夹角为
θ = 1 2 tan - 1 ( b a - c ) . - - - ( 28 )
步骤5)具体为:经过实验验证,目标上快速鲁棒特征点尺度和主方向的变化分别与目标的尺度和方向变化程度成正比。比如尺度变化具有式(29)的关系:
Scur/Spre=σc/σp    (29)
式(29)中,Spre、Scur分别为前后帧中的目标尺度;σc,σp分别为在前后帧中检测到的快速鲁棒特征匹配点c、p各自所在尺度;
利用提纯后的匹配点尺度进行统计,获得稳定的目标尺度变化,即
S cur = S pre × 1 n Σ i = 1 n σc i σp i - - - ( 30 )
式(30)中,n为所有优秀匹配特征点的数目;
同理,对提纯后的特征点c和p,设快速鲁棒特征点的主方向分别为Ac、Ap,则当前帧目标的方向可通过式(31)的方式得到,即:
O cur = O pre + 1 n Σ i = 1 n ( A c - A p ) - - - ( 31 )
式(31)中,n为所有优秀匹配特征点的数目,Opre、Ocur分别为前后帧中的目标方向;
通过式(30)、(31)的方式得到由快速鲁棒特征确定的当前帧目标的尺度和方向,并对由连续自适应均值漂移算法初步确定的目标尺度和方向进行约束和更新。
步骤6)收敛的条件为相邻两次运算的质心偏量小于一定阈值即||yi+1-yi||<ε或大于预定的最大迭代次数,ε为预先设定的大于0的正数。
本发明的技术特点及效果:
视频流图像背景具有与目标颜色相似的像素时,经典的连续自适应均值漂移算法跟踪效果变差或失效。已有技术将尺度不变特征变换的特征匹配和均值漂移算法结合,提高了均值漂移算法的准确性,但计算量较大,不适用于实时跟踪系统。鉴于此,本发明将快速鲁棒特征的检测和匹配过程融入连续自适应均值漂移算法框架,即在目标区域和搜索区域提取包含图像信息的快速鲁棒特征并利用近似最近邻搜索对特征点进行匹配,利用提纯后的匹配结果对连续自适应均值漂移算法搜索区域进行约束和更新。当图像背景具有与目标颜色相似的像素时,连续自适应均值漂移算法容易跟踪失效,本发明提出算法改善了这一缺陷。同时,基于快速鲁棒特征匹配的仿射运动目标跟踪算法实现了对复杂背景下仿射运动目标的跟踪,且实时性较好。
附图说明
图1为本发明中完整的算法实现框图。
图2为本发明实施例中目标区域与搜索区域H通道的快速鲁棒特征匹配及提存结果对比。
图3为本发明实施例中目标区域与搜索区域S通道的快速鲁棒特征匹配及提存结果对比。
图4为本发明实施例中目标区域与搜索区域V通道的快速鲁棒特征匹配及提存结果对比。
图5为本发明实施例中当前帧兴趣区域H通道色度直方图。
图6为本发明实施例中目标的概率分布图。
图7为本发明实施例中测试视频1通过均值漂移算法初步确定搜索窗信息的目标跟踪结果。
图8为本发明实施例中测试视频1通过尺度不变特征变换最终确定的搜索窗信息即目标跟踪结果。
图9为本发明实施例中测试视频1通过快速鲁棒特征信息最终确定的搜索窗信息即目标跟踪结果。
图10为本发明实施例中测试视频2通过均值漂移算法初步确定搜索窗信息的目标跟踪结果。
图11为本发明实施例中测试视频2通过尺度不变特征变换最终确定的搜索窗信息即目标跟踪结果。
图12为本发明实施例中测试视频2通过快速鲁棒特征信息最终确定的搜索窗信息即目标跟踪结果。
具体实施方式
本发明不涉及目标检测部分,在初始帧图像中,已经确定了目标区域的大小和位置,为一个包含目标像素的矩形框。
为了实现发明目的,采用的技术方案如下:
1、在视频流中将确定的目标区域从RGB颜色空间转换为HSV颜色空间,并进行截断处理。
2、检测当前帧目标区域H、S、V通道的快速鲁棒特征点,在下一帧的搜索区域同样检测三通道的快速鲁棒特征点。使用近似最近邻搜索方法对两区域的特征点集进行匹配,并通过匹配对提纯剔除错误的匹配对。
3、通过匹配提纯后的特征点位置获取最小外接兴趣区域。在当前帧的兴趣区域统计H通道色度直方图,并计算目标的概率分布图。
4、在下一帧的兴趣区域采用均值漂移迭代算法确定目标概率分布图的质心即搜索窗口位置,并通过概率分布图的零阶矩和二阶矩初步确定搜索窗的尺寸、方向。
5、通过快速鲁棒特征点尺度和主方向对搜索窗尺寸、方向进行更新和约束。
6、如果迭代收敛,单步跟踪完毕;否则,转步骤2继续运算。
本发明基于快速鲁棒特征匹配的仿射运动目标跟踪算法,具体实现步骤如下:
步骤1:在视频流中将确定的目标区域从RGB颜色空间转换为HSV颜色空间,并进行截断处理。
将确定的目标区域从RGB颜色空间转换为HSV颜色空间,并对各通道像素值进行截断处理。其中H通道像素值限定在[h_min,h_max]之间,S通道像素值限定在[s_min,s_max]之间,V通道像素值限定在[v_min,v_max]之间。超过范围的像素值一律被压缩到与像素值最接近的值域边界。
步骤2:检测当前帧目标区域H、S、V通道的快速鲁棒特征点,在下一帧的搜索区域同样检测三通道的快速鲁棒特征点。使用近似最近邻搜索方法对两区域的特征点集进行匹配,并通过匹配对提纯剔除错误的匹配对。
快速鲁棒特征的提取原理是先构建图像尺度金字塔,使用积分图像对图像进行盒子滤波,并在各尺度图像上求取海赛矩阵行列式的响应函数,再在响应函数上通过非最大值抑制求取不同尺度的特征点。以下将分别介绍提取快速鲁棒特征的主要步骤:
积分图像:
借助积分图像,图像和高斯二阶微分模板的滤波可转化为对积分图像的加减运算。
积分图像中任意一点(i,j)的值Il(x),为原图像左上角到任意点(i,j)相应的对角线区域灰度值的总和,即:
I l ( x ) = Σ i ′ ≤ i Σ j ′ ≤ i I ( i ′ , j ′ ) - - - ( 1 )
式(1)中,I(i′,j′)表示原图像中点(i′,j′)灰度值。
顶点分别为A、B、C、D的窗口S内像元的灰度和∑s通过式(2)算得:
s=IA(x)-IB(x)-IC(x)+ID(x)    (2)
海赛矩阵行列式近似:
给定图像I中点x(i,j)处尺度为σ的海赛矩阵H(x,σ)定义如下:
H ( x , σ ) = L xx ( x , σ ) L xy ( x , σ ) L xy ( x , σ ) L yy ( x , σ ) - - - ( 3 )
式(3)中,Lxx(x,σ)是高斯二阶微分
Figure BDA00001630682700082
在点x处与图像I的卷积,,Lxy(x,σ)是高斯二阶微分在点x处与图像I的卷积、Lyy(x,σ)是高斯二阶微分
Figure BDA00001630682700084
在点x处与图像I的卷积。
实际应用中,通常采用离散的简化模板替代高斯二阶微分模板,卷积就转化为对积分图像的加减运算,可大大缩减计算时间。
尺度空间表示:
为了获得不同尺度的特征点,必须建立图像的尺度空间金字塔。快速鲁棒特征采用不断增大盒子滤波模板尺寸并与积分图像共同求取海赛矩阵行列式的响应函数,再在响应函数上通过非最大值抑制求取不同尺度的特征点。
构建快速鲁棒特征描述子:
特征描述子的构建过程可分为两步:第一步在特征点的半径为6s(s为特征点所在尺度)的圆形邻域中,通过一个以特征点为中心,张角为π/3的扇形滑动窗口累积计算哈尔小波在x,y方向的响应值,得到一个矢量(mw,θw):
m w = Σ w dx + Σ w dy - - - ( 6 )
其中w为统计的滑动窗口,dx、dy分别为滑动窗口内任一点在x、y方向的哈尔小波响应值,mw为响应累加值的幅值。
θ w = arctan ( Σ w dy / Σ w dx ) - - - ( 7 )
其中θw为响应累加值的幅角。
主方向θ为最大哈尔响应累加值对应的方向,即
θ=θw|max{mw}    (8)
第二步是在这个选定方向上构造一个边长为20s的正方形区域,沿主方向将图像划分为4×4个子块,每个子块都利用哈尔模板计算响应值,并对响应值进行统计而形成特征矢量V子块,即:
V子块=[∑dx,∑|dx|,∑dy,∑|dy|]    (9)
由于共有4×4个子块,因此特征描述子共有4×4×4=64维特征矢量组成.
使用以上方法在当前帧的目标区域和下一帧的搜索区域分别检测H、S、V通道的快速鲁棒特征,并使用近似最近邻搜索方法对两区域的特征点集进行匹配,即计算特征点对距离并进行排序,对每一个特征点确定其最近邻特征点和次近邻特征点,设定该特征点与其最近邻特征点距离为最近邻距离,同理设定次近邻距离。若两距离满足式(10),则认定匹配成功。
最近邻距离≤次近邻距离×Thr1    (10)
式(10)中,Thr1为设定的匹配阈值。
再通过匹配对提纯剔除错误的匹配对,剔除规则如式(11)。
某一匹配对距离≤最近邻距离×Thr2    (11)
式(11)中,Thr2为设定的提纯阈值。
步骤3:通过匹配提纯后的特征点位置获取最小外接兴趣区域。在当前帧的兴趣区域统计H通道色度直方图,并计算目标的概率分布图。
通过凸包算法确定一个包含所有提纯后特征点的最小边界框,即为最小外接兴趣区域。
以式(12)的方式统计兴趣区域H通道色度直方图:
q u ^ = 1 n Σ ( x , y ) ∈ R q δ [ c ( f R q ( x , y ) ) - u ] - - - ( 12 )
式(12)中,是图像Rq的图像函数,c(.)是颜色空间的量化函数,u是直方图的索引值,δ为Kronecker函数,n为Rq中的像素个数。
然后通过式(13)的方式获得基于直方图后向投影的概率分布图:
p u = min { 255 q u ^ max ( q u ^ ) , 255 } u = 1 , . . . , n - - - ( 13 )
式(13)中,
Figure BDA00001630682700094
表示目标颜色直方图中H分量为u的像素个数。
步骤4:在下一帧的兴趣区域采用均值漂移的迭代算法确定目标概率分布图的质心即搜索窗口位置,并通过概率分布图的零阶矩和二阶矩初步确定搜索窗的尺寸、方向。
均值漂移迭代公式的一般形式如式(14)所示:
y 1 = Σ i = 1 n h x i w i g ( | | y 0 - x i h | | 2 ) Σ i = 1 n h w i g ( | | y 0 - x i h | | 2 ) - - - ( 14 )
式(14)中,xi为目标各个像素点位置,wi为目标各个像素点所对应权值,nh为像素点个数,h为核函数带宽,为核函数的负微分函数,y0为上一次搜索窗位置,y1为当前搜索窗位置。
若使得核函数为Epanechnikov核函数,则
Figure BDA00001630682700097
为常数,式(14)可进一步简化为式(15):
y 1 = Σ i = 1 n h x i w i Σ i = 1 n h w i - - - ( 15 )
详细的计算步骤即在概率分布图I(x,y)上分别计算零阶矩和x轴,y轴方向的一阶矩即M00、M10、M01,从而确定搜索窗口的位置和尺寸,计算各阶矩的方法如式(16)、(17)、(18)所示:
M 00 = Σ x Σ y I ( x , y ) - - - ( 16 )
M 10 = Σ x Σ y xI ( x , y ) - - - ( 17 )
M 01 = Σ x Σ y yI ( x , y ) - - - ( 18 )
由概率分布图的零阶矩以及在x轴、y轴方向的一阶矩,可计算出待搜索区域的质心(xc,yc):
x c = M 10 M 00 - - - ( 19 )
y c = M 01 M 00 - - - ( 20 )
根据概率分布图的零阶矩可以初步确定搜索窗口的尺度参数s:
s = 2 M 00 256 - - - ( 21 )
根据概率分布图的二阶矩M20、M02、M11,可以计算得出初步的目标旋转角度参数
M 20 = Σ x Σ y x 2 I ( x , y ) - - - ( 22 )
M 02 = Σ x Σ y y 2 I ( x , y ) - - - ( 23 )
M 11 = Σ x Σ y xyI ( x , y ) - - - ( 24 )
分别按式(25)、(26)、(27)定义a、b、c:
a = M 20 M 00 - x c 2 - - - ( 25 )
b = 2 ( M 11 M 00 - x c y c ) - - - ( 26 )
c = M 02 M 00 - y c 2 - - - ( 27 )
则目标旋转角度与水平方向夹角为
θ = 1 2 tan - 1 ( b a - c ) - - - ( 28 )
步骤5:通过快速鲁棒特征点尺度和主方向对搜索窗尺寸、方向进行更新和约束。
经过实验验证,目标上快速鲁棒特征点尺度和主方向的变化分别与目标的尺度和方向变化程度成正比。比如尺度变化具有式(29)的关系:
Scur/Spre=σc/σp    (29)
式(29)中,Spre、Scur分别为前后帧中的目标尺度;σc,σp分别为在前后帧中检测到的快速鲁棒特征匹配点c、p各自所在尺度。
利用提纯后的匹配点尺度进行统计,获得稳定的目标尺度变化,即
S cur = S pre × 1 n Σ i = 1 n σc i σp i - - - ( 30 )
式(30)中,n为所有优秀匹配特征点的数目。
同理,对提纯后的特征点c和p,设快速鲁棒特征点的主方向分别为Ac、Ap,则当前帧目标的方向可通过式(31)的方式得到,即:
O cur = O pre + 1 n Σ i = 1 n ( A c - A p ) - - - ( 31 )
式(31)中,n为所有优秀匹配特征点的数目,Opre、Ocur分别为前后帧中的目标方向。
通过式(30)、(31)的方式得到由快速鲁棒特征确定的当前帧目标的尺度和方向,并对由连续自适应均值漂移算法初步确定的目标尺度和方向进行约束和更新。
步骤6:如果迭代收敛,单步跟踪完毕;否则,转步骤2继续运算。
收敛的条件为相邻两次运算的质心偏量小于一定阈值即||yi+1-yi||<ε或大于预定的最大迭代次数,ε为预先设定的大于0的正数。
本发明的理论基础是基于连续自适应的均值漂移算法,实现方法是步骤1-6,其完整算法的实现框图如图1所示。本发明的主要创新之处在于将快速鲁棒特征的检测和匹配过程融入连续自适应均值漂移算法框架,即在目标区域和搜索区域提取包含图像信息的快速鲁棒特征并利用近似最近邻搜索对特征点进行匹配,利用提纯后的匹配结果对连续自适应均值漂移算法搜索区域进行约束和更新。本发明的另一创新之处在于提取快速鲁棒特征时采用了颜色空间多通道信息进行融合。
以下通过具体的实施例对本发明的技术方案作进一步的详细描述。
对一组目标的外观、尺度、形状和光照条件以及背景发生较大变化的测试视频1、2采用本发明的跟踪算法进行跟踪,红色椭圆框为本专利算法确定目标区域的搜索窗口,视频分辨率为384×288,帧率30fps,帧数分别为2688和2822。
步骤1:在视频流中将确定的目标区域从RGB颜色空间转换为HSV颜色空间,并进行截断处理。
将确定的目标区域从RGB颜色空间转换为HSV颜色空间,并对各通道像素值进行截断处理。其中H通道像素值限定在[0,180]之间,S通道像素值限定在[20,240]之间,V通道像素值限定在[20,240]之间。超过范围的像素值一律被压缩到与像素值最接近的值域边界。截断处理可以在一定程度上滤除噪声的影响。
步骤2:检测当前帧目标区域H、S、V通道的快速鲁棒特征,在下一帧的搜索区域同样检测三通道的快速鲁棒特征,使用近似最近邻搜索方法对两区域的特征点集进行匹配,并通过匹配对提纯剔除错误的匹配对。
设定匹配阈值Thr1为0.5,提纯阈值Thr2为3.5。在一次选取搜索窗后,H、S和V通道共提取特征点对43个,去除误匹配后剩27个,基本分布在目标或其边缘上。
目标区域与搜索区域H、S、V通道的快速鲁棒特征匹配及提存结果对比如图2、3、4所示。
步骤3:通过匹配提纯后的特征点位置获取最小外接兴趣区域,在当前帧的兴趣区域统计H通道色度直方图,并计算目标的概率分布图。
将各通道的匹配结果进行融合,再通过凸包算法确定一个包含所有提纯后特征点的最小外接兴趣区域,并按式(12)统计得到当前帧兴趣区域H通道色度直方图如图5所示,按式(13)计算得到目标的概率分布图如图6所示。
步骤4:在下一帧的兴趣区域采用均值漂移迭代算法确定目标概率分布图的质心即搜索窗口位置,并通过概率分布图的零阶矩和二阶矩初步确定搜索窗的尺寸、方向。
初步确定的搜索窗尺寸、方向并不能完全准确的反映目标外观、尺度以及形状的变化,这是因为连续自适应均值漂移算法对颜色敏感,若出现背景像素与目标颜色相近时,跟踪效果会变差或失效。测试视频1、2中目标通过均值漂移算法初步确定搜索窗信息的目标跟踪结果如图7、10所示。
步骤5:通过快速鲁棒特征点尺度和主方向对搜索窗尺寸、方向进行更新和约束。
快速鲁棒特征具有良好的尺度不变性和旋转不变性,若采用快速鲁棒特征的尺度和主方向信息对搜索窗尺寸、方向进行更新和约束的话,能够更好的适应目标的外观、尺寸以及形状变化。测试视频1、2中目标通过快速鲁棒特征的尺度和主方向信息最终确定的搜索窗信息即目标跟踪结果如图9、12所示。
步骤6:如果迭代收敛,单步跟踪完毕;否则,转步骤2继续运算。
收敛的条件为相邻两次运算的质心偏量小于一定阈值即||yi+1-yi||<0.1或大于预定的最大迭代次数10次。
本实施例采用了跟踪过程中的200帧视频图像的数据进行统计平均,本发明基于快速鲁棒特征匹配的仿射运动目标跟踪算法的单帧跟踪时间为0.1286秒,属于亚实时层次。为了在算法中达到实时效果,采用每三帧视频流图像取一帧进行处理的办法进行尝试,达到了较为满意的实时跟踪效果。这是因为相邻三帧内目标移动位置有限,并不影响连续自适应均值漂移算法的迭代计算效果。所以本发明提出的算法可应用于实时的目标跟踪系统。
本实施例中,实现了对复杂背景下仿射运动目标的鲁棒跟踪,算法实现软件平台为VisualC++2008Express,运行的硬件平台为英特尔单核3.00GHz处理器,算法的处理速度可以达到8帧/秒,采用每三帧视频流图像取一帧时处理速度可以达到24帧/秒。
1、当视频流图像背景具有与目标颜色相似的像素时,经典的连续自适应均值漂移算法跟踪效果变差或失效。已有技术将尺度不变特征变换的特征匹配和均值漂移算法结合,提高了均值漂移算法的准确性,但计算量较大,不适用于实时跟踪系统。鉴于此,本发明将快速鲁棒特征的检测和匹配过程融入连续自适应均值漂移算法框架,即在目标区域和搜索区域提取包含图像信息的快速鲁棒特征并利用近似最近邻搜索对特征点进行匹配,利用提纯后的匹配结果对连续自适应均值漂移算法搜索区域进行约束和更新。当图像背景具有与目标颜色相似的像素时,连续自适应均值漂移算法容易跟踪失效,本发明提出算法改善了这一缺陷。同时,基于快速鲁棒特征匹配的仿射运动目标跟踪算法实现了对复杂背景下仿射运动目标的跟踪,且实时性较好。
2、为了证明本发明提出算法对现有技术的改进,分别对连续自适应均值漂移算法,结合尺度不变特征变换和快速鲁棒特征匹配的连续自适应均值漂移算法进行了跟踪性能对比,如图7-12所示。图7、8、9为明亮场景,一辆汽车正在完成倒车动作,后退的同时向右边大幅度旋转。如图7所示,连续自适应均值漂移算法由于对背景颜色十分敏感,在此次跟踪过程中几乎失效。如图8所示,结合尺度不变特征变换的跟踪算法能够实现较好的跟踪,但搜索窗不能很好的收敛到目标的边缘。由图9可见,本发明提出的算法,在目标外观发生较大变化,旋转较大角度时,仍然能够实现稳健的跟踪,具有较为出色的旋转不变性。在运动期间,目标也基本没有受到旁边停留汽车的影响,搜索窗较好的收敛到目标边缘。图10、11、12为昏暗场景,一辆面包车由远至近的开来,在三岔路口遇到行人避让并右转弯离去。如图10所示,目标的尺度和方向均发生不同程度的改变。连续自适应均值漂移算法的跟踪过程中目标受到了行人和路面白色斑点的干扰,搜索窗逐渐偏离真实目标,有发散的趋势。如图11所示,结合尺度不变特征变换的跟踪算法能够实现较理想的跟踪,但搜索窗不能很好的反映目标的外观变化。由图12可见,尽管路旁有各种颜色的车辆、路面上还有显著的白色斑点,过程中行人也对目标有一定干扰,但本发明提出的算法依然能够实现鲁棒的跟踪。跟踪窗也很好的反映了目标的尺度和方向。
表1不同算法单帧跟踪时间对比
Figure BDA00001630682700131
此外,还采用了跟踪过程中的200帧视频图像的数据进行统计平均。由表1可见,尺度不变特征变换算法提取和匹配的特征点均多于快速鲁棒特征算法,但同时耗时和误匹配率均高过快速鲁棒特征算法不少。尤其是尺度不变特征变换特征较高的误匹配率导致了对应跟踪算法中的搜索窗不能准确的反映目标的外观变化。虽然结合快速鲁棒特征算法的跟踪耗时比连续自适应均值漂移算法稍多,但可以得到更加稳健的跟踪效果。

Claims (7)

1.一种基于快速鲁棒特征匹配的仿射运动目标跟踪算法,包括如下步骤:
1)在视频流中将确定的目标区域从RGB颜色空间转换为HSV颜色空间,并进行截断处理;
2)检测当前帧目标区域H、S、V通道的快速鲁棒特征点,在下一帧的搜索区域同样检测三通道的快速鲁棒特征点,使用近似最近邻搜索方法对两区域的特征点集进行匹配,并通过匹配对提纯剔除错误的匹配对;
3)通过匹配提纯后的特征点位置获取最小外接兴趣区域,在当前帧的最小外接兴趣区域统计H通道色度直方图,并计算目标的概率分布图;
4)在下一帧的兴趣区域采用均值漂移迭代算法确定目标概率分布图的质心即搜索窗口位置,并通过概率分布图的零阶矩和二阶矩初步确定搜索窗的尺寸、方向;
5)通过快速鲁棒特征点尺度和主方向对搜索窗尺寸、方向进行更新和约束;
6)如果迭代收敛,单步跟踪完毕;否则,转步骤2继续运算。
2.如权利要求1所述的基于快速鲁棒特征匹配的仿射运动目标跟踪算法,其特征是,步骤1)具体为:将确定的目标区域从RGB颜色空间转换为HSV颜色空间,并对各通道像素值进行截断处理。其中H通道像素值限定在[h_min,h_max]之间,S通道像素值限定在[s_min,s_max]之间,V通道像素值限定在[v_min,v_max]之间。超过范围的像素值一律被压缩到与像素值最接近的值域边界。
3.如权利要求1所述的基于快速鲁棒特征匹配的仿射运动目标跟踪算法,其特征是,步骤2)具体为:先构建图像尺度金字塔,使用积分图像对图像进行盒子滤波,并在各尺度图像上求取海赛矩阵行列式的响应函数,再在响应函数上通过非最大值抑制求取不同尺度的特征点并构建相应的特征描述子,以下是提取快速鲁棒特征的主要步骤:
积分图像:
借助积分图像,图像和高斯二阶微分模板的滤波可转化为对积分图像的加减运算:
积分图像中任意一点(i,j)的值Il(x),为原图像左上角到任意点(i,j)相应的对角线区域灰度值的总和,即:
I l ( x ) = Σ i ′ ≤ i Σ j ′ ≤ i I ( i ′ , j ′ ) - - - ( 1 )
式(1)中,I(i′,j′)表示原图像中点(i′,j′)灰度值;
顶点分别为A、B、C、D的窗口S内像元的灰度和∑s可通过式(2)算得:
s=IA(x)-IB(x)-IC(x)+ID(x)    (2)
海赛矩阵行列式近似:
给定图像I中点x(i,j)处尺度为σ的海赛矩阵H(x,σ)定义如下:
H ( x , σ ) = L xx ( x , σ ) L xy ( x , σ ) L xy ( x , σ ) L yy ( x , σ ) - - - ( 3 )
式(3)中,Lxx(x,σ)是高斯二阶微分
Figure FDA00001630682600013
在点x处与图像I的卷积,Lxy(x,σ)是高斯二阶微分在点x处与图像I的卷积、Lyy(x,σ)是高斯二阶微分
Figure FDA00001630682600022
在点x处与图像I的卷积;
实际应用中,采用离散的简化模板替代高斯二阶微分模板;通过如式(2)的过程,卷积就转化为对积分图像的加减运算;
尺度空间搜索特征点:
建立图像的尺度空间金字塔;不断增大盒子滤波的模板尺寸,通过积分图像求取海赛矩阵行列式的响应函数,再在响应函数上通过非最大值抑制求取不同尺度的特征点;
构建快速鲁棒特征描述子:
特征描述子的构建过程可分为两步:第一步在检测得到特征点的半径为6s的圆形邻域中,s为特征点所在尺度,通过一个以特征点为中心,张角为π/3的扇形滑动窗口累积计算哈尔小波在x,y方向的响应值,得到一个矢量(mw,θw):
m w = Σ w dx + Σ w dy - - - ( 6 )
其中w为统计的滑动窗口,dx、dy分别为滑动窗口内任一点在x、y方向的哈尔小波响应值,mw为响应累加值的幅值。
θ w = arctan ( Σ w dy / Σ w dx ) - - - ( 7 )
其中θw为响应累加值的幅角。
主方向θ为最大哈尔响应累加值对应的方向,即
θ=θw|max{mw}    (8)
第二步是在这个选定方向上构造一个边长为20s的正方形区域,沿主方向将图像划分为4×4个子块,每个子块都利用哈尔模板计算响应值,并对响应值进行统计而形成特征矢量V子块,即:
V子块=[∑dx,∑|dx|,∑dy,∑|dy|]    (9)
由于共有4×4个子块,因此特征描述子共有4×4×4=64维特征矢量组成;
使用以上方法在当前帧的目标区域和下一帧的搜索区域分别检测H、S、V通道的快速鲁棒特征,并使用近似最近邻搜索方法对两区域的特征点集进行匹配,即计算特征点对距离并进行排序,对每一个特征点确定其最近邻特征点和次近邻特征点,设定该特征点与其最近邻特征点距离为最近邻距离,同理设定次近邻距离。若两距离满足式(10),则认定匹配成功:
最近邻距离≤次近邻距离×Thr1        (10)
式(10)中,Thr1为设定的匹配阈值;
再通过匹配对提纯剔除错误的匹配对,剔除规则如式(11):
某一匹配对距离≤最近邻距离×Thr2    (11)
式(11)中,Thr2为设定的提纯阈值。
4.如权利要求1所述的基于快速鲁棒特征匹配的仿射运动目标跟踪算法,其特征是,步骤3具体为:通过凸包算法确定一个包含所有提纯后特征点的最小边界框,即为最小外接兴趣区域:
以式(12)的方式统计兴趣区域H通道色度直方图:
q u ^ = 1 n Σ ( x , y ) ∈ R q δ [ c ( f R q ( x , y ) ) - u ] - - - ( 12 )
式(12)中,
Figure FDA00001630682600032
是图像Rq的图像函数,c(.)是颜色空间的量化函数,u是直方图的索引值,δ为Kronecker函数,n为Rq中的像素个数;
然后通过式(13)的方式获得基于直方图后向投影的概率分布图:
p u = min { 255 q u ^ max ( q u ^ ) , 255 } u = 1 , . . . , n - - - ( 13 )
式(13)中,表示目标颜色直方图中H分量为u的像素个数。
5.如权利要求1所述的基于快速鲁棒特征匹配的仿射运动目标跟踪算法,其特征是,步骤4具体为:均值漂移迭代公式的一般形式如式(14)所示:
y 1 = Σ i = 1 n h x i w i g ( | | y 0 - x i h | | 2 ) Σ i = 1 n h w i g ( | | y 0 - x i h | | 2 ) - - - ( 14 )
式(14)中,xi为目标各个像素点位置,wi为目标各个像素点所对应权值,nh为像素点个数,h为核函数带宽,为核函数的负微分函数,y0为上一次搜索窗位置,y1为当前搜索窗位置;
若使得核函数为Epanechnikov核函数,则
Figure FDA00001630682600037
为常数,式(14)可进一步简化为式(15):
y 1 = Σ i = 1 n h x i w i Σ i = 1 n h w i - - - ( 15 )
详细的计算步骤即在概率分布图I(x,y)上分别计算零阶矩和x轴,y轴方向的一阶矩即M00、M10、M01,从而确定搜索窗口的位置和尺寸,计算各阶矩的方法如式(16)、(17)、(18)所示:
M 00 = Σ x Σ y I ( x , y ) - - - ( 16 )
M 10 = Σ x Σ y xI ( x , y ) - - - ( 17 )
M 01 = Σ x Σ y yI ( x , y ) - - - ( 18 )
由概率分布图的零阶矩以及在x轴、y轴方向的一阶矩,可计算出待搜索区域的质心(xc,yc):
x c = M 10 M 00 - - - ( 19 )
y c = M 01 M 00 - - - ( 20 )
根据概率分布图的零阶矩可以初步确定搜索窗口的尺度参数s:
s = 2 M 00 256 - - - ( 21 )
根据概率分布图的二阶矩M20、M02、M11,可以计算得出初步的目标旋转角度参数
M 20 = Σ x Σ y x 2 I ( x , y ) - - - ( 22 )
M 02 = Σ x Σ y y 2 I ( x , y ) - - - ( 23 )
M 11 = Σ x Σ y xyI ( x , y ) - - - ( 24 )
分别按式(25)、(26)、(27)定义a、b、c:
a = M 20 M 00 - x c 2 - - - ( 25 )
b = 2 ( M 11 M 00 - x c y c ) - - - ( 26 )
c = M 02 M 00 - y c 2 - - - ( 27 )
则目标旋转角度与水平方向夹角为
θ = 1 2 tan - 1 ( b a - c ) . - - - ( 28 )
6.如权利要求1所述的基于快速鲁棒特征匹配的仿射运动目标跟踪算法,其特征是,步骤5具体为:经过实验验证,目标上快速鲁棒特征点尺度和主方向的变化分别与目标的尺度和方向变化程度成正比。比如尺度变化具有式(29)的关系:
Scur/Spre=σc/σp    (29)
式(29)中,Spre、Scur分别为前后帧中的目标尺度;σc,σp分别为在前后帧中检测到的快速鲁棒特征匹配点c、p各自所在尺度;
利用提纯后的匹配点尺度进行统计,获得稳定的目标尺度变化,即
S cur = S pre × 1 n Σ i = 1 n σc i σp i - - - ( 30 )
式(30)中,n为所有优秀匹配特征点的数目;
同理,对提纯后的特征点c和p,设快速鲁棒特征点的主方向分别为Ac、Ap,则当前帧目标的方向可通过式(31)的方式得到,即:
O cur = O pre + 1 n Σ i = 1 n ( A c - A p ) - - - ( 31 )
式(31)中,n为所有优秀匹配特征点的数目,Opre、Ocur分别为前后帧中的目标方向;
通过式(30)、(31)的方式得到由快速鲁棒特征确定的当前帧目标的尺度和方向,并对由连续自适应均值漂移算法初步确定的目标尺度和方向进行约束和更新。
7.如权利要求1所述的基于快速鲁棒特征匹配的仿射运动目标跟踪算法,其特征是,步骤6,收敛的条件为相邻两次运算的质心偏量小于一定阈值即||yi+1-yi||<ε或大于预定的最大迭代次数,ε为预先设定的大于0的正数。
CN201210146627.9A 2012-05-11 2012-05-11 基于快速鲁棒特征匹配的仿射运动目标跟踪算法 Expired - Fee Related CN102750708B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210146627.9A CN102750708B (zh) 2012-05-11 2012-05-11 基于快速鲁棒特征匹配的仿射运动目标跟踪算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210146627.9A CN102750708B (zh) 2012-05-11 2012-05-11 基于快速鲁棒特征匹配的仿射运动目标跟踪算法

Publications (2)

Publication Number Publication Date
CN102750708A true CN102750708A (zh) 2012-10-24
CN102750708B CN102750708B (zh) 2014-10-15

Family

ID=47030857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210146627.9A Expired - Fee Related CN102750708B (zh) 2012-05-11 2012-05-11 基于快速鲁棒特征匹配的仿射运动目标跟踪算法

Country Status (1)

Country Link
CN (1) CN102750708B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102982543A (zh) * 2012-11-20 2013-03-20 北京航空航天大学深圳研究院 一种多源遥感图像配准方法
CN103112015A (zh) * 2013-01-29 2013-05-22 山东电力集团公司电力科学研究院 一种适用于工业机器人的操作物位置姿态识别方法
CN103778641A (zh) * 2012-10-25 2014-05-07 西安电子科技大学 基于小波描述子的目标跟踪方法
CN104156976A (zh) * 2013-05-13 2014-11-19 哈尔滨点石仿真科技有限公司 一种抗遮挡目标检测的多特征点跟踪方法
CN104253981A (zh) * 2014-09-28 2014-12-31 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
CN104820997A (zh) * 2015-05-14 2015-08-05 北京理工大学 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法
CN105427346A (zh) * 2015-12-01 2016-03-23 中国农业大学 一种运动目标跟踪方法及系统
WO2016169342A1 (zh) * 2015-04-20 2016-10-27 中兴通讯股份有限公司 一种目标跟踪方法及装置
CN107833620A (zh) * 2017-11-28 2018-03-23 北京羽医甘蓝信息技术有限公司 图像处理方法和图像处理装置
CN108038409A (zh) * 2017-10-27 2018-05-15 江西高创保安服务技术有限公司 一种行人检测方法
CN108351654A (zh) * 2016-02-26 2018-07-31 深圳市大疆创新科技有限公司 用于视觉目标跟踪的系统和方法
CN108667756A (zh) * 2018-05-04 2018-10-16 桂林电子科技大学 一种基于旋转小波基的多载波系统的传输方法
CN108872981A (zh) * 2018-04-20 2018-11-23 中国人民解放军国防科技大学 一种mimo雷达正则增强成像方法
CN109191496A (zh) * 2018-08-02 2019-01-11 阿依瓦(北京)技术有限公司 一种基于形状匹配的运动预测方法
CN109325453A (zh) * 2018-09-27 2019-02-12 沈阳理工大学 运动目标的模板匹配跟踪方法
CN109903281A (zh) * 2019-02-28 2019-06-18 中科创达软件股份有限公司 一种基于多尺度的目标检测方法及装置
CN109993775A (zh) * 2019-04-01 2019-07-09 云南大学 基于特征补偿的单目标跟踪方法
CN110825123A (zh) * 2019-10-21 2020-02-21 哈尔滨理工大学 一种基于运动算法的自动跟随载物车的控制系统及方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101807256A (zh) * 2010-03-29 2010-08-18 天津大学 一种基于多分辨率框架的物体识别检测方法
CN102004910A (zh) * 2010-12-03 2011-04-06 上海交通大学 基于surf特征点图匹配和运动生成模型的视频目标跟踪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101807256A (zh) * 2010-03-29 2010-08-18 天津大学 一种基于多分辨率框架的物体识别检测方法
CN102004910A (zh) * 2010-12-03 2011-04-06 上海交通大学 基于surf特征点图匹配和运动生成模型的视频目标跟踪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HERBERT BAY, ET AL.: "Speeded-Up Robust Features (SURF)", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 *
JIAN ZHANG, ET AL.: "Mean-shift Algorithm Integrating with SURF for Tracking", 《SEVENTH INTERNATIONAL CONFERENCE ON NATURAL COMPUTATION (ICNC), 2011》 *
董蓉 等。: "基于SIFT特征的目标多自由度mean-shift跟踪算法", 《控制与决策》 *

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103778641A (zh) * 2012-10-25 2014-05-07 西安电子科技大学 基于小波描述子的目标跟踪方法
CN103778641B (zh) * 2012-10-25 2016-08-03 西安电子科技大学 基于小波描述子的目标跟踪方法
CN102982543A (zh) * 2012-11-20 2013-03-20 北京航空航天大学深圳研究院 一种多源遥感图像配准方法
CN103112015A (zh) * 2013-01-29 2013-05-22 山东电力集团公司电力科学研究院 一种适用于工业机器人的操作物位置姿态识别方法
CN104156976A (zh) * 2013-05-13 2014-11-19 哈尔滨点石仿真科技有限公司 一种抗遮挡目标检测的多特征点跟踪方法
CN104253981A (zh) * 2014-09-28 2014-12-31 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
CN104253981B (zh) * 2014-09-28 2017-11-28 武汉烽火众智数字技术有限责任公司 一种用于视频侦查的运动目标按颜色排序的方法
WO2016169342A1 (zh) * 2015-04-20 2016-10-27 中兴通讯股份有限公司 一种目标跟踪方法及装置
CN104820997A (zh) * 2015-05-14 2015-08-05 北京理工大学 一种基于分块稀疏表达与hsv特征融合的目标跟踪方法
CN105427346A (zh) * 2015-12-01 2016-03-23 中国农业大学 一种运动目标跟踪方法及系统
CN108351654A (zh) * 2016-02-26 2018-07-31 深圳市大疆创新科技有限公司 用于视觉目标跟踪的系统和方法
US11263761B2 (en) 2016-02-26 2022-03-01 SZ DJI Technology Co., Ltd. Systems and methods for visual target tracking
CN108351654B (zh) * 2016-02-26 2021-08-17 深圳市大疆创新科技有限公司 用于视觉目标跟踪的系统和方法
CN108038409A (zh) * 2017-10-27 2018-05-15 江西高创保安服务技术有限公司 一种行人检测方法
CN108038409B (zh) * 2017-10-27 2021-12-28 江西高创保安服务技术有限公司 一种行人检测方法
CN107833620A (zh) * 2017-11-28 2018-03-23 北京羽医甘蓝信息技术有限公司 图像处理方法和图像处理装置
CN108872981B (zh) * 2018-04-20 2020-07-17 中国人民解放军国防科技大学 一种mimo雷达正则增强成像方法
CN108872981A (zh) * 2018-04-20 2018-11-23 中国人民解放军国防科技大学 一种mimo雷达正则增强成像方法
CN108667756A (zh) * 2018-05-04 2018-10-16 桂林电子科技大学 一种基于旋转小波基的多载波系统的传输方法
CN109191496B (zh) * 2018-08-02 2020-10-02 阿依瓦(北京)技术有限公司 一种基于形状匹配的运动预测方法
CN109191496A (zh) * 2018-08-02 2019-01-11 阿依瓦(北京)技术有限公司 一种基于形状匹配的运动预测方法
CN109325453A (zh) * 2018-09-27 2019-02-12 沈阳理工大学 运动目标的模板匹配跟踪方法
CN109325453B (zh) * 2018-09-27 2022-03-04 沈阳理工大学 运动目标的模板匹配跟踪方法
CN109903281A (zh) * 2019-02-28 2019-06-18 中科创达软件股份有限公司 一种基于多尺度的目标检测方法及装置
CN109993775A (zh) * 2019-04-01 2019-07-09 云南大学 基于特征补偿的单目标跟踪方法
CN110825123A (zh) * 2019-10-21 2020-02-21 哈尔滨理工大学 一种基于运动算法的自动跟随载物车的控制系统及方法

Also Published As

Publication number Publication date
CN102750708B (zh) 2014-10-15

Similar Documents

Publication Publication Date Title
CN102750708B (zh) 基于快速鲁棒特征匹配的仿射运动目标跟踪算法
Yoo et al. Gradient-enhancing conversion for illumination-robust lane detection
CN103077384B (zh) 一种车标定位识别的方法与系统
CN107679520B (zh) 一种适用于复杂条件下的车道线视觉检测方法
Huang et al. Lane detection based on inverse perspective transformation and Kalman filter
CN103871079A (zh) 基于机器学习和光流的车辆跟踪方法
Kühnl et al. Monocular road segmentation using slow feature analysis
Ghazali et al. Road lane detection using H-maxima and improved hough transform
CN106682586A (zh) 一种复杂光照条件下基于视觉的实时车道线检测的方法
CN106778551B (zh) 一种高速路段及城市道路车道线识别方法
Li et al. Nighttime lane markings recognition based on Canny detection and Hough transform
CN104036262B (zh) 一种lpr车牌筛选识别的方法和系统
Li et al. Road lane detection with gabor filters
CN104318258A (zh) 一种基于时域模糊和卡尔曼滤波器的车道线检测方法
CN102289948A (zh) 高速公路场景下一种多特征融合的多车辆视频跟踪方法
CN104200485A (zh) 一种面向视频监控的人体跟踪方法
CN101840507A (zh) 基于角点特征不变量和图论聚类的目标跟踪方法
CN102842037A (zh) 一种基于多特征融合的车辆阴影消除方法
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
CN103793708A (zh) 一种基于仿射校正的多尺度车牌精准定位方法
CN110059683A (zh) 一种基于端到端神经网络的大角度车牌倾斜矫正方法
CN103049788B (zh) 基于计算机视觉的待过行人数目的检测系统及方法
Cheng et al. A vehicle detection approach based on multi-features fusion in the fisheye images
Tian et al. Vehicle detection grammars with partial occlusion handling for traffic surveillance
CN111652033A (zh) 基于OpenCV的车道线检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20141015

Termination date: 20210511