CN102722697B - 一种无人飞行器视觉自主导引着陆的目标跟踪方法 - Google Patents

一种无人飞行器视觉自主导引着陆的目标跟踪方法 Download PDF

Info

Publication number
CN102722697B
CN102722697B CN201210152444.8A CN201210152444A CN102722697B CN 102722697 B CN102722697 B CN 102722697B CN 201210152444 A CN201210152444 A CN 201210152444A CN 102722697 B CN102722697 B CN 102722697B
Authority
CN
China
Prior art keywords
image
delta
target
template image
target following
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210152444.8A
Other languages
English (en)
Other versions
CN102722697A (zh
Inventor
郑智辉
汪渤
高志峰
周志强
董明杰
石永生
沈军
李笋
王海螺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Original Assignee
Beijing Institute of Technology BIT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT filed Critical Beijing Institute of Technology BIT
Priority to CN201210152444.8A priority Critical patent/CN102722697B/zh
Publication of CN102722697A publication Critical patent/CN102722697A/zh
Application granted granted Critical
Publication of CN102722697B publication Critical patent/CN102722697B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种无人飞行器视觉自主导引着陆的目标跟踪方法,首先将目标在连续两帧图像间的运动幅值按照“coarse-to-fine”的顺序划分为多个分辨率等级,通过离线训练的方式模拟不同等级下的先验运动并计算其对应的先验误差Jacobian矩阵,同时,由于每一层Jacobian矩阵的求取结合了训练时的先验知识,可以保证算法在迭代搜索目标的过程中能够有效地跳出局部极值,避免跟踪失败;采用模板图像目标区域的稀疏特征即FAST角点处的灰度值描述目标,相较于传统Lucas-Kanade算法在计算中常常用目标区域的所有像素点稠密的表达目标,运算复杂度大大降低。

Description

一种无人飞行器视觉自主导引着陆的目标跟踪方法
技术领域
本发明涉及一种基于多分辨率运动先验的逆向复合目标跟踪方法,特别适用于无人飞行器视觉自主导引着陆过程中的目标稳定跟踪,属于数字图像处理领域。
背景技术
无人飞行器视觉自主着陆是无人飞行器控制研究领域里的热点问题。它利用数字图像处理技术获取定位参数,具有设备简单,代价小,获取的信息量大等诸多优点。相较于GPS和惯性导航,是完全自主和无源的。预定着陆点模板图像与机载实时图像的快速稳定匹配和跟踪是实现精确着陆控制的前提。无人机着陆过程中,目标匹配图像往往存在旋转、尺度及视角变化、局部遮挡和运动模糊等,因此对图像匹配和跟踪算法的实时性和鲁棒性均提出了极高的要求。
自Lucas和Kanade首次提出基于仿射变换模型的图像配准算法(AffineImage Alignment)[1](参见Lucas B,Kanade T.An iterative image registrationtechnique with an application to stereo vision[C].Proceedings ofthe7th InternationalJoint Conference on Artificial Intelligence,1981,2:674-679.)以来,Lucas-Kanade算法在目标跟踪,光流场估计,图像拼接,运动估计,图像配准,人脸识别等领域获得广泛的应用。
Lucas-Kanade算法的基本原理是:求取几何变换参数使得模板图像T(x)的像素点x=(x,y)经过变换W后映射在输入图像I中的变形图像I与原始模板图像间的差方和(SSD)最小,可用数学表达式描述为:
p ^ = arg min p Σ x [ I ( W ( x ; p ) ) - T ( x ) ] 2 - - - ( 1 )
上式也称为Lucas-Kanade算法的最小二乘目标函数。式中W(x;p)为几何变换函数,T(x)为模板在坐标x处的像素点灰度值,I(W(x;p))表示输入图像在坐标x经变换后的新坐标W(x;p)处的灰度值。
最小化目标函数实际上是一个非线性最优化问题。为了求解这一最优化问题,假设已知变换参数初始值然后反复迭代累加Δp,并确保每次迭代关于Δp的近似目标表达式:
O ( Δp ) = Σ x [ I ( W ( x ; p + Δp ) ) - T ( x ) ] 2 - - - ( 2 )
最小。每次迭代结束后,对变换参数p进行一次更新:
p←p+Δp  (3)
如此反复执行最小化和参数更新操作,直到迭代收敛为止。
在算法迭代过程中,为了求取变换参数增量Δp,首先将(2)式在Δp=0处附近进行一阶Tayor展开,可得:
O ( Δp ) = Σ x [ I ( W ( x ; p ) ) + ▿ I ∂ W ∂ p Δp - T ( x ) ] 2 - - - ( 4 )
其中,表示输入图像I在新坐标W(x;p)处的梯度向量,为变换函数W(x;p)关于其参数向量p的Jacobian矩阵,定义W(x;p)=(Wx,Wy)T,则有:
∂ W ∂ p = ∂ W x ∂ p 1 ∂ W x ∂ p 2 . . . ∂ W x ∂ p n ∂ W y ∂ p 1 ∂ W y ∂ p 2 . . . ∂ W y ∂ p n - - - ( 5 )
由式(4)易知,Δp可通过求取该方程的最小二乘解得到。因而,求(4)式关于Δp的偏导,可得:
2 Σ x [ ▿ I ∂ W ∂ p ] T [ I ( W ( x ; p ) ) + ▿ I ∂ W ∂ p Δp - T ( x ) ] = 0 - - - ( 6 )
解方程(6)可直接得到Δp闭合形式的解
Δp = H - 1 Σ x [ ▿ I ∂ W ∂ p ] T [ T ( x ) - I ( W ( x ; p ) ) ] - - - ( 7 )
其中,H为n×n维Hessian矩阵,如下式所示:
H = Σ x [ ▿ I ∂ W ∂ p ] T [ ▿ I ∂ W ∂ p ] - - - ( 8 )
由Lucas-Kanade算法的具体步骤可知,的计算均与几何变换参数向量p相关,而p的计算是一个迭代更新的过程,W(s;p)在迭代过程中不断变化导致每次迭代都需要重新计算Hessian矩阵,算法效率较低。
为了提高算法效率,后续改进算法主要从如何降低每次迭代过程中Hessian矩阵的计算量入手,主要有前向复合算法[2](参见Shum HY,Szeliski R.Construction of panoramic image mosaics with global and local alignment[J].International Journal of Computer Vision,2000,16(1):63-84.)和逆向复合算法[3](参见Baker S,Matthews I.Equivalence and efficiency of image alignmentalgorithms[C].In Proceedings of the IEEE Conference on Computer Vision andPattem Recognition.Kauai:IEEE,2001,1090-1097.)两种。
前向复合算法不需要在每一步迭代过程中重新计算但仍然需要在每步迭代过程中重新计算Hessian矩阵H,其参数更新的计算复杂度相较基本Lucas-Kanade算法优化有限,计算效率相当。逆向复合算法中,Hessian矩阵是个常量,只需在迭代开始前预先计算一次即可,因而逆向复合算法效率大大高于前面两种算法,可以实现很高的实时性能。
无人飞行器自主视觉导引着陆阶段,由于机载摄像机相对于目标的高速运动,目标在实时视频相邻帧图像中的位置和形状都将发生较大幅度的变化,而原始的逆向复合跟踪算法由于原理上的限制,只能对在相邻帧图像之间存在较小运动的目标实现稳定跟踪,无法在这种高动态飞行状态下实现对地面目标的可靠跟踪。
发明内容
有鉴于此,本发明提供了一种无人飞行器视觉自主导引着陆的目标跟踪方法,能够在不增加算法在线计算复杂度的前提下实现高动态飞行环境下对地目标的稳定跟踪,适应目标存在尺度缩放、旋转、光照变化等极端环境。
本发明的一种无人飞行器视觉自主导引着陆的目标跟踪方法,包括如下步骤:
步骤1、机载摄像机采集着陆目标点模板图像并对模板图像进行仿射光照归一化处理,得到归一化之后的模板图像Inorm(x),其中x表示模板图像中像素点的坐标;
步骤2、对归一化后的模板图像Inorm(x)进行特征提取,得到具有N个特征点的特征模板图像;
步骤3、离线方式训练模板图像在m组不同运动范围下对应的先验误差Jacobian矩阵,具体方法如下:
设定无人飞行器的运动幅度范围S,将运动幅度范围S从小到大均分成m段运动范围,针对特征模板图像在每一段运动范围,采用透视变换方法对特征模板图像随机变形:即将特征模板图像的4个顶点在该段运动范围内分别随机移动一次作为一次随机变形,得到一幅变形后的特征模板图像,将特征模板图像按照上述方式移动Np次,且满足Np>>N,得到特征模板图像与随机变形后的Np幅图像之间的透视变换关系矩阵 δ μ 1 1 δ μ 1 2 . . . δ μ 1 N p . . . . . . . . . . . . δ μ j 1 δ μ j 2 . . . δ μ j N p . . . . . . . . . . . . δ μ n 1 δ μ n 2 . . . δ μ n N p , 计算随机变形后的Np幅特征模板图像相对于变形前的特征模板图像的对应特征点之间的灰度误差向量矩阵 e 1 1 e 1 2 . . . e 1 N p . . . . . . . . . . . . e j 1 e j 2 . . . e j N p . . . . . . . . . . . . e N 1 e N 2 . . . e N N p ; 其中,透视变换关系矩阵中的第k列 δμ k = [ δμ 1 k , δμ 2 k , . . . , δμ n k ] T 表示第k次变换得到的图像与特征模板图像之间的透视变换关系对应的参数向量,灰度误差向量矩阵中的第k列表示第k次变换得到的图像与特征模板图像对应特征点之间的灰度误向量,k∈[1,Np],n=8;
然后再根据公式 a 11 . . . a 1 j . . . a 1 N . . . . . . . . . . . . . . . a i 1 . . . a ij . . . a iN . . . . . . . . . . . . . . . a n 1 . . . a nj . . . a nN e 1 1 e 1 2 . . . e 1 N p . . . . . . . . . . . . e j 1 e j 2 . . . e j N p . . . . . . . . . . . . e N 1 e N 2 . . . e N N p = δμ 1 1 δμ 1 2 . . . δμ 1 N p . . . . . . . . . . . . δμ j 1 δμ j 2 . . . δμ j N p . . . . . . . . . . . . δμ n 1 δμ n 2 . . . δμ n N p 求得每一段运动范围对应的先验误差Jacobian矩阵Ah[q],q∈[1,m],其中
A h [ q ] = a q 11 . . . a q 1 j . . . a q 1 N . . . . . . . . . . . . . . . a q i 1 . . . a q ij . . . a q iN . . . . . . . . . . . . . . . a q n 1 . . . a q nj . . . a q nN , i ∈ [ 1 , n ] ;
步骤4、实际跟踪过程之初,对机载摄像机在t0时刻获得的图像采用步骤1的方法进行仿射光照归一化处理,然后确定步骤2得到的特征模板图像在t0时刻图像帧中的位置,将该位置在t0时刻图像帧中的区域图像定义为目标跟踪区域,采用步骤2的特征提取方法对目标跟踪区域图像进行特征提取,得到目标跟踪模板图像I(x,t0);
步骤5、对无人飞行器获得的t时刻的实时输入图像采用步骤1的方法进行仿射光照归一化处理,得到当前输入图像;然后再进行在线跟踪,具体步骤如下:
5-1、通过最优化目标函数O(μ(t))=||I(f(x;μ(t)),t)-I(x,t0)||2计算目标跟踪模板图像在t时刻的变换参数μ(t),使该变换参数μ(t)对目标跟踪模板图像I(x,t0)进行变换后得到的图像I(f(x;μ(t)),t)与目标跟踪模板图像I(x,t0)的差异最小;
5-2、采用步骤5-1计算得到的变换参数μ(t)对目标跟踪模板图像I(xt0)进行变换得到图像I(f(x;μ(t)),t0),以t时刻的变换参数μ(t)代替t+τ时刻的变换参数μ(t+τ),计算图像i(f(x;μ(t)),t0)在t+τ时刻的输入图像I(f(x;μ(t)),t+τ),其中τ是无人飞行器采集图像的最小时间间隔;
5-3、计算输入图像I(f(x;μ(t)),t+τ)与目标跟踪模板图像I(x,t0)之间的对应特征点之间的灰度误差图像e(t)=I(x,t0)-I(f(x;μ(t)),t+τ);令q=m,r=1;
5-4、计算Δμ(t+τ)=Ah[q]e(t);
5-5、首先计算当前输入图像和目标跟踪模板图像I(x,t0)之间的透视变换矩阵F(μ(t)),再计算t+τ时刻的输入图像相对于目标跟踪模板图像的透视变换矩阵:F(μ(t+τ))=F(μ(t))F-1(Δμ(t+τ));
5-6、判断Δμ(t+τ)与ε的关系:
当Δμ(t+τ)≥ε时,计算e(t)=I(x,t0)-I(F(μ(t+τ))x,t+τ),r=r+1,其中I(F(μ(t+τ))x,t+τ)表示目标跟踪模板图像I(x,t0)经过透视变换矩阵F(μ(t+τ))变换的图像;
再判断r与nt_iter的关系:
当r≤n_iter时,执行步骤5-4;
当r>n_iter时,执行步骤5-7;
当Δμ(t+τ)<ε,q=q-1;
当q>1时,执行步骤5-4;
当q=1时,执行步骤5-7;
其中n_iter为迭代次数,取5≤n_iter≤15;ε为跟踪精度阈值矢量,其维数与t+τ时刻的Δμ(t+τ)相同,ε=[ε1,ε2,...,εn]T,其中ε12=...=εn
5-7、将F(μ(t+τ))发送给无人飞行器控制系统,无人飞行器根据F(μ(t+τ))进行目标跟踪。
本发明的一种无人飞行器视觉自主导引着陆的目标跟踪方法具有如下有益效果:
(1)针对无人飞行器视觉自主着陆飞行阶段,目标区域在实时图像中的尺度及位置剧烈变化这一高动态环境下,逆向复合算法难以实现稳定跟踪的问题,首先将目标在连续两帧图像间的运动幅值按照“coarse-to-fine”的顺序划分为多个分辨率等级,通过离线训练的方式模拟不同等级下的先验运动并计算其对应的先验误差Jacobian矩阵。基于多分辨率分层思想的目标搜索策略一方面可以大大增加算法的收敛范围,使得高动态环境下的目标跟踪成为现实;同时,由于每一层Jacobian矩阵的求取结合了训练时的先验知识,可以保证算法在迭代搜索目标的过程中能够有效地跳出局部极值,避免跟踪失败。
(2)采用模板图像目标区域的稀疏特征即FAST角点处的灰度值描述目标,相较于传统Lucas-Kanade算法在计算中常常用目标区域的所有像素点稠密的表达目标,运算复杂度大大降低。
(3)通过对图像进行光照归一化处理以提高算法在不同光照环境下跟踪结果的稳定性。
附图说明
图1为本发明的生成透视变换的先验运动示意图。
图2为本发明的步骤5的流程图。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
步骤1、机载摄像机采集着陆目标点模板图像并对模板图像进行仿射光照归一化处理,得到归一化之后的模板图像在x点处的像素点灰度值Inorm(x),其中x表示模板图像中像素点的坐标;
对于视频序列,可将目标运动看作是二维空间与时间维度上的三维运动,为此,将t时刻实时输入图像在x=(x,y)处像素点的灰度值用I(x,t)表示。将某tx时刻的实时视频图像选作参考图像,对于在参考图像中选定的目标区域,可以用含有N个元素的点集表示,并将该点集对应的图像灰度值列向量I(x,tx)=[I(x1,tx),I(x2,tx),...,I(xN,tx)]T定义为模板图像。
分别计算出输入模板图像I(x,t0)的像素点灰度值的均值和标准差μ(i)和σ(I),归一化之后的图像在x点处的像素灰度值为:
I norm ( x ) = I ( x ) - &mu; ( I ) &sigma; ( I )
其中Inorm(x)表示归一化之后的图像在x点处的像素点灰度值,I(x)表示目标模板图像在x点处的像素点灰度值。
步骤2、对归一化后的模板图像Inorm(x)进行特征提取,得到具有N个特征点的特征模板图像;
将模板图像均分成s×s个局部子区域,针对每一个局部子区域,分别以该局部子区域中的每一个像素点为圆心选取一个半径为3个像素点的Bresenham圆,当圆周上有连续9个以上像素点的灰度值与圆心点处像素点灰度值的差值同时大于或同时小于阈值T时,该圆心的像素点则确定为候选角点,用所有符合上述条件的像素点灰度值来描述的图像即为特征模板图像,s取值的大小决定了特征模板图像上FAST-9特征点的数目,一般情况下,640*480大小图像,取s=160-200;T取值的大小决定了FAST-9特征点的灵敏度,一般情况下,取50<T<100。T取值越大,特征点越少;T取值越小,特征点越多。
步骤3:离线方式训练模板图像在m组不同运动范围下对应的先验误差Jacobian矩阵Ah[q],q∈[1,m]:
对于模板图像,人为地给出一个先验运动变换“扰动量”Δμ,用以模拟无人飞行器在接近目标的过程中由于存在复杂的滚动、俯仰和偏航等姿态变化引起的目标模板在后续视频图像中的变形。
在一定距离和角度范围内,可将地面目标近似成平面物体,由视觉成像几何原理,这种情况下的几何变形采用透视变换来实现图像的变形,对于透视变换来说,包含8个独立参数变量,因此,随机变换通过在一定运动范围内随机移动模板的4个顶点实现。
如图1所示,本实施例中,设计特征模板图像4个顶点随机移动的范围为0-100个像素点,即设无人飞行器的运动幅度范围S为100个像素点,将100个像素点均分成5段,即运动范围分为0-20像素点,20-40像素点、40-60像素点、60-80像素点和80-100像素点共5段,在每一段运动范围中,将4个顶点在运动范围中分别移动一次(假如在0-20个像素点的运动范围内,即是4个顶点的移动范围均在0-20个像素点范围内随机移动),得到一个变形后的图像,如此随机地移动Np(Np>>N)次,得到Np个变形后的图像,则得到特征模板图像与随机变形后的Np幅图像之间的透视变换关系矩阵可表示为:
&delta; &mu; 1 1 &delta; &mu; 1 2 . . . &delta; &mu; 1 N p . . . . . . . . . . . . &delta; &mu; j 1 &delta; &mu; j 2 . . . &delta; &mu; j N p . . . . . . . . . . . . &delta; &mu; n 1 &delta; &mu; n 2 . . . &delta; &mu; n N p , 并可计算随机变形后的特征模板图像相对于变形前的特征模板图像的对应特征点之间的灰度误差向量矩阵 e 1 1 e 1 2 . . . e 1 N p . . . . . . . . . . . . e j 1 e j 2 . . . e j N p . . . . . . . . . . . . e N 1 e N 2 . . . e N N p ; 其中,透视变换关系矩阵中的第k列表示第k次变换得到的图像与特征模板图像之间的透视变换关系对应的参数向量,灰度误差向量矩阵中的第k列表示第k次变换得到的图像与特征模板图像对应特征点之间的灰度误向量,k∈[1,Np],由于特征模板图像移动的4个顶点具有8个坐标,因此n=8;
再根据公式 a 11 . . . a 1 j . . . a 1 N . . . . . . . . . . . . . . . a i 1 . . . a ij . . . a iN . . . . . . . . . . . . . . . a n 1 . . . a nj . . . a nN e 1 1 e 1 2 . . . e 1 N p . . . . . . . . . . . . e j 1 e j 2 . . . e j N p . . . . . . . . . . . . e N 1 e N 2 . . . e N N p = &delta;&mu; 1 1 &delta;&mu; 1 2 . . . &delta;&mu; 1 N p . . . . . . . . . . . . &delta;&mu; j 1 &delta;&mu; j 2 . . . &delta;&mu; j N p . . . . . . . . . . . . &delta;&mu; n 1 &delta;&mu; n 2 . . . &delta;&mu; n N p 求得每一段运动范围对应的先验误差Jacobian矩阵Ah[q],q∈[1,m],其中
A h [ q ] = a q 11 . . . a q 1 j . . . a q 1 N . . . . . . . . . . . . . . . a q i 1 . . . a q ij . . . a q iN . . . . . . . . . . . . . . . a q n 1 . . . a q nj . . . a q nN , i &Element; [ 1 , n ] ;
可求取矩阵Ah在如下最小二乘意义下的解:
O ( A h ) = &Sigma; k = 1 N p ( &Delta; &mu; k - A h e k )
其中,k∈[1,NP], &Delta;&mu; k = [ &delta;&mu; 1 k , &delta;&mu; 2 k , . . . , &delta;&mu; n k ] T , e k = [ e 1 k , e 2 k , . . . e N k ] T .
U = [ &Delta;&mu; 1 , &Delta;&mu; 2 , . . . , &Delta;&mu; N p ] n &times; N p , E = [ e 1 , e 2 , . . . , e N p ] N &times; N p , 得如下方程组:
AhE=U
并最终可求得矩阵Ah的最小二乘解:
Ah=UET(EET)-1
步骤4、在实际跟踪过程中,对机载摄像机在t0时刻获得的图像采用步骤1的方法进行仿射光照归一化处理,然后确定步骤2得到的特征模板图像在t0时刻图像帧中的位置,将该位置在t0时刻图像帧中的区域图像定义为目标跟踪区域,采用步骤2的特征提取方法对目标跟踪区域图像进行特征提取,得到目标跟踪模板图像,具体方法如下:
(1)提取模板图像的SURF特征点和SURF特征描述子;
(2)提取实时图像的SURF特征点和SURF特征描述子;
(3)比较特征描述子之间的欧式距离,确定正确匹配对;
(4)利用RANSAC算法选定模板图像在t0时刻图像帧中的位置,并确定目标跟踪区域;
(5)对于在t0时刻图像帧中选定的目标跟踪区域,用含有N个元素的稀疏FAST-9特征点集x={x1,x2,...,xN}表示,并将该点集对应的图像灰度值列向量I(x,t0)=[I(x1,t0),I(x2,t0),...,(x,t0)]T定义为目标跟踪模板图像。
步骤5、对无人飞行器获得的t时刻的实时输入图像采用步骤1的方法进行仿射光照归一化处理,得到当前输入图像;然后采用“coarse-to-fine”多分辨率分层训练的思想,按照运动范围由大到小的顺序,分别对当前输入图像进行搜索,最后计算用于控制无人飞行器跟踪目标的透视变换矩阵,具体步骤如下:
5-1、通过最优化目标函数O(μ(t))=||If(x;μ(t)),t)-I(x,t0)||2计算目标跟踪模板图像在t时刻的变换参数μ(t),使该变换参数μ(t)对目标跟踪模板图像I(x,t0)进行变换后得到的图像I(f(x;μ(t)),t)与目标跟踪模板图像I(x,t0)的差异最小;
在无人飞行器自主视觉导引着陆飞行过程中,由于机载摄像机与目标区域之间存在的空间相对运动(位置和姿态),目标区域对应的模板图像将在实时图像中产生相对于参考图像的平移运动以及几何变形等,我们利用几何变换(仿射或者透视变换)x→f(x;μ(t))来描述这种相对运动。其中μ(t)=[μ1(t),μ2(t),...,μn(t)]T为描述这种几何变换的n维参数列向量(N>n),且变换函数f对μ、x均可微。对于目标模板,有f(x;μ(t0))=x。
根据环境光照不变性假设可知,物理场景中的空间点在跟踪过程中亮度保持不变,这样,视频序列中的目标跟踪问题便转化为下式所示的的几何变换参数μ(t)的求解问题:
I(f(x;μ(t)),t)=I(x,t0)  (9)
式中I(f(x;μ(t)),t)=[I(f(x1;μ(t)),t),I(f(x2;μ(t)),t,...,I(f(xN;μ(t)),t)]T
相应的,t时刻的变换参数μ(t)可通过最优化如下目标函数得到:
O(μ(t))=||I(f(x;μ(t)),t)-I(x,t0)||2  (10)
5-2、采用步骤5-1计算得到的变换参数μ(t)对目标跟踪模板图像I(x,t0)进行变换得到图像I(f(x;μ(t)),t0),以t时刻的变换参数μ(t)代替t+τ时刻的变换参数μ(t+τ),计算图像I(f(x;μ(t)),t0)在t+τ时刻的输入图像I(f(x;μ(t)),t+τ),其中τ是无人飞行器采集图像的最小时间间隔;
对于视频序列,目标跟踪问题可以进一步描述为:假定t时刻的几何变换参数μ(t)已知,即I(f(x;μ(t)),t)=I(x,t0),求取t+τ时刻的变换参数μ(t+τ),使得该时刻的实时输入图像I(f(x;μ(t+τ)),t+τ)=I(x,t0)。
可将式(10)所示的目标函数改写为如下关于时间t和变换参数向量μ(t)的增量形式:
O(Δμ(t+τ))=||I(f(x;μ(t+τ)),t+τ)-I(x,t0)||2  (11)=||I(f(x;μ(t)+Δμ(t+τ)),t+τ)-I(x,t0)||2
求解上述方程,可得t时刻变换参数增量Δμ(t)的最小二乘解:
Δμ(t+τ)=A(t)[I(x,t0)-I(f(x;μ(t)),t+τ)]  (12)
式中A(t)=(RT(μ(t),t)R(μ(t),t))-1RT(μ(t),t)。
上式中, R ( &mu; ( t ) , t ) = [ I &mu; 1 ( f ( x ; &mu; ( t ) ) , t ) I &mu; 2 ( f ( x ; &mu; ( t ) ) , t ) , . . . , I &mu; n ( f ( x ; &mu; ( t ) ) , t ) ] N &times; n 为向量I(f(x;μ(t)),t)关于向量μ(t)的N×n维Jacobian矩阵。
根据逆向复合模板跟踪原理,式(11)的目标函数改写为:
O(Δμ(t+τ))=||I(f(x;μ(t)),t+τ)-I(f(x;Δμ(t+τ)),t0)||2  (13)
同样,可由上式求得t时刻变换参数增量Δμ(t)的最小二乘解:
Δμ(t+τ)=A(t0)[I(x,t0)-I(f(x;μ(t)),t+τ)]  (14)
式中,A(t0)=(RT(x,t0)R(x,t0))-1RT(x,t0),通常将其称为跟踪误差Jacobian矩阵。
式中, R ( x , t 0 ) = [ I &mu; 1 ( x , t 0 ) , I &mu; 2 ( x , t 0 ) , . . . , I &mu; n ( x , t 0 ) ] N &times; n 为向量I(f(x;μ(t)),t)关于向量μ(t)的在t0时刻的N×n维Jacobian矩阵。
5-3计算输入图像I(f(x;μ(t)),t+τ)与目标跟踪模板图像I(x,t0)之间的对应特征点之间的灰度误差图像e(t)=I(x,t0)-I(f(x;μ(t)),t+τ);令q=m,r=1;
5-4、计算Δμ(t+τ)=Ah[q]e(t);
5-5、首先计算当前输入图像和目标跟踪模板图像I(x,t0)之间的透视变换矩阵F(μ(t)),再计算t+τ时刻的输入图像相对于目标跟踪模板图像的透视变换矩阵:F(μ(t+τ))=F(μ(t))F-1(Δμ(t+τ));
其中,F-1(Δμ(t+τ))的计算方法如下:由于透视变换矩阵 F ( &mu; ( t ) ) = p 1 ( t ) p 2 ( t ) p 3 ( t ) p 4 ( t ) p 5 ( t ) p 6 ( t ) p 7 ( t ) p 8 ( t ) 1 为包含8个独立变量的3x3可逆单应矩阵,则对应的t时刻透视变换对应的参数向量μ(t)=(p1(t),p2(t),p3(t),p4(t),p5(t),p6(t),p7(t),p8(t))T,因此,可将μ(t)中向量还原到F(μ(t))中,求得F(μ(t));同理,在步骤5-4求得的Δμ(t+τ)的基础上,根据上述原理计算得到F(Δμ(t+τ)),再对其求逆矩阵,可最终求得F-1(Δμ(t+τ))的值。
5-6、判断Δμ(t+τ)与ε的关系:
当Δμ(t+τ)≥ε时,计算e(t)=I(x,t0)-I(F(μ(t+τ))x,t+τ),r=r+1,其中I(F(μ(t+τ))x,t+τ)表示目标跟踪模板图像I(xt0)经过透视变换矩阵F(μ(t+τ))变换的图像;
再判断r与n_iter的关系:
当r≤n_iter时,执行步骤5-4;
当r>n_iter时,执行步骤5-7;
当Δμ(t+τ)<ε,计算F(μ(t+τ)),q=q-1;
当q>1时,执行步骤5-4;
当q=1时,执行步骤5-7;
其中n_iter为迭代次数,取5≤n_iter≤15;ε为跟踪精度阈值矢量,其维数与t+τ时刻的Δμ(t+τ)相同,ε=[ε1,ε2,...,εn]T,其中ε12=...=εn;取0.5<εn<0.8。
5-7、将F(μ(t+τ))发送给无人飞行器控制系统,无人飞行器根据F(μ(t+τ))进行目标跟踪。
在上述的步骤5-1至5-7中,首先利用最大运动范围对应的Jacobian矩阵求取t+τ时刻的变换参数的增量Δμ(t+τ),相当于在一个较大的区域范围内搜索目标。再将Δμ(t+τ)与设定的跟踪精度阈值矢量ε进行比较,如果Δμ(t+τ)大于等于ε,说明该当前输入图像属于此时Jacobian矩阵对应的运动范围,利用该Jacobian矩阵使算法在有限的迭代次数内收敛,使Δμ(t+τ)逐渐减小,直至Δμ(t+τ)小于ε。求取此时透视变换矩阵F(μ(t+τ)),控制无人飞行器进行目标跟踪。但此时的跟踪精度不高,只相当于圈定了一个包含目标的较小区域。继续在此较小区域内利用低一层的Jacobian矩阵重复迭代,进一步逼近目标的精确位置。依此类推,直至算法在最底层Jacobian矩阵对应的区域范围内收敛,即可认为完成了对目标的精确跟踪。这种基于多分辨率分层思想的目标搜索策略一方面可以大大增加算法的收敛范围,使的高动态环境下的目标跟踪成为现实;另一方面,由于离线已经训练出不同运动范围对应的Jacobian矩阵,在本步骤中只需多次迭代寻找当前输入图像对应的最小运动范围即可,避免跟踪失败。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (3)

1.一种无人飞行器视觉自主导引着陆的目标跟踪方法,其特征在于,包括如下步骤:
步骤1、机载摄像机采集着陆目标点模板图像并对模板图像进行仿射光照归一化处理,得到归一化之后的模板图像Inorm(x),其中x表示模板图像中像素点的坐标;
步骤2、对归一化后的模板图像Inorm(x)进行特征提取,得到具有N个特征点的特征模板图像;
步骤3、离线方式训练模板图像在m组不同运动范围下对应的先验误差Jacobian矩阵,具体方法如下:
设定无人飞行器的运动幅度范围S,将运动幅度范围S从小到大均分成m段运动范围,针对特征模板图像在每一段运动范围,采用透视变换方法对特征模板图像随机变形:即将特征模板图像的4个顶点在该段运动范围内分别随机移动一次作为一次随机变形,得到一幅变形后的特征模板图像,将特征模板图像按照上述方式移动Np次,且满足Np>>N,得到特征模板图像与随机变形后的Np幅图像之间的透视变换关系矩阵 &delta; &mu; 1 1 &delta; &mu; 1 2 . . . &delta; &mu; 1 N p . . . . . . . . . . . . &delta; &mu; j 1 &delta; &mu; j 2 . . . &delta; &mu; j N p . . . . . . . . . . . . &delta; &mu; n 1 &delta; &mu; n 2 . . . &delta; &mu; n N p , 计算随机变形后的Np幅特征模板图像相对于变形前的特征模板图像的对应特征点之间的灰度误差向量矩阵 e 1 1 e 1 2 . . . e 1 N p . . . . . . . . . . . . e j 1 e j 2 . . . e j N p . . . . . . . . . . . . e N 1 e N 2 . . . e N N p , 其中,透视变换关系矩阵中的第k列表示第k次变换得到的图像与特征模板图像之间的透视变换关系对应的参数向量,灰度误差向量矩阵中的第k列表示第k次变换得到的图像与特征模板图像对应特征点之间的灰度误差向量,k∈[1,Np],n=8;
然后再根据公式 a 11 . . . a 1 j . . . a 1 N . . . . . . . . . . . . . . . a i 1 . . . a ij . . . a iN . . . . . . . . . . . . . . . a n 1 . . . a nj . . . a nN e 1 1 e 1 2 . . . e 1 N p . . . . . . . . . . . . e j 1 e j 2 . . . e j N p . . . . . . . . . . . . e N 1 e N 2 . . . e N N p = &delta; &mu; 1 1 &delta; &mu; 1 2 . . . &delta; &mu; 1 N p . . . . . . . . . . . . &delta; &mu; j 1 &delta; &mu; j 2 . . . &delta; &mu; j N p . . . . . . . . . . . . &delta; &mu; n 1 &delta; &mu;n n 2 . . . &delta; &mu; n N p 求得每一段运动范围对应的先验误差Jacobian矩阵Ah[q],q∈[1,m],其中
A h = a 11 . . . a 1 j . . . a 1 N . . . . . . . . . . . . . . . a i 1 . . . a ij . . . a iN . . . . . . . . . . . . . . . a n 1 . . . a nj . . . a nN , i &Element; [ 1 , n ] ;
步骤4、实际跟踪过程之初,对机载摄像机在t0时刻获得的图像采用步骤1的方法进行仿射光照归一化处理,然后确定步骤2得到的特征模板图像在t0时刻图像帧中的位置,将该位置在t0时刻图像帧中的区域图像定义为目标跟踪区域,采用步骤2的特征提取方法对目标跟踪区域图像进行特征提取,得到目标跟踪模板图像I(x,t0);
步骤5、对无人飞行器获得的t时刻的实时输入图像采用步骤1的方法进行仿射光照归一化处理,得到当前输入图像;然后再进行在线跟踪,具体步骤如下:
5-1、通过最优化目标函数O(μ(t))=||I(f(x;μ(t)),t)-I(x,t0)||2计算目标跟踪模板图像在t时刻的变换参数μ(t),使该变换参数μ(t)对目标跟踪模板图像I(x,t0)进行变换后得到的图像I(f(x;μ(t)),t)与目标跟踪模板图像I(x,t0)的差异最小;
5-2、采用步骤5-1计算得到的变换参数μ(t)对目标跟踪模板图像I(x,t0)进行变换得到图像I(f(x;μ(t)),t0),以t时刻的变换参数μ(t)代替t+τ时刻的变换参数μ(t+τ),计算图像I(f(x;μ(t)),t0)在t+τ时刻的输入图像I(f(x;μ(t)),t+τ),其中τ是无人飞行器采集图像的最小时间间隔;
5-3、计算输入图像I(f(x;μ(t)),t+τ)与目标跟踪模板图像I(x,t0)之间的对应特征点之间的灰度误差图像e(t)=I(x,t0)-I(f(x;μ(t)),t+τ);令q=m,r=1;
5-4、计算Δμ(t+τ)=Ah[q]e(t);
5-5、首先计算当前输入图像和目标跟踪模板图像I(x,t0)之间的透视变换矩阵F(μ(t)),再计算t+τ时刻的输入图像相对于目标跟踪模板图像的透视变换矩阵:F(μ(t+τ))=F(μ(t))F-1(Δμ(t+τ));
5-6、判断Δμ(t+τ)与ε的关系:
当Δμ(t+τ)≥ε时,计算e(t)=I(x,t0)-I(F(μ(t+τ))x,t+τ),r=r+1,其中I(F(μ(t+τ))x,t+τ)表示目标跟踪模板图像I(x,t0)经过透视变换矩阵F(μ(t+τ))变换的图像;
再判断r与n_iter的关系:
当r≤n_iter时,执行步骤5-4;
当r>n_iter时,执行步骤5-7;
当Δμ(t+τ)<ε,q=q-1;
当q>1时,执行步骤5-4;
当q=1时,执行步骤5-7;
其中n_iter为迭代次数,取5≤n_iter≤15;ε为跟踪精度阈值矢量,其维数与t+τ时刻的Δμ(t+τ)相同,ε=[ε12,...,εn]T,其中ε1=ε2=...=εn
5-7、将F(μ(t+τ))发送给无人飞行器控制系统,无人飞行器根据F(μ(t+τ))进行目标跟踪。
2.如权利要求1所述的一种无人飞行器视觉自主导引着陆的目标跟踪方法,其特征在于,所述步骤2中采用FAST-9角点检测方法对模板图像进行特征提取,具体为:
将模板图像均分成s×s个局部子区域,针对每一个局部子区域,分别以该局部子区域中的每一个像素点为圆心选取一个半径为3个像素点的Bresenham圆,当圆周上有连续9个以上像素点的灰度值与圆心点处像素点灰度值的差值同时大于或同时小于阈值T时,该圆心的像素点则确定为候选角点,用所有符合上述条件的像素点灰度值来描述的图像即为特征模板图像,其中,s取值的大小与FAST-9特征点的数目成正比;T取值的大小与FAST-9特征点的灵敏度成反比。
3.如权利要求1所述的一种无人飞行器视觉自主导引着陆的目标跟踪方法,其特征在于,所述步骤4中的目标跟踪区域的确定方法为:
步骤301、提取特征模板图像的SURF特征点和SURF特征描述子;
步骤302、提取实时图像的SURF特征点和SURF特征描述子;
步骤303、比较特征模板图像的特征描述子和实时图像的特征描述子之间的欧式距离,确定正确匹配对;
步骤304、利用RANSAC算法选定特征模板图像在实时图像中的t0时刻图像帧中的位置,并确定目标跟踪区域。
CN201210152444.8A 2012-05-16 2012-05-16 一种无人飞行器视觉自主导引着陆的目标跟踪方法 Expired - Fee Related CN102722697B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210152444.8A CN102722697B (zh) 2012-05-16 2012-05-16 一种无人飞行器视觉自主导引着陆的目标跟踪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210152444.8A CN102722697B (zh) 2012-05-16 2012-05-16 一种无人飞行器视觉自主导引着陆的目标跟踪方法

Publications (2)

Publication Number Publication Date
CN102722697A CN102722697A (zh) 2012-10-10
CN102722697B true CN102722697B (zh) 2015-06-03

Family

ID=46948447

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210152444.8A Expired - Fee Related CN102722697B (zh) 2012-05-16 2012-05-16 一种无人飞行器视觉自主导引着陆的目标跟踪方法

Country Status (1)

Country Link
CN (1) CN102722697B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103533384B (zh) * 2013-09-30 2016-09-28 广州华多网络科技有限公司 图像处理方法、图像复原方法、装置及系统
JP6149829B2 (ja) * 2014-09-03 2017-06-21 コニカミノルタ株式会社 画像処理装置及び画像処理方法
CN104237883B (zh) * 2014-09-15 2017-02-01 西安电子科技大学 一种采用稀疏表示的机载雷达空时自适应处理方法
WO2016065625A1 (en) * 2014-10-31 2016-05-06 SZ DJI Technology Co., Ltd. Systems and methods for walking pets
CN104881029B (zh) * 2015-05-15 2018-01-30 重庆邮电大学 基于一点ransac和fast算法的移动机器人导航方法
CN105204515B (zh) * 2015-08-27 2018-04-10 泉州装备制造研究所 无人机自主着陆的测量解析及控制方法和装置
CN105447459B (zh) * 2015-11-18 2019-03-22 上海海事大学 一种无人机自动检测目标和跟踪方法
CN106155070B (zh) * 2016-07-04 2024-04-30 零度智控(北京)智能科技有限公司 无人机起飞控制方法及装置、遥控终端
EP3480118B1 (en) 2017-09-06 2021-03-03 Autel Robotics Co., Ltd. Aerial vehicle landing method
CN107992899A (zh) * 2017-12-15 2018-05-04 四川大学 一种机场场面运动目标检测识别方法
CN110568436B (zh) * 2018-06-06 2021-12-03 中国民航科学技术研究院 一种基于随机有限模型集的飞行物多目标跟踪方法
CN109839623B (zh) * 2019-02-14 2020-09-11 北京遥感设备研究所 一种地外天体着陆测量雷达面目标回波信号测距处理方法
CN110001980B (zh) * 2019-04-19 2021-11-26 深圳市道通智能航空技术股份有限公司 一种飞行器降落方法及装置
CN110310299B (zh) * 2019-07-03 2021-11-19 北京字节跳动网络技术有限公司 用于训练光流网络、以及处理图像的方法和装置
CN111145217A (zh) * 2019-12-27 2020-05-12 湖南华诺星空电子技术有限公司 一种基于kcf的无人机跟踪方法
CN113759984B (zh) * 2021-11-09 2022-02-08 山东天亚达新材料科技有限公司 一种竞速无人机的数据智能交互方法、装置及设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1873439A (zh) * 2006-06-27 2006-12-06 上海大学 基于仿生人眼控制的地面运动目标低空自动跟踪系统
CN101980284A (zh) * 2010-10-26 2011-02-23 北京理工大学 基于两尺度稀疏表示的彩色图像降噪方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008153597A1 (en) * 2006-12-06 2008-12-18 Honeywell International, Inc. Methods, apparatus and systems for enhanced synthetic vision and multi-sensor data fusion to improve operational capabilities of unmanned aerial vehicles

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1873439A (zh) * 2006-06-27 2006-12-06 上海大学 基于仿生人眼控制的地面运动目标低空自动跟踪系统
CN101980284A (zh) * 2010-10-26 2011-02-23 北京理工大学 基于两尺度稀疏表示的彩色图像降噪方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于视觉的无人机自主着陆地标识别方法;李宇等;《计算机应用研究》;20120731;第29卷(第7期);2780-2783页 *

Also Published As

Publication number Publication date
CN102722697A (zh) 2012-10-10

Similar Documents

Publication Publication Date Title
CN102722697B (zh) 一种无人飞行器视觉自主导引着陆的目标跟踪方法
CN109166149B (zh) 一种融合双目相机与imu的定位与三维线框结构重建方法与系统
CN109102525B (zh) 一种基于自适应位姿估计的移动机器人跟随控制方法
CN108051002B (zh) 基于惯性测量辅助视觉的运输车空间定位方法及系统
CN109211241B (zh) 基于视觉slam的无人机自主定位方法
Mueggler et al. Continuous-time trajectory estimation for event-based vision sensors
CN103247075B (zh) 基于变分机制的室内环境三维重建方法
CN114419147A (zh) 一种救援机器人智能化远程人机交互控制方法及系统
CN103413352A (zh) 基于rgbd多传感器融合的场景三维重建方法
JP2021518622A (ja) 自己位置推定、マッピング、およびネットワークトレーニング
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
Qian et al. Robust visual-lidar simultaneous localization and mapping system for UAV
Nguyen et al. Vision-based qualitative path-following control of quadrotor aerial vehicle
CN105096341A (zh) 基于三焦张量和关键帧策略的移动机器人位姿估计方法
CN114708293A (zh) 基于深度学习点线特征和imu紧耦合的机器人运动估计方法
CN111812978B (zh) 一种多无人机协作slam方法与系统
CN117367427A (zh) 一种适用于室内环境中的视觉辅助激光融合IMU的多模态slam方法
Zhu et al. PLD-VINS: RGBD visual-inertial SLAM with point and line features
CN104950893A (zh) 基于单应性矩阵的最短路径视觉伺服控制方法
Wei et al. Novel robust simultaneous localization and mapping for long-term autonomous robots
Fang et al. A motion tracking method by combining the IMU and camera in mobile devices
Fan et al. A nonlinear optimization-based monocular dense mapping system of visual-inertial odometry
Giordano et al. 3D structure identification from image moments
CN116681733A (zh) 一种空间非合作目标近距离实时位姿跟踪方法
CN112906573B (zh) 基于轮廓点集的行星表面导航路标匹配方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150603

Termination date: 20160516