CN101598556A - 一种未知环境下无人机视觉/惯性组合导航方法 - Google Patents

一种未知环境下无人机视觉/惯性组合导航方法 Download PDF

Info

Publication number
CN101598556A
CN101598556A CNA2009100893161A CN200910089316A CN101598556A CN 101598556 A CN101598556 A CN 101598556A CN A2009100893161 A CNA2009100893161 A CN A2009100893161A CN 200910089316 A CN200910089316 A CN 200910089316A CN 101598556 A CN101598556 A CN 101598556A
Authority
CN
China
Prior art keywords
mrow
mtd
coordinate system
msubsup
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2009100893161A
Other languages
English (en)
Other versions
CN101598556B (zh
Inventor
范耀祖
徐超
沈晓蓉
张海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN2009100893161A priority Critical patent/CN101598556B/zh
Publication of CN101598556A publication Critical patent/CN101598556A/zh
Application granted granted Critical
Publication of CN101598556B publication Critical patent/CN101598556B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)

Abstract

本发明一种未知环境下无人机视觉/惯性组合导航方法,该方法涉及到图像处理、惯性导航计算和滤波估计,因此,在进行主要导航方法之前首先需要进行坐标系定义、坐标系对准和滤波方程建立等。在本发明中所述的导航过程主要包括:图像获取并对图像进行预处理;通过SIFT方法进行特征点提取;特征点匹配;滤波方程更新;对更新后的滤波方程进行滤波估计五步骤来实现。本发明只要求当前的地面图像而不需要特定的外部信息配合,因此,理论上可以在任何环境(包括水下、遮挡、峡谷、地下等)下使用;具有隐蔽性好,精度高的优点。

Description

一种未知环境下无人机视觉/惯性组合导航方法
技术领域
本发明涉及导航技术领域,具体来说是一种未知环境下无人机视觉/惯性组合导航方法。
背景技术
无人机导航是指无人机依赖机载的导航设备和飞行控制系统来进行定位和控制并最终完成飞行任务的技术,它是无人机研制的关键技术之一。在无人机导航中常用的方法包括:遥控指挥、惯性导航系统(Inertial Navigation System,INS)、卫星导航、组合导航等。
目前也逐渐开展视觉导航系统的研究,但基本上都是以GPS卫星导航为主,其他几种导航方式为辅的方案。然而,由于无人机,特别是作战用小型无人机的应用电磁环境恶劣,遥控通讯链路难以维持,GPS信号也容易受到干扰而无法使用。为了提高无人机导航的适应性,经常采用的导航方法包括惯性导航、景象匹配导航等。
然而这些方法仍然存在一些问题。惯性导航虽然具有自主性好、抗干扰能力强等优点,然而,相对于无人机体积和载荷来讲,高精度的惯性导航系统体积庞大,重量和耗电量则远远超出了无人机的能力范围,同时,惯性导航系统还存在着误差累积等不足而难以单独应用,无法实现无人机的全自主导航。
景象匹配导航的原理是利用航天、航空等遥感手段获取飞行器规划路径下方的地物景象(基准图)并存储于机载计算机中;当携带相应传感器的飞行器飞过预定位置范围时,便即时测量出当地的地物景象(实时图);将实时图和基准图在机载计算机中进行相关匹配即可以确定出当前飞行器的准确位置,然后把该位置参数送到惯导系统以修正惯导系统积累的误差,从而实现飞行器长时间的精确导航和制导。其特点是导航精度高,不存在INS中的误差累积问题,但是其缺点在于必须依赖于机载的匹配基准图才能对航空器进行导航定位,因此,其应用范围受到了较大的限制而不能称之为未知环境下的导航方法;同时,在景象匹配中如何对图像进行矫正和在巨大的图像数据库中进行图像匹配对无人机机载处理器也是一种考验。
本发明中提到的未知环境下的视觉导航技术是利用视觉传感器获得图像,并且通过图像处理方法得到无人机导航参数的一种方式,该方法所采用的传感器包括摄像头、惯性测量单元(IMU)等。视觉传感器具有轻便、低功耗、体积小等优点,十分适合在微小型无人机上使用,而本发明中所涉及到的IMU同样适用于无人机场合。此外,视觉导航作为自主导航的一种,工作在被动模式,不需要接收外部信号,因此具有隐蔽性好,抗干扰能力强等优点,将其与IMU相结合,可以同时克服单个摄像头无法得到景象深度信息、特征点匹配误差大,惯性导航系统存在误差累计问题等不足。目前基于视觉信息进行无人机导航是该领域研究的一个热点。
本发明与其他无人机应用中的视觉方法不同在于:在当前已公开发表的资料中,计算机视觉方法在无人机中的应用主要集中于自主着陆、目标识别以及作为载荷等。自主着陆中视觉方法仅仅应用于飞行器的着陆阶段,无法应用于任务执行阶段,而任务执行阶段是飞行器应用的主要阶段,也是体现无人机价值的阶段,并且无人机视觉自主着陆方法要求已知着陆场信息,仍然属于半自主的导航方式;目标识别则需要实现已知该目标信息,从而可以采用视觉方法得到目标相对于飞行器的位置信息,对于占视觉主要成分的自然环境却无能为力;将视觉作为载荷应用于无人机则完全没有考虑到视觉图像中包含的丰富的导航信息。因此,虽然有将视觉方法应用于导航方面的研究,但是这些方法无一例外均要求已知环境信息或者需要设置人工参考信息等,无法实现真正意义上的“未知环境”下的导航应用。
发明内容
本发明提出一种未知环境下无人机视觉/惯性组合导航方法,其目的是为了解决在未知环境下无人机的组合导航问题,它采用了计算机视觉方法,实现了在无人机执行任务过程中的抗干扰、全自主导航。该方法可在不依赖外部信息的情况下,只利用机载惯性导航系统、高度表、机载视觉系统等被动传感器和地面图像特征,为飞行器在任务执行过程中提供导航信息,该方法可以作为卫星导航等半自主导航方式的备份导航手段,并且还可以在干扰、遮挡情况下短时单独使用,从而提高飞行器的生存能力;也可以装载于有人飞机或者地面、水下机器人等载体上作为导航信息来源。
本发明一种未知环境下无人机视觉/惯性组合导航方法,该方法涉及到图像处理、惯性导航计算和滤波估计,因此,在进行主要导航方法之前首先需要进行坐标系定义、坐标系对准和滤波方程建立等。坐标系定义是进行此类导航方法的前提,在理论分析中的导航方法是建立在一定的坐标系关系基础上的,但是在实际中由于安装误差和安装条件的限制,难以做到与理论情况完全相符。因此,IMU测量到的载体加速度和角速度值与从视觉系统中提取到的此参数并非完全相同;同时,二者坐标原点也并非完全重合而是存在一定的偏差,这些因素在实际实现过程中都需要予以考虑。
在本发明中所述的导航过程主要通过5步来实现:
步骤一:图像获取并对图像进行预处理;
图像获取是由摄像头在机载计算机控制下完成的,由于载体环境和所用设备条件限制,所采集到的图像质量难以保证,如果对摄像头输出图像直接进行处理难免会影响该方法的效果甚至无法进行导航,因此,需要对图像进行预处理。
本发明中采用的图像为灰度图像,为了满足视觉导航系统对处理速度和信息量的要求采用了中值滤波方法对图像进行预处理。
步骤二:通过SIFT方法进行特征点提取;
视觉对惯性系统的约束主要体现在前后几帧图像中特征点坐标的变化上,因此,如何得到稳定的特征点成为该导航方法的首要问题,SIFT方法具有良好的稳定性、很高的匹配准确度,并且其特征点具有很好的分布特性,甚至在纹理不很明显的情况下也能得到充足的特征点。因此,SIFT方法在视觉导航中得到了广泛的应用。
SIFT方法进行特征点提取分为四步骤来实现:
1)检测尺度空间极值点;
2)精确确定极值点位置;将位于边缘的极值点删掉,余下的则为SIFT特征点;
3)为每个特征点指定方向参数
4)特征点描述向量的生成。
步骤三:特征点匹配;
为了得到特征点坐标变化关系,在进行特征点提取之后还需要对前后时刻的特征点对应关系进行匹配,这是决定该导航方法是否准确可靠最关键的一步。由于在第二步中已经得到了每个特征点对应的描述向量,因此,在此部分可以直接对前后两幅图像中的特征点进行匹配。
步骤四:滤波方程更新
根据步骤三中特征点匹配结果可以将特征点分为三类,这三类特征点可以代表实际过程中所有可能出现的情况,分别采用不同的策略对滤波方程进行更新。
步骤五:对更新后的滤波方程进行滤波估计;
经过第四步更新后的滤波方程已经包含了图像中特征点的所有运动信息,并且包含了惯性导航系统输出的惯性测量信息进行图像/惯性组合导航,即是对该方程进行滤波处理从而得到对无人机飞行状态的估计(位置、速度、姿态等)。然而,由以上方法建立的系统和观测方程为非线性方程,为了对其进行滤波处理必须采用非线性滤波方法,在本方案中采用了无迹卡尔曼滤波(UKF)方法。
本发明的优点在于:
1)适应性广,该方法只要求当前的地面图像而不需要特定的外部信息配合,因此,理论上可以在任何环境(包括水下、遮挡、峡谷、地下等)下使用;
2)隐蔽性好,该方法不需要外部信息,也不需要向外部发出信息,因此,可以具有很好的保密性;
3)精度高,当应用于侦察、通讯中继等小范围场合时由于机载摄像头可以得到活动范围的全景图像,因此导航精度可以达到很高的程度。
附图说明
图1为本发明准备工作中坐标系定义示意图;
图2为本发明准备工作中摄像机坐标系和IMU坐标系对准示意图;
图3为本发明一种未知环境下无人机视觉/惯性组合导航方法流程图。
具体实施方式
进行本方法前需要首先进行坐标系定义及对准工作:
1,坐标系的定义
如图1所示,坐标轴定义包括机体坐标系(obxbybzb)、导航坐标系(onxnynzn)、摄像机坐标系(osxsyszs)和IMU坐标系(oixiyizi)的定义;
摄像机坐标系(osxsyszs):在飞行器上捷联固定一下视觉传感器以获得一系列的地面图像,其坐标原点位于摄像机中心,oszs沿摄像机光轴方向,osxs和osys分别沿摄像机成像平面的长、宽方向,三者互相垂直成右手坐标系;
IMU坐标系(oixiyizi):IMU出厂时定义的坐标系,三个坐标轴互相垂直,沿三个坐标轴分别各安装一个加速度计和一个陀螺仪敏感载体的加速度和角速度信息。
机体坐标系(obxbybzb):原点在飞行器重心,沿飞行器纵轴为x正方向,水平向右为y正方向,z方向与二者垂直并向下,同时,IMU的坐标系(oixiyizi)与该坐标系固连;
导航坐标系(onxnynzn):为当地地理坐标系,原点位于导航起始位置,坐标轴分别沿北-东-地方向;
如图2所示,摄像机坐标系和IMU坐标系是机体坐标系经过简单的平移,而后依次水平转动ψ和俯仰转动θ得到的,ψ和θ分别是摄像机相对于机体坐标系的转动角。
2,坐标轴对准
坐标轴对准包括了IMU坐标系与机体坐标系、IMU坐标系与摄像机坐标系对准。IMU中加速度计和陀螺仪之间的安装误差可以忽略不计,在此情况下,可以采用加速度计输出对二者坐标系进行对准。为了得到IMU坐标系到摄像机坐标系的旋转关系,可以使所有传感器均敏感垂直方向,利用重力加速度信息对二者进行对准。
其对准方法如下:
首先,在摄像机视场中放置一垂直于水平面的摄像头标定靶;其次,采集摄像头中的标定靶图像,计算其中对应垂线的消失点得到摄像头测量到的垂直方向向量
Figure A20091008931600121
并同时采集加速度计输出以得到当前加速度计相对于当地垂线方向向量
Figure A20091008931600122
最后,将以上标定图像和加速度计输出数据代入标定方程中可以得到两个坐标系之间的对应关系。该方法不需要任何其他设备,而标定中所需要的标定靶是进行摄像头标定必须设备之一。因此,该标定方法具有使用方便的优点。其详细计算过程如下:
记qi c为从惯性坐标系到摄像机坐标系的旋转四元数,于是,以上标定过程即选择qi c使方程
Σ i = 1 n ( q i c v → i I q i c ) v → i C - - - ( 1 )
取得最大。在得到当前的旋转四元数qi c之后可以根据
C i c = q 1 2 + q 2 2 - q 3 2 - q 4 2 2 ( q 2 q 3 - q 1 q 4 ) 2 ( q 2 q 4 + q 1 q 3 ) 2 ( q 2 q 3 + q 1 q 4 ) q 1 2 - q 2 2 + q 3 2 - q 4 2 2 ( q 3 q 4 - q 1 q 2 ) 2 ( q 2 q 4 - q 1 q 3 ) 2 ( q 3 q 4 + q 1 q 2 ) q 1 2 - q 2 2 - q 3 2 + q 4 2 - - - ( 2 )
得到惯性坐标系到摄像机坐标系的旋转矩阵,其中q1 q2 q3 q4为四元数qi c的四个分量。从而,对于任意IMU坐标系下的坐标点Xi而言都有其在摄像机坐标系下Xc为:
X c = C i c * X i - - - ( 3 )
通过上式即可实现两坐标系下坐标的互相转换。
3,建立滤波方程
此处滤波方程包括了状态方程和观测方程,其建立方法分别如下:
(1)状态方程的建立
状态方程包括了飞行器和特征点的动态模型,它们可以写成如下的一阶差分模型:
X a ( k ) = f ( X a ( k - 1 ) ) = x v ( k ) x m ( k ) = f v ( x v ( k - 1 ) , u ( k ) , w v ( k ) ) f m ( x m ( k - 1 ) , w m ( k ) ) - - - ( 4 )
此处Xa(k)为第k步状态向量,xv(k)为飞行器运动状态,包括位置、速度和姿态,可以通过惯性导航方程解算得到;
x v ( k ) = P k n V k n ψ k n = P k n + V k - 1 n T V k - 1 n + ( C b n f b + g n ) T ψ k - 1 n + E b n ω b T + w v ( k ) - - - ( 5 )
Cb n为从载体坐标系到导航坐标系的转移矩阵,Eb n为载体角速率到欧拉角速率的转移矩阵,wv(k)为系统过程噪声,T为滤波周期。
xm(k)为视觉获取的特征点三维位置向量,对于第i个特征点而言,在假设场景不变前提下,其状态方程为
xmi(k)=xmi(k-1)    (6)
(2)观测方程的建立
观测量由三部分组成:相对高度zh、航向zψ和摄像机坐标系下的特征点像素坐标zmi。其中高度和航向观测量直接从其对应的状态向量中输出,即:
z h z ψ 1 0 0 2 × 2 0 2 × 5 . . . 0 1 x k + v h ( k ) v ψ ( k ) - - - ( 7 )
特征点像素坐标部分观测方程构建如下:
设视觉传感器内参数为
A = f x γ u 0 0 f y v 0 0 0 1 - - - ( 8 )
其中,fx,fy分别为视觉传感器在x,y方向的焦距,u0,v0为光学中心,γ为不垂直因子。则对于第i个特征点有摄像机坐标系下系统观测值u,v为:
z mi = u v = x z f x + u 0 y z f y + v 0 - - - ( 9 )
此处,x,y,z为特征点在摄像机坐标系中坐标Pms(k) s的分量,它可以从导航坐标系下的飞行器和特征点坐标中得到:
P ms ( k ) s = C b s C n b [ x mi n - P n ( k ) - C b n P sb b ] - - - ( 10 )
Cb s(k)为从机体坐标系到摄像机坐标系的转移矩阵,xmi n(k)为状态向量中当前特征点对应的分量,Cn b(k)为从导航坐标系到机体坐标系的转移矩阵,Psb b为视觉传感器中心与飞行器重心的偏差量,Pn(k)为当前的载体(无人机)位置坐标。
将以上高度zh、航向zψ和特征点像素坐标zmi观测量合成得到系统观测方程为:
z ( k ) = z h z ψ z mi = h ( x ( k ) , v ( k ) ) - - - ( 11 )
h(.,.)为当前时刻非线性观测模型,v(k)为观测噪声。
(3)无人机视觉/惯性组合导航具体实现方法
本发明的具体步骤如图3所示:
步骤一:图像获取并对图像进行预处理;
当前对灰度图像的处理较为成熟,同时运算速度较快,因此,本发明中采用了灰度图像进行处理,通过公式:
Y=0.299R+0.596G+0.211B    (12)
将获取到的彩色图像转化为灰度图像,可得到图像的灰度值Y,其中R G B分别表示图像中红、绿、蓝三种颜色分量;
然后对图像信息进行滤波处理,一般情况下认为图像中包含的噪声近似为高斯白噪声,可以采用中值滤波对图像的噪声进行抑制,即通过邻域中亮度的中间值代替图像的当前点。中值滤波具有很好的低通特性,同时还可以保留图像的边缘细节信息,而邻域中亮度的中值不受个别噪声毛刺的影响,因此,中值滤波十分适合于此类图像处理;
步骤二:通过SIFT方法进行特征点提取;
视觉对惯性系统的约束主要体现在前后几帧图像中特征点坐标的变化上,因此,需要对预处理后的图像提取特征点;
SIFT方法进行特征点提取分为四步骤来实现:
1)检测尺度空间极值点;
首次,定义图像尺度空间函数为L(x,y,σ),输入图像用I(x,y)表示,对输入图像进行卷积操作,则有 L ( x , y , σ ) = G ( x , y , σ ) ⊗ I ( x , y ) . 其中 G ( x , y , σ ) = 1 2 π σ 2 e - ( x 2 + y 2 ) / 2 σ 2 是尺度可变高斯函数,(x,y)是空间坐标,σ是尺度坐标。采用不同的σ对图像进行高斯卷积,得到高斯图像金字塔。
其次,对高斯图像金字塔中相邻尺度的两个高斯图像相减得到高斯差分图像
D ( x , y , σ ) = ( G ( x , y , kσ ) - G ( x , y , σ ) ) ⊗ I ( x , y ) = L ( x , y , kσ ) - L ( x , y , σ )
最后,将高斯差分图像中每一个像素都与其周围点相比较,得到极值点;
2)精确确定极值点位置;将位于边缘的极值点删掉,余下的则为SIFT特征点;
3)为每个特征点指定方向参数
在以特征点为中心的邻域窗口内采样,并用直方图统计邻域像素的梯度方向。直方图的峰值代表了该特征点处邻域梯度的主方向,即作为该特征点的方向。当存在另一个相当于主峰值80%能量的峰值时,则将这个方向认为是该特征点的辅方向。
4)特征点描述向量的生成;首先将坐标轴旋转为特征点的方向,计算每个特征点邻域中梯度方向直方图并根据位置排序,然后将特征向量长度归一化,该向量就是SIFT特征点描述向量。
步骤三:特征点匹配;
每一个SIFT特征点描述向量均代表了该特征点唯一的特征,对特征点进行匹配即对其特征点描述向量进行匹配。由于SIFT特征点提取方法提取出的特征点具有很高的鲁棒性,对图像的旋转、缩放、平移、光线以及遮挡等具有不变性。用128维的高维度来对特征点进行描述,使得特征点描述符之间具有很大的差异性,因此可以直接利用特征点之间的几何特性进行特征点的匹配;当前应用较多的为基于欧几里德距离的最近邻法作为衡量标准,相似性的进行图像匹配,该方法具体实现过程如下:
设第一幅图像中第i个特征点,第二幅图像中的第j个特征点ai,bj的特征描述符为:
ai=[αi0,αi1,……,αi127]    (13)
bj=[βj0,βj1,……,βj127]    (14)
则这两个特征点描述符的欧几里德距离为
D ij = Σ k = 0 127 ( α ik - β ik ) 2 - - - ( 15 )
将ai与第二幅图像中所有的特征点计算距离,存入数组D,并将这些距离从小到大排序,如果最小的距离Di0与次最小距离di1的比值在某一个阈值内(τ),即di0<=τ×Di1,则认为匹配成功。把当前帧中所有的特征点都与前一帧进行匹配便得到特征点的匹配关系。
步骤四:滤波方程更新
根据步骤三中特征点匹配结果可以将特征点分为三类:
A、在前后两帧图像中都出现并且可以成功匹配的特征点认为是匹配成功的特征点,对其进行处理即对该特征点对应的观测量进行更新。首先在观测方程(11)中找到与该匹配特征点对应的滤波观测值分量zi,而后用当前时刻该特征点在摄像机坐标系中的像素坐标代替该分量。
B、仅在第一帧图像中出现,而在当前帧图像中无法找到与之对应的匹配特征点认为是跟踪丢失的特征点;
从摄像机中采集到的视觉图像中提取的特征点数量十分庞大,随着导航时间的延长将会导致滤波方程中状态维数不断膨胀,这对机载处理器的处理能力提出了很高的要求。因此,需要对特征点进行管理,随着飞行器的运动将不再可见的特征点从滤波方程中删除。由于滤波方程中各特征点之间互相独立,因此,删除特征点只需要将其对应的状态向量及其在滤波方差阵中对应的行和列删除即可。即分别从状态方程(4)中将该丢失的特征点在系统状态向量Xa(k)和系统方程f(Xa(k-1))中所对应的状态分量删除,从观测方程(11)中将该丢失的特征点在观测向量z和观测方程h(χi,·)中所对应的分量删除即可。
C、在当前帧图像中新出现的特征点认为是新的特征点,对其进行初始化。
所述初始化包括状态向量初始化和观测向量的初始化,通过以下三步完成:
a、得到新特征点在导航坐标系下坐标
x mi n ( k ) = P n ( k ) + C b n ( k ) P sb b + C b n C s b P ms s ( k ) - - - ( 16 )
此处Pn(k)为k时刻无人机位置坐标,Cb n为从载体坐标系到导航坐标系的转移矩阵,Psb b为视觉传感器中心与飞行器重心的偏差量,Cs b为从摄像机坐标系到机体坐标系的转移矩阵,Pms s(k)为在摄像机坐标系下的特征点位置与摄像机位置之差,它可以通过观测得到:
P ms s ( k ) = u - u 0 f x h v - v 0 f y h h T - - - ( 17 )
h为当前时刻飞行器的飞行高度,u0,v0为摄像机成像平面的光学中心,fx,fy分别为视觉传感器在x,y方向的焦距,u,v为该特征点在摄像机坐标系下的像素坐标。
b、对状态向量及新特征点对应的滤波估计误差方差子矩阵进行初始化;
将新特征点坐标xmi n(k)作为状态变量加入到原系统的状态方程(4)式中的状态向量Xa中得到新的状态向量Xa +与新的估计误差方差阵Pa +
X a + = f i ( x aug ) = X a x mi n ( k ) - - - ( 18 )
P a + = ▿ f xaug P aug ▿ f xaug T - - - ( 19 )
其中,
▿ f xaug = ∂ f ( x a + ) ∂ x a + | x aug - - - ( 20 )
P aug = P 0 0 R - - - ( 21 )
P为加入该新特征点之前的估计误差协方差阵,R为新特征点对应的视觉传感器的观测误差协方差阵。
c、观测向量的初始化
观测向量的初始化即将新特征点的观测值加入到观测向量中,
z + = z ( k ) z mi s - - - ( 22 )
其中,z(k)为原来观测向量,zmi s为摄像机坐标系下新特征点的观测值。
步骤五:对更新后的滤波方程进行滤波估计;
此处更新后的滤波方程指的是状态方程(4)和观测方程(11),对其进行滤波计算即可得到对无人机飞行状态的估计(位置、速度、姿态等)。
UKF滤波方法结合了UT(Unscented Transformation)变换的思想。它首先通过选择一组权值不同、且能够代表随机状态变量统计特性的采样点;其次,将这些采样点带入非线性函数处理后重构出新的统计特性(如均值和方差);最后将得到的均值、方差和量测方程代入到Kalman滤波器的逐步递推过程中就构成了UKF滤波。因此,UKF本质上是非线性的,不需要近似线性化,避免了EKF(扩展Kalman滤波)中线性化所带来的误差,而且其计算复杂度与EKF相当,适合应用于视觉导航等领域。
采用UKF方法对系统状态方程(4)和观测方程(11)构成的滤波模型进行滤波,滤波输出的结果即为视觉/惯性组合导航系统对飞行器状态的估计,该估计结果可以返回到控制系统对无人机进行导航定位、控制等。

Claims (7)

1、一种未知环境下无人机视觉/惯性组合导航方法,在进行导航过程之前首先进行坐标系定义及坐标轴对准工作,并建立系统运动状态方程及观测方程,其特征在于:该导航方法通过下列步骤来实现:
步骤一:图像获取并对图像进行预处理;
图像预处理指的是对原始图像进行灰度矫正、去噪声处理,根据无人机机载视觉系统特点,采用灰度图像进行处理,通过公式:
Y=0.299R+0.596G+0.211B    (1)
将获取到的彩色图像转化为灰度图像Y,式中RGB分别表示图像中红、绿、蓝三种颜色分量;
然后对图像信息进行滤波处理,一般情况下,图像中包含的噪声近似为高斯自噪声,采用中值滤波进行滤波处理,对图像的噪声进行抑制,通过邻域中亮度的中值代替图像的当前点;
步骤二:通过SIFT方法进行特征点提取;
视觉对惯性系统的约束主要体现在图像特征点坐标上,通过SIFT方法对预处理的图像提取特征点;
步骤三:特征点匹配;
每一个SIFT特征点描述向量均代表了该特征点唯一的特征,对特征点进行匹配即对其特征点描述向量进行匹配;用128维的高维度来对特征点进行描述,使得特征点描述符之间具有很大的差异性;用基于欧几里德距离的最近邻法作为衡量图像相似性的度量进行图像匹配;
步骤四:滤波方程更新
根据步骤三中特征点匹配结果将特征点分为三类:
A、在前后两帧图像中均出现并且成功匹配的特征点认为是匹配成功的特征点,对匹配成功的特征点进行处理即对该特征点对应的观测值进行更新;
首先在滤波观测向量z中找到与该匹配特征点对应的分量,而后用当前时刻该特征点在摄像机坐标系中的像素坐标代替该分量,并且根据当前惯性传感器输出重新建立滤波方程,滤波方程包括状态方程和观测方程;
B、仅在第一帧图像中出现,而在当前帧图像中无法找到与之对应的匹配特征点认为是跟踪丢失的特征点,对其进行删除;
由于滤波方程中各地标点之间互相独立,因此,删除地标点只需要删除其对应的状态向量及在滤波方差阵中对应的行和列;
C、在当前帧图像中新出现的特征点认为是新的特征点,对其进行初始化;
步骤五:对更新后的滤波方程进行UKF滤波估计;
首先通过选择一组权值不同、且能够代表随机状态变量统计特性的sigma点;其次,将这些采样点代入非线性函数处理后,重构出新的统计特性;最后将得到的均值、方差和测量方程代入到Kalman滤波器的逐步递推过程中就构成了UKF滤波。
2、根据权利要求1所述的一种未知环境下无人机视觉/惯性组合导航方法,其特征在于:所述步骤二中通过SIFT方法进行特征点提取,其具体方法如下:
1)检测尺度空间极值点;将输入图像通过不同尺度的高斯核函数连续卷积和降采样,形成高斯金字塔图像;然后再对相邻尺度的两个高斯图像相减得到高斯差分图像;将高斯差分图像中每一个像素都与其周围点相比较,得到极值点;
2)精确确定极值点位置;将位于边缘的极值点删掉,余下的则为SIFT特征点;
3)为每个特征点指定方向参数;通过梯度直方图的统计计算,为特征点赋予方向参数;
4)特征点描述向量的生成;首先将坐标轴旋转为特征点的方向,计算每个特征点邻域中梯度方向直方图并以根据位置排序,然后将特征向量长度归一化,该向量就是SIFT特征点描述向量。
3、根据权利要求1所述的一种未知环境下无人机视觉/惯性组合导航方法,其特征在于:所述步骤四的状态方程包括飞行器和地标点的动态模型,它们写成如下的一阶差分模型:
X a ( k ) = f ( X a ( k - 1 ) ) = x v ( k ) x m ( k ) = f v ( x v ( k - 1 ) , u ( k ) , w v ( k ) ) f m ( x m ( k - 1 ) , w m ( k ) - - - ( 2 )
此处Xa为状态向量,xv(k)为飞行器运动状态,包括位置、速度和姿态,通过惯性导航方程解算得到;
x v ( k ) = P k n V k n ψ k n = P k n + V k - 1 n T V k - 1 n + ( C b n f b + g n ) T ψ k - 1 n + E b n ω b T + w v ( k ) - - - ( 3 )
Cb n为方向余弦矩阵,Eb n为载体角速率到欧拉角速率的转移矩阵,wv(k)为系统过程噪声,T为滤波周期;
xm(k)为视觉获取的地标点三维位置向量,对于第i个地标点而言,在假设场景不变前提下,其状态方程为
xmi(k)=xmi(k-1)。    (4)
4、根据权利要求1所述的一种未知环境下无人机视觉/惯性组合导航方法,其特征在于:所述步骤四的观测方程中观测量由高度及摄像机坐标系下的地标点坐标两部分组成,其构建方法如下:
设视觉传感器内参数为
A = f x γ u 0 0 f y v 0 0 0 1 - - - ( 5 )
其中,fx,fy分别为视觉传感器在x,y方向的焦距,u0,v0为光学中心,γ为不垂直因子;则系统观测值u,v为:
z i ( k ) = u v = x z f x + u 0 y z f y + v 0 - - - ( 6 )
此处,[x y z]T为地标点在摄像机坐标系中坐标Pms s(k)的分量,从导航坐标系下的飞行器和地标点位置中得到:
P ms s ( k ) = C b s ( k ) C n b ( k ) [ x mi n ( k ) - P n ( k ) - C b n ( k ) P sb b ] - - - ( 7 )
Cb s(k)为从机体坐标系到摄像机坐标系的转移矩阵,xmi n(k)为状态向量中当前特征点对应的分量,Cn b(k)为从导航坐标系到机体坐标系的转移矩阵,Psb b为视觉传感器中心与飞行器重心的偏差量,Pn(k)为当前的载体(无人机)位置坐标;
由上得到观测方程为:
z(k)=h(x(k),v(k))    (8)
h(.,.)为当前时刻非线性观测模型,v(k)为观测噪声。
5、根据权利要求1所述的一种未知环境下无人机视觉/惯性组合导航方法,其特征在于:
步骤四C中所述初始化通过两步完成:
a、得到新地标点在导航坐标系下坐标
x mi n ( k ) = g ( X ( k ) , z ( k ) ) = P n ( k ) + C b n ( k ) P sb b + C b n C s b P ms s ( k ) - - - ( 9 )
此处Pn(k)为当前时刻无人机位置坐标,Pms s(k)为在摄像机坐标系下的地标点与摄像机坐标之差,它通过观测得到:
P ms s ( k ) = u - u 0 f x h v - v 0 f y h h T - - - ( 10 )
h为当前时刻飞行器的飞行高度;
b、对状态向量及新地标点对应的滤波估计误差协方差子矩阵进行初始化;
将新地标点坐标xmi n(k)作为状态变量加入到原系统的状态方程(2)式中的状态向量Xa中得到新的状态向量Xa +与新的估计误差方差阵Pa +
X a + = f i ( x aug ) = X a x mi n ( k ) - - - ( 11 )
P a + = ▿ f xaug P aug ▿ f xaug T - - - ( 12 )
其中,
▿ f xaug = ∂ f ( x a + ) ∂ x a + | x aug = x ^ aug - - - ( 13 )
P aug = P 0 0 R - - - ( 14 )
P为加入该新地标点之前的估计误差方差阵,R为新地标点对应的视觉传感器的观测方差阵。
6、根据权利要求1所述的一种未知环境下无人机视觉/惯性组合导航方法,其特征在于:
所述坐标系的定义,包括机体坐标系(obxbybzb)、导航坐标系(onxnynzn)、摄像机坐标系(osxsyszs)的定义;
机体坐标系(obsbybzb)原点在飞行器重心,沿飞行器纵轴向前为x正方向,水平向右为y正方向,z方向与二者垂直并向下,同时,认为IMU(惯性测量单元)的坐标系(oixiyizi)与该坐标系固连;
导航坐标系(onxnynzn)为当地地理坐标系,原点位于导航起始位置,坐标轴分别沿北-东-地方向;
摄像机坐标系(osxsyszs)在飞行器上捷联固定一下视觉传感器以获得一系列的地面图像,其坐标原点位于摄像机中心,oszs沿摄像机光轴方向,osxs和osys分别沿摄像机成像平面的长、宽方向,三者互相垂直成右手坐标系;
摄像机坐标系是机体坐标系经过简单的平移,而后依次水平转动ψ和俯仰转动θ得到的,ψ和θ分别是摄像机相对于机体坐标系的转动角。
7、根据权利要求6所述的一种未知环境下无人机视觉/惯性组合导航方法,其特征在于:所述的导航坐标系和摄像机坐标系之间的旋转关系标定方法如下:
首先,令所有传感器均敏感垂直方向,在摄像机视场中放置一垂直于水平面的摄像头标定靶;其次,采集摄像头中的标定靶图像,并计算其中对应垂线的消失点得到摄像头对应的垂直方向,对于加速度计而言,当加速度计输出等于重力加速度时认为该传感器方向即为垂直方向;最后,将以上标定图像和加速度计输出数据代入标定方程中得到两个坐标系之间的对应关系;
假设
Figure A2009100893160007C1
为惯性传感器敏感到的垂直方向向量,而为与惯性传感器固连的摄像头测量到的垂直方向向量,记qi c为从惯性坐标系到摄像机坐标系的旋转四元数,于是,以上标定过程即选择qi c使方程
Σ i = 1 n ( q i c v → i I q i c ) v → i C - - - ( 15 )
取得最大,
从而,当得到当前的qi c旋转四元数之后根据
C i c = q 1 2 + q 2 2 - q 3 2 - q 4 2 2 ( q 2 q 3 - q 1 q 4 ) 2 ( q 2 q 4 + q 1 q 3 ) 2 ( q 2 q 3 + q 1 q 4 ) q 1 2 - q 2 2 + q 3 2 - q 4 2 2 ( q 3 q 4 - q 1 q 2 ) 2 ( q 2 q 4 - q 1 q 3 ) 2 ( q 3 q 4 + q 1 q 2 ) q 1 2 - q 2 2 - q 3 2 + q 4 2 - - - ( 16 )
得到惯性坐标系到摄像机坐标系的旋转矩阵,其中q1…q4为四元数qi c的四个分量,从而,对于任意惯性坐标系下的坐标点Xi而言都有其在摄像机坐标系下Xc为:
X c = C i c * X i - - - ( 17 )
即通过上式将两坐标系下的坐标进行互相转换,同时也对二者进行对准。
CN2009100893161A 2009-07-15 2009-07-15 一种未知环境下无人机视觉/惯性组合导航方法 Expired - Fee Related CN101598556B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2009100893161A CN101598556B (zh) 2009-07-15 2009-07-15 一种未知环境下无人机视觉/惯性组合导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2009100893161A CN101598556B (zh) 2009-07-15 2009-07-15 一种未知环境下无人机视觉/惯性组合导航方法

Publications (2)

Publication Number Publication Date
CN101598556A true CN101598556A (zh) 2009-12-09
CN101598556B CN101598556B (zh) 2011-05-04

Family

ID=41420076

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2009100893161A Expired - Fee Related CN101598556B (zh) 2009-07-15 2009-07-15 一种未知环境下无人机视觉/惯性组合导航方法

Country Status (1)

Country Link
CN (1) CN101598556B (zh)

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102193557A (zh) * 2010-03-04 2011-09-21 南京航空航天大学 无人机的鲁棒受限飞行控制方法
CN102355569A (zh) * 2011-05-30 2012-02-15 南京航空航天大学 基于无线机器视觉的飞机蒙皮结构监测方法
CN102353377A (zh) * 2011-07-12 2012-02-15 北京航空航天大学 一种高空长航时无人机组合导航系统及其导航定位方法
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
CN102538781A (zh) * 2011-12-14 2012-07-04 浙江大学 基于机器视觉和惯导融合的移动机器人运动姿态估计方法
CN102629381A (zh) * 2012-03-05 2012-08-08 上海海事大学 一种无人水面艇视觉系统的标定参数实时监测方法
CN102768042A (zh) * 2012-07-11 2012-11-07 清华大学 一种视觉-惯性组合导航方法
CN102853835A (zh) * 2012-08-15 2013-01-02 西北工业大学 基于尺度不变特征变换的无人飞行器景象匹配定位方法
CN102914991A (zh) * 2011-08-02 2013-02-06 波音公司 用于受控承载无人驾驶飞行器系统展示的飞行解释器
CN102938002A (zh) * 2012-10-11 2013-02-20 西北工业大学 基于可调参数最大信息量准则的飞行器建模方法
CN103033189A (zh) * 2012-12-26 2013-04-10 北京航空航天大学 一种深空探测巡视器惯性/视觉组合导航方法
CN103292804A (zh) * 2013-05-27 2013-09-11 浙江大学 一种单目自然视觉路标辅助的移动机器人定位方法
CN103335653A (zh) * 2013-06-06 2013-10-02 北京航空航天大学 火星大气进入段的自适应增量粒子滤波方法
CN103411621A (zh) * 2013-08-09 2013-11-27 东南大学 一种面向室内移动机器人的光流场视觉/ins组合导航方法
CN103438887A (zh) * 2013-09-18 2013-12-11 上海海事大学 用于移动机器人定位与环境重构的绝对坐标获取方法
CN103499350A (zh) * 2013-09-28 2014-01-08 长安大学 Gps盲区下融合多源信息的车辆高精度定位方法及装置
CN103644904A (zh) * 2013-12-17 2014-03-19 上海电机学院 一种基于sift算法的视觉导航方法
CN103697889A (zh) * 2013-12-29 2014-04-02 北京航空航天大学 一种基于多模型分布式滤波的无人机自主导航与定位方法
CN103728981A (zh) * 2014-01-28 2014-04-16 重庆大学 一种无人机的非线性导航寻迹控制方法
CN103759716A (zh) * 2014-01-14 2014-04-30 清华大学 基于机械臂末端单目视觉的动态目标位置和姿态测量方法
CN103954283A (zh) * 2014-04-01 2014-07-30 西北工业大学 基于景象匹配/视觉里程的惯性组合导航方法
CN104154910A (zh) * 2014-07-22 2014-11-19 清华大学 一种微型无人机室内定位方法
CN104714555A (zh) * 2015-03-23 2015-06-17 深圳北航新兴产业技术研究院 一种基于边缘的三维自主探索方法
CN104714556A (zh) * 2015-03-26 2015-06-17 清华大学 无人机智能航向控制方法
CN104764452A (zh) * 2015-04-23 2015-07-08 北京理工大学 一种基于惯性和光学跟踪系统的混合位姿跟踪方法
WO2015143615A1 (zh) * 2014-03-24 2015-10-01 深圳市大疆创新科技有限公司 飞行器状态实时修正的方法和装置
CN105021190A (zh) * 2015-06-30 2015-11-04 中国兵器工业计算机应用技术研究所 反卫星导航欺诈的方法以及基于该方法的无人系统
CN105045276A (zh) * 2015-07-03 2015-11-11 深圳一电科技有限公司 无人机飞行控制方法及装置
CN105242285A (zh) * 2015-10-15 2016-01-13 北京航空航天大学 一种基于卫星通信的无人机导航数据被欺骗识别方法
CN105606073A (zh) * 2016-01-11 2016-05-25 谭圆圆 无人飞行器处理系统及其飞行状态数据处理方法
CN105957019A (zh) * 2015-02-11 2016-09-21 贵州景浩科技有限公司 一种用于电子瞄准器的图像处理方法
CN106251342A (zh) * 2016-07-26 2016-12-21 杭州好好开车科技有限公司 基于传感技术的摄像头标定方法
CN106325301A (zh) * 2016-10-27 2017-01-11 浙江理工大学 基于GPS和ZigBee的四旋翼飞行器编队飞行系统及编队方法
CN106774386A (zh) * 2016-12-06 2017-05-31 杭州灵目科技有限公司 基于多尺度标识物的无人机视觉导航降落系统
CN107014371A (zh) * 2017-04-14 2017-08-04 东南大学 基于扩展自适应区间卡尔曼的无人机组合导航方法与装置
JP2017523486A (ja) * 2015-05-23 2017-08-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 慣性および画像センサを用いたセンサ融合
CN107270904A (zh) * 2017-06-23 2017-10-20 西北工业大学 基于图像配准的无人机辅助引导控制系统及方法
CN107346141A (zh) * 2016-05-06 2017-11-14 北京臻迪机器人有限公司 一种体感控制方法
CN107346140A (zh) * 2016-05-06 2017-11-14 北京臻迪机器人有限公司 一种无头控制的方法
CN107498559A (zh) * 2017-09-26 2017-12-22 珠海市微半导体有限公司 基于视觉的机器人转向的检测方法和芯片
CN107907131A (zh) * 2017-11-10 2018-04-13 珊口(上海)智能科技有限公司 定位系统、方法及所适用的机器人
CN108009462A (zh) * 2016-10-31 2018-05-08 中南大学 一种应用于轨检仪基本弦轨向数据的滤波方法
CN108444478A (zh) * 2018-03-13 2018-08-24 西北工业大学 一种用于水下航行器的移动目标视觉位姿估计方法
CN108698696A (zh) * 2016-03-24 2018-10-23 英特尔公司 主动运载工具控制系统和方法
CN109115232A (zh) * 2017-06-22 2019-01-01 华为技术有限公司 导航的方法和装置
JP2019023865A (ja) * 2018-07-12 2019-02-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd エラー回復を実行するための方法、システム、及びプログラム
WO2019029099A1 (zh) * 2017-08-11 2019-02-14 浙江大学 基于图像梯度联合优化的双目视觉里程计算方法
CN109598764A (zh) * 2018-11-30 2019-04-09 Oppo广东移动通信有限公司 摄像头标定方法和装置、电子设备、计算机可读存储介质
CN109724595A (zh) * 2017-10-31 2019-05-07 北京自动化控制设备研究所 一种基于序贯检测的惯性视觉位置组合导航方法
CN109885080A (zh) * 2013-11-27 2019-06-14 宾夕法尼亚大学理事会 自主控制系统及自主控制方法
CN110006423A (zh) * 2019-04-04 2019-07-12 北京理工大学 一种自适应惯导和视觉组合导航方法
US10565732B2 (en) 2015-05-23 2020-02-18 SZ DJI Technology Co., Ltd. Sensor fusion using inertial and image sensors
CN110933597A (zh) * 2019-12-06 2020-03-27 北京壹氢科技有限公司 一种基于蓝牙的多无人车协同容错导航定位方法及系统
CN111324145A (zh) * 2020-02-28 2020-06-23 厦门理工学院 一种无人机自主着陆方法、装置、设备及存储介质
CN111337031A (zh) * 2020-02-24 2020-06-26 南京航空航天大学 一种基于姿态信息的航天器地标匹配自主位置确定方法
CN113029134A (zh) * 2021-03-02 2021-06-25 浙江商汤科技开发有限公司 视觉惯性系统的初始化方法、装置、电子设备及存储介质
US11327477B2 (en) 2015-12-31 2022-05-10 Powervision Robot Inc. Somatosensory remote controller, somatosensory remote control flight system and method, and head-less control method
CN114942026A (zh) * 2022-06-01 2022-08-26 四川大学 基于智能数据的多模态三维影像导航系统
CN115752442A (zh) * 2022-12-07 2023-03-07 无锡恺韵来机器人有限公司 一种基于单目视觉辅助惯性定位方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106556395A (zh) * 2016-11-17 2017-04-05 北京联合大学 一种基于四元数的单目视觉系统的导航方法

Cited By (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102193557B (zh) * 2010-03-04 2013-01-02 南京航空航天大学 无人机的鲁棒受限飞行控制方法
CN102193557A (zh) * 2010-03-04 2011-09-21 南京航空航天大学 无人机的鲁棒受限飞行控制方法
CN102355569A (zh) * 2011-05-30 2012-02-15 南京航空航天大学 基于无线机器视觉的飞机蒙皮结构监测方法
CN102353377A (zh) * 2011-07-12 2012-02-15 北京航空航天大学 一种高空长航时无人机组合导航系统及其导航定位方法
CN102353377B (zh) * 2011-07-12 2014-01-22 北京航空航天大学 一种高空长航时无人机组合导航系统及其导航定位方法
CN102914991A (zh) * 2011-08-02 2013-02-06 波音公司 用于受控承载无人驾驶飞行器系统展示的飞行解释器
CN102914991B (zh) * 2011-08-02 2017-03-01 波音公司 用于受控承载无人驾驶飞行器系统展示的飞行解释器
CN102435188A (zh) * 2011-09-15 2012-05-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
CN102435188B (zh) * 2011-09-15 2013-10-02 南京航空航天大学 一种用于室内环境的单目视觉/惯性全自主导航方法
CN102538781B (zh) * 2011-12-14 2014-12-17 浙江大学 基于机器视觉和惯导融合的移动机器人运动姿态估计方法
CN102538781A (zh) * 2011-12-14 2012-07-04 浙江大学 基于机器视觉和惯导融合的移动机器人运动姿态估计方法
CN102629381A (zh) * 2012-03-05 2012-08-08 上海海事大学 一种无人水面艇视觉系统的标定参数实时监测方法
CN102629381B (zh) * 2012-03-05 2014-12-10 上海海事大学 一种无人水面艇视觉系统的标定参数实时监测方法
CN102768042A (zh) * 2012-07-11 2012-11-07 清华大学 一种视觉-惯性组合导航方法
CN102768042B (zh) * 2012-07-11 2015-06-24 清华大学 一种视觉-惯性组合导航方法
CN102853835A (zh) * 2012-08-15 2013-01-02 西北工业大学 基于尺度不变特征变换的无人飞行器景象匹配定位方法
CN102938002A (zh) * 2012-10-11 2013-02-20 西北工业大学 基于可调参数最大信息量准则的飞行器建模方法
CN102938002B (zh) * 2012-10-11 2015-02-25 西北工业大学 基于可调参数最大信息量准则的飞行器建模方法
CN103033189B (zh) * 2012-12-26 2015-05-20 北京航空航天大学 一种深空探测巡视器惯性/视觉组合导航方法
CN103033189A (zh) * 2012-12-26 2013-04-10 北京航空航天大学 一种深空探测巡视器惯性/视觉组合导航方法
CN103292804A (zh) * 2013-05-27 2013-09-11 浙江大学 一种单目自然视觉路标辅助的移动机器人定位方法
CN103292804B (zh) * 2013-05-27 2015-07-15 浙江大学 一种单目自然视觉路标辅助的移动机器人定位方法
CN103335653A (zh) * 2013-06-06 2013-10-02 北京航空航天大学 火星大气进入段的自适应增量粒子滤波方法
CN103335653B (zh) * 2013-06-06 2015-11-18 北京航空航天大学 火星大气进入段的自适应增量粒子滤波方法
CN103411621B (zh) * 2013-08-09 2016-02-10 东南大学 一种面向室内移动机器人的光流场视觉/ins组合导航方法
CN103411621A (zh) * 2013-08-09 2013-11-27 东南大学 一种面向室内移动机器人的光流场视觉/ins组合导航方法
CN103438887A (zh) * 2013-09-18 2013-12-11 上海海事大学 用于移动机器人定位与环境重构的绝对坐标获取方法
CN103438887B (zh) * 2013-09-18 2015-08-05 上海海事大学 用于移动机器人定位与环境重构的绝对坐标获取方法
CN103499350B (zh) * 2013-09-28 2016-01-27 长安大学 Gps盲区下融合多源信息的车辆高精度定位方法及装置
CN103499350A (zh) * 2013-09-28 2014-01-08 长安大学 Gps盲区下融合多源信息的车辆高精度定位方法及装置
CN109885080B (zh) * 2013-11-27 2022-09-20 宾夕法尼亚大学理事会 自主控制系统及自主控制方法
CN109885080A (zh) * 2013-11-27 2019-06-14 宾夕法尼亚大学理事会 自主控制系统及自主控制方法
CN103644904A (zh) * 2013-12-17 2014-03-19 上海电机学院 一种基于sift算法的视觉导航方法
CN103697889A (zh) * 2013-12-29 2014-04-02 北京航空航天大学 一种基于多模型分布式滤波的无人机自主导航与定位方法
CN103697889B (zh) * 2013-12-29 2016-05-25 北京航空航天大学 一种基于多模型分布式滤波的无人机自主导航与定位方法
CN103759716A (zh) * 2014-01-14 2014-04-30 清华大学 基于机械臂末端单目视觉的动态目标位置和姿态测量方法
CN103759716B (zh) * 2014-01-14 2016-08-17 清华大学 基于机械臂末端单目视觉的动态目标位置和姿态测量方法
CN103728981A (zh) * 2014-01-28 2014-04-16 重庆大学 一种无人机的非线性导航寻迹控制方法
CN103728981B (zh) * 2014-01-28 2016-04-20 重庆大学 一种无人机的非线性导航寻迹控制方法
US10060746B2 (en) 2014-03-24 2018-08-28 SZ DJI Technology Co., Ltd Methods and systems for determining a state of an unmanned aerial vehicle
WO2015143615A1 (zh) * 2014-03-24 2015-10-01 深圳市大疆创新科技有限公司 飞行器状态实时修正的方法和装置
JP2017501383A (ja) * 2014-03-24 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行機の状態をリアルタイムに修正する方法および装置
US10914590B2 (en) 2014-03-24 2021-02-09 SZ DJI Technology Co., Ltd. Methods and systems for determining a state of an unmanned aerial vehicle
CN103954283B (zh) * 2014-04-01 2016-08-31 西北工业大学 基于景象匹配/视觉里程的惯性组合导航方法
CN103954283A (zh) * 2014-04-01 2014-07-30 西北工业大学 基于景象匹配/视觉里程的惯性组合导航方法
CN104154910A (zh) * 2014-07-22 2014-11-19 清华大学 一种微型无人机室内定位方法
CN105957019A (zh) * 2015-02-11 2016-09-21 贵州景浩科技有限公司 一种用于电子瞄准器的图像处理方法
CN104714555B (zh) * 2015-03-23 2017-05-10 深圳北航新兴产业技术研究院 一种基于边缘的三维自主探索方法
CN104714555A (zh) * 2015-03-23 2015-06-17 深圳北航新兴产业技术研究院 一种基于边缘的三维自主探索方法
CN104714556A (zh) * 2015-03-26 2015-06-17 清华大学 无人机智能航向控制方法
CN104714556B (zh) * 2015-03-26 2017-08-11 清华大学 无人机智能航向控制方法
CN104764452A (zh) * 2015-04-23 2015-07-08 北京理工大学 一种基于惯性和光学跟踪系统的混合位姿跟踪方法
JP2017523486A (ja) * 2015-05-23 2017-08-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 慣性および画像センサを用いたセンサ融合
CN107615211B (zh) * 2015-05-23 2020-07-21 深圳市大疆创新科技有限公司 使用传感器融合估计可移动物体的状态信息的方法及系统
US10565732B2 (en) 2015-05-23 2020-02-18 SZ DJI Technology Co., Ltd. Sensor fusion using inertial and image sensors
CN107615211A (zh) * 2015-05-23 2018-01-19 深圳市大疆创新科技有限公司 使用惯性传感器和图像传感器的传感器融合
CN105021190A (zh) * 2015-06-30 2015-11-04 中国兵器工业计算机应用技术研究所 反卫星导航欺诈的方法以及基于该方法的无人系统
CN105045276A (zh) * 2015-07-03 2015-11-11 深圳一电科技有限公司 无人机飞行控制方法及装置
CN105242285A (zh) * 2015-10-15 2016-01-13 北京航空航天大学 一种基于卫星通信的无人机导航数据被欺骗识别方法
US11327477B2 (en) 2015-12-31 2022-05-10 Powervision Robot Inc. Somatosensory remote controller, somatosensory remote control flight system and method, and head-less control method
CN105606073A (zh) * 2016-01-11 2016-05-25 谭圆圆 无人飞行器处理系统及其飞行状态数据处理方法
CN108698696B (zh) * 2016-03-24 2022-05-17 英特尔公司 主动运载工具控制系统和方法
CN108698696A (zh) * 2016-03-24 2018-10-23 英特尔公司 主动运载工具控制系统和方法
CN107346141A (zh) * 2016-05-06 2017-11-14 北京臻迪机器人有限公司 一种体感控制方法
CN107346140A (zh) * 2016-05-06 2017-11-14 北京臻迪机器人有限公司 一种无头控制的方法
CN106251342A (zh) * 2016-07-26 2016-12-21 杭州好好开车科技有限公司 基于传感技术的摄像头标定方法
CN106325301A (zh) * 2016-10-27 2017-01-11 浙江理工大学 基于GPS和ZigBee的四旋翼飞行器编队飞行系统及编队方法
CN108009462A (zh) * 2016-10-31 2018-05-08 中南大学 一种应用于轨检仪基本弦轨向数据的滤波方法
CN106774386B (zh) * 2016-12-06 2019-08-13 杭州灵目科技有限公司 基于多尺度标识物的无人机视觉导航降落系统
CN106774386A (zh) * 2016-12-06 2017-05-31 杭州灵目科技有限公司 基于多尺度标识物的无人机视觉导航降落系统
CN107014371A (zh) * 2017-04-14 2017-08-04 东南大学 基于扩展自适应区间卡尔曼的无人机组合导航方法与装置
CN109115232A (zh) * 2017-06-22 2019-01-01 华为技术有限公司 导航的方法和装置
CN109115232B (zh) * 2017-06-22 2021-02-23 华为技术有限公司 导航的方法和装置
CN107270904B (zh) * 2017-06-23 2020-07-03 西北工业大学 基于图像配准的无人机辅助引导控制系统及方法
CN107270904A (zh) * 2017-06-23 2017-10-20 西北工业大学 基于图像配准的无人机辅助引导控制系统及方法
WO2019029099A1 (zh) * 2017-08-11 2019-02-14 浙江大学 基于图像梯度联合优化的双目视觉里程计算方法
US10762645B2 (en) * 2017-08-11 2020-09-01 Zhejiang University Stereo visual odometry method based on image gradient joint optimization
CN107498559A (zh) * 2017-09-26 2017-12-22 珠海市微半导体有限公司 基于视觉的机器人转向的检测方法和芯片
CN109724595A (zh) * 2017-10-31 2019-05-07 北京自动化控制设备研究所 一种基于序贯检测的惯性视觉位置组合导航方法
CN107907131A (zh) * 2017-11-10 2018-04-13 珊口(上海)智能科技有限公司 定位系统、方法及所适用的机器人
CN108444478A (zh) * 2018-03-13 2018-08-24 西北工业大学 一种用于水下航行器的移动目标视觉位姿估计方法
CN108444478B (zh) * 2018-03-13 2021-08-10 西北工业大学 一种用于水下航行器的移动目标视觉位姿估计方法
JP2019023865A (ja) * 2018-07-12 2019-02-14 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd エラー回復を実行するための方法、システム、及びプログラム
CN109598764A (zh) * 2018-11-30 2019-04-09 Oppo广东移动通信有限公司 摄像头标定方法和装置、电子设备、计算机可读存储介质
CN109598764B (zh) * 2018-11-30 2021-07-09 Oppo广东移动通信有限公司 摄像头标定方法和装置、电子设备、计算机可读存储介质
CN110006423A (zh) * 2019-04-04 2019-07-12 北京理工大学 一种自适应惯导和视觉组合导航方法
CN110933597A (zh) * 2019-12-06 2020-03-27 北京壹氢科技有限公司 一种基于蓝牙的多无人车协同容错导航定位方法及系统
CN111337031A (zh) * 2020-02-24 2020-06-26 南京航空航天大学 一种基于姿态信息的航天器地标匹配自主位置确定方法
CN111324145B (zh) * 2020-02-28 2022-08-16 厦门理工学院 一种无人机自主着陆方法、装置、设备及存储介质
CN111324145A (zh) * 2020-02-28 2020-06-23 厦门理工学院 一种无人机自主着陆方法、装置、设备及存储介质
CN113029134A (zh) * 2021-03-02 2021-06-25 浙江商汤科技开发有限公司 视觉惯性系统的初始化方法、装置、电子设备及存储介质
CN114942026A (zh) * 2022-06-01 2022-08-26 四川大学 基于智能数据的多模态三维影像导航系统
CN115752442A (zh) * 2022-12-07 2023-03-07 无锡恺韵来机器人有限公司 一种基于单目视觉辅助惯性定位方法
CN115752442B (zh) * 2022-12-07 2024-03-12 运来智能装备(无锡)有限公司 一种基于单目视觉辅助惯性定位方法

Also Published As

Publication number Publication date
CN101598556B (zh) 2011-05-04

Similar Documents

Publication Publication Date Title
CN101598556B (zh) 一种未知环境下无人机视觉/惯性组合导航方法
US10515458B1 (en) Image-matching navigation method and apparatus for aerial vehicles
CN109887057B (zh) 生成高精度地图的方法和装置
US20190266396A1 (en) Determination of position from images and associated camera positions
EP2503510B1 (en) Wide baseline feature matching using collaborative navigation and digital terrain elevation data constraints
CN101839721B (zh) 自主交会对接中的视觉导航方法
Merino et al. Vision-based multi-UAV position estimation
Hosseinpoor et al. Pricise target geolocation and tracking based on UAV video imagery
RU2550811C1 (ru) Способ и устройство определения координат объектов
CN109460046B (zh) 一种无人机自然地标识别与自主着陆方法
KR102239562B1 (ko) 항공 관측 데이터와 지상 관측 데이터 간의 융합 시스템
Sanfourche et al. Perception for UAV: Vision-Based Navigation and Environment Modeling.
Dumble et al. Airborne vision-aided navigation using road intersection features
Kinnari et al. GNSS-denied geolocalization of UAVs by visual matching of onboard camera images with orthophotos
CN109341685B (zh) 一种基于单应变换的固定翼飞机视觉辅助着陆导航方法
Mansur et al. Real time monocular visual odometry using optical flow: study on navigation of quadrotors UAV
CN117330052A (zh) 基于红外视觉、毫米波雷达和imu融合的定位与建图方法及系统
Indelman et al. Navigation aiding based on coupled online mosaicking and camera scanning
Hu et al. Toward high-quality magnetic data survey using UAV: development of a magnetic-isolated vision-based positioning system
CN109029451A (zh) 基于网络信标矫正的小型无人机自主定位方法
Yan et al. Horizontal velocity estimation via downward looking descent images for lunar landing
CN114842224A (zh) 一种基于地理底图的单目无人机绝对视觉匹配定位方案
Hosen et al. A vision-aided nonlinear observer for fixed-wing UAV navigation
Ishii et al. Autonomous UAV flight using the Total Station Navigation System in Non-GNSS Environments
Shahbazi Professional drone mapping

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20110504

Termination date: 20120715