CN103644904A - 一种基于sift算法的视觉导航方法 - Google Patents
一种基于sift算法的视觉导航方法 Download PDFInfo
- Publication number
- CN103644904A CN103644904A CN201310698173.0A CN201310698173A CN103644904A CN 103644904 A CN103644904 A CN 103644904A CN 201310698173 A CN201310698173 A CN 201310698173A CN 103644904 A CN103644904 A CN 103644904A
- Authority
- CN
- China
- Prior art keywords
- sift
- robot
- image
- point
- navigation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
Abstract
本发明提供了一种基于SIFT算法的视觉导航方法,包括:第一步骤:利用机器人的导航相机获取图像;第二步骤:对于导航相机获取的图像基于SIFT方法提取自然路标的特征点;第三步骤:根据所提取的自然路标的特征点,利用动态扩展卡尔曼滤波器融合视觉信息以修正机器人的惯性导航系统的测量误差,由此对机器人运行状态和视觉特征的位置进行估计,从而获得机器人的导航参数。
Description
技术领域
本发明涉及机器人视觉导航领域,更具体地说,本发明涉及一种基于SIFT算法的视觉导航方法。
背景技术
目前移动机器人通常采用的定位传感器包括里程计、激光雷达、超声波、红外线、微波雷达、陀螺仪、指南针、速度或加速度计、触觉或接近觉传感器等。
另一方面,机器人通常采用的定位技术主要包括绝对定位和相对定位技术两类。绝对定位采用导航信标、主动或被动标识、地图匹配或全球定位(GPS)进行定位,定位精度较高,但成本较高,不适用于小型机器人。
相对定位是通过测量机器人相对于初始位置的距离和方向来确定机器人的当前位置,通常也称为航位推算法,所用的传感器主要为里程计、陀螺仪、加速度计等;其中,当采用航位推算法时,机器人的位置是自我推算出来的,因而不需要对外界环境的感知信息,但是,这种方法的漂移误差会随时间积累,不适于精确定位。
对于这些现有技术的定位方法,存在以下缺点:
⑴在视觉导航定位中,图像处理计算量大,计算机实时处理的速度无法满足现实中的需求。
⑵高精度定位与导航技术成本高,难以应用在中小型机器人中,而低成本的技术,精度低,误差大,严重影响了导航效果。
由此,希望能够提供一种用于机器人的定位精确高、微型化且低成本的定位技术。
发明内容
本发明所要解决的技术问题是针对现有技术中存在上述缺陷,提供一种基于SIFT的机器人视觉导航方法,从而实现机器人高定位精确、微型化及低成本的特点,具有理论与实用价值。
为了实现上述技术目的,根据本发明,提供了一种基于SIFT算法的视觉导航方法,其包括:
第一步骤:利用机器人的导航相机获取图像;
第二步骤:对于导航相机获取的图像基于SIFT方法提取自然路标的特征点;
第三步骤:根据所提取的自然路标的特征点,利用动态扩展卡尔曼滤波器融合视觉信息以修正机器人的惯性导航系统的测量误差,由此对机器人运行状态和视觉特征的位置进行估计,从而获得机器人的导航参数。
优选地,所述第二步骤包括:
第一步,进行尺度空间极点检测,其中通过不同尺度的高斯核函数对导航相机获取的图像进行连续滤波和下采样,形成高斯金字塔图像,然后再对相邻尺度的两个高斯图像相减得到高斯偏差,以得到关键点;其中,关键点不仅是当前高斯偏差图像局部相邻的预定个数的像素的极大值或极小值,而且是前后相邻尺度的高斯偏差领域的极大或极小值;
第二步,进行特征点定位,其中在极值点的局部领域用三维二次函数拟合方法来差值确定极值点的坐标;
第三步,进行主方位赋值,其中在构造SIFT描述算子之前,首先为每个关键点赋予一个主方向,其中主方向是指关键点领域内各点梯度方向的直方图中最大值所对应的方向;
第四步,进行SIFT描述算子的建立,其中将坐标轴旋转为关键点的方向,以确保任意一个关键点的旋转不变性,而且在关键点所在的尺度空间,取以关键点为中心的16像素×16像素大小的领域,再将此领域均匀地分为4×4的子区域,对每个子区域计算梯度方向直方图,以构成一个128维的特征向量,再将特征向量的长度归一化,从而获得作为SIFT描述算子的向量;
第五步,在导航相机获取的多幅图像的SIFT特征点集中找到相应匹配特征点之间的对应关系。
优选地,所述第五步包括:
针对导航相机获取的图像与模板图像的SIFT特征点,执行欧式距离匹配;
剔除欧式距离匹配中的误匹配;
根据剔除了误匹配的欧式距离匹配执行当前匹配图像与模板图像的仿射变换。
优选地,在第三步骤中,定义机器人方向角为(α,β,θ),定义机器人中的陀螺的偏差为(bp,bq,br),定义视觉信息为(αv,βv,θv),则在将惯性导航系统状态变量选择为x=[α,β,θ,bp,bq,br]T,并将观测变量选择为[αv,βv,θv]的情况下,建立惯性导航系统的状态方程及观测方程,并利用动态扩展卡尔曼滤波器对状态方程及观测方程进行递推以估计机器人的位置信息。
附图说明
结合附图,并通过参考下面的详细描述,将会更容易地对本发明有更完整的理解并且更容易地理解其伴随的优点和特征,其中:
图1示意性地示出了根据本发明优选实施例的基于SIFT算法的视觉导航方法的流程图。
图2示意性地示出了根据本发明优选实施例的基于SIFT算法的视觉导航方法。
图3示意性地示出了根据本发明优选实施例的基于动态扩展卡尔曼滤波融合视觉信息与惯性导航参数的一种原理。
需要说明的是,附图用于说明本发明,而非限制本发明。注意,表示结构的附图可能并非按比例绘制。并且,附图中,相同或者类似的元件标有相同或者类似的标号。
具体实施方式
为了使本发明的内容更加清楚和易懂,下面结合具体实施例和附图对本发明的内容进行详细描述。
本发明克服了上述现有技术的方法的不足,利用SIFT算法实现自然路标的特征提取与跟踪,根据图像序列中的自然路标位置信息确定机器人位置,并采用动态扩展卡尔曼滤波与惯性导航系统参数的数据融合,从而实现视觉导航信息对惯性导航系统误差的修正,获得精确的导航坐标,同时,达到微型化和低成本的特点,以提高在中小型机器人中的实用性。
下面将更具体的描述本发明的具体实施例。
图1示意性地示出了根据本发明优选实施例的基于SIFT(Scale-invariantfeature transform,尺度不变特征转换)算法的视觉导航方法的流程图。
具体地说,根据本发明优选实施例的基于SIFT算法的视觉导航方法包括:
第一步骤S1:利用机器人的导航摄像头获取图像;例如,获取的图像是机器人经过的局部环境的图像;而且,优选地,可以将带有云台的摄像头安装在机器人的正前方,由此可以随时拍摄周围的图像。
第二步骤S2:对于导航相机获取的图像基于SIFT方法提取自然路标的特征点;
其中,对于第二步骤S2,可通过以下几步完成:
第一步S10,进行尺度空间极点检测,其中通过不同尺度的高斯核函数对导航相机获取的图像进行连续滤波和下采样,形成高斯金字塔图像,然后再对相邻尺度的两个高斯图像相减得到DOG(高斯偏差),以得到关键点;其中,关键点不仅是当前DOG图像局部相邻的预定个数的像素(相邻8像素)的极大值或极小值,而且是前后相邻尺度的DOG领域的极大或极小值。其中,“DOG领域”指的是经过高斯图像相减后得到的一系列有高斯偏差的多个图像。
第二步S20,进行特征点定位:在极值点的局部领域用三维二次函数拟合方法来差值确定极值点的坐标。
第三步S30,进行主方位赋值:在构造SIFT描述算子之前,首先为每个关键点赋予一个主方向,其中主方向是指关键点领域内各点梯度方向的直方图中最大值所对应的方向。但是,在某些情况下,这个主导方位可能不唯一,除了直方图中最大值(最高峰值),其它所有大于最高峰值80%的方位值(是大于最高峰值的80%的其它值)都要记录下来,后续的描述算子构造均以该方向为参考,这样所构造的描述算子具有旋转不变性。
第四步S40,进行SIFT描述算子的建立,其中将坐标轴旋转为关键点的方向,以确保任意一个关键点的旋转不变性,而且在关键点所在的尺度空间(即高斯金字塔结构的某一层),取以关键点为中心的16像素×16像素大小的领域,再将此领域均匀地分为4×4的子区域,对每个子区域计算梯度方向直方图(直方图均匀分为8个方向),这样就构成了一个4×4×8=128维的特征向量,再继续将特征向量的长度归一化,则可以进一步去除光照变化的影响。此向量就是SIFT描述算子。其中,SIFT描述算子是特征点的数学向量表示法。
第五步S50,在导航相机获取的多幅图像的SIFT特征点集中找到相应匹配特征点之间的对应关系。
具体地说,由于一幅图像中SIFT特征点很多,不同的特征点对应于场景的不同的物体。当选中自然路标时,将所有属于该路标的特征(自然路标的特征,换言之,这个特征就是其SIFT描述算子)作为模板特征点集,其它特征点将被抛弃。当获取了某时刻采集图像的SIFT特征点(自然路标的特征点就是用SIFT向量表示的,那些特征点也可以称为SIFT特征点)后,需要找到其与上一时刻自然路标模板特征点集(数据库)之间的匹配关系,也就是需要在导航相机获取的多幅图像的SIFT特征点集中找到相应匹配特征点之间的对应关系。具体过程如下:
①针对导航相机获取的图像与模板图像(模板图像是利用获取的一幅图像,从模板图像数据库里查询出的与之可匹配的图像)的SIFT特征点,执行欧式距离匹配:通常可以用某种距离来度量两个描述算子的相似性,以此作为匹配依据,通常使用的是欧式距离。对于模板图像中的某个关键点,找出其与待匹配图像中欧式距离最近的前两个关键点,在这两个关键点中,如果最近的距离除以次近的距离少于某个比例阈值,则接受这一对匹配点。舍弃所有大于0.8的匹配,则可以剔除大约90%的错误匹配,而只抛弃了大约不到5%的正确匹配,当匹配点的数量达到一定的阈值,认为在当前图像中存在数据库中选定的自然路标,否则,继续在数据库中搜索。
②剔除欧式距离匹配中的误匹配:欧式距离较小只能表征两个描述算子高度相似,而不能保证匹配的正确性。可以设想待匹配图像中的特征点区域是模板图像中的某个区域通过一个图像空间的相似变化转化来的,即所有模板图像中特征点是经过同一个平移运动、同一个旋转、同一个尺度缩放而变为待匹配图像中相匹配的特征点。对于不满足大部分对应点构成的相似变换的点可以认为是误匹配。
③根据剔除了误匹配的欧式距离匹配执行当前匹配图像与模板图像的仿射变换:当摄像机移动时,对于图像中属于同一自然路标的特征点应当满足同一个运动模型。因此,设想当前匹配图像中的目标区域是模板图像中的目标区域通过一个更细腻的仿射变换运动得到的,通过求解这个仿射变换,既可以求得一个比较精确的图像运动变换,以后还可以通过这个图像运动变换求得模板图像中目标体上的其它元素在当前匹配图像中的位置。
第三步骤S3:根据所提取的自然路标的特征点,利用动态扩展卡尔曼滤波器融合自然路标特征匹配的结果信息以修正机器人的惯性导航系统的测量误差,由此对机器人运行状态和自然路标匹配的结果情况进行估计,从而获得机器人的导航参数。
具体地说,在第三步骤S3中,可利用动态扩展卡尔曼滤波器融合视觉信息修正机器人的惯性导航系统测量误差;更具体地说,例如,可定义机器人方向角为(α,β,θ),定义机器人中的陀螺的偏差为(bp,bq,br),定义视觉信息为(αv,βv,θv)(该参数与前面“提取的自然路标的特征点”有关),则在将惯性导航系统状态变量选择为x=[α,β,θ,bp,bq,br]T,并将观测变量选择为[αv,βv,θv]的情况下,建立惯性导航系统的状态方程及观测方程,并利用动态扩展卡尔曼滤波器对状态方程及观测方程进行递推以估计机器人的位置信息。
作为示例,图3示出了基于动态扩展卡尔曼滤波融合视觉信息与惯性导航参数的一种原理。如图3所示,状态更新模块更新状态后,与视觉测量的结果进行比较,产生一个修正量,经过误差修正后,再作用于状态更新模块,同时可以估计机器人的大概位姿。
本方法针对现有技术的不足,基于SIFT算法实现自然路标的特征提取,设计动态扩展卡尔曼滤波器对机器人的运动状态和视觉特征的位置进行估计,从而获得机器人的导航参数,解决视觉信息与惯性导航系统参数的数据融合问题,实现视觉信息对惯性导航系统误差的修正,获得精确的导航坐标。
本发明的优点在于,该导航系统成本低廉、体积小、操作方便、精度高,满足中小型机器人的载荷、尺寸、功率、成本等方面的需求,具有良好的应用前景。
此外,需要说明的是,除非特别说明或者指出,否则说明书中的术语“第一”、“第二”、“第三”等描述仅仅用于区分说明书中的各个组件、元素、步骤等,而不是用于表示各个组件、元素、步骤之间的逻辑关系或者顺序关系等。
可以理解的是,虽然本发明已以较佳实施例披露如上,然而上述实施例并非用以限定本发明。对于任何熟悉本领域的技术人员而言,在不脱离本发明技术方案范围情况下,都可利用上述揭示的技术内容对本发明技术方案作出许多可能的变动和修饰,或修改为等同变化的等效实施例。因此,凡是未脱离本发明技术方案的内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化及修饰,均仍属于本发明技术方案保护的范围内。
Claims (4)
1.一种基于SIFT算法的视觉导航方法,其特征在于包括:
第一步骤:利用机器人的导航相机获取图像;
第二步骤:对于导航相机获取的图像基于SIFT方法提取自然路标的特征点;
第三步骤:根据所提取的自然路标的特征点,利用动态扩展卡尔曼滤波器融合视觉信息以修正机器人的惯性导航系统的测量误差,由此对机器人运行状态和视觉特征的位置进行估计,从而获得机器人的导航参数。
2.根据权利要求1所述的基于SIFT算法的视觉导航方法,其特征在于,所述第二步骤包括:
第一步,进行尺度空间极点检测,其中通过不同尺度的高斯核函数对导航相机获取的图像进行连续滤波和下采样,形成高斯金字塔图像,然后再对相邻尺度的两个高斯图像相减得到高斯偏差,以得到关键点;其中,关键点不仅是当前高斯偏差图像局部相邻的预定个数的像素的极大值或极小值,而且是前后相邻尺度的高斯偏差领域的极大或极小值;
第二步,进行特征点定位,其中在极值点的局部领域用三维二次函数拟合方法来差值确定极值点的坐标;
第三步,进行主方位赋值,其中在构造SIFT描述算子之前,首先为每个关键点赋予一个主方向,其中主方向是指关键点领域内各点梯度方向的直方图中最大值所对应的方向;
第四步,进行SIFT描述算子的建立,其中将坐标轴旋转为关键点的方向,以确保任意一个关键点的旋转不变性,而且在关键点所在的尺度空间,取以关键点为中心的16像素×16像素大小的领域,再将此领域均匀地分为4×4的子区域,对每个子区域计算梯度方向直方图,以构成一个128维的特征向量,再将特征向量的长度归一化,从而获得作为SIFT描述算子的向量;
第五步,在导航相机获取的多幅图像的SIFT特征点集中找到相应匹配特征点之间的对应关系。
3.根据权利要求2所述的基于SIFT算法的视觉导航方法,其特征在于,所述第五步包括:
针对导航相机获取的图像与模板图像的SIFT特征点,执行欧式距离匹配;
剔除欧式距离匹配中的误匹配;
根据剔除了误匹配的欧式距离匹配执行当前匹配图像与模板图像的仿射变换。
4.根据权利要求1或2所述的基于SIFT算法的视觉导航方法,其特征在于,在第三步骤中,定义机器人方向角为(α,β,θ),定义机器人中的陀螺的偏差为(bp,bq,br),定义视觉信息为(αv,βv,θv),则在将惯性导航系统状态变量选择为x=[α,β,θ,bp,bq,br]T,并将观测变量选择为[αv,βv,θv]的情况下,建立惯性导航系统的状态方程及观测方程,并利用动态扩展卡尔曼滤波器对状态方程及观测方程进行递推以估计机器人的位置信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310698173.0A CN103644904A (zh) | 2013-12-17 | 2013-12-17 | 一种基于sift算法的视觉导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310698173.0A CN103644904A (zh) | 2013-12-17 | 2013-12-17 | 一种基于sift算法的视觉导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103644904A true CN103644904A (zh) | 2014-03-19 |
Family
ID=50250156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310698173.0A Pending CN103644904A (zh) | 2013-12-17 | 2013-12-17 | 一种基于sift算法的视觉导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103644904A (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914065A (zh) * | 2014-03-24 | 2014-07-09 | 深圳市大疆创新科技有限公司 | 飞行器状态实时修正的方法和装置 |
CN103926927A (zh) * | 2014-05-05 | 2014-07-16 | 重庆大学 | 一种室内移动机器人双目视觉定位与三维建图方法 |
CN104848851A (zh) * | 2015-05-29 | 2015-08-19 | 山东鲁能智能技术有限公司 | 基于多传感器数据融合构图的变电站巡检机器人及其方法 |
CN105486311A (zh) * | 2015-12-24 | 2016-04-13 | 青岛海通机器人系统有限公司 | 室内机器人定位导航方法及装置 |
CN105841687A (zh) * | 2015-01-14 | 2016-08-10 | 上海智乘网络科技有限公司 | 室内定位方法和系统 |
CN105928514A (zh) * | 2016-04-14 | 2016-09-07 | 广州智能装备研究院有限公司 | 基于图像与惯性技术的agv复合导引系统 |
CN107145906A (zh) * | 2017-05-02 | 2017-09-08 | 哈尔滨工程大学 | 一种基于全景视觉成像系统的移动机器人室内快速归航的方法 |
CN107357286A (zh) * | 2016-05-09 | 2017-11-17 | 两只蚂蚁公司 | 视觉定位导航装置及其方法 |
CN107498559A (zh) * | 2017-09-26 | 2017-12-22 | 珠海市微半导体有限公司 | 基于视觉的机器人转向的检测方法和芯片 |
WO2018119607A1 (en) * | 2016-12-26 | 2018-07-05 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for uncertainty modeling of point cloud |
US10060746B2 (en) | 2014-03-24 | 2018-08-28 | SZ DJI Technology Co., Ltd | Methods and systems for determining a state of an unmanned aerial vehicle |
WO2019029099A1 (zh) * | 2017-08-11 | 2019-02-14 | 浙江大学 | 基于图像梯度联合优化的双目视觉里程计算方法 |
CN110398258A (zh) * | 2019-08-13 | 2019-11-01 | 广州广电计量检测股份有限公司 | 一种惯性导航系统的性能测试装置及方法 |
CN110412635A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种环境信标支持下的gnss/sins/视觉紧组合方法 |
CN110412596A (zh) * | 2019-07-10 | 2019-11-05 | 上海电机学院 | 一种基于图像信息和激光点云的机器人定位方法 |
CN113624231A (zh) * | 2021-07-12 | 2021-11-09 | 北京自动化控制设备研究所 | 基于异源图像匹配的惯性视觉组合导航定位方法及飞行器 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080167814A1 (en) * | 2006-12-01 | 2008-07-10 | Supun Samarasekera | Unified framework for precise vision-aided navigation |
CN101598556A (zh) * | 2009-07-15 | 2009-12-09 | 北京航空航天大学 | 一种未知环境下无人机视觉/惯性组合导航方法 |
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN102788579A (zh) * | 2012-06-20 | 2012-11-21 | 天津工业大学 | 基于sift算法的无人机视觉导航方法 |
-
2013
- 2013-12-17 CN CN201310698173.0A patent/CN103644904A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080167814A1 (en) * | 2006-12-01 | 2008-07-10 | Supun Samarasekera | Unified framework for precise vision-aided navigation |
CN101598556A (zh) * | 2009-07-15 | 2009-12-09 | 北京航空航天大学 | 一种未知环境下无人机视觉/惯性组合导航方法 |
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
CN102788579A (zh) * | 2012-06-20 | 2012-11-21 | 天津工业大学 | 基于sift算法的无人机视觉导航方法 |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914065B (zh) * | 2014-03-24 | 2016-09-07 | 深圳市大疆创新科技有限公司 | 飞行器状态实时修正的方法和装置 |
US10914590B2 (en) | 2014-03-24 | 2021-02-09 | SZ DJI Technology Co., Ltd. | Methods and systems for determining a state of an unmanned aerial vehicle |
US10060746B2 (en) | 2014-03-24 | 2018-08-28 | SZ DJI Technology Co., Ltd | Methods and systems for determining a state of an unmanned aerial vehicle |
CN103914065A (zh) * | 2014-03-24 | 2014-07-09 | 深圳市大疆创新科技有限公司 | 飞行器状态实时修正的方法和装置 |
CN103926927A (zh) * | 2014-05-05 | 2014-07-16 | 重庆大学 | 一种室内移动机器人双目视觉定位与三维建图方法 |
CN105841687A (zh) * | 2015-01-14 | 2016-08-10 | 上海智乘网络科技有限公司 | 室内定位方法和系统 |
CN104848851B (zh) * | 2015-05-29 | 2017-08-18 | 山东鲁能智能技术有限公司 | 基于多传感器数据融合构图的变电站巡检机器人及其方法 |
CN104848851A (zh) * | 2015-05-29 | 2015-08-19 | 山东鲁能智能技术有限公司 | 基于多传感器数据融合构图的变电站巡检机器人及其方法 |
CN105486311A (zh) * | 2015-12-24 | 2016-04-13 | 青岛海通机器人系统有限公司 | 室内机器人定位导航方法及装置 |
CN105928514A (zh) * | 2016-04-14 | 2016-09-07 | 广州智能装备研究院有限公司 | 基于图像与惯性技术的agv复合导引系统 |
CN107357286A (zh) * | 2016-05-09 | 2017-11-17 | 两只蚂蚁公司 | 视觉定位导航装置及其方法 |
WO2018119607A1 (en) * | 2016-12-26 | 2018-07-05 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for uncertainty modeling of point cloud |
US10740962B2 (en) | 2016-12-26 | 2020-08-11 | Bayerische Motoren Werke Aktiengesellschaft | Method and apparatus for uncertainty modeling of point cloud |
CN107145906A (zh) * | 2017-05-02 | 2017-09-08 | 哈尔滨工程大学 | 一种基于全景视觉成像系统的移动机器人室内快速归航的方法 |
CN107145906B (zh) * | 2017-05-02 | 2020-06-16 | 哈尔滨工程大学 | 基于全景视觉成像系统的移动机器人室内快速归航方法 |
WO2019029099A1 (zh) * | 2017-08-11 | 2019-02-14 | 浙江大学 | 基于图像梯度联合优化的双目视觉里程计算方法 |
CN107498559A (zh) * | 2017-09-26 | 2017-12-22 | 珠海市微半导体有限公司 | 基于视觉的机器人转向的检测方法和芯片 |
CN110412596A (zh) * | 2019-07-10 | 2019-11-05 | 上海电机学院 | 一种基于图像信息和激光点云的机器人定位方法 |
CN110412635A (zh) * | 2019-07-22 | 2019-11-05 | 武汉大学 | 一种环境信标支持下的gnss/sins/视觉紧组合方法 |
CN110412635B (zh) * | 2019-07-22 | 2023-11-24 | 武汉大学 | 一种环境信标支持下的gnss/sins/视觉紧组合方法 |
CN110398258A (zh) * | 2019-08-13 | 2019-11-01 | 广州广电计量检测股份有限公司 | 一种惯性导航系统的性能测试装置及方法 |
CN113624231A (zh) * | 2021-07-12 | 2021-11-09 | 北京自动化控制设备研究所 | 基于异源图像匹配的惯性视觉组合导航定位方法及飞行器 |
CN113624231B (zh) * | 2021-07-12 | 2023-09-12 | 北京自动化控制设备研究所 | 基于异源图像匹配的惯性视觉组合导航定位方法及飞行器 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103644904A (zh) | 一种基于sift算法的视觉导航方法 | |
Shan et al. | Lio-sam: Tightly-coupled lidar inertial odometry via smoothing and mapping | |
EP3407294B1 (en) | Information processing method, device, and terminal | |
US9989969B2 (en) | Visual localization within LIDAR maps | |
Ghallabi et al. | LIDAR-Based road signs detection For Vehicle Localization in an HD Map | |
CN112734852B (zh) | 一种机器人建图方法、装置及计算设备 | |
JP4232167B1 (ja) | 対象特定装置、対象特定方法および対象特定プログラム | |
CN103175524B (zh) | 一种无标识环境下基于视觉的飞行器位置与姿态确定方法 | |
CN112667837A (zh) | 图像数据自动标注方法及装置 | |
CN108426576B (zh) | 基于标识点视觉导航与sins的飞行器路径规划方法及系统 | |
JP4978615B2 (ja) | 対象特定装置 | |
Sujiwo et al. | Monocular vision-based localization using ORB-SLAM with LIDAR-aided mapping in real-world robot challenge | |
CN112556685B (zh) | 导航路线的显示方法、装置和存储介质及电子设备 | |
Rehder et al. | Submap-based SLAM for road markings | |
Pang et al. | Low-cost and high-accuracy LiDAR SLAM for large outdoor scenarios | |
Xian et al. | Fusing stereo camera and low-cost inertial measurement unit for autonomous navigation in a tightly-coupled approach | |
CN113188557B (zh) | 一种融合语义特征的视觉惯性组合导航方法 | |
Zhang et al. | AVP-Loc: Surround view localization and relocalization based on HD vector map for automated valet parking | |
Hoang et al. | A simplified solution to motion estimation using an omnidirectional camera and a 2-D LRF sensor | |
CN112731503A (zh) | 一种基于前端紧耦合的位姿估计方法及系统 | |
Jiang et al. | Icp stereo visual odometry for wheeled vehicles based on a 1dof motion prior | |
CN111191596A (zh) | 一种封闭区域制图方法、装置及存储介质 | |
Zhu | Binocular vision-slam using improved sift algorithm | |
CN114842224A (zh) | 一种基于地理底图的单目无人机绝对视觉匹配定位方案 | |
Wu et al. | Vision-and-Lidar based real-time outdoor localization for unmanned ground vehicles without GPS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140319 |