CN103292804B - 一种单目自然视觉路标辅助的移动机器人定位方法 - Google Patents
一种单目自然视觉路标辅助的移动机器人定位方法 Download PDFInfo
- Publication number
- CN103292804B CN103292804B CN201310201121.8A CN201310201121A CN103292804B CN 103292804 B CN103292804 B CN 103292804B CN 201310201121 A CN201310201121 A CN 201310201121A CN 103292804 B CN103292804 B CN 103292804B
- Authority
- CN
- China
- Prior art keywords
- road sign
- natural vision
- image
- monocular
- vision road
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Navigation (AREA)
Abstract
本发明公开了一种单目自然视觉路标辅助的移动机器人定位方法。首先对导航环境中的若干位置预先建立自然视觉路标特征库。机器人在利用惯性导航系统定位过程中,同时对采集到的单目图像和库中的视觉路标进行匹配。建立了基于GIST全局特征和SURF局部特征相结合的在线图像快速匹配框架,同时结合基于单目视觉的运动估计算法修正车体航向。最后利用Kalman滤波将视觉路标匹配获得的定位信息和惯性导航系统解算获得的定位信息有效地融合起来。本发明能在GPS受限的情况下具备良好的定位精度和鲁棒性;能有效修正惯性导航因噪声引起的误差;使用单目视觉大大减少了运算量。
Description
技术领域
本发明涉及惯性导航和图像处理方法,特别是涉及一种单目自然视觉路标辅助的移动机器人定位方法。
背景技术
传统的机器人定位包括GPS、惯性导航系统等,GPS用途广泛、精度高,但受环境影响大,惯性导航系统完全自主,频率高但噪声影响大;而GPS/惯性导航系统融合定位是当今机器人导航中最常采用的组合导航定位方法之一,可以有效利用各自的优势,取长补短。但在实际应用中,很多场合下GPS信号会受到遮挡而无法使用,导致系统整体定位精度下降很快。
为了解决上述问题,目前使用的大多数方法都在寻找GPS之外的可靠定位手段。
有一类是视觉方法,它作为传统定位方法的有效补充得到越来越多的关注。如视觉里程计,它通过前后帧图像相匹配的特征点在三维空间的位置变化来估计车体运动。它一般需要双目立体相机才能获得较高的定位精度,成本较高,而单目则只能适用于路面是平坦的情况。同时定位和地图创建(SLAM)是通过机器人上携带的视觉或者激光传感器,通过概率算法实现未知环境下的定位。这类方法的优点是不需要任何环境先验信息,缺点是计算量大,实时定位有一定困难,对特征较少的环境定位精度较低。
还有一类是视觉与IMU的融合:(1)IMU与SLAM融合,IMU用来定位预测,根据图像特征点与机器人的相对位置修正定位结果,但运算量大,实时性差;另一类是IMU与视觉里程计(VO)的融合,利用VO修正IMU累积误差,但两者均为局部定位,VO的累积误差也会引入系统中。
以上这些非GPS的定位方法从理论上说都是局部的,误差还是会随着距离增加而累积。
发明内容
本发明的目的在于提供一种单目自然视觉路标辅助的移动机器人定位方法。建立了基于GIST全局特征和SURF局部特征相结合的在线图像快速匹配框架,并使用基于单目视觉的运动估计算法修正车体航向。最后利用Kalman滤波将视觉路标匹配获得的定位信息和惯性导航系统融合起来,提高了定位精度。
本发明采用的技术方案的步骤如下:
1)用单目相机采集区域内的场景图像作为自然视觉路标,提取场景图像的GIST全局特征和SURF局部特征,获取采集路标时单目相机和车体的姿态,构建视觉路标全局特征库和局部特征库;
2)移动机器人在行进过程中获取新图像,参考惯性导航系统的定位信息,将当前图像与自然视觉路标进行匹配,使用全局特征作为初步的过滤,并在此基础上使用局部特征进行精确匹配;
3)当前图像与自然视觉路标实现正确匹配定位后,因为机器人当前时刻的实际航向和路标指示的航向存在偏差,故采用基于单目图像的运动估计算法,计算当前图像与自然视觉路标间的航向与姿态偏差,获得机器人当前时刻可靠的定位信息;
4)将惯性导航系统与自然视觉路标辅助定位信息进行融合,惯性导航系统和里程计作为机器人主要的导航方式,基于自然视觉路标的绝对定位方法作为辅助导航方式,对惯性导航系统数据进行修正,惯性导航系统与自然视觉路标的融合包括位置和姿态两个方面的融合,由于相邻两帧间场景非常接近带来匹配模糊性,因此存在一个定位噪声方差;场景接近的前后两帧图像间姿态的变化很小,因此认为所求得的姿态可靠,直接作为当前姿态输出,而对位置信息则通过Kalman滤波方式进行融合。
所述步骤1)中,用单目相机采集区域内的场景图像作为自然视觉路标,提取场景图像的GIST全局特征和SURF局部特征,获取采集路标时单目相机和车体的姿态,构建视觉路标全局特征库和局部特征库;包括如下步骤:
1)首先采集区域内的场景图像作为自然视觉路标,自然视觉路标的选择应遵循三个原则:(1)具有丰富的特征信息;(2)采集该自然视觉路标时的单目相机位置和方向已知;(3)自然视觉路标之间的间隔为50米~100米,路标间隔低于50米时,会增大路标匹配的工作负担,降低匹配正确率;间隔超过100米时,则不能及时发挥定位修正的作用;
2)提取自然视觉路标的全局特征,GIST描述符是利用不同方向和尺度的Gabor滤波器对图像进行采样滤波,滤波后图像输出到4*4的网格中,每个网格取平均值;
3)提取自然视觉路标的SURF局部特征,SURF算子对尺度缩放、平移、旋转变换保持不变,即使在图像目标受到部分遮挡的情况下也能检索,同时对图像的亮度变化和仿射变换具有不变性,提取图像的SURF关键点能准确地刻画图像的局部内容特征;
所述步骤2)中,移动机器人在行进过程中获取新图像,参考惯性导航系统的定位信息,将当前图像与自然视觉路标进行匹配,使用全局特征作为初步的过滤,并在此基础上使用局部特征进行精确匹配;包括如下步骤:
将当前图像与自然视觉路标进行匹配,使用匹配成功的SURF关键点数占关键点总数的百分比结合尺度信息作为指标,应用投票机制来衡量当前图像与自然视觉路标的相似度,匹配的SURF数目的百分比记为N1,匹配的SURF点对中处在同一尺度的SURF点数目的百分比记为N2,则图像的相似度投票计分为
N=m1*N1+m2*N2 (1)
其中m1、m2为权重系数,m2>m1>0,当机器人在接近路标位置时,投票分数也越来越高,当过了路标位置时,投票数随即下降,赋予票数最高者相应路标的位置信息。
所述步骤3)中,当前图像与自然视觉路标实现正确匹配定位后,因为机器人当前时刻的实际航向和路标指示的航向存在偏差,故采用基于单目图像的运动估计算法,计算当前图像与自然视觉路标间的航向与姿态偏差,获得机器人当前时刻可靠的定位信息;包括如下步骤:
基于本质阵恢复运动参数,使用已经过标定的单目相机,提取采集的图像中的SURF特征,与自然视觉路标进行特征匹配,应用八点法求解本质矩阵,为减少噪声的影响,使用Ransac去除离群点,结合最小二乘准则获解本质矩阵,然后对本质矩阵进行奇异值分解:
E=UΣVT (2)
由本质矩阵和旋转矩阵的关系,可得两图像间旋转矩阵的求解公式如下:
基于被测点位于相机前方的事实以及相机的位置关系可选出R的唯一正确解;由旋转矩阵R和姿态角的关系可得到两幅图像间的三个姿态角的偏差:
Δθ=arcsin(R(1,3)) (4)
Δψ=arctan(R(1,2)/R(1,1))
其中Δθ、Δψ分别表示两图像间横滚角、俯仰角、航向角之差;结合路标已知的航向和姿态,即得到当前位置准确的姿态信息。
与背景技术相比,本发明具有的有益效果是:
1)因为本发明基于视觉算法,所以能在GPS受限的情况下精确定位,算法鲁棒。
2)因为本发明使用视觉路标信息,所以能有效修正惯性导航因噪声引起的误差。
3)因为本发明使用单目视觉,所以运算代价低。
附图说明
图1基于单目自然视觉路标辅助的移动机器人定位流程图。
图2移动机器人的实验定位轨迹。
具体实施方式
下面结合附图和实施例对本发明做进一步说明。
如图1所示,基于单目自然视觉路标辅助的移动机器人定位方法包括如下步骤:
1)用单目相机采集区域内的场景图像作为自然视觉路标,提取场景图像的GIST全局特征和SURF局部特征,获取采集路标时单目相机和车体的姿态,构建视觉路标全局特征库和局部特征库;
采集区域内的场景图像作为自然视觉路标,自然视觉路标的选择应遵循三个原则:(1)具有丰富的特征信息;(2)采集该自然视觉路标时的单目相机位置和方向已知;(3)自然视觉路标之间的间隔为50米~100米,路标间隔低于50米时,会增大路标匹配的工作负担,降低匹配正确率;间隔超过100米时,则不能及时发挥定位修正的作用;
GIST描述符是利用不同方向和尺度的Gabor滤波器对图像进行采样滤波,滤波后图像输出到4*4的网格中,每个网格取平均值,本发明使用8个方向4个尺度的滤波器采样,得到(4*4)*8*4=512的多维特征向量;SURF算子对尺度缩放、平移、旋转变换保持不变,即使在图像目标受到部分遮挡的情况下也能检索,同时对图像的亮度变化和仿射变换具有不变性,提取图像的SURF关键点能准确地刻画图像的局部内容特征;
2)移动机器人在行进过程中获取新图像,参考惯性导航系统的定位信息,将当前图像与自然视觉路标进行匹配,使用全局特征作为初步的过滤,并在此基础上使用局部特征进行精确匹配;
将当前图像与自然视觉路标进行精确匹配时,记匹配成功的SURF关键点数为ns,关键点总数为nt,使用N1=ns/nt结合尺度信息作为指标,应用投票机制来衡量当前图像与自然视觉路标的相似度,匹配成功的SURF点对中处在同一尺度的SURF点数目的百分比记为N2,则图像的相似度投票计分为
N=m1*N1+m2*N2 (1)
其中m1、m2为权重系数,m2>m1>0,当机器人在接近路标位置时,投票分数也越来越高,当过了路标位置时,投票数随即下降,赋予票数最高者相应路标的位置信息;
3)当前图像与自然视觉路标实现正确匹配定位后,因为机器人当前时刻的实际航向和路标指示的航向存在偏差,故采用基于单目图像的运动估计算法,计算当前图像与自然视觉路标间的航向与姿态偏差,获得机器人当前时刻可靠的定位信息;
运动估计算法基于本质阵恢复运动参数,使用已经过标定的单目相机,提取采集的图像中的SURF特征,与自然视觉路标进行特征匹配,应用八点法求解本质矩阵,为减少噪声的影响,使用Ransac去除离群点,结合最小二乘准则获解本质矩阵,然后对本质矩阵进行奇异值分解:
E=UΣVT (2)
由本质矩阵和旋转矩阵的关系,可得两图像间旋转矩阵的求解公式如下:
因为被测点位于相机前方的事实以及相机的位置关系可选出R的唯一正确解;由旋转矩阵R和姿态角的关系可得到两幅图像间的三个姿态角的偏差:
Δθ=arcsin(R(1,3)) (4)
Δψ=arctan(R(1,2)/R(1,1))
其中Δθ、Δψ分别表示两图像间横滚角、俯仰角、航向角之差;结合路标已知的航向和姿态,即得到当前位置准确的姿态信息。
实施例:
实验使用pioneer3机器人作为在线采集与算法测试的平台,平台装备了PointGrey Bumblebee立体相机一台,实验中只用到了其中的一个相机。车上还装有两台Novatel GPS和一台NV-IMU200的IMU,其中GPS的最高频率是20hz,相机最高每秒采集10帧图像,IMU的频率为100hz。GPS应用RTK技术定位精确度最高可达2cm,实验应用双GPS测量采集路标时相机的方向和车体初始航向,基线距离为50cm。实验环境为室外草地,使用Sokia SRX1全站仪系统对车体位置进行精确定位作为测量真值,全站仪(TS)通过跟踪安装在车体上的全向棱镜进行车体定位,精确度可达±2mm。
实验设计路线为环形,总长为43.79m。实验用bumblebee2立体相机采集320*240大小的图像,相机距地面0.78m高,俯仰角为10.7度,本次实验预先采集区域内5个标志场景的图像作为视觉路标,并记录测量位置车体的航向角。车体在规划的区域内行进时每帧不超过30cm,旋转角度不超过5度,共采集图像194帧。表1分别记录了在路标处基于惯性导航系统/里程计定位、视觉路标单点定位位置误差。表中清楚可见单点的视觉路标匹配定位精度较高,噪声方差小,融合后将大大修正了惯性导航系统/里程计定位的累积误差。
该实验中全局向量间距离阈值设为1.5,排除了与路标相差较大的场景图像,有效提升了匹配速度;本实验中,视觉路标匹配定位的误差均为一帧,即在投票分数达到最高点后的下一帧中立即赋予位置信息,延时即为一帧。
将单点视觉定位的位移信息和修正后的航向(本实验重在对姿态的航向修正)与惯性导航系统解算的位移和航向输出进行融合分别得到惯性导航系统/里程计组合、融合视觉路标以及航向修正后的轨迹估计,全站仪作为测量真值作为进行对比如图2。图中IMU/里程计组合导航的计算的轨迹,与全站仪数据相比,误差明显比修正后的大。这是由于车轮在草地上易打滑,车体在做定向旋转和前进时,实际无法达到要求的里程和角度,尤其在转弯时,航向转角的不足使得惯性导航系统数据向外漂移,不断累积的误差使得漂移现象愈加显著。融入视觉路标修正后,与路标相匹配的5个图像所在位置的单点误差得到明显的改善,从而造成曲线五处的间断,相当于起到了复位的作用;而航向角的修正使整个轨迹趋势明显靠近全站仪数据,整个定位误差大大减小。
同时,本文以五个路标位置为间隔,将轨迹分成六段逐段分析(如表3),由表中可知惯性导航系统/里程计的误差主要在分段4及之后的车体转向较多的路段,说明误差主要来源与车体实际航向与惯性导航系统解算的偏差,修正后直行路段(如路段3)累积误差非常有限,而转向较多路段(如路段4)累积误差明显大于其它路段但均已明显大大改善,充分表明视觉路标位置引入使单点定位的误差改善,而车体航向的校正使整个轨迹趋向正常,两者结合大大改善系统位置误差。
表1路标视觉单点定位解算误差
表2图像快速匹配框架各部分平均时间
GIST提取时间 | SURF提取时间 | SURF匹配时间 | SFM算法 | |
每帧时间/ms | 50 | 175 | 80 | 40 |
表3分段定位误差比较
Claims (4)
1.一种单目自然视觉路标辅助的移动机器人定位方法,其特征在于,包括如下步骤:
1)用单目相机采集区域内的场景图像作为自然视觉路标,提取场景图像的GIST全局特征和SURF局部特征,获取采集路标时单目相机和车体的姿态,构建视觉路标全局特征库和局部特征库;
2)移动机器人在行进过程中获取新图像,参考惯性导航系统的定位信息,将当前图像与自然视觉路标进行匹配,使用全局特征作为初步的过滤,并在此基础上使用局部特征进行精确匹配;
3)当前图像与自然视觉路标实现正确匹配定位后,因为机器人当前时刻的实际航向和路标指示的航向存在偏差,故采用基于单目图像的运动估计算法,计算当前图像与自然视觉路标间的航向与姿态偏差,获得机器人当前时刻可靠的定位信息;
4)将惯性导航系统与自然视觉路标辅助定位信息进行融合,惯性导航系统和里程计作为机器人主要的导航方式,基于自然视觉路标的绝对定位方法作为辅助导航方式,对惯性导航系统数据进行修正,惯性导航系统与自然视觉路标的融合包括位置和姿态两个方面的融合,由于相邻两帧间场景非常接近带来匹配模糊性,因此存在一个定位噪声方差;场景接近的前后两帧图像间姿态的变化很小,因此认为所求得的姿态可靠,直接作为当前姿态输出,而对位置信息则通过Kalman滤波方式进行融合。
2.根据权利要求1所述的一种单目自然视觉路标辅助的移动机器人定位方法,其特征在于,所述步骤1)中,用单目相机采集区域内的场景图像作为自然视觉路标,提取场景图像的GIST全局特征和SURF局部特征,获取采集路标时单目相机和车体的姿态,构建视觉路标全局特征库和局部特征库;包括如下步骤:
1)首先采集区域内的场景图像作为自然视觉路标,自然视觉路标的选择应遵循三个原则:(1)具有丰富的特征信息;(2)采集该自然视觉路标时的单目相机位置和方向已知;(3)自然视觉路标之间的间隔为50米~100米,路标间隔低于50米时,会增大路标匹配的工作负担,降低匹配正确率;间隔超过100米时,则不能及时发挥定位修正的作用;
2)提取自然视觉路标的全局特征,GIST描述符是利用不同方向和尺度的Gabor滤波器对图像进行采样滤波,滤波后图像输出到4*4的网格中,每个网格 取平均值;
3)提取自然视觉路标的SURF局部特征,SURF算子对尺度缩放、平移、旋转变换保持不变,即使在图像目标受到部分遮挡的情况下也能检索,同时对图像的亮度变化和仿射变换具有不变性,提取图像的SURF关键点能准确地刻画图像的局部内容特征。
3.根据权利要求1所述的一种单目自然视觉路标辅助的移动机器人定位方法,其特征在于,所述步骤2)中,移动机器人在行进过程中获取新图像,参考惯性导航系统的定位信息,将当前图像与自然视觉路标进行匹配,使用全局特征作为初步的过滤,并在此基础上使用局部特征进行精确匹配;包括如下步骤:
将当前图像与自然视觉路标进行匹配,使用匹配成功的SURF关键点数占关键点总数的百分比结合尺度信息作为指标,应用投票机制来衡量当前图像与自然视觉路标的相似度,匹配的SURF数目的百分比记为N1,匹配的SURF点对中处在同一尺度的SURF点数目的百分比记为N2,则图像的相似度投票计分为
N=m1*N1+m2*N2 (1)
其中m1、m2为权重系数,m2>m1>0,当机器人在接近路标位置时,投票分数也越来越高,当过了路标位置时,投票数随即下降,赋予票数最高者相应路标的位置信息。
4.根据权利要求1所述的一种单目自然视觉路标辅助的移动机器人定位方法,其特征在于:所述步骤3)中,当前图像与自然视觉路标实现正确匹配定位后,因为机器人当前时刻的实际航向和路标指示的航向存在偏差,故采用基于单目图像的运动估计算法,计算当前图像与自然视觉路标间的航向与姿态偏差,获得机器人当前时刻可靠的定位信息;包括如下步骤:
基于本质阵恢复运动参数,使用已经过标定的单目相机,提取采集的图像中的SURF特征,与自然视觉路标进行特征匹配,应用八点法求解本质矩阵,为减少噪声的影响,使用Ransac去除离群点,结合最小二乘准则获解本质矩阵,然后对本质矩阵进行奇异值分解:
E=UΣVT (2)
由本质矩阵和旋转矩阵的关系,可得两图像间旋转矩阵的求解公式如下:
基于被测点位于相机前方的事实以及相机的位置关系可选出R的唯一正确 解;由旋转矩阵R和姿态角的关系可得到两幅图像间的三个姿态角的偏差:
Δθ=arcsin(R(1,3)) (4)
Δψ=arctan(R(1,2)/R(1,1))
其中Δθ、Δψ分别表示两图像间横滚角、俯仰角、航向角之差;结合路标已知的航向和姿态,即得到当前位置准确的姿态信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310201121.8A CN103292804B (zh) | 2013-05-27 | 2013-05-27 | 一种单目自然视觉路标辅助的移动机器人定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310201121.8A CN103292804B (zh) | 2013-05-27 | 2013-05-27 | 一种单目自然视觉路标辅助的移动机器人定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103292804A CN103292804A (zh) | 2013-09-11 |
CN103292804B true CN103292804B (zh) | 2015-07-15 |
Family
ID=49094063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310201121.8A Expired - Fee Related CN103292804B (zh) | 2013-05-27 | 2013-05-27 | 一种单目自然视觉路标辅助的移动机器人定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103292804B (zh) |
Families Citing this family (57)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103646249B (zh) * | 2013-12-12 | 2017-11-17 | 江苏大学 | 一种温室智能移动机器人视觉导航路径识别方法 |
CN104063541B (zh) * | 2014-06-18 | 2017-12-01 | 南京邮电大学 | 基于分层决策机制的多机器人协作方法 |
CN104251702B (zh) * | 2014-09-18 | 2018-06-29 | 重庆大学 | 一种基于相对位姿测量的行人导航方法 |
CN104463108B (zh) * | 2014-11-21 | 2018-07-31 | 山东大学 | 一种单目实时目标识别及位姿测量方法 |
CN104503449A (zh) * | 2014-11-24 | 2015-04-08 | 杭州申昊科技股份有限公司 | 一种基于环境直线特征的定位方法 |
CN105841687B (zh) * | 2015-01-14 | 2019-12-06 | 上海智乘网络科技有限公司 | 室内定位方法和系统 |
CN104619016B (zh) * | 2015-01-22 | 2017-12-01 | 南京邮电大学 | 一种基于rssi的室内定位方法 |
CN104808590B (zh) * | 2015-02-14 | 2017-01-25 | 浙江大学 | 一种基于关键帧策略的移动机器人视觉伺服控制方法 |
CN104848851B (zh) * | 2015-05-29 | 2017-08-18 | 山东鲁能智能技术有限公司 | 基于多传感器数据融合构图的变电站巡检机器人及其方法 |
CN104864889B (zh) * | 2015-05-29 | 2018-05-29 | 山东鲁能智能技术有限公司 | 一种基于视觉的机器人里程计校正系统及方法 |
US20180340788A1 (en) * | 2015-10-19 | 2018-11-29 | Nokia Technologies Oy | A navigation apparatus and associated methods |
CN105486311B (zh) * | 2015-12-24 | 2019-08-16 | 青岛海通机器人系统有限公司 | 室内机器人定位导航方法及装置 |
CN107037806B (zh) * | 2016-02-04 | 2020-11-27 | 科沃斯机器人股份有限公司 | 自移动机器人重新定位方法及采用该方法的自移动机器人 |
CN105808717A (zh) * | 2016-03-07 | 2016-07-27 | 苏州中德睿博智能科技有限公司 | 一种基于dr定位信息的视觉标签匹配方法 |
CN105865451B (zh) * | 2016-04-19 | 2019-10-01 | 深圳市神州云海智能科技有限公司 | 用于移动机器人室内定位的方法和设备 |
CN105928505B (zh) * | 2016-04-19 | 2019-01-29 | 深圳市神州云海智能科技有限公司 | 移动机器人的位姿确定方法和设备 |
CN105953798B (zh) * | 2016-04-19 | 2018-09-18 | 深圳市神州云海智能科技有限公司 | 移动机器人的位姿确定方法和设备 |
CN106052683A (zh) * | 2016-05-25 | 2016-10-26 | 速感科技(北京)有限公司 | 机器人运动姿态估计方法 |
CN106066179A (zh) * | 2016-07-27 | 2016-11-02 | 湖南晖龙股份有限公司 | 一种基于ros操作系统的机器人位置丢失找回方法和控制系统 |
CN106405605B (zh) * | 2016-08-23 | 2019-04-05 | 湖南晖龙集团股份有限公司 | 一种机器人基于ros和gps的室内外无缝定位方法和定位系统 |
CN106767833B (zh) * | 2017-01-22 | 2019-11-19 | 电子科技大学 | 一种融合rgbd深度传感器与编码器的机器人定位方法 |
CN107084727B (zh) * | 2017-04-12 | 2021-01-19 | 武汉理工大学 | 一种基于高精度三维地图的视觉定位系统及方法 |
CN107121981A (zh) * | 2017-04-20 | 2017-09-01 | 杭州南江机器人股份有限公司 | 一种基于视觉的agv巡线导航和定位方法 |
CN106996777B (zh) * | 2017-04-21 | 2019-02-12 | 合肥井松自动化科技有限公司 | 一种基于地面图像纹理的视觉导航方法 |
CN107248171B (zh) * | 2017-05-17 | 2020-07-28 | 同济大学 | 一种基于三角剖分的单目视觉里程计尺度恢复方法 |
CN107345814A (zh) * | 2017-07-11 | 2017-11-14 | 海安中科智能制造与信息感知应用研发中心 | 一种移动机器人视觉定位系统及定位方法 |
DE102017213577A1 (de) * | 2017-08-04 | 2019-02-07 | Robert Bosch Gmbh | Verfahren zur Lagebestimmung eines Roboters, Lagebestimmungsvorrichtung eines Roboters und Roboter |
CN107588770B (zh) * | 2017-10-26 | 2020-05-29 | 北京正安维视科技股份有限公司 | 一种基于惯性导航的室内定位方法及设备 |
CN108051836B (zh) * | 2017-11-02 | 2022-06-10 | 中兴通讯股份有限公司 | 一种定位方法、装置、服务器及系统 |
CN107907131B (zh) * | 2017-11-10 | 2019-12-13 | 珊口(上海)智能科技有限公司 | 定位系统、方法及所适用的机器人 |
US10436590B2 (en) | 2017-11-10 | 2019-10-08 | Ankobot (Shanghai) Smart Technologies Co., Ltd. | Localization system and method, and robot using the same |
CN108196285B (zh) * | 2017-11-30 | 2021-12-17 | 中山大学 | 一种基于多传感器融合的精确定位系统 |
CN108225327B (zh) * | 2017-12-31 | 2021-05-14 | 芜湖哈特机器人产业技术研究院有限公司 | 一种顶标地图的构建与定位方法 |
CN108180917B (zh) * | 2017-12-31 | 2021-05-14 | 芜湖哈特机器人产业技术研究院有限公司 | 一种基于位姿图优化的顶标地图构建方法 |
CN110388917B (zh) * | 2018-04-23 | 2021-07-13 | 北京京东尚科信息技术有限公司 | 飞行器单目视觉尺度估计方法和装置、飞行器导航系统及飞行器 |
CN108731670B (zh) * | 2018-05-18 | 2021-06-22 | 南京航空航天大学 | 基于量测模型优化的惯性/视觉里程计组合导航定位方法 |
CN109357676A (zh) * | 2018-10-19 | 2019-02-19 | 北京三快在线科技有限公司 | 一种移动设备的定位方法及装置和移动设备 |
CN111212375B (zh) | 2018-11-20 | 2021-08-03 | 华为技术有限公司 | 定位位置调整方法及其装置 |
CN109945890B (zh) * | 2018-11-21 | 2022-01-25 | 财团法人车辆研究测试中心 | 多定位系统切换与融合校正方法及其装置 |
CN111213031A (zh) * | 2018-12-06 | 2020-05-29 | 深圳市大疆创新科技有限公司 | 一种导航处理方法、装置及导航处理设备 |
CN111325777A (zh) * | 2018-12-14 | 2020-06-23 | 北京沃东天骏信息技术有限公司 | 用于处理图像的方法和装置 |
CN109764858B (zh) * | 2018-12-24 | 2021-08-06 | 中公高科养护科技股份有限公司 | 一种基于单目相机的摄影测量方法及系统 |
CN109945858B (zh) * | 2019-03-20 | 2021-04-13 | 浙江零跑科技有限公司 | 用于低速泊车驾驶场景的多传感融合定位方法 |
CN109727269B (zh) * | 2019-03-29 | 2019-07-09 | 中国人民解放军国防科技大学 | 一种基于单目视觉和道路地图的匹配定位方法 |
CN110412635B (zh) * | 2019-07-22 | 2023-11-24 | 武汉大学 | 一种环境信标支持下的gnss/sins/视觉紧组合方法 |
CN110458885B (zh) * | 2019-08-27 | 2024-04-19 | 纵目科技(上海)股份有限公司 | 基于行程感知与视觉融合的定位系统和移动终端 |
CN112540382B (zh) * | 2019-09-07 | 2024-02-13 | 山东大学 | 一种基于视觉识别检测的激光导航agv辅助定位方法 |
CN111121825B (zh) * | 2020-01-08 | 2022-02-08 | 武汉大学 | 一种行人惯性导航系统中初始导航状态的确定方法及装置 |
WO2021160182A1 (en) * | 2020-02-14 | 2021-08-19 | Guangdong Oppo Mobile Telecommunications Corp., Ltd. | Method and apparatus for estimating pose of image capturing device |
CN111750855B (zh) * | 2020-08-03 | 2022-02-15 | 长安大学 | 一种视觉主导的自主作业智能振动压路机 |
CN111968035B (zh) * | 2020-08-05 | 2023-06-20 | 成都圭目机器人有限公司 | 基于损失函数的图像相对旋转角计算方法 |
CN112614162B (zh) * | 2020-12-28 | 2023-10-31 | 深圳大学 | 基于空间优化策略的室内视觉快速匹配定位方法及系统 |
CN113238550B (zh) * | 2021-04-12 | 2023-10-27 | 大连海事大学 | 一种基于路标自适应校正移动机器人视觉归航方法 |
CN114526728B (zh) * | 2022-01-14 | 2023-12-05 | 浙江大学 | 一种基于自监督深度学习的单目视觉惯导定位方法 |
CN114995497A (zh) * | 2022-06-08 | 2022-09-02 | 南京航空航天大学 | 基于编队共用地图的多个体三维协同惯性slam方法及装置 |
CN116155814B (zh) * | 2023-04-20 | 2023-07-14 | 四川汉科计算机信息技术有限公司 | 一种数字战场信息控制系统及传输方法、补偿方法 |
CN117782088B (zh) * | 2023-12-13 | 2024-07-19 | 深圳大学 | 一种合作目标建图定位导航方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101598556A (zh) * | 2009-07-15 | 2009-12-09 | 北京航空航天大学 | 一种未知环境下无人机视觉/惯性组合导航方法 |
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI397671B (zh) * | 2009-12-16 | 2013-06-01 | Ind Tech Res Inst | 定位載體、估測載體姿態與建地圖之系統與方法 |
-
2013
- 2013-05-27 CN CN201310201121.8A patent/CN103292804B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101598556A (zh) * | 2009-07-15 | 2009-12-09 | 北京航空航天大学 | 一种未知环境下无人机视觉/惯性组合导航方法 |
CN102538781A (zh) * | 2011-12-14 | 2012-07-04 | 浙江大学 | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 |
Non-Patent Citations (4)
Title |
---|
Reliable and efficient landmark-based localization for mobile robots;I.Loevsky等;《Robotics and Autonomous Systems》;20101231;第520-528页 * |
一种机器人导航中自然路标的匹配与跟踪方法;刘俊承等;《Computer Engineering and Applications》;20081231;第215-218页 * |
基于路标的机器人自定位方法;刘俊承等;《科学技术与工程》;20050930;第5卷(第17期);第1265-1270页 * |
移动机器人的一种室内自然路标定位法;唐琎等;《计算机工程与应用》;20051231;第44-47页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103292804A (zh) | 2013-09-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103292804B (zh) | 一种单目自然视觉路标辅助的移动机器人定位方法 | |
CN102538781B (zh) | 基于机器视觉和惯导融合的移动机器人运动姿态估计方法 | |
CN110411462B (zh) | 一种gnss/惯导/车道线约束/里程计多源融合方法 | |
US20210311486A1 (en) | Navigation by augmented path prediction | |
CN108051002B (zh) | 基于惯性测量辅助视觉的运输车空间定位方法及系统 | |
Ziegler et al. | Video based localization for bertha | |
Agrawal et al. | Real-time localization in outdoor environments using stereo vision and inexpensive gps | |
Guo et al. | A low-cost solution for automatic lane-level map generation using conventional in-car sensors | |
CN103777220B (zh) | 基于光纤陀螺、速度传感器和gps的实时精确位姿估计方法 | |
CN107229063A (zh) | 一种基于gnss和视觉里程计融合的无人驾驶汽车导航定位精度矫正方法 | |
CN108845343A (zh) | 一种基于视觉、gps与高精度地图融合的车辆定位方法 | |
Tschopp et al. | Experimental comparison of visual-aided odometry methods for rail vehicles | |
CN107728175A (zh) | 基于gnss和vo融合的无人驾驶车辆导航定位精度矫正方法 | |
EP3018603A1 (en) | Adaptive mapping with spatial summaries of sensor data | |
US20230083965A1 (en) | Map construction method, apparatus and storage medium | |
Guo et al. | Automatic lane-level map generation for advanced driver assistance systems using low-cost sensors | |
Almeida et al. | Real time egomotion of a nonholonomic vehicle using LIDAR measurements | |
US20190331496A1 (en) | Locating a vehicle | |
CN102788580A (zh) | 无人机视觉导航中的飞行路线合成方法 | |
US20140058563A1 (en) | Method and system for the directed control of robotic assets | |
Wei et al. | Intelligent vehicle localization in urban environments using ekf-based visual odometry and gps fusion | |
CN106595635A (zh) | 融合多种定位传感器数据的agv定位方法 | |
CN114889606B (zh) | 一种基于多传感融合的低成本高精定位方法 | |
Vezinet et al. | State of the art of image-aided navigation techniques for aircraft approach and landing | |
Niu et al. | Camera-based lane-aided multi-information integration for land vehicle navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150715 |
|
CF01 | Termination of patent right due to non-payment of annual fee |