CN111006655A - 机场巡检机器人多场景自主导航定位方法 - Google Patents
机场巡检机器人多场景自主导航定位方法 Download PDFInfo
- Publication number
- CN111006655A CN111006655A CN201911002571.8A CN201911002571A CN111006655A CN 111006655 A CN111006655 A CN 111006655A CN 201911002571 A CN201911002571 A CN 201911002571A CN 111006655 A CN111006655 A CN 111006655A
- Authority
- CN
- China
- Prior art keywords
- robot
- navigation positioning
- positioning method
- current
- position coordinates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/40—Correcting position, velocity or attitude
- G01S19/41—Differential correction, e.g. DGPS [differential GPS]
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/48—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system
- G01S19/49—Determining position by combining or switching between position solutions derived from the satellite radio beacon positioning system and position solutions derived from a further system whereby the further system is an inertial position system, e.g. loosely-coupled
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/53—Determining attitude
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Abstract
本发明公开了一种机场轮式巡检机器人多场景自主导航定位方法,通过摄像头采集可见光图像信息,通过目标识别分析当前场景的路面情况,根据图像提取的有效特征数判别当前场景空旷度,并通过相邻关键帧比较计算场景相似度,以此三点作为巡检机器人导航定位方法选用的依据。当空旷度较高且为标准路面时,采用差分GPS结合编码器、视觉的自主导航定位方法;当空旷度较高且为砂石路面时,采用GPS结合视觉、IMU、编码器的自主导航定位方式;当场景空旷度较低、相似度较小时,则采用视觉SLAM自主导航定位方式。本发明不仅提高了机器人的环境适应度,同时也减少了大量传感器融合的弊端,减轻了机器人控制系统的计算压力。
Description
技术领域
本发明属于自动化巡检技术领域,具体为一种机场巡检机器人多场景自主导航定位方法。
背景技术
当前自主机器人导航定位主要基于某一特定环境实现,如差分GPS方法多用于空旷地带,SLAM技术多用于室内或者室外小范围地区,无法同时满足多种复杂环境。由于多数机场的周界路况差异较大,有的地方路况标准、较为开阔,有的地方为砂石路面、开阔度不够,而在机场管理区建筑物也较多,这样就导致对于自主导航定位的巡检机器人无法使用某单一技术实现全周界的自主巡检。
发明内容
本发明的目的在于提供一种机场巡检机器人多场景自主导航定位方法。
实现本发明目的的技术方案为:一种机场巡检机器人多场景自主导航定位方法,具体步骤为:
根据当前场景的路面情况、空旷度与相似度从三种导航定位方法中确定一种进行机器人自主导航定位,所述三种导航定位方法包括空旷环境下标准路面导航定位方法、空旷环境下砂石路面导航定位方法、标准环境下导航定位方法,所述空旷环境下标准路面导航定位方法融合差分GPS信息、编码器信息进行机器人定位,利用视觉信息实现机器人自主导航,所述空旷环境下砂石路面导航定位方法融合GPS信息、IMU与编码器信息进行机器人定位,使用视觉信息进行机器人导航;所述标准环境下导航定位方法通过视觉SLAM技术进行定位,使用迪杰斯特拉进行全局路径规划,完成机器人导航。
优选地,根据当前场景的路面情况、空旷度与相似度确定具体导航定位方法的具体步骤为:
步骤1-1、每隔设定时间从巡检视频流中提取当前帧图像,若当前帧图像到上一关键帧图像中机器人的位置距离超过100个像素,则判定此帧图像为关键帧图像;
步骤1-2、使用ORB算法提取当前关键帧的FAST特征点,并用BRIEF特征描述子进行描述;
步骤1-3、将当前关键帧的特征点数量与特征点数量阈值进行比较,若特征点数大于特征点数量阈值则当前场景空旷度较低,进行步骤1-4,否则当前场景空旷度较高,进行步骤1-5;
步骤1-4、将当前关键帧与前一关键帧进行特征匹配,并计算匹配特征点对数量,若匹配点对数量小于200时则当前场景相似度较低,采用标准环境下导航定位方法进行机器人导航定位,否则当前场景的相似度较高,进行步骤1-5;
步骤1-5、对当前关键帧进行目标识别,分析当前路面情况,若为标准路面,采用空旷环境下标准路面导航定位方法进行机器人导航定位,所述标准路面为机场周边绘制了规范车道线的柏油路面,若为砂石路面,采用空旷环境下砂石路面导航定位方法进行机器人导航定位。
优选地,所述空旷环境下标准路面导航定位方法包括如下步骤:
步骤A1、机器人分别获取安装在信号架上的GPS基站的位置信息与安装在机器人上的GPS移动站的位置坐标,通过差分GPS技术确定GPS移动站的位置坐标,作为机器人基础位置坐标;
步骤A2、在机器人获取相邻两组基础位置坐标的时间间隔内,使用编码器获取的脉冲数计算机器人相对于前一基础位置坐标的相对位置坐标,将基础位置坐标与相对位置坐标信息进行卡尔曼融合得到更准确的机器人当前位置坐标;
步骤A3、比较步骤A2获取的机器人当前位置坐标与机器人目标位置坐标,得到机器人运行方向,同时对摄像头获取的图像数据进行处理,提取道路上的车道线,通过机器人控制技术使机器人沿车道线向目标位置行进,实现机器人自主导航。
优选地,所述空旷环境下砂石路面导航定位方法包括以下步骤:
步骤B1、机器人分别获取GPS基站的位置坐标与安装在机器人上的GPS移动站的位置坐标,通过差分GPS技术求取确定GPS移动站的位置坐标,作为机器人基础位置坐标;
步骤B2、在机器人获取相邻两组基础位置坐标的时间间隔内,融合IMU采集的机器人角速度与角速度数据与编码器采集的脉冲数,得到机器人更为准确的相对位置坐标,解决了砂石路车轮容易打滑的问题,将基础位置坐标与相对位置坐标进行卡尔曼融合得到更准确的机器人当前位置坐标;
步骤B3、比较步骤B2获取的机器人当前位置坐标与机器人目标位置坐标,得到机器人运行方向,同时摄像头获取的图像数据进行处理,根据砂石路与路边草坪的像素差异提取两条道路线,通过机器人控制技术使机器人沿着这两条道路线的中线向目标位置行进,实现机器人自主导航。
优选地,所述标准环境下导航定位方法包括以下步骤:
步骤C1、根据相邻图像差异度对摄像头采集的图像进行关键帧提取;
步骤C2、对关键帧图像进行特征提取,并与前一关键帧进行特征匹配,若匹配成功,则利用八点法计算机器人的图像相对位姿,同时对IMU获取的机器人加速度与角速度数据进行解算,并对两关键帧之间的IMU数据进行预积分,得到两关键帧之间的机器人的IMU相对位姿,融合这两种相对位姿数据得到更为准确的机器人相对位姿;若匹配失败,则选择机器人已保存的关键帧进行匹配,取匹配度最高的关键帧结合当前关键帧使用八点法计算机器人相对位姿,以此得到机器人的位姿;
步骤C4、将在步骤C2中每个位姿点处获取的场景点添加到一起构成机器人稀疏特征地图;
步骤C5、使用迪杰斯特拉算法在步骤C4获取的地图中进行路径规划,实现机器人自主导航。
本发明与现有技术相比,其显著优点为:
1)本发明能够适应相似度低、特征数量适中的标准环境与空旷环境下的不同路况,提高了机器人大范围自主运行的能力,同时也减轻了机器人为适应不同环境而融合过多传感器数据对主控系统造成的计算压力;
2)本发明中在判断环境特点时采用时间与空间相结合的方式,避免了单纯采用时间阈值时相邻关键帧变化幅度小增加计算量的问题,同时也减少了单纯采用空间阈值时相邻关键帧变化过大导致错失关键图像的误差;
3)本发明中在砂石路环境下的导航定位方式中,在差分GPS数据间隔使用IMU与编码器融合的相对位置数据,提高了位置精度,同时也避免了车轮打滑产生的数据误差;
4)本发明中在视觉SLAM中,使用图像特征匹配得到的机器人位移数据与IMU数据融合,减小了地图构建时的尺度误差,同时也避免了运动模糊导致无法更新机器人位姿的情况。
附图说明
图1为本发明的流程图。
图2为空旷环境下标准路面导航定位方法流程图。
图3为空旷环境下砂石路面导航定位方法流程图。
图4为标准环境下导航定位方法流程图。
具体实施方式
如图1所示,一种机场巡检机器人多场景自主导航定位方法,具体步骤为:
根据当前场景的路面情况、空旷度与相似度从三种导航定位方法中确定一种进行机器人自主导航定位,所述三种导航定位方法包括空旷环境下标准路面导航定位方法、空旷环境下砂石路面导航定位方法、标准环境下导航定位方法,所述空旷环境下标准路面导航定位方法融合差分GPS信息、编码器信息进行机器人定位,利用视觉信息实现机器人自主导航,所述空旷环境下砂石路面导航定位方法融合GPS信息、IMU与编码器信息进行机器人定位,使用视觉信息进行机器人导航;所述标准环境下导航定位方法通过视觉SLAM技术进行定位,使用迪杰斯特拉进行全局路径规划,完成机器人导航。
如图2所示,进一步的实施例中,根据当前场景的路面情况、空旷度与相似度确定具体导航定位方法的具体步骤为:
步骤1-1、机器人在运行过程中,每隔一段时间从视觉传感器的视频流中提取一帧图像,使用金字塔光流法根据上一关键帧特征计算两帧图像间的特征位移,并将此作为机器人在两帧图像间的相对运动,若该位移超过100个像素,则判定此帧图像为关键帧图像;
步骤1-2、使用ORB算法提取当前关键帧的FAST特征点,用BRIEF特征描述子进行描述并存储,方便进行地图构建;
步骤1-3、判断当前关键帧的ORB特征点数量,若特征点数大于180个则当前场景中有较多目标物,环境不单一,判定当前环境空旷度为低,进行步骤1-4,否则判定当前场景空旷度为高,进行步骤1-5;
步骤1-4、将当前关键帧的BRIEF描述子与前一关键帧的BRIEF描述子进行匹配,并计算匹配特征点对数量,若匹配点对数量小于200时则认为当前场景与前一关键帧场景存在较少的相似场景点,判定当前场景相似度为低,采用标准环境下导航定位方法进行机器人导航定位,否则判定当前场景的相似度为高,进行步骤1-5;
步骤1-5、对当前关键帧进行目标识别,分析当前路面情况,若提取到的路面图像像素变化平滑,同时可以提取到车道线,则路面较为平整,判定为标准路面,采用空旷环境下标准路面导航定位方法进行机器人导航定位,所述标准路面为机场周边绘制了规范车道线的柏油路面。否则判定为为砂石路面,采用空旷环境下砂石路面导航定位方法进行机器人导航定位。
如图3所示,进一步的实施例中,所述空旷环境下标准路面导航定位方法为差分GPS、里程计结合视觉的多传感器融合导航定位方法,由于标准路面上里程计不会产生轮子打滑等误差,因此直接采用编码器进行里程计数据获取不会导致较大的累积误差,同时空旷环境下GPS信号不会受到遮挡,可以准确地得到低频率的机器人定位位姿。具体包括如下步骤:
步骤A1、机器人分别获取安装在信号架上的GPS基站的位置信息与安装在机器人上的GPS移动站的位置坐标,通过差分GPS技术确定GPS移动站的位置坐标,作为机器人基础位置坐标;
步骤A2、在机器人获取相邻两组基础位置坐标的时间间隔内,使用编码器获取的脉冲数计算机器人相对于前一基础位置坐标的相对位置坐标,将基础位置坐标与相对位置坐标信息进行卡尔曼融合得到更准确的机器人当前位置坐标;
步骤A3、比较步骤A2获取的机器人当前位置坐标与机器人目标位置坐标,得到机器人运行方向,同时对摄像头获取的图像数据进行处理,提取道路上的车道线,通过机器人控制技术使机器人沿车道线向目标位置行进,实现机器人自主导航。
如图4所示,进一步的实施例中,所述空旷环境下砂石路面导航定位方法使用差分GPS、编码器、IMU进行机器人定位,使用视觉进行导航。由于机器人运行在砂石路面上轮胎容易打滑,本方法将编码器数据与IMU数据融合得到去掉了轮子打滑所引起误差的里程计数据,可以实现砂石路面的机器人高精度定位,同时该环境中GPS仍然可以提供较好地定位数据,因此仍然采用差分GPS与里程计数据融合的方法,具体包括以下步骤:
步骤B1、机器人分别获取GPS基站的位置坐标与安装在机器人上的GPS移动站的位置坐标,通过差分GPS技术求取确定GPS移动站的位置坐标,作为机器人基础位置坐标;
步骤B2、在机器人获取相邻两组基础位置坐标的时间间隔内,融合IMU采集的机器人角速度、加速度数据与编码器采集的脉冲数,得到机器人更为准确的相对位置坐标,解决了砂石路车轮容易打滑的问题,将基础位置坐标与相对位置坐标进行卡尔曼融合得到更准确的机器人当前位置坐标;
步骤B3、比较步骤B2获取的机器人当前位置坐标与机器人目标位置坐标,得到机器人运行方向,同时摄像头获取的图像数据进行处理,根据砂石路与路边草坪的像素差异提取两条道路线,通过机器人控制技术使机器人沿着这两条道路线的中线向目标位置行进,实现机器人自主导航。
进一步的实施例中,所述标准环境下导航定位方法为视觉SLAM方法。该环境中特征数量较多,相似度也较低,可能存在较大的建筑物或者树木,容易遮挡GPS信息,因此该方法采用不受高大目标物影响的视觉SLAM技术进行导航定位,该方法结合IMU信息可以还原机器人地图的自然尺度,提供更高的定位精度,具体包括以下步骤:
步骤C1、对相机采集的每帧图像进行光流法特征跟踪,若跟踪特征数量大于400个,则舍弃当前帧图像,否则保存当前图像作为关键帧;
步骤C2、对关键帧图像进行ORB特征提取,并与前一关键帧进行特征匹配,若匹配成功,则利用八点法计算机器人的图像相对位姿,所述八点法通过对极约束理论得到两相邻关键帧匹配点对的本征矩阵后,选择八对匹配点坐标带入对极约束方程中,求解出本征矩阵,然后通过奇异值分解得到两关键帧之间相机的位姿变化。同时对IMU获取的机器人加速度与角速度数据进行解算,并对两关键帧之间的IMU数据进行预积分,得到两关键帧之间的机器人的IMU相对位姿,融合这两种相对位姿数据得到更为准确的机器人相对位姿;若匹配失败,则选择机器人已保存的关键帧进行匹配,取匹配度最高的关键帧结合当前关键帧使用八点法计算机器人相对位姿,以此得到机器人的位姿;
步骤C4、将在步骤C2中每个位姿点处获取的场景点添加到一起构成机器人稀疏特征地图;
步骤C5、使用迪杰斯特拉算法在步骤C4获取的地图中进行路径规划,同时机器人根据自身当前位置坐标与目标位置的偏差控制机器人沿着目标物的方向运动,若机器人在运行到下一目标点的过程中遇到动态障碍物,则暂停运行或者转向绕过障碍物,以避免碰撞,实现机器人自主导航。
Claims (5)
1.一种机场巡检机器人多场景自主导航定位方法,其特征在于,具体步骤为:
根据当前场景的路面情况、空旷度与相似度从三种导航定位方法中确定一种进行机器人自主导航定位,所述三种导航定位方法包括空旷环境下标准路面导航定位方法、空旷环境下砂石路面导航定位方法、标准环境下导航定位方法,所述空旷环境下标准路面导航定位方法融合差分GPS信息、编码器信息进行机器人定位,利用视觉信息实现机器人自主导航,所述空旷环境下砂石路面导航定位方法融合GPS信息、IMU与编码器信息进行机器人定位,使用视觉信息进行机器人导航;所述标准环境下导航定位方法通过视觉SLAM技术进行定位,使用迪杰斯特拉进行全局路径规划,完成机器人导航。
2.根据权利要求1所述的机场巡检机器人多场景自主导航定位方法,其特征在于,根据当前场景的路面情况、空旷度与相似度确定具体导航定位方法的具体步骤为:
步骤1-1、每隔设定时间从巡检视频流中提取当前帧图像,若当前帧图像到上一关键帧图像中机器人的位置距离超过100个像素,则判定此帧图像为关键帧图像;
步骤1-2、使用ORB算法提取当前关键帧的FAST特征点,并用BRIEF特征描述子进行描述;
步骤1-3、将当前关键帧的特征点数量与特征点数量阈值进行比较,若特征点数大于特征点数量阈值则当前场景空旷度较低,进行步骤1-4,否则当前场景空旷度较高,进行步骤1-5;
步骤1-4、将当前关键帧与前一关键帧进行特征匹配,并计算匹配特征点对数量,若匹配点对数量小于200时则当前场景相似度较低,采用标准环境下导航定位方法进行机器人导航定位,否则当前场景的相似度较高,进行步骤1-5;
步骤1-5、对当前关键帧进行目标识别,分析当前路面情况,若为标准路面,采用空旷环境下标准路面导航定位方法进行机器人导航定位,所述标准路面为机场周边绘制了规范车道线的柏油路面,若为砂石路面,采用空旷环境下砂石路面导航定位方法进行机器人导航定位。
3.根据权利要求1所述的机场巡检机器人多场景自主导航定位方法,其特征在于,所述空旷环境下标准路面导航定位方法包括如下步骤:
步骤A1、机器人分别获取安装在信号架上的GPS基站的位置信息与安装在机器人上的GPS移动站的位置坐标,通过差分GPS技术确定GPS移动站的位置坐标,作为机器人基础位置坐标;
步骤A2、在机器人获取相邻两组基础位置坐标的时间间隔内,使用编码器获取的脉冲数计算机器人相对于前一基础位置坐标的相对位置坐标,将基础位置坐标与相对位置坐标信息进行卡尔曼融合得到更准确的机器人当前位置坐标;
步骤A3、比较步骤A2获取的机器人当前位置坐标与机器人目标位置坐标,得到机器人运行方向,同时对摄像头获取的图像数据进行处理,提取道路上的车道线,通过机器人控制技术使机器人沿车道线向目标位置行进,实现机器人自主导航。
4.根据权利要求1所述的机场巡检机器人多场景自主导航定位方法,其特征在于,所述空旷环境下砂石路面导航定位方法包括以下步骤:
步骤B1、机器人分别获取GPS基站的位置坐标与安装在机器人上的GPS移动站的位置坐标,通过差分GPS技术求取确定GPS移动站的位置坐标,作为机器人基础位置坐标;
步骤B2、在机器人获取相邻两组基础位置坐标的时间间隔内,融合IMU采集的机器人角速度与角速度数据与编码器采集的脉冲数,得到机器人相对位置坐标,将基础位置坐标与相对位置坐标进行卡尔曼融合得到更准确的机器人当前位置坐标;
步骤B3、比较步骤B2获取的机器人当前位置坐标与机器人目标位置坐标,得到机器人运行方向,同时摄像头获取的图像数据进行处理,根据砂石路与路边草坪的像素差异提取两条道路线,通过机器人控制技术使机器人沿着这两条道路线的中线向目标位置行进,实现机器人自主导航。
5.根据权利要求1所述的机场巡检机器人多场景自主导航定位方法,其特征在于,所述标准环境下导航定位方法包括以下步骤:
步骤C1、根据相邻图像差异度对摄像头采集的图像进行关键帧提取;
步骤C2、对关键帧图像进行特征提取,并与前一关键帧进行特征匹配,若匹配成功,则利用八点法计算机器人的图像相对位姿,同时对IMU获取的机器人加速度与角速度数据进行解算,并对两关键帧之间的IMU数据进行预积分,得到两关键帧之间的机器人的IMU相对位姿,融合这两种相对位姿数据得到更为准确的机器人相对位姿;若匹配失败,则选择机器人已保存的关键帧进行匹配,取匹配度最高的关键帧结合当前关键帧使用八点法计算机器人相对位姿,以此得到机器人的位姿;
步骤C4、将在步骤C2中每个位姿点处获取的场景点添加到一起构成机器人稀疏特征地图;
步骤C5、使用迪杰斯特拉算法在步骤C4获取的地图中进行路径规划,实现机器人自主导航。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911002571.8A CN111006655B (zh) | 2019-10-21 | 2019-10-21 | 机场巡检机器人多场景自主导航定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911002571.8A CN111006655B (zh) | 2019-10-21 | 2019-10-21 | 机场巡检机器人多场景自主导航定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111006655A true CN111006655A (zh) | 2020-04-14 |
CN111006655B CN111006655B (zh) | 2023-04-28 |
Family
ID=70110967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911002571.8A Active CN111006655B (zh) | 2019-10-21 | 2019-10-21 | 机场巡检机器人多场景自主导航定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111006655B (zh) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111542113A (zh) * | 2020-05-09 | 2020-08-14 | 清华大学 | 定位方法、定位以及地图构建方法、装置、可读存储介质 |
CN111707256A (zh) * | 2020-05-13 | 2020-09-25 | 苏州天炯信息科技有限公司 | 一种助航灯快速布置特种车辆的综合定位导航设备 |
CN111721298A (zh) * | 2020-06-24 | 2020-09-29 | 重庆赛迪奇智人工智能科技有限公司 | 一种slam室外大场景精准定位方法 |
CN111832760A (zh) * | 2020-07-14 | 2020-10-27 | 深圳市法本信息技术股份有限公司 | 一种基于视觉算法的井盖自动巡检方法 |
CN112882480A (zh) * | 2021-03-23 | 2021-06-01 | 海南师范大学 | 针对人群环境的激光与视觉融合slam的系统及方法 |
CN113050643A (zh) * | 2021-03-19 | 2021-06-29 | 京东鲲鹏(江苏)科技有限公司 | 无人车路径规划方法、装置、电子设备和计算机可读介质 |
CN114167867A (zh) * | 2021-12-02 | 2022-03-11 | 南方电网电力科技股份有限公司 | 一种巡检机器人的定位与控制方法及相关装置 |
CN114323035A (zh) * | 2020-09-30 | 2022-04-12 | 华为技术有限公司 | 定位方法、装置和系统 |
CN114415655A (zh) * | 2021-12-02 | 2022-04-29 | 盐城中科高通量计算研究院有限公司 | 一种基于改进slam的巡检机器人导航控制方法 |
CN117739972A (zh) * | 2024-02-18 | 2024-03-22 | 中国民用航空飞行学院 | 一种无全球卫星定位系统的无人机进近阶段定位方法 |
Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102789233A (zh) * | 2012-06-12 | 2012-11-21 | 湖北三江航天红峰控制有限公司 | 基于视觉的组合导航机器人及导航方法 |
CN103456185A (zh) * | 2013-08-27 | 2013-12-18 | 李德毅 | 智能车在城市道路行驶中的接力导航方法 |
CN106681330A (zh) * | 2017-01-25 | 2017-05-17 | 北京航空航天大学 | 基于多传感器数据融合的机器人导航方法及装置 |
CN106780699A (zh) * | 2017-01-09 | 2017-05-31 | 东南大学 | 一种基于sins/gps和里程计辅助的视觉slam方法 |
CN106918830A (zh) * | 2017-03-23 | 2017-07-04 | 安科机器人有限公司 | 一种基于多导航模块的定位方法及移动机器人 |
CN106997466A (zh) * | 2017-04-12 | 2017-08-01 | 百度在线网络技术(北京)有限公司 | 用于检测道路的方法和装置 |
CN107219853A (zh) * | 2017-07-10 | 2017-09-29 | 张德雨 | 一种基于机器人的开放式自动化导航方法及系统 |
CN108007456A (zh) * | 2017-12-06 | 2018-05-08 | 深圳市致趣科技有限公司 | 一种室内导航方法、装置及系统 |
CN109189079A (zh) * | 2018-11-05 | 2019-01-11 | 南京理工大学 | 基于gps定位的移动机器人导航控制方法 |
CN109211251A (zh) * | 2018-09-21 | 2019-01-15 | 北京理工大学 | 一种基于激光和二维码融合的即时定位与地图构建方法 |
CN109211241A (zh) * | 2018-09-08 | 2019-01-15 | 天津大学 | 基于视觉slam的无人机自主定位方法 |
US20190114507A1 (en) * | 2017-10-17 | 2019-04-18 | Sri International | Semantic visual landmarks for navigation |
CN109752725A (zh) * | 2019-01-14 | 2019-05-14 | 天合光能股份有限公司 | 一种低速商用机器人、定位导航方法及定位导航系统 |
JP2019133658A (ja) * | 2018-01-31 | 2019-08-08 | 株式会社リコー | 測位方法、測位装置及び読取り可能な記憶媒体 |
-
2019
- 2019-10-21 CN CN201911002571.8A patent/CN111006655B/zh active Active
Patent Citations (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102789233A (zh) * | 2012-06-12 | 2012-11-21 | 湖北三江航天红峰控制有限公司 | 基于视觉的组合导航机器人及导航方法 |
CN103456185A (zh) * | 2013-08-27 | 2013-12-18 | 李德毅 | 智能车在城市道路行驶中的接力导航方法 |
CN106780699A (zh) * | 2017-01-09 | 2017-05-31 | 东南大学 | 一种基于sins/gps和里程计辅助的视觉slam方法 |
CN106681330A (zh) * | 2017-01-25 | 2017-05-17 | 北京航空航天大学 | 基于多传感器数据融合的机器人导航方法及装置 |
CN106918830A (zh) * | 2017-03-23 | 2017-07-04 | 安科机器人有限公司 | 一种基于多导航模块的定位方法及移动机器人 |
CN106997466A (zh) * | 2017-04-12 | 2017-08-01 | 百度在线网络技术(北京)有限公司 | 用于检测道路的方法和装置 |
CN107219853A (zh) * | 2017-07-10 | 2017-09-29 | 张德雨 | 一种基于机器人的开放式自动化导航方法及系统 |
US20190114507A1 (en) * | 2017-10-17 | 2019-04-18 | Sri International | Semantic visual landmarks for navigation |
CN108007456A (zh) * | 2017-12-06 | 2018-05-08 | 深圳市致趣科技有限公司 | 一种室内导航方法、装置及系统 |
JP2019133658A (ja) * | 2018-01-31 | 2019-08-08 | 株式会社リコー | 測位方法、測位装置及び読取り可能な記憶媒体 |
CN109211241A (zh) * | 2018-09-08 | 2019-01-15 | 天津大学 | 基于视觉slam的无人机自主定位方法 |
CN109211251A (zh) * | 2018-09-21 | 2019-01-15 | 北京理工大学 | 一种基于激光和二维码融合的即时定位与地图构建方法 |
CN109189079A (zh) * | 2018-11-05 | 2019-01-11 | 南京理工大学 | 基于gps定位的移动机器人导航控制方法 |
CN109752725A (zh) * | 2019-01-14 | 2019-05-14 | 天合光能股份有限公司 | 一种低速商用机器人、定位导航方法及定位导航系统 |
Non-Patent Citations (1)
Title |
---|
孙曼晖等: "基于GIS和SLAM的机器人大范围环境自主导航", 《仪器仪表学报》 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111542113A (zh) * | 2020-05-09 | 2020-08-14 | 清华大学 | 定位方法、定位以及地图构建方法、装置、可读存储介质 |
CN111707256A (zh) * | 2020-05-13 | 2020-09-25 | 苏州天炯信息科技有限公司 | 一种助航灯快速布置特种车辆的综合定位导航设备 |
CN111721298A (zh) * | 2020-06-24 | 2020-09-29 | 重庆赛迪奇智人工智能科技有限公司 | 一种slam室外大场景精准定位方法 |
CN111832760A (zh) * | 2020-07-14 | 2020-10-27 | 深圳市法本信息技术股份有限公司 | 一种基于视觉算法的井盖自动巡检方法 |
CN111832760B (zh) * | 2020-07-14 | 2023-09-29 | 深圳市法本信息技术股份有限公司 | 一种基于视觉算法的井盖自动巡检方法 |
CN114323035A (zh) * | 2020-09-30 | 2022-04-12 | 华为技术有限公司 | 定位方法、装置和系统 |
CN113050643A (zh) * | 2021-03-19 | 2021-06-29 | 京东鲲鹏(江苏)科技有限公司 | 无人车路径规划方法、装置、电子设备和计算机可读介质 |
CN112882480A (zh) * | 2021-03-23 | 2021-06-01 | 海南师范大学 | 针对人群环境的激光与视觉融合slam的系统及方法 |
CN112882480B (zh) * | 2021-03-23 | 2023-07-21 | 海南师范大学 | 针对人群环境的激光与视觉融合slam的系统及方法 |
CN114167867A (zh) * | 2021-12-02 | 2022-03-11 | 南方电网电力科技股份有限公司 | 一种巡检机器人的定位与控制方法及相关装置 |
CN114415655A (zh) * | 2021-12-02 | 2022-04-29 | 盐城中科高通量计算研究院有限公司 | 一种基于改进slam的巡检机器人导航控制方法 |
CN117739972A (zh) * | 2024-02-18 | 2024-03-22 | 中国民用航空飞行学院 | 一种无全球卫星定位系统的无人机进近阶段定位方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111006655B (zh) | 2023-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111006655B (zh) | 机场巡检机器人多场景自主导航定位方法 | |
AU2022203622B2 (en) | Crowdsourcing and distributing a sparse map, and lane measurements or autonomous vehicle navigation | |
CN111551958B (zh) | 一种面向矿区无人驾驶的高精地图制作方法 | |
US20210311490A1 (en) | Crowdsourcing a sparse map for autonomous vehicle navigation | |
CN109099901B (zh) | 基于多源数据融合的全自动压路机定位方法 | |
US10248124B2 (en) | Localizing vehicle navigation using lane measurements | |
CN107144285B (zh) | 位姿信息确定方法、装置和可移动设备 | |
US20180253108A1 (en) | Mobile robot system and method for generating map data using straight lines extracted from visual images | |
WO2020165650A2 (en) | Systems and methods for vehicle navigation | |
WO2020163311A1 (en) | Systems and methods for vehicle navigation | |
US11280630B2 (en) | Updating map data | |
EP3842751B1 (en) | System and method of generating high-definition map based on camera | |
CN110332945B (zh) | 基于交通道路标线视觉识别的车载导航方法和装置 | |
WO2020174279A2 (en) | Systems and methods for vehicle navigation | |
WO2022047372A1 (en) | Systems and methods for map-based real-world modeling | |
WO2023126680A1 (en) | Systems and methods for analyzing and resolving image blockages | |
Ernst et al. | Large-scale 3D Roadside Modelling with Road Geometry Analysis: Digital Roads New Zealand | |
Huang et al. | Autonomous Vehicles Localisation Based on Semantic Map Matching Method | |
Jonchery et al. | Trajectory Based Particle Filter: Asynchronous Observation Fusion for Autonomous Driving Localization | |
Schüle et al. | Mono-camera based pitch rate estimation in nighttime scenarios | |
CN116558532A (zh) | 用于自主车辆的可视和无线联合三维映射和高级驾驶员辅助系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |