CN114236563A - 一种基于激光与视觉识别导航的机器人导航方法 - Google Patents
一种基于激光与视觉识别导航的机器人导航方法 Download PDFInfo
- Publication number
- CN114236563A CN114236563A CN202210165383.2A CN202210165383A CN114236563A CN 114236563 A CN114236563 A CN 114236563A CN 202210165383 A CN202210165383 A CN 202210165383A CN 114236563 A CN114236563 A CN 114236563A
- Authority
- CN
- China
- Prior art keywords
- particles
- robot
- navigation
- map
- predicted
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/88—Lidar systems specially adapted for specific applications
- G01S17/89—Lidar systems specially adapted for specific applications for mapping or imaging
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于激光与视觉识别导航的机器人导航方法,属于智能机器人技术领域,解决了机器人导航精度低的问题,包括:初始化阶段:规定粒子数量,将粒子平均分布在规划区域;转移阶段:对每个粒子根据状态转移方程进行状态估计;决策阶段:通过激光雷达和深度摄像头对预测粒子进行评价;重采样阶段:根据粒子权重对粒子进行筛选;滤波:得到新的预测粒子,新的粒子重复上述步骤;地图生成:选取路径地图最优的粒子,获得规划区域的栅格地图;定位:使用amcl概率定位系统对机器人在地图中的位置进行定位;规划路径:获取机器人周围信息并生成全局与局部的代价地图。本发明用于基于视觉跟随导航的自主导航智能机器人。
Description
技术领域
本发明属于智能机器人技术领域,具体涉及一种基于激光与视觉识别导航的机器人导航方法。
背景技术
对于任何移动设备而言,其在环境中导航的能力都很重要。首先避免诸如碰撞和不安全条件(温度、辐射、暴露于天气等)的危险情况,但是如果机器人的目的与机器人环境中的特定位置有关,则必须找到这些位置。机器人导航是指机器人确定自己在参考系中的位置,然后规划通往某个目标位置的路径的能力。为了在其环境中导航,机器人或任何其他移动设备需要表示形式,即环境地图和解释该表示形式的能力。基于视觉的导航或光学导航使用计算机视觉算法和光学传感器,包括基于激光的测距仪和使用CCD阵列的光度相机,以提取周围环境中定位所需的视觉特征。
目前市场中应用的采用智能导航的机器人,其导航技术存在一定问题,导致机器人在导航过程中会逐渐与预定路线偏离,且由于其缺乏快速及时的纠偏技术,导致导航的偏差始终存在、难以被修正,影响了机器人的运作,这主要是由于现有技术导航算法单一,在各种不同环境条件下难以做到适应所有工况。
发明内容
本发明的目的在于:
为解决现有技术中的自助导航机器人导航算法单一,导致环境适应能力低的问题,提供一种基于激光与视觉识别导航的机器人导航方法。
本发明采用的技术方案如下:
一种基于激光与视觉识别导航的机器人导航方法,包括如下步骤:
S1、初始化阶段:规定粒子数量,将粒子平均的分布在规划区域;
S2、转移阶段:对每个粒子根据状态转移方程进行状态估计;
S3、决策阶段:通过激光雷达和深度摄像头对预测粒子进行评价计算,越接近于真实状态的粒子,其权重值越大,与真实值相差越大的粒子,权重值越小;
S4、重采样阶段:根据粒子权重对粒子进行筛选,保证粒子总数不变;
S5、滤波:将重采样后的粒子带入状态转移方程得到新的预测粒子,将新的预测粒子重复进行所述步骤S2至步骤S4;
S6、地图生成:选取路径地图最优的粒子,获得规划区域的栅格地图;
S7、定位:使用amcl概率定位系统对机器人在地图中的位置进行定位;
S8、规划路径:使用move_base包获取机器人周围信息并生成全局与局部的代价地图,实现机器人导航避障。
进一步地,所述步骤S1中的规划区域通过特征算法计算得出,规划区域在初始化时将设置数量的粒子均匀撒满整个用于定位的地图。
进一步地,所述步骤S3中预测粒子的评价方法为:通过激光雷达和深度摄像头对预测粒子周围的信息进行采集,将预测粒子周围的位置信息反馈至信息处理中心,信息处理中心将预测粒子周围的位置信息与期望值作比较,根据位置信息与期望值的差值计算评价出所述预测粒子的权重。
进一步地,所述步骤S4中的粒子筛选方法为:在筛选过程中,设重采样粒子总数为n,粒子权重值为w,步骤S3中计算得到的各粒子权重值为w1、w2、w3……wn,根据粒子自我复制指标公式i=nw,将i≥1的粒子保留,其余粒子淘汰,并在i≥2的粒子附近加入新的粒子保持粒子总数n不变,实现粒子整体向权重值提升的方向筛选。
进一步地,所述步骤S7中使用2D方式对移动机器人定位,通过自适应蒙特卡洛定位法,使用粒子滤波跟踪机器人在已知地图中的位置。
进一步地,所述步骤S8中move_base的路径规划分为全局规划和局部规划,全局规划和局部规划分别采用A*算法和DWA算法。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1、本发明采用对分布粒子的分析和计算进行规划区域,从而确定机器人定位并进行导航,实现了高精度的自主导航,同时支持多种算法建图,配合搭载的多类传感器设备,可实现多数据多传感器融合,利用深度相机获取场景深度图像数据,可进行融合点云数据获取等功能,配合激光雷达进行精准导航,保证机器人的自主导航具有更高的可靠性。
2、本发明的导航方法综合了视觉跟随算法控制和视觉巡线算法控制,从而控制机器人的视觉识别导航,即使在丢失坐标位置后也能迅速、精准地重新找回位置,并结合视觉避障等方法进行实时调整,以应对环境中各种可能出现的变化和机器人可能产生的导航误差,形成了机器人全局自主导航,与现有技术中的机器人导航控制相比,本发明具有适应性更强、误差修正更快、导航更加精准的优点。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
本发明的一种基于激光与视觉识别导航的机器人导航方法,包括如下步骤:
S1、初始化阶段:规定粒子数量,将粒子平均的分布在规划区域;
S2、转移阶段:对每个粒子根据状态转移方程进行状态估计;每个粒子都将会产生一个与之相对应的预测粒子;
S3、决策阶段:通过激光雷达和深度摄像头对预测粒子进行评价,越接近于真实状态的粒子,其权重越大,与真实值相差越大的粒子,权重越小;此步骤是为重采样做准备;
S4、重采样阶段:根据粒子权重对粒子进行筛选,保证粒子总数不变,这是由于权重小的粒子部分会被淘汰,为了保证粒子总数不变,则在权值较高的粒子附近加入一些新的粒子;
S5、滤波:将重采样后的粒子带入状态转移方程得到新的预测粒子,将新的预测粒子重复进行所述步骤S2至步骤S4;经过这种循环迭代,最终绝大部分粒子会聚集在与真实值最接近的区域内,从而得到机器人准确的位置,实现定位;
S6、地图生成:选取路径地图最优的粒子,获得规划区域的栅格地图;每个粒子都会携带一个路径地图;
S7、定位:使用amcl概率定位系统对机器人在地图中的位置进行定位;
S8、规划路径:使用move_base包获取机器人周围信息并生成全局与局部的代价地图,实现机器人导航避障,根据这些代价地图可以使机器人绕开障碍物安全到达指定的位置。
优选地,所述步骤S1中的规划区域通过特征算法计算得出,规划区域在初始化时将设置数量的粒子均匀撒满整个用于定位的地图。
优选地,所述步骤S3中预测粒子的评价方法为:激光雷达和深度摄像头返回预测粒子周围位置信息,如果位置信息与期望值相差大,或者在运动中粒子未碰到障碍或边界却在运算中到达或穿过了障碍点或边界,则该粒子为权重更低的坏点粒子;如果位置信息与期望值相差小,则该粒子的权重相比于坏点粒子更高。
具体地,该评价方法为:通过激光雷达和深度摄像头对预测粒子周围的信息进行采集,将预测粒子周围的位置信息反馈至信息处理中心,信息处理中心将预测粒子周围的位置信息与期望值作比较,根据位置信息与期望值的差值计算评价出所述预测粒子的权重。
优选地,所述步骤S4中的粒子筛选方法为:在筛选过程中,保留部分权重大的粒子和部分权重小的粒子,权重大的粒子数量大于权重小的粒子。
具体地,该粒子筛选方法为:在筛选过程中,设重采样粒子总数为n,粒子权重值为w,步骤S3中计算得到的各粒子权重值为w1、w2、w3……wn,根据粒子自我复制指标公式i=nw,将i≥1的粒子保留,其余粒子淘汰,并在i≥2的粒子附近加入新的粒子保持粒子总数n不变,实现粒子整体向权重值提升的方向筛选。
粒子滤波算法会淘汰权值低的粒子,让权值高的粒子来产生出更多的粒子,但又要保证重采样后粒子总数不变,因此需要对每个粒子进行复制,而每个粒子复制多少次的概率或指标根据权重进行计算,权重越高,被复制概率就越高,权重越低,被复制的概率就越低,甚至不被复制,使得算法向权值高的地方收敛。
例如,假设有100个粒子需要重采样,即采样后要保留100个粒子,在计算过程中,1号粒子的权重为0.02,2号粒子的权重为0.003,在重采样阶段,1号粒子自我复制的指标是0.02×100=2,2号粒子的指标是0.003×100=0.3,可见,1号粒子除了刚产生的粒子外还要再额外的产生一个粒子,而2号粒子不仅不能自我复制,还被彻底淘汰了,因此2号粒子会被被铲除。如此,最后得到的100个粒子即为所求,取加权平均就得到了目标的状态值。
优选地,所述步骤S7中使用2D方式对移动机器人定位,通过自适应蒙特卡洛定位法,使用粒子滤波跟踪机器人在已知地图中的位置。
机器人在导航的过程中需要时刻确定自身当前的位置,Navigation 栈中使用amcl包来定位。amcl是一种概率定位系统,以2D方式对移动机器人定位,它实现了自适应(或者KLD-采样)蒙特卡洛定位法,使用粒子滤波跟踪机器人在已知地图中的位置。用里程计和AMCL定位的不同之处在于,AMCL估计base结构(机器人)相当于global结构(世界地图)TF转换(ROS中的坐标系转换)。这种转换利用航位推算来处理漂移,所发布的转换是远期的。
优选地,所述步骤S8中move_base的路径规划分为全局规划和局部规划,全局规划和局部规划分别采用A*算法和DWA(Dynamic Window Approach)算法。
在本发明所应用的机器人ROS系统内,自主开发并搭载了多种类型的导航算法模块,用户可根据机器人使用场景和运行环境的条件等因素,自主选择效果最佳的激光导航算法进行地图构建和路径导航。
深度视觉算法在融合方面属于对激光扫描采样的辅助,主要进行粒子权重的估算辅助和物体深度数据信息的采样。所建地图的深度信息将叠加激光雷达与深度相机所采集到的信息进行综合建图。
RGBD相机主要作用是通过红外结构光或Time-of-Flight原理,直接测出图像中各像素离相机的距离,但RGBD对光线的依赖程度较高,所以在该机器人产品导航功能开发过程中,使用RGBD+激光雷达的两种传感器同时获得图像位置、距离信息,将两个传感器获得的位置信息进行融合比对,后端根据参照物和预先配置的配置文件情况,对目标物体位置进行精确测距和定位,保障导航路径规划和行驶路径更加精确。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (6)
1.一种基于激光与视觉识别导航的机器人导航方法,其特征在于,包括如下步骤:
S1、初始化阶段:规定粒子数量,将粒子平均的分布在规划区域;
S2、转移阶段:对每个粒子根据状态转移方程进行状态估计;
S3、决策阶段:通过激光雷达和深度摄像头对预测粒子进行评价计算,越接近于真实状态的粒子,其权重值越大,与真实值相差越大的粒子,权重值越小;
S4、重采样阶段:根据粒子权重对粒子进行筛选,保证粒子总数不变;
S5、滤波:将重采样后的粒子带入状态转移方程得到新的预测粒子,将新的预测粒子重复进行所述步骤S2至步骤S4;
S6、地图生成:选取路径地图最优的粒子,获得规划区域的栅格地图;
S7、定位:使用amcl概率定位系统对机器人在地图中的位置进行定位;
S8、规划路径:使用move_base包获取机器人周围信息并生成全局与局部的代价地图,实现机器人导航避障。
2.根据权利要求1所述的一种基于激光与视觉识别导航的机器人导航方法,其特征在于,所述步骤S1中的规划区域通过特征算法计算得出,规划区域在初始化时将设置数量的粒子均匀撒满整个用于定位的地图。
3.根据权利要求1所述的一种基于激光与视觉识别导航的机器人导航方法,其特征在于,所述步骤S3中预测粒子的评价方法为:通过激光雷达和深度摄像头对预测粒子周围的信息进行采集,将预测粒子周围的位置信息反馈至信息处理中心,信息处理中心将预测粒子周围的位置信息与期望值作比较,根据位置信息与期望值的差值计算评价出所述预测粒子的权重。
4.根据权利要求1所述的一种基于激光与视觉识别导航的机器人导航方法,其特征在于,所述步骤S4中的粒子筛选方法为:在筛选过程中,设重采样粒子总数为n,粒子权重值为w,步骤S3中计算得到的各粒子权重值为w1、w2、w3……wn,根据粒子自我复制指标公式i=nw,将i≥1的粒子保留,其余粒子淘汰,并在i≥2的粒子附近加入新的粒子保持粒子总数n不变,实现粒子整体向权重值提升的方向筛选。
5.根据权利要求1所述的一种基于激光与视觉识别导航的机器人导航方法,其特征在于,所述步骤S7中使用2D方式对移动机器人定位,通过自适应蒙特卡洛定位法,使用粒子滤波跟踪机器人在已知地图中的位置。
6.根据权利要求1所述的一种基于激光与视觉识别导航的机器人导航方法,其特征在于,所述步骤S8中move_base的路径规划分为全局规划和局部规划,全局规划和局部规划分别采用A*算法和DWA算法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210165383.2A CN114236563A (zh) | 2022-02-23 | 2022-02-23 | 一种基于激光与视觉识别导航的机器人导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210165383.2A CN114236563A (zh) | 2022-02-23 | 2022-02-23 | 一种基于激光与视觉识别导航的机器人导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114236563A true CN114236563A (zh) | 2022-03-25 |
Family
ID=80747824
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210165383.2A Pending CN114236563A (zh) | 2022-02-23 | 2022-02-23 | 一种基于激光与视觉识别导航的机器人导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114236563A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN207692253U (zh) * | 2017-11-20 | 2018-08-03 | 高士杰 | 一种新型的电子硬件均热散热器 |
CN214885863U (zh) * | 2020-11-30 | 2021-11-26 | 天津市市政工程设计研究院 | 一种一体化的地铁车站控制室 |
CN113821040A (zh) * | 2021-09-28 | 2021-12-21 | 中通服创立信息科技有限责任公司 | 一种深度视觉相机与激光雷达融合导航的机器人 |
CN113848561A (zh) * | 2021-09-28 | 2021-12-28 | 中通服创立信息科技有限责任公司 | 深度视觉相机与激光雷达融合的导航方法、系统及设备 |
-
2022
- 2022-02-23 CN CN202210165383.2A patent/CN114236563A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN207692253U (zh) * | 2017-11-20 | 2018-08-03 | 高士杰 | 一种新型的电子硬件均热散热器 |
CN214885863U (zh) * | 2020-11-30 | 2021-11-26 | 天津市市政工程设计研究院 | 一种一体化的地铁车站控制室 |
CN113821040A (zh) * | 2021-09-28 | 2021-12-21 | 中通服创立信息科技有限责任公司 | 一种深度视觉相机与激光雷达融合导航的机器人 |
CN113848561A (zh) * | 2021-09-28 | 2021-12-28 | 中通服创立信息科技有限责任公司 | 深度视觉相机与激光雷达融合的导航方法、系统及设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11268816B2 (en) | Intermediate waypoint generator | |
US6728608B2 (en) | System and method for the creation of a terrain density model | |
Wang et al. | Intelligent vehicle self-localization based on double-layer features and multilayer LIDAR | |
CN106548486B (zh) | 一种基于稀疏视觉特征地图的无人车位置跟踪方法 | |
CN112525202A (zh) | 一种基于多传感器融合的slam定位导航方法及系统 | |
Sadat et al. | Feature-rich path planning for robust navigation of MAVs with mono-SLAM | |
Weng et al. | Pole-based real-time localization for autonomous driving in congested urban scenarios | |
Xu et al. | SLAM of Robot based on the Fusion of Vision and LIDAR | |
Hornung et al. | Monte Carlo localization for humanoid robot navigation in complex indoor environments | |
CN112762957B (zh) | 一种基于多传感器融合的环境建模及路径规划方法 | |
CN112183133A (zh) | 一种基于ArUco码引导的移动机器人自主充电方法 | |
CN111612823A (zh) | 一种基于视觉的机器人自主跟踪方法 | |
CN113566808A (zh) | 一种导航路径规划方法、装置、设备以及可读存储介质 | |
CN115639823A (zh) | 崎岖起伏地形下机器人地形感知与移动控制方法及系统 | |
CN111474932A (zh) | 一种集成情景经验的移动机器人建图与导航方法 | |
CN113848561A (zh) | 深度视觉相机与激光雷达融合的导航方法、系统及设备 | |
Shacklock et al. | Visual guidance for autonomous vehicles: capability and challenges | |
Jensen et al. | Laser range imaging using mobile robots: From pose estimation to 3D-models | |
CN112182122A (zh) | 一种移动机器人工作环境导航地图的获取方法及装置 | |
CN114236563A (zh) | 一种基于激光与视觉识别导航的机器人导航方法 | |
CN113776515B (zh) | 一种机器人导航方法、装置、计算机设备和存储介质 | |
EP4053801A1 (en) | Landmark learning and localization without labels | |
CN117554989A (zh) | 视觉融合激光雷达slam定位导航的方法及其无人机系统 | |
Fang et al. | Self-localization of intelligent vehicles based on environmental contours | |
JP2023533140A (ja) | 自動運転車の位置推定精度を向上させる方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220325 |
|
RJ01 | Rejection of invention patent application after publication |