CN109341707A - 未知环境下移动机器人三维地图构建方法 - Google Patents
未知环境下移动机器人三维地图构建方法 Download PDFInfo
- Publication number
- CN109341707A CN109341707A CN201811462297.8A CN201811462297A CN109341707A CN 109341707 A CN109341707 A CN 109341707A CN 201811462297 A CN201811462297 A CN 201811462297A CN 109341707 A CN109341707 A CN 109341707A
- Authority
- CN
- China
- Prior art keywords
- map
- volume elements
- observation
- exploration
- information gain
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
- G01C21/30—Map- or contour-matching
- G01C21/32—Structuring or formatting of map data
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Feedback Control In General (AREA)
Abstract
一种未知环境下移动机器人三维地图构建方法。针对室内未知三维环境的地图构建问题,提出一种将信息增益引导局部探索策略和全局边界探索策略相结合的多探索策略方法。首先构建移动机器人自主探索和三维地图构建系统框架,包括地图构建模块和探索决策规划控制模块。其次,基于香农信息论建立信息增益引导决策模型,并设计了一种应用于多步探索动作评价的信息增益目标函数计算。最后,利用离线的局部运动轨迹构造局部探索策略,并结合信息增益引导全局边界探索策略实现了一种多策略探索方法,两种策略在探索过程中根据三维地图的实时构建情况动态切换。实验结果表明本发明在快速构建三维地图的同时保证了地图构建的完整性。
Description
技术领域
本发明属于未知环境自主探索与地图构建技术领域,特别是涉及一种未知三维环境下移动机器人三维地图构建方法。
背景技术
在未知环境中,移动机器人为完成自主导航、场景重建等各项复杂任务,必须对未知环境进行自主探索并选择合适的地图表达形式等进行地图构建,例如栅格地图、点云地图、拓扑地图。研究人员提出了多种探索策略,主要有基于几何边界的探索策略和基于信息论的探索策略。Yamauchi提出了一种基于几何边界的自主探索和二维栅格地图构建方法,将已探索区域和未知区域的邻接部分定义为边界区域,并采用深度优先的方式访问边界[1]。Bai等人提出了一种基于高斯过程回归和贝叶斯优化的自主探索方法,通过高斯过程回归对局部状态空间的信息增益进行建模,并利用贝叶斯优化的方法迭代选择最优的局部探索目标点[2]。文献[3-4]提出了一种基于POMDP模型的自主探索策略,通过速度空间随机采样生成局部探索轨迹,利用地图推演的方式建立互信息决策函数模型,从而生成局部最优探索目标点,引导机器人向地图的不确定区域进行探索,同时结合二维边界探索策略逃离局部最优区域。
随着RGBD传感器的普及和应用,PCL点云地图[5]、Octomap体元地图[6]等三维地图表达形式相继被提出和应用。由于构建的三维地图通常具备更加丰富的环境信息,因此受到广泛的研究和关注[7-8]。文献[9-10]将边界的概念扩展到三维环境中,实现对未知三维环境的自主探索和三维地图构建。Charrow等人提出了一种基于柯西-施瓦茨二次互信息的决策模型,通过随机采样方式生成对边界区域可见的可行观测视点查找表,利用Dijkstra算法生成大量的全局探索路径,并结合局部运动基元构建两层运动规划框架,实现对大范围结构化走廊环境的三维地图构建[11-12]。Isler等人提出了一种基于信息熵评价函数,通过在三维物体周围采样离散观测视点确定最优观测视点,实现了三维物体的重建[13]。Bircher等人提出了一种基于局部快速扩展随机树(RRT)的探索规划方法,利用启发式信息增益评价函数获得最优的RRT树节点,并采用滚动时域方式控制执行[14]。
相对于二维环境,移动机器人面向未知三维环境自主探索和地图构建任务时所搭载的RGBD相机存在视野范围有限、感知距离相对较短等问题,只依赖局部候选探索路径或者局部状态空间采样点的局部探索方法往往无法保证三维地图的完整构建,且容易陷入局部最优。采用基于纯几何边界的互补探索策略虽然可以使机器人逃离局部最优区域,但无法衡量不同边界区域不确定度大小,不考虑引导机器人对环境进行整体覆盖探索[3-4];此外文献[3-4]所述地图推演方法只面向二维栅格地图,未对三维概率占据体元地图的地图推演进行讨论。同时,已有方法采用单步探索时,在行进到局部目标视点的探索过程中忽视地图的动态更新和变化,无法实现对三维环境地图的快速构建[2,13]。在多步探索过程中,已有方法对三维概率占据体元地图进行地图推演时回避多个时间步间的视野重叠现象,采用启发式方法对效益函数近似建模和计算[14]。
总结以上文献,现有的自主探索和三维地图构建方法或者没有对基于信息增益的决策模型进行准确建模并提出合适的方式对信息增益加以计算,或者忽视探索过程中地图信息的动态更新变化,难以实现对三维环境的快速探索和地图构建,且不考虑引导移动机器人在可达空间内实现整体覆盖探索,从而实现对地图的完整构建。
发明内容
本发明目的是解决现有方法存在的上述不足,提供一种未知环境下移动机器人三维地图构建方法,实现三维地图构建的快速性和完整性。
本发明选择基于八叉树数据结构的概率占据体元地图(Octomap)作为三维环境的地图表达形式。具体而言,首先基于香农信息论建立信息增益引导决策模型,在综合考虑RGBD相机模型和探索动作不同时间步位姿所在的传感器观测视野范围存在视野重叠现象等因素的基础上,将地图推演拓展到三维环境中,设计了一种适用于多步探索动作的概率占据体元地图信息增益计算方法。其次,实现了一种将信息增益引导局部探索策略和全局边界探索策略相结合的多探索策略决策方法,两种探索策略在探索过程中根据三维地图的实时构建情况动态切换。实验结果证明本发明方法在快速构建三维地图的同时保证了地图构建的完整性。
本发明提供的未知环境下移动机器人三维地图构建方法包括:
第1,自主探索和三维地图构建的系统框架
系统主要包含基于八叉树数据结构的概率占据体元地图(Octomap)构建模块和基于多探索策略的决策规划控制模块。为了快速构建三维地图,将Octomap地图构建模块设计为独立线程,并与多探索策略决策规划控制模块以多线程的方式运行。为适应移动机器人实时运动控制过程中地图信息的动态更新变化,多探索策略决策规划控制模块采用滚动时域控制方法执行。
在Octomap地图构建模块中,相机坐标系相对于机器人坐标系的坐标变换已知,机器人坐标系相对于世界坐标系的坐标变换由机器人的实时位姿x:(x,y,θ)得到(SLAM提供)。在实时运动控制过程中,相机坐标系下的每一帧原始RGBD点云数据通过预处理得到点云观测PC,并通过坐标转换获得世界坐标系下的点云观测将PW插入到全局地图中,并利用二值贝叶斯滤波得到概率更新后的地图状态m。
第2,应用于多步探索动作评价的信息增益目标函数计算
在探索决策规划控制模块中,利用香农信息熵衡量探索过程中已建立三维地图不同区域的不确定度,从而建立概率占据体元地图信息增益引导决策模型。同时,在综合考虑RGBD相机模型和探索动作不同时间步位姿所在的传感器观测视野范围存在视野重叠现象等因素的基础上,将地图推演拓展到三维环境中,设计了一种适用于多步探索动作评价的体元地图信息增益计算方法,构造了信息增益评价函数,引导机器人向未知环境的不确定区域进行探索。
Octomap将三维环境表示为三维体元的集合体元ni的占据概率p(ni)∈[0,1],通过二值贝叶斯滤波进行概率更新,其中p(ni)=0表示ni为自由状态,p(ni)=1表示ni为占据状态,p(ni)=0.5表示ni为未知状态。根据体元间的独立性假设,的地图状态m服从概率分布p(m)=Πip(ni)。假设t时刻SLAM获得的历史轨迹x1:t已知,三维点云历史观测表示为z1:t,t+1时刻移动机器人在位姿xt+1处对三维环境进行观测得到未来观测zt+1,那么由zt+1产生的概率占据体元地图信息增益就是zt+1对地图状态m进行概率更新之后地图状态不确定度的减少量。采用香农信息熵衡量地图状态m的不确定度,表示成如下形式:
H(m|x1:t,z1:t)=-∑i[pocclog2pocc+(1-pocc)log2(1-pocc)]
其中,pocc=p(ni|x1:t,z1:t)表示体元ni的先验概率。经过未来观测zt+1概率更新,地图状态m产生的信息增益表示为如下形式:
IG(m;zt+1|xt+1,x1:t,z1:t)=H(m|x1:t,z1:t)-H(m;zt+1|xt+1,x1:t,z1:t)
其中,H(m|x1:t,z1:t)表示地图状态m的先验信息熵,H(m;zt+1|xt+1,x1:t,z1:t)表示地图状态m的后验信息熵。进一步地,定义探索动作为从t时刻开始的T个时间步范围内移动机器所历经的位姿序列位姿序列对应得到未来观测序列那么应用于T个时间步探索动作评价的信息增益引导决策模型表示为如下形式:
其中为所有探索动作构成的候选探索动作集合。决策的目标是从候选探索动作集合中寻找信息增益最大的最优位姿序列
为实现应用于多步探索动作评价的信息增益目标函数计算,将位姿xt+1处的未来观测zt+1表示成N束光束向量的集合其中光束向量由针孔相机模型得到,表示为如下形式:
px=d
其中,fx和fy分别表示沿图像u轴与v轴方向的尺度因子,(cx,cy)表示图像中心点的坐标,(u,v)为图像像素坐标。利用3D bresenham光线追踪算法将观测zt+1转化为三维体元及其观测结果的集合具体而言,当光束向量表示的光束经过体元ni时,体元的占据状态p(ni)被用于判断光束穿越该体元所在的无障碍空间位置或者击中该体元所在的被障碍物占据的空间位置,分别用oi=0和oi=1来表示。进一步地,在T步时间范围内,利用光线追踪算法将未来观测序列每个时间步的观测都分别转化为三维体元及其观测结果的集合,得到由以上集合构成的集合序列为避免对三维环境所有体元的重复遍历计算,同时考虑到探索动作对应的观测序列zτ中,不同时间步位姿所在的传感器观测视野范围存在视野重叠,即k,i,j∈[t+1,t+T]且i≠j,部分体元会被重复观测并更新占据概率,因此在地图推演的过程中动态地维护和更新一张“缓存地图”,使用Mc表示,缓存每个时间步观测到体元的最新占据概率。
应用于多步探索动作评价的信息增益目标函数计算步骤如下:
第2.1,输入当前t时刻的机器人位姿xt和Octomap地图Mt,并初始化缓存地图多步探索动作信息增益值IG=0。
第2.2,对探索动作时间步k的位姿xk及观测zk,利用光线追踪算法得到集合对中的每个三维体元及其观测结果(n,o),获取体元n最新的占据概率p(n|x1:k-1,z1:k-1),并根据观测结果o进行log-odd概率更新,得到后验概率p(n;zk|xk,x1:k-1,z1:k-1),从而体元n产生的信息增益表达为如下形式:
ig(n)=H(p(n|x1:k-1,z1:k-1))-H(p(n;zk|xk,x1:k-1,z1:k-1))
对多步探索动作产生的概率占据体元地图总的信息增益执行累加运算IG+=ig(n)。最后,体元n及经过log-odd概率更新后的后验概率构成一对(n,p(n;zk|xk,x1:k-1,z1:k-1))并保存到缓存地图Mc中以便后续的查询和访问。
第2.3,重复以上步骤直至时间步k=T。
在工程实现时,采用无序关联容器数据结构存储时间步k的观测zk的光线追踪结果 中的每个三维体元及其观测结果(n,o)用键-值对(key,value)来表示。同样地,缓存地图Mc也使用无序关联容器存储,Mc中的每个三维体元及其占据概率(n,p(n))用键-值对(key,value)来表示。
第3,信息增益引导局部探索策略和全局边界探索策略相结合的多策略探索方法
在探索决策规划控制模块中,设计基于信息增益为评价指标的局部和全局两种探索策略,并在探索过程中根据三维地图的实时构建情况进行动态切换,具体流程见附图1。
第3.1,信息增益引导局部探索策略
在探索过程中,离线加载的局部运动轨迹根据机器人的实时位姿x:(x,y,θ)转化到世界坐标系下,并通过碰撞检测规划得到所有局部探索动作构成的候选局部探索动作集合
离线运动轨迹通过已有的基于模型预测的数值优化方法生成。根据第2步的信息增益引导决策模型从候选探索动作集合中得到最优局部探索动作并交由底层控制器进行轨迹跟踪。底层控制器为现有的任意一种控制方法,且采用滚动时域控制策略,当达到重规划设定时间Tr时,进入到下一次决策循环中。
第3.2,信息增益引导全局边界探索策略
第3.2.1,候选全局边界区域观测视点生成
边界体元定义为:位于RGBD传感器安装高度hc所在平面的二维体元地图上且八邻域内存在未知体元的自由状态体元。全局边界区域通过区域生长法得到,边界点数量小于阈值的区域视为无效边界区域被剔除,所有L个有效边界区域表示为{F1,...Fj,...FL},对应的边界区域重心C为:
考虑到三维空间下边界区域往往存在于机器人不可到达的空间位置,因此利用双采样法在边界区域的邻域范围内采样得到对边界区域可见观测视点,对边界区域可见性定义为:1)边界区域重心在观测视点的视野范围内;2)边界区域到观测视点的入射光束通畅。此外,移动机器人在采样观测视点处与障碍物无碰撞,满足如上可见性和碰撞检测要求的采样观测视点视为有效,所有L个边界区域{F1,...Fj,...FL}对应采样到L个有效观测视点{q1,...qj,...qL}。为确定L个边界区域各自的不确定度,利用信息增益指标评价观测视点观测各自边界区域所能产生的效益,计算公式如下:
Ig(qj)=H(m)-H(m;zj|qj)
按照信息增益大小对视点观测优先顺序进行降序排序,并筛选前l组信息增益最大的观测视点构成候选全局边界区域观测视点集合Q={q1,...ql},其中l≤L。
第3.2.2,最优全局探索动作选取
对观测视点集合Q={q1,...ql}中的每个观测视点,利用已有的图搜索算法生成从移动机器人当前位姿(x,y,θ)到目标观测视点全局探索动作所有全局探索动作构成候选全局探索动作集合其中表示全局探索动作的位姿节点序列对应了未来观测序列在选择全局探索动作的位姿节点时,机器人每行进距离s或者当机器人方向角旋转超过δ时定义一个时间步。集合中不同全局探索动作的路径长度往往存在显著差异,导致其时间步范围也存在显著差异,因此在第2步信息增益目标函数设计的基础上,利用全局探索动作的每个位姿节点所能产生的平均信息增益作为评价函数,从而全局边界探索策略采用如下的决策模型:
决策目标是从候选全局探索动作集合中选取平均信息增益最大的最优位姿序列
第3.2.3,触发全局边界探索策略的条件如下:
条件一:经过碰撞检测,候选局部探索动作集合为空集;
条件二:在候选局部探索动作集合中,最优局部探索动作对概率占据体元地图产生的信息增益小于设定阈值Th1。
本发明的优点和有益效果
本发明方法建立了基于信息增益的决策模型,在综合考虑RGBD相机模型和探索动作不同时间步位姿所在的传感器观测视野范围存在视野重叠现象等因素的基础上,设计了一种概率占据体元地图信息增益计算方法。此外,将地图构建模块设计为单独线程运行,并将信息增益引导下的局部探索策略和全局边界探索策略相结合,既实现了对三维地图的快速构建,又能引导移动机器人在可达空间内对环境进行覆盖探索,实现了对三维地图的完整构建。实验结果证明了本发明方法的有效性。
附图说明:
图1为基于多探索策略的三维地图构建方法流程图;
图2为移动机器人自主探索实验平台参考示意图;
图3为离线设计的局部候选运动轨迹;
图4为探索初始化阶段的Octomap地图;
图5为信息增益引导局部探索策略决策案例图;
图6为多探索策略动态切换案例一;
图7为多探索策略动态切换案例二;
图8为Octomap最终构建效果图;
图9为二维栅格地图上绘制的移动机器人自主探索轨迹;
图10为地图香农信息熵与已探索地图体积随时间的变化关系曲线。
具体实施方式:
实施例1:
第1,自主探索和三维地图构建的系统框架
本发明使用搭载了2D Hokuyo UTM-30LX二维激光传感器和Microsoft Kinect2.0三维RGBD传感器的Pioneer3DX移动机器人实验平台,参见附图2。Kinect2.0传感器视野范围[av,ah]=[70°,60°],有效感知距离范围[dmin,dmax]=[0.1m,4.5m]。计算平台为搭载了16GBRAM和Intel Core i7多核处理器的微星笔记本,并安装了Ubuntu16.04系统和ROSkinetic机器人操作系统,所提方法采用C/C++编写完成。
本发明在室内未知实验室环境中开展自主探索和三维地图构建实验,其平面面积为长×宽=12.5m×7.8m,Kinect2.0相机安装在机器人本体的固定高度平面hc=0.8m上(参见图2),相机光束理论上能够到达高度hmax=hc+dmax sin(ah/2),即hmax=2.8m。Octomap的分辨率设置为r=0.1m,因此理论上搭载Kinect2.0相机的移动机器人能够感知到三维环境地图的体元数量N=273000,三维环境体积V=273m3。
在地图构建模块中,相机坐标系相对于机器人坐标系的坐标变换通过事先的标定或者量测得到,探索过程中机器人坐标系相对于世界坐标系的坐标变换可以由ROS Gmapping发布的实时位姿x:(x,y,θ)得到。在运动控制过程中,实时位姿x:(x,y,θ)与Kinect2.0生成的三维点云PC进行数据关联,通过坐标变换以及二值贝叶斯滤波等操作得到概率更新后的Octomap地图状态m。
第2,应用于多步探索动作评价的信息增益目标函数计算
应用于T个时间步探索动作评价的信息增益引导决策模型表示为如下形式:
其中为所有探索动作构成的候选探索动作集合。决策的目标是从候选探索动作集合中寻找信息增益最大的最优位姿序列
应用于多步探索动作评价的信息增益目标函数计算步骤如下:
第2.1,输入当前t时刻的机器人位姿xt和Octomap地图Mt,并初始化缓存地图多步探索动作信息增益值IG=0。
第2.2,对探索动作时间步k的位姿xk及观测zk,利用光线追踪算法得到集合对中的每个三维体元及其观测结果(n,o),获取体元n最新的占据概率p(n|x1:k-1,z1:k-1),其中p(n|x1:k-1,z1:k-1)根据如下三种实际情况获取:
1)如果体元且说明n是未知体元,先验概率pocc=0.5即p(ni|x1:k-1,z1:k-1)=0.5;
2)如果体元且n∈Mc,说明体元n在时间步k之前都未被观测过,先验概率pocc从三维地图Mt中查找得到,即p(n|x1:k-1,z1:k-1)=pocc;
3)如果体元n∈Mt,说明体元n在时间步k之前曾经被观测过,先验概率pocc从缓存地图Mc中查找得到,即p(n|x1:k-1,z1:k-1)=pocc。
在获取体元n最新的占据概率p(n|x1:k-1,z1:k-1)后,根据观测结果o进行log-odd概率更新,得到后验概率p(n;zk|xk,x1:k-1,z1:k-1),从而体元n产生的信息增益表达为如下形式:
ig(n)=H(p(n|x1:k-1,z1:k-1))-H(p(n;zk|xk,x1:k-1,z1:k-1))
对多步探索动作产生的概率占据体元地图总的信息增益执行累加运算IG+=ig(n)。最后,体元n及经过log-odd概率更新后的后验概率构成一对(n,p(n;zk|xk,x1:k-1,z1:k-1))并保存到缓存地图Mc中以便后续的查询和访问。
第2.3,重复以上步骤直至时间步k=T。
在工程实现时,采用无序关联容器数据结构存储时间步k的观测zk的光线追踪结果 中的每个三维体元及其观测结果(n,o)用键-值对(key,value)来表示。同样地,缓存地图Mc也使用无序关联容器存储,Mc中的每个三维体元及其占据概率(n,p(n))用键-值对(key,value)来表示。
第3,信息增益引导局部探索策略和全局边界探索策略相结合的多策略探索方法
基于多探索策略的移动机器人未知环境自主探索和三维地图构建流程见附图1。在自主探索系统初始化阶段,首先加载离线运动轨迹并做360°旋转运动得到初始位姿xinit和初始Octomap地图minit,初始Octomap地图参见附图4。随后将进入到第一次决策中。
第3.1,信息增益引导局部探索策略
离线运动轨迹利用已有的基于模型预测的数值优化方法生成[15],参见附图3。移动机器人的预测模型xt+1=f(xt,ut)采用欧拉形式的运动学方程式,表达如下:
以机器人坐标系为参考坐标系,定义初始边界值x0=[x0,y0,θ0,κ0]T和末端边界值分别为x0=[x0,y0,θ0,κ0]T和xf=[xf,yf,θf]T,κ0为初始曲率,实际取初始边界位置为坐标原点Or。实验设计两组共计17条候选轨迹用于在线信息增益评价:第一组候选轨迹末端边界[xf,yf]由采样半径r=1.6m和弧度角α∈{0°,±11.25°,±22.5°,±37.5°,±45°}确定,朝向角θf取对应位置的弧度角α;第二组候选轨迹末端边界[xf,yf]由采样半径r∈{0.8m,1.0m,1.2m,1.4m}和弧度角α∈{±45°}确定,朝向角θf为90°或者-90°。
根据第2步的信息增益引导决策模型从候选探索动作集合中得到最优局部探索动作并交由底层控制器进行轨迹跟踪。底层控制器为现有的任意一种控制方法,且采用滚动时域控制策略,当达到重规划设定时间Tr时,进入到下一次决策循环中。第一次决策执行信息增益引导局部探索策略,附图4局部运动轨迹经过碰撞检测构成候选探索动作集合线条较粗的轨迹表示最优局部探索动作附图5展示了在随后探索过程中执行的另一次信息增益引导探索策略,除候选局部探索动作集合和最优局部探索动作外,下方线条较细的轨迹表示从旋转初始化开始到当前决策步行进的探索轨迹。
第3.2,信息增益引导全局边界探索策略
第3.2.1,候选全局边界区域观测视点生成
边界体元定义为:位于RGBD传感器安装高度hc=0.8m所在平面的二维体元地图上且八邻域内存在未知体元的自由状态体元。全局边界区域通过区域生长法得到,边界点数量小于阈值的区域视为无效边界区域被剔除,所有L个有效边界区域表示为{F1,...Fj,...FL},对应的边界区域重心C为:
利用双采样法分别在L个边界区域{F1,...Fj,...FL}的邻域范围内采样得到对边界区域可见且与障碍物无碰撞的L个有效观测视点{q1,...qj,...qL}。为确定L个边界区域各自的不确定度,利用信息增益指标评价观测视点观测各自边界区域所能产生的效益,计算公式如下:
Ig(qj)=H(m)-H(m;zj|qj)
按照信息增益大小对视点观测优先顺序进行降序排序,并筛选前l=3组信息增益最大的观测视点构成候选全局边界区域观测视点集合Q={q1,q1,q3},其中l≤L。需要指出的是,在移动计算平台计算能力充足的情况下,完全可以设置l=L。
第3.2.2,最优全局探索动作选取
对观测视点集合Q={q1,q1,q3}中的每个观测视点,利用AD*算法[16]生成从移动机器人当前位姿(x,y,θ)到目标观测视点全局探索动作所有全局探索动作构成候选全局探索动作集合其中表示全局探索动作的位姿节点序列对应了未来观测序列在选择位姿节点时,机器人每行进距离s=0.5m或者当机器人方向角旋转超过δ=45°时定义一个时间步。全局边界探索策略采用如下决策模型:
决策目标是从候选全局探索动作集合中选取平均信息增益最大的最优位姿序列
第3.2.3,触发全局边界探索策略的条件如下:
条件一:经过碰撞检测,候选局部探索动作集合为空集;
条件二:在候选局部探索动作集合中,最优局部探索动作对概率占据体元地图产生的信息增益小于设定阈值Th1=120。直观上讲,120bit单位的信息增益相当于有120个完全未知的体元(概率值为0.5)经过观测变为完全已知状态,即空闲状态概率值0或者占据状态概率值1。在地图分辨率r=0.1m的前提下,120bit信息增益意味着当局部探索策略最优轨迹的预期探索行为无法观测到0.120m3的新区域时,信息增益引导全局边界探索策略将使机器人逃离局部最优区域,并引导移动机器人在可达空间内对环境进行覆盖探索。
附图6展示了满足全局边界探索策略第一个触发条件的决策案例,局部探索策略由于环境障碍物约束导致为空集,图中箭头表示边界区域邻域范围内可行的观测视点,其中粗箭头表示前l=3组候选全局边界区域观测视点,线条较粗的三条轨迹表示候选全局探索动作附图7展示了满足全局边界探索策略第二个触发条件的决策案例,其中较粗轨迹为最优局部探索动作较细轨迹为已行进探索轨迹,由于对概率占据体元地图产生的信息增益小于设定阈值Th1=120,因而执行边界探索策略,以逐步实现对三维环境的覆盖探索。
第4,实验效果
附图8给出了最终的三维地图构建效果图。附图9给出了二维栅格地图上绘制的完整的移动机器人探索轨迹。附图10采用地图香农信息熵与已探索地图体积随时间的变化关系曲线来衡量移动机器人地图构建的进度。从附图10中可以看出,自主探索过程经历了三个阶段,分别为自主探索系统初始化阶段(从0时刻开始到左侧虚线的时间段)、多探索策略协同运行阶段(两条虚线划定的时间段)和终止阶段(右侧虚线开始)。其中在第二阶段(虚线划定的时间段),移动机器人在早期主要调用局部探索策略进行决策和滚动时域规划控制,配合双线程运行的地图构建模块,可以对未知三维环境进行快速探索并构建三维地图,在增大探索区域(体积)的同时降低三维地图的不确定度(信息熵);随后,出现局部和全局策略反复动态切换的探索过程,这个过程移动机器人主要依靠信息增益评价指标确立全局环境地图中值得回访的边界区域,探索体积和地图信息熵两项指标继续平稳下降,在可达空间内逐步实现对三维环境的整体覆盖探索,从而构建完整的三维Octomap地图。在终止阶段,移动机器人根据当前探索情况,确定终止多策略探索过程,三维地图构建完毕。
参考文献
[1]Yamauchi B.A frontier-based approach for autonomous exploration[C]//IEEE International Symposium on Computational Intelligence in Roboticsand Automation.Piscataway,USA:IEEE,1997:146-151.
[2]Bai S,Wang J,Chen F,et al.Information-theoretic exploration withBayesian optimization[C]//IEEE/RSJ International Conference on IntelligentRobots and Systems.Piscataway,USA:IEEE,2016:1816-1822.
[3]Lauri M,Ritala R.Planning for robotic exploration based on forwardsimulation[J].Robotics &Autonomous Systems,2016,83(C):15-31.
[4]于宁波,王石荣,徐昌.一种基于RGB-D的移动机器人未知室内环境自主探索与地图构建方法[J].机器人,2017,39(6):860-871.
[5]Rusu R B,Cousins S.3D is here:Point Cloud Library(PCL)[C].2011IEEEInternational Conference on Robotics andAutomation,Shanghai,2011,pp.1-4.
[6]Hornung A,Kai M W,Bennewitz M,et al.OctoMap:an efficientprobabilistic 3D mapping frameworkbased on octrees[J].Autonomous Robots,2013,34(3):189-206.
[7]Wang C,Meng L,She S,et al.Autonomous mobile robot navigation inuneven and unstructured indoor environments[C]//IEEE/RSJ InternationalConference on Intelligent Robots and Systems.Piscataway,USA:IEEE,2017:109-116.
[8]Ramanagopal M S,Nguyen P V,Ny J L.A Motion Planning Strategy forthe Active Vision-Based Mapping of Ground-Level Structures[J].IEEETransactions on Automation Science and Engineering,2018,15(1):356-368
[9]Fraundorfer F,Heng L,Honegger D,et al.Vision-based autonomousmapping and exploration using a quadrotor MAV[C]//IEEE/RSJ InternationalConference on Intelligent Robots and Systems.Piscataway,USA:IEEE,2012:4557-4564.
[10]Zhu C,Ding R,Lin M,et al.A 3D Frontier-Based Exploration Tool forMAVs[C]//IEEE International Conference on TOOLS with ArtificialIntelligence.Piscataway,USA:IEEE,2015:348-352.
[11]Charrow B,Liu S,Kumar V,et al.Information-theoretic mapping usingCauchy-Schwarz Quadratic Mutual Information[C]//IEEE International Conferenceon Robotics and Automation.Piscataway,USA:IEEE,2015:4791-4798.
[12]Charrow B,Kahn G,Patil S,et al.Information-Theoretic Planningwith TrajectoryOptimization for Dense 3D Mapping.Robotics:Science and Systems(RSS),2015.
[13]Isler S,Sabzevari R,Delmerico J,et al.An information gainformulation for active volumetric 3D reconstruction[C]//IEEE InternationalConference on Robotics and Automation.Piscataway,USA:IEEE,2016:3477-3484.
[14]Bircher A,Kamel M,Alexis K,et al.Receding Horizon"Next-Best-View"Planner for 3D Exploration[C]//IEEE International Conference on Robotics andAutomation.Piscataway,USA:IEEE,2016:1462-1468.
[15]Howard T,Pivtoraiko M,Knepper R A,et al.Model-Predictive MotionPlanning:Several Key Developments for Autonomous Mobile Robots[J].IEEERobotics&Automation Magazine,2014,21(1):64-73.
[16]Brock O,Trinkle J,Ramos F.Planning Long Dynamically-FeasibleManeuvers for Autonomous Vehicles[J].International Journal ofRoboticsResearch,2008,28(8):214-221.
Claims (2)
1.一种未知环境下移动机器人三维地图构建方法,其特征在于该方法包括:
第1,自主探索和三维地图构建的系统框架
系统主要包含基于八叉树数据结构的概率占据体元地图(Octomap)构建模块和基于多探索策略的决策规划控制模块;为了快速构建三维地图,将Octomap地图构建模块设计为独立线程,并与多探索策略决策规划控制模块以多线程的方式运行;为适应移动机器人实时运动控制过程中地图信息的动态更新变化,多探索策略决策规划控制模块采用滚动时域控制方法执行;
在Octomap地图构建模块中,相机坐标系相对于机器人坐标系的坐标变换已知,机器人坐标系相对于世界坐标系的坐标变换由机器人的实时位姿x:(x,y,θ)得到;在实时运动控制过程中,相机坐标系下的每一帧原始RGBD点云数据通过预处理得到点云观测PC,并通过坐标转换获得世界坐标系下的点云观测将PW插入到全局地图中,并利用二值贝叶斯滤波得到概率更新后的地图状态m;
第2,应用于多步探索动作评价的信息增益目标函数计算
Octomap将三维环境表示为三维体元的集合体元ni的占据概率p(ni)∈[0,1],根据体元间的独立性假设,的地图状态m服从概率分布p(m)=Πip(ni);假设t时刻SLAM获得的历史轨迹x1:t已知,三维点云历史观测表示为z1:t,t+1时刻移动机器人在位姿xt+1处对三维环境进行观测得到未来观测zt+1,那么由zt+1产生的概率占据体元地图信息增益就是zt+1对地图状态m进行概率更新之后地图状态不确定度的减少量;采用香农信息熵衡量地图状态m的不确定度,表示成如下形式:
H(m|x1:t,z1:t)=-∑i[pocclog2pocc+(1-pocc)log2(1-pocc)]
其中,pocc=p(ni|x1:t,z1:t)表示体元ni的先验概率;经过未来观测zt+1概率更新,地图状态m产生的信息增益表示为如下形式:
IG(m;zt+1|xt+1,x1:t,z1:t)=H(m|x1:t,z1:t)-H(m;zt+1|xt+1,x1:t,z1:t)
其中,H(m|x1:t,z1:t)表示地图状态m的先验信息熵,H(m;zt+1|xt+1,x1:t,z1:t)表示地图状态m的后验信息熵;进一步地,定义探索动作为从t时刻开始的T个时间步范围内移动机器所历经的位姿序列位姿序列对应得到未来观测序列那么应用于T个时间步探索动作评价的信息增益引导决策模型表示为如下形式:
其中为所有探索动作构成的候选探索动作集合;决策的目标是从候选探索动作集合中寻找信息增益最大的最优位姿序列
为实现应用于多步探索动作评价的信息增益目标函数计算,将位姿xt+1处的未来观测zt+1表示成N束光束向量的集合其中光束向量由针孔相机模型得到;利用3D bresenham光线追踪算法将观测zt+1转化为三维体元及其观测结果的集合具体而言,当光束向量表示的光束经过体元ni时,体元的占据状态p(ni)被用于判断光束穿越该体元所在的无障碍空间位置或者击中该体元所在的被障碍物占据的空间位置,分别用oi=0和oi=1来表示;进一步地,在T步时间范围内,利用光线追踪算法将未来观测序列每个时间步的观测都分别转化为三维体元及其观测结果的集合,得到由三维体元及其观测结果集合构成的集合序列为避免对三维环境所有体元的重复遍历计算,同时考虑到探索动作对应的观测序列zτ中,不同时间步位姿所在的传感器观测视野范围存在视野重叠,即k,i,j∈[t+1,t+T]且i≠j,部分体元会被重复观测并更新占据概率,因此在地图推演的过程中动态地维护和更新一张“缓存地图”,使用Mc表示,缓存每个时间步观测到体元的最新占据概率;
应用于多步探索动作评价的信息增益目标函数计算步骤如下:
第2.1,输入当前t时刻的机器人位姿xt和Octomap地图Mt,并初始化缓存地图多步探索动作信息增益值IG=0;
第2.2,对探索动作时间步k的位姿xk及观测zk,利用光线追踪算法得到集合对中的每个三维体元及其观测结果(n,o),获取体元n最新的占据概率p(n|x1:k-1,z1:k-1),并根据观测结果o进行log-odd概率更新,得到后验概率p(n;zk|xk,x1:k-1,z1:k-1),从而体元n产生的信息增益表达为如下形式:
ig(n)=H(p(n|x1:k-1,z1:k-1))-H(p(n;zk|xk,x1:k-1,z1:k-1))
对多步探索动作产生的概率占据体元地图总的信息增益执行累加运算IG+=ig(n);最后,体元n及经过log-odd概率更新后的后验概率构成一对(n,p(n;zk|xk,x1:k-1,z1:k-1))并保存到缓存地图Mc中以便后续的查询和访问;
第2.3,重复以上步骤直至时间步k=T;
第3,信息增益引导局部探索策略和全局边界探索策略相结合的多策略探索方法
第3.1,信息增益引导局部探索策略
在探索过程中,离线加载的局部运动轨迹根据机器人的实时位姿x:(x,y,θ)转化到世界坐标系下,并通过碰撞检测规划得到所有局部探索动作构成的候选局部探索动作集合
离线运动轨迹通过已有的基于模型预测的数值优化方法生成;根据第2步的信息增益引导决策模型从候选探索动作集合中得到最优局部探索动作并交由底层控制器进行轨迹跟踪;底层控制器为现有的任意一种控制方法,且采用滚动时域控制策略,当达到重规划设定时间Tr时,进入到下一次决策循环中;
第3.2,信息增益引导全局边界探索策略
第3.2.1,候选全局边界区域观测视点生成
边界体元定义为:位于RGBD传感器安装高度hc所在平面的二维体元地图上且八邻域内存在未知体元的自由状态体元;全局边界区域通过区域生长法得到,边界点数量小于阈值的区域视为无效边界区域被剔除,所有L个有效边界区域表示为{F1,...Fj,...FL},对应的边界区域重心C为:
考虑到三维空间下边界区域往往存在于机器人不可到达的空间位置,因此利用双采样法在边界区域的邻域范围内采样得到对边界区域可见观测视点,对边界区域可见性定义为:1)边界区域重心在观测视点的视野范围内;2)边界区域到观测视点的入射光束通畅;此外,移动机器人在采样观测视点处与障碍物无碰撞;满足如上可见性和碰撞检测要求的采样观测视点视为有效,所有L个边界区域{F1,...Fj,...FL}对应采样到L个有效观测视点{q1,...qj,...qL};为确定L个边界区域各自的不确定度,利用信息增益指标评价观测视点观测各自边界区域所能产生的效益,计算公式如下:
Ig(qj)=H(m)-H(m;zj|qj)
按照信息增益大小对视点观测优先顺序进行降序排序,并筛选前l组信息增益最大的观测视点构成候选全局边界区域观测视点集合Q={q1,...ql},其中l≤L;
第3.2.2,最优全局探索动作选取
对观测视点集合Q={q1,...ql}中的每个观测视点,利用已有的图搜索算法生成从移动机器人当前位姿(x,y,θ)到目标观测视点全局探索动作所有全局探索动作构成候选全局探索动作集合其中表示全局探索动作的位姿节点序列对应了未来观测序列在选择全局探索动作的位姿节点时,机器人每行进距离s或者当机器人方向角旋转超过δ时定义一个时间步;集合中不同全局探索动作的路径长度往往存在显著差异,导致其时间步范围也存在显著差异,因此在第2步信息增益目标函数设计的基础上,利用全局探索动作的每个位姿节点所能产生的平均信息增益作为评价函数,从而全局边界探索策略采用如下的决策模型:
决策目标是从候选全局探索动作集合中选取平均信息增益最大的最优位姿序列
第3.2.3,触发全局边界探索策略的条件如下:
条件一:经过碰撞检测,候选局部探索动作集合为空集;
条件二:在候选局部探索动作集合中,最优局部探索动作对概率占据体元地图产生的信息增益小于设定阈值Th1。
2.根据权利要求1所述的未知环境下移动机器人三维地图构建方法,其特征在于,所述第2.2步,在工程实现时采用无序关联容器数据结构存储时间步k的观测zk的光线追踪结果 中的每个三维体元及其观测结果(n,o)用键-值对(key,value)来表示;同样地,缓存地图Mc也使用无序关联容器存储,Mc中的每个三维体元及其占据概率(n,p(n))用键-值对(key,value)来表示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811462297.8A CN109341707B (zh) | 2018-12-03 | 2018-12-03 | 未知环境下移动机器人三维地图构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811462297.8A CN109341707B (zh) | 2018-12-03 | 2018-12-03 | 未知环境下移动机器人三维地图构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109341707A true CN109341707A (zh) | 2019-02-15 |
CN109341707B CN109341707B (zh) | 2022-04-08 |
Family
ID=65320251
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811462297.8A Active CN109341707B (zh) | 2018-12-03 | 2018-12-03 | 未知环境下移动机器人三维地图构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109341707B (zh) |
Cited By (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754130A (zh) * | 2019-03-15 | 2019-05-14 | 中国矿业大学(北京) | 基于拓扑地图的悬臂式掘进机截割轨迹规划方法 |
CN110221614A (zh) * | 2019-06-14 | 2019-09-10 | 福州大学 | 一种基于快速探索随机树的多机器人地图探索方法 |
CN110335343A (zh) * | 2019-06-13 | 2019-10-15 | 清华大学 | 基于rgbd单视角图像人体三维重建方法及装置 |
CN110531759A (zh) * | 2019-08-02 | 2019-12-03 | 深圳大学 | 机器人探索路径生成方法、装置、计算机设备和存储介质 |
CN110806211A (zh) * | 2019-11-29 | 2020-02-18 | 炬星科技(深圳)有限公司 | 机器人自主探索建图的方法、设备及存储介质 |
CN110930506A (zh) * | 2019-10-11 | 2020-03-27 | 深圳市道通智能航空技术有限公司 | 三维地图生成方法、移动装置和计算机可读存储介质 |
CN110967029A (zh) * | 2019-12-17 | 2020-04-07 | 中新智擎科技有限公司 | 一种建图方法、装置及智能机器人 |
CN110989602A (zh) * | 2019-12-12 | 2020-04-10 | 齐鲁工业大学 | 医学病理检验实验室内自主引导车路径规划方法及系统 |
CN111290403A (zh) * | 2020-03-23 | 2020-06-16 | 内蒙古工业大学 | 搬运自动导引运输车的运输方法和搬运自动导引运输车 |
CN111397598A (zh) * | 2020-04-16 | 2020-07-10 | 苏州大学 | 人机共融环境中移动型机器人路径规划采样方法及系统 |
CN111638526A (zh) * | 2020-05-20 | 2020-09-08 | 电子科技大学 | 一种陌生环境下机器人自主建图的方法 |
CN111829531A (zh) * | 2019-04-15 | 2020-10-27 | 北京京东尚科信息技术有限公司 | 二维地图构建方法、装置、机器人定位系统和存储介质 |
CN112327852A (zh) * | 2020-11-09 | 2021-02-05 | 苏州大学 | 融合路径信息丰富度的移动机器人自主探索方法 |
CN112578796A (zh) * | 2020-12-17 | 2021-03-30 | 武汉中海庭数据技术有限公司 | 一种基于曲率约束的引导线生成方法及装置 |
CN112650221A (zh) * | 2020-12-03 | 2021-04-13 | 广州极飞科技有限公司 | 平地路径生成方法、装置、处理设备及存储介质 |
CN112703368A (zh) * | 2020-04-16 | 2021-04-23 | 华为技术有限公司 | 车辆定位的方法和装置、定位图层生成的方法和装置 |
CN112918486A (zh) * | 2021-02-08 | 2021-06-08 | 北京理工大学 | 一种时空行为决策及轨迹规划系统及方法 |
CN112975961A (zh) * | 2021-02-20 | 2021-06-18 | 华南理工大学 | 基于ctb-rrt*算法的采摘机械臂运动规划方法 |
CN113009916A (zh) * | 2021-03-08 | 2021-06-22 | 珠海市一微半导体有限公司 | 一种基于全局地图探索的路径规划方法、芯片及机器人 |
CN113110455A (zh) * | 2021-04-16 | 2021-07-13 | 哈尔滨工业大学 | 一种未知初始状态的多机器人协同探索方法、装置及系统 |
CN113520812A (zh) * | 2021-08-26 | 2021-10-22 | 山东大学 | 一种四足机器人导盲系统及方法 |
CN113625721A (zh) * | 2021-08-19 | 2021-11-09 | 东北大学 | 一种未知空间自主探索规划方法 |
CN113703443A (zh) * | 2021-08-12 | 2021-11-26 | 北京科技大学 | 一种不依赖gnss的无人车自主定位与环境探索方法 |
CN114186112A (zh) * | 2021-11-27 | 2022-03-15 | 北京工业大学 | 一种基于贝叶斯优化多重信息增益探索策略的机器人导航方法 |
CN114384920A (zh) * | 2022-03-23 | 2022-04-22 | 安徽大学 | 一种基于局部栅格地图实时构建的动态避障方法 |
CN114578824A (zh) * | 2022-03-04 | 2022-06-03 | 哈尔滨工业大学 | 一种适用于空地两用机器人的未知环境自主探索方法 |
CN114683270A (zh) * | 2020-12-30 | 2022-07-01 | 深圳乐动机器人有限公司 | 一种基于机器人的构图信息采集方法及机器人系统 |
CN114812539A (zh) * | 2022-06-21 | 2022-07-29 | 杭州涂鸦信息技术有限公司 | 地图探索、地图使用方法、装置、机器人和存储介质 |
CN115022808A (zh) * | 2022-06-21 | 2022-09-06 | 北京天坦智能科技有限责任公司 | 一种通信机器人的即时定位和无线电地图构建方法 |
CN115164931A (zh) * | 2022-09-08 | 2022-10-11 | 南开大学 | 一种盲人出行辅助系统、方法及设备 |
CN115167433A (zh) * | 2022-07-22 | 2022-10-11 | 华南理工大学 | 融合全局视觉的机器人自主探索环境信息的方法及系统 |
WO2023016101A1 (zh) * | 2021-08-13 | 2023-02-16 | 苏州大学 | 一种基于启发式偏置采样的室内环境机器人探索方法 |
CN116227771A (zh) * | 2023-03-03 | 2023-06-06 | 大连理工大学 | 一种基于约束引导和空间优化策略的场景主动式建图方法 |
CN114578824B (zh) * | 2022-03-04 | 2024-05-10 | 哈尔滨工业大学 | 一种适用于空地两用机器人的未知环境自主探索方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040024779A1 (en) * | 2002-07-31 | 2004-02-05 | Perry Ronald N. | Method for traversing quadtrees, octrees, and N-dimensional bi-trees |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
CN108198132A (zh) * | 2017-10-20 | 2018-06-22 | 吉林大学 | 基于块匹配的集成成像图像重构的方法 |
EP3376438A1 (en) * | 2017-03-15 | 2018-09-19 | Tata Consultancy Services Limited | A system and method for detecting change using ontology based saliency |
CN108648270A (zh) * | 2018-05-12 | 2018-10-12 | 西北工业大学 | 基于eg-slam的无人机实时三维场景重建方法 |
-
2018
- 2018-12-03 CN CN201811462297.8A patent/CN109341707B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040024779A1 (en) * | 2002-07-31 | 2004-02-05 | Perry Ronald N. | Method for traversing quadtrees, octrees, and N-dimensional bi-trees |
CN104732518A (zh) * | 2015-01-19 | 2015-06-24 | 北京工业大学 | 一种基于智能机器人地面特征的ptam改进方法 |
EP3376438A1 (en) * | 2017-03-15 | 2018-09-19 | Tata Consultancy Services Limited | A system and method for detecting change using ontology based saliency |
CN108198132A (zh) * | 2017-10-20 | 2018-06-22 | 吉林大学 | 基于块匹配的集成成像图像重构的方法 |
CN108648270A (zh) * | 2018-05-12 | 2018-10-12 | 西北工业大学 | 基于eg-slam的无人机实时三维场景重建方法 |
Non-Patent Citations (3)
Title |
---|
KONSTANTIN SCHAUWECKER 等: "Robust and Efficient Volumetric Occupancy Mapping with an Application to Stereo Vision", 《2014 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS & AUTOMATION (ICRA)》 * |
李炳根: "未知环境下移动机器人的下一个最佳探测视点算法研究", 《中国优秀博硕士学位论文全文数据库(硕士)信息科技辑》 * |
陶重犇: "未知环境探测及三维室内语义建图研究", 《中国博士学位论文全文数据库 (信息科技辑)》 * |
Cited By (52)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754130A (zh) * | 2019-03-15 | 2019-05-14 | 中国矿业大学(北京) | 基于拓扑地图的悬臂式掘进机截割轨迹规划方法 |
CN111829531A (zh) * | 2019-04-15 | 2020-10-27 | 北京京东尚科信息技术有限公司 | 二维地图构建方法、装置、机器人定位系统和存储介质 |
CN110335343A (zh) * | 2019-06-13 | 2019-10-15 | 清华大学 | 基于rgbd单视角图像人体三维重建方法及装置 |
CN110221614A (zh) * | 2019-06-14 | 2019-09-10 | 福州大学 | 一种基于快速探索随机树的多机器人地图探索方法 |
CN110531759A (zh) * | 2019-08-02 | 2019-12-03 | 深圳大学 | 机器人探索路径生成方法、装置、计算机设备和存储介质 |
CN110930506B (zh) * | 2019-10-11 | 2022-09-09 | 深圳市道通智能航空技术股份有限公司 | 三维地图生成方法、移动装置和计算机可读存储介质 |
CN110930506A (zh) * | 2019-10-11 | 2020-03-27 | 深圳市道通智能航空技术有限公司 | 三维地图生成方法、移动装置和计算机可读存储介质 |
WO2021104415A1 (zh) * | 2019-11-29 | 2021-06-03 | 炬星科技(深圳)有限公司 | 机器人自主探索建图的方法、设备及存储介质 |
CN110806211A (zh) * | 2019-11-29 | 2020-02-18 | 炬星科技(深圳)有限公司 | 机器人自主探索建图的方法、设备及存储介质 |
CN110989602A (zh) * | 2019-12-12 | 2020-04-10 | 齐鲁工业大学 | 医学病理检验实验室内自主引导车路径规划方法及系统 |
CN110989602B (zh) * | 2019-12-12 | 2023-12-26 | 齐鲁工业大学 | 医学病理检验实验室内自主引导车路径规划方法及系统 |
CN110967029A (zh) * | 2019-12-17 | 2020-04-07 | 中新智擎科技有限公司 | 一种建图方法、装置及智能机器人 |
CN110967029B (zh) * | 2019-12-17 | 2022-08-26 | 中新智擎科技有限公司 | 一种建图方法、装置及智能机器人 |
CN111290403A (zh) * | 2020-03-23 | 2020-06-16 | 内蒙古工业大学 | 搬运自动导引运输车的运输方法和搬运自动导引运输车 |
CN111290403B (zh) * | 2020-03-23 | 2023-05-16 | 内蒙古工业大学 | 搬运自动导引运输车的运输方法和搬运自动导引运输车 |
CN111397598A (zh) * | 2020-04-16 | 2020-07-10 | 苏州大学 | 人机共融环境中移动型机器人路径规划采样方法及系统 |
CN111397598B (zh) * | 2020-04-16 | 2022-02-01 | 苏州大学 | 人机共融环境中移动型机器人路径规划采样方法及系统 |
CN112703368A (zh) * | 2020-04-16 | 2021-04-23 | 华为技术有限公司 | 车辆定位的方法和装置、定位图层生成的方法和装置 |
CN111638526A (zh) * | 2020-05-20 | 2020-09-08 | 电子科技大学 | 一种陌生环境下机器人自主建图的方法 |
CN111638526B (zh) * | 2020-05-20 | 2022-08-26 | 电子科技大学 | 一种陌生环境下机器人自主建图的方法 |
CN112327852A (zh) * | 2020-11-09 | 2021-02-05 | 苏州大学 | 融合路径信息丰富度的移动机器人自主探索方法 |
CN112650221A (zh) * | 2020-12-03 | 2021-04-13 | 广州极飞科技有限公司 | 平地路径生成方法、装置、处理设备及存储介质 |
CN112578796A (zh) * | 2020-12-17 | 2021-03-30 | 武汉中海庭数据技术有限公司 | 一种基于曲率约束的引导线生成方法及装置 |
CN114683270A (zh) * | 2020-12-30 | 2022-07-01 | 深圳乐动机器人有限公司 | 一种基于机器人的构图信息采集方法及机器人系统 |
CN112918486A (zh) * | 2021-02-08 | 2021-06-08 | 北京理工大学 | 一种时空行为决策及轨迹规划系统及方法 |
CN112918486B (zh) * | 2021-02-08 | 2022-06-03 | 北京理工大学 | 一种时空行为决策及轨迹规划系统及方法 |
CN112975961A (zh) * | 2021-02-20 | 2021-06-18 | 华南理工大学 | 基于ctb-rrt*算法的采摘机械臂运动规划方法 |
CN112975961B (zh) * | 2021-02-20 | 2022-04-22 | 华南理工大学 | 基于ctb-rrt*算法的采摘机械臂运动规划方法 |
CN113009916A (zh) * | 2021-03-08 | 2021-06-22 | 珠海市一微半导体有限公司 | 一种基于全局地图探索的路径规划方法、芯片及机器人 |
CN113110455A (zh) * | 2021-04-16 | 2021-07-13 | 哈尔滨工业大学 | 一种未知初始状态的多机器人协同探索方法、装置及系统 |
CN113110455B (zh) * | 2021-04-16 | 2022-09-23 | 哈尔滨工业大学 | 一种未知初始状态的多机器人协同探索方法、装置及系统 |
CN113703443B (zh) * | 2021-08-12 | 2023-10-13 | 北京科技大学 | 一种不依赖gnss的无人车自主定位与环境探索方法 |
CN113703443A (zh) * | 2021-08-12 | 2021-11-26 | 北京科技大学 | 一种不依赖gnss的无人车自主定位与环境探索方法 |
WO2023016101A1 (zh) * | 2021-08-13 | 2023-02-16 | 苏州大学 | 一种基于启发式偏置采样的室内环境机器人探索方法 |
CN113625721B (zh) * | 2021-08-19 | 2023-05-16 | 东北大学 | 一种未知空间自主探索规划方法 |
CN113625721A (zh) * | 2021-08-19 | 2021-11-09 | 东北大学 | 一种未知空间自主探索规划方法 |
CN113520812B (zh) * | 2021-08-26 | 2022-08-12 | 山东大学 | 一种四足机器人导盲系统及方法 |
CN113520812A (zh) * | 2021-08-26 | 2021-10-22 | 山东大学 | 一种四足机器人导盲系统及方法 |
CN114186112A (zh) * | 2021-11-27 | 2022-03-15 | 北京工业大学 | 一种基于贝叶斯优化多重信息增益探索策略的机器人导航方法 |
CN114578824B (zh) * | 2022-03-04 | 2024-05-10 | 哈尔滨工业大学 | 一种适用于空地两用机器人的未知环境自主探索方法 |
CN114578824A (zh) * | 2022-03-04 | 2022-06-03 | 哈尔滨工业大学 | 一种适用于空地两用机器人的未知环境自主探索方法 |
CN114384920A (zh) * | 2022-03-23 | 2022-04-22 | 安徽大学 | 一种基于局部栅格地图实时构建的动态避障方法 |
US11720110B2 (en) | 2022-03-23 | 2023-08-08 | Anhui University | Dynamic obstacle avoidance method based on real-time local grid map construction |
CN115022808B (zh) * | 2022-06-21 | 2022-11-08 | 北京天坦智能科技有限责任公司 | 一种通信机器人的即时定位和无线电地图构建方法 |
CN114812539B (zh) * | 2022-06-21 | 2022-11-18 | 杭州涂鸦信息技术有限公司 | 地图探索、地图使用方法、装置、机器人和存储介质 |
CN115022808A (zh) * | 2022-06-21 | 2022-09-06 | 北京天坦智能科技有限责任公司 | 一种通信机器人的即时定位和无线电地图构建方法 |
CN114812539A (zh) * | 2022-06-21 | 2022-07-29 | 杭州涂鸦信息技术有限公司 | 地图探索、地图使用方法、装置、机器人和存储介质 |
CN115167433A (zh) * | 2022-07-22 | 2022-10-11 | 华南理工大学 | 融合全局视觉的机器人自主探索环境信息的方法及系统 |
CN115167433B (zh) * | 2022-07-22 | 2024-03-19 | 华南理工大学 | 融合全局视觉的机器人自主探索环境信息的方法及系统 |
CN115164931A (zh) * | 2022-09-08 | 2022-10-11 | 南开大学 | 一种盲人出行辅助系统、方法及设备 |
CN116227771B (zh) * | 2023-03-03 | 2023-09-29 | 大连理工大学 | 一种基于约束引导和空间优化策略的场景主动式建图方法 |
CN116227771A (zh) * | 2023-03-03 | 2023-06-06 | 大连理工大学 | 一种基于约束引导和空间优化策略的场景主动式建图方法 |
Also Published As
Publication number | Publication date |
---|---|
CN109341707B (zh) | 2022-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109341707A (zh) | 未知环境下移动机器人三维地图构建方法 | |
CN110023867B (zh) | 用于机器人绘图的系统和方法 | |
Saeed et al. | A boundary node method for path planning of mobile robots | |
Vanneste et al. | 3DVFH+: Real-time three-dimensional obstacle avoidance using an octomap | |
Tsokas et al. | Multi-robot multiple hypothesis tracking for pedestrian tracking | |
Azpúrua et al. | A Survey on the autonomous exploration of confined subterranean spaces: Perspectives from real-word and industrial robotic deployments | |
CN114442621A (zh) | 一种基于四足机器人的自主探索和建图系统 | |
Zhang et al. | Fast active aerial exploration for traversable path finding of ground robots in unknown environments | |
Zhu et al. | A hierarchical deep reinforcement learning framework with high efficiency and generalization for fast and safe navigation | |
Tian et al. | An improved RRT robot autonomous exploration and SLAM construction method | |
Monica et al. | Humanoid robot next best view planning under occlusions using body movement primitives | |
Leung et al. | Hybrid terrain traversability analysis in off-road environments | |
Ding et al. | Monocular camera-based complex obstacle avoidance via efficient deep reinforcement learning | |
Zhou et al. | An autonomous navigation approach for unmanned vehicle in outdoor unstructured terrain with dynamic and negative obstacles | |
Okada et al. | Exploration and observation planning for 3D indoor mapping | |
Kay et al. | Semantically informed next best view planning for autonomous aerial 3D reconstruction | |
Takiguchi et al. | Collision avoidance algorithm using deep learning type artificial intelligence for a mobile robot | |
Ding et al. | Multi-strategy based exploration for 3D mapping in unknown environments using a mobile robot | |
Qiu et al. | Semantic map construction via multi-sensor fusion | |
Wan et al. | Real-time path planning for navigation in unknown environment | |
Zhang et al. | 2D map building and path planning based on LiDAR | |
Gao et al. | A novel local path planning method considering both robot posture and path smoothness | |
Li et al. | Object-Aware View Planning for Autonomous 3D Model Reconstruction of Buildings Using a Mobile Robot | |
Alsaab | Behavioural strategy for indoor mobile robot navigation in dynamic environments | |
Wang et al. | Research on SLAM road sign observation based on particle filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |