CN111474932B - 一种集成情景经验的移动机器人建图与导航方法 - Google Patents

一种集成情景经验的移动机器人建图与导航方法 Download PDF

Info

Publication number
CN111474932B
CN111474932B CN202010327088.3A CN202010327088A CN111474932B CN 111474932 B CN111474932 B CN 111474932B CN 202010327088 A CN202010327088 A CN 202010327088A CN 111474932 B CN111474932 B CN 111474932B
Authority
CN
China
Prior art keywords
event
mobile robot
map
scene
pose
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010327088.3A
Other languages
English (en)
Other versions
CN111474932A (zh
Inventor
刘冬
丛明
陈飞
邹强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202010327088.3A priority Critical patent/CN111474932B/zh
Publication of CN111474932A publication Critical patent/CN111474932A/zh
Application granted granted Critical
Publication of CN111474932B publication Critical patent/CN111474932B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

一种集成情景经验的移动机器人建图与导航方法,属于移动机器人导航领域。该方法基于系统框架实现,系统框架包含三个模块:点云地图、情景经验地图与路径规划移动机器人导航过程中,点云地图、情景经验地图与路径规划三个模块基于机器人操作系统ROS通信,其中,点云地图为情景经验地图实时提供移动机器人的位姿;路径规划模块根据点云地图获取移动机器人位姿,根据情景经验地图获取事件序列,从而定位移动机器人当前所在事件。本发明对情景经验进行建模,结合局部环境信息构建情景经验地图,完成移动机器人对环境在拓扑关系与几何关系上理解,该系统能够较好的完成导航任务,规划出一条从定位点到达目标点的最优路径,并且具有较高的导航精度。

Description

一种集成情景经验的移动机器人建图与导航方法
技术领域
本发明属于移动机器人导航领域,涉及一种基于情景经验的移动机器人建图与导航方法。
背景技术
自主导航技术作为移动机器人系统的核心能力,智能化水平要求越来越高。其研究内容包括建图、定位、路径规划与控制。目前,多数研究工作作为独立的模块展开,不能够简单的将各个模块的研究成果直接组合成为一个导航系统,例如,视觉SLAM算法生成的地图与路径规划的地图存在明显差异。
为实现在环境中自主导航,移动机器人应当被赋予理解世界等能力,其在环境中时刻掌握自己在世界坐标系下的位姿,并且能够根据特定的目标规划适当路径。可以通过向移动机器人提供一个环境详细描述的高精度地图来实现移动机器人导航,然而在实际条件中,高精度地图的构建、优化、存储与更新具有较高的计算成本,且很多信息对于导航任务冗余。根据神经学家观察,人类不需要回忆所有的环境细节就能够轻松完成导航任务,往往依靠自己以前的认知经验进行路径规划与导航,这又从逻辑上质疑了移动机器人完成自主导航任务依赖于高精度环境地图。
发明内容
针对上述问题,本发明提出一种集成情景经验的移动机器人建图与导航方法。
本发明采用的技术方案为:
一种集成情景经验的移动机器人建图与导航方法,该方法基于系统框架实现,系统框架包含三个模块:点云地图、情景经验地图与路径规划。简化人类情景记忆形成过程,构建封装场景感知、位姿信息和事件转移集的情景经验地图,从几何与拓扑关系上理解环境。移动机器人根据点云地图与情景经验地图实现路径规划,基于机器人操作系统(RobotOperatingSystem,ROS)通信各个模块从而完成导航任务。具体步骤如下:
第一步,构建点云地图。
点云地图的构建基于特征点法的前端和基于优化的后端,用于定位移动机器人在环境中的位置并且辅助构建情景经验地图。
第二步,构建情景经验地图。
建模由λ个子事件构成的事件空间E,E={e1,e2,…,eλ}。每个子事件包含场景感知、位姿和事件转移集,建模为三元组(o,P,C):其中,o为场景感知,由相机采集场景图像并提取环境显著路标;P为位姿信息(x,y,yaw),表达事件节点在世界坐标下的位置和朝向信息;C为事件转移集,描述从当前事件可直接转移到达事件集合,由激光测量数据计算得到。三元组
Figure BDA0002463604010000021
即任意情景经验对应唯一事件。事件转移权值矩阵W为:
Figure BDA0002463604010000022
由此,情景经验地图M可表示为离散有限的事件空间E和事件转移权值矩阵W组成的网络:
M={E,W}, (2)
基于移动机器人场景感知传感器和点云地图定位系统,获取以事件空间E为顶点、事件转移权值为边的增量式情景经验,构建情景经验地图,具体过程如下:
(1)整合位姿
通过图像提取环境路标点与地图点匹配,定位当前相机位姿wOc。将相机位姿转换到移动机器人位姿wOr,根据手眼标定获取相机坐标系到移动机器人坐标系的变换矩阵TRC
Figure BDA0002463604010000023
其中,R为旋转矩阵,t是平移向量。
计算得到移动机器人的定位:wOr=TRC·wOc; (4)
(2)确定事件转移集
使用激光传感器判断事件之间是否可达,确定当前事件的转移集。激光传感器对于单点的测量数据为:点到激光传感器距离
Figure BDA0002463604010000024
激光束与激光传感器横坐标夹角
Figure BDA0002463604010000025
k表示一周扫描中激光束的编号。激光传感器中心在移动机器人坐标系的坐标为
Figure BDA0002463604010000026
移动机器人坐标系在世界坐标系下的位姿为
Figure BDA0002463604010000027
根据“激光-移动机器人”坐标关系可将激光对单点的测量数据
Figure BDA0002463604010000028
转换为世界坐标下的坐标
Figure BDA0002463604010000029
Figure BDA00024636040100000210
当前状态神经元ec为圆心,在半径D范围内获取事件转移集,即记录
Figure BDA00024636040100000211
的激光传感器扫描数据,根据公式(5)计算扫描点在世界坐标下的坐标,由此,得到该区域内障碍物边缘的采样点集:
Figure BDA00024636040100000212
为简化计算,设移动机器人为一个点,将事件间转移需要的空间按移动机器人半径r进行膨胀,即将移动机器人所占空间表示为事件转移需要的空间,进一步简化,将空间扩展为矩形。根据公式(6)、(7)可计算出矩形的四个顶点坐标:
Figure BDA0002463604010000031
Figure BDA0002463604010000032
其中,ec=[xc,yc]为当前事件位置,ei=[xi,yi]为转移范围内的某个事件位置。利用向量外积性质判断激光扫描点p是否在矩形内部。对任意矩形,如果集合S中存在点p满足向量关系:
Figure BDA0002463604010000033
则点p(即障碍物点)在事件转移需要的空间范围内,即事件间不能直接转移。
(3)计算事件转移权值
事件转移权值代表事件间转移代价,由两部分决定:一方面为事件间的欧式距离;另一方面为场景感知的匹配度。根据公式(9)、(10)计算得到:
εct=1-Match(oc,ot), (9)
Figure BDA0002463604010000034
其中,oc为当前事件观测得到的场景感知,ot为其状态转移集中事件存储的环境场景感知,Match函数计算场景感知匹配度。Eucdis函数计算欧式距离,η为权值系数。
第三步,设计基于情景经验地图的路径规划算法。
基于情景经验地图设计移动机器人全局事件序列规划算法与局部行为控制算法。定位过程中,点云地图系统仅完成跟踪相机任务,地图信息不更新。当新的场景图像输入系统,定位相机位姿,计算移动机器人在世界坐标系下位姿(x,y,yaw)。给定导航任务,结合情景经验地图应用Dijkstra算法计算一条到达目标点的所有事件转移代价和最小的路径,即全局最优路径。导航过程中移动机器人在每一个事件节点利用激光测量信息更新事件转移集,一旦事件转移集被更新,则重新进行全局事件序列规划。局部行为控制根据移动机器人当前位姿与局部目标事件的位姿计算得到。
移动机器人导航过程中,点云地图、情景经验地图与路径规划三个模块基于机器人操作系统ROS通信,其中,点云地图为情景经验地图实时提供移动机器人的位姿;路径规划模块根据点云地图获取移动机器人位姿,根据情景经验地图获取事件序列,从而定位移动机器人当前所在事件。
本发明的有益效果为:本发明对情景经验进行建模,结合局部环境信息构建情景经验地图,完成移动机器人对环境在拓扑关系与几何关系上理解,该系统能够较好的完成导航任务,规划出一条从定位点到达目标点的最优路径,并且具有较高的导航精度。
附图说明
图1为本发明实例中导航系统框图;
图2为本发明实例中点云地图构建流程;
图3为本发明实例中情景经验地图构建流程;
图4为本发明实例中“相机-移动机器人”坐标关系;
图5为本发明实例中“激光-移动机器人-世界”坐标关系;
图6为本发明实例中事件转移集的计算方式;
图7为本发明实例中判断点在矩形内部的方式;
图8为本发明实例中当前位姿与局部目标事件位姿关系。
图9为本发明实例中构建的情景经验地图。
图10为本发明实例中根据情景经验地图规划路径结果。
图11为本发明实例中导航路线与规划路线对比结果。
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
图1为本发明实例中导航系统框图,如图1所示,点云地图被用于定位移动机器人并且辅助情景经验地图的构建。情景经验地图记录移动机器人的经验信息,形成对环境在几何关系与拓扑关系的综合表述。移动机器人基于情景经验地图进行路径规划,计算导航任务的事件序列。导航系统基于机器人操作系统ROS实现各个模块通信。
图2为本发明实例中点云地图构建流程,如图2所示,点云地图在移动机器人探索环境过程中增量式构建与优化,系统输入视频流,输出实时相机位姿跟踪与三维点云,系统包含前端跟踪与后端优化两部分。前端跟踪根据帧间像素关系估计相对位姿,本发明采用基于特征点法的视觉前端对每一帧图像提取特征点,然后根据特征匹配关系求解当前帧位姿的初始估计并对初始位姿估计进行调优。后端优化首先加入新的关键帧,优化更新局部地图,并对每一个关键帧做闭环检测处理,一旦检测到闭环,则使用全局位姿图优化纠正前端视觉里程计的累积误差。基于优化的后端算法将m帧初始位姿估计与n个路标点作为待优化状态量构建非线性最小二乘:
Figure BDA0002463604010000051
ξi表示第i帧相机位姿估计,pj为第j个路标点,zij表示在相机位姿ξi处观测到路标点pj像素坐标,即测量值.根据观测方程计算路标点pj在位姿ξi下的重投影坐标h(ξi,pj),即重投影值。重投影误差
Figure BDA0002463604010000059
作为残差。该非线性最小二乘方程使用LM(Levenberg-Marquardt)算法求解,迭代过程中同时优化调整相机位姿与空间路标点位置。
图3为本发明实例中情景经验地图构建流程,如图3所示,情景经验地图构建系统输入点云地图和场景感知(包括视觉图像与激光测量),输出为情景经验地图。建图过程中,根据点云地图进行定位,判断当前事件是否为新事件:如果是新事件,则记录事件,提取当前场景感知,整合位姿,根据激光测量确定事件转移集,结合当前场景与转移集中场景感知的匹配度计算事件转移权值矩阵;如果是已有事件,则直接更新当前事件与其对应的连接权值。
记录事件的具体过程骤如下:
(1)整合位姿
相机与移动机器人位姿关系如图4所示,通过图像提取环境的路标点与地图点匹配,定位当前相机位姿wOc。将相机位姿转换到移动机器人位姿wOr,坐标关系如图4所示。根据手眼标定获取相机坐标系到移动机器人坐标系的变换矩阵TRC
Figure BDA0002463604010000052
其中,R为旋转矩阵,t是平移向量。计算得到移动机器人的定位:
wOr=TRC·wOc, (3)
(2)确定事件转移集
利用激光传感器判断事件之间是否可达,确定当前事件的转移集。激光传感器对于单点的测量数据为:点到激光传感器距离
Figure BDA0002463604010000053
激光束与激光传感器横坐标夹角
Figure BDA0002463604010000054
k表示一周扫描中激光束的编号。激光传感器中心在移动机器人坐标系的坐标为
Figure BDA0002463604010000055
移动机器人坐标系在世界坐标系下的位姿为
Figure BDA0002463604010000056
坐标关系如图5所示。根据坐标关系可将激光对单点的测量数据
Figure BDA0002463604010000057
转换为世界坐标下的坐标
Figure BDA0002463604010000058
Figure BDA0002463604010000061
当前状态神经元ec为圆心,在半径D范围内获取事件转移集,如图6所示,即记录
Figure BDA0002463604010000062
的激光传感器扫描数据,根据公式(4)计算扫描点在世界坐标下的坐标,由此,得到该区域内障碍物边缘的采样点集:
Figure BDA0002463604010000063
为简化计算,设移动机器人为一个点,将事件间转移需要的空间按移动机器人半径r进行膨胀,即将移动机器人所占空间表示为事件转移需要的空间,进一步简化,将空间扩展为矩形,如图6中的虚线矩形。根据公式(5)、(6)可计算出矩形的四个顶点坐标:
Figure BDA0002463604010000064
Figure BDA0002463604010000065
其中,ec=[xc,yc]为当前事件位置,ei=[xi,yi]为转移范围内的某个事件位置。利用向量外积性质判断激光扫描点p是否在矩形内部。对任意矩形,如图7所示,如果集合S中存在点p满足向量关系:
Figure BDA0002463604010000066
则点p(即障碍物点)在事件转移需要的空间范围内,即事件间不能直接转移。例如在图6中,事件ej在事件ec的转移集中,ei则不在其转移集中。
(3)计算事件转移权值
事件转移权值代表事件间转移代价,由两部分决定:一方面为事件间的欧式距离;另一方面为场景感知的匹配度。根据公式(8)、(9)计算得到:
εct=1-Match(oc,ot), (8)
Figure BDA0002463604010000067
其中,oc为当前事件观测得到的场景感知,ot为其状态转移集中事件存储的环境场景感知,Match函数计算场景感知匹配度。Eucdis函数计算欧式距离,η为权值系数。
路径规划过程中,移动机器人采集场景感知,根据点云地图与情景经验地图定位当前事件。定位过程中,点云地图系统仅完成跟踪相机任务,地图信息不更新。当新的场景图像输入系统,定位相机位姿,计算移动机器人在世界坐标系下位姿(x,y,yaw)。给定导航任务,结合情景经验地图应用Dijkstra算法计算一条到达目标点的所有事件转移代价和最小的路径,即全局最优路径。导航过程中移动机器人在每一个事件节点利用激光测量信息更新事件转移集,一旦事件转移集被更新,则重新进行全局路径规划。局部行为控制根据移动机器人当前定位信息与局部目标事件的位姿关系计算得到,如图8所示,计算公式如下:
Figure BDA0002463604010000071
Figure BDA0002463604010000072
dist=Eucdis(pc,pt), (12)
其中,pc为移动机器人当前位置,yawc为当前位置偏航角,pt为下一目标点位置,angleWrap函数将各象限计算的角度映射到正确值,Eucdis函数计算两点之间的欧式距离。
图9为本发明实例中构建的情景经验地图,如图9所示,图中每个事件表示为一个圆圈,封装了场景感知、位姿信息和事件转移集。每一个事件与其转移集中的任意一个事件有一个边连接,其转移代价存储在事件转移权值矩阵中。
图10为本发明实例中基于构建的情景经验地图的路径规划结果,如图10所示,移动机器人分别执行两个导航任务,在定位点接收到任务信息,执行全局事件序列规划,任务1与任务2规划事件序列分别包含13个事件。
图11为本发明实例中移动机器人的导航路线与规划路线对比结果,如图11所示,移动机器人基于路径规划结果进行导航实验,实验结果表明:基于本发明设计的建图与导航方法,移动机器人具有较高的导航精度。
最后应说明的是:以上实例仅用以说明本发明的技术方案,而非对其进行限制;尽管参照本实施实例对本发明进行了详细的说明,本领域的普通人员应当理解;其依然可以对前述各实例所记载的技术方案进行修改,或者对其中部分技术特征进行同等替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实例技术方案的精神和范围。

Claims (1)

1.一种集成情景经验的移动机器人建图与导航方法,其特征在于,该方法基于系统框架实现,系统框架包含三个模块:点云地图、情景经验地图与路径规划,移动机器人导航过程中,点云地图、情景经验地图与路径规划三个模块基于机器人操作系统ROS通信,其中,点云地图为情景经验地图实时提供移动机器人的位姿,路径规划模块根据点云地图获取移动机器人位姿,根据情景经验地图获取事件序列,定位移动机器人当前所在事件;具体步骤如下:
第一步,构建点云地图;
点云地图的构建基于特征点法的前端和基于优化的后端,用于定位移动机器人在环境中的位置并且辅助构建情景经验地图;
第二步,构建情景经验地图;
建模由λ个子事件构成的事件空间E,E={e1,e2,…,eλ};每个子事件包含场景感知、位姿和事件转移集,建模为三元组(o,P,C):其中,o为场景感知,由相机采集场景图像并提取环境显著路标;P为位姿信息(x,y,yaw),表达事件节点在世界坐标下的位置和朝向信息;C为事件转移集,描述从当前事件可直接转移到达事件集合,由激光测量数据计算得到;三元组
Figure FDA0002463602000000011
即任意情景经验对应唯一事件;事件转移权值矩阵W为:
Figure FDA0002463602000000012
由此,情景经验地图M可表示为离散有限的事件空间E和事件转移权值矩阵W组成的网络:
M={E,W}, (2)
基于移动机器人场景感知传感器和点云地图定位系统,获取以事件空间E为顶点、事件转移权值为边的增量式情景经验,构建情景经验地图,具体过程如下:
(1)整合位姿
通过图像提取环境路标点与地图点匹配,定位当前相机位姿wOc;将相机位姿转换到移动机器人位姿wOr,根据手眼标定获取相机坐标系到移动机器人坐标系的变换矩阵TRC
Figure FDA0002463602000000013
其中,R为旋转矩阵,t是平移向量;
计算得到移动机器人的定位:wOr=TRC·wOc; (4)
(2)确定事件转移集
使用激光传感器判断事件之间是否可达,确定当前事件的转移集;激光传感器对于单点的测量数据为:点到激光传感器距离
Figure FDA0002463602000000021
激光束与激光传感器横坐标夹角
Figure FDA0002463602000000022
其中k表示一周扫描中激光束的编号;激光传感器中心在移动机器人坐标系的坐标为
Figure FDA0002463602000000023
移动机器人坐标系在世界坐标系下的位姿为
Figure FDA0002463602000000024
根据“激光-移动机器人”坐标关系可将激光对单点的测量数据
Figure FDA0002463602000000025
转换为世界坐标下的坐标
Figure FDA0002463602000000026
Figure FDA0002463602000000027
当前状态神经元ec为圆心,在半径D范围内获取事件转移集,即记录
Figure FDA0002463602000000028
的激光传感器扫描数据,根据公式(5)计算扫描点在世界坐标下的坐标,由此,得到该区域内障碍物边缘的采样点集:
Figure FDA0002463602000000029
为简化计算,设移动机器人为一个点,将事件间转移需要的空间按移动机器人半径r进行膨胀,即将移动机器人所占空间表示为事件转移需要的空间,进一步简化,将空间扩展为矩形;根据公式(6)、(7)可计算出矩形的四个顶点坐标:
Figure FDA00024636020000000210
Figure FDA00024636020000000211
其中,ec=[xc,yc]为当前事件位置,ei=[xi,yi]为转移范围内的某个事件位置;利用向量外积性质判断激光扫描点p是否在矩形内部;对任意矩形,如果集合S中存在点p满足向量关系:
Figure FDA00024636020000000212
则障碍物点p在事件转移需要的空间范围内,即事件间不能直接转移;
(3)计算事件转移权值
事件转移权值代表事件间转移代价,由两部分决定:一方面为事件间的欧式距离;另一方面为场景感知的匹配度;根据公式(9)、(10)计算得到:
εct=1-Match(oc,ot), (9)
Figure FDA0002463602000000031
其中,oc为当前事件观测得到的场景感知,ot为其状态转移集中事件存储的环境场景感知,Match函数计算场景感知匹配度;Eucdis函数计算欧式距离,η为权值系数;
第三步,设计基于情景经验地图的路径规划算法;
基于情景经验地图设计移动机器人全局事件序列规划算法与局部行为控制算法;定位过程中,点云地图系统仅完成跟踪相机任务,地图信息不更新;当新的场景图像输入系统,定位相机位姿,计算移动机器人在世界坐标系下位姿(x,y,yaw);给定导航任务,结合情景经验地图计算一条到达目标点的所有事件转移代价和最小的路径,即全局最优路径;导航过程中移动机器人在每一个事件节点利用激光测量信息更新事件转移集,一旦事件转移集被更新,则重新进行全局事件序列规划;局部行为控制根据移动机器人当前位姿与局部目标事件的位姿计算得到。
CN202010327088.3A 2020-04-23 2020-04-23 一种集成情景经验的移动机器人建图与导航方法 Active CN111474932B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010327088.3A CN111474932B (zh) 2020-04-23 2020-04-23 一种集成情景经验的移动机器人建图与导航方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010327088.3A CN111474932B (zh) 2020-04-23 2020-04-23 一种集成情景经验的移动机器人建图与导航方法

Publications (2)

Publication Number Publication Date
CN111474932A CN111474932A (zh) 2020-07-31
CN111474932B true CN111474932B (zh) 2021-05-11

Family

ID=71761652

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010327088.3A Active CN111474932B (zh) 2020-04-23 2020-04-23 一种集成情景经验的移动机器人建图与导航方法

Country Status (1)

Country Link
CN (1) CN111474932B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113110492B (zh) * 2021-05-07 2022-06-21 苏州大学 一种路径规划方法
CN113657573B (zh) * 2021-06-30 2024-06-21 大连理工江苏研究院有限公司 一种情景记忆引导下基于元学习的机器人技能获取方法
CN115164925A (zh) * 2022-07-09 2022-10-11 哈尔滨工程大学 一种基于大数据的数字环境构建规划导航方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105651284A (zh) * 2015-12-29 2016-06-08 福州华鹰重工机械有限公司 提高经验导航中节点选择效率的方法及装置
CN106949896A (zh) * 2017-05-14 2017-07-14 北京工业大学 一种基于鼠脑海马的情景认知地图构建及导航方法
CN107632598A (zh) * 2016-07-19 2018-01-26 浙江星星冷链集成股份有限公司 一种具有场景记忆供的机器人
CN108994832A (zh) * 2018-07-20 2018-12-14 上海节卡机器人科技有限公司 一种基于rgb-d相机的机器人手眼系统及其自标定方法
CN109668566A (zh) * 2018-12-05 2019-04-23 大连理工大学 一种基于鼠脑定位细胞的机器人情景认知地图的构建与导航方法
CN109744945A (zh) * 2017-11-08 2019-05-14 杭州萤石网络有限公司 一种区域属性确定方法、装置、系统及电子设备
CN111666307A (zh) * 2019-12-03 2020-09-15 张少军 根据场景观察进行直觉推断的无人驾驶安全判断系统

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11113598B2 (en) * 2015-06-01 2021-09-07 Salesforce.Com, Inc. Dynamic memory network

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105651284A (zh) * 2015-12-29 2016-06-08 福州华鹰重工机械有限公司 提高经验导航中节点选择效率的方法及装置
CN107632598A (zh) * 2016-07-19 2018-01-26 浙江星星冷链集成股份有限公司 一种具有场景记忆供的机器人
CN106949896A (zh) * 2017-05-14 2017-07-14 北京工业大学 一种基于鼠脑海马的情景认知地图构建及导航方法
CN109744945A (zh) * 2017-11-08 2019-05-14 杭州萤石网络有限公司 一种区域属性确定方法、装置、系统及电子设备
CN108994832A (zh) * 2018-07-20 2018-12-14 上海节卡机器人科技有限公司 一种基于rgb-d相机的机器人手眼系统及其自标定方法
CN109668566A (zh) * 2018-12-05 2019-04-23 大连理工大学 一种基于鼠脑定位细胞的机器人情景认知地图的构建与导航方法
CN111666307A (zh) * 2019-12-03 2020-09-15 张少军 根据场景观察进行直觉推断的无人驾驶安全判断系统

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
A spatio-temporal Long-term Memory approach for visual place;Vu Anh Nguyen等;《Robotics and Autonomous Systems》;20131231;第61卷;全文 *
Episodic Memory-Based Robotic Planning;Dong Liu等;《IEEE TRANSACTIONS ON INDUSTRIAL ELECTRONICS》;20170228;第64卷(第2期);全文 *
仿鼠脑海马的机器人地图构建与路径规划方法;邹强等;《华中科技大学学报(自然科学版)》;20181031;第46卷(第12期);全文 *
基于生物认知的移动机器人路径规划方法;邹强等;《机器人》;20181130;第40卷(第6期);全文 *
融合神经元激励机制的机器人情景学习与行为控制;刘冬等;《机器人》;20140930;第36卷(第5期);全文 *

Also Published As

Publication number Publication date
CN111474932A (zh) 2020-07-31

Similar Documents

Publication Publication Date Title
CN106679648B (zh) 一种基于遗传算法的视觉惯性组合的slam方法
CN112484725B (zh) 一种基于多传感器融合的智能汽车高精度定位与时空态势安全方法
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
Li et al. Building and optimization of 3D semantic map based on Lidar and camera fusion
CN111474932B (zh) 一种集成情景经验的移动机器人建图与导航方法
CN105843223B (zh) 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN113781582B (zh) 基于激光雷达和惯导联合标定的同步定位与地图创建方法
CN104236548B (zh) 一种微型无人机室内自主导航方法
CN108051002B (zh) 基于惯性测量辅助视觉的运输车空间定位方法及系统
Chen Kalman filter for robot vision: a survey
CN112525202A (zh) 一种基于多传感器融合的slam定位导航方法及系统
CN112304307A (zh) 一种基于多传感器融合的定位方法、装置和存储介质
CN111415417B (zh) 一种集成稀疏点云的移动机器人拓扑经验地图构建方法
CN111338383B (zh) 基于gaas的自主飞行方法及系统、存储介质
Engel et al. Deeplocalization: Landmark-based self-localization with deep neural networks
CN111337943B (zh) 一种基于视觉引导激光重定位的移动机器人定位方法
CN112444246B (zh) 高精度的数字孪生场景中的激光融合定位方法
CN112652001B (zh) 基于扩展卡尔曼滤波的水下机器人多传感器融合定位系统
WO2019191288A1 (en) Direct sparse visual-inertial odometry using dynamic marginalization
CN110728751A (zh) 一种室内3d点云语义地图的构建方法
CN112629520A (zh) 一种机器人导航与定位方法、系统、设备及存储介质
CN110260866A (zh) 一种基于视觉传感器的机器人定位与避障方法
CN111812978B (zh) 一种多无人机协作slam方法与系统
CN115574816B (zh) 仿生视觉多源信息智能感知无人平台
Zhou et al. Visual mapping and localization system based on compact instance-level road markings with spatial uncertainty

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant