CN110703747B - 一种基于简化广义Voronoi图的机器人自主探索方法 - Google Patents

一种基于简化广义Voronoi图的机器人自主探索方法 Download PDF

Info

Publication number
CN110703747B
CN110703747B CN201910951962.8A CN201910951962A CN110703747B CN 110703747 B CN110703747 B CN 110703747B CN 201910951962 A CN201910951962 A CN 201910951962A CN 110703747 B CN110703747 B CN 110703747B
Authority
CN
China
Prior art keywords
point
robot
candidate
voronoi diagram
generalized voronoi
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910951962.8A
Other languages
English (en)
Other versions
CN110703747A (zh
Inventor
李霖
左辛凯
朱海红
应申
杨帆
苏飞
梁一帆
周刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201910951962.8A priority Critical patent/CN110703747B/zh
Publication of CN110703747A publication Critical patent/CN110703747A/zh
Priority to US16/994,702 priority patent/US11567502B2/en
Application granted granted Critical
Publication of CN110703747B publication Critical patent/CN110703747B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle

Abstract

本发明属于自动化技术,具体涉及一种基于简化广义Voronoi图的机器人自主探索方法,包括以下步骤:基于形态学方法构建简化广义Voronoi拓扑地图,找到最佳前沿点,并规划机器人当前位置到最佳前沿点的全局路径,沿全局路径
Figure DEST_PATH_IMAGE001
将机器人导航至最佳前沿点。该方法充分利用简化广义Voronoi图的特点,将其应用于移动机器人室内自主探索任务,将自主探索问题从二维平面空间转化到拓扑图空间,极大程度地减少了前沿候选点的数量,减少了路径规划的计算量,同时保证生成的全局路径为最优无碰撞路径。同其他方法相比,该发明能够以更快地指导室内机器人自主探索,并且简化广义Voronoi图在具体应用中更加灵活,能够更好的满足移动机器人自主探索任务的要求。

Description

一种基于简化广义Voronoi图的机器人自主探索方法
技术领域
本发明属于自动化技术领域,尤其涉及一种基于简化广义Voronoi图的机器人自主探索方法。
背景技术
由于室内空间的复杂性和结构化特点,移动机器人能够被广泛应用于与建筑勘测相关的任务(例如室内测绘与制图和室内搜索救援),因此在未知空间进行自主探索移动是机器人技术的研究热点之一。自主探索技术可以指导机器人在未知环境下移动并且利用携带的各种传感器来感知环境中的未知事物,以此来完成给定的具体任务。根据现有研究,移动机器人自主探索技术主要在以下四个方面存在困难:(I)如何对环境进行建模;(II)如何决策机器人应该去哪里;(III)如何在可通行空间中找到连接任意两个位置的全局路径;(IV)如何控制机器人追踪路径并进行实时避障。
目前,已经在仿真实验和真实机器人上成功实现了一些可行的方法,其中基于最佳前沿点的方法已经有了较好的效果。前沿点分布在已探索区域和未探索区域的交接处,往往机器人在前沿点的位置很可能可以获取更多的环境信息。最佳前沿点的方法如图2所示,作为背景技术的SLAM算法提供了环境的占据概率栅格地图和机器人位姿;在每一步探索中,通过对环境地图的处理可以得到一系列候选前沿点,对这些候选前沿点进行特征计算和比较能够得到最佳候选点,在环境地图中通过路径规划算法(例如A*算法)能够找到从机器人当前位置到最佳候选点的一条全局路径,最后沿该路径将机器人导航至最佳候选点,这一步探索结束;再次搜索候选前沿点,开始下一步探索,直到没有候选前沿点或最佳候选点不符合要求时,结束自主探索。
然而目前基于最佳前沿点的方法仍存在一些问题。一是生成的候选前沿点数量较大,存在相当大的冗余,对它们进行特征计算和比较会浪费大量的计算时间;二是在栅格地图上的路径查找算法难以满足实时性需求,并且路径往往贴着墙壁,会给移动机器人带来碰撞风险。一些学者提出直接用拓扑地图对环境进行建模,这样可以有效减少候选前沿点的数量,加快路径规划速度,但拓扑地图携带的环境信息十分匮乏,难以有效对候选前沿点进行特征计算和比较。
发明内容
本发明的目的是提供一种通过改进广义Voronoi图并利用其特点,实现移动机器人在未知的室内环境下快速地、安全地、稳健地、完整地探索整个空间的方法。
为实现上述目的,本发明采用的技术方案是:一种基于简化广义Voronoi图的机器人自主探索方法,包括以下步骤:
步骤1、基于形态学方法构建简化广义Voronoi拓扑地图,包括:
步骤1.1、对占据概率栅格地图进行阈值提取,灰度小于经验阈值thobstacle的像素提取为障碍物区域,thobstacle取值50-70;灰度大于经验阈值thfree的像素提取为可通行区域,thfree取值200-220;
步骤1.2、利用形态学闭操作对步骤1.1生成的障碍物区域和可通行区域进行小缝隙填充,利用连通分析去除像素个数小于经验阈值thconn的像素块,thconn取值根据占据概率栅格地图的分辨率和应用需求来确定;利用平滑滤波去除像素块边界的凸起部分,得到平滑的障碍物区域和平滑的可通行区域;
步骤1.3、利用图像细化算法对步骤1.2中平滑的可通行区域进行中心线提取,得到简化广义Voronoi图;
步骤1.4、对步骤1.3得到的简化广义Voronoi图进行拓扑化,采用邻域分析提取简化广义Voronoi图中的节点集合V,利用填充算法找到连接这些节点的边E,并将边长记录在距离矩阵Mdist中,得到可通行区域的拓扑地图
G={V,E,Mdist};
步骤2、找到最佳前沿点,并规划机器人到最佳前沿点的全局路径,包括:
步骤2.1、将拓扑地图G中所有的叶子节点Vleaf作为初始候选前沿点,找到拓扑地图G中离机器人当前位置最近的边e及e的两个节点
Figure BDA0002226027390000031
Figure BDA0002226027390000032
对每个候选点p,在拓扑地图中利用Dijkstra算法,分别查找p到
Figure BDA0002226027390000033
Figure BDA0002226027390000034
的两条路径
Figure BDA0002226027390000035
Figure BDA0002226027390000036
步骤2.2、利用道格拉斯-普克算法对步骤2.1中得到的两条路径进行曲线化简,然后计算两条化简后的路径的长度分别为
Figure BDA0002226027390000037
Figure BDA0002226027390000038
取其中最小值作为p到机器人的距离
Figure BDA0002226027390000039
计算其对应的路径的转弯角度之和T(p);
步骤2.3、在占据概率栅格地图中对每个候选点p,计算其潜在环境信息获取量的估计A(p),计算其传感器感知程度C(p);
步骤2.4、对步骤2.2和2.3中所计算出的候选点的四个特征值D(p)、T(p)、A(p)和C(p)进行归一化,用较低的阈值排除评分极低的候选点,得到候选点集合Pcandidate,若候选点集合为空集,则探索完成;
步骤2.5、利用基于模糊度量函数的多标准决策方法,对候选点集合Pcandidate中的每个候选点进行评价,分数最高的候选点即为最佳前沿点pNBV,机器人当前位置到最佳前沿点的全局路径R={r0,r1,r2,...,pNBV}可在步骤2.2的结果中回溯得到;
步骤3、使用VFF算法沿全局路径R={r0,r1,r2,...,pNBV}导航至最佳前沿点,包括:
步骤3.1、令当前导航目标点为r0,根据激光传感器数据,通过VFF算法实时进行运动规划,将运动规划指令传送给机器人,机器人开始向当前导航目标点r0移动,直到到达r0
步骤3.2、机器人到达全局路径中的某个关键点ri,则令当前导航目标点为ri+1,通过VFF算法实时进行运动规划,机器人继续移动至ri+1,直到到达最佳前沿点pNBV
步骤3.3、返回到步骤1,开始查找下一个最佳前沿点,进行下一阶段探索。
在上述的基于简化广义Voronoi图的机器人自主探索方法中,步骤2.2所述转弯角度之和T(p)计算公式如下:
Figure BDA0002226027390000041
其中,θi=π-∠Di-1DiDi+1,表示第i个转角的角度;
在上述的基于简化广义Voronoi图的机器人自主探索方法中,步骤2.3中采用以下公式计算所述传感器感知程度C(p):
xuc=argminx∈UCDist(p,x),
xc=argminx∈CDist(p,x),
Figure BDA0002226027390000042
其中,集合UC表示未被其他传感器探测过的区域,集合C表示已被其他传感器探测过的区域,xuc表示离候选点p最近的且未被其他传感器探测过的像素点,xc表示离候选点p最近的且已被其他传感器探测过的像素点。
在上述的基于简化广义Voronoi图的机器人自主探索方法中,步骤2.4所述对所计算出的候选点的四个特征值D(p)、T(p)、A(p)和C(p)进行归一化的公式为:
Figure BDA0002226027390000051
Figure BDA0002226027390000052
Figure BDA0002226027390000053
Figure BDA0002226027390000054
在上述的基于简化广义Voronoi图的机器人自主探索方法中,步骤2.5所涉及公式为:
Figure BDA0002226027390000055
其中,子集
Figure BDA0002226027390000056
定义为Aj={Fm,m∈N|uj(p)≤um(p)≤un(p)},μ是一个归一化模糊度量函数,用来定义一组特征的权重,对于候选点p的特征评分向量序列,根据其归一化后的数值大小升序排列,即
0=u0(p)≤u1(p)≤u2(p)≤…≤un(p)≤1。
本发明的有益效果:本发明将机器人在自主探索中的前沿点决策问题和路径规划问题从二维栅格地图转化到拓扑地图。该方法以二维激光SLAM技术为基础,通过一系列图像处理技术,生成占据概率栅格地图的简化广义Voronoi图,作为已探索区域的拓扑地图,该拓扑地图能够以较少的节点和边来表达整个已探索区域的连通性和可达性。该方法充分利用简化广义Voronoi图的特点,将其应用于移动机器人室内自主探索任务,极大程度地减少了前沿候选点的数量,减少了路径规划的计算量,同时保证生成的全局路径为最优无碰撞路径。同其他方法相比,该发明能够以更快地指导室内机器人自主探索,并且简化广义Voronoi图在具体应用中更加灵活,能够更好的满足移动机器人自主探索任务的要求。
附图说明
图1为本发明实施例的机器人室内自主探索的流程图;
图2为基于最佳前沿点方法的自主探索方法主要流程;
图3为本发明实施例中基于简化广义Voronoi图,从占据概率栅格地图中构建环境拓扑地图的主要流程;
图4(a)为本发明实施例中占据概率栅格地图;
图4(b)为本发明实施例中平滑的障碍物区域示意图;
图4(c)为本发明实施例中平滑的可通行区域示意图;
图5为本发明实施例中的一个基于简化广义Voronoi图的环境拓扑地图;
图6(a)为本发明实施例中的一条全局路径计算方法示意图;
图6(b)为本发明实施例中的路径弯曲度计算方法示意图;
图7(a)为本发明实施例每个候选点p,用射线方法计算其潜在环境信息获取量的估计A(p)示意图;
图7(b)为本发明实施例中机器人搭载的其他传感器的覆盖范围和计算其传感器感知程度C(p)示意图;
图8为本发明实施例中的机器人室内自主探索过程示意图。
具体实施方式
下面结合附图对本发明的实施方式进行详细描述。
本实施例提供一种适用于室内场景的移动机器人自主探索方法,从占据概率栅格地图中生成拓扑地图,结合两种环境地图各自的优势来设计和实现移动机器人室内自主探索方法。本实施例通过以下技术方案来实现,基于形态学方法构建简化广义Voronoi拓扑地图,找到最佳前沿点,并规划机器人当前位置到最佳前沿点的全局路径,沿全局路径R={r0,r1,r2,...,pNBV}将机器人导航至最佳前沿点。如图1所示。该方法充分利用简化广义Voronoi图的特点,将其应用于移动机器人室内自主探索任务,将自主探索问题从二维平面空间转化到拓扑图空间,极大程度地减少了前沿候选点的数量,减少了路径规划的计算量,同时保证生成的全局路径为最优无碰撞路径。同其他方法相比,该发明能够以更快地指导室内机器人自主探索,并且简化广义Voronoi图在具体应用中更加灵活,能够更好的满足移动机器人自主探索任务的要求。
具体实施时,一种基于简化广义Voronoi图的机器人自主探索方法,适用于移动机器人在未知的室内空间进行室内测绘、搜索与救援任务等。步骤如下:
S1,基于形态学方法的简化广义Voronoi拓扑地图构建,如图3所示,包括以下子步骤:
S1.1,对如图4(a)所示的占据概率栅格地图进行阈值提取,灰度小于经验阈值thobstacle的像素提取为障碍物区域,thobstacle通常取50-70;灰度大于经验值thfree的像素提取为可通行区域,thfree通常取200-220;
S1.2,利用形态学闭操作对上述S1.1生成的障碍物区域和可通行区域进行小缝隙填充,利用连通分析去除像素个数小于经验阈值thconn的像素块,thconn根据占据概率栅格地图的分辨率和应用需求来确定,本实施例中,占据概率栅格地图的一个像素代表0.05m×0.05m的区域,thconn取40。利用平滑滤波去除像素块边界的凸起部分,得到如图4(b)所示的平滑的障碍物区域,和如图4(c)所示的平滑的可通行区域;
S1.3,利用侵蚀边缘像素的图像细化算法对S1.2中平滑的可通行区域进行中心线提取,得到简化广义Voronoi图,形式为栅格图像上连续不断的、宽度为1的网络图形;
S1.4,对S1.3中得到的简化广义Voronoi图进行拓扑化,采用邻域分析提取简化广义Voronoi图中的节点集合V,利用填充算法(flood-fill)找到连接这些节点的边E,并将边长记录在距离矩阵Mdist中,得到可通行区域的拓扑地图G={V,E,Mdist},如图5所示。
S2,找到最佳前沿点,并规划机器人到最佳前沿点的全局路径,包括以下子步骤:
S2.1,将拓扑地图G中所有的叶子节点Vleaf作为初始候选前沿点,找到G中离机器人当前位置最近的边e及e的两个节点
Figure BDA0002226027390000081
Figure BDA0002226027390000082
对每个候选点p,在拓扑地图中利用Dijkstra算法,分别查找p到
Figure BDA0002226027390000083
Figure BDA0002226027390000084
的两条路径
Figure BDA0002226027390000085
Figure BDA0002226027390000086
S2.2,利用道格拉斯-普克算法对S2.1中得到的两条路径进行曲线化简,然后计算两条化简后的路径的长度分别为
Figure BDA0002226027390000087
Figure BDA0002226027390000088
如图6(a)取其中最小值作为p到机器人的距离
Figure BDA0002226027390000089
计算其对应的路径的转弯角度之和T(p);如图6(b)和以下公式:
Figure BDA00022260273900000810
其中,θi=π-∠Di-1DiDi+1,表示第i个转角的角度。
S2.3,在占据概率栅格地图中对每个候选点p,如图7(a)所示的射线方法计算其潜在环境信息获取量的估计A(p),图7(b)表示了机器人搭载的其他传感器(例如全景相机、激光雷达、生物探测器等)的覆盖范围和下方公式计算其传感器感知程度C(p);
xuc=argminx∈UCDist(p,x),
xc=argminx∈CDist(p,x),
Figure BDA0002226027390000091
其中,其中集合UC表示未被其他传感器探测过的区域,集合C表示已被其他传感器探测过的区域,xuc表示离候选点p最近的且未被其他传感器探测过的像素点,xc表示离候选点p最近的且已被其他传感器探测过的点。
S2.4,通过以下公式对S2.2和S2.3中所计算出的候选点的四个特征值D(p)、T(p)、A(p)和C(p)进行归一化,构建候选点的特征评分向量U(pi)=(u1(pi),u2(pi),...,un(pi)),用较低的阈值排除评分极低的候选点,得到候选点集合Pcandidate,若候选点集合为空集,则探索完成完成;
Figure BDA0002226027390000092
Figure BDA0002226027390000093
Figure BDA0002226027390000094
Figure BDA0002226027390000095
S2.5,利用基于模糊度量函数的多标准决策方法,采用下方公式对候选点集合Pcandidate中的每个候选点进行评价,分数最高的候选点即为最佳前沿点pNBV,机器人当前位置到最佳前沿点的全局路径R={r0,r1,r2,...pNBV}可在S2.2的结果中回溯得到。
Figure BDA0002226027390000101
其中,子集
Figure BDA0002226027390000102
定义为Aj={Fm,m∈N|uj(p)≤um(p)≤un(p)},μ是一个归一化模糊度量函数,用来定义一组特征的权重,对于候选点p的特征评分向量序列,根据其归一化后的数值大小升序排列,即
0=u0(p)≤u1(p)≤u2(p)≤...≤un(p)≤1。
S3,使用虚拟力场(visual force field,VFF)局部避障算法沿全局路径R={r0,r1,r2,...,pNBV}导航至最佳前沿点,具体步骤如下:
S3.1,令当前导航目标点为r0,根据激光传感器数据,通过VFF算法实时进行运动规划,将运动规划指令传送给机器人,机器人开始向当前导航目标点r0移动,直到到达r0
S3.2,机器人到达全局路径中的某个关键点ri,则令当前导航目标点为ri+1,通过VFF算法实时进行运动规划,机器人继续移动至ri+1,直到到达最佳前沿点pNBV
S3.3,回到S1,开始查找下一个最佳前沿点,进行下一阶段探索。图8所示为室内环境探索任务进度示意图。
本实施例实现了一种基于简化广义Voronoi图的方法,广义Voronoi图可以看作是地图中可通行区域的中心线,由广义Voronoi图生成的拓扑地图能够表达整个可通行区域的连通性和可达性。本实施例提出的简化广义Voronoi图在此基础上剔除了图中冗余的边和节点,使得整个拓扑地图能够以较少数量的边和节点来表达几乎一样的环境信息,简化广义Voronoi图的叶子节点可作为候选前沿点,边可作为路径规划的初始空间,减少了需要计算的目标数量,极大程度上降低了算法的空间复杂度和时间复杂度,可以满足移动机器人室内自主探索的功能性、实时性、完整性需求。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
虽然以上结合附图描述了本发明的具体实施方式,但是本领域普通技术人员应当理解,这些仅是举例说明,可以对这些实施方式做出多种变形或修改,而不背离本发明的原理和实质。本发明的范围仅由所附权利要求书限定。

Claims (5)

1.一种基于简化广义Voronoi图的机器人自主探索方法,其特征是,包括以下步骤:
步骤1、基于形态学方法构建简化广义Voronoi拓扑地图,包括:
步骤1.1、对占据概率栅格地图进行阈值提取,灰度小于经验阈值thobstacle的像素提取为障碍物区域,thobstacle取值50-70;灰度大于经验阈值thfree的像素提取为可通行区域,thfree取值200-220;
步骤1.2、利用形态学闭操作对步骤1.1生成的障碍物区域和可通行区域进行小缝隙填充,利用连通分析去除像素个数小于经验阈值thconn的像素块,thconn取值根据占据概率栅格地图的分辨率和应用需求来确定;利用平滑滤波去除像素块边界的凸起部分,得到平滑的障碍物区域和平滑的可通行区域;
步骤1.3、利用图像细化算法对步骤1.2中平滑的可通行区域进行中心线提取,得到简化广义Voronoi图;
步骤1.4、对步骤1.3得到的简化广义Voronoi图进行拓扑化,采用邻域分析提取简化广义Voronoi图中的节点集合V,利用填充算法找到连接这些节点的边集合E,并将边长记录在距离矩阵Mdist中,得到可通行区域的拓扑地图G={V,E,Mdist};
步骤2、找到最佳前沿点,并规划机器人到最佳前沿点的全局路径,包括:
步骤2.1、将拓扑地图G中所有的叶子节点Vleaf作为初始候选前沿点,找到拓扑地图G中离机器人当前位置最近的边e及e的两个节点
Figure FDA0003112344730000011
Figure FDA0003112344730000012
e为集合E中的一个元素,即一条边;对每个候选点p,在拓扑地图中利用Dijkstra算法,分别查找p到
Figure FDA0003112344730000013
Figure FDA0003112344730000014
的两条路径
Figure FDA0003112344730000015
Figure FDA0003112344730000016
步骤2.2、利用道格拉斯-普克算法对步骤2.1中得到的两条路径进行曲线化简,然后计算两条化简后的路径的长度分别为
Figure FDA0003112344730000021
Figure FDA0003112344730000022
取其中最小值作为p到机器人的距离
Figure FDA0003112344730000023
计算其对应的路径的转弯角度之和T(p);
步骤2.3、在占据概率栅格地图中对每个候选点p,计算其潜在环境信息获取量的估计A(p),计算其传感器感知程度C(p);
步骤2.4、对步骤2.2和2.3中所计算出的候选点的四个特征值D(p)、T(p)、A(p)和C(p)进行归一化,用较低的阈值排除评分极低的候选点,得到候选点集合Pcandidate,若候选点集合为空集,则探索完成;
步骤2.5、利用基于模糊度量函数的多标准决策方法,对候选点集合Pcandidate中的每个候选点进行评价,分数最高的候选点即为最佳前沿点pNBV,机器人当前位置到最佳前沿点的全局路径R={r0,r1,r2,...,pNBV}可在步骤2.2的结果中回溯得到;
步骤3、使用虚拟力场VFF算法沿全局路径R={r0,r1,r2,...,pNBV}导航至最佳前沿点,包括:
步骤3.1、令当前导航目标点为r0,根据激光传感器数据,通过VFF算法实时进行运动规划,将运动规划指令传送给机器人,机器人开始向当前导航目标点r0移动,直到到达r0
步骤3.2、机器人到达全局路径中的某个关键点ri,则令当前导航目标点为ri+1,通过VFF算法实时进行运动规划,机器人继续移动至ri+1,直到到达最佳前沿点pNBV
步骤3.3、返回到步骤1,开始查找下一个最佳前沿点,进行下一阶段探索。
2.如权利要求1所述的基于简化广义Voronoi图的机器人自主探索方法,其特征是,步骤2.2所述转弯角度之和T(p)计算公式如下:
Figure FDA0003112344730000031
其中,θi=π-∠Di-1DiDi+1,表示第i个转角的角度。
3.如权利要求1所述的基于简化广义Voronoi图的机器人自主探索方法,其特征是,步骤2.3中采用以下公式计算所述传感器感知程度C(p):
xuc=argminx∈UCDist(p,x),
xc=argminx∈CDist(p,x),
Figure FDA0003112344730000032
其中,集合UC表示未被其他传感器探测过的区域,集合C表示已被其他传感器探测过的区域,xuc表示离候选点p最近的且未被其他传感器探测过的像素点,xc表示离候选点p最近的且已被其他传感器探测过的像素点;函数Dist(p,x)表示点p与点x之间的欧氏距离;函数-Dist(p,xuc)表示点p与点xuc之间的欧氏距离的相反数;函数Dist(p,xu)表示点p与点xu之间的欧氏距离。
4.如权利要求1所述的基于简化广义Voronoi图的机器人自主探索方法,其特征是,步骤2.4所述对步骤2.2和2.3中所计算出的候选点的四个特征值D(p)、T(p)、A(p)和C(p)进行归一化的公式为:
Figure FDA0003112344730000033
Figure FDA0003112344730000034
Figure FDA0003112344730000035
Figure FDA0003112344730000036
其中,CP表示候选点集合,q表示其中一个候选点。
5.如权利要求1所述的基于简化广义Voronoi图的机器人自主探索方法,其特征是,步骤2.5所涉及公式为:
Figure FDA0003112344730000041
其中,子集
Figure FDA0003112344730000042
定义为Aj={Fm,m∈N|uj(p)≤um(p)≤un(p)},μ是一个归一化模糊度量函数,用来定义一组特征的权重,对于候选点p的特征评分向量序列,根据其归一化后的数值大小升序排列,即0=u0(p)≤u1(p)≤u2(p)≤...≤un(p)≤1;Fm表示第m个特征值,即四个特征值A(p)、D(p)、T(p)、C(p)其中的一个。
CN201910951962.8A 2019-10-09 2019-10-09 一种基于简化广义Voronoi图的机器人自主探索方法 Active CN110703747B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910951962.8A CN110703747B (zh) 2019-10-09 2019-10-09 一种基于简化广义Voronoi图的机器人自主探索方法
US16/994,702 US11567502B2 (en) 2019-10-09 2020-08-17 Autonomous exploration framework for indoor mobile robotics using reduced approximated generalized Voronoi graph

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910951962.8A CN110703747B (zh) 2019-10-09 2019-10-09 一种基于简化广义Voronoi图的机器人自主探索方法

Publications (2)

Publication Number Publication Date
CN110703747A CN110703747A (zh) 2020-01-17
CN110703747B true CN110703747B (zh) 2021-08-03

Family

ID=69198341

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910951962.8A Active CN110703747B (zh) 2019-10-09 2019-10-09 一种基于简化广义Voronoi图的机器人自主探索方法

Country Status (2)

Country Link
US (1) US11567502B2 (zh)
CN (1) CN110703747B (zh)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108012326B (zh) * 2017-12-07 2019-06-11 珠海市一微半导体有限公司 基于栅格地图的机器人监视宠物的方法及芯片
CN111061729B (zh) * 2019-11-29 2021-04-16 武汉大学 顾及粒度的矢量瓦片组织方法
CN111836199B (zh) * 2020-06-01 2021-06-29 同济大学 一种室内导航动态避障寻径方法
CN111966097A (zh) * 2020-08-12 2020-11-20 深圳华芯信息技术股份有限公司 基于栅格地图区域化探索的建图方法、系统以及终端
CN111942374A (zh) * 2020-08-14 2020-11-17 中国第一汽车股份有限公司 一种障碍物地图生成方法、装置、车辆及存储介质
US11216005B1 (en) * 2020-10-06 2022-01-04 Accenture Global Solutions Limited Generating a point cloud capture plan
US11885638B2 (en) 2020-12-28 2024-01-30 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for generating a map for a robot
CN112884858A (zh) * 2021-02-05 2021-06-01 明峰医疗系统股份有限公司 Pet探测器的位置信息的分区方法及计算机可读存储介质
CN113110528A (zh) * 2021-04-14 2021-07-13 湖南国天电子科技有限公司 一种水下自主航行机器人自动返航方法及装置
CN113156970B (zh) * 2021-05-08 2023-06-09 珠海一微半导体股份有限公司 一种通行区域的路径融合规划方法、机器人及芯片
CN113325843B (zh) * 2021-05-21 2022-03-18 杭州电子科技大学 一种基于多智能体覆盖的污染检测方法
CN113110522B (zh) * 2021-05-27 2022-07-08 福州大学 一种基于复合式边界检测的机器人自主探索方法
CN113455965B (zh) * 2021-06-30 2022-05-27 广州科语机器人有限公司 清洁机器人控制方法、装置、介质和清洁机器人
CN113342002B (zh) * 2021-07-05 2022-05-20 湖南大学 基于拓扑地图的多移动机器人调度方法及系统
CN113479655B (zh) * 2021-07-07 2022-11-01 江苏杰瑞信息科技有限公司 一种基于模糊路径的车辆调度方法
CN113837059B (zh) * 2021-09-22 2023-12-19 哈尔滨工程大学 一种规劝行人及时佩戴口罩的巡视车及其控制方法
CN113805590A (zh) * 2021-09-23 2021-12-17 云南民族大学 一种基于边界驱动的室内机器人自主探索方法及系统
CN114089752A (zh) * 2021-11-11 2022-02-25 深圳市杉川机器人有限公司 机器人的自主探索方法、机器人及计算机可读存储介质
CN114355888B (zh) * 2021-12-07 2023-09-26 西安交通大学 基于直骨架的室内多级拓扑地图的自动生成方法及系统
CN114397894A (zh) * 2021-12-29 2022-04-26 杭州电子科技大学 一种模仿人类记忆的移动机器人目标搜索方法
CN114509085B (zh) * 2022-02-10 2022-11-01 中国电子科技集团公司第五十四研究所 一种结合栅格和拓扑地图的快速路径搜索方法
CN114596360B (zh) * 2022-02-22 2023-06-27 北京理工大学 一种基于图拓扑的双阶段主动即时定位与建图算法
CN114812539B (zh) * 2022-06-21 2022-11-18 杭州涂鸦信息技术有限公司 地图探索、地图使用方法、装置、机器人和存储介质
CN115129057A (zh) * 2022-07-07 2022-09-30 福州大学 基于通行效率评估的机器人分层式自主探索方法
CN115206157A (zh) * 2022-08-05 2022-10-18 白杨时代(北京)科技有限公司 一种无人潜航器寻路训练方法、装置及无人潜航器
CN115060281B (zh) * 2022-08-16 2023-01-03 浙江光珀智能科技有限公司 一种基于voronoi图的全局路径引导点生成规划方法
CN115469662B (zh) * 2022-09-13 2023-07-07 苏州大学 一种环境探索方法、装置及应用
CN115200588B (zh) * 2022-09-14 2023-01-06 煤炭科学研究总院有限公司 移动机器人的slam自主导航方法及其装置
CN115265577B (zh) * 2022-09-30 2023-02-10 北京智行者科技股份有限公司 基于维诺图的拓扑关系构建方法、系统及移动工具

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032196A (ja) * 2003-07-11 2005-02-03 Japan Science & Technology Agency 移動ロボット用経路計画システム
CN101943916A (zh) * 2010-09-07 2011-01-12 陕西科技大学 一种基于卡尔曼滤波器预测的机器人避障方法
CN104898660A (zh) * 2015-03-27 2015-09-09 中国科学技术大学 一种提高机器人路径规划效率的室内地图构建方法
CN106197421A (zh) * 2016-06-24 2016-12-07 北京工业大学 一种用于移动机器人自主探索的前沿目标点生成方法
CN106931975A (zh) * 2017-04-14 2017-07-07 北京航空航天大学 一种基于语义地图的移动机器人多策略路径规划方法
CN108549388A (zh) * 2018-05-24 2018-09-18 苏州智伟达机器人科技有限公司 一种基于改进a星策略的移动机器人路径规划方法
CN109213169A (zh) * 2018-09-20 2019-01-15 湖南万为智能机器人技术有限公司 移动机器人的路径规划方法
CN109737980A (zh) * 2018-12-29 2019-05-10 上海岚豹智能科技有限公司 一种导航方法及其对应的机器人

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101413806B (zh) * 2008-11-07 2011-05-25 湖南大学 一种实时数据融合的移动机器人栅格地图创建方法
CN107066507B (zh) * 2017-01-10 2019-09-17 中国人民解放军国防科学技术大学 一种基于云机器人混合云架构的语义地图构建方法
US11314254B2 (en) * 2019-03-26 2022-04-26 Intel Corporation Methods and apparatus for dynamically routing robots based on exploratory on-board mapping
KR102302575B1 (ko) * 2019-07-16 2021-09-14 엘지전자 주식회사 이동 로봇 및 그 제어방법

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005032196A (ja) * 2003-07-11 2005-02-03 Japan Science & Technology Agency 移動ロボット用経路計画システム
CN101943916A (zh) * 2010-09-07 2011-01-12 陕西科技大学 一种基于卡尔曼滤波器预测的机器人避障方法
CN104898660A (zh) * 2015-03-27 2015-09-09 中国科学技术大学 一种提高机器人路径规划效率的室内地图构建方法
CN106197421A (zh) * 2016-06-24 2016-12-07 北京工业大学 一种用于移动机器人自主探索的前沿目标点生成方法
CN106931975A (zh) * 2017-04-14 2017-07-07 北京航空航天大学 一种基于语义地图的移动机器人多策略路径规划方法
CN108549388A (zh) * 2018-05-24 2018-09-18 苏州智伟达机器人科技有限公司 一种基于改进a星策略的移动机器人路径规划方法
CN109213169A (zh) * 2018-09-20 2019-01-15 湖南万为智能机器人技术有限公司 移动机器人的路径规划方法
CN109737980A (zh) * 2018-12-29 2019-05-10 上海岚豹智能科技有限公司 一种导航方法及其对应的机器人

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Defining effective exploration strategies for search and rescue applications with Multi-Criteria Decision Making;Nicola Basilico 等;《2011 IEEE International Conference on Robotics and Automation》;20110815;第4260-4265页全文 *
Matching Annotated Generalized Voronoi Graphs for Autonomous Robot Localization and Mapping;Jan Oliver Wallgrün;《2009 Sixth International Symposium on Voronoi Diagrams》;20091228;第202-211页全文 *
基于Voronoi图法的移动机器人路径规划;许松清 等;《中国工程机械学报》;20050731;第3卷(第3期);第336-340页全文 *
移动机器人避障与轨迹规划;余冬冬;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170815(第08期);第I140-196页全文 *

Also Published As

Publication number Publication date
US20210109537A1 (en) 2021-04-15
CN110703747A (zh) 2020-01-17
US11567502B2 (en) 2023-01-31

Similar Documents

Publication Publication Date Title
CN110703747B (zh) 一种基于简化广义Voronoi图的机器人自主探索方法
KR102192791B1 (ko) 이동 로봇 및 이동 로봇의 제어방법
EP3405845B1 (en) Object-focused active three-dimensional reconstruction
Kim et al. Continuous occupancy maps using overlapping local Gaussian processes
JP2012064131A (ja) 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置
CN114237235B (zh) 一种基于深度强化学习的移动机器人避障方法
WO2022031232A1 (en) Method and device for point cloud based object recognition
Gao et al. A vision-based irregular obstacle avoidance framework via deep reinforcement learning
CN113420648A (zh) 一种具有旋转适应性的目标检测方法及系统
JP4449410B2 (ja) ロボット装置及びその物体学習方法
Lee et al. SLAM of a mobile robot using thinning-based topological information
Hong et al. Real-time visual-based localization for mobile robot using structured-view deep learning
KR101107735B1 (ko) 카메라 포즈 결정 방법
Lu et al. An optimal frontier enhanced “next best view” planner for autonomous exploration
CN114815899A (zh) 基于3d激光雷达传感器的无人机三维空间路径规划方法
CN114310872B (zh) 一种基于dgg点云分割网络的机械臂自动打菜方法
KR102331803B1 (ko) 시각 및 언어 기반 공간 탐색 시스템
Garrote et al. Hmaps-hybrid height-voxel maps for environment representation
CN113064422A (zh) 基于双神经网络强化学习的自主水下航行器路径规划方法
Redondo et al. A compact representation of the environment and its frontiers for autonomous vehicle navigation
Kim et al. Cooperative sensor-based selective graph exploration strategy for a team of quadrotors
CN116048120B (zh) 一种未知动态环境下小型四旋翼无人机自主导航系统及方法
Li et al. Object-Aware View Planning for Autonomous 3D Model Reconstruction of Buildings Using a Mobile Robot
Liu et al. Symmetry-aware neural architecture for embodied visual exploration
Muravyev et al. PRISM-TopoMap: Online Topological Mapping with Place Recognition and Scan Matching

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant