CN110703747B - 一种基于简化广义Voronoi图的机器人自主探索方法 - Google Patents
一种基于简化广义Voronoi图的机器人自主探索方法 Download PDFInfo
- Publication number
- CN110703747B CN110703747B CN201910951962.8A CN201910951962A CN110703747B CN 110703747 B CN110703747 B CN 110703747B CN 201910951962 A CN201910951962 A CN 201910951962A CN 110703747 B CN110703747 B CN 110703747B
- Authority
- CN
- China
- Prior art keywords
- point
- robot
- candidate
- voronoi diagram
- generalized voronoi
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0214—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Abstract
本发明属于自动化技术,具体涉及一种基于简化广义Voronoi图的机器人自主探索方法,包括以下步骤:基于形态学方法构建简化广义Voronoi拓扑地图,找到最佳前沿点,并规划机器人当前位置到最佳前沿点的全局路径,沿全局路径将机器人导航至最佳前沿点。该方法充分利用简化广义Voronoi图的特点,将其应用于移动机器人室内自主探索任务,将自主探索问题从二维平面空间转化到拓扑图空间,极大程度地减少了前沿候选点的数量,减少了路径规划的计算量,同时保证生成的全局路径为最优无碰撞路径。同其他方法相比,该发明能够以更快地指导室内机器人自主探索,并且简化广义Voronoi图在具体应用中更加灵活,能够更好的满足移动机器人自主探索任务的要求。
Description
技术领域
本发明属于自动化技术领域,尤其涉及一种基于简化广义Voronoi图的机器人自主探索方法。
背景技术
由于室内空间的复杂性和结构化特点,移动机器人能够被广泛应用于与建筑勘测相关的任务(例如室内测绘与制图和室内搜索救援),因此在未知空间进行自主探索移动是机器人技术的研究热点之一。自主探索技术可以指导机器人在未知环境下移动并且利用携带的各种传感器来感知环境中的未知事物,以此来完成给定的具体任务。根据现有研究,移动机器人自主探索技术主要在以下四个方面存在困难:(I)如何对环境进行建模;(II)如何决策机器人应该去哪里;(III)如何在可通行空间中找到连接任意两个位置的全局路径;(IV)如何控制机器人追踪路径并进行实时避障。
目前,已经在仿真实验和真实机器人上成功实现了一些可行的方法,其中基于最佳前沿点的方法已经有了较好的效果。前沿点分布在已探索区域和未探索区域的交接处,往往机器人在前沿点的位置很可能可以获取更多的环境信息。最佳前沿点的方法如图2所示,作为背景技术的SLAM算法提供了环境的占据概率栅格地图和机器人位姿;在每一步探索中,通过对环境地图的处理可以得到一系列候选前沿点,对这些候选前沿点进行特征计算和比较能够得到最佳候选点,在环境地图中通过路径规划算法(例如A*算法)能够找到从机器人当前位置到最佳候选点的一条全局路径,最后沿该路径将机器人导航至最佳候选点,这一步探索结束;再次搜索候选前沿点,开始下一步探索,直到没有候选前沿点或最佳候选点不符合要求时,结束自主探索。
然而目前基于最佳前沿点的方法仍存在一些问题。一是生成的候选前沿点数量较大,存在相当大的冗余,对它们进行特征计算和比较会浪费大量的计算时间;二是在栅格地图上的路径查找算法难以满足实时性需求,并且路径往往贴着墙壁,会给移动机器人带来碰撞风险。一些学者提出直接用拓扑地图对环境进行建模,这样可以有效减少候选前沿点的数量,加快路径规划速度,但拓扑地图携带的环境信息十分匮乏,难以有效对候选前沿点进行特征计算和比较。
发明内容
本发明的目的是提供一种通过改进广义Voronoi图并利用其特点,实现移动机器人在未知的室内环境下快速地、安全地、稳健地、完整地探索整个空间的方法。
为实现上述目的,本发明采用的技术方案是:一种基于简化广义Voronoi图的机器人自主探索方法,包括以下步骤:
步骤1、基于形态学方法构建简化广义Voronoi拓扑地图,包括:
步骤1.1、对占据概率栅格地图进行阈值提取,灰度小于经验阈值thobstacle的像素提取为障碍物区域,thobstacle取值50-70;灰度大于经验阈值thfree的像素提取为可通行区域,thfree取值200-220;
步骤1.2、利用形态学闭操作对步骤1.1生成的障碍物区域和可通行区域进行小缝隙填充,利用连通分析去除像素个数小于经验阈值thconn的像素块,thconn取值根据占据概率栅格地图的分辨率和应用需求来确定;利用平滑滤波去除像素块边界的凸起部分,得到平滑的障碍物区域和平滑的可通行区域;
步骤1.3、利用图像细化算法对步骤1.2中平滑的可通行区域进行中心线提取,得到简化广义Voronoi图;
步骤1.4、对步骤1.3得到的简化广义Voronoi图进行拓扑化,采用邻域分析提取简化广义Voronoi图中的节点集合V,利用填充算法找到连接这些节点的边E,并将边长记录在距离矩阵Mdist中,得到可通行区域的拓扑地图
G={V,E,Mdist};
步骤2、找到最佳前沿点,并规划机器人到最佳前沿点的全局路径,包括:
步骤2.1、将拓扑地图G中所有的叶子节点Vleaf作为初始候选前沿点,找到拓扑地图G中离机器人当前位置最近的边e及e的两个节点和对每个候选点p,在拓扑地图中利用Dijkstra算法,分别查找p到和的两条路径和
步骤2.3、在占据概率栅格地图中对每个候选点p,计算其潜在环境信息获取量的估计A(p),计算其传感器感知程度C(p);
步骤2.4、对步骤2.2和2.3中所计算出的候选点的四个特征值D(p)、T(p)、A(p)和C(p)进行归一化,用较低的阈值排除评分极低的候选点,得到候选点集合Pcandidate,若候选点集合为空集,则探索完成;
步骤2.5、利用基于模糊度量函数的多标准决策方法,对候选点集合Pcandidate中的每个候选点进行评价,分数最高的候选点即为最佳前沿点pNBV,机器人当前位置到最佳前沿点的全局路径R={r0,r1,r2,...,pNBV}可在步骤2.2的结果中回溯得到;
步骤3、使用VFF算法沿全局路径R={r0,r1,r2,...,pNBV}导航至最佳前沿点,包括:
步骤3.1、令当前导航目标点为r0,根据激光传感器数据,通过VFF算法实时进行运动规划,将运动规划指令传送给机器人,机器人开始向当前导航目标点r0移动,直到到达r0;
步骤3.2、机器人到达全局路径中的某个关键点ri,则令当前导航目标点为ri+1,通过VFF算法实时进行运动规划,机器人继续移动至ri+1,直到到达最佳前沿点pNBV;
步骤3.3、返回到步骤1,开始查找下一个最佳前沿点,进行下一阶段探索。
在上述的基于简化广义Voronoi图的机器人自主探索方法中,步骤2.2所述转弯角度之和T(p)计算公式如下:
其中,θi=π-∠Di-1DiDi+1,表示第i个转角的角度;
在上述的基于简化广义Voronoi图的机器人自主探索方法中,步骤2.3中采用以下公式计算所述传感器感知程度C(p):
xuc=argminx∈UCDist(p,x),
xc=argminx∈CDist(p,x),
其中,集合UC表示未被其他传感器探测过的区域,集合C表示已被其他传感器探测过的区域,xuc表示离候选点p最近的且未被其他传感器探测过的像素点,xc表示离候选点p最近的且已被其他传感器探测过的像素点。
在上述的基于简化广义Voronoi图的机器人自主探索方法中,步骤2.4所述对所计算出的候选点的四个特征值D(p)、T(p)、A(p)和C(p)进行归一化的公式为:
在上述的基于简化广义Voronoi图的机器人自主探索方法中,步骤2.5所涉及公式为:
0=u0(p)≤u1(p)≤u2(p)≤…≤un(p)≤1。
本发明的有益效果:本发明将机器人在自主探索中的前沿点决策问题和路径规划问题从二维栅格地图转化到拓扑地图。该方法以二维激光SLAM技术为基础,通过一系列图像处理技术,生成占据概率栅格地图的简化广义Voronoi图,作为已探索区域的拓扑地图,该拓扑地图能够以较少的节点和边来表达整个已探索区域的连通性和可达性。该方法充分利用简化广义Voronoi图的特点,将其应用于移动机器人室内自主探索任务,极大程度地减少了前沿候选点的数量,减少了路径规划的计算量,同时保证生成的全局路径为最优无碰撞路径。同其他方法相比,该发明能够以更快地指导室内机器人自主探索,并且简化广义Voronoi图在具体应用中更加灵活,能够更好的满足移动机器人自主探索任务的要求。
附图说明
图1为本发明实施例的机器人室内自主探索的流程图;
图2为基于最佳前沿点方法的自主探索方法主要流程;
图3为本发明实施例中基于简化广义Voronoi图,从占据概率栅格地图中构建环境拓扑地图的主要流程;
图4(a)为本发明实施例中占据概率栅格地图;
图4(b)为本发明实施例中平滑的障碍物区域示意图;
图4(c)为本发明实施例中平滑的可通行区域示意图;
图5为本发明实施例中的一个基于简化广义Voronoi图的环境拓扑地图;
图6(a)为本发明实施例中的一条全局路径计算方法示意图;
图6(b)为本发明实施例中的路径弯曲度计算方法示意图;
图7(a)为本发明实施例每个候选点p,用射线方法计算其潜在环境信息获取量的估计A(p)示意图;
图7(b)为本发明实施例中机器人搭载的其他传感器的覆盖范围和计算其传感器感知程度C(p)示意图;
图8为本发明实施例中的机器人室内自主探索过程示意图。
具体实施方式
下面结合附图对本发明的实施方式进行详细描述。
本实施例提供一种适用于室内场景的移动机器人自主探索方法,从占据概率栅格地图中生成拓扑地图,结合两种环境地图各自的优势来设计和实现移动机器人室内自主探索方法。本实施例通过以下技术方案来实现,基于形态学方法构建简化广义Voronoi拓扑地图,找到最佳前沿点,并规划机器人当前位置到最佳前沿点的全局路径,沿全局路径R={r0,r1,r2,...,pNBV}将机器人导航至最佳前沿点。如图1所示。该方法充分利用简化广义Voronoi图的特点,将其应用于移动机器人室内自主探索任务,将自主探索问题从二维平面空间转化到拓扑图空间,极大程度地减少了前沿候选点的数量,减少了路径规划的计算量,同时保证生成的全局路径为最优无碰撞路径。同其他方法相比,该发明能够以更快地指导室内机器人自主探索,并且简化广义Voronoi图在具体应用中更加灵活,能够更好的满足移动机器人自主探索任务的要求。
具体实施时,一种基于简化广义Voronoi图的机器人自主探索方法,适用于移动机器人在未知的室内空间进行室内测绘、搜索与救援任务等。步骤如下:
S1,基于形态学方法的简化广义Voronoi拓扑地图构建,如图3所示,包括以下子步骤:
S1.1,对如图4(a)所示的占据概率栅格地图进行阈值提取,灰度小于经验阈值thobstacle的像素提取为障碍物区域,thobstacle通常取50-70;灰度大于经验值thfree的像素提取为可通行区域,thfree通常取200-220;
S1.2,利用形态学闭操作对上述S1.1生成的障碍物区域和可通行区域进行小缝隙填充,利用连通分析去除像素个数小于经验阈值thconn的像素块,thconn根据占据概率栅格地图的分辨率和应用需求来确定,本实施例中,占据概率栅格地图的一个像素代表0.05m×0.05m的区域,thconn取40。利用平滑滤波去除像素块边界的凸起部分,得到如图4(b)所示的平滑的障碍物区域,和如图4(c)所示的平滑的可通行区域;
S1.3,利用侵蚀边缘像素的图像细化算法对S1.2中平滑的可通行区域进行中心线提取,得到简化广义Voronoi图,形式为栅格图像上连续不断的、宽度为1的网络图形;
S1.4,对S1.3中得到的简化广义Voronoi图进行拓扑化,采用邻域分析提取简化广义Voronoi图中的节点集合V,利用填充算法(flood-fill)找到连接这些节点的边E,并将边长记录在距离矩阵Mdist中,得到可通行区域的拓扑地图G={V,E,Mdist},如图5所示。
S2,找到最佳前沿点,并规划机器人到最佳前沿点的全局路径,包括以下子步骤:
S2.2,利用道格拉斯-普克算法对S2.1中得到的两条路径进行曲线化简,然后计算两条化简后的路径的长度分别为和如图6(a)取其中最小值作为p到机器人的距离计算其对应的路径的转弯角度之和T(p);如图6(b)和以下公式:
其中,θi=π-∠Di-1DiDi+1,表示第i个转角的角度。
S2.3,在占据概率栅格地图中对每个候选点p,如图7(a)所示的射线方法计算其潜在环境信息获取量的估计A(p),图7(b)表示了机器人搭载的其他传感器(例如全景相机、激光雷达、生物探测器等)的覆盖范围和下方公式计算其传感器感知程度C(p);
xuc=argminx∈UCDist(p,x),
xc=argminx∈CDist(p,x),
其中,其中集合UC表示未被其他传感器探测过的区域,集合C表示已被其他传感器探测过的区域,xuc表示离候选点p最近的且未被其他传感器探测过的像素点,xc表示离候选点p最近的且已被其他传感器探测过的点。
S2.4,通过以下公式对S2.2和S2.3中所计算出的候选点的四个特征值D(p)、T(p)、A(p)和C(p)进行归一化,构建候选点的特征评分向量U(pi)=(u1(pi),u2(pi),...,un(pi)),用较低的阈值排除评分极低的候选点,得到候选点集合Pcandidate,若候选点集合为空集,则探索完成完成;
S2.5,利用基于模糊度量函数的多标准决策方法,采用下方公式对候选点集合Pcandidate中的每个候选点进行评价,分数最高的候选点即为最佳前沿点pNBV,机器人当前位置到最佳前沿点的全局路径R={r0,r1,r2,...pNBV}可在S2.2的结果中回溯得到。
0=u0(p)≤u1(p)≤u2(p)≤...≤un(p)≤1。
S3,使用虚拟力场(visual force field,VFF)局部避障算法沿全局路径R={r0,r1,r2,...,pNBV}导航至最佳前沿点,具体步骤如下:
S3.1,令当前导航目标点为r0,根据激光传感器数据,通过VFF算法实时进行运动规划,将运动规划指令传送给机器人,机器人开始向当前导航目标点r0移动,直到到达r0;
S3.2,机器人到达全局路径中的某个关键点ri,则令当前导航目标点为ri+1,通过VFF算法实时进行运动规划,机器人继续移动至ri+1,直到到达最佳前沿点pNBV;
S3.3,回到S1,开始查找下一个最佳前沿点,进行下一阶段探索。图8所示为室内环境探索任务进度示意图。
本实施例实现了一种基于简化广义Voronoi图的方法,广义Voronoi图可以看作是地图中可通行区域的中心线,由广义Voronoi图生成的拓扑地图能够表达整个可通行区域的连通性和可达性。本实施例提出的简化广义Voronoi图在此基础上剔除了图中冗余的边和节点,使得整个拓扑地图能够以较少数量的边和节点来表达几乎一样的环境信息,简化广义Voronoi图的叶子节点可作为候选前沿点,边可作为路径规划的初始空间,减少了需要计算的目标数量,极大程度上降低了算法的空间复杂度和时间复杂度,可以满足移动机器人室内自主探索的功能性、实时性、完整性需求。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
虽然以上结合附图描述了本发明的具体实施方式,但是本领域普通技术人员应当理解,这些仅是举例说明,可以对这些实施方式做出多种变形或修改,而不背离本发明的原理和实质。本发明的范围仅由所附权利要求书限定。
Claims (5)
1.一种基于简化广义Voronoi图的机器人自主探索方法,其特征是,包括以下步骤:
步骤1、基于形态学方法构建简化广义Voronoi拓扑地图,包括:
步骤1.1、对占据概率栅格地图进行阈值提取,灰度小于经验阈值thobstacle的像素提取为障碍物区域,thobstacle取值50-70;灰度大于经验阈值thfree的像素提取为可通行区域,thfree取值200-220;
步骤1.2、利用形态学闭操作对步骤1.1生成的障碍物区域和可通行区域进行小缝隙填充,利用连通分析去除像素个数小于经验阈值thconn的像素块,thconn取值根据占据概率栅格地图的分辨率和应用需求来确定;利用平滑滤波去除像素块边界的凸起部分,得到平滑的障碍物区域和平滑的可通行区域;
步骤1.3、利用图像细化算法对步骤1.2中平滑的可通行区域进行中心线提取,得到简化广义Voronoi图;
步骤1.4、对步骤1.3得到的简化广义Voronoi图进行拓扑化,采用邻域分析提取简化广义Voronoi图中的节点集合V,利用填充算法找到连接这些节点的边集合E,并将边长记录在距离矩阵Mdist中,得到可通行区域的拓扑地图G={V,E,Mdist};
步骤2、找到最佳前沿点,并规划机器人到最佳前沿点的全局路径,包括:
步骤2.1、将拓扑地图G中所有的叶子节点Vleaf作为初始候选前沿点,找到拓扑地图G中离机器人当前位置最近的边e及e的两个节点和e为集合E中的一个元素,即一条边;对每个候选点p,在拓扑地图中利用Dijkstra算法,分别查找p到和的两条路径和
步骤2.3、在占据概率栅格地图中对每个候选点p,计算其潜在环境信息获取量的估计A(p),计算其传感器感知程度C(p);
步骤2.4、对步骤2.2和2.3中所计算出的候选点的四个特征值D(p)、T(p)、A(p)和C(p)进行归一化,用较低的阈值排除评分极低的候选点,得到候选点集合Pcandidate,若候选点集合为空集,则探索完成;
步骤2.5、利用基于模糊度量函数的多标准决策方法,对候选点集合Pcandidate中的每个候选点进行评价,分数最高的候选点即为最佳前沿点pNBV,机器人当前位置到最佳前沿点的全局路径R={r0,r1,r2,...,pNBV}可在步骤2.2的结果中回溯得到;
步骤3、使用虚拟力场VFF算法沿全局路径R={r0,r1,r2,...,pNBV}导航至最佳前沿点,包括:
步骤3.1、令当前导航目标点为r0,根据激光传感器数据,通过VFF算法实时进行运动规划,将运动规划指令传送给机器人,机器人开始向当前导航目标点r0移动,直到到达r0;
步骤3.2、机器人到达全局路径中的某个关键点ri,则令当前导航目标点为ri+1,通过VFF算法实时进行运动规划,机器人继续移动至ri+1,直到到达最佳前沿点pNBV;
步骤3.3、返回到步骤1,开始查找下一个最佳前沿点,进行下一阶段探索。
3.如权利要求1所述的基于简化广义Voronoi图的机器人自主探索方法,其特征是,步骤2.3中采用以下公式计算所述传感器感知程度C(p):
xuc=argminx∈UCDist(p,x),
xc=argminx∈CDist(p,x),
其中,集合UC表示未被其他传感器探测过的区域,集合C表示已被其他传感器探测过的区域,xuc表示离候选点p最近的且未被其他传感器探测过的像素点,xc表示离候选点p最近的且已被其他传感器探测过的像素点;函数Dist(p,x)表示点p与点x之间的欧氏距离;函数-Dist(p,xuc)表示点p与点xuc之间的欧氏距离的相反数;函数Dist(p,xu)表示点p与点xu之间的欧氏距离。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910951962.8A CN110703747B (zh) | 2019-10-09 | 2019-10-09 | 一种基于简化广义Voronoi图的机器人自主探索方法 |
US16/994,702 US11567502B2 (en) | 2019-10-09 | 2020-08-17 | Autonomous exploration framework for indoor mobile robotics using reduced approximated generalized Voronoi graph |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910951962.8A CN110703747B (zh) | 2019-10-09 | 2019-10-09 | 一种基于简化广义Voronoi图的机器人自主探索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110703747A CN110703747A (zh) | 2020-01-17 |
CN110703747B true CN110703747B (zh) | 2021-08-03 |
Family
ID=69198341
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910951962.8A Active CN110703747B (zh) | 2019-10-09 | 2019-10-09 | 一种基于简化广义Voronoi图的机器人自主探索方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US11567502B2 (zh) |
CN (1) | CN110703747B (zh) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108012326B (zh) * | 2017-12-07 | 2019-06-11 | 珠海市一微半导体有限公司 | 基于栅格地图的机器人监视宠物的方法及芯片 |
CN111061729B (zh) * | 2019-11-29 | 2021-04-16 | 武汉大学 | 顾及粒度的矢量瓦片组织方法 |
CN111836199B (zh) * | 2020-06-01 | 2021-06-29 | 同济大学 | 一种室内导航动态避障寻径方法 |
CN111966097A (zh) * | 2020-08-12 | 2020-11-20 | 深圳华芯信息技术股份有限公司 | 基于栅格地图区域化探索的建图方法、系统以及终端 |
CN111942374A (zh) * | 2020-08-14 | 2020-11-17 | 中国第一汽车股份有限公司 | 一种障碍物地图生成方法、装置、车辆及存储介质 |
US11216005B1 (en) * | 2020-10-06 | 2022-01-04 | Accenture Global Solutions Limited | Generating a point cloud capture plan |
US11885638B2 (en) | 2020-12-28 | 2024-01-30 | Bear Robotics, Inc. | Method, system, and non-transitory computer-readable recording medium for generating a map for a robot |
CN112884858A (zh) * | 2021-02-05 | 2021-06-01 | 明峰医疗系统股份有限公司 | Pet探测器的位置信息的分区方法及计算机可读存储介质 |
CN113110528A (zh) * | 2021-04-14 | 2021-07-13 | 湖南国天电子科技有限公司 | 一种水下自主航行机器人自动返航方法及装置 |
CN113156970B (zh) * | 2021-05-08 | 2023-06-09 | 珠海一微半导体股份有限公司 | 一种通行区域的路径融合规划方法、机器人及芯片 |
CN113325843B (zh) * | 2021-05-21 | 2022-03-18 | 杭州电子科技大学 | 一种基于多智能体覆盖的污染检测方法 |
CN113110522B (zh) * | 2021-05-27 | 2022-07-08 | 福州大学 | 一种基于复合式边界检测的机器人自主探索方法 |
CN113455965B (zh) * | 2021-06-30 | 2022-05-27 | 广州科语机器人有限公司 | 清洁机器人控制方法、装置、介质和清洁机器人 |
CN113342002B (zh) * | 2021-07-05 | 2022-05-20 | 湖南大学 | 基于拓扑地图的多移动机器人调度方法及系统 |
CN113479655B (zh) * | 2021-07-07 | 2022-11-01 | 江苏杰瑞信息科技有限公司 | 一种基于模糊路径的车辆调度方法 |
CN113837059B (zh) * | 2021-09-22 | 2023-12-19 | 哈尔滨工程大学 | 一种规劝行人及时佩戴口罩的巡视车及其控制方法 |
CN113805590A (zh) * | 2021-09-23 | 2021-12-17 | 云南民族大学 | 一种基于边界驱动的室内机器人自主探索方法及系统 |
CN114089752A (zh) * | 2021-11-11 | 2022-02-25 | 深圳市杉川机器人有限公司 | 机器人的自主探索方法、机器人及计算机可读存储介质 |
CN114355888B (zh) * | 2021-12-07 | 2023-09-26 | 西安交通大学 | 基于直骨架的室内多级拓扑地图的自动生成方法及系统 |
CN114397894A (zh) * | 2021-12-29 | 2022-04-26 | 杭州电子科技大学 | 一种模仿人类记忆的移动机器人目标搜索方法 |
CN114509085B (zh) * | 2022-02-10 | 2022-11-01 | 中国电子科技集团公司第五十四研究所 | 一种结合栅格和拓扑地图的快速路径搜索方法 |
CN114596360B (zh) * | 2022-02-22 | 2023-06-27 | 北京理工大学 | 一种基于图拓扑的双阶段主动即时定位与建图算法 |
CN114812539B (zh) * | 2022-06-21 | 2022-11-18 | 杭州涂鸦信息技术有限公司 | 地图探索、地图使用方法、装置、机器人和存储介质 |
CN115129057A (zh) * | 2022-07-07 | 2022-09-30 | 福州大学 | 基于通行效率评估的机器人分层式自主探索方法 |
CN115206157A (zh) * | 2022-08-05 | 2022-10-18 | 白杨时代(北京)科技有限公司 | 一种无人潜航器寻路训练方法、装置及无人潜航器 |
CN115060281B (zh) * | 2022-08-16 | 2023-01-03 | 浙江光珀智能科技有限公司 | 一种基于voronoi图的全局路径引导点生成规划方法 |
CN115469662B (zh) * | 2022-09-13 | 2023-07-07 | 苏州大学 | 一种环境探索方法、装置及应用 |
CN115200588B (zh) * | 2022-09-14 | 2023-01-06 | 煤炭科学研究总院有限公司 | 移动机器人的slam自主导航方法及其装置 |
CN115265577B (zh) * | 2022-09-30 | 2023-02-10 | 北京智行者科技股份有限公司 | 基于维诺图的拓扑关系构建方法、系统及移动工具 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005032196A (ja) * | 2003-07-11 | 2005-02-03 | Japan Science & Technology Agency | 移動ロボット用経路計画システム |
CN101943916A (zh) * | 2010-09-07 | 2011-01-12 | 陕西科技大学 | 一种基于卡尔曼滤波器预测的机器人避障方法 |
CN104898660A (zh) * | 2015-03-27 | 2015-09-09 | 中国科学技术大学 | 一种提高机器人路径规划效率的室内地图构建方法 |
CN106197421A (zh) * | 2016-06-24 | 2016-12-07 | 北京工业大学 | 一种用于移动机器人自主探索的前沿目标点生成方法 |
CN106931975A (zh) * | 2017-04-14 | 2017-07-07 | 北京航空航天大学 | 一种基于语义地图的移动机器人多策略路径规划方法 |
CN108549388A (zh) * | 2018-05-24 | 2018-09-18 | 苏州智伟达机器人科技有限公司 | 一种基于改进a星策略的移动机器人路径规划方法 |
CN109213169A (zh) * | 2018-09-20 | 2019-01-15 | 湖南万为智能机器人技术有限公司 | 移动机器人的路径规划方法 |
CN109737980A (zh) * | 2018-12-29 | 2019-05-10 | 上海岚豹智能科技有限公司 | 一种导航方法及其对应的机器人 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101413806B (zh) * | 2008-11-07 | 2011-05-25 | 湖南大学 | 一种实时数据融合的移动机器人栅格地图创建方法 |
CN107066507B (zh) * | 2017-01-10 | 2019-09-17 | 中国人民解放军国防科学技术大学 | 一种基于云机器人混合云架构的语义地图构建方法 |
US11314254B2 (en) * | 2019-03-26 | 2022-04-26 | Intel Corporation | Methods and apparatus for dynamically routing robots based on exploratory on-board mapping |
KR102302575B1 (ko) * | 2019-07-16 | 2021-09-14 | 엘지전자 주식회사 | 이동 로봇 및 그 제어방법 |
-
2019
- 2019-10-09 CN CN201910951962.8A patent/CN110703747B/zh active Active
-
2020
- 2020-08-17 US US16/994,702 patent/US11567502B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005032196A (ja) * | 2003-07-11 | 2005-02-03 | Japan Science & Technology Agency | 移動ロボット用経路計画システム |
CN101943916A (zh) * | 2010-09-07 | 2011-01-12 | 陕西科技大学 | 一种基于卡尔曼滤波器预测的机器人避障方法 |
CN104898660A (zh) * | 2015-03-27 | 2015-09-09 | 中国科学技术大学 | 一种提高机器人路径规划效率的室内地图构建方法 |
CN106197421A (zh) * | 2016-06-24 | 2016-12-07 | 北京工业大学 | 一种用于移动机器人自主探索的前沿目标点生成方法 |
CN106931975A (zh) * | 2017-04-14 | 2017-07-07 | 北京航空航天大学 | 一种基于语义地图的移动机器人多策略路径规划方法 |
CN108549388A (zh) * | 2018-05-24 | 2018-09-18 | 苏州智伟达机器人科技有限公司 | 一种基于改进a星策略的移动机器人路径规划方法 |
CN109213169A (zh) * | 2018-09-20 | 2019-01-15 | 湖南万为智能机器人技术有限公司 | 移动机器人的路径规划方法 |
CN109737980A (zh) * | 2018-12-29 | 2019-05-10 | 上海岚豹智能科技有限公司 | 一种导航方法及其对应的机器人 |
Non-Patent Citations (4)
Title |
---|
Defining effective exploration strategies for search and rescue applications with Multi-Criteria Decision Making;Nicola Basilico 等;《2011 IEEE International Conference on Robotics and Automation》;20110815;第4260-4265页全文 * |
Matching Annotated Generalized Voronoi Graphs for Autonomous Robot Localization and Mapping;Jan Oliver Wallgrün;《2009 Sixth International Symposium on Voronoi Diagrams》;20091228;第202-211页全文 * |
基于Voronoi图法的移动机器人路径规划;许松清 等;《中国工程机械学报》;20050731;第3卷(第3期);第336-340页全文 * |
移动机器人避障与轨迹规划;余冬冬;《中国优秀硕士学位论文全文数据库 信息科技辑》;20170815(第08期);第I140-196页全文 * |
Also Published As
Publication number | Publication date |
---|---|
US20210109537A1 (en) | 2021-04-15 |
CN110703747A (zh) | 2020-01-17 |
US11567502B2 (en) | 2023-01-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110703747B (zh) | 一种基于简化广义Voronoi图的机器人自主探索方法 | |
KR102192791B1 (ko) | 이동 로봇 및 이동 로봇의 제어방법 | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
Kim et al. | Continuous occupancy maps using overlapping local Gaussian processes | |
JP2012064131A (ja) | 地図生成装置、地図生成方法、移動体の移動方法、及びロボット装置 | |
CN114237235B (zh) | 一种基于深度强化学习的移动机器人避障方法 | |
WO2022031232A1 (en) | Method and device for point cloud based object recognition | |
Gao et al. | A vision-based irregular obstacle avoidance framework via deep reinforcement learning | |
CN113420648A (zh) | 一种具有旋转适应性的目标检测方法及系统 | |
JP4449410B2 (ja) | ロボット装置及びその物体学習方法 | |
Lee et al. | SLAM of a mobile robot using thinning-based topological information | |
Hong et al. | Real-time visual-based localization for mobile robot using structured-view deep learning | |
KR101107735B1 (ko) | 카메라 포즈 결정 방법 | |
Lu et al. | An optimal frontier enhanced “next best view” planner for autonomous exploration | |
CN114815899A (zh) | 基于3d激光雷达传感器的无人机三维空间路径规划方法 | |
CN114310872B (zh) | 一种基于dgg点云分割网络的机械臂自动打菜方法 | |
KR102331803B1 (ko) | 시각 및 언어 기반 공간 탐색 시스템 | |
Garrote et al. | Hmaps-hybrid height-voxel maps for environment representation | |
CN113064422A (zh) | 基于双神经网络强化学习的自主水下航行器路径规划方法 | |
Redondo et al. | A compact representation of the environment and its frontiers for autonomous vehicle navigation | |
Kim et al. | Cooperative sensor-based selective graph exploration strategy for a team of quadrotors | |
CN116048120B (zh) | 一种未知动态环境下小型四旋翼无人机自主导航系统及方法 | |
Li et al. | Object-Aware View Planning for Autonomous 3D Model Reconstruction of Buildings Using a Mobile Robot | |
Liu et al. | Symmetry-aware neural architecture for embodied visual exploration | |
Muravyev et al. | PRISM-TopoMap: Online Topological Mapping with Place Recognition and Scan Matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |