CN106969770B - 一种机器人及其导航方法、计算机可读存储介质 - Google Patents
一种机器人及其导航方法、计算机可读存储介质 Download PDFInfo
- Publication number
- CN106969770B CN106969770B CN201710395910.8A CN201710395910A CN106969770B CN 106969770 B CN106969770 B CN 106969770B CN 201710395910 A CN201710395910 A CN 201710395910A CN 106969770 B CN106969770 B CN 106969770B
- Authority
- CN
- China
- Prior art keywords
- robot
- navigation
- theta
- dimensional point
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种机器人及其导航方法、计算机可读存储介质,该方法包括步骤:获取机器人的目标位置信息及其当前方向的二维点分布;根据获取到的机器人当前方向的二维点分布,确定机器人的多维特征值s;根据确定的机器人的多维特征值s、以及通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算机器人的控制信号a;根据计算的机器人的控制信号a,实现机器人的导航。本发明公开的机器人及其导航方法、计算机可读存储介质,通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算机器人的控制信号a,进而实现机器人的导航;相对现有技术的DWA(Dynamic Window Approach)以及TEB(Timed Elastic Band)等局部导航算法,有效解决机器人局部导航问题,且该方法运行流畅且相比较现有算法效率有所提升。
Description
技术领域
本发明涉及机器人技术领域,尤其涉及一种机器人及其导航方法、计算机可读存储介质。
背景技术
机器人是一类用于接受人类的命令完成相应的动作,也可以自动执行预设程序来完成相应的任务,且具有可编程能力的机器装置。机器人能够增加生产效率、提高产品质量的和改善人类生活的方便程度。
在实现本发明的过程中,发明人发现现有技术存在以下问题:机器人根据导航朝某个指定方向行走时,行走过程中可能会遇到一些障碍。为了避开障碍,机器人通常需要建立局部地图并且重新规划路径。然而获取精准的局部地图比较困难,另外机器人传感器存在的误差可能会严重影响路径的规划,再者重新规划相对运算量大,在局部地图不清晰的情况下更困难。
发明内容
本发明的主要目的在于提出一种机器人及其导航方法、计算机可读存储介质,旨在解决现有技术存在的问题。
为实现上述目的,本发明实施例第一方面提供一种机器人导航方法,所述方法包括步骤:
获取机器人的目标位置信息及其当前方向的二维点分布;
根据获取到的机器人当前方向的二维点分布,确定所述机器人的多维特征值s;
根据确定的所述机器人的多维特征值s、以及通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算所述机器人的控制信号a;
根据计算的所述机器人的控制信号a,实现所述机器人的导航。
可选地,所述机器人当前的二维点分布通过以下步骤形成:
获取所述机器人的当前深度图像;
根据获取的所述机器人的当前深度图像,抽取出所述机器人当前方向的视觉三维点云;
将抽取出的视觉三维点云投影到一平面上,形成所述机器人当前的二维点分布。
可选地,所述通过机器学习方法得到的θ值包括步骤:
接收遥控信号,所述遥控信号使得所述机器人按照既定路径行走,其中所述既定路径包括障碍环境;
获取既定路径的每一帧图像,计算每一帧图像t时刻的向量st,同时记录当前遥控的操作信号at,并建立训练集合{st,at};
通过模型a=f(s,θ),并根据建立的训练集合{st,at},学习获取到θ值。
可选地,所述方法还包括步骤:
学习过程基于损失函数对学习到的θ值通过随机梯度下降方法进行优化,得到最优的θ值。
可选地,所述二维点分布为具有多个网格的辐射状分布。
可选地,所述方法还包括步骤:
判断所述机器人是否偏离目标位置;
若所述机器人偏离目标位置,则获取所述机器人的局部地图信息;
根据获取到的局部地图信息重新规划局部路径,并根据重新规划的局部路径实现所述机器人的导航。
此外,为实现上述目的,本发明实施例第二方面提供一种机器人,所述机器人包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的机器人导航程序,所述机器人导航程序被所述处理器执行时实现第一方面所述的机器人导航方法的步骤。
再者,为实现上述目的,本发明实施例第三方面提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有机器人导航程序,所述机器人导航程序被处理器执行时实现如第一方面所述的机器人导航方法的步骤。
本发明实施例提供的一种机器人及其导航方法、计算机可读存储介质,通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算机器人的控制信号a,进而实现机器人的导航;相对现有技术的DWA(Dynamic Window Approach)以及TEB(Timed Elastic Band)等局部导航算法,有效解决机器人局部导航问题,且该方法运行流畅且相比较现有算法效率有所提升。
附图说明
图1为本发明实施例的机器人导航方法流程示意图;
图2为本发明实施例的机器人导航方法中机器学习流程示意图;
图3为本发明实施例的机器人导航方法另一流程示意图;
图4为本发明实施例的机器人结构示意图;
图5为本发明实施例的二维点分布结构示意图;
图6为本发明实施例的机器人导航过程结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
现在将参考附图描述实现本发明各个实施例的。在后续的描述中,使用用于表示元件的诸如“模块”、“部件”或“单元”的后缀仅为了有利于本发明的说明,其本身并没有特定的意义。
第一实施例
如图1所示,本发明第一实施例提供一种机器人导航方法,所述方法包括步骤:
31、获取机器人的目标位置信息及其当前方向的二维点分布;
在本实施例中,所述二维点分布可以为具有多个网格的辐射状分布,网格的数量在此不作限制。例如图5的二维点分布为24个网格的辐射状分布。
在本实施例中,所述机器人当前的二维点分布通过以下步骤确定(附图未示出):
获取所述机器人的当前深度图像;
根据获取的所述机器人的当前深度图像,抽取出所述机器人当前方向的视觉三维点云;
将抽取出的视觉三维点云投影到一平面上,形成所述机器人当前的二维点分布。
具体地,在投影过程中,根据机器人身高不同以及视觉传感器的视场,设定截取一定高度的点云数据,投影在平面上,滤掉很多不必要的干扰点。
32、根据获取到的机器人当前方向的二维点分布,确定所述机器人的多维特征值s;
33、根据确定的所述机器人的多维特征值s、以及通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算所述机器人的控制信号a;
请参考图2所示,在本实施例中,所述通过机器学习方法得到的θ值包括步骤:
331、接收遥控信号,所述遥控信号使得所述机器人按照既定路径行走,其中所述既定路径包括障碍环境;
332、获取既定路径的每一帧图像,计算每一帧图像t时刻的向量st,同时记录当前遥控的操作信号at,并建立训练集合{st,at};
333、通过模型a=f(s,θ),并根据建立的训练集合{st,at},学习到θ值。
进一步地,在本实施例中,所述方法还包括步骤(附图未示出):
学习过程基于损失函数对学习到的θ值通过随机梯度下降方法进行优化,得到最优的θ值。
34、根据计算的所述机器人的控制信号a,实现所述机器人的导航。
请再查看图3所示,在另一种实施方式中,所述方法还包括步骤:
35、判断所述机器人是否偏离目标位置;
36、若所述机器人偏离目标位置,则获取所述机器人的局部地图信息;
37、根据获取到的局部地图信息重新规划局部路径,并根据重新规划的局部路径实现所述机器人的导航。
通过步骤35-37,可利用地图信息重新规划路径,避免出现卡死的情况。
作为示例地,为了更好地理解本发明,以下结合图5、图6进行进一步地说明:
请参考图6所示,图中的星星为目标位置,矩形框为障碍物,图中的虚线为实施前机器人的行走路线,图中的实线为实施后机器人的行走路线。
机器人行走路线(实线)的实现过程:
获取机器人的目标位置信息及其当前方向的二维点分布;
根据获取到的机器人当前方向的二维点分布,确定机器人的多维特征值s;
根据确定的机器人的多维特征值s、以及通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算机器人的控制信号a;
根据计算的机器人的控制信号a,实现机器人的导航。
其中,机器学习的过程如下:
以机器人当前方向,划分一定数量的网格,如图5所示的24个网格的辐射状分布。统计每个区域内点的个数,将点的个数形成一张24维的向量;同时增加机器人当前方向角速度线速度v以及机器人目标位置的方向和距离4维特征,一共28维特征,将这28维特征记录为多维特征值s。
接收遥控信号,所述遥控信号使得机器人按照既定路径行走,通过一系列这样的障碍的环境,将既定路径的每一帧图像作为一个样本,计算每一帧图像t时刻的向量st,同时记录当前遥控的操作信号at(例如正向的加速/减速,转向的加速度等),通过收集足够的样本,建立训练集合{st,at}。
建立模型,例如决策树/神经网络a=f(s,θ),利用上面的训练集学习到θ的值。学习过程中可基于损失函数对获取到的θ值通过随机梯度下降方法进行优化,得到最优的θ值。
本发明实施例提供的机器人导航方法,通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算机器人的控制信号a,进而实现机器人的导航;相对现有技术的DWA(DynamicWindow Approach)以及TEB(Timed Elastic Band)等局部导航算法,有效解决机器人局部导航问题,且该方法运行流畅且相比较现有算法效率有所提升。
第二实施例
参照图4,图4为本发明第二实施例提供一种机器人,所述机器人40包括:存储器41、处理器42及存储在所述存储器41上并可在所述处理器42上运行的机器人导航程序,所述机器人导航程序被所述处理器42执行时实现第一实施例所述的机器人导航方法的步骤。
以图5、图6为例:
请参考图6所示,图中的星星为目标位置,矩形框为障碍物,图中的虚线为实施前机器人的行走路线,图中的实线为实施后机器人的行走路线。
机器人行走路线(实线)的实现过程:
获取机器人的目标位置信息及其当前方向的二维点分布;
根据获取到的机器人当前方向的二维点分布,确定机器人的多维特征值s;
根据确定的机器人的多维特征值s、以及通过机器学习方法得到的θ值,利用模型a=f(s,θ)计计算机器人的控制信号a;
根据计算的机器人的控制信号a,实现机器人的导航。
其中,机器学习的过程如下:
以机器人当前方向,划分一定数量的网格,如图5所示的24个网格的辐射状分布。统计每个区域内点的个数,将点的个数形成一张24维的向量;同时增加机器人当前方向角速度线速度v以及机器人目标位置的方向和距离4维特征,一共28维特征,将这28维特征记录为多维特征值s。
接收遥控信号,所述遥控信号使得机器人按照既定路径行走,通过一系列这样的障碍的环境,将既定路径的每一帧图像作为一个样本,计算每一帧图像t时刻的向量st,同时记录当前遥控的操作信号at(例如正向的加速/减速,转向的加速度等),通过收集足够的样本,建立训练集合{st,at}。
建立模型,例如决策树/神经网络a=f(s,θ),利用上面的训练集学习到θ的值。学习过程中可基于损失函数对获取到的θ值通过随机梯度下降方法进行优化,得到最优的θ值。
本发明实施例提供的一种机器人,通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算机器人的控制信号a,进而实现机器人的导航;相对现有技术的DWA(DynamicWindow Approach)以及TEB(Timed Elastic Band)等局部导航算法,有效解决机器人局部导航问题,且该方法运行流畅且相比较现有算法效率有所提升。
第三实施例
本发明第三实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有机器人导航程序,所述机器人导航程序被处理器执行时实现如第一实施例所述的机器人导航方法的步骤。
作为示例地,结合图5、图6进行说明:
请参考图6所示,图中的星星为目标位置,矩形框为障碍物,图中的虚线为实施前机器人的行走路线,图中的实线为实施后机器人的行走路线。
机器人行走路线(实线)的实现过程:
获取机器人的目标位置信息及其当前方向的二维点分布;
根据获取到的机器人当前方向的二维点分布,确定机器人的多维特征值s;
根据确定的机器人的多维特征值s、以及通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算机器人的控制信号a;
根据计算的机器人的控制信号a,实现机器人的导航。
其中,机器学习的过程如下:
以机器人当前方向,划分一定数量的网格,如图5所示的24个网格的辐射状分布。统计每个区域内点的个数,将点的个数形成一张24维的向量;同时增加机器人当前方向角速度线速度v以及机器人目标位置的方向和距离4维特征,一共28维特征,将这28维特征记录为多维特征值s。
接收遥控信号,所述遥控信号使得机器人按照既定路径行走,通过一系列这样的障碍的环境,将既定路径的每一帧图像作为一个样本,计算每一帧图像t时刻的向量st,同时记录当前遥控的操作信号at(例如正向的加速/减速,转向的加速度等),通过收集足够的样本,建立训练集合{st,at}。
建立模型,例如决策树/神经网络a=f(s,θ),利用上面的训练集学习到θ的值。学习过程中可基于损失函数对获取到的θ值通过随机梯度下降方法进行优化,得到最优的θ值。
本发明实施例提供的计算机可读存储介质,通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算机器人的控制信号a,进而实现机器人的导航;相对现有技术的DWA(Dynamic Window Approach)以及TEB(Timed Elastic Band)等局部导航算法,有效解决机器人局部导航问题,且该方法运行流畅且相比较现有算法效率有所提升。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (7)
1.一种机器人导航方法,所述方法包括步骤:
获取机器人的目标位置信息及其当前方向的二维点分布;
根据获取到的机器人当前方向的二维点分布,确定所述机器人的多维特征值s;
根据确定的所述机器人的多维特征值s、以及通过机器学习方法得到的θ值,利用模型a=f(s,θ)计算所述机器人的控制信号a;
根据计算的所述机器人的控制信号a,实现所述机器人的导航;
所述机器人当前的二维点分布通过以下步骤形成:
获取所述机器人的当前深度图像;
根据获取的所述机器人的当前深度图像,抽取出所述机器人当前方向的视觉三维点云;
将抽取出的视觉三维点云投影到一平面上,形成所述机器人当前的二维点分布;
所述通过机器学习方法得到θ值包括步骤:
接收遥控信号,所述遥控信号使得所述机器人按照既定路径行走,其中所述既定路径包括障碍环境;
获取既定路径的每一帧图像,计算每一帧图像t时刻的向量st,同时记录当前遥控的操作信号at,并建立训练集合{st,at};
通过模型a=f(s,θ),并根据建立的训练集合{st,at},学习到θ值。
2.根据权利要求1所述的一种机器人导航方法,其特征在于,所述方法还包括步骤:
学习过程中基于损失函数对学习到的θ值通过随机梯度下降方法进行优化,得到最优的θ值。
3.根据权利要求1-2任一所述的一种机器人导航方法,其特征在于,所述二维点分布为具有多个网格的辐射状分布。
5.根据权利要求1-2任一所述的一种机器人导航方法,其特征在于,所述方法还包括步骤:
判断所述机器人是否偏离目标位置;
若所述机器人偏离目标位置,则获取所述机器人的局部地图信息;
根据获取到的局部地图信息重新规划局部路径,并根据重新规划的局部路径实现所述机器人的导航。
6.一种机器人,其特征在于,所述机器人包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的机器人导航程序,所述机器人导航程序被所述处理器执行时实现如权利要求1至5中任一项所述的机器人导航方法的步骤。
7.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有机器人导航程序,所述机器人导航程序被处理器执行时实现如权利要求1至5中任一项所述的机器人导航方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710395910.8A CN106969770B (zh) | 2017-05-31 | 2017-05-31 | 一种机器人及其导航方法、计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710395910.8A CN106969770B (zh) | 2017-05-31 | 2017-05-31 | 一种机器人及其导航方法、计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106969770A CN106969770A (zh) | 2017-07-21 |
CN106969770B true CN106969770B (zh) | 2021-04-06 |
Family
ID=59327458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710395910.8A Active CN106969770B (zh) | 2017-05-31 | 2017-05-31 | 一种机器人及其导航方法、计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106969770B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107689075B (zh) * | 2017-08-30 | 2019-02-19 | 北京三快在线科技有限公司 | 导航地图的生成方法、装置及机器人 |
CN108000250B (zh) * | 2017-12-07 | 2020-08-18 | 长沙长泰机器人有限公司 | 一种铸件打磨的方法及系统 |
CN112631266A (zh) * | 2019-09-20 | 2021-04-09 | 杭州海康机器人技术有限公司 | 一种移动机器人感知障碍信息的方法、装置 |
CN110703758A (zh) * | 2019-10-25 | 2020-01-17 | 北京京东乾石科技有限公司 | 一种路径规划方法和装置 |
CN110974091B (zh) * | 2020-02-27 | 2020-07-17 | 深圳飞科机器人有限公司 | 清洁机器人及其控制方法、存储介质 |
CN112254727B (zh) * | 2020-09-23 | 2022-10-14 | 锐捷网络股份有限公司 | 基于teb的路径规划方法及装置 |
CN112526991B (zh) * | 2020-11-25 | 2022-05-24 | 中国科学技术大学 | 机器人运动方法、装置、电子设备及存储介质 |
CN114216463B (zh) * | 2021-11-04 | 2024-05-28 | 国家电网有限公司 | 一种路径优化目标定位方法及装置、存储介质、无人设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101667029B1 (ko) * | 2009-08-10 | 2016-10-17 | 삼성전자 주식회사 | 로봇의 경로 계획방법 및 장치 |
CN105760894A (zh) * | 2016-03-16 | 2016-07-13 | 哈尔滨伟方智能科技开发有限责任公司 | 一种基于机器视觉及机器学习的机器人导航方法 |
CN106407947B (zh) * | 2016-09-29 | 2019-10-22 | 百度在线网络技术(北京)有限公司 | 用于无人驾驶车辆的目标物体识别方法和装置 |
CN106548486B (zh) * | 2016-11-01 | 2024-02-27 | 浙江大学 | 一种基于稀疏视觉特征地图的无人车位置跟踪方法 |
CN106599108B (zh) * | 2016-11-30 | 2019-12-31 | 浙江大学 | 一种三维环境中多模态环境地图构建方法 |
-
2017
- 2017-05-31 CN CN201710395910.8A patent/CN106969770B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106969770A (zh) | 2017-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106969770B (zh) | 一种机器人及其导航方法、计算机可读存储介质 | |
EP3639241B1 (en) | Voxel based ground plane estimation and object segmentation | |
JP7086111B2 (ja) | 自動運転車のlidar測位に用いられるディープラーニングに基づく特徴抽出方法 | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
CN108139225B (zh) | 确定机动车的布局信息 | |
CN109196432A (zh) | 用于自动驾驶车辆的速度控制参数估计方法 | |
US9053433B2 (en) | Assisting vehicle guidance over terrain | |
JP2018037064A (ja) | 能動的探索なしの強化学習に基づくオンライン学習法及び車両制御方法 | |
US10872228B1 (en) | Three-dimensional object detection | |
CN106476728A (zh) | 用于车载的车辆传感器的运动补偿 | |
CN108334077A (zh) | 确定自动驾驶车辆的速度控制的单位增益的方法和系统 | |
US20190114490A1 (en) | Information processing device, learned model, information processing method, and computer program product | |
Bipin et al. | Autonomous navigation of generic monocular quadcopter in natural environment | |
CN111145251A (zh) | 一种机器人及其同步定位与建图方法和计算机存储设备 | |
JP2017526083A (ja) | 位置特定およびマッピングの装置ならびに方法 | |
EP4088884A1 (en) | Method of acquiring sensor data on a construction site, construction robot system, computer program product, and training method | |
Chen et al. | From perception to control: an autonomous driving system for a formula student driverless car | |
CN113479219B (zh) | 一种行车轨迹规划方法、装置、计算机设备和介质 | |
CN112747752B (zh) | 基于激光里程计的车辆定位方法、装置、设备和存储介质 | |
KR102283444B1 (ko) | 온톨로지 및 딥 러닝을 이용한 무인기의 위협 상황 인지 방법 | |
JP5182110B2 (ja) | 管制支援システム、管制支援方法および類似度計算装置 | |
WO2019235370A1 (ja) | 学習装置、予測装置、方法、及びプログラム | |
Harithas et al. | Urbanfly: Uncertainty-aware planning for navigation amongst high-rises with monocular visual-inertial slam maps | |
US20240094009A1 (en) | Map annotation modification using sparse pose graph node updates | |
Parlange et al. | Leveraging single-shot detection and random sample consensus for wind turbine blade inspection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20210315 Address after: 518000 Room 201, building a, No.1 Qianhai 1st Road, Qianhai Shenxiang cooperation zone, Shenzhen City, Guangdong Province Applicant after: Shenzhen Zhongzhi Weian Robot Technology Co., Ltd Address before: 518000 room 1306, Press Plaza, Shennan Avenue, Futian District, Shenzhen, Guangdong Applicant before: ANKE ROBOT Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |