CN107818333A - 基于深度信念网络的机器人避障行为学习和目标搜索方法 - Google Patents
基于深度信念网络的机器人避障行为学习和目标搜索方法 Download PDFInfo
- Publication number
- CN107818333A CN107818333A CN201710905883.4A CN201710905883A CN107818333A CN 107818333 A CN107818333 A CN 107818333A CN 201710905883 A CN201710905883 A CN 201710905883A CN 107818333 A CN107818333 A CN 107818333A
- Authority
- CN
- China
- Prior art keywords
- robot
- target
- linear velocity
- angular speed
- obstacle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
- G06Q10/047—Optimisation of routes or paths, e.g. travelling salesman problem
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Strategic Management (AREA)
- General Health & Medical Sciences (AREA)
- Economics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Operations Research (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Development Economics (AREA)
- Molecular Biology (AREA)
- Game Theory and Decision Science (AREA)
- Biophysics (AREA)
- Entrepreneurship & Innovation (AREA)
- Marketing (AREA)
- Computational Linguistics (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Image Analysis (AREA)
- Feedback Control In General (AREA)
Abstract
本发明公开了一种基于深度信念网络的机器人避障行为学习和目标搜索方法。首先操控机器人在环境中实现避障,同时采集彩色、深度图像数据及机器人移动基体对应的线速度和角速度,然后基于这些数据构建实现机器人自动避障行为学习的网络模型;机器人在自动目标搜索过程中,首先通过自动避障功能在环境中随机搜索目标;一旦搜索到目标,便直接靠近目标;如在靠近过程中障碍物出现,机器人可避开障碍,重新进行路径规划;如在靠近过程中目标丢失,机器人再次随机搜索;以上过程不断重复,直到机器人到达目标位置。本发明仅用单RGB‑D摄像头实现有自动避障功能的路径规划和目标搜索,在成本和应用方面都有较高的可行性和实用性。
Description
技术领域
本发明涉及机器学习、模式识别技术领域,特别是涉及一种基于深度信念网络(Deep Belief Network,DBN)的机器人在非结构环境下的自动避障行为学习和目标搜索方法。
背景技术
自动目标搜索是当前人类环境中各类机器人,比如社交机器人、服务机器人、搜索和救援机器人等在非结构环境中良好运行的必要技能。这种技能需要机器人具备其他很多基础能力,包括目标识别、自动避障、路径规划和导航等。其中实现机器人的自动避障学习能力和在未知环境中从开始点到目的地进行路径规划能力是关键。虽然以上功能模块在计算机视觉和机器人研究领域研究都很活跃,但通过自动避障能力的学习进行目标识别、搜索和靠近在机器人系统上完整实现的研究却相对较少,而且仅使用单RGB-D摄像头进行机器人自动避障能力学习的研究也相对较少。
发明内容
发明目的:为了克服现有技术中存在的不足,本发明提供一种可以使机器人移动基体在完全未知的环境中完成从开始点到目标点的路径规划的基于深度信念网络的机器人避障行为学习和目标搜索方法。
技术方案:为实现上述目的,本发明的基于深度信念网络的机器人避障行为学习和目标搜索方法如下:机器人包括机器人移动基体以及安装在机器人移动基体上的RGB-D摄像头,具体步骤如下:
步骤1:操控机器人在环境中进行避障运动,实时获取RGB-D摄像头视野内的RGB图像数据、深度图像数据以及机器人移动基体的线速度和角速度数据;
步骤2:根据步骤1获取的数据进行网络训练,构造深度信念网络模型,使机器人获取自动避障能力;
步骤3:将步骤1获取的RGB图像数据与目标模板进行匹配,确定机器人是否搜索到目标,若搜索到目标,跳转至步骤4,若未搜索到目标,机器人通过自动避障在环境中随机搜索;
步骤4:当机器人搜索到目标时,在无障碍物的情况下直接靠近目标;若在靠近目标的过程中遇到障碍物时,使用路径规划算法结合自动避障功能重新进行路径规划靠近目标;若目标丢失,回到步骤3进行随机搜索。
进一步地,所述步骤1的具体方法为:机器人被动控制在环境中进行顺时针方向与逆时针方向的自动避障与随机搜索,并在此过程中实时获取RGB-D摄像头视野内的RGB图像数据、深度图像数据以及机器人移动基体的线速度和角速度数据。
进一步地,步骤2具体包括以下几个步骤:
步骤2.1:以步骤1获取的顺时针方向的深度图像信息作为深度信念网络的输入,以对应的机器人移动基体的线速度和角速度作为输出,进行网络训练,获取网络模型DBN1;
步骤2.2:以步骤1获取的逆时针方向的深度图像信息作为深度信念网络的输入,以对应的机器人移动基体的线速度和角速度作为输出,进行网络训练,获取网络模型DBN1;
步骤2.3:当有网络输入时,分别通过网络模型DBN1和网络模型DBN2进行网络学习,获取两组线速度和角速度决策;
步骤2.4:将步骤2.3获取的两组决策进行综合,获取最终的线速度和角速度。
进一步地,对步骤2.3获取的两组决策进行综合,获取最终的线速度和角速度的方法为:以网络模型DBN1的线速度VL与角速度θL、网络模型DBN2的线速度VR与角速度0R、以及变量D作为输入变量,以最终的线速度V2和角速度θ2作为输出变量;将VL与VR中的较小值赋予V2;若θL与θR中较大的值大于D,则将θL与θR中较大的值赋予θ2与D;若D同时大于θL与θR,则将D乘以小于1的常数后的值赋予D。
进一步地,步骤3具体包括以下步骤:
步骤3.1:将步骤1获取的RGB图像数据通过SURF算法进行特征提取;
步骤3.2:将步骤3.1获取的RGB图像数据的特征与已有的目标模板进行匹配;
步骤3.3:若有与目标模板相匹配的特征,则认为机器人已搜索到目标,跳转至步骤4;若没有与目标模板相匹配的特征,则机器人通过自动避障在环境中随机搜索。
根据权利要求1所述的基于深度信念网络的机器人避障行为学习和目标搜索方法,其特征在于:步骤4具体包括以下步骤:
步骤4.1:利用步骤1获取的深度图像数据计算目标相对机器人的坐标位置;
步骤4.2:在没有障碍物的情况下,机器人直接向目标靠近;若遇到障碍物,跳转到步骤4.3;若目标丢失,跳回步骤3进行随机搜索;
步骤4.3:当遇到障碍物时,使用深度信念网络模型得到一组线速度和角速度决策T2;使用路径规划算法得到一组线速度和角速度决策T1;综合决策T1和决策T2,进行带有避障功能的重新路径规划。
进一步地,综合决策T1和T2的方法为:将决策T1的线速度V1和决策T2的线速度V2中较小的值输出作为机器人线速度的值;计算比例ratio=V2/max(V1,V2),机器人的输出角速度θ=ratio×θ1+(1-ratio)×θ2,其中θ1为决策T1的角速度的值,θ2为决策T2的角速度的值。
有益效果:本发明的基于深度信念网络的机器人避障行为学习和目标搜索方法采用深度信念网络模型进行自动避障能力学习和使用基于bug算法的改进路径规划算法完成自动目标搜索,其具有以下几个优点:
(1)完整功能的实现仅使用单RGB-D摄像头作为输入传感器,在实际应用中具有很高的成本可行性;
(2)结合深度图像数据、对应的线速度和角速度及深度信念网络对图像高层特征建模的能力,使得机器人具有很好的自动避障学习能力和对环境的泛化能力;
(3)基于bug算法,结合自动避障的改进路径规划算法使得机器人可以在未知环境中从开始点顺利导航到目标所在位置。
附图说明
附图1为基于深度信念网络的机器人避障行为学习和目标搜索方法的流程图。
具体实施方式
下面结合附图对本发明作更进一步的说明。
如附图1所示的基于深度信念网络的机器人避障行为学习和目标搜索方法,机器人包括机器人移动基体以及安装在机器人移动基体上的RGB-D摄像头,具体步骤如下:
步骤1:操控机器人在环境中进行避障运动,实时获取RGB-D摄像头视野内的RGB图像数据、深度图像数据以及机器人移动基体的线速度和角速度数据;具体操作为:机器人被动控制在环境中进行顺时针方向与逆时针方向的自动避障与随机搜索,并在此过程中实时获取RGB-D摄像头视野内的RGB图像数据、深度图像数据以及机器人移动基体的线速度和角速度数据。
步骤2:根据步骤1获取的数据进行网络训练,构造深度信念网络模型,使机器人获取自动避障能力;
步骤3:将步骤1获取的RGB图像数据与目标模板进行匹配,确定机器人是否搜索到目标,若搜索到目标,跳转至步骤4,若未搜索到目标,机器人通过自动避障在环境中随机搜索;
步骤4:当机器人搜索到目标时,在无障碍物的情况下直接靠近目标;若在靠近目标的过程中遇到障碍物时,使用基于bug算法的改进路径规划算法结合自动避障功能重新进行路径规划靠近目标;若目标丢失,回到步骤3进行随机搜索。
步骤2具体包括以下几个步骤:
步骤2.1:以步骤1获取的顺时针方向的深度图像信息作为深度信念网络的输入,以对应的机器人移动基体的线速度和角速度作为输出,进行网络训练,获取网络模型DBN1;
步骤2.2:以步骤1获取的逆时针方向的深度图像信息作为深度信念网络的输入,以对应的机器人移动基体的线速度和角速度作为输出,进行网络训练,获取网络模型DBN1;
步骤2.3:当有网络输入时,分别通过网络模型DBN1和网络模型DBN2进行网络学习,获取两组线速度和角速度决策;
步骤2.4:将步骤2.3获取的两组决策进行综合,获取最终的线速度和角速度。具体方法为:以网络模型DBN1的线速度VL与角速度θL、网络模型DBN2的线速度VR与角速度θR、以及变量D作为输入变量,以最终的线速度V2和角速度θ2作为输出变量;将VL与VR中的较小值赋予V2;若θL与θR中较大的值大于D,则将θL与θR中较大的值赋予θ2与D;若D同时大于θL与θR,则将D乘以小于1的常数(本实施中乘以0.999)后的值赋予D。
具体程序如下:
步骤3具体包括以下步骤:
步骤3.1:将步骤1获取的RGB图像数据通过SURF算法进行特征提取;
步骤3.2:将步骤3.1获取的RGB图像数据的特征与已有的目标模板进行匹配;
步骤3.3:若有与目标模板相匹配的特征,则认为机器人已搜索到目标,跳转至步骤4;若没有与目标模板相匹配的特征,则机器人通过自动避障在环境中随机搜索。
步骤4具体包括以下步骤:
步骤4.1:利用步骤1获取的深度图像数据计算目标相对机器人的坐标位置;
步骤4.2:在没有障碍物的情况下,机器人直接向目标靠近;若遇到障碍物,跳转到步骤4.3;若目标丢失,跳回步骤3进行随机搜索;
步骤4.3:当遇到障碍物时,使用深度信念网络模型得到一组线速度和角速度决策T2;使用路径规划算法得到一组线速度和角速度决策T1;综合决策T1和决策T2,进行带有避障功能的重新路径规划。
综合决策T1和T2的方法为:将决策T1的线速度V1和决策T2的线速度V2中较小的值输出作为机器人线速度的值;计算比例ratio=V2/max(V1,V2),机器人的输出角速度θ=ratio×θ1+(1-ratio)×θ2,其中θ1为决策T1的角速度的值,θ2为决策T2的角速度的值。
步骤3与步骤4的实现算法如下:
本发明的基于深度信念网络的机器人避障行为学习和目标搜索方法采用深度信念网络模型进行自动避障能力学习和使用基于bug算法的改进路径规划算法完成自动目标搜索,其具有以下几个优点:
(1)完整功能的实现仅使用单RGB-D摄像头作为输入传感器,在实际应用中具有很高的成本可行性;
(2)结合深度图像数据、对应的线速度和角速度及深度信念网络对图像高层特征建模的能力,使得机器人具有很好的自动避障学习能力和对环境的泛化能力;
(3)基于bug算法,结合自动避障的改进路径规划算法使得机器人可以在未知环境中从开始点顺利导航到目标所在位置。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (7)
1.基于深度信念网络的机器人避障行为学习和目标搜索方法,其特征在于:机器人包括机器人移动基体以及安装在机器人移动基体上的RGB-D摄像头,具体步骤如下:
步骤1:操控机器人在环境中进行避障运动,实时获取RGB-D摄像头视野内的RGB图像数据、深度图像数据以及机器人移动基体的线速度和角速度数据;
步骤2:根据步骤1获取的数据进行网络训练,构造深度信念网络模型,使机器人获取自动避障能力;
步骤3:将步骤1获取的RGB图像数据与目标模板进行匹配,确定机器人是否搜索到目标,若搜索到目标,跳转至步骤4,若未搜索到目标,机器人通过自动避障在环境中随机搜索;
步骤4:当机器人搜索到目标时,在无障碍物的情况下直接靠近目标;若在靠近目标的过程中遇到障碍物时,使用路径规划算法结合自动避障功能重新进行路径规划靠近目标;若目标丢失,回到步骤3进行随机搜索。
2.根据权利要求1所述的基于深度信念网络的机器人避障行为学习和目标搜索方法,其特征在于:所述步骤1的具体方法为:机器人被动控制在环境中进行顺时针方向与逆时针方向的自动避障与随机搜索,并在此过程中实时获取RGB-D摄像头视野内的RGB图像数据、深度图像数据以及机器人移动基体的线速度和角速度数据。
3.根据权利要求2所述的基于深度信念网络的机器人避障行为学习和目标搜索方法,其特征在于:步骤2具体包括以下几个步骤:
步骤2.1:以步骤1获取的顺时针方向的深度图像信息作为深度信念网络的输入,以对应的机器人移动基体的线速度和角速度作为输出,进行网络训练,获取网络模型DBN1;
步骤2.2:以步骤1获取的逆时针方向的深度图像信息作为深度信念网络的输入,以对应的机器人移动基体的线速度和角速度作为输出,进行网络训练,获取网络模型DBN1;
步骤2.3:当有网络输入时,分别通过网络模型DBN1和网络模型DBN2进行网络学习,获取两组线速度和角速度决策;
步骤2.4:将步骤2.3获取的两组决策进行综合,获取最终的线速度和角速度。
4.根据权利要求3所述的基于深度信念网络的机器人避障行为学习和目标搜索方法,其特征在于:对步骤2.3获取的两组决策进行综合,获取最终的线速度和角速度的方法为:以网络模型DBN1的线速度VL与角速度θL、网络模型DBN2的线速度VR与角速度θR、以及变量D作为输入变量,以最终的线速度V2和角速度θ2作为输出变量;将VL与VR中的较小值赋予V2;若θL与θR中较大的值大于D,则将θL与θR中较大的值赋予θ2与D;若D同时大于θL与θR,则将D乘以小于1的常数后的值赋予D。
5.根据权利要求1所述的基于深度信念网络的机器人避障行为学习和目标搜索方法,其特征在于:步骤3具体包括以下步骤:
步骤3.1:将步骤1获取的RGB图像数据通过SURF算法进行特征提取;
步骤3.2:将步骤3.1获取的RGB图像数据的特征与已有的目标模板进行匹配;
步骤3.3:若有与目标模板相匹配的特征,则认为机器人已搜索到目标,跳转至步骤4;若没有与目标模板相匹配的特征,则机器人通过自动避障在环境中随机搜索。
6.根据权利要求1所述的基于深度信念网络的机器人避障行为学习和目标搜索方法,其特征在于:步骤4具体包括以下步骤:
步骤4.1:利用步骤1获取的深度图像数据计算目标相对机器人的坐标位置;
步骤4.2:在没有障碍物的情况下,机器人直接向目标靠近;若遇到障碍物,跳转到步骤4.3;若目标丢失,跳回步骤3进行随机搜索;
步骤4.3:当遇到障碍物时,使用深度信念网络模型得到一组线速度和角速度决策T2;使用路径规划算法得到一组线速度和角速度决策T1;综合决策T1和T2,进行带有避障功能的重新路径规划。
7.根据权利要求6所述的基于深度信念网络的机器人避障行为学习和目标搜索方法,其特征在于:综合决策T1和T2的方法为:将决策T1的线速度V1和决策T2的线速度V2中较小的值输出作为机器人线速度的值;计算比例ratio=V2/max(V1,V2),机器人的输出角速度θ=ratio×θ1+(1-ratio)×θ2,其中θ1为决策T1的角速度的值,θ2为决策T2的角速度的值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710905883.4A CN107818333B (zh) | 2017-09-29 | 2017-09-29 | 基于深度信念网络的机器人避障行为学习和目标搜索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710905883.4A CN107818333B (zh) | 2017-09-29 | 2017-09-29 | 基于深度信念网络的机器人避障行为学习和目标搜索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107818333A true CN107818333A (zh) | 2018-03-20 |
CN107818333B CN107818333B (zh) | 2020-04-07 |
Family
ID=61606982
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710905883.4A Active CN107818333B (zh) | 2017-09-29 | 2017-09-29 | 基于深度信念网络的机器人避障行为学习和目标搜索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107818333B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109048917A (zh) * | 2018-09-12 | 2018-12-21 | 广东电网有限责任公司 | 机器人自动控制方法、装置、设备及计算机可读存储介质 |
CN109901589A (zh) * | 2019-03-29 | 2019-06-18 | 北京易达图灵科技有限公司 | 移动机器人控制方法和装置 |
CN109977884A (zh) * | 2019-03-29 | 2019-07-05 | 北京易达图灵科技有限公司 | 目标跟随方法和装置 |
CN110244710A (zh) * | 2019-05-16 | 2019-09-17 | 深圳前海达闼云端智能科技有限公司 | 自动寻迹方法、装置、存储介质及电子设备 |
CN110244760A (zh) * | 2019-06-06 | 2019-09-17 | 深圳市道通智能航空技术有限公司 | 一种避障方法、装置和电子设备 |
CN110315552A (zh) * | 2019-06-21 | 2019-10-11 | 广州大学 | 一种基于深度信念网络的机器人磨抛预测控制方法 |
CN111429515A (zh) * | 2020-03-19 | 2020-07-17 | 佛山市南海区广工大数控装备协同创新研究院 | 基于深度学习的机器人避障行为的学习方法 |
CN112497216A (zh) * | 2020-12-01 | 2021-03-16 | 南京航空航天大学 | 一种基于深度学习的工业机器人位姿精度补偿方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104850120A (zh) * | 2015-03-19 | 2015-08-19 | 武汉科技大学 | 基于ihdr自主学习框架的轮式移动机器人导航方法 |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
US20170206418A1 (en) * | 2014-12-16 | 2017-07-20 | Irobot Corporation | Systems and Methods for Capturing Images and Annotating the Captured Images with Information |
CN107092254A (zh) * | 2017-04-27 | 2017-08-25 | 北京航空航天大学 | 一种基于深度增强学习的家用扫地机器人的设计方法 |
-
2017
- 2017-09-29 CN CN201710905883.4A patent/CN107818333B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170206418A1 (en) * | 2014-12-16 | 2017-07-20 | Irobot Corporation | Systems and Methods for Capturing Images and Annotating the Captured Images with Information |
CN104850120A (zh) * | 2015-03-19 | 2015-08-19 | 武汉科技大学 | 基于ihdr自主学习框架的轮式移动机器人导航方法 |
CN106826815A (zh) * | 2016-12-21 | 2017-06-13 | 江苏物联网研究发展中心 | 基于彩色图像与深度图像的目标物体识别与定位的方法 |
CN107092254A (zh) * | 2017-04-27 | 2017-08-25 | 北京航空航天大学 | 一种基于深度增强学习的家用扫地机器人的设计方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109048917A (zh) * | 2018-09-12 | 2018-12-21 | 广东电网有限责任公司 | 机器人自动控制方法、装置、设备及计算机可读存储介质 |
CN109048917B (zh) * | 2018-09-12 | 2021-06-29 | 南方电网电力科技股份有限公司 | 机器人自动控制方法、装置、设备及计算机可读存储介质 |
CN109977884B (zh) * | 2019-03-29 | 2021-05-11 | 北京易达图灵科技有限公司 | 目标跟随方法和装置 |
CN109901589A (zh) * | 2019-03-29 | 2019-06-18 | 北京易达图灵科技有限公司 | 移动机器人控制方法和装置 |
CN109977884A (zh) * | 2019-03-29 | 2019-07-05 | 北京易达图灵科技有限公司 | 目标跟随方法和装置 |
CN109901589B (zh) * | 2019-03-29 | 2022-06-07 | 北京易达图灵科技有限公司 | 移动机器人控制方法和装置 |
CN110244710A (zh) * | 2019-05-16 | 2019-09-17 | 深圳前海达闼云端智能科技有限公司 | 自动寻迹方法、装置、存储介质及电子设备 |
CN110244710B (zh) * | 2019-05-16 | 2022-05-31 | 达闼机器人股份有限公司 | 自动寻迹方法、装置、存储介质及电子设备 |
CN110244760A (zh) * | 2019-06-06 | 2019-09-17 | 深圳市道通智能航空技术有限公司 | 一种避障方法、装置和电子设备 |
CN110315552A (zh) * | 2019-06-21 | 2019-10-11 | 广州大学 | 一种基于深度信念网络的机器人磨抛预测控制方法 |
CN111429515A (zh) * | 2020-03-19 | 2020-07-17 | 佛山市南海区广工大数控装备协同创新研究院 | 基于深度学习的机器人避障行为的学习方法 |
CN112497216A (zh) * | 2020-12-01 | 2021-03-16 | 南京航空航天大学 | 一种基于深度学习的工业机器人位姿精度补偿方法 |
CN112497216B (zh) * | 2020-12-01 | 2022-02-11 | 南京航空航天大学 | 一种基于深度学习的工业机器人位姿精度补偿方法 |
Also Published As
Publication number | Publication date |
---|---|
CN107818333B (zh) | 2020-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107818333A (zh) | 基于深度信念网络的机器人避障行为学习和目标搜索方法 | |
Ruan et al. | Mobile robot navigation based on deep reinforcement learning | |
WO2020191642A1 (zh) | 轨迹预测方法及装置、存储介质、驾驶系统与车辆 | |
US20210271253A1 (en) | Method and apparatus for controlling device to move, storage medium, and electronic device | |
CN109682392A (zh) | 基于深度强化学习的视觉导航方法及系统 | |
CN108803617A (zh) | 轨迹预测方法及装置 | |
CN112629542B (zh) | 基于ddpg和lstm的无地图机器人路径导航方法及系统 | |
CN109917818A (zh) | 基于地面机器人的协同搜索围堵方法 | |
CN110084307A (zh) | 一种基于深度强化学习的移动机器人视觉跟随方法 | |
CN109829356A (zh) | 神经网络的训练方法及基于神经网络的行人属性识别方法 | |
Tian et al. | RGB-D based cognitive map building and navigation | |
CN110307848A (zh) | 一种移动机器人导航方法 | |
CN110399789A (zh) | 行人重识别方法、模型构建方法、装置、设备和存储介质 | |
CN110135277B (zh) | 一种基于卷积神经网络的人体行为识别方法 | |
CN110530371B (zh) | 一种基于深度强化学习的室内地图匹配方法 | |
Liu et al. | CNN-based vision model for obstacle avoidance of mobile robot | |
CN112873211A (zh) | 一种机器人人机交互方法 | |
CN106325278A (zh) | 一种基于椭圆识别的机器人定位导航方法 | |
CN111611869A (zh) | 一种基于串行深度神经网络的端到端单目视觉避障方法 | |
Jiang et al. | Depth image-based obstacle avoidance for an in-door patrol robot | |
Fu et al. | Decision making for autonomous driving via multimodal transformer and deep reinforcement learning | |
Guo et al. | Research on human-vehicle gesture interaction technology based on computer visionbility | |
Sujiwo et al. | Robust and accurate monocular vision-based localization in outdoor environments of real-world robot challenge | |
CN103413328A (zh) | 运动物体的跟踪方法和装置 | |
Liu et al. | Real-time object recognition based on NAO humanoid robot |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |