CN112698653A - 基于深度学习的机器人自主导航控制方法及系统 - Google Patents
基于深度学习的机器人自主导航控制方法及系统 Download PDFInfo
- Publication number
- CN112698653A CN112698653A CN202011548451.0A CN202011548451A CN112698653A CN 112698653 A CN112698653 A CN 112698653A CN 202011548451 A CN202011548451 A CN 202011548451A CN 112698653 A CN112698653 A CN 112698653A
- Authority
- CN
- China
- Prior art keywords
- robot
- image
- network model
- map
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000005516 engineering process Methods 0.000 claims abstract description 12
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 8
- 230000007613 environmental effect Effects 0.000 claims abstract description 8
- 230000008569 process Effects 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims description 16
- 230000006870 function Effects 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 7
- 238000001914 filtration Methods 0.000 claims description 5
- 238000003708 edge detection Methods 0.000 claims description 4
- 238000012549 training Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000002245 particle Substances 0.000 claims description 2
- 230000003044 adaptive effect Effects 0.000 claims 1
- 238000013473 artificial intelligence Methods 0.000 description 2
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Electromagnetism (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于深度学习的机器人自主导航控制方法及系统,方法步骤如下:设定机器人在环境地图中的起点和终点,计算机器人可行驶的最优路径;在行驶的过程中使用定位算法确定此时机器人所处的位置,到达终点时则停止移动,否则继续导航;使用相机获取机器人前方的环境信息图像,并输入至训练好的卷积神经网络模型,判断前方是否有环境地图未知的障碍物影响到机器人正常移动,如果没有,则按照最优路线继续导航,如果有,则使用网络模型生成对应的控制指令,使得机器人躲避未知障碍物,同时重新规划最优路线以及确定此时的位置,判断是否到达终点。该系统基于深度学习技术,在全局路径规划的路线上可以躲避各种障碍物,适用性强。
Description
技术领域
本发明涉及人工智能技术领域,具体涉及一种基于深度学习的机器人自主导航控制方法及系统。
背景技术
随着人工智能技术的快速发展,深度学习在图像识别、语音识别、无人驾驶等领域得到了广泛的应用。同样,机器人技术也在向着智能化的方向发展,自主导航是机器人的关键技术之一,机器人具备智能分析环境的能力,并像人一样做出各种决策来躲避障碍物,是其智能化的体现。
目前常用的机器人自主导航控制系统主要包括:
1)基于全局路径规划和动态窗口局部避障的自主导航控制系统
该系统使用激光雷达扫描机器人周围的障碍物信息,然而一般使用的激光雷达都是二维扫描的,收集的障碍物信息有限,不能躲避与激光雷达高度不一致的障碍物或者不规则的障碍物。
2)基于深度学习的方法
已有学者研究基于深度学习的机器人移动,通过相机获取图像,生成控制指令,包括直行、向左、向右,然后该方法并不能在环境中到达指定的目标位置。
发明内容
本发明的目的在于提供一种基于深度学习的机器人自主导航控制方法及系统,机器人按照全局路径规划的最优路径行驶,同时使用相机获取机器人前方环境图像并输入至卷积神经网络模型中,当遇到环境地图未知的障碍物时,网络模型的识别结果发布控制指令躲避障碍物,直至机器人到达目标位置。
实现本发明目的的技术方案为:一种基于深度学习的机器人自主导航控制方法,包括:
步骤1,通过数据采集系统收集机器人前方的环境图像,用于训练卷积神经网络模型;
步骤2,基于图像处理技术对机器人所处环境的已知二维平面地图进行处理,使其可以应用于机器人操作系统中,并进行机器人定位和路径规划;
步骤3,设定机器人在环境地图中的起始位置和目标位置,使用全局路径规划算法计算可行驶的最优路径;
步骤4,使用定位算法计算机器人此时所处的位置,并判定是否到达终点,如果是,则停止移动,否则继续移动;
步骤5,机器人自主导航的过程中,使用相机实时获取机器人前方环境图像,并使用训练好的网络模型识别图像,生成控制指令,躲避环境地图未知的障碍物;
步骤6,如果机器人前方存在未知障碍物影响到机器人的正常行驶,则网络模型生成相应的控制指令来躲避障碍物,同时重新计算最优路径;
步骤7,如果机器人前方不存在未知障碍物影响到机器人的正常行驶,则机器人按照之前的最优路径继续移动;
步骤8,重复步骤4至步骤7。
与现有技术相比,本发明的显著优点为:(1)设计了数据采集系统,方便了数据采集与标注,减少了时间成本;(2)使用图像处理技术对环境的已知二维平面图像进行处理,不需要控制机器人在环境中重新建图;(3)使用深度学习技术识别前方是否存在障碍物影响机器人移动,相比传统特征提取方法,该方法能够自动提取特征且效果好;(4)本发明把基于深度学习的局部避障与全局路径规划结合在一起,提高了系统的避障能力,同时提高了系统的工作效率。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面对本发明实施例所用的附图做简要的说明介绍,显而易见地,下面所描述的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于图像处理构建环境地图的流程图。
图2为本发明实施例提供的数据采集系统界面图。
图3为本发明实施例提供的卷积神经网络模型结构图。
图4为本发明实施例提供的基于深度学习的机器人自主导航控制系统的工作流程图。
图5为本发明实施例提供的基于深度学习的机器人自主导航控制系统的总体结构图。
具体实施方式
本发明提出一种基于深度学习方法的机器人自主导航控制方法及系统,不仅具备在全局路径规划的最优路径上行驶,同时可以躲避局部未知的各种障碍物。
如图1所示,基于深度学习方法的机器人自主导航控制方法,包括如下步骤:
步骤1:通过数据采集系统收集机器人前方的环境图像,用于训练卷积神经网络模型;
步骤2:基于图像处理技术对机器人所处环境的已知二维平面地图进行处理,使其可以应用于机器人操作系统中,并进行机器人定位和路径规划;
步骤3:设定机器人在环境地图中的起始位置和目标位置,使用全局路径规划算法计算可行驶的最优路径;
步骤4:在机器人移动的过程中,同时使用定位算法计算机器人此时所处的位置,并判定是否到达终点,如果是,则停止移动,结束导航,否则继续移动;
步骤5:机器人自主导航的过程中,使用相机实时获取机器人前方环境图像,并使用训练好的网络模型识别图像,生成控制指令,躲避环境地图未知的障碍物;
步骤6:如果机器人前方存在未知障碍物影响到机器人的正常行驶,则网络模型生成相应的控制指令来躲避障碍物,同时重新计算最优路径;
步骤7:如果机器人前方不存在未知障碍物影响到机器人的正常行驶,则机器人按照之前的最优路径继续移动;
步骤8:重复步骤4至步骤7。
进一步的,所述数据采集系统可实时显示相机图像,同时具备控制按钮,控制按钮可控制机器人移动以及保存图像至不同的类别路径。
进一步的,由于深度学习具备强大图像识别效果,所述的数据采集系统采集的图像是单通道的图像,大小为224*224,根据需要也可以收集深度图像用于训练网络模型。
进一步的,所述的卷积神经网络模型为七层,其中四层卷积层参数分别为5*5*32,3*3*32,3*3*64和3*3*64,来提取图像的特征图;三层全连接层参数分别为7*7*64,1024和3,将特征图转化为一维向量,进而通过概率计算进行分类。为了增强网络模型的泛化能力,在网络模型的卷积层之间加入了1*1的卷积层,在全连接层使用了Dropout。
进一步的,所述的网络模型输入为相机采集的图像,输出有三个类别,包括nav、left、right,其中nav指机器人前方没有障碍物影响机器人移动,不需要发布控制指令,left指机器人右前方存在障碍物影响机器人移动,需要发布控制机器人向左前方行驶的指令,right指机器人左前方存在障碍物影响机器人移动,需要发布控制机器人向右前方行驶的指令。
进一步的,所述的图像处理技术主要包括滤波处理、边缘检测、阈值处理等,可以把环境平面地图处理成栅格表示的地图图像,黑色代表该位置有障碍物,白色代表该位置没有障碍物。
进一步的,所述的全局路径规划算法是改进的A*算法,对传统A*算法代价函数所包含的起点至当前点代价和当前点至目标点代价,分别价赋予权重,通过改变权重参数可以获得效果更好的路线。
进一步的,所述的定位算法是自适应蒙特卡洛定位算法,使用粒子模拟机器人的移动,可以有效得到机器人的位置。
上述控制方法主要基于机器人操作系统(ROS),并在其基础上进行系统部署。
本发明还提供一种基于深度学习的机器人自主导航控制系统,包括:
定位模块,使用激光雷达获取机器人周围的环境信息,并使用自适应蒙特卡洛定位算法确定机器人此时在环境地图中的位置;
路径规划模块,使用改进代价函数的A*算法获取最优路径,通过更改代价函数中起点至当前点的代价和当前点至目标点的代价的比例,来获取效果更好的最优路径;
基于深度学习躲避局部障碍物模块,使用相机获取机器人前方图像,并输入至训练好的网络模型,输出对应的类别,包括nav、left、right,同时发布相应的机器人控制指令,来躲避前方不确定环境下的障碍物。
系统各模块的具体实现方法与上述控制方法相同。
下面结合附图对本发明的原理和特征进行详细描述,但所描述的视实例仅用于对本发明的理解,而不是限定本发明的范围。
实施例
如图1所示,基于图像处理技术构建环境地图的流程图如下:
步骤1,通过相机获取机器人工作环境的平面地图,并以灰度模式读入环境的二维平面地图;
步骤2,对环境地图的图像进行滤波处理,如高斯滤波,可以减少图像的噪声;
步骤3,对过滤噪声后的图像进行边缘检测,提取关键的图像特征;
步骤4,对边缘检测后的图像进行阈值处理,使得结果图像类似于栅格地图,黑色代表存在障碍物,白色代表不存在障碍物,便于机器人定位与路径规划;
如图2所示,数据采集系统界面如下:
步骤5,使用方框显示机器人前方的环境图像,右侧按钮open和按钮close用于打开和关闭前方环境图像的显示,同时使用下方四个按钮控制机器人,同时采集数据图像;
其中按钮nav收集机器人前方不存在影响机器人移动的障碍物的图像,按钮left和按钮right收集机器人右前方和左前方存在影响机器人移动的障碍物的图像,同时发布控制机器人向左前方和右前方移动的指令,按钮stop用于紧急情况下机器人的制动;
如图3所示,卷积神经网络模型的结构图如下:
网络模型的输入为机器人前方的环境图像,输出为对应类别,包括nav、left、right;
步骤6,使用收集的数据构建数据集,左右翻转、随机裁剪等方法可以增加数据的数量,提高网络模型的泛化能力;
步骤7,使用数据集对网络模型进行训练,得到可用的网络模型;
如图4所示,基于深度学习的机器人自主导航控制系统工作流程图如下:
步骤8,在机器人操作系统(ROS)中使用基于图像处理技术得到的环境地图,进行机器人定位和路径规划等;
步骤9,在环境地图中设定机器人的起始位置和目标位置,并使用全局路径规划算法进行路径规划,获得最优路径;
步骤10,在机器人移动的同时,使用定位算法确定机器人此时所处的位置,判断机器人是否到达目标位置,如果是,则停止导航;
步骤11,如果机器人没有到达目标位置,则使用相机实时获取机器人前方环境图像,并输入至训练好的网络模型,进行分类识别;
步骤12,如果网络模型识别的结果为nav,则机器人前方不存在障碍物影响机器人的移动,此时网络模型不对机器人发布控制指令,机器人仍然按照之前的最优路径进行自主导航;
步骤13,如果网络模型识别的结果为left或者right,则机器人前方右前方或者左前方存在障碍物影响机器人的移动,此时网络模型需要对机器人发布控制指令,使得小车向左前方或者右前方移动,来躲避障碍物,同时使用全局路径规划算法重新规划最优路径;
步骤14,重复步骤10至步骤13。
如图5所示,基于深度学习的机器人自主导航控制系统总体结构图如下:
控制系统主要包括三部分控制流:定位部分、路径规划部分、基于深度学习躲避局部障碍物部分;
定位部分主要使用激光雷达获取机器人周围的环境信息,并使用自适应蒙特卡洛定位算法确定机器人此时在环境地图中的位置;
路径规划部分使用改进代价函数的A*算法获取最优路径,通过更改代价函数中起点至当前点的代价和当前点至目标点的代价的比例,来获取效果更好的最优路径;
基于深度学习躲避局部障碍物部分主要使用相机获取机器人前方图像,并输入至训练好的网络模型,输出对应的类别,包括nav、left、right,同时发布相应的机器人控制指令,来躲避前方不确定环境下的障碍物;
由三部分控制流共同控制机器人,使得机器人具备智能的自主导航能力。
以上所述仅作为本发明的具体实例,但不用以限制本发明,任何在本发明的精神和原则之内,所做的任何修改、等同替换,改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的机器人自主导航控制方法,其特征在于,包括:
步骤1,通过数据采集系统收集机器人前方的环境图像,用于训练卷积神经网络模型;
步骤2,基于图像处理技术对机器人所处环境的已知二维平面地图进行处理,使其可以应用于机器人操作系统中,并进行机器人定位和路径规划;
步骤3,设定机器人在环境地图中的起始位置和目标位置,使用全局路径规划算法计算可行驶的最优路径;
步骤4,使用定位算法计算机器人此时所处的位置,并判定是否到达终点,如果是,则停止移动,否则继续移动;
步骤5,机器人自主导航的过程中,使用相机实时获取机器人前方环境图像,并使用训练好的网络模型识别图像,生成控制指令,躲避环境地图未知的障碍物;
步骤6,如果机器人前方存在未知障碍物影响到机器人的正常行驶,则网络模型生成相应的控制指令来躲避障碍物,同时重新计算最优路径;
步骤7,如果机器人前方不存在未知障碍物影响到机器人的正常行驶,则机器人按照之前的最优路径继续移动;
步骤8,重复步骤4至步骤7。
2.根据权利要求1所述的方法,其特征在于,所述数据采集系统可实时显示相机图像,同时具备控制按钮,控制按钮可控制机器人移动以及保存图像至不同的类别路径。
3.根据权利要求1所述的方法,其特征在于,所述数据采集系统采集的图像是单通道的图像,大小为224*224。
4.根据权利要求1所述的方法,其特征在于,所述的卷积神经网络模型为七层,其中四层卷积层参数分别为5*5*32,3*3*32,3*3*64和3*3*64,用于提取图像的特征图;三层全连接层参数分别为7*7*64,1024和3,用于将特征图转化为一维向量,进而通过概率计算进行分类;在网络模型的卷积层之间加入1*1的卷积层,在全连接层使用Dropout。
5.根据权利要求1所述的方法,其特征在于,所述的网络模型输入为相机采集的图像,输出有三个类别,包括nav、left、right,其中nav指机器人前方没有障碍物影响机器人移动,不需要发布控制指令,left指机器人右前方存在障碍物影响机器人移动,需要发布控制机器人向左前方行驶的指令,right指机器人左前方存在障碍物影响机器人移动,需要发布控制机器人向右前方行驶的指令。
6.根据权利要求1所述的方法,其特征在于,所述的图像处理技术包括滤波处理、边缘检测、阈值处理,将环境平面地图处理成栅格表示的地图图像,黑色代表该位置有障碍物,白色代表该位置没有障碍物。
7.根据权利要求1所述的方法,其特征在于,所述的全局路径规划算法为改进的A*算法,对A*算法代价函数所包含的起点至当前点代价和当前点至目标点代价,分别价赋予权重,通过改变权重参数获得效果更好的路线。
8.根据权利要求1所述的方法,其特征在于,所述的定位算法为自适应蒙特卡洛定位算法,使用粒子模拟机器人的移动,得到机器人的位置。
9.根据权利要求1所述的方法,其特征在于,所述控制方法基于机器人操作系统,并在其基础上进行系统部署。
10.一种基于权利要求1-9任意一项所述方法的机器人自主导航控制系统,其特征在于,包括:
定位模块,使用激光雷达获取机器人周围的环境信息,并使用自适应蒙特卡洛定位算法确定机器人此时在环境地图中的位置;
路径规划模块,使用改进代价函数的A*算法获取最优路径,通过更改代价函数中起点至当前点的代价和当前点至目标点的代价的比例,来获取效果更好的最优路径;
基于深度学习躲避局部障碍物模块,使用相机获取机器人前方图像,并输入至训练好的网络模型,输出对应的类别,包括nav、left、right,同时发布相应的机器人控制指令,来躲避前方不确定环境下的障碍物。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011548451.0A CN112698653A (zh) | 2020-12-23 | 2020-12-23 | 基于深度学习的机器人自主导航控制方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011548451.0A CN112698653A (zh) | 2020-12-23 | 2020-12-23 | 基于深度学习的机器人自主导航控制方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112698653A true CN112698653A (zh) | 2021-04-23 |
Family
ID=75509659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011548451.0A Pending CN112698653A (zh) | 2020-12-23 | 2020-12-23 | 基于深度学习的机器人自主导航控制方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112698653A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113589812A (zh) * | 2021-07-27 | 2021-11-02 | 行云新能科技(深圳)有限公司 | 计算机可读存储介质、智能小车及其导航方法 |
CN114200927A (zh) * | 2021-11-12 | 2022-03-18 | 北京时代富臣智能科技有限公司 | 一种物流机器人系统 |
CN114237231A (zh) * | 2021-11-29 | 2022-03-25 | 山东恒创智控科技有限公司 | 一种机器人防碰撞运动控制方法、系统及计算机 |
CN115035001A (zh) * | 2022-08-11 | 2022-09-09 | 北京唯迈医疗设备有限公司 | 基于dsa成像设备的术中导航系统、计算装置和程序产品 |
CN115855068A (zh) * | 2023-02-24 | 2023-03-28 | 派欧尼尔环境净化工程(北京)有限公司 | 一种基于bim的机器人路径自主导航方法及系统 |
CN116400605A (zh) * | 2023-06-08 | 2023-07-07 | 成都航空职业技术学院 | 一种机器人自动控制方法及系统 |
CN116681195A (zh) * | 2023-06-06 | 2023-09-01 | 深圳启示智能科技有限公司 | 一种基于人工智能的机器人寻路装置 |
CN117232531A (zh) * | 2023-11-14 | 2023-12-15 | 长沙小钴科技有限公司 | 机器人导航规划方法及存储介质和终端设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108776483A (zh) * | 2018-08-16 | 2018-11-09 | 圆通速递有限公司 | 基于蚁群算法和多智能体q学习的agv路径规划方法和系统 |
CN109213147A (zh) * | 2018-08-01 | 2019-01-15 | 上海交通大学 | 一种基于深度学习的机器人避障轨迹规划方法及系统 |
CN109724606A (zh) * | 2019-01-23 | 2019-05-07 | 北京信息科技大学 | 基于改进的a*算法的矿井突水避灾路径规划方法和装置 |
WO2019239680A1 (ja) * | 2018-06-15 | 2019-12-19 | ソニー株式会社 | 情報処理装置および情報処理方法 |
CN110956662A (zh) * | 2019-11-29 | 2020-04-03 | 北京邮电大学 | 载体避障方法、装置及电子设备 |
CN111752275A (zh) * | 2020-06-19 | 2020-10-09 | 五邑大学 | 一种用于机器人的自动巡航方法、装置和存储介质 |
CN112033413A (zh) * | 2020-09-07 | 2020-12-04 | 北京信息科技大学 | 一种结合环境信息的改进a*算法 |
-
2020
- 2020-12-23 CN CN202011548451.0A patent/CN112698653A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019239680A1 (ja) * | 2018-06-15 | 2019-12-19 | ソニー株式会社 | 情報処理装置および情報処理方法 |
CN109213147A (zh) * | 2018-08-01 | 2019-01-15 | 上海交通大学 | 一种基于深度学习的机器人避障轨迹规划方法及系统 |
CN108776483A (zh) * | 2018-08-16 | 2018-11-09 | 圆通速递有限公司 | 基于蚁群算法和多智能体q学习的agv路径规划方法和系统 |
CN109724606A (zh) * | 2019-01-23 | 2019-05-07 | 北京信息科技大学 | 基于改进的a*算法的矿井突水避灾路径规划方法和装置 |
CN110956662A (zh) * | 2019-11-29 | 2020-04-03 | 北京邮电大学 | 载体避障方法、装置及电子设备 |
CN111752275A (zh) * | 2020-06-19 | 2020-10-09 | 五邑大学 | 一种用于机器人的自动巡航方法、装置和存储介质 |
CN112033413A (zh) * | 2020-09-07 | 2020-12-04 | 北京信息科技大学 | 一种结合环境信息的改进a*算法 |
Non-Patent Citations (2)
Title |
---|
MARK PFEIFFER 等: "From Perception to Decision: A Data-driven Approach to End-to-end Motion Planning for Autonomous Ground Robots", 《 2017 IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA)》 * |
金彦亮 等: "机器人端到端视觉避障方法研究", 《工业控制计算机》 * |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113589812A (zh) * | 2021-07-27 | 2021-11-02 | 行云新能科技(深圳)有限公司 | 计算机可读存储介质、智能小车及其导航方法 |
CN114200927A (zh) * | 2021-11-12 | 2022-03-18 | 北京时代富臣智能科技有限公司 | 一种物流机器人系统 |
CN114237231A (zh) * | 2021-11-29 | 2022-03-25 | 山东恒创智控科技有限公司 | 一种机器人防碰撞运动控制方法、系统及计算机 |
CN115035001A (zh) * | 2022-08-11 | 2022-09-09 | 北京唯迈医疗设备有限公司 | 基于dsa成像设备的术中导航系统、计算装置和程序产品 |
CN115035001B (zh) * | 2022-08-11 | 2022-12-09 | 北京唯迈医疗设备有限公司 | 基于dsa成像设备的术中导航系统、计算装置和程序产品 |
CN115855068A (zh) * | 2023-02-24 | 2023-03-28 | 派欧尼尔环境净化工程(北京)有限公司 | 一种基于bim的机器人路径自主导航方法及系统 |
CN116681195A (zh) * | 2023-06-06 | 2023-09-01 | 深圳启示智能科技有限公司 | 一种基于人工智能的机器人寻路装置 |
CN116400605A (zh) * | 2023-06-08 | 2023-07-07 | 成都航空职业技术学院 | 一种机器人自动控制方法及系统 |
CN116400605B (zh) * | 2023-06-08 | 2023-08-11 | 成都航空职业技术学院 | 一种机器人自动控制方法及系统 |
CN117232531A (zh) * | 2023-11-14 | 2023-12-15 | 长沙小钴科技有限公司 | 机器人导航规划方法及存储介质和终端设备 |
CN117232531B (zh) * | 2023-11-14 | 2024-01-30 | 长沙小钴科技有限公司 | 机器人导航规划方法及存储介质和终端设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112698653A (zh) | 基于深度学习的机器人自主导航控制方法及系统 | |
CN114384920B (zh) | 一种基于局部栅格地图实时构建的动态避障方法 | |
CN110363058B (zh) | 使用单触发卷积神经网络的用于避障的三维对象定位 | |
EP3405845B1 (en) | Object-focused active three-dimensional reconstruction | |
Sales et al. | Adaptive finite state machine based visual autonomous navigation system | |
CN110765906A (zh) | 一种基于关键点的行人检测算法 | |
CN112965081A (zh) | 基于融合行人信息的特征地图的模仿学习社交导航方法 | |
US20220301099A1 (en) | Systems and methods for generating object detection labels using foveated image magnification for autonomous driving | |
CN110929670A (zh) | 基于yolo3技术的渣土车洁净度视频识别分析方法 | |
Wang et al. | End-to-end self-driving approach independent of irrelevant roadside objects with auto-encoder | |
CN111402632B (zh) | 一种交叉口行人运动轨迹的风险预测方法 | |
Kanchana et al. | Computer vision for autonomous driving | |
Wang et al. | Estimating pedestrian crossing states based on single 2D body pose | |
CN115272712A (zh) | 一种融合运动目标分析的行人轨迹预测方法 | |
Wang et al. | Camera based decision making at roundabouts for autonomous vehicles | |
CN117173931A (zh) | 一种基于图神经网络的人与非机动车碰撞预判方法及系统 | |
Zhang et al. | A convolutional neural network method for self-driving cars | |
Kress et al. | Pose and semantic map based probabilistic forecast of vulnerable road users trajectories | |
CN114842660B (zh) | 一种无人车道路轨迹预测方法、装置和电子设备 | |
Rezaei et al. | A Deep Learning-Based Approach for Vehicle Motion Prediction in Autonomous Driving | |
CN115373383A (zh) | 一种垃圾回收无人艇的自主避障方法、装置及相关设备 | |
Agrawal et al. | YOLO Algorithm Implementation for Real Time Object Detection and Tracking | |
CN112487920B (zh) | 一种基于卷积神经网络的翻越行为识别方法 | |
CN114152955A (zh) | 一种基于slam技术的障碍物高精度识别系统 | |
Sales et al. | Fsm-based visual navigation for autonomous vehicles |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210423 |