CN111026115A - 一种基于深度学习的机器人避障控制方法及装置 - Google Patents
一种基于深度学习的机器人避障控制方法及装置 Download PDFInfo
- Publication number
- CN111026115A CN111026115A CN201911284682.2A CN201911284682A CN111026115A CN 111026115 A CN111026115 A CN 111026115A CN 201911284682 A CN201911284682 A CN 201911284682A CN 111026115 A CN111026115 A CN 111026115A
- Authority
- CN
- China
- Prior art keywords
- robot
- obstacle
- information
- moving
- current position
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000013135 deep learning Methods 0.000 title claims abstract description 32
- 230000007613 environmental effect Effects 0.000 claims abstract description 20
- 230000000007 visual effect Effects 0.000 claims description 26
- 238000010586 diagram Methods 0.000 claims description 20
- 230000004888 barrier function Effects 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 description 14
- 238000001914 filtration Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
本发明公开了一种基于深度学习的机器人避障控制方法及装置,其中,所述方法包括:基于环境采集设备采集机器人当前位置的环境数据信息;基于环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得移动障碍物下一时刻的预测位置;基于机器人的里程计获得所述机器人当前位置信息;基于机器人的当前位置信息和移动障碍物下一时刻的预测位置生成控制机器人规避障碍物的避障控制指令;机器人控制器响应所述避障控制指令,控制机器人规避移动障碍物。在本发明实施例中,可以准确的预测移动障碍物的位置信息,快速生成控制机器人规避移动障碍物的控制指令,以快速控制机器人完成障碍物的规避,提升避障准确度。
Description
技术领域
本发明涉及机器人自动控制技术领域,尤其涉及一种基于深度学习的机器人避障控制方法及装置。
背景技术
随着机器人技术的逐渐成熟,机器人被广泛应用于生产线上的、工业服务上,室内移动客户服务以及危险作业等;尤其应用在室内移动客户服务时,需要在室内进行时刻移动,在室内,存在各种人员走动以及物品的摆放等,将存在多个对于机器人来说为移动障碍物和固定障碍物的物品,将严重的影响机器人的安全、高效的规避障碍物的移动。
发明内容
本发明的目的在于克服现有技术的不足,本发明提供了一种基于深度学习的机器人避障控制方法及装置,可以准确的预测移动障碍物的位置信息,快速生成控制机器人规避移动障碍物的控制指令,以快速控制机器人完成障碍物的规避,提升避障准确度;实现控制机器人安全、高效的规避障碍物的移动。
为了解决上述技术问题,本发明实施例提供了一种基于深度学习的机器人避障控制方法,所述方法包括:
基于环境采集设备采集机器人当前位置的环境数据信息;以及,
基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得所述移动障碍物下一时刻的预测位置;
基于所述机器人的里程计获得所述机器人当前位置信息;
基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令;
所述机器人控制器响应所述避障控制指令,控制所述机器人规避移动障碍物。
可选的,所述基于环境采集设备采集机器人当前位置的环境数据信息,包括:
基于激光传感器以及双目视频采集设备采集所述机器人当前位置的环境数据信息。
可选的,所述基于激光传感器以及双目视频采集设备采集所述机器人当前位置的环境数据信息,包括:
基于所述激光传感器采集所述机器人至当前环境下周围物体的距离信息和角度信息;
基于所述双目视频采集设备对采集的视频图像构成出观测场景的视觉差图;
基于所述观测场景的视觉差图确定环境空间结构图;
基于所述距离信息、角度信息以及环境空间结构图构建出所述机器人在当前位置的环境数据信息;
所述环境数据信息包括障碍物的移动趋势、所述机器人距离障碍物的距离信息、角度信息。
可选的,所述基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,包括:
将所述环境数据信息输入训练收敛的深度学习算法对所述移动障碍物的下一时刻位置进行预测处理。
可选的,所述基于所述机器人的里程计获得所述机器人当前位置信息,包括:
所述机器人读取当前里程计的里程数据信息;
将所述里程数据信息结合至所述机器人内置地图信息中获得所述机器人的当前位置信息。
可选的,所述基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令,包括:
基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置进行避障路径规划处理,获得所述机器人的避障规划路径;
基于所述机器人的避障规划路径生成控制所述机器人规避障碍物的避障控制指令。
可选的,所述控制所述机器人规避移动障碍物,还包括:
在控制所述机器人规避移动障碍物的过程中,利用所述环境采集设备获得实时环境数据信息,并基于所述实时环境数据信息进行机器人所述机器人规避移动障碍物路径的微调。
另外,本发明实施例还提供了一种基于深度学习的机器人避障控制装置,所述装置包括:
数据采集模块:用于基于环境采集设备采集机器人当前位置的环境数据信息;以及,
位置预测模块:用于基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得所述移动障碍物下一时刻的预测位置;
位置信息获得模块:用于基于所述机器人的里程计获得所述机器人当前位置信息;
控制指令生成模块:用于基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令;
指令响应模块:用于所述机器人控制器响应所述避障控制指令,控制所述机器人规避移动障碍物。
在本发明实施例中,基于环境采集设备采集机器人当前位置的环境数据信息;基于环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得移动障碍物下一时刻的预测位置;基于机器人的里程计获得所述机器人当前位置信息;基于机器人的当前位置信息和移动障碍物下一时刻的预测位置生成控制机器人规避障碍物的避障控制指令;机器人控制器响应所述避障控制指令,控制机器人规避移动障碍物;可以准确的预测移动障碍物的位置信息,快速生成控制机器人规避移动障碍物的控制指令,以快速控制机器人完成障碍物的规避,提升避障准确度;实现控制机器人安全、高效的规避障碍物的移动。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见的,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例中的基于深度学习的机器人避障控制方法的流程示意图;
图2是本发明实施例中的基于深度学习的机器人避障控制装置的结构组成示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
实施例
请参阅图1,图1是本发明实施例中的基于深度学习的机器人避障控制方法的流程示意图。
如图1所示,一种基于深度学习的机器人避障控制方法,所述方法包括:
S11:基于环境采集设备采集机器人当前位置的环境数据信息;
在本发明具体实施过程中,所述基于环境采集设备采集机器人当前位置的环境数据信息,包括:基于激光传感器以及双目视频采集设备采集所述机器人当前位置的环境数据信息。
进一步的,所述基于激光传感器以及双目视频采集设备采集所述机器人当前位置的环境数据信息,包括:基于所述激光传感器采集所述机器人至当前环境下周围物体的距离信息和角度信息;基于所述双目视频采集设备对采集的视频图像构成出观测场景的视觉差图;基于所述观测场景的视觉差图确定环境空间结构图;基于所述距离信息、角度信息以及环境空间结构图构建出所述机器人在当前位置的环境数据信息;所述环境数据信息包括障碍物的移动趋势、所述机器人距离障碍物的距离信息、角度信息。
具体的,通过激光传感器和双目视频采集设备采集该机器人当前位置的环境数据信息;具体是通过激光传感器采集机器人至当前环境下周围物体的距离信息和角度信息;然后通过双目视频采集设备对采集的视频图像构成出观测场景的视觉差图;通过该观测场景的视觉差图确定环境空间结构图,并根据距离信息、角度信息以及环境空间结构图构建出机器人在当前位置的环境数据信息;该环境数据信息包括障碍物的移动趋势、所述机器人距离障碍物的距离信息、角度信息。
在构建视觉差图之前,需要对图像预处理,以利于生成更为明显的视觉差图,在经过大量测试后,高斯滤波算法具有很好的效果,经过高斯滤波后图像纹理明显增强。本领域内技术人员可以理解,为了生成更好的视差图,不排除使用其他预处理算法。以双目视频采集设备建立坐标系,并作为坐标系的原点为左摄像头投影中心,X轴由原点指向右摄像头投影中心,Z轴垂直于摄像机成像平面指向前方,Y轴垂直于X-Z平面箭头向下;经过高斯滤波算法,在经过匹配而得到的视觉差图,视差图上每一个值代表位于摄像头前的某一距离值。视觉差越大表示距离越近,其中灰度值越大的区域亮度越高,表示与摄像头的相对距离越近;在获得视差图后,首先将视觉差图上所有像素点的值归一化到0~255范围内,然后遍历整个视差图,统计每个视差值出现的次数,视差在预设范围内的像素点总个数超过预设阈值时则认为可能是障碍物,例如在占有图片四分之一范围内的同一个像素值的像素点个数为超过100个为障碍物。利用该障碍物判断方法可以检测出障碍物,从而有效避障。在本发明实施例中,可以利用基于傅里叶变换的图像拼接算法,例如两个相邻方向的阻碍壁的图像拼接算法,此算法对两幅待拼接的数字图像进行二维离散傅里叶变换,从而构建观测场景的视觉差图。
S12:基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得所述移动障碍物下一时刻的预测位置;
在本发明具体实施过程中,所述基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,包括:将所述环境数据信息输入训练收敛的深度学习算法对所述移动障碍物的下一时刻位置进行预测处理。
具体的,该深度学习算法可以为深度神经网络模型,通过采集的历史数据输入构建好的深度神经网络模型中进行训练,直至训练后的深度神经网络模型收敛,则为训练好的深度神经网络模型,将该环境数据信息输入训练好的深度神经网络模型中进行预测处理,由输出层输出预测结果;通过深度神经网络模型进行预测,可以在大概率的情况下准确的预测到移动障碍物的下一时刻位置信息。
S13:基于所述机器人的里程计获得所述机器人当前位置信息;
在本发明具体实施过程中,所述基于所述机器人的里程计获得所述机器人当前位置信息,包括:所述机器人读取当前里程计的里程数据信息;将所述里程数据信息结合至所述机器人内置地图信息中获得所述机器人的当前位置信息。
具体的,通过机器人内置的数据读取程序读取当前里程计的里程数据,并且调用机器人内置的地图信息;将当前里程计的里程数据结合机器人内置地图信息获得机器人的当前位置信息。
S14:基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令;
在本发明具体实施过程中,所述基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令,包括:基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置进行避障路径规划处理,获得所述机器人的避障规划路径;基于所述机器人的避障规划路径生成控制所述机器人规避障碍物的避障控制指令。
具体的,根据机器人的当前位置信息和移动障碍物下一时刻的预测位置利用路径优化算法进行避障规划处理,从而可以获得该机器人的避障规划路径;然后通过机器人的避障规划路径生成用于控制该机器人规避障碍物的避障控制指令。
S15:所述机器人控制器响应所述避障控制指令,控制所述机器人规避移动障碍物。
在本发明具体实施过程中,所述控制所述机器人规避移动障碍物,还包括:在控制所述机器人规避移动障碍物的过程中,利用所述环境采集设备获得实时环境数据信息,并基于所述实时环境数据信息进行机器人所述机器人规避移动障碍物路径的微调。
在本发明具体实施过程中,该机器人的控制器在接收到该避障控制指令之后,响应该避障控制指令,控制该机器人按照规划的路径规避移动障碍物;并且在该机器人规避移动障碍物的过程中,利用环境采集设备获得实时环境数据信息,并通过该实时环境数据信息进行机器人所述机器人规避移动障碍物路径的微调。
在本发明实施例中,基于环境采集设备采集机器人当前位置的环境数据信息;基于环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得移动障碍物下一时刻的预测位置;基于机器人的里程计获得所述机器人当前位置信息;基于机器人的当前位置信息和移动障碍物下一时刻的预测位置生成控制机器人规避障碍物的避障控制指令;机器人控制器响应所述避障控制指令,控制机器人规避移动障碍物;可以准确的预测移动障碍物的位置信息,快速生成控制机器人规避移动障碍物的控制指令,以快速控制机器人完成障碍物的规避,提升避障准确度;实现控制机器人安全、高效的规避障碍物的移动。
实施例
请参阅图2,图2是本发明实施例中的基于深度学习的机器人避障控制装置的结构组成示意图。
如图2所示,一种基于深度学习的机器人避障控制装置,所述装置包括:
数据采集模块21:用于基于环境采集设备采集机器人当前位置的环境数据信息;
在本发明具体实施过程中,所述基于环境采集设备采集机器人当前位置的环境数据信息,包括:基于激光传感器以及双目视频采集设备采集所述机器人当前位置的环境数据信息。
进一步的,所述基于激光传感器以及双目视频采集设备采集所述机器人当前位置的环境数据信息,包括:基于所述激光传感器采集所述机器人至当前环境下周围物体的距离信息和角度信息;基于所述双目视频采集设备对采集的视频图像构成出观测场景的视觉差图;基于所述观测场景的视觉差图确定环境空间结构图;基于所述距离信息、角度信息以及环境空间结构图构建出所述机器人在当前位置的环境数据信息;所述环境数据信息包括障碍物的移动趋势、所述机器人距离障碍物的距离信息、角度信息。
具体的,通过激光传感器和双目视频采集设备采集该机器人当前位置的环境数据信息;具体是通过激光传感器采集机器人至当前环境下周围物体的距离信息和角度信息;然后通过双目视频采集设备对采集的视频图像构成出观测场景的视觉差图;通过该观测场景的视觉差图确定环境空间结构图,并根据距离信息、角度信息以及环境空间结构图构建出机器人在当前位置的环境数据信息;该环境数据信息包括障碍物的移动趋势、所述机器人距离障碍物的距离信息、角度信息。
在构建视觉差图之前,需要对图像预处理,以利于生成更为明显的视觉差图,在经过大量测试后,高斯滤波算法具有很好的效果,经过高斯滤波后图像纹理明显增强。本领域内技术人员可以理解,为了生成更好的视差图,不排除使用其他预处理算法。以双目视频采集设备建立坐标系,并作为坐标系的原点为左摄像头投影中心,X轴由原点指向右摄像头投影中心,Z轴垂直于摄像机成像平面指向前方,Y轴垂直于X-Z平面箭头向下;经过高斯滤波算法,在经过匹配而得到的视觉差图,视差图上每一个值代表位于摄像头前的某一距离值。视觉差越大表示距离越近,其中灰度值越大的区域亮度越高,表示与摄像头的相对距离越近;在获得视差图后,首先将视觉差图上所有像素点的值归一化到0~255范围内,然后遍历整个视差图,统计每个视差值出现的次数,视差在预设范围内的像素点总个数超过预设阈值时则认为可能是障碍物,例如在占有图片四分之一范围内的同一个像素值的像素点个数为超过100个为障碍物。利用该障碍物判断方法可以检测出障碍物,从而有效避障。在本发明实施例中,可以利用基于傅里叶变换的图像拼接算法,例如两个相邻方向的阻碍壁的图像拼接算法,此算法对两幅待拼接的数字图像进行二维离散傅里叶变换,从而构建观测场景的视觉差图。
位置预测模块22:用于基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得所述移动障碍物下一时刻的预测位置;
在本发明具体实施过程中,所述基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,包括:将所述环境数据信息输入训练收敛的深度学习算法对所述移动障碍物的下一时刻位置进行预测处理。
具体的,该深度学习算法可以为深度神经网络模型,通过采集的历史数据输入构建好的深度神经网络模型中进行训练,直至训练后的深度神经网络模型收敛,则为训练好的深度神经网络模型,将该环境数据信息输入训练好的深度神经网络模型中进行预测处理,由输出层输出预测结果;通过深度神经网络模型进行预测,可以在大概率的情况下准确的预测到移动障碍物的下一时刻位置信息。
位置信息获得模块23:用于基于所述机器人的里程计获得所述机器人当前位置信息;
在本发明具体实施过程中,所述基于所述机器人的里程计获得所述机器人当前位置信息,包括:所述机器人读取当前里程计的里程数据信息;将所述里程数据信息结合至所述机器人内置地图信息中获得所述机器人的当前位置信息。
具体的,通过机器人内置的数据读取程序读取当前里程计的里程数据,并且调用机器人内置的地图信息;将当前里程计的里程数据结合机器人内置地图信息获得机器人的当前位置信息。
控制指令生成模块24:用于基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令;
在本发明具体实施过程中,所述基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令,包括:基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置进行避障路径规划处理,获得所述机器人的避障规划路径;基于所述机器人的避障规划路径生成控制所述机器人规避障碍物的避障控制指令。
具体的,根据机器人的当前位置信息和移动障碍物下一时刻的预测位置利用路径优化算法进行避障规划处理,从而可以获得该机器人的避障规划路径;然后通过机器人的避障规划路径生成用于控制该机器人规避障碍物的避障控制指令。
指令响应模块25:用于所述机器人控制器响应所述避障控制指令,控制所述机器人规避移动障碍物。
在本发明具体实施过程中,所述控制所述机器人规避移动障碍物,还包括:在控制所述机器人规避移动障碍物的过程中,利用所述环境采集设备获得实时环境数据信息,并基于所述实时环境数据信息进行机器人所述机器人规避移动障碍物路径的微调。
在本发明具体实施过程中,该机器人的控制器在接收到该避障控制指令之后,响应该避障控制指令,控制该机器人按照规划的路径规避移动障碍物;并且在该机器人规避移动障碍物的过程中,利用环境采集设备获得实时环境数据信息,并通过该实时环境数据信息进行机器人所述机器人规避移动障碍物路径的微调。
在本发明实施例中,基于环境采集设备采集机器人当前位置的环境数据信息;基于环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得移动障碍物下一时刻的预测位置;基于机器人的里程计获得所述机器人当前位置信息;基于机器人的当前位置信息和移动障碍物下一时刻的预测位置生成控制机器人规避障碍物的避障控制指令;机器人控制器响应所述避障控制指令,控制机器人规避移动障碍物;可以准确的预测移动障碍物的位置信息,快速生成控制机器人规避移动障碍物的控制指令,以快速控制机器人完成障碍物的规避,提升避障准确度;实现控制机器人安全、高效的规避障碍物的移动。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质可以包括:只读存储器(ROM,ReadOnly Memory)、随机存取存储器(RAM,Random AccessMemory)、磁盘或光盘等。
另外,以上对本发明实施例所提供的一种基于深度学习的机器人避障控制方法及装置进行了详细介绍,本文中应采用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种基于深度学习的机器人避障控制方法,其特征在于,所述方法包括:
基于环境采集设备采集机器人当前位置的环境数据信息;以及,
基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得所述移动障碍物下一时刻的预测位置;
基于所述机器人的里程计获得所述机器人当前位置信息;
基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令;
所述机器人控制器响应所述避障控制指令,控制所述机器人规避移动障碍物。
2.根据权利要求1所述的机器人避障控制方法,其特征在于,所述基于环境采集设备采集机器人当前位置的环境数据信息,包括:
基于激光传感器以及双目视频采集设备采集所述机器人当前位置的环境数据信息。
3.根据权利要求2所述的机器人避障控制方法,其特征在于,所述基于激光传感器以及双目视频采集设备采集所述机器人当前位置的环境数据信息,包括:
基于所述激光传感器采集所述机器人至当前环境下周围物体的距离信息和角度信息;
基于所述双目视频采集设备对采集的视频图像构成出观测场景的视觉差图;
基于所述观测场景的视觉差图确定环境空间结构图;
基于所述距离信息、角度信息以及环境空间结构图构建出所述机器人在当前位置的环境数据信息;
所述环境数据信息包括障碍物的移动趋势、所述机器人距离障碍物的距离信息、角度信息。
4.根据权利要求1所述的机器人避障控制方法,其特征在于,所述基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,包括:
将所述环境数据信息输入训练收敛的深度学习算法对所述移动障碍物的下一时刻位置进行预测处理。
5.根据权利要求1所述的机器人避障控制方法,其特征在于,所述基于所述机器人的里程计获得所述机器人当前位置信息,包括:
所述机器人读取当前里程计的里程数据信息;
将所述里程数据信息结合至所述机器人内置地图信息中获得所述机器人的当前位置信息。
6.根据权利要求1所述的机器人避障控制方法,其特征在于,所述基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令,包括:
基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置进行避障路径规划处理,获得所述机器人的避障规划路径;
基于所述机器人的避障规划路径生成控制所述机器人规避障碍物的避障控制指令。
7.根据权利要求1所述的机器人避障控制方法,其特征在于,所述控制所述机器人规避移动障碍物,还包括:
在控制所述机器人规避移动障碍物的过程中,利用所述环境采集设备获得实时环境数据信息,并基于所述实时环境数据信息进行机器人所述机器人规避移动障碍物路径的微调。
8.一种基于深度学习的机器人避障控制装置,其特征在于,所述装置包括:
数据采集模块:用于基于环境采集设备采集机器人当前位置的环境数据信息;以及,
位置预测模块:用于基于所述环境数据信息利用深度学习算法对移动障碍物的下一时刻位置进行预测处理,获得所述移动障碍物下一时刻的预测位置;
位置信息获得模块:用于基于所述机器人的里程计获得所述机器人当前位置信息;
控制指令生成模块:用于基于所述机器人的当前位置信息和所述移动障碍物下一时刻的预测位置生成控制所述机器人规避障碍物的避障控制指令;
指令响应模块:用于所述机器人控制器响应所述避障控制指令,控制所述机器人规避移动障碍物。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911284682.2A CN111026115A (zh) | 2019-12-13 | 2019-12-13 | 一种基于深度学习的机器人避障控制方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911284682.2A CN111026115A (zh) | 2019-12-13 | 2019-12-13 | 一种基于深度学习的机器人避障控制方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111026115A true CN111026115A (zh) | 2020-04-17 |
Family
ID=70209037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911284682.2A Pending CN111026115A (zh) | 2019-12-13 | 2019-12-13 | 一种基于深度学习的机器人避障控制方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111026115A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111975769A (zh) * | 2020-07-16 | 2020-11-24 | 华南理工大学 | 基于元学习的移动机器人避障方法 |
CN112975989A (zh) * | 2021-04-21 | 2021-06-18 | 炬星科技(深圳)有限公司 | 机器人安全运行方法、设备及存储介质 |
CN113400279A (zh) * | 2021-06-03 | 2021-09-17 | 南京机器人研究院有限公司 | 一种工业机器人视觉检测及避障系统 |
WO2023124735A1 (zh) * | 2021-12-31 | 2023-07-06 | 广东美的白色家电技术创新中心有限公司 | 机器人控制方法、装置、系统及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359229A (zh) * | 2008-08-18 | 2009-02-04 | 浙江大学 | 一种基于障碍物运动预测的移动机器人避障方法 |
CN101943916A (zh) * | 2010-09-07 | 2011-01-12 | 陕西科技大学 | 一种基于卡尔曼滤波器预测的机器人避障方法 |
JP2013045265A (ja) * | 2011-08-24 | 2013-03-04 | Toyota Central R&D Labs Inc | 自律移動体 |
CN103558856A (zh) * | 2013-11-21 | 2014-02-05 | 东南大学 | 动态环境下服务动机器人导航方法 |
CN103699124A (zh) * | 2013-12-04 | 2014-04-02 | 北京工业大学 | 一种用于全向智能轮椅避障的模糊神经网络控制方法 |
CN104407616A (zh) * | 2014-12-03 | 2015-03-11 | 沈阳工业大学 | 基于免疫网络算法的移动机器人动态路径规划方法 |
CN107492113A (zh) * | 2017-06-01 | 2017-12-19 | 南京行者易智能交通科技有限公司 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
CN108958263A (zh) * | 2018-08-03 | 2018-12-07 | 江苏木盟智能科技有限公司 | 一种机器人避障方法及机器人 |
US20190286145A1 (en) * | 2018-03-14 | 2019-09-19 | Omron Adept Technologies, Inc. | Method and Apparatus for Dynamic Obstacle Avoidance by Mobile Robots |
-
2019
- 2019-12-13 CN CN201911284682.2A patent/CN111026115A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101359229A (zh) * | 2008-08-18 | 2009-02-04 | 浙江大学 | 一种基于障碍物运动预测的移动机器人避障方法 |
CN101943916A (zh) * | 2010-09-07 | 2011-01-12 | 陕西科技大学 | 一种基于卡尔曼滤波器预测的机器人避障方法 |
JP2013045265A (ja) * | 2011-08-24 | 2013-03-04 | Toyota Central R&D Labs Inc | 自律移動体 |
CN103558856A (zh) * | 2013-11-21 | 2014-02-05 | 东南大学 | 动态环境下服务动机器人导航方法 |
CN103699124A (zh) * | 2013-12-04 | 2014-04-02 | 北京工业大学 | 一种用于全向智能轮椅避障的模糊神经网络控制方法 |
CN104407616A (zh) * | 2014-12-03 | 2015-03-11 | 沈阳工业大学 | 基于免疫网络算法的移动机器人动态路径规划方法 |
CN107492113A (zh) * | 2017-06-01 | 2017-12-19 | 南京行者易智能交通科技有限公司 | 一种视频图像中运动目标位置预测模型训练方法、位置预测方法及轨迹预测方法 |
US20190286145A1 (en) * | 2018-03-14 | 2019-09-19 | Omron Adept Technologies, Inc. | Method and Apparatus for Dynamic Obstacle Avoidance by Mobile Robots |
CN108958263A (zh) * | 2018-08-03 | 2018-12-07 | 江苏木盟智能科技有限公司 | 一种机器人避障方法及机器人 |
Non-Patent Citations (2)
Title |
---|
KYUSHIK MIN等: "RNN-Based Path Prediction of Obstacle Vehicles With Deep Ensemble", 《IEEE TRANSACTIONS ON VEHICULAR TECHNOLOGY》 * |
李彩虹等: "移动机器人动态避障算法", 《山东大学学报(工学版)》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111975769A (zh) * | 2020-07-16 | 2020-11-24 | 华南理工大学 | 基于元学习的移动机器人避障方法 |
CN112975989A (zh) * | 2021-04-21 | 2021-06-18 | 炬星科技(深圳)有限公司 | 机器人安全运行方法、设备及存储介质 |
CN112975989B (zh) * | 2021-04-21 | 2021-08-03 | 炬星科技(深圳)有限公司 | 机器人安全运行方法、设备及存储介质 |
CN113400279A (zh) * | 2021-06-03 | 2021-09-17 | 南京机器人研究院有限公司 | 一种工业机器人视觉检测及避障系统 |
CN113400279B (zh) * | 2021-06-03 | 2022-05-10 | 南京机器人研究院有限公司 | 一种工业机器人视觉检测及避障系统 |
WO2023124735A1 (zh) * | 2021-12-31 | 2023-07-06 | 广东美的白色家电技术创新中心有限公司 | 机器人控制方法、装置、系统及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11915502B2 (en) | Systems and methods for depth map sampling | |
CN111026115A (zh) | 一种基于深度学习的机器人避障控制方法及装置 | |
EP3852064B1 (en) | Object labeling method and apparatus, movement control method and apparatus, device, and storage medium | |
US11151734B2 (en) | Method and system for generating synthetic point cloud data using a generative model | |
CN107341442B (zh) | 运动控制方法、装置、计算机设备和服务机器人 | |
JP4409035B2 (ja) | 画像処理装置、特異箇所検出方法、及び特異箇所検出プログラムを記録した記録媒体 | |
KR20150021526A (ko) | 데이터베이스 생성 및 업데이트를 위한 심도 기반 추적을 이용하는 자기 학습 얼굴 인식 기법 | |
CN112967388B (zh) | 三维时序图像神经网络模型的训练方法和装置 | |
CN110796104A (zh) | 目标检测方法、装置、存储介质及无人机 | |
KR102330055B1 (ko) | 드론을 이용한 구조물의 변화 검출 방법 및 시스템 | |
CN112287824A (zh) | 基于双目视觉的三维目标检测方法、装置及系统 | |
CN118279876B (zh) | 一种基于图像处理的清洁车自动避障方法及系统 | |
CN112171675A (zh) | 一种移动机器人的避障方法、装置、机器人及存储介质 | |
CN113065379B (zh) | 融合图像质量的图像检测方法、装置、电子设备 | |
WO2022198175A1 (en) | Systems and methods for generating object detection labels using foveated image magnification for autonomous driving | |
CN116380110B (zh) | 一种基于大数据无人驾驶车辆实时路径规划方法 | |
JP2020021368A (ja) | 画像解析システム、画像解析方法及び画像解析プログラム | |
KR102232629B1 (ko) | 통신 품질 정보에 기초하여 맵을 생성하는 서버 및 방법 그리고 맵에 따라 주행하는 이동 로봇 | |
CN112084815A (zh) | 一种基于摄像机焦距变换的目标检测方法、存储介质及处理器 | |
Baig et al. | Low level data fusion of laser and monocular color camera using occupancy grid framework | |
CN115909253A (zh) | 一种目标检测、模型训练方法、装置、设备及存储介质 | |
CN115213903A (zh) | 一种基于障碍规避的移动机器人路径规划方法及装置 | |
EP4199498A1 (en) | Site model updating method and system | |
CN115855086A (zh) | 基于自旋转的室内场景自主重建方法、系统及介质 | |
CN116700228A (zh) | 机器人路径规划方法、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200417 |