CN109960254A - 机器人及其路径规划方法 - Google Patents
机器人及其路径规划方法 Download PDFInfo
- Publication number
- CN109960254A CN109960254A CN201711430279.7A CN201711430279A CN109960254A CN 109960254 A CN109960254 A CN 109960254A CN 201711430279 A CN201711430279 A CN 201711430279A CN 109960254 A CN109960254 A CN 109960254A
- Authority
- CN
- China
- Prior art keywords
- data
- robot
- sensor
- electromagnetic wave
- matched
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000000007 visual effect Effects 0.000 claims abstract description 46
- 230000004888 barrier function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 8
- 230000008878 coupling Effects 0.000 description 4
- 238000010168 coupling process Methods 0.000 description 4
- 238000005859 coupling reaction Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000033001 locomotion Effects 0.000 description 4
- 230000005611 electricity Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 241000700647 Variola virus Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0257—Control of position or course in two dimensions specially adapted to land vehicles using a radar
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Remote Sensing (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Multimedia (AREA)
- Electromagnetism (AREA)
- Navigation (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Abstract
本申请公开了一种机器人及其路径规划方法,该机器人包括:电磁波传感器,用于实时采集用来定位的电磁波相关数据;电磁波定位匹配电路,用于将电磁波传感器实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得第一匹配数据;视觉数据采集装置,用于实时采集用来定位的视觉相关数据;视觉定位匹配电路,用于将视觉数据采集装置实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得第二匹配数据;处理器,用于根据第一匹配数据和第二匹配数据对机器人进行路径规划。通过上述方式,本申请能够提高定位匹配的准确性,确保导航行为的准确性和流畅度。
Description
技术领域
本申请涉及机器人技术领域,特别是涉及一种机器人及其路径规划方法。
背景技术
移动机器人研究是机器人学中的一个重要分支,目前,随着机器人技术的不断进步,移动机器人的应用领域越来越广泛,其重要发展方向是全自动化,即自主导航、自主避障和自主定位。
现在机器人导航基本上都是基于雷达进行导航的。但是。雷达有其固有的弱点,例如:对于某些高反射镜面材料、黑色高反光材料等识别效果差、多人围观后定位匹配度过低(如小于70%),导致定位失败,定位丢失,导致机器人移动轨迹异常,等等。
发明内容
本申请主要解决的技术问题是提供一种机器人及其路径规划方法,能够提高定位匹配的准确性,确保导航行为的准确性和流畅度。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种机器人,所述机器人包括:电磁波传感器,用于实时采集用来定位的电磁波相关数据;电磁波定位匹配电路,与所述电磁波传感器连接,用于将所述电磁波传感器实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据;视觉数据采集装置,用于实时采集用来定位的视觉相关数据;视觉定位匹配电路,与所述视觉数据采集装置连接,用于将所述视觉数据采集装置实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据;处理器,分别与所述电磁波定位匹配电路和所述视觉定位匹配电路连接,用于根据所述第一匹配数据和所述第二匹配数据对所述机器人进行路径规划。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种机器人的路径规划方法,所述方法包括:分别通过电磁波传感器和视觉数据采集装置实时采集用来定位的电磁波相关数据和视觉相关数据;将实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据,将实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据;根据所述第一匹配数据和所述第二匹配数据对所述机器人进行路径规划。
本申请的有益效果是:区别于现有技术的情况,本申请机器人包括:电磁波传感器,用于实时采集用来定位的电磁波相关数据;电磁波定位匹配电路,与电磁波传感器连接,用于将电磁波传感器实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据;视觉数据采集装置,用于实时采集用来定位的视觉相关数据;视觉定位匹配电路,与视觉数据采集装置连接,用于将视觉数据采集装置实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据;处理器,分别与电磁波定位匹配电路和视觉定位匹配电路连接,用于根据第一匹配数据和第二匹配数据对机器人进行路径规划。由于在进行路径规划时,结合实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据以及实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据,并不是单一的根据第一匹配数据或者第二匹配数据,充分利用电磁波定位和视觉定位两者的优势,通过这种方式,能够提高定位匹配的准确性,确保导航行为的准确性和流畅度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请机器人一实施方式的结构示意图;
图2是本申请机器人另一实施方式的结构示意图;
图3是本申请机器人又一实施方式的结构示意图;
图4是本申请机器人又一实施方式的结构示意图;
图5是本申请机器人的路径规划方法一实施方式的流程示意图;
图6是本申请机器人的路径规划方法另一实施方式的流程示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性的劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
参阅图1,图1是本申请机器人一实施方式的结构示意图,该机器人100包括:电磁波传感器11、电磁波定位匹配电路12、视觉数据采集装置13、视觉定位匹配电路14以及处理器15。
电磁波传感器11用于实时采集用来定位的电磁波相关数据。
电磁波传感器11是指利用电磁波探测目标物体,以获得目标物体至电磁波发射点的距离、距离变化率、方位、高度等方面的数据的传感器。电磁波传感器包括但不限于:雷达传感器、红外传感器、超声传感器,等等。
电磁波传感器11实时采集用来定位的电磁波相关数据,通过这些电磁波相关数据即可获得能够用来定位的相关数据,例如:距离、距离变化率、方位、高度等方面的数据。
电磁波定位匹配电路12与电磁波传感器11连接,用于将电磁波传感器11实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据。
地图电磁波障碍数据是指本地地图中携带的、已预先对预定空间进行电磁波扫描、已明确标记有与预定空间内障碍物相关的数据。简单来说,地图电磁波障碍数据相当于地图中预定空间内每一处障碍物的电磁波相关数据。
实时采集到的电磁波相关数据是电磁波传感器11当前对自身周围环境进行电磁波扫描后,电磁波传感器11自身周围(即机器人当前所在位置的周围)空间内未知障碍物的电磁波相关数据。
将电磁波传感器11实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,即可获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据。
例如:地图电磁波障碍数据包括:障碍物1、障碍物2、障碍物3、障碍物4、障碍物5,等等;对应的电磁波障碍数据分别为:电磁波障碍数据1、电磁波障碍数据2、电磁波障碍数据3、电磁波障碍数据4、电磁波障碍数据5,等等。实时采集到的电磁波相关数据包括:电磁波相关数据A。
将电磁波相关数据A分别与电磁波障碍数据1、电磁波障碍数据2、电磁波障碍数据3、电磁波障碍数据4、电磁波障碍数据5,等等,进行定位匹配,可以得到匹配程度的数据,如匹配度分别为10%、30%、65%、40%、20%,等等。
视觉数据采集装置13用于实时采集用来定位的视觉相关数据。
视觉数据采集装置13是指利用视觉探测目标物体,以获得目标物体至视觉焦点的距离、距离变化率、方位、高度等方面的数据的采集装置。其中,视觉数据包括二维视觉数据,也包括三维视觉数据,定位精度比较高的视觉数据为三维视觉数据。二维视觉数据结合相关算法也可以得到三维视觉数据。视觉数据采集装置13包括但不限于:普通相机、深度相机、普通摄像机、深度摄像机,等等;其中,普通相机还可以是单目相机或者双目相机。
视觉数据采集装置13实时采集用来定位的视觉相关数据,通过这些视觉相关数据即可获得能够用来定位的相关数据,例如:距离、距离变化率、方位、高度等方面的数据。
视觉定位匹配电路14与视觉数据采集装置13连接,用于将视觉数据采集装置13实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据。
地图空间障碍数据是指本地地图中携带的、已预先通过视觉数据采集装置对预定空间进行采集、以明确标记有与预定空间内障碍物相关的数据。简单来说,地图空间障碍数据相当于地图中预定空间内每一处障碍物的视觉相关数据。
实时采集到的视觉相关数据是视觉数据采集装置13当前对自身周围环境进行采集后,视觉数据采集装置13自身周围(即机器人当前所在位置的周围)空间内未知障碍物的视觉相关数据。
将视觉数据采集装置13实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,即可获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据。
例如:地图空间障碍数据包括:障碍物1、障碍物2、障碍物3、障碍物4、障碍物5,等等;对应的空间障碍数据分别为:空间障碍数据1、空间障碍数据2、空间障碍数据3、空间障碍数据4、空间障碍数据5,等等。实时采集到的视觉相关数据包括:视觉相关数据A。
将视觉相关数据A分别与空间障碍数据1、空间障碍数据2、空间障碍数据3、空间障碍数据4、空间障碍数据5,等等,进行定位匹配,可以得到匹配程度的数据,如匹配度分别为20%、30%、75%、30%、10%,等等。
处理器15分别与电磁波定位匹配电路12和视觉定位匹配电路14连接,用于根据第一匹配数据和第二匹配数据对机器人进行路径规划。
电磁波定位匹配电路12和视觉定位匹配电路14分别将第一匹配数据和第二匹配数据发送给处理器15,处理器15即可根据第一匹配数据和第二匹配数据对机器人进行路径规划。路径规划包括局部路径规划和全局路径规划。
例如,预先设置优先级,在第一条件下优先采用第一匹配数据;在第二条件下优先采用第二匹配数据;或者,在第三条件下,结合考虑第一匹配数据和第二匹配数据,等等。处理器结合第一匹配数据和第二匹配数据对机器人进行路径规划,可以避免单一匹配数据的偏差,提高定位准确性。
本申请实施方式机器人包括:电磁波传感器,用于实时采集用来定位的电磁波相关数据;电磁波定位匹配电路,与电磁波传感器连接,用于将电磁波传感器实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据;视觉数据采集装置,用于实时采集用来定位的视觉相关数据;视觉定位匹配电路,与视觉数据采集装置连接,用于将视觉数据采集装置实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据;处理器,分别与电磁波定位匹配电路和视觉定位匹配电路连接,用于根据第一匹配数据和第二匹配数据对机器人进行路径规划。由于在进行路径规划时,结合实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据以及实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据,并不是单一的根据第一匹配数据或者第二匹配数据,充分利用电磁波定位和视觉定位两者的优势,通过这种方式,能够提高定位匹配的准确性,确保导航行为的准确性和流畅度。
在一实施方式中,处理器15用于当第一匹配数据小于第一预设匹配阈值,且第二匹配数据大于第二预设匹配阈值时,利用第二匹配数据对机器人进行全局和/或局部路径规划。
第一预设匹配阈值是指采用电磁波扫描进行定位时,需要满足的最低匹配数据,该匹配阈值是根据实际应用以及具体的要求来进行设定的。第二预设匹配阈值是指采用视觉进行定位时,需要满足的最低匹配数据,该匹配阈值是根据实际应用以及具体的要求来进行设定的。
在本实施方式中,当第一匹配数据小于第一预设匹配阈值,且第二匹配数据大于第二预设匹配阈值时,也即是说,在电磁波扫描进行定位时,达不到预定的要求,而采集视觉相关数据来进行定位是可以满足预定的要求,此时可以采用采集视觉相关数据来进行定位,并进而对机器人进行全局和/或局部路径规划。
本实施方式的一个实际应用场景可以是:机器人以电磁波扫描定位为主,以视觉定位为辅,当电磁波扫描定位能够满足要求时,优先采用电磁波扫描定位,当电磁波扫描定位不能满足要求时,才采用视觉定位。
在另一实施方式中,处理器15用于当第二匹配数据小于第二预设匹配阈值,且第一匹配数据大于第一预设匹配阈值时,利用第一匹配数据对机器人进行全局和/或局部路径规划。
在本实施方式中,当第二匹配数据小于第二预设匹配阈值,且第一匹配数据大于第一预设匹配阈值时,也即是说,在视觉进行定位时,达不到预定的要求,而采集电磁波扫描来进行定位是可以满足预定的要求,此时可以采用采集电磁波扫描来进行定位,并进而对机器人进行全局和/或局部路径规划。
本实施方式的一个实际应用场景可以是:机器人以视觉定位为主,以电磁波扫描定位为辅,当视觉定位能够满足要求时,优先采用视觉定位,当视觉定位不能满足要求时,才采用电磁波扫描进行定位。
结合参见图2,在一实施方式中,该机器人还包括:控制器16。
控制器16与处理器15连接,用于根据路径规划,控制机器人沿指定的路径向导航目标点移动。
当处理器15对机器人进行路径规划后,控制器16即可根据路径规划,控制机器人的地盘运动电路,进而控制底盘轮子运动,沿指定的路径向导航目标点移动。
结合参见图3,在一实施方式中,电磁波传感器11包括雷达传感器111,视觉数据采集装置13为深度摄像机131,地图电磁波障碍数据为地图雷达障碍数据。
深度摄像机131和普通摄像机的区别是除了能够获取平面图像以外还可以获得拍摄对象的深度信息,也就是三维的位置和尺寸信息,于是获得了环境和对象的三维立体数据。
现有机器人定位基本采用雷达进行定位,利用雷达进行定位,方便且定位准确。但是雷达定位有其固有的弱点:例如对于某些高反射镜面材料、黑色高反光材料等识别效果差、多人围观后定位匹配度过低(如小于70%),从而使得匹配定位失败,导致单用雷达导航有些情况下效果并不太好,容易出现定位丢失,导致机器人移动轨迹异常。
单纯的基于视觉定位比较容易受到天花板上的灯和特殊反光材料的影响,使用定位效果也很不理想。
在本实施方式中,将雷达定位和采用深度摄像机的视觉定位结合起来,在雷达定位匹配度低于某个值(如70%)后,启动深度摄像机检测左右两侧的墙和天花板,利用天花板和侧面的墙体相对固定的特征来进行定位,提高定位匹配的准确性,从而确保定位行为的准确度和流畅度。
进一步,电磁波传感器11还包括超声传感器、红外传感器、激光传感器中的至少一种;结合参见图4,以电磁波传感器11还包括超声传感器112、红外传感器113、激光传感器114为例。
此时,机器人还包括:导航传感器融合电路17。
导航传感器融合电路17其一端与雷达传感器111连接、与超声传感器112、红外传感器113、激光传感器114中的至少一种连接,另一端与电磁波定位匹配电路12连接,用于将超声传感器112采集到的超声相关数据、红外传感器113采集到的红外相关数据、激光传感器114采集到的激光相关数据中的至少一种统一转换为雷达相关数据。
在本实施方式中,导航传感器融合电路17将其他电磁波传感器11,例如将超声传感器112采集到的超声相关数据、红外传感器113采集到的红外相关数据、激光传感器114采集到的激光相关数据中的至少一种统一转换为雷达相关数据,这样方便将雷达传感器111和其他电磁波传感器11的数据统一为雷达相关数据,方便后续的定位匹配。
在本实施方式中,电磁波定位不仅采用雷达传感器111,还采用其他的电磁波传感器11,例如超声传感器112、红外传感器113、激光传感器114中的至少一种,这样可以进一步提高电磁波定位的准确性。
参见图5,图5是本申请机器人的路径规划方法一实施方式的流程示意图,需要说明的是,本实施方式的方法可以由上述的机器人执行,相关内容的详细说明请参见上述机器人部分,在此不再赘叙。
该方法包括:
步骤S101:分别通过电磁波传感器和视觉数据采集装置实时采集用来定位的电磁波相关数据和视觉相关数据。
步骤S102:将实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据,将实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据。
步骤S103:根据第一匹配数据和第二匹配数据对机器人进行路径规划。
本申请实施方式分别通过电磁波传感器和视觉数据采集装置实时采集用来定位的电磁波相关数据和视觉相关数据;将实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据,将实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据;根据第一匹配数据和第二匹配数据对机器人进行路径规划。由于在进行路径规划时,结合实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据以及实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据,并不是单一的根据第一匹配数据或者第二匹配数据,充分利用电磁波定位和视觉定位两者的优势,通过这种方式,能够提高定位匹配的准确性,确保导航行为的准确性和流畅度。
其中,步骤S103具体可以包括:
当第一匹配数据小于第一预设匹配阈值,且第二匹配数据大于第二预设匹配阈值时,利用第二匹配数据对机器人进行全局和/或局部路径规划;
当第二匹配数据小于第二预设匹配阈值,且第一匹配数据大于第一预设匹配阈值时,利用第一匹配数据对机器人进行全局和/或局部路径规划。
其中,结合参见图6,该方法还包括:
步骤S104:根据路径规划,控制机器人沿指定的路径向导航目标点移动。
其中,电磁波传感器包括雷达传感器,视觉数据采集装置为深度摄像机,地图电磁波障碍数据为地图雷达障碍数据。
其中,电磁波传感器还包括超声传感器、红外传感器、激光传感器中的至少一种;此时,该方法还包括:将超声传感器采集到的超声相关数据、红外传感器采集到的红外相关数据、激光传感器采集到的激光相关数据中的至少一种统一转换为雷达相关数据。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (11)
1.一种机器人,其特征在于,所述机器人包括:
电磁波传感器,用于实时采集用来定位的电磁波相关数据;
电磁波定位匹配电路,与所述电磁波传感器连接,用于将所述电磁波传感器实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据;
视觉数据采集装置,用于实时采集用来定位的视觉相关数据;
视觉定位匹配电路,与所述视觉数据采集装置连接,用于将所述视觉数据采集装置实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据;
处理器,分别与所述电磁波定位匹配电路和所述视觉定位匹配电路连接,用于根据所述第一匹配数据和所述第二匹配数据对所述机器人进行路径规划。
2.根据权利要求1所述的机器人,其特征在于,所述处理器用于当所述第一匹配数据小于第一预设匹配阈值,且所述第二匹配数据大于第二预设匹配阈值时,利用所述第二匹配数据对所述机器人进行全局和/或局部路径规划。
3.根据权利要求1所述的机器人,其特征在于,所述处理器用于当所述第二匹配数据小于第二预设匹配阈值,且所述第一匹配数据大于第一预设匹配阈值时,利用所述第一匹配数据对所述机器人进行全局和/或局部路径规划。
4.根据权利要求1所述的机器人,其特征在于,所述机器人还包括:
控制器,与所述处理器连接,用于根据所述路径规划,控制所述机器人沿指定的路径向导航目标点移动。
5.根据权利要求1-4任一项所述的机器人,其特征在于,所述电磁波传感器包括雷达传感器,所述视觉数据采集装置为深度摄像机,所述地图电磁波障碍数据为地图雷达障碍数据。
6.根据权利要求5所述的机器人,其特征在于,所述电磁波传感器还包括超声传感器、红外传感器、激光传感器中的至少一种;
所述机器人还包括:
导航传感器融合电路,其一端与所述雷达传感器连接、与所述超声传感器、红外传感器、激光传感器中的至少一种连接,另一端与所述电磁波定位匹配电路连接,用于将所述超声传感器采集到的超声相关数据、所述红外传感器采集到的红外相关数据、所述激光传感器采集到的激光相关数据中的至少一种统一转换为雷达相关数据。
7.一种机器人的路径规划方法,其特征在于,所述方法包括:
分别通过电磁波传感器和视觉数据采集装置实时采集用来定位的电磁波相关数据和视觉相关数据;
将实时采集到的电磁波相关数据与保存在本地的地图电磁波障碍数据进行定位匹配,以获得实时采集到的电磁波相关数据与本地的地图电磁波障碍数据之间的第一匹配数据,
将实时采集到的视觉相关数据与保存在本地的地图空间障碍数据进行定位匹配,以获得实时采集到的视觉相关数据与本地的地图空间障碍数据之间的第二匹配数据;
根据所述第一匹配数据和所述第二匹配数据对所述机器人进行路径规划。
8.根据权利要求7所述的方法,其特征在于,所述根据所述第一匹配数据和所述第二匹配数据对所述机器人进行路径规划,包括:
当所述第一匹配数据小于第一预设匹配阈值,且所述第二匹配数据大于第二预设匹配阈值时,利用所述第二匹配数据对所述机器人进行全局和/或局部路径规划;
当所述第二匹配数据小于第二预设匹配阈值,且所述第一匹配数据大于第一预设匹配阈值时,利用所述第一匹配数据对所述机器人进行全局和/或局部路径规划。
9.根据权利要求7所述的方法,其特征在于,所述方法还包括:
根据所述路径规划,控制所述机器人沿指定的路径向导航目标点移动。
10.根据权利要求7-9任一项所述的方法,其特征在于,所述电磁波传感器包括雷达传感器,所述视觉数据采集装置为深度摄像机,所述地图电磁波障碍数据为地图雷达障碍数据。
11.根据权利要求10所述的方法,其特征在于,所述电磁波传感器还包括超声传感器、红外传感器、激光传感器中的至少一种;
所述方法还包括:
将所述超声传感器采集到的超声相关数据、所述红外传感器采集到的红外相关数据、所述激光传感器采集到的激光相关数据中的至少一种统一转换为雷达相关数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711430279.7A CN109960254B (zh) | 2017-12-25 | 2017-12-25 | 机器人及其路径规划方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711430279.7A CN109960254B (zh) | 2017-12-25 | 2017-12-25 | 机器人及其路径规划方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109960254A true CN109960254A (zh) | 2019-07-02 |
CN109960254B CN109960254B (zh) | 2022-09-23 |
Family
ID=67021945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711430279.7A Active CN109960254B (zh) | 2017-12-25 | 2017-12-25 | 机器人及其路径规划方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109960254B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110307838A (zh) * | 2019-08-26 | 2019-10-08 | 深圳市优必选科技股份有限公司 | 机器人重定位方法、装置、计算机可读存储介质及机器人 |
CN110727279A (zh) * | 2019-09-25 | 2020-01-24 | 武汉圣达电气股份有限公司 | 一种agv小车控制系统 |
CN110747933A (zh) * | 2019-10-25 | 2020-02-04 | 广西柳工机械股份有限公司 | 挖掘机自主移动作业控制方法和系统 |
CN114209433A (zh) * | 2021-12-31 | 2022-03-22 | 杭州三坛医疗科技有限公司 | 一种手术机器人导航定位方法及装置 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6151539A (en) * | 1997-11-03 | 2000-11-21 | Volkswagen Ag | Autonomous vehicle arrangement and method for controlling an autonomous vehicle |
US20120101725A1 (en) * | 2010-10-26 | 2012-04-26 | Ritesh Kondekar | Method and system for determining a planned path of a vehicle |
CN104596533A (zh) * | 2015-01-07 | 2015-05-06 | 上海交通大学 | 基于地图匹配的自动导引车及其导引方法 |
CN104699093A (zh) * | 2013-12-06 | 2015-06-10 | 刘扬 | 基于主辅控制器的移动机器人自动控制系统 |
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制系统及全向自动导引车 |
CN105629970A (zh) * | 2014-11-03 | 2016-06-01 | 贵州亿丰升华科技机器人有限公司 | 一种基于超声波的机器人定位避障方法 |
CN105652871A (zh) * | 2016-02-19 | 2016-06-08 | 深圳杉川科技有限公司 | 移动机器人的重定位方法 |
CN105865449A (zh) * | 2016-04-01 | 2016-08-17 | 深圳杉川科技有限公司 | 基于激光和视觉的移动机器人的混合定位方法 |
US20160271795A1 (en) * | 2015-03-18 | 2016-09-22 | Irobot Corporation | Localization and Mapping Using Physical Features |
CN106092104A (zh) * | 2016-08-26 | 2016-11-09 | 深圳微服机器人科技有限公司 | 一种室内机器人的重定位方法及装置 |
CN106681330A (zh) * | 2017-01-25 | 2017-05-17 | 北京航空航天大学 | 基于多传感器数据融合的机器人导航方法及装置 |
CN107238834A (zh) * | 2016-01-19 | 2017-10-10 | 德尔福技术有限公司 | 用于自动车辆的使用雷达/视觉融合的目标跟踪系统 |
WO2017177533A1 (zh) * | 2016-04-12 | 2017-10-19 | 深圳市龙云创新航空科技有限公司 | 基于激光雷达的微型无人机操控方法及系统 |
CN107357286A (zh) * | 2016-05-09 | 2017-11-17 | 两只蚂蚁公司 | 视觉定位导航装置及其方法 |
CN107389084A (zh) * | 2017-06-09 | 2017-11-24 | 深圳市速腾聚创科技有限公司 | 行车路径规划方法及存储介质 |
-
2017
- 2017-12-25 CN CN201711430279.7A patent/CN109960254B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6151539A (en) * | 1997-11-03 | 2000-11-21 | Volkswagen Ag | Autonomous vehicle arrangement and method for controlling an autonomous vehicle |
US20120101725A1 (en) * | 2010-10-26 | 2012-04-26 | Ritesh Kondekar | Method and system for determining a planned path of a vehicle |
CN104699093A (zh) * | 2013-12-06 | 2015-06-10 | 刘扬 | 基于主辅控制器的移动机器人自动控制系统 |
CN105629970A (zh) * | 2014-11-03 | 2016-06-01 | 贵州亿丰升华科技机器人有限公司 | 一种基于超声波的机器人定位避障方法 |
CN104596533A (zh) * | 2015-01-07 | 2015-05-06 | 上海交通大学 | 基于地图匹配的自动导引车及其导引方法 |
US20160271795A1 (en) * | 2015-03-18 | 2016-09-22 | Irobot Corporation | Localization and Mapping Using Physical Features |
CN105607635A (zh) * | 2016-01-05 | 2016-05-25 | 东莞市松迪智能机器人科技有限公司 | 自动导引车全景光学视觉导航控制系统及全向自动导引车 |
CN107238834A (zh) * | 2016-01-19 | 2017-10-10 | 德尔福技术有限公司 | 用于自动车辆的使用雷达/视觉融合的目标跟踪系统 |
CN105652871A (zh) * | 2016-02-19 | 2016-06-08 | 深圳杉川科技有限公司 | 移动机器人的重定位方法 |
CN105865449A (zh) * | 2016-04-01 | 2016-08-17 | 深圳杉川科技有限公司 | 基于激光和视觉的移动机器人的混合定位方法 |
WO2017177533A1 (zh) * | 2016-04-12 | 2017-10-19 | 深圳市龙云创新航空科技有限公司 | 基于激光雷达的微型无人机操控方法及系统 |
CN107357286A (zh) * | 2016-05-09 | 2017-11-17 | 两只蚂蚁公司 | 视觉定位导航装置及其方法 |
CN106092104A (zh) * | 2016-08-26 | 2016-11-09 | 深圳微服机器人科技有限公司 | 一种室内机器人的重定位方法及装置 |
CN106681330A (zh) * | 2017-01-25 | 2017-05-17 | 北京航空航天大学 | 基于多传感器数据融合的机器人导航方法及装置 |
CN107389084A (zh) * | 2017-06-09 | 2017-11-24 | 深圳市速腾聚创科技有限公司 | 行车路径规划方法及存储介质 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110307838A (zh) * | 2019-08-26 | 2019-10-08 | 深圳市优必选科技股份有限公司 | 机器人重定位方法、装置、计算机可读存储介质及机器人 |
CN110307838B (zh) * | 2019-08-26 | 2019-12-10 | 深圳市优必选科技股份有限公司 | 机器人重定位方法、装置、计算机可读存储介质及机器人 |
CN110727279A (zh) * | 2019-09-25 | 2020-01-24 | 武汉圣达电气股份有限公司 | 一种agv小车控制系统 |
CN110747933A (zh) * | 2019-10-25 | 2020-02-04 | 广西柳工机械股份有限公司 | 挖掘机自主移动作业控制方法和系统 |
CN114209433A (zh) * | 2021-12-31 | 2022-03-22 | 杭州三坛医疗科技有限公司 | 一种手术机器人导航定位方法及装置 |
CN114209433B (zh) * | 2021-12-31 | 2023-09-05 | 杭州三坛医疗科技有限公司 | 一种手术机器人导航定位装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109960254B (zh) | 2022-09-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107831777B (zh) | 一种飞行器自主避障系统、方法及飞行器 | |
CN109960254A (zh) | 机器人及其路径规划方法 | |
CN107600067B (zh) | 一种基于多视觉惯导融合的自主泊车系统及方法 | |
EP2769239B1 (en) | Methods and systems for creating maps with radar-optical imaging fusion | |
CN105946853B (zh) | 基于多传感器融合的长距离自动泊车的系统及方法 | |
CN103869814B (zh) | 一种终端定位和导航方法以及可移动的终端 | |
CN110275538A (zh) | 智能巡航车导航方法及系统 | |
CN110297491A (zh) | 基于多个结构光双目ir相机的语义导航方法及其系统 | |
CN110147106A (zh) | 具激光和视觉融合避障系统的智能移动服务机器人 | |
CN105486311A (zh) | 室内机器人定位导航方法及装置 | |
CN109872324A (zh) | 地面障碍物检测方法、装置、设备和存储介质 | |
CN106020201A (zh) | 移动机器人3d导航定位系统及导航定位方法 | |
CN207752371U (zh) | 一种机器人自主导航装置及机器人 | |
CN106291535A (zh) | 一种障碍物检测装置、机器人及避障系统 | |
CN105953798A (zh) | 移动机器人的位姿确定方法和设备 | |
CN208953962U (zh) | 一种机器人感知系统及机器人 | |
KR20200001471A (ko) | 차선 정보 검출 장치, 방법 및 이러한 방법을 수행하도록 프로그램된 컴퓨 프로그램을 저장하는 컴퓨터 판독가능한 기록매체 | |
CN110163963B (zh) | 一种基于slam的建图装置和建图方法 | |
CN103680291A (zh) | 基于天花板视觉的同步定位与地图绘制的方法 | |
CN108089586A (zh) | 一种机器人自主导航装置、方法及机器人 | |
CN109375629A (zh) | 一种巡逻车及其导航避障方法 | |
CN105116886A (zh) | 一种机器人自主行走的方法 | |
CN109459023A (zh) | 一种基于无人机视觉slam的辅助地面机器人导航方法及装置 | |
CN108205314A (zh) | 基于立体视觉匹配的机器人导航装置及系统 | |
CN103472434B (zh) | 一种机器人声音定位方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |