CN106643692A - 一种机器人导航定位方法、系统及机器人 - Google Patents

一种机器人导航定位方法、系统及机器人 Download PDF

Info

Publication number
CN106643692A
CN106643692A CN201610858929.7A CN201610858929A CN106643692A CN 106643692 A CN106643692 A CN 106643692A CN 201610858929 A CN201610858929 A CN 201610858929A CN 106643692 A CN106643692 A CN 106643692A
Authority
CN
China
Prior art keywords
model
robot
real time
time environment
environment model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610858929.7A
Other languages
English (en)
Inventor
郭盖华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen LD Robot Co Ltd
Original Assignee
Shenzhen Inmotion Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Inmotion Technologies Co Ltd filed Critical Shenzhen Inmotion Technologies Co Ltd
Priority to CN201610858929.7A priority Critical patent/CN106643692A/zh
Publication of CN106643692A publication Critical patent/CN106643692A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本申请公开了一种机器人导航定位方法,包括:采集机器人在预设视角范围内的深度画面;构建与深度画面对应的实时环境模型;通过对比实时环境模型与预设的基准环境模型,得到机器人当前的位姿信息。本申请首先采集实时的深度画面,然后构建与该深度画面对应的实时环境模型,通过对比实时环境模型与基准环境模型,可确定出机器人当前的位姿信息。相对于单线激光雷达和其他辅助传感器,现有用于探测深度画面信息的装置所需的硬件结构简单,成本较低,可见本申请在减少传感器和低成本的条件下实现了对机器人的定位。另外,本申请还可实现协助机器人规避障碍物的功能。相应的,本申请还公开了一种机器人导航定位系统以及包含上述系统的机器人。

Description

一种机器人导航定位方法、系统及机器人
技术领域
本发明涉及机器人导航定位技术领域,特别涉及一种机器人导航定位方法、系统及机器人。
背景技术
随着科技的发展和生活水平的提高,越来越多工作可以由机器人来代替,在某些场合,需要机器人能够自身定位准确,避免碰撞障碍物。
现有技术中,为了让机器人达到更加准确的定位,以避免碰撞障碍物,人们为机器人装配了单线激光雷达和其他一些辅助传感器,如超声波传感器和红外传感器等,但是单线激光雷达和其他辅助传感器的成本非常高,不利于机器人的普及。
综上所述可以看出,如何在低成本的前提下实现对机器人的定位是目前有待解决的问题。
发明内容
有鉴于此,本发明的目的在于提供一种机器人导航定位方法、系统及机器人,在低成本的前提下实现了对机器人的定位。其具体方案如下:
一种机器人导航定位方法,包括:
采集机器人在预设视角范围内的深度画面;
构建与所述深度画面对应的实时环境模型;
通过对比所述实时环境模型与预设的基准环境模型,得到所述机器人当前的位姿信息;
其中,所述基准环境模型为预先对可通行空间区域的所有深度画面进行模型构建处理后得到的环境模型。通过实施该发明实施例,能够借助探测深度画面的装置来获取机器人的位姿信息,相对于单线激光雷达和其他辅助传感器,现有用于探测深度画面信息的装置所需的硬件结构简单,成本较低,由此本发明在低成本的条件下实现了对机器人的定位。
优选的,所述构建与所述深度画面对应的实时环境模型,包括:
对所述深度画面进行SLAM运算,得到所述实时环境模型。通过实施该发明实施例,能够实现对深度画面的建模处理。
优选的,所述通过对比所述实时环境模型与预设的基准环境模型,得到所述机器人当前的位姿信息,包括:
利用所述实时环境模型,在所述基准环境模型上展开相应的区域搜寻处理,以搜寻出与所述实时环境模型对应的目标区域,其中,所述目标区域为所述基准环境模型上与所述实时环境模型的匹配度大于或等于预设匹配度的区域;
若搜寻到所述目标区域,则基于所述目标区域,确定出所述机器人当前的位姿信息。通过实施该发明实施例,能够在基准环境模型上寻找出与实时环境模型对应的区域,进而可以利用该区域来确定出机器人的当前位姿信息。
优选的,所述机器人导航定位方法,还包括:
若搜寻不到所述目标区域,则对所述机器人在开阔视角范围内的深度画面进行再次采集,得到修正后的深度画面;其中,所述开阔视角范围所对应的视角大于所述预设视角范围所对应的角度;
对所述修正后的深度画面进行模型构建,得到修正后的实时环境模型;
利用所述修正后的实时环境模型,在所述基准环境模型上再次展开相应的区域搜寻处理。通过实施该发明实施例,能够在上一次区域搜寻处理无法找到相应目标区域的情况下,通过扩大画面采集视角范围,来获取具有更多深度信息的深度画面,进而得到修正后的实时环境模型,有利于提升区域搜寻的成功率。
优选的,所述机器人导航定位方法,还包括:
若搜寻到所述目标区域,则利用所述实时环境模型对所述基准环境模型进行更新,以将所述基准环境模型上的所述目标区域替换为所述实时环境模型。通过实施该发明实施例,能够实现对基准环境模型的更新。
优选的,所述机器人导航定位方法,还包括:
对所述实时环境模型进行空间模型分析,以识别出位于所述实时环境模型中的障碍物;
确定所述障碍物与当前所述机器人的位置之间的距离;
当所述距离小于预设距离值,则控制所述机器人上的行走部件绕开所述障碍物所在的空间区域。通过实施该发明实施例,能够使得机器人在前进的过程中避开障碍物,从而确保机器人的安全,也即实现了安全导航的目的。
本发明还公开了一种机器人导航定位系统,包括:
深度画面探测模块,用于采集机器人在预设视角范围内的深度画面;
实时模型构建模块,用于构建与所述深度画面对应的实时环境模型;
基准模型构建模块,用于预先对可通行空间区域的所有深度画面进行模型构建处理,得到基准环境模型;
模型比对模块,用于通过对比所述实时环境模型与所述基准环境模型,得到所述机器人当前的位姿信息。通过实施该发明实施例,能够借助探测深度画面的装置来获取机器人的位姿信息,相对于单线激光雷达和其他辅助传感器,现有用于探测深度画面信息的装置所需的硬件结构简单,成本较低,由此本发明在低成本的条件下实现了对机器人的定位。
优选的,所述实时模型构建模块,具体用于对所述深度画面进行SLAM运算,得到所述实时环境模型。通过实施该发明实施例,能够实现对深度画面的建模处理。
优选的,所述模型比对模块包括:
区域搜寻单元,用于利用所述实时环境模型,在所述基准环境模型上展开相应的区域搜寻处理,以搜寻出与所述实时环境模型对应的目标区域,其中,所述目标区域为所述基准环境模型上与所述实时环境模型的匹配度大于或等于预设匹配度的区域;
位姿确定单元,用于当所述区域搜寻单元搜寻到所述目标区域,则基于所述目标区域,确定出所述机器人当前的位姿信息。通过实施该发明实施例,能够在基准环境模型上寻找出与实时环境模型对应的区域,进而可以利用该区域来确定出机器人的当前位姿信息。
优选的,所述机器人导航定位系统,还包括:
画面采集控制模块,用于当所述区域搜寻单元搜寻不到所述目标区域,则控制所述深度画面探测模块对所述机器人在开阔视角范围内的深度画面进行再次采集,得到修正后的深度画面;其中,所述开阔视角范围所对应的视角大于所述预设视角范围所对应的角度;
所述实时模型构建模块,还用于对所述修正后的深度画面进行模型构建,得到修正后的实时环境模型;
所述区域搜寻单元,还用于利用所述修正后的实时环境模型,在所述基准环境模型上再次展开相应的区域搜寻处理。通过实施该发明实施例,能够在上一次区域搜寻处理无法找到相应目标区域的情况下,通过扩大画面采集视角范围,来获取具有更多深度信息的深度画面,进而得到修正后的实时环境模型,有利于提升区域搜寻的成功率。
优选的,机器人导航定位系统,还包括:
模型更新模块,用于当所述区域搜寻单元搜寻到所述目标区域,则利用所述实时环境模型对所述基准环境模型进行更新,以将所述基准环境模型上的所述目标区域替换为所述实时环境模型。通过实施该发明实施例,能够实现对基准环境模型的更新。
优选的,所述机器人导航定位系统,还包括:
模型分析模块,用于对所述实时环境模型进行空间模型分析,以识别出位于所述实时环境模型中的障碍物;
距离确定模块,用于确定所述障碍物与当前所述机器人的位置之间的距离;
行走部件控制模块,用于当所述距离小于预设距离值,则控制所述机器人上的行走部件绕开所述障碍物所在的空间区域。通过实施该发明实施例,能够使得机器人在前进的过程中避开障碍物,从而确保机器人的安全,也即实现了安全导航的目的。
本发明进一步公开了一种机器人,包括前述公开的机器人导航定位系统。通过实施该发明实施例,能够借助探测深度画面的装置来获取机器人的位姿信息,相对于单线激光雷达和其他辅助传感器,现有用于探测深度画面信息的装置所需的硬件结构简单,成本较低,由此本发明在低成本的条件下实现了对机器人的定位。
本发明中,机器人导航定位方法包括:采集机器人在预设视角范围内的深度画面;构建与深度画面对应的实时环境模型;通过对比实时环境模型与预设的基准环境模型,得到机器人当前的位姿信息;其中,基准环境模型为预先对可通行空间区域的所有深度画面进行模型构建处理后得到的环境模型。可见,本发明首先采集机器人实时的深度画面,然后构建与该深度画面对应的实时环境模型,最后通过对比实时环境模型与基准环境模型,可以确定出机器人当前的位姿信息。相对于单线激光雷达和其他辅助传感器,现有用于探测深度画面信息的装置所需的硬件结构简单,成本较低,由此可见,本发明在低成本的条件下,实现了对机器人的定位。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明实施例公开的一种机器人导航定位方法流程图;
图2为本发明实施例公开的一种机器人导航定位系统结构示意图;
图3为本发明实施例公开的一种具体的机器人导航定位系统结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例公开了一种机器人导航定位方法,参见图1所示,该方法包括:
步骤S11:采集机器人在预设视角范围内的深度画面。
本发明实施例具体可以利用深度摄像头来采集上述深度画面,也即,上述深度画面为深度摄像头采集的预设视角范围内的深度信息。需要说明的是,上述深度画面中的每个像素均为灰度像素,通过灰度来反映出预设视角范围内的深度信息。现有技术中的深度摄像头的硬件成本远低于单线激光雷达的硬件成本,由此可见,为了实施本发明实施例中的技术方案,人们所需花费的硬件成本相对较低,能够由此降低机器人整机价钱,有利于机器人的普及。
另外,上述预设视角范围为预先设定的视角范围,可以理解的是,上述预设视角范围越大,后续相应的导航定位的准确率便越高。不过,由于考虑到预设视角范围越大,需要处理的数据量信息也就越多,这样会限制后续的导航定位的处理速度,所以,上述预设视角范围不宜过大,也不宜过小。本发明实施例可以根据对导航定位准确率的实际要求以及对定位速度的实际要求,有针对性地对上述预设视角范围进行设定,例如,可以将上述预设视角范围设为小于90度的视角范围。
在对预设视角范围内的深度画面进行采集时,可以控制深度摄像头旋转相应的与上述预设视角范围对应的角度,从而采集到与上述预设视角范围对应的深度画面。本发明实施例可以优先令上述机器人的朝向方向位于上述预设视角范围的平分线上,其中,机器人的朝向方向也即是当前机器人的前进方向。
步骤S12:构建与深度画面对应的实时环境模型。
其中,本实施例优先对上述步骤S11中的深度画面进行三维空间模型的构建,以得到上述实时环境模型,由于三维空间模型能够更加准确地反映出周围环境的真实性,所以能够使得后续的模型比对过程所得到的比对结果具有更高的比对精度,当然,本发明实施例也可以对上述深度画面进行二维空间模型的构建,由于相较于三维空间模型,二维空间模型具有更小的数据量,所以能够保证或许的模型比对过程具有较快的处理速度。
步骤S13:通过对比实时环境模型与预设的基准环境模型,得到机器人当前的位姿信息。其中,基准环境模型为预先对可通行空间区域的所有深度画面进行模型构建处理后得到的环境模型。
举例来说,假设某台机器人需要经常在房间A中进行移动,那么,本发明实施例需要预先对上述房间A进行全方位的深度画面采集,然后对得到的全方位的深度画面进行模型构建,以得到与房间A对应的基准环境模型。在这之后,机器人在房间A中进行移动时,通过比对实时环境模型与上述预先构建的基准环境模型,可得到机器人当前的位姿信息。
可以理解的是,上述步骤S13中的位姿信息是指机器人的方位信息,也即包括机器人的位置信息和朝向方向。
本发明实施例中,机器人导航定位方法包括:采集机器人在预设视角范围内的深度画面;构建与深度画面对应的实时环境模型;通过对比实时环境模型与预设的基准环境模型,得到机器人当前的位姿信息;其中,基准环境模型为预先对可通行空间区域的所有深度画面进行模型构建处理后得到的环境模型。可见,本发明实施例首先采集机器人实时的深度画面,然后构建与该深度画面对应的实时环境模型,最后通过对比实时环境模型与基准环境模型,可以确定出机器人当前的位姿信息。相对于单线激光雷达和其他辅助传感器,现有用于探测深度画面信息的装置所需的硬件结构简单,成本较低,由此可见,本发明实施例在低成本的条件下,实现了对机器人的定位。
本发明实施例公开了一种具体的机器人导航定位方法,相对于上一实施例,本实施例对技术方案作了进一步的说明和优化。具体的:
上一实施例步骤S12中,构建与深度画面对应的实时环境模型,具体包括:对上述深度画面进行SLAM运算(SLAM,即Simultaneous Localization And Mapping,即时定位与地图构建),得到实时环境模型,也即,本实施例具体可以利用视觉SLAM算法对上述深度画面进行SLAM运算,从而实现了对深度画面的建模处理。其中,上述SLAM运算是既可以在三维空间上也可以在二维空间上展开的运算。
可以理解的是,上一实施例中的基准环境模型也可以通过SLAM运算来构建得到。
进一步的,上一实施例步骤S13中,通过对比实时环境模型与预设的基准环境模型,得到机器人当前的位姿信息,具体可以包括下面步骤S131至132;其中,
步骤S131:利用实时环境模型,在基准环境模型上展开相应的区域搜寻处理,以搜寻出与实时环境模型对应的目标区域,其中,目标区域为基准环境模型上与实时环境模型的匹配度大于或等于预设匹配度的区域。
需要进一步说明的是,上述步骤S131中,具体是通过对环境模型进行特征比对的方式,从基准环境模型中搜索出与上述实时环境模型的模型特征的匹配度不小于预设匹配度的区域,也即,本实施例需要保证最终得到的目标区域的模型特征与上述实时环境模型的模型特征之间的匹配度大于或等于预设匹配度。本实施例中的预设匹配度可以基于实际的识别精度要求来进行设定,例如,可以将上述预设匹配度设为70%。
步骤S132:若搜寻到目标区域,则基于目标区域,确定出机器人当前的位姿信息。
可见,通过上述步骤S131和S132,能够在基准环境模型上寻找出与实时环境模型对应的区域,进而可以利用该区域来确定出机器人的当前位姿信息。
另外,本发明实施例中,在上述步骤S131之后,还可以进一步包括下面步骤S133至S135;其中,
步骤S133:若搜寻不到目标区域,则对机器人在开阔视角范围内的深度画面进行再次采集,得到修正后的深度画面;其中,开阔视角范围所对应的视角大于预设视角范围所对应的角度。
上述步骤S133意味着,在搜寻不到目标区域的情况下,可通过扩大深度摄像头等深度画面采集装置的采集视角范围,从而得到更大区域范围内的深度画面。可以理解的是,本发明实施例可以通过控制深度摄像头旋转更大角度的方式来对深度摄像头的采集视角范围进行扩大处理,当然,本发明实施例也可以在深度摄像头不自动旋转的情况下,通过控制机器人机身进行旋转的方式来对深度摄像头的采集视角范围进行扩大处理,可以理解的是,上述经过扩大处理后得到的采集视角范围即为上述开阔视角范围。
步骤S134:对修正后的深度画面进行模型构建,得到修正后的实时环境模型。
步骤S135:利用修正后的实时环境模型,在基准环境模型上再次展开相应的区域搜寻处理。
可见,通过上述步骤S133至S135,能够在上一次区域搜寻处理无法找到相应目标区域的情况下,通过扩大画面采集视角范围,来获取具有更多深度信息的深度画面,进而得到修正后的实时环境模型,有利于提升区域搜寻的成功率。
其中,上述步骤S135具体包括:利用上述修正后的实时环境模型,在基准环境模型上展开相应的区域搜寻处理,以搜寻出与上述修正后的实时环境模型对应的修正区域,其中,该修正区域为基准环境模型上与上述修正后的实时环境模型的匹配度大于或等于预设匹配度的区域。可以理解的是,在上述步骤S135中,若利用上述修正后的实时环境模型,在基准环境模型上搜寻出与上述修正后的实时环境模型对应的修正区域,则基于该修正区域,可确定出机器人当前的位姿信息,具体可以通过对环境模型进行特征比对的方式,从基准环境模型中搜索出与上述修正后的实时环境模型的模型特征的匹配度不小于预设匹配度的区域。进一步的,在上述步骤S131之后,本实施例还可以包括:
若搜寻到目标区域,则利用实时环境模型对基准环境模型进行更新,以将基准环境模型上的目标区域替换为实时环境模型。可见,通过实施上述方案,能够实现对基准环境模型的更新。
另外,为了对机器人运动过程中遇到的障碍物进行规避,以为机器人提供更加安全的导航,本实施例中,还可以进一步包括:对上述实时环境模型或修正后的实时环境模型进行空间模型分析,以识别出实时环境模型中的障碍物,进而确定出障碍物与当前机器人的位置之间距离,当该距离小于预设距离值,则控制机器人上的行走部件绕开障碍物所在的空间区域,由此能够使得机器人在前进的过程中避开障碍物,从而确保机器人的安全,也即实现了安全导航的目的。其中,上述预设距离值可以基于实际应用需要进行相应设定,在此不对其进行具体限定。
相应的,本发明还公开了一种机器人导航定位系统,参见图2所示,该系统包括:
深度画面探测模块21,用于采集机器人在预设视角范围内的深度画面;
实时模型构建模块22,用于构建与深度画面对应的实时环境模型;
基准模型构建模块23,用于预先对可通行空间区域的所有深度画面进行模型构建处理,得到基准环境模型;
模型比对模块24,用于通过对比实时环境模型与基准环境模型,得到机器人当前的位姿信息。
其中,上述深度画面探测模块21可以是深度摄像头等用于采集深度画面的装置。另外,需要说明的是,由于上述实时模型构建模块22和基准模型构建模块23均是用来对深度画面进行环境模型的构建,所以它们本质上可以是相同的模块,当然,也可以是不同的模块。
可见,本发明实施例首先采集机器人实时的深度画面,然后构建与该深度画面对应的实时环境模型,最后通过对比实时环境模型与基准环境模型,可以确定出机器人当前的位姿信息。相对于单线激光雷达和其他辅助传感器,现有用于探测深度画面信息的装置所需的硬件结构简单,成本较低,由此可见,本发明实施例在低成本的条件下,实现了对机器人的定位。
进一步的,上述实时模型构建模块,具体可以用于对深度画面进行SLAM运算,得到实时环境模型,由此实现了对深度画面的建模处理。
参见图3所示,本实施例中,上述模型比对模块24具体可以包括区域搜寻单元241和位姿确定单元242;其中,
区域搜寻单元241,用于利用实时环境模型,在基准环境模型上展开相应的区域搜寻处理,以搜寻出与实时环境模型对应的目标区域,其中,目标区域为基准环境模型上与实时环境模型的匹配度大于或等于预设匹配度的区域;
位姿确定单元242,用于当区域搜寻单元241搜寻到目标区域,则基于目标区域,确定出机器人当前的位姿信息。
可见,利用上述区域搜寻单元241和位姿确定单元242,能够在基准环境模型上寻找出与实时环境模型对应的区域,进而可以利用该区域来确定出机器人的当前位姿信息。
进一步的,本实施例中的机器人导航定位系统,还可以包括画面采集控制模块31;其中,
画面采集控制模块31,用于当区域搜寻单元241搜寻不到目标区域,则控制深度画面探测模块21对机器人在开阔视角范围内的深度画面进行再次采集,得到修正后的深度画面;其中,开阔视角范围所对应的视角大于预设视角范围所对应的角度。
可以理解的是,要实现对上述开阔视角范围内的深度画面进行采集,还需要在视角变换控制模块32的协助下,让上述深度画面探测模块21能够接收到上述开阔视角范围内的画面信息。其中,上述视角变换控制模块32,具体可以用于通过控制深度摄像头旋转更大角度的方式来对上述深度画面探测模块21的采集视角范围进行扩大处理,当然,上述视角变换控制模块32也可以在深度摄像头不自动旋转的情况下,用于通过控制机器人机身进行旋转的方式来对深度摄像头的采集视角范围进行扩大处理,可以理解的是,上述经过扩大处理后得到的采集视角范围即为上述开阔视角范围。
相应的,上述实时模型构建模块22,还可以用于对上述修正后的深度画面进行模型构建,得到修正后的实时环境模型;
相应的,上述区域搜寻单元241,还可以用于利用上述修正后的实时环境模型,在基准环境模型上再次展开相应的区域搜寻处理。
可见,本实施例在上一次区域搜寻处理无法找到相应目标区域的情况下,通过扩大画面采集视角范围,来获取具有更多深度信息的深度画面,进而得到修正后的实时环境模型,有利于提升区域搜寻的成功率。
进一步的,本实施例中的机器人导航定位系统,还可以包括:
模型更新模块33,用于当区域搜寻单元241搜寻到目标区域,则利用实时环境模型对基准环境模型进行更新,以将基准环境模型上的目标区域替换为实时环境模型。可见,利用上述模型更新模块33,能够实现对基准环境模型的更新。
另外,为了对机器人运动过程中遇到的障碍物进行规避,以为机器人提供更加安全的导航,本实施例中,还可以进一步包括模型分析模块34、距离确定模块35和行走部件控制模块36;其中,
模型分析模块34,用于对上述实时环境模型或修正后的实时环境模型进行空间模型分析,以识别出位于实时环境模型中的障碍物;
距离确定模块35,用于确定上述障碍物与当前机器人的位置之间的距离;
行走部件控制模块36,用于当上述距离小于预设距离值,则控制机器人上的行走部件绕开上述障碍物所在的空间区域。
可见,通过上述模型分析模块34、距离确定模块35和行走部件控制模块36,本实施例能够使得机器人在前进的过程中避开障碍物,从而确保机器人的安全,也即实现了安全导航的目的。
进一步的,本发明还公开了一种机器人,包括前述实施例中公开的机器人导航定位系统。关于该系统的具体构造可参考前述实施例中的相关内容,在此不再进行赘述。另外,需要进一步指出的是,搭载了上述机器人导航定位系统的机器人中相应的处理芯片可以采用RK3128芯片,其次,机器人内部可以基于串口进行通信。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上对本发明所提供的一种机器人导航定位方法、系统及机器人进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (13)

1.一种机器人导航定位方法,其特征在于,包括:
采集机器人在预设视角范围内的深度画面;
构建与所述深度画面对应的实时环境模型;
通过对比所述实时环境模型与预设的基准环境模型,得到所述机器人当前的位姿信息;
其中,所述基准环境模型为预先对可通行空间区域的所有深度画面进行模型构建处理后得到的环境模型。
2.根据权利要求1所述的机器人导航定位方法,其特征在于,所述构建与所述深度画面对应的实时环境模型,包括:
对所述深度画面进行SLAM运算,得到所述实时环境模型。
3.根据权利要求1或2所述的机器人导航定位方法,其特征在于,所述通过对比所述实时环境模型与预设的基准环境模型,得到所述机器人当前的位姿信息,包括:
利用所述实时环境模型,在所述基准环境模型上展开相应的区域搜寻处理,以搜寻出与所述实时环境模型对应的目标区域,其中,所述目标区域为所述基准环境模型上与所述实时环境模型的匹配度大于或等于预设匹配度的区域;
若搜寻到所述目标区域,则基于所述目标区域,确定出所述机器人当前的位姿信息。
4.根据权利要求3所述的机器人导航定位方法,其特征在于,还包括:
若搜寻不到所述目标区域,则对所述机器人在开阔视角范围内的深度画面进行再次采集,得到修正后的深度画面;其中,所述开阔视角范围所对应的视角大于所述预设视角范围所对应的角度;
对所述修正后的深度画面进行模型构建,得到修正后的实时环境模型;
利用所述修正后的实时环境模型,在所述基准环境模型上再次展开相应的区域搜寻处理。
5.根据权利要求3所述的机器人导航定位方法,其特征在于,还包括:
若搜寻到所述目标区域,则利用所述实时环境模型对所述基准环境模型进行更新,以将所述基准环境模型上的所述目标区域替换为所述实时环境模型。
6.根据权利要求1所述的机器人导航定位方法,其特征在于,还包括:
对所述实时环境模型进行空间模型分析,以识别出位于所述实时环境模型中的障碍物;
确定所述障碍物与当前所述机器人的位置之间的距离;
当所述距离小于预设距离值,则控制所述机器人上的行走部件绕开所述障碍物所在的空间区域。
7.一种机器人导航定位系统,其特征在于,包括:
深度画面探测模块,用于采集机器人在预设视角范围内的深度画面;
实时模型构建模块,用于构建与所述深度画面对应的实时环境模型;
基准模型构建模块,用于预先对可通行空间区域的所有深度画面进行模型构建处理,得到基准环境模型;
模型比对模块,用于通过对比所述实时环境模型与所述基准环境模型,得到所述机器人当前的位姿信息。
8.根据权利要求7所述的机器人导航定位系统,其特征在于,所述实时模型构建模块,具体用于对所述深度画面进行SLAM运算,得到所述实时环境模型。
9.根据权利要求7或8所述的机器人导航定位系统,其特征在于,所述模型比对模块包括:
区域搜寻单元,用于利用所述实时环境模型,在所述基准环境模型上展开相应的区域搜寻处理,以搜寻出与所述实时环境模型对应的目标区域,其中,所述目标区域为所述基准环境模型上与所述实时环境模型的匹配度大于或等于预设匹配度的区域;
位姿确定单元,用于当所述区域搜寻单元搜寻到所述目标区域,则基于所述目标区域,确定出所述机器人当前的位姿信息。
10.根据权利要求9所述的机器人导航定位系统,其特征在于,还包括:
画面采集控制模块,用于当所述区域搜寻单元搜寻不到所述目标区域,则控制所述深度画面探测模块对所述机器人在开阔视角范围内的深度画面进行再次采集,得到修正后的深度画面;其中,所述开阔视角范围所对应的视角大于所述预设视角范围所对应的角度;
所述实时模型构建模块,还用于对所述修正后的深度画面进行模型构建,得到修正后的实时环境模型;
所述区域搜寻单元,还用于利用所述修正后的实时环境模型,在所述基准环境模型上再次展开相应的区域搜寻处理。
11.根据权利要求9所述的机器人导航定位系统,其特征在于,还包括:
模型更新模块,用于当所述区域搜寻单元搜寻到所述目标区域,则利用所述实时环境模型对所述基准环境模型进行更新,以将所述基准环境模型上的所述目标区域替换为所述实时环境模型。
12.根据权利要求7所述的机器人导航定位系统,其特征在于,还包括:
模型分析模块,用于对所述实时环境模型进行空间模型分析,以识别出位于所述实时环境模型中的障碍物;
距离确定模块,用于确定所述障碍物与当前所述机器人的位置之间的距离;
行走部件控制模块,用于当所述距离小于预设距离值,则控制所述机器人上的行走部件绕开所述障碍物所在的空间区域。
13.一种机器人,其特征在于,包括如权利要求7至12任一项所述的机器人导航定位系统。
CN201610858929.7A 2016-09-28 2016-09-28 一种机器人导航定位方法、系统及机器人 Pending CN106643692A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610858929.7A CN106643692A (zh) 2016-09-28 2016-09-28 一种机器人导航定位方法、系统及机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610858929.7A CN106643692A (zh) 2016-09-28 2016-09-28 一种机器人导航定位方法、系统及机器人

Publications (1)

Publication Number Publication Date
CN106643692A true CN106643692A (zh) 2017-05-10

Family

ID=58854710

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610858929.7A Pending CN106643692A (zh) 2016-09-28 2016-09-28 一种机器人导航定位方法、系统及机器人

Country Status (1)

Country Link
CN (1) CN106643692A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506040A (zh) * 2017-08-29 2017-12-22 上海爱优威软件开发有限公司 一种空间路径规划方法及系统
CN108733045A (zh) * 2017-09-29 2018-11-02 北京猎户星空科技有限公司 机器人及其避障方法以及计算机可读存储介质
CN111300426A (zh) * 2020-03-19 2020-06-19 深圳国信泰富科技有限公司 一种高智能人型机器人感测头的控制系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100094460A1 (en) * 2008-10-09 2010-04-15 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
CN105352508A (zh) * 2015-10-22 2016-02-24 深圳创想未来机器人有限公司 机器人定位导航方法及装置
CN105674991A (zh) * 2016-03-29 2016-06-15 深圳市华讯方舟科技有限公司 一种机器人定位方法和装置
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN105931183A (zh) * 2016-04-15 2016-09-07 深圳乐行天下科技有限公司 全向面阵捕捉系统及装置
WO2017091008A1 (ko) * 2015-11-26 2017-06-01 삼성전자주식회사 이동 로봇 및 그 제어 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100094460A1 (en) * 2008-10-09 2010-04-15 Samsung Electronics Co., Ltd. Method and apparatus for simultaneous localization and mapping of robot
CN105352508A (zh) * 2015-10-22 2016-02-24 深圳创想未来机器人有限公司 机器人定位导航方法及装置
WO2017091008A1 (ko) * 2015-11-26 2017-06-01 삼성전자주식회사 이동 로봇 및 그 제어 방법
CN105843223A (zh) * 2016-03-23 2016-08-10 东南大学 一种基于空间词袋模型的移动机器人三维建图与避障方法
CN105674991A (zh) * 2016-03-29 2016-06-15 深圳市华讯方舟科技有限公司 一种机器人定位方法和装置
CN105931183A (zh) * 2016-04-15 2016-09-07 深圳乐行天下科技有限公司 全向面阵捕捉系统及装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506040A (zh) * 2017-08-29 2017-12-22 上海爱优威软件开发有限公司 一种空间路径规划方法及系统
CN108733045A (zh) * 2017-09-29 2018-11-02 北京猎户星空科技有限公司 机器人及其避障方法以及计算机可读存储介质
CN108733045B (zh) * 2017-09-29 2022-01-04 北京猎户星空科技有限公司 机器人及其避障方法以及计算机可读存储介质
CN111300426A (zh) * 2020-03-19 2020-06-19 深圳国信泰富科技有限公司 一种高智能人型机器人感测头的控制系统
CN111300426B (zh) * 2020-03-19 2022-05-31 深圳国信泰富科技有限公司 一种高智能人型机器人感测头的控制系统

Similar Documents

Publication Publication Date Title
EP3371670B1 (en) Device and method for autonomous localisation
CN111958592B (zh) 一种变电站巡检机器人图像语义分析系统及方法
CN111693050B (zh) 基于建筑信息模型的室内中大型机器人导航方法
CN103901895B (zh) 一种基于无极FastSLAM算法和匹配优化目标定位方法及机器人
CN103064416B (zh) 巡检机器人室内外自主导航系统
CN109737981B (zh) 基于多传感器的无人车目标搜索装置及方法
CN102368158B (zh) 一种果园机械导航定位方法
EP4050449A1 (en) Method and device for robot positioning, smart robot, and storage medium
US20210255638A1 (en) Area Division and Path Forming Method and Apparatus for Self-Moving Device and Automatic Working System
CN112518739A (zh) 履带式底盘机器人侦察智能化自主导航方法
EP4066078A1 (en) Area division and path forming method and apparatus for self-moving device and automatic working system
CN107063242A (zh) 具虚拟墙功能的定位导航装置和机器人
CN111242994A (zh) 一种语义地图构建方法、装置、机器人及存储介质
CN106643692A (zh) 一种机器人导航定位方法、系统及机器人
CN104898675A (zh) 一种机器人智能导航控制方法
CN108107897A (zh) 实时传感器控制方法及装置
CN114923477A (zh) 基于视觉与激光slam技术的多维度空地协同建图系统和方法
WO2022188333A1 (zh) 一种行走方法、装置和计算机存储介质
CN106408593A (zh) 一种基于视频的车辆跟踪方法及装置
CN111259807B (zh) 井下有限区域移动设备定位系统
CN116817891A (zh) 一种实时多模态感知的高精地图构建方法
Deusch et al. Improving localization in digital maps with grid maps
CN109901589B (zh) 移动机器人控制方法和装置
Titov et al. Multispectral optoelectronic device for controlling an autonomous mobile platform
CN115273015A (zh) 一种预测方法、装置、智能驾驶系统和车辆

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20180115

Address after: 518055 Guangdong city of Shenzhen province Nanshan District Taoyuan Street Xueyuan Road No. 1001 Nanshan Chi Park B1 building 16 floor

Applicant after: Shenzhen music robot Co., Ltd.

Address before: Nanshan District Xueyuan Road in Shenzhen city of Guangdong province 518055 No. 1001 Nanshan Chi Park B1 building 18 floor

Applicant before: INMOTION TECHNOLOGIES, INC.

RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20170510