CN109682368B - 机器人及地图构建方法、定位方法、电子设备、存储介质 - Google Patents
机器人及地图构建方法、定位方法、电子设备、存储介质 Download PDFInfo
- Publication number
- CN109682368B CN109682368B CN201811463300.8A CN201811463300A CN109682368B CN 109682368 B CN109682368 B CN 109682368B CN 201811463300 A CN201811463300 A CN 201811463300A CN 109682368 B CN109682368 B CN 109682368B
- Authority
- CN
- China
- Prior art keywords
- robot
- map
- scene
- pose
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000010276 construction Methods 0.000 title claims abstract description 23
- 238000013507 mapping Methods 0.000 claims abstract description 32
- 230000008569 process Effects 0.000 claims abstract description 17
- 230000000007 visual effect Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 5
- 238000010408 sweeping Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/005—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0219—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory ensuring the processing of the whole working surface
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
Abstract
本发明提供一种机器人及地图构建方法、定位方法、电子设备、存储介质。机器人的地图构建方法,包括:机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图,所述初始地图包括第一地图及第二地图,所述第一地图包括所述工作区域与地图坐标系的映射,所述第二地图包括基于所采集图像提取的场景特征及该场景特征的几何量。本发明无需主动信号而采用被动的视觉传感器实现地图的构建,视觉传感器功耗小、成本低,且所获得的信号量大,优化了智能机器人的地图构建。
Description
技术领域
本发明涉及机器人领域,尤其涉及一种机器人及地图构建方法、定位方法、电子设备、存储介质。
背景技术
目前,可移动的机器人,例如扫地机器人已经被越来越多的家庭接收并实际使用。目前,目前常见的机器人定位及建图都是依靠主动发射信号,例如激光,红外等,来探测外部环境进而建立地图。例如,一些智能机器人即时定位与地图构建技术为FastSLAM。FastSLAM一般使用激光测距仪或者声呐来实现。FastSLAM由于使用激光、声呐等传感器,在特殊的环境下机器人无法识别,只能通过预判来估计整个环境情况。
由此可见,这些方法无法在所有环境中适用,且功耗大,成本高,获取的信息量少,限制了人工智能在机器人上的应用。
发明内容
本发明为了克服上述现有技术存在的缺陷,提供一种机器人及地图构建方法、定位方法、电子设备、存储介质,无需主动信号而采用被动的视觉传感器实现地图的构建,视觉传感器功耗小、成本低,且所获得的信号量大,优化了智能机器人的地图构建。
根据本发明的一个方面,提供一种机器人的地图构建方法,包括:
机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图,所述初始地图包括第一地图及第二地图,所述第一地图包括所述工作区域与地图坐标系的映射,所述第二地图包括基于所采集图像提取的场景特征及该场景特征的几何量。
可选地,所述机器人按照预定规则遍历工作区域的步骤包括:
所述机器人沿所述工作区域的边界行驶,以构建轮廓地图;
所述机器人基于所述轮廓地图,规划所述轮廓地图内的遍历路径,并按所述遍历路径行驶,以构建内部地图;以及
将所述轮廓地图及所述内部地图组成所述初始地图。
可选地,所述机器人沿所述工作区域的边界行驶的步骤还包括:
以所述机器人采集图像的方向为正方向,所述机器人按正方向行驶;
当所述机器人识别到障碍对象时,所述机器人由按所述正方向行驶转变为沿所述障碍对象的边界行驶。
可选地,当所述机器人识别到障碍对象时,将所述机器人的当前位置确定为第一位置,所述机器人沿所述障碍对象的边界行驶的步骤还包括:
当所述机器人再次行驶到所述第一位置时,所述机器人判断所述障碍对象为所述工作区域内的障碍物或所述工作区域的边界;
若所述障碍对象为所述工作区域内的障碍物,则所述机器人由沿所述障碍对象的边界行驶转变为按所述正方向行驶;
若所述障碍对象为所述工作区域的边界时,则所述机器人确定所述工作区域的边界行驶完毕。
可选地,所述机器人按照预定规则遍历工作区域时,当根据所采集图像识别到所述工作区域内的特征物体时,依据所述第一地图的地图坐标系,确定所述机器人与所述特征物体之间的距离,当所述距离符合预定距离时,将所述机器人当前实时采集的图像作为场景图像,并基于场景图像提取所述场景特征。
可选地,所述机器人在第一地图中的坐标及朝向作为所述机器人的位姿,所述机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图包括:
将第二地图中的场景特征、对应该场景特征的几何量及提取该场景特征的场景图像,与所述机器人采集该场景图像时的位姿相关联地储存在场景数据库中,和/或将根据所采集图像识别到的所述工作区域内的特征物体与所述机器人采集该图像时的位姿相关联地储存在场景数据库中,以用于位姿查询。
可选地,所述位姿查询包括:
将从所述机器人实时采集的图像的图像特征与储存在所述场景数据库中的场景特征进行匹配,根据所匹配到的场景特征与所述机器人实时采集的图像的图像特征的比对确定所述机器人的实时位姿与所述机器人采集该场景图像时的位姿差异,从而基于所述机器人采集该场景图像时的位姿确定所述机器人的实时位姿。
可选地,所述位姿查询包括:
将从所述机器人实时采集的图像中的特征物体与储存在所述场景数据库中的特征物体进行匹配,根据所匹配到的特征物体与所述机器人实时采集的图像中的特征物体的比对确定所述机器人的实时位姿与所述机器人采集该特征物体时的位姿差异,从而基于储存在所述场景数据库中的所述机器人采集该特征物体时的位姿确定所述机器人的实时位姿。
可选地,所述机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图的步骤之后包括:
基于所述机器人在所述工作区域工作时实时采集的图像迭代更新所述初始地图。
可选地,所述基于所述机器人在所述工作区域工作时实时采集的图像迭代更新所述初始地图包括:
根据所述机器人实时采集的图像于所述场景数据库中匹配一估计位姿;
根据所述机器人实时采集的图像及所述估计位姿确定所述机器人的准确位姿;
根据所述准确位姿、匹配所述估计位姿的场景特征、对应该场景特征的几何量、所述机器人实时采集的图像确定更新的场景图像、更新的场景特征、对应更新的场景特征的几何量;
根据所述准确位姿、更新的场景图像、更新的场景特征、对应更新的场景特征的几何量更新所述场景数据库。
根据本发明的又一方面,还提供一种机器人定位方法,包括:
基于如上所述的机器人的地图构建方法所构建的地图,及所述机器人实时采集的图像,确定所述机器人的当前位姿。
根据本发明的又一方面,还提供一种机器人,包括:
采集模块,至少用于实时采集机器人周围的图像;
驱动模块,用于驱动所述机器人移动;
地图构建模块,用于使机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图,所述初始地图包括第一地图及第二地图,所述第一地图包括所述工作区域与地图坐标系的映射,所述第二地图包括基于所采集图像提取的场景特征及该场景特征的几何量。
可选地,还包括:
地图更新模块,用于基于所述机器人在所述工作区域工作时实时采集的图像迭代更新所述初始地图。
可选地,还包括:
定位模块,用于根据所述初始地图或更新后的地图及所述机器人实时采集的图像,确定所述机器人的当前位姿。
可选地,所述机器人为扫地机器人或拖地机器人。
根据本发明的又一方面,还提供一种电子设备,所述电子设备包括:处理器;存储介质,其上存储有计算机程序,所述计算机程序被所述处理器运行时执行如上所述的步骤。
根据本发明的又一方面,还提供一种存储介质,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如上所述的步骤。
相比现有技术,本发明提供的方法和装置具有如下优势:
1)无需主动信号而采用被动的视觉传感器实现地图的构建,视觉传感器功耗小、成本低,且所获得的信号量大,优化了智能机器人的地图构建;
2)本发明地构建地图地方法,在第一地图的基础上构建第二地图,一方面,可通过第二地图,即场景地图为机器人提供更多的信息,另一方面,机器人工作时实时采集的图像,可以不断迭代更新包括第一地图和第二地图的初始地图。不论是第二地图所包括的基于所采集图像提取的场景特征及该场景特征的几何量,还是机器人工作时实时采集的图像都可以为工作中的机器人提供越来越多的信息,从而使构建地图过程中的噪声越来越小,解决了被动的视觉传感器实现地图构建的噪声问题,使得本发明的地图构建精度不低于主动信号的地图构建精度;
3)通过机器人工作时实时采集的图像可以迭代更新初始地图,由此,机器人可以在工作中机器人能够不断熟悉环境,优化用于定位的地图,也能够持续检测环境变化,使得机器人更具智能。
附图说明
通过参照附图详细描述其示例实施方式,本发明的上述和其它特征及优点将变得更加明显。
图1示出了根据本发明实施例的机器人的地图构建方法的流程图。
图2示出了根据本发具体明实施例的机器人的地图构建方法的流程图。
图3至图6示出了根据本发明具体实施例的机器人遍历工作区域的示意图。
图7示出了根据本发明实施例的地图迭代更新的流程图。
图8示出了根据本发明实施例的地机器人定位方法的流程图。
图9示出了根据本发明实施例的机器人的模块图。
图10示意性示出本公开示例性实施例中一种计算机可读存储介质示意图。
图11示意性示出本公开示例性实施例中一种电子设备示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
为了解决现有技术的缺陷,本发明提供一种机器人及其自动回充方法、系统、电子设备、存储介质,无需主动光源引导即可实现机器人自动回充,减少机器人的成本,同时,设备灵活性高。
首先参见图1,图1示出了根据本发明实施例的机器人的地图构建方法的流程图。
图1共示出一个步骤:
步骤S110:机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图,所述初始地图包括第一地图及第二地图,所述第一地图包括所述工作区域与地图坐标系的映射,所述第二地图包括基于所采集图像提取的场景特征及该场景特征的几何量。
相比现有技术,在本发明提供的机器人的地图构建方法中,具有如下优势:
1)无需主动信号而采用被动的视觉传感器实现地图的构建,视觉传感器功耗小、成本低,且所获得的信号量大,优化了智能机器人的地图构建;
2)本发明地构建地图地方法,在第一地图的基础上构建第二地图,一方面,可通过第二地图,即场景地图为机器人提供更多的信息,另一方面,机器人工作时实时采集的图像,可以不断迭代更新包括第一地图和第二地图的初始地图。不论是第二地图所包括的基于所采集图像提取的场景特征及该场景特征的几何量,还是机器人工作时实时采集的图像都可以为工作中的机器人提供越来越多的信息,从而使构建地图过程中的噪声越来越小,解决了被动的视觉传感器实现地图构建的噪声问题,使得本发明的地图构建精度不低于主动信号的地图构建精度;
3)通过机器人工作时实时采集的图像可以迭代更新初始地图,由此,机器人可以在工作中机器人能够不断熟悉环境,优化用于定位的地图,也能够持续检测环境变化,使得机器人更具智能。
在本发明的各个实施例中,所述的第一地图用于描述结构以及物体间相互关系的数据结构。第一地图可以为机器人规划路径。所述第一地图利用地图坐标系(MC)来表示工作区域中的一个具体的位置,地图坐标系(MC)可以是二维或者三维坐标系。机器人在第一地图中的某点的位姿由机器人在地图坐标系中的该点坐标P及其的朝向r构成:
其中,P是维度随地图坐标系的维度而定的向量,r为一个维度比P减一的向量。例如,地图坐标系为三维坐标系,则P为三维向量,r为二维向量;地图坐标系为二维坐标系,则P为二维向量,r为一维向量。
第二地图在第一地图的基础上,在某些特定的位置处具有场景及几何描述的数据结构。第二地图可以使机器人随时知道自己在场景地图中的哪个位置,也可以帮助机器人更新地图内容。第二地图可以表示为一个映射:
L=SM(I,G,S)
其中,L是机器人的位姿,I为是机器人以该位姿拍摄到的图像,I也在本文中被称为场景图像,G和S分别代表由该场景图像提取的场景特征及该场景特征的几何量,SM为由场景图像、场景特征及该场景特征的几何量转换为机器人的位姿的转换函数。
具体而言,在一些具体实施例中,场景特征可以根据图像中的特征物体来提取。场景特征的几何量例如可以是场景特征所表示的特征物体的点、线、面的几何特征。几何量的定义可随不同的精度而变化。在该实施例中,所述机器人按照预定规则遍历工作区域时,当根据所采集图像识别到所述工作区域内的特征物体时,依据所述第一地图的地图坐标系,确定所述机器人与所述特征物体之间的距离。当所述距离符合预定距离时,将所述机器人当前实时采集的图像作为场景图像,并基于场景图像提取所述场景特征。所提取的场景特征,优选地为固定不变的场景,则所要识别的特征物体通常为在工作区域中固定位置的特征物体。特征物体可以根据预先设定的特征物体集来规定。在一些变化例中,特征物体也可以根据多个机器人在工作过程中采集的图像,通过机器学习来确定,本发明并非以此为限。进一步地,采集场景图像的预定距离,用于提高特征提取的效率及特征提取的准确度。预定距离可以实现设定或随机器人的工作状态而变化。在另一些变化例中,场景特征并不限于特征物体的特征,也可以是场景图像的特征。本领域技术人员可以实现不同的变化例,在此不予赘述。
进一步地,如上所述,所述机器人在第一地图中的坐标及朝向作为所述机器人的位姿。上述步骤S110所述机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图可以包括如下步骤:将第二地图中的场景特征、对应该场景特征的几何量及提取该场景特征的场景图像,与所述机器人采集该场景图像时的位姿相关联地储存在场景数据库中,和/或将根据所采集图像识别到的所述工作区域内的特征物体与所述机器人采集该图像时的位姿相关联地储存在场景数据库中,以用于位姿查询。在该实施例中,场景数据库储存所述机器人采集场景图像和/或特征物体时的位姿,与第二地图中的场景特征、对应该场景特征的几何量及提取该场景特征的场景图像和/或特征物体的映射关系。换言之,在本实施例中,场景数据库即为步骤S110中所述的第二地图。
在上述实施例的一个实现中,所述位姿查询包括将从所述机器人实时采集的图像的图像特征与储存在所述场景数据库中的场景特征进行匹配,根据所匹配到的场景特征与所述机器人实时采集的图像的图像特征的比对确定所述机器人的实时位姿与所述机器人采集该场景图像时的位姿差异,从而基于所述机器人采集该场景图像时的位姿确定所述机器人的实时位姿。
具体而言,相当于通过场景特征和所述机器人实时采集的图像的图像特征的比对,确定所述机器人采集场景图像和机器人采集实时图像的相对位置,由此,根据所储存的所述机器人采集该场景图像时的位姿和所确定的相对位置,即可确定机器人的实时位姿。进一步地,上述位姿查询的步骤在一些具体实现中可以采用与下述的地图更新中确定准确位姿的算法。本发明并非以此为限。
在上述实施例的一个实现中,所述位姿查询包括:将从所述机器人实时采集的图像中的特征物体与储存在所述场景数据库中的特征物体进行匹配,根据所匹配到的特征物体与所述机器人实时采集的图像中的特征物体的比对确定所述机器人的实时位姿与所述机器人采集该特征物体时的位姿差异,从而基于储存在所述场景数据库中的所述机器人采集该特征物体时的位姿确定所述机器人的实时位姿。
具体而言,相当于通过特征物体和所述机器人实时采集的图像中的特征物体的比对,确定所述机器人采集特征物体和机器人采集实时特征物体的相对位置,由此,根据所储存的所述机器人采集该特征物体时的位姿和所确定的相对位置,即可确定机器人的实时位姿。例如,将特征物体-机器人的充电桩,作为世界坐标系的原点,通过确认机器人实时采集到的图像中的充电桩,来查询到机器人于初始地图中的位姿。
以上仅仅是实例性地描述本发明的位姿查询的多个实现方式,本发明并非以此为限。
下面结合图2、图3至图6进一步描述本发明提供的机器人的地图构建方法。图2示出了根据本发具体明实施例的机器人的地图构建方法的流程图。图3至图6示出了根据本发明具体实施例的机器人遍历工作区域的示意图。
如图2所示,步骤S110所述机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图可以包括如下步骤:
步骤S111:所述机器人201沿所述工作区域210的边界211行驶,以构建轮廓地图221;
步骤S112:所述机器人201基于所述轮廓地图221,规划所述轮廓地图内的遍历路径,并按所述遍历路径行驶,以构建内部地图222;以及
步骤S113:将所述轮廓地图221及所述内部地图222组成所述初始地图。
上述步骤S111至步骤S113可以参见图3和图6。需要说明的是,轮廓地图221和内部地图222均包括上述第一地图和第二地图。轮廓地图221和内部地图222在区域/路径上构成初始地图。第一地图和第二地图在所包含的位置参数上构成初始地图。
在一个具体实施例中,上述步骤S111所述机器人201沿所述工作区域210的边界211行驶,以构建轮廓地图221的步骤还可以包括如下步骤:以所述机器人201采集图像的方向为正方向,所述机器人201按正方向行驶;当所述机器人201识别到障碍对象时,所述机器人201由按所述正方向行驶转变为沿所述障碍对象的边界行驶。所述机器人201识别到障碍对象例如可以通过图像识别或其它传感器的数据识别,本发明并非以此为限。如图4所示,机器人201位于工作区域内的任意位置,使机器人201首先按正方向(采集图像的方向)行驶,当机器人201碰到墙241(障碍对象)时,所述机器人201由按所述正方向行驶转变为沿所述墙241(障碍对象)的边界行驶,以构建轮廓地图221。在本实施例中,所述的按所述正方向行驶转变为沿所述障碍对象的边界行驶优先使所述机器人左转(在一些变化例中,可以使机器人右转)。
在另一些具体实施例中,考虑到工作区域内具有障碍物的情况下,上述步骤当所述机器人识别到障碍对象时,将所述机器人201的当前位置确定为第一位置230、231,所述机器人201沿所述障碍对象的边界行驶的步骤还包括:当所述机器人再次行驶到所述第一位置230、231时,所述机器人判断所述障碍对象为所述工作区域内的障碍物242或所述工作区域的边界(如墙241)。若所述障碍对象为所述工作区域内的障碍物242,则所述机器人201由沿所述障碍对象的边界行驶转变为按所述正方向行驶。若所述障碍对象为所述工作区域的边界(如墙241)时,则所述机器人201确定所述工作区域的边界行驶完毕。
上述步骤可以参考图5,机器人201初始位于工作区域内的任意位置,使机器人201首先按正方向(采集图像的方向)行驶,当机器人201碰到障碍物242时,将所述机器人201的当前位置确定为第一位置231,所述机器人201由按所述正方向行驶转变为沿所述障碍物242的边界行驶。当所述机器人再次行驶到所述第一位置231时,若所述障碍对象为所述工作区域内的障碍物242,则所述机器人201由沿所述障碍对象的边界行驶转变为按所述正方向行驶。当机器人201按上述正方向行驶时,碰到所述工作区域的边界(如墙241)时,将所述机器人201的当前位置确定为第一位置230,所述机器人201由按所述正方向行驶转变为沿所述工作区域的边界(如墙241)行驶。当所述机器人再次行驶到所述第一位置230时,所述机器人判断所述障碍对象为所述工作区域的边界(如墙241),所述机器人201确定所述工作区域的边界行驶完毕。当工作区域内具有多个障碍物时,也可按上述步骤执行,以使机器人201沿所述工作区域210的边界211行驶。在一些实施例中,可将上述步骤中机器人201的行驶路径作为所述工作区域210的边界211。在另一些实施例中,可从上述步骤中机器人201的行驶路径作为所述工作区域210的边界211截取部分路径作为所述工作区域210的边界211。例如,可仅保留机器人201沿所述障碍对象的边界行驶模式下,机器人201的行驶路径作为所述工作区域210的边界211;或者仅保留机器人201沿墙241的行驶模式下,机器人201的行驶路径作为所述工作区域210的边界211。本发明可以实现更多的变化方式,在此不予赘述。
进一步地,上述步骤S110所述机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图的步骤之后包括:基于所述机器人在所述工作区域工作时实时采集的图像迭代更新所述初始地图。基于所述机器人在所述工作区域工作时实时采集的图像迭代更新所述初始地图的步骤可以参见图7,图7示出了根据本发明实施例的地图迭代更新的流程图。图7共示出4个步骤:
步骤S121:根据所述机器人实时采集的图像于所述场景数据库中匹配一估计位姿;
具体而言,上述步骤可以通过如下公式表示:
其中,该公式表示,给定t时刻拍摄的图像(所述机器人实时采集的图像I),由在t时刻的对应场景特征的几何量组成的几何信息库Gt(特征点,线,面等的几何描述,如坐标,方程等)和场景特征的组成的场景数据库St获取机器人在该时刻的估计位姿这个过程可以包含以下几步:
步骤一:由图像I中抽取几何特征集合{F};
步骤二:用该集合在St中搜寻与I最匹配的图像索引{k};
步骤三:根据Gt中每个k对应的几何特征子集{g}k,求解如下期望:
其中MI表示在李代数SE(3)上的插值函数,Lk是St中图像索引k对应的机器人位姿。步骤S122:根据所述机器人实时采集的图像及所述估计位姿确定所述机器人的准确位姿;
具体而言,上述步骤可以通过如下公式表示:
一旦将“错误”的特征去除,其它高质量的几何特征使得我们能用较简单的SLAM算法求得更准确的机器人的位姿L。
步骤S123:根据所述准确位姿、匹配所述估计位姿的场景特征、对应该场景特征的几何量、所述机器人实时采集的图像确定更新的场景图像、更新的场景特征、对应更新的场景特征的几何量;
具体而言,上述步骤可以通过如下公式表示:
[Gt+1,St+1]=F(L,Gt,St,I)
这一步由机器人位姿L和采集的图像I来更新几何信息库Gt,场景数据库St,从而得到更新的Gt+1和St+1。进一步地,采集的图像I可以直接替换场景图像。
步骤S124:根据所述准确位姿、更新的场景图像、更新的场景特征、对应更新的场景特征的几何量更新所述场景数据库。
以上仅仅是示意性地描述本发明提供的多个实时方式,本发明并非以此为限。
本发明还提供一种机器人定位方法,如图8所示。图8示出了根据本发明实施例的地机器人定位方法的流程图。
图8共示出了1个步骤:
步骤S310:基于如上所述的机器人的地图构建方法所构建的地图,及所述机器人实时采集的图像,确定所述机器人的当前位姿。
具体而言,步骤S310的位姿确定方式可以与前述的位姿查询方式一致。
相比现有技术,在本发明提供的机器人的定位方法中,具有如下优势:
1)无需主动信号而采用被动的视觉传感器实现地图的构建,视觉传感器功耗小、成本低,且所获得的信号量大,优化了智能机器人的地图构建,从而优化机器人在工作区域中的定位;
2)本发明地构建地图地方法,在第一地图的基础上构建第二地图,一方面,可通过第二地图,即场景地图为机器人提供更多的信息,另一方面,机器人工作时实时采集的图像,可以不断迭代更新包括第一地图和第二地图的初始地图。不论是第二地图所包括的基于所采集图像提取的场景特征及该场景特征的几何量,还是机器人工作时实时采集的图像都可以为工作中的机器人提供越来越多的信息,从而使构建地图过程中的噪声越来越小,解决了被动的视觉传感器实现地图构建的噪声问题,使得本发明的地图构建精度不低于主动信号的地图构建精度;
3)通过机器人工作时实时采集的图像可以迭代更新初始地图,由此,机器人可以在工作中机器人能够不断熟悉环境,优化用于定位的地图,也能够持续检测环境变化,使得机器人更具智能。
本发明还提供一种机器人。下面参见图9,图9示出了根据本发明一实施例的机器人的模块图。机器人400包括第一采集模块410、驱动模块420及地图构建模块430。
采集模块310至少用于实时采集机器人周围的图像;
驱动模块320用于驱动所述机器人移动;
地图构建模块430用于使机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图,所述初始地图包括第一地图及第二地图,所述第一地图包括所述工作区域与地图坐标系的映射,所述第二地图包括基于所采集图像提取的场景特征及该场景特征的几何量。
在一个具体实施例中,机器人400还包括地图更新模块。地图更新模块用于基于所述机器人在所述工作区域工作时实时采集的图像迭代更新所述初始地图。
在一个具体实施例中,机器人400还包括定位模块。定位模块用于根据所述初始地图或更新后的地图及所述机器人实时采集的图像,确定所述机器人的当前位姿。
在一个具体实施例中,所述机器人400可以是扫地机器人或拖地机器人。
相比现有技术,在本发明提供的机器人中,具有如下优势:
1)无需主动信号而采用被动的视觉传感器实现地图的构建,视觉传感器功耗小、成本低,且所获得的信号量大,优化了智能机器人的地图构建,从而优化机器人在工作区域中的定位;
2)本发明地构建地图地方法,在第一地图的基础上构建第二地图,一方面,可通过第二地图,即场景地图为机器人提供更多的信息,另一方面,机器人工作时实时采集的图像,可以不断迭代更新包括第一地图和第二地图的初始地图。不论是第二地图所包括的基于所采集图像提取的场景特征及该场景特征的几何量,还是机器人工作时实时采集的图像都可以为工作中的机器人提供越来越多的信息,从而使构建地图过程中的噪声越来越小,解决了被动的视觉传感器实现地图构建的噪声问题,使得本发明的地图构建精度不低于主动信号的地图构建精度;
3)通过机器人工作时实时采集的图像可以迭代更新初始地图,由此,机器人可以在工作中机器人能够不断熟悉环境,优化用于定位的地图,也能够持续检测环境变化,使得机器人更具智能。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被例如处理器执行时可以实现上述任意一个实施例中所述机器人的地图构建方法的步骤。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述机器人的地图构建方法部分中描述的根据本发明各种示例性实施方式的步骤。
参考图10所示,描述了根据本发明的实施方式的用于实现上述方法的程序产品900,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
所述计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读存储介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在租户计算设备上执行、部分地在租户设备上执行、作为一个独立的软件包执行、部分在租户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到租户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
在本公开的示例性实施例中,还提供一种电子设备,该电子设备可以包括处理器,以及用于存储所述处理器的可执行指令的存储器。其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一个实施例中所述机器人的地图构建方法的步骤。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图11来描述根据本发明的这种实施方式的电子设备1000。图11显示的电子设备1000仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图11所示,电子设备1000以通用计算设备的形式表现。电子设备1000的组件可以包括但不限于:至少一个处理单元1010、至少一个存储单元1020、连接不同系统组件(包括存储单元1020和处理单元1010)的总线1030等。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元1010执行,使得所述处理单元1010执行本说明书上述机器人的地图构建方法部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元1010可以执行如图1中所示的步骤。
所述存储单元1020可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)10201和/或高速缓存存储单元10202,还可以进一步包括只读存储单元(ROM)10203。
所述存储单元1020还可以包括具有一组(至少一个)程序模块10205的程序/实用工具10204,这样的程序模块10205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线1030可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备1000也可以与一个或多个外部设备1100(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得租户能与该电子设备1000交互的设备通信,和/或与使得该电子设备1000能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口1050进行。并且,电子设备1000还可以通过网络适配器1060与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。网络适配器1060可以通过总线1030与电子设备1000的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备1000使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、或者网络设备等)执行根据本公开实施方式的上述机器人的地图构建方法。
相比现有技术,本发明提供的方法和装置具有如下优势:
1)无需主动信号而采用被动的视觉传感器实现地图的构建,视觉传感器功耗小、成本低,且所获得的信号量大,优化了智能机器人的地图构建;
2)本发明地构建地图地方法,在第一地图的基础上构建第二地图,一方面,可通过第二地图,即场景地图为机器人提供更多的信息,另一方面,机器人工作时实时采集的图像,可以不断迭代更新包括第一地图和第二地图的初始地图。不论是第二地图所包括的基于所采集图像提取的场景特征及该场景特征的几何量,还是机器人工作时实时采集的图像都可以为工作中的机器人提供越来越多的信息,从而使构建地图过程中的噪声越来越小,解决了被动的视觉传感器实现地图构建的噪声问题,使得本发明的地图构建精度不低于主动信号的地图构建精度;
3)通过机器人工作时实时采集的图像可以迭代更新初始地图,由此,机器人可以在工作中机器人能够不断熟悉环境,优化用于定位的地图,也能够持续检测环境变化,使得机器人更具智能。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。
Claims (13)
1.一种机器人的地图构建方法,其特征在于,基于视觉传感器实现地图的构建,包括:
机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图,所述初始地图包括第一地图及第二地图,所述第一地图包括所述工作区域与地图坐标系的映射,所述第二地图包括基于所采集图像提取的场景特征及该场景特征的几何量,包括:将第二地图中的场景特征、对应该场景特征的几何量及提取该场景特征的场景图像,与所述机器人采集该场景图像时的位姿相关联地储存在场景数据库中,和/或将根据所采集图像识别到的所述工作区域内的特征物体与所述机器人采集该图像时的位姿相关联地储存在场景数据库中,以用于位姿查询;
基于所述机器人在所述工作区域工作时实时采集的图像迭代更新所述初始地图,包括:
根据所述机器人实时采集的图像于所述场景数据库中匹配一估计位姿;
根据所述机器人实时采集的图像及所述估计位姿确定所述机器人的准确位姿,其中,所述估计位姿用以对所述机器人实时采集的图像中的几何特征集合进行降噪,以使用降噪后的所述机器人实时采集的图像中的几何特征集合及所述估计位姿确定所述机器人的准确位姿;
根据所述准确位姿、匹配所述估计位姿的场景特征、对应该场景特征的几何量、所述机器人实时采集的图像确定更新的场景图像、更新的场景特征、对应更新的场景特征的几何量;
根据所述准确位姿、更新的场景图像、更新的场景特征、对应更新的场景特征的几何量更新所述场景数据库。
2.如权利要求1所述的机器人的地图构建方法,其特征在于,所述机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图的步骤包括:
所述机器人沿所述工作区域的边界行驶,以构建轮廓地图;
所述机器人基于所述轮廓地图,规划所述轮廓地图内的遍历路径,并按所述遍历路径行驶,以构建内部地图;以及
将所述轮廓地图及所述内部地图组成所述初始地图。
3.如权利要求2所述的机器人的地图构建方法,其特征在于,所述机器人沿所述工作区域的边界行驶的步骤还包括:
以所述机器人采集图像的方向为正方向,所述机器人按正方向行驶;
当所述机器人识别到障碍对象时,所述机器人由按所述正方向行驶转变为沿所述障碍对象的边界行驶。
4.如权利要求3所述的机器人的地图构建方法,其特征在于,当所述机器人识别到障碍对象时,将所述机器人的当前位置确定为第一位置,所述机器人沿所述障碍对象的边界行驶的步骤还包括:
当所述机器人再次行驶到所述第一位置时,所述机器人判断所述障碍对象为所述工作区域内的障碍物或所述工作区域的边界;
若所述障碍对象为所述工作区域内的障碍物,则所述机器人由沿所述障碍对象的边界行驶转变为按所述正方向行驶;
若所述障碍对象为所述工作区域的边界时,则所述机器人确定所述工作区域的边界行驶完毕。
5.如权利要求1所述的机器人的地图构建方法,其特征在于,所述机器人按照预定规则遍历工作区域时,当根据所采集图像识别到所述工作区域内的特征物体时,依据所述第一地图的地图坐标系,确定所述机器人与所述特征物体之间的距离,当所述距离符合预定距离时,将所述机器人当前实时采集的图像作为场景图像,并基于场景图像提取所述场景特征。
6.如权利要求1所述的机器人的地图构建方法,其特征在于,所述位姿查询包括:
将从所述机器人实时采集的图像的图像特征与储存在所述场景数据库中的场景特征进行匹配,根据所匹配到的场景特征与所述机器人实时采集的图像的图像特征的比对确定所述机器人的实时位姿与所述机器人采集该场景图像时的位姿差异,从而基于所述机器人采集该场景图像时的位姿确定所述机器人的实时位姿。
7.如权利要求1所述的机器人的地图构建方法,其特征在于,所述位姿查询包括:
将从所述机器人实时采集的图像中的特征物体与储存在所述场景数据库中的特征物体进行匹配,根据所匹配到的特征物体与所述机器人实时采集的图像中的特征物体的比对确定所述机器人的实时位姿与所述机器人采集该特征物体时的位姿差异,从而基于储存在所述场景数据库中的所述机器人采集该特征物体时的位姿确定所述机器人的实时位姿。
8.一种机器人定位方法,其特征在于,包括:
基于权利要求1至7任一项所述的机器人的地图构建方法所构建的地图,及所述机器人实时采集的图像,确定所述机器人的当前位姿。
9.一种机器人,其特征在于,基于视觉传感器实现地图的构建,包括:
采集模块,至少用于实时采集机器人周围的图像;
驱动模块,用于驱动所述机器人移动;
地图构建模块,用于使机器人按照预定规则遍历工作区域,根据所述机器人在遍历的过程中实时采集的图像构建初始地图,所述初始地图包括第一地图及第二地图,所述第一地图包括所述工作区域与地图坐标系的映射,所述第二地图包括基于所采集图像提取的场景特征及该场景特征的几何量,包括:将第二地图中的场景特征、对应该场景特征的几何量及提取该场景特征的场景图像,与所述机器人采集该场景图像时的位姿相关联地储存在场景数据库中,和/或将根据所采集图像识别到的所述工作区域内的特征物体与所述机器人采集该图像时的位姿相关联地储存在场景数据库中,以用于位姿查询;
地图更新模块,用于基于所述机器人在所述工作区域工作时实时采集的图像迭代更新所述初始地图,包括:
根据所述机器人实时采集的图像于所述场景数据库中匹配一估计位姿;
根据所述机器人实时采集的图像及所述估计位姿确定所述机器人的准确位姿,其中,所述估计位姿用以对所述机器人实时采集的图像中的几何特征集合进行降噪,以使用降噪后的所述机器人实时采集的图像中的几何特征集合及所述估计位姿确定所述机器人的准确位姿;
根据所述准确位姿、匹配所述估计位姿的场景特征、对应该场景特征的几何量、所述机器人实时采集的图像确定更新的场景图像、更新的场景特征、对应更新的场景特征的几何量;
根据所述准确位姿、更新的场景图像、更新的场景特征、对应更新的场景特征的几何量更新所述场景数据库。
10.如权利要求9所述的机器人,其特征在于,还包括:
定位模块,用于根据所述初始地图或更新后的地图及所述机器人实时采集的图像,确定所述机器人的当前位姿。
11.如权利要求9或10所述的机器人,其特征在于,所述机器人为扫地机器人或拖地机器人。
12.一种电子设备,其特征在于,所述电子设备包括:
处理器;
存储介质,其上存储有计算机程序,所述计算机程序被所述处理器运行时执行如权利要求1至7任一项所述的机器人的地图构建方法。
13.一种存储介质,其特征在于,所述存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至7任一项所述的机器人的地图构建方法。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811463300.8A CN109682368B (zh) | 2018-11-30 | 2018-11-30 | 机器人及地图构建方法、定位方法、电子设备、存储介质 |
PCT/CN2019/082290 WO2020107772A1 (zh) | 2018-11-30 | 2019-04-11 | 机器人地图构建和定位 |
KR1020207034113A KR102433743B1 (ko) | 2018-11-30 | 2019-04-11 | 로봇의 지도 구축 및 위치 추적 |
US16/396,616 US10611028B1 (en) | 2018-11-30 | 2019-04-26 | Map building and positioning of robot |
JP2019085128A JP6632173B1 (ja) | 2018-11-30 | 2019-04-26 | ロボットの地図構築及び位置推定 |
EP19171604.2A EP3660618B1 (en) | 2018-11-30 | 2019-04-29 | Map building and positioning of robot |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811463300.8A CN109682368B (zh) | 2018-11-30 | 2018-11-30 | 机器人及地图构建方法、定位方法、电子设备、存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109682368A CN109682368A (zh) | 2019-04-26 |
CN109682368B true CN109682368B (zh) | 2021-07-06 |
Family
ID=66186017
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811463300.8A Active CN109682368B (zh) | 2018-11-30 | 2018-11-30 | 机器人及地图构建方法、定位方法、电子设备、存储介质 |
Country Status (5)
Country | Link |
---|---|
EP (1) | EP3660618B1 (zh) |
JP (1) | JP6632173B1 (zh) |
KR (1) | KR102433743B1 (zh) |
CN (1) | CN109682368B (zh) |
WO (1) | WO2020107772A1 (zh) |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110202570B (zh) * | 2019-05-13 | 2022-07-05 | 深圳创动科技有限公司 | 机器人及其运动控制方法以及存储介质 |
CN112711249B (zh) * | 2019-10-24 | 2023-01-03 | 科沃斯商用机器人有限公司 | 机器人定位方法、装置、智能机器人和存储介质 |
CN111028658A (zh) * | 2019-11-18 | 2020-04-17 | 杭州晶一智能科技有限公司 | 一种基于gps和在线地图的割草机器人电子地图构建方法 |
CN111199677B (zh) * | 2019-12-25 | 2022-02-18 | 邦鼓思电子科技(上海)有限公司 | 一种室外区域的工作地图自动建立方法,装置,存储介质及工作设备 |
CN113138593A (zh) * | 2020-01-02 | 2021-07-20 | 苏州宝时得电动工具有限公司 | 自主机器人的地图创建方法、装置、设备及存储介质 |
WO2021208416A1 (zh) * | 2020-04-17 | 2021-10-21 | 宝时得科技(中国)有限公司 | 自移动设备、终端、服务器自动更新数据模型的方法 |
CN113822094B (zh) * | 2020-06-02 | 2024-01-16 | 苏州科瓴精密机械科技有限公司 | 基于图像识别工作位置的方法、系统,机器人及存储介质 |
CN113806377B (zh) * | 2020-06-12 | 2023-08-18 | 未岚大陆(北京)科技有限公司 | 地图更新方法、设备及存储介质 |
CN114111779A (zh) * | 2020-08-26 | 2022-03-01 | 深圳市杉川机器人有限公司 | 一种建立工作区域地图的方法及自移动设备 |
CN112223281A (zh) * | 2020-09-27 | 2021-01-15 | 深圳市优必选科技股份有限公司 | 机器人及其定位方法和装置 |
CN112215863B (zh) * | 2020-10-13 | 2023-08-29 | 北京易控智驾科技有限公司 | 露天矿装载区多台阶作业场景检测方法和系统 |
CN112833890A (zh) * | 2020-12-30 | 2021-05-25 | 深圳市海柔创新科技有限公司 | 地图构建方法、装置、设备、机器人及存储介质 |
CN112869639B (zh) * | 2021-01-29 | 2022-06-14 | 深圳拓邦股份有限公司 | 机器人回充探索方法、装置及扫地机器人 |
CN113419249A (zh) * | 2021-06-18 | 2021-09-21 | 珠海市一微半导体有限公司 | 一种重定位方法、芯片和移动机器人 |
CN113688678B (zh) * | 2021-07-20 | 2024-04-12 | 深圳市普渡科技有限公司 | 路标多歧义处理方法、机器人及存储介质 |
CN113670292B (zh) * | 2021-08-10 | 2023-10-20 | 追觅创新科技(苏州)有限公司 | 地图的绘制方法和装置、扫地机、存储介质、电子装置 |
CN114494848B (zh) * | 2021-12-21 | 2024-04-16 | 重庆特斯联智慧科技股份有限公司 | 一种机器人视距路径确定方法和装置 |
CN116466693A (zh) * | 2022-01-11 | 2023-07-21 | 未岚大陆(北京)科技有限公司 | 地图处理方法、自移动的园艺设备、以及自动割草机 |
CN114578727A (zh) * | 2022-01-29 | 2022-06-03 | 深圳市云鼠科技开发有限公司 | 用于清洁机器人的业务逻辑控制方法 |
CN114543808A (zh) * | 2022-02-11 | 2022-05-27 | 杭州萤石软件有限公司 | 室内重定位方法、装置、设备及存储介质 |
CN116965745A (zh) * | 2022-04-22 | 2023-10-31 | 追觅创新科技(苏州)有限公司 | 坐标重定位方法、系统及清洁机器人 |
CN115657674B (zh) * | 2022-10-26 | 2023-05-05 | 宝开(上海)智能物流科技有限公司 | 一种基于图神经网络的分布式路径规划方法及装置 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005339408A (ja) * | 2004-05-28 | 2005-12-08 | Toshiba Corp | 自走式ロボット及びその制御方法 |
KR100843085B1 (ko) * | 2006-06-20 | 2008-07-02 | 삼성전자주식회사 | 이동 로봇의 격자지도 작성 방법 및 장치와 이를 이용한영역 분리 방법 및 장치 |
KR101503903B1 (ko) * | 2008-09-16 | 2015-03-19 | 삼성전자 주식회사 | 이동 로봇의 지도 구성 장치 및 방법 |
CN101727756B (zh) * | 2008-10-16 | 2012-07-25 | 财团法人工业技术研究院 | 交通工具移动图像辅助导引方法与系统 |
US8185239B2 (en) * | 2008-11-13 | 2012-05-22 | MSI Computer (Shenzhen) Co, Ltd. | Moving route planning method and navigation method for avoiding dynamic hindrances for mobile robot device |
CN103278170B (zh) * | 2013-05-16 | 2016-01-06 | 东南大学 | 基于显著场景点检测的移动机器人级联地图创建方法 |
KR20180012811A (ko) * | 2015-06-26 | 2018-02-06 | 닛산 지도우샤 가부시키가이샤 | 차량 위치 판정 장치 및 차량 위치 판정 방법 |
JP6609463B2 (ja) * | 2015-11-19 | 2019-11-20 | シャープ株式会社 | 自走式電子機器 |
JP6638348B2 (ja) * | 2015-11-20 | 2020-01-29 | 日本精工株式会社 | 移動ロボットシステム |
CN105928505B (zh) * | 2016-04-19 | 2019-01-29 | 深圳市神州云海智能科技有限公司 | 移动机器人的位姿确定方法和设备 |
JP2017198517A (ja) * | 2016-04-27 | 2017-11-02 | 株式会社国際電気通信基礎技術研究所 | 3次元地図生成システム |
CN105973246A (zh) * | 2016-04-29 | 2016-09-28 | 海尔优家智能科技(北京)有限公司 | 一种地磁地图的绘制方法、装置及机器人 |
JP6867120B2 (ja) * | 2016-07-28 | 2021-04-28 | シャープ株式会社 | 地図作成方法及び地図作成装置 |
US9964955B2 (en) * | 2016-08-04 | 2018-05-08 | Canvas Technology, Inc. | System and methods of determining a geometric pose of a camera based on spatial and visual mapping |
JP6976050B2 (ja) * | 2016-11-07 | 2021-12-01 | 日産自動車株式会社 | 駐車制御装置の姿勢推定方法、及び姿勢推定装置 |
CN106863305B (zh) * | 2017-03-29 | 2019-12-17 | 赵博皓 | 一种扫地机器人房间地图创建方法及装置 |
CN107167148A (zh) * | 2017-05-24 | 2017-09-15 | 安科机器人有限公司 | 同步定位与地图构建方法和设备 |
CN108106616B (zh) * | 2017-12-13 | 2020-07-28 | 深圳市艾特智能科技有限公司 | 一种自建导航地图的方法、系统及智能设备 |
CN107943058A (zh) * | 2017-12-26 | 2018-04-20 | 北京面面俱到软件有限公司 | 扫地机器人及其清扫路径规划方法 |
CN108225348B (zh) * | 2017-12-29 | 2021-08-24 | 百度在线网络技术(北京)有限公司 | 地图创建以及运动实体定位的方法和装置 |
CN108089585A (zh) * | 2018-01-06 | 2018-05-29 | 深圳慎始科技有限公司 | 一种具有地图构建和导航的清扫机器人 |
CN108717710B (zh) * | 2018-05-18 | 2022-04-22 | 京东方科技集团股份有限公司 | 室内环境下的定位方法、装置及系统 |
CN108759844B (zh) * | 2018-06-07 | 2021-11-16 | 科沃斯商用机器人有限公司 | 机器人重定位与环境地图构建方法、机器人及存储介质 |
-
2018
- 2018-11-30 CN CN201811463300.8A patent/CN109682368B/zh active Active
-
2019
- 2019-04-11 WO PCT/CN2019/082290 patent/WO2020107772A1/zh active Application Filing
- 2019-04-11 KR KR1020207034113A patent/KR102433743B1/ko active IP Right Grant
- 2019-04-26 JP JP2019085128A patent/JP6632173B1/ja active Active
- 2019-04-29 EP EP19171604.2A patent/EP3660618B1/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2020107772A1 (zh) | 2020-06-04 |
KR102433743B1 (ko) | 2022-08-18 |
KR20210005925A (ko) | 2021-01-15 |
JP2020087415A (ja) | 2020-06-04 |
JP6632173B1 (ja) | 2020-01-22 |
CN109682368A (zh) | 2019-04-26 |
EP3660618B1 (en) | 2020-12-23 |
EP3660618A1 (en) | 2020-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109682368B (zh) | 机器人及地图构建方法、定位方法、电子设备、存储介质 | |
US10611028B1 (en) | Map building and positioning of robot | |
Taheri et al. | SLAM; definition and evolution | |
US20180161986A1 (en) | System and method for semantic simultaneous localization and mapping of static and dynamic objects | |
US8467902B2 (en) | Method and apparatus for estimating pose of mobile robot using particle filter | |
Chen et al. | Recent advances in simultaneous localization and map-building using computer vision | |
CN110968083B (zh) | 栅格地图的构建方法、避障的方法、设备及介质 | |
Holz et al. | Sancta simplicitas-on the efficiency and achievable results of SLAM using ICP-based incremental registration | |
CN107179082B (zh) | 基于拓扑地图和度量地图融合的自主探索方法和导航方法 | |
Valencia et al. | Mapping, planning and exploration with Pose SLAM | |
CN112444246B (zh) | 高精度的数字孪生场景中的激光融合定位方法 | |
Lázaro et al. | Efficient long-term mapping in dynamic environments | |
US20200326722A1 (en) | Mobile robot, system for multiple mobile robot, and map learning method of mobile robot using artificial intelligence | |
US20200125113A1 (en) | Controlling method for artificial intelligence moving robot | |
Choi et al. | Metric SLAM in home environment with visual objects and sonar features | |
Imani et al. | Three main paradigms of simultaneous localization and mapping (SLAM) problem | |
CN109389677B (zh) | 房屋三维实景地图的实时构建方法、系统、装置及存储介质 | |
Himstedt et al. | A robust graph-based framework for building precise maps from laser range scans | |
Emaduddin et al. | Accurate floor detection and segmentation for indoor navigation using RGB+ D and stereo cameras | |
Muravyev et al. | Evaluation of Topological Mapping Methods in Indoor Environments | |
Larsson et al. | On robot navigation using identical landmarks: integrating measurements from a time-of-flight laser | |
Karlsson et al. | The vSLAM algorithm for navigation in natural environments | |
Wu | A Low-cost SLAM Fusion Algorithm for Robot Localization | |
US20240027224A1 (en) | Method for recognizing an erroneous map of an environment | |
Marzorati et al. | Particle-based sensor modeling for 3d-vision slam |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |