CN111897334B - 一种基于边界的机器人区域划分方法、芯片及机器人 - Google Patents
一种基于边界的机器人区域划分方法、芯片及机器人 Download PDFInfo
- Publication number
- CN111897334B CN111897334B CN202010764284.7A CN202010764284A CN111897334B CN 111897334 B CN111897334 B CN 111897334B CN 202010764284 A CN202010764284 A CN 202010764284A CN 111897334 B CN111897334 B CN 111897334B
- Authority
- CN
- China
- Prior art keywords
- robot
- boundary line
- preset
- area
- edgewise
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 230000000007 visual effect Effects 0.000 claims abstract description 19
- 230000011218 segmentation Effects 0.000 claims description 31
- 230000008569 process Effects 0.000 claims description 19
- 238000004422 calculation algorithm Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 4
- 238000012545 processing Methods 0.000 abstract description 11
- 238000004140 cleaning Methods 0.000 description 19
- 230000009466 transformation Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000010408 sweeping Methods 0.000 description 3
- 230000007547 defect Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005429 filling process Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G05D1/6482—
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
- G05D1/0236—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0238—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
- G05D1/024—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0253—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0276—Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
-
- G05D1/242—
-
- G05D1/243—
-
- G05D1/2462—
-
- G05D2105/10—
-
- G05D2107/40—
-
- G05D2109/10—
-
- G05D2111/10—
-
- G05D2111/17—
Abstract
本发明公开一种基于边界的机器人区域划分方法、芯片及机器人,该机器人区域划分方法包括:机器人在室内工作区域内执行预设沿边方向上的沿边行走时,根据机器人的激光传感器实时扫描的数据设置出参考分割边界线,使得机器人沿着所述参考分割边界线执行预设沿边方向上的沿边行走;当机器人结束预设沿边方向上的沿边行走后,根据机器人的摄像头采集的参考分割边界线所在位置的图像特征信息,识别出参考分割边界线所处位置上的门,并标记到激光地图中,使得这个门将室内工作区域划分为不同的房间子区域。本发明先后通过激光扫描和摄像头拍摄的采集处理方式,比纯视觉技术手段对房间房门的识别的准确率更高。
Description
技术领域
本发明涉及机器人清洁区域规划,尤其涉及一种基于边界的机器人区域划分方法、芯片及机器人。
背景技术
现有扫地机器人采用惯性导航、激光雷达或者摄像头进行地图规划和导航,用户在用扫地机器人扫地时,会在移动设备上实时看到清扫的区域划分,然而,这样的清洁区域划分并非房间单元式划分,仅基于清洁区域的坐标信息而将清洁区域随意划分为多个区,区域分割主要是用来进行覆盖规划,但在现有技术中,基于视觉技术手段实时构建的地图还不能提前标记出未清扫区域的信息,从而不能对房间进行有效的划分。
在现有技术中,LG电子株式会社于2015年02月12日在中国申请的申请号为2015100760659发明专利通过纯图像视觉手段去识别门的位置和门框形状,进而区分房间,但是对于机器人采集图像的位置要求比较严格,而且还需要反复采集、多角度采集,在识别门的位置过程中不容易达到预定的精确度。
发明内容
为了解决上述技术问题,本发明技术方案结合激光和视觉图像,通过识别门的方式控制机器人对室内环境进行房间子区域划分,以使得用户能够在地图上准确确定门的位置,从而指定机器人对各个房间子区域进行覆盖清扫。
一种基于激光的机器人区域划分方法,包括:机器人在室内工作区域内按照预设沿边方向执行沿边行走时,根据机器人的激光传感器扫描的数据,设置出用于划分室内工作区域的参考分割边界线,使得机器人沿着参考分割边界线执行预设沿边方向上的沿边行走;当机器人结束预设沿边方向上的沿边行走后,根据机器人的摄像头采集的参考分割边界线所在位置的图像特征信息,识别出参考分割边界线所处位置上的门,并将这个参考分割边界线标记到激光地图中,使得这个门将室内工作区域划分为不同的房间子区域。与现有技术相比,本发明通过激光数据设置出用于定位门位置和作为候选门位置的参考分割边界线,实现对室内工作区域的初步分割,然后在初步分割出的子区域内结合参考分割边界线处的图像信息去识别实际存在的门;本发明公开的机器人区域划分方法先后通过激光扫描和摄像头拍摄的采集处理方式,比纯视觉技术手段对房间房门的识别的准确率更高。
进一步地,机器人结束所述预设沿边方向上的沿边行走的条件是: 机器人在已遍历区域内通过执行所述预设沿边方向上的沿边行走回到沿边起点位置处,或在已遍历区域内执行所述预设沿边方向上的沿边行走的过程中设置不出新的所述参考分割边界线;其中,所述参考分割边界线在所述室内工作区域中划分出已遍历区域和未遍历区域,已遍历区域包括沿边起点位置和已沿边行走遍历过的路径;其中,机器人在所述已遍历区域内执行所述预设沿边方向上的沿边行走过程中,每设置出一条参考分割边界线,则划分出新的未遍历区域,并控制机器人沿着这条参考分割边界线继续执行所述预设沿边方向上的沿边行走。该技术方案有利于控制机器人在单独房间内沿着参考分割边界线行走,以划分出多个方位上的新房间子区域,使得机器人的区域划分的覆盖率更高。
进一步地,所述根据机器人的激光传感器实时扫描的数据设置出参考分割边界线的具体方法为:根据机器人的激光传感器实时扫描的数据,在室内工作区域设置出同时满足预设边界宽度条件和预设区域尺寸条件的候选边界线,并在激光地图中标记为所述参考分割边界线。该技术方案从实际房间区域的尺寸大小和房间之间的门的可通行性出发,确定出具备判断门的候选边界线,这个候选边界线作为候选的门位置,提高识别门的准确性。
进一步地,在所述室内工作区域设置出同时满足所述预设边界宽度条件和所述预设区域尺寸条件的候选边界线之前,还包括:通过种子填充算法对激光地图的未遍历区域进行填充处理,以填充出用于包围所述未遍历区域的轮廓边界,再将这些填充出的轮廓边界记为所述候选边界线,其中,所述候选边界线的扫描长度是在所述种子填充算法处理后的激光地图中,填充出的轮廓边界的线段长度。该技术方案在划分房间子区域之前过滤掉容易误判为地图边界的孤立障碍物,提高室内工作区域的划分准确性。
进一步地,所述候选边界线满足所述预设边界宽度条件的判断步骤包括:判断所述候选边界线的扫描长度是否大于第一预设边界长度且小于第二预设边界长度,是则确定所述候选边界线满足所述预设边界宽度条件,否则确定所述候选边界线不是所述参考分割边界线。该技术方案将所述候选边界线限制在符合门宽要求的范围内,避免室内工作区域的走廊和小间隙通道被误判为门的位置。
进一步地,所述候选边界线满足所述预设区域尺寸条件的判断步骤包括:步骤21、在机器人实时构建的激光地图上,判断已扫描标记的工作区域的最左上角横坐标与已扫描标记的工作区域的最右下角横坐标的差值的绝对值是否处于预设房间长度范围内,是则进入步骤22,否则确定所述候选边界线不满足所述预设区域尺寸条件;步骤22、判断已扫描标记的工作区域的最右上角横坐标与已扫描标记的工作区域的最左下角横坐标的差值的绝对值是否处于预设房间长度范围内,是则进入步骤23,否则确定所述候选边界线不满足所述预设区域尺寸条件;步骤23、判断已扫描标记的工作区域的最左上角纵坐标与已扫描标记的工作区域的最右下角纵坐标的差值的绝对值是否处于预设房间宽度范围内,是则进入步骤24,否则确定所述候选边界线不满足所述预设区域尺寸条件;步骤24、判断已扫描标记的工作区域的最右上角纵坐标与已扫描标记的工作区域的最左下角纵坐标的差值的绝对值是否处于预设房间宽度范围内,是则确定所述候选边界线满足所述预设区域尺寸条件,否则确定所述候选边界线不满足所述预设区域尺寸条件。使得所述候选边界线在正常可通行大小的室内工作区域内进行房间子区域划分,避免机器人在低矮的家具下划分出房间子区域。
进一步地,所述当机器人结束预设沿边方向上的沿边行走后,根据机器人的摄像头采集的参考分割边界线所在位置的图像特征信息,识别出参考分割边界线所处位置上的门的具体方法包括:机器人结束所述预设沿边方向上的沿边行走后,控制机器人在所述已遍历区域内移动至所述参考分割边界线的前方的预设采集位置处;控制机器人的摄像头采集所述参考分割边界线所在位置的一张图像,使得机器人从这张图像中提取出两条竖直线以及这两条竖直线之间的两条水平线段,这两条竖直线与这两条水平线相交围成一个矩形;然后结合前述的两条竖直线和前述的两条水平线段在所述参考分割边界线处识别出门,并将所述参考分割边界线标记为激光地图中的门的位置。该技术方案在激光扫描确定参考分割边界线和预设采集位置的基础上,实现利用单一图像中完整的特征线的尺寸来识别门,既可以保证门识别的准确度,又减小视觉处理运算量。
进一步地,所述结合前述的两条竖直线和前述的两条水平线段在所述参考分割边界线处识别出门的方法包括:首先使用激光传感器测出所述预设采集位置与所述参考分割边界线的距离;再结合所述预设采集位置与所述参考分割边界线的距离,利用摄像机成像几何模型,将前述两条竖直线被前述两条水平线段相交截得的竖直线段的高度换算为实际高度,然后判断该实际高度是否为预设门框高度,是则确定前述的两条竖直线及其上方相垂直设置的水平线段对应于门框的形状,进而确定机器人在所述参考分割边界线处识别出门;其中,机器人的摄像头的朝向设置为水平斜向上,使得机器人移动至所述参考分割边界线的前方的预设采集位置时,机器人的摄像头的视角覆盖到所述参考分割边界线至天花板之间的区域。该技术方案中,基于普通住宅空间中的门所具备的由竖直线和水平线构造的矩形形状,本技术方案根据图像中提取出的竖直线对应的实际高度,确定所述参考分割边界线所在位置的图像中提取出的两条竖直线及其之间的水平线段是否可被识别为符合尺寸要求的竖直线和水平线的结合的门,简化门的识别步骤和提高门识别的准确度。
一种芯片,该芯片存储有计算机程序指令,所述计算机程序指令执行时实现所述的机器人区域划分方法。既可以保证门识别的准确度,又减小视觉处理运算量。
一种机器人,该机器人同时装配有激光传感器和前置摄像头,该机器人内置有所述芯片,用于通过调用激光传感器和前置摄像头来执行所述的机器人区域划分方法。克服纯视觉摄像头不能预先采集到未遍历区域的轮廓信息,从而先后通过激光扫描和摄像头拍摄的采集处理方式,比纯视觉技术手段对房间房门的识别的准确率更高。
附图说明
图1是本发明公开的一种基于边界的机器人区域划分方法流程图。
图2是本发明的一实施例公开的机器人设置满足预设边界宽度条件和预设区域尺寸条件的候选边界线的步骤流程图。
图3是本发明的一实施例公开的机器人通过激光扫描在室内工作区域中设置出参考分割边界线的示意图。
图4是机器人通过图像特征线在参考分割边界线处识别出门的方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行详细描述。为进一步说明各实施例,本发明提供有附图。这些附图为本发明揭露内容的一部分,其主要用以说明实施例,并可配合说明书的相关描述来解释实施例的运作原理。
本发明实施例公开一种基于边界的机器人区域划分方法,应用于机器人沿边行走的场景下,机器人会沿着预设沿边方向在室内工作区域执行沿边行走。如图1所示,所述机器人区域划分方法包括:步骤S1、机器人在室内工作区域执行预设沿边方向上的沿边行走,实际上机器人沿着检测到的墙壁行进,机器人的行进方向可能是平行于墙壁延伸方向,方便激光传感器扫描室内工作区域的轮廓,以设置出用于初步划分出子区域的边界线,然后进入步骤S2。步骤S2、根据机器人的激光传感器扫描的数据,设置出参考分割边界线,这个参考分割边界配合已沿边过的路径以及相应方向上扫描的环境轮廓形成一个已遍历区域,实现对室内工作区域的初步分割,使得机器人沿着所述参考分割边界线执行预设沿边方向上的沿边行走,然后进入步骤S3。接下来可能在后续沿边过程中设置出新的参考分割边界线,而机器人仍会在这个已遍历区域内沿着新的参考分割边界线执行预设沿边方向上的沿边行走。在本实施例中,机器人走到哪里就扫描到那里,利用激光扫描出的地图上房间门口的局部特征,瞬间准确识别一个预设房间的入口,通过设置虚拟墙(所述参考分割边界线)来控制机器人沿着门口行进但不进入这个预设历房间,一直移动到新的墙体,再沿墙行走,使机器人只保留在原来房间内进行沿边行走,机器人完成沿边后会得到一个封闭的多边形,这就是分出的相对完整的房间(相对于现有技术无法合并小区域),然后机器人在分出的房间内进行规划清扫,实现动态准确分房间清扫的目标。
需要说明的是,在本实施例中,所述参考分割边界线从所述室内工作区域划分出已遍历区域和未遍历区域,机器人按照预设沿边方向执行沿边行走的过程中,将未遍历区域更新转化为已遍历区域;其中,已遍历区域和未遍历区域分居所述参考分割边界线的两侧,已遍历区域包括机器人的沿边起点位置和已沿边行走遍历过的路径,并标记到激光地图中。而所述未遍历区域是机器人未行走过的区域但可以被激光扫描探测过,后续会经过种子填出处理以获取区域轮廓边界信息并被划分为房间子区域,以便机器人安排房间区域清扫任务。
因此,机器人沿着预设沿边方向执行沿边行走的过程中,每设置出一条所述参考分割边界线,则控制机器人沿着参考分割边界线继续执行所述预设沿边方向上的沿边行走,直到在同一房间区域内检测新的墙体,再沿着这个新的墙体继续按照所述预设沿边方向作沿边行走,机器人保持与墙体平行,这个墙体也被划分为已遍历区域的一部分,已遍历区域包括沿边起点位置和已沿边行走遍历过的路径,在机器人结束所述预设沿边方向上的沿边行走后确定下来,即机器人沿边行走返回沿边起点时确定一个封闭多边形区域,在激光地图上标记为所述已遍历区域,并在所述室内工作区域内划分出新的未遍历区域,有利于控制机器人在沿着同一沿边方向行走过程中划分出多个方位上的新房间子区域,使得机器人的区域划分的覆盖率更高。当机器人在所述已遍历区域内按照所述预设沿边方向沿边行走回到所述沿边起点位置处,或者在所述已遍历区域内按照所述预设沿边方向执行沿边行走的过程中设置不出新的所述参考分割边界线时,结束机器人在所述已遍历区域内的沿边行走。避免机器人无休止地沿边下去,从而设置出合理的参考分割边界线,使得区域的划分更加的合理。
为了方便理解,本实施例公开的图3的机器人在只有一个开口的半封闭区域#1内开始逆时针沿边行走的过程中,只是在位置B处设置出所述参考分割边界线,以区分出区域#1是已遍历区域,区域#2是未遍历区域,然后限制机器人在已遍历区域#1内继续逆时针沿边行走,直到返回沿边起点位置O。如图3的机器人(图3贴近在室内工作区域的边界的圆)从沿边起点位置O开始,沿着逆时针方向,依次沿边遍历过室内工作区域的边界P2P5、边界P5P7、边界P7B、边界BA、边界AP8、边界P8P6、边界P6P1、边界P1P2,然后再沿着边界P2P5返回沿边起点位置O,形成图3 的带箭头虚线所示的沿边路径;其中,图3的机器人在沿边行走的过程中,激光传感器会旋转发射激光光线(以图3的接近位置B的圆为中心向四周辐射的带箭头的射线),既可以覆盖图3的已遍历区域#1的大部分边角轮廓,又可以扫描覆盖到图3的未遍历区域#2的大部分边角轮廓,为机器人实时构建的激光地图扫描标记到大量的环境边缘信息;在此基础上根据机器人的激光传感器实时扫描的数据,在室内工作区域中设置出参考分割边界线,使得参考分割边界线将室内工作区域划分为子区域#1和子区域#2,每个划分出的子区域都考虑到符合门可通行要求的宽度特征和整体房间区域的尺寸大小,如图3的虚线BA设置为参考分割边界线,与边界AP8、边界P8P6、边界P6P1、边界P1P2、边界P2P5、边界P5P7、边界P7B围成一个封闭的子区域#1,机器人在原房间区域内只能沿着所述参考分割边界线(图3的虚线BA)执行预设沿边方向(对应于图3的逆时针方向)上的沿边行走,因为机器人如果继续沿边进入子区域#2,相当于跨越子区域#2的入口(图3的虚线BA),不符合系统对扫描构建的封闭区域的配置要求。需要说明的是,所述预设沿边方向还可以是顺时针方向,这会因沿边起点位置而异。
步骤S3、当机器人结束预设沿边方向上的沿边行走后,根据机器人的摄像头采集的参考分割边界线所在位置的图像特征信息,识别出参考分割边界线所处位置上的门,并将这个参考分割边界标记到激光地图中,使得这个门将室内工作区域划分为不同的房间子区域。优选地,机器人结束预设沿边方向上的沿边行走返回沿边起点位置,或者在预设沿边方向的沿边行走过程中设置不出新的参考分割边界线后,机器人执行的行为可以是预先配置的好的指令,比如控制机器人开始在当前的已沿边遍历的区域内(对应于图3的已遍历区域#1)执行清扫任务,因为在沿边过程中机器人的激光传感器已经扫描标记房间区域信息并在沿边结束那一刻生成清扫任务指令。然后机器人根据清扫任务指令在已沿边遍历区域内清扫,机器人一边清扫一边拍摄图像,在清扫至一个预设位置处,控制机器人的摄像头采集所述参考分割边界线处的一幅图像,摄像头的视角至少能够覆盖所述参考分割边界所处壁面至天花板之间的区域,然后根据图像的特征线去识别判断门,当在参考分割边界线处识别出门,并将这个参考分割边界标记到激光地图中,使得这个门将室内工作区域最终划分为不同的房间子区域。
与现有技术相比,本发明实施例通过激光数据设置出用于定位门位置和作为候选门位置的参考分割边界线,实现对室内工作区域的初步分割,然后在初步分割出的子区域内结合参考分割边界线处的图像信息去识别实际存在的门;本发明公开的机器人区域划分方法先后通过激光扫描的平面边界信息和摄像头采集处理水平地面上方的门框特征线的多维度结合方式,比纯视觉技术手段对房间房门的识别的准确率更高。
在上述实施例的基础上,本发明实施例机器人在室内工作区域沿边行走的过程中,根据机器人的激光传感器实时扫描的数据,设置出参考分割边界线的具体方法为:根据机器人的激光传感器实时扫描的数据,在室内工作区域设置出同时满足预设边界宽度条件和预设区域尺寸条件的候选边界线,并在激光地图中标记为所述参考分割边界线,使得所述参考分割边界线将所述室内工作区域初步划分为已遍历区域和未遍历区域;其中,已遍历区域和未遍历区域分居所述参考分割边界线的两侧,已遍历区域包括机器人的沿边起点位置和已沿边行走遍历过的路径;需要注意的是,本发明实施例不对所述预设边界宽度条件和所述预设区域尺寸条件的判断顺序作出限制。本实施例从实际房间区域的尺寸大小和房间之间的门的可通行性出发,确定出具备判断门作用的候选边界线,这个候选边界线作为候选的门位置,提高识别门的准确性。
作为一种实施例,结合所述预设边界宽度条件和所述预设区域尺寸条件可获得,如图2所示的机器人设置满足预设边界宽度条件和预设区域尺寸条件的候选边界线的步骤流程图,包括:
步骤S21、利用机器人的激光传感器在不同位置不同角度采集的区域信息,构建出激光地图,其中,本实施例不能直接利用激光传感器实时采集的数据;再在激光地图里面选择出激光线段,使得这些激光线段成为用于划分房间区域的候选边界线,可以是机器人在当前沿边位置处扫描出的候选边界线,然后进入步骤S22。需要说明的是,这个激光地图是经过种子填充算法处理过的地图,种子填充处理得到的能够围住地图轮廓的边界线作为所述候选边界线,防止这个激光地图里面孤立的障碍物造成误判。
如图3所示,在机器人沿边行走至与位置B相贴近的位置时,即沿边行走至图3中向周围发射激光光线的位置时,可以选取出多条候选边界线,图3中,位置B、位置A、位置P1、位置P3、位置P4都可以作为激光传感器扫描并构建在激光地图中的环境轮廓的边角位置点,这些扫描出的边角位置点的连线可以作为候选边界线,且是经过种子填充算法填充处理出来的带有颜色的边界线,从而将图3的虚线AB视为所述候选边界线。其中,这些候选边界线可以是墙体、或者与墙体直接在一起,目的为墙体预留空间位置,以便后续划分房间区域。
步骤S22、判断所述候选边界线是否满足所述预设边界宽度条件,具体为判断所述候选边界线的扫描长度是否大于第一预设边界长度且小于第二预设边界长度,是则确定所述候选边界线满足所述预设边界宽度条件并进入步骤S23,否则进入步骤S28,并确定所述候选边界线不满足所述预设边界宽度条件。其中,第一预设边界长度是用于判断房间区域的小通道宽度的阈值,房间区域的小通道宽度包括相邻房间之间或同一房间区域内的小间隙通道宽度、桌脚或椅脚之间的小距离,这些小的扫描长度的所述候选边界线不能用于初步划分出新的房间区域,进而在这个所述候选边界线上不会识别出门;第二预设边界长度是用于判断走廊宽度的阈值,机器人在沿边(沿墙)行走的过程中所扫描测出的走廊、长廊区域的宽度都是比较大的,所以,设置的第二预设边界长度大于第一预设边界长度和一般门的宽度,这些较大的扫描长度的所述候选边界线不能设置为房间入口,不能用于划分出新的房间区域。本实施例将所述候选边界线限制在符合门宽通行要求的范围内,避免对室内工作区域的走廊和小间隙通道进行房间区域划分,使得房间区域的划分更加合理。
步骤S23、在机器人实时构建的激光地图上,判断所述候选边界线是否满足所述预设区域尺寸条件,具体包括:判断已扫描标记的工作区域的最左上角横坐标与已扫描标记的工作区域的最右下角横坐标的差值的绝对值是否处于预设房间长度范围内,是则进入步骤S24,否则进入步骤S28。步骤S23用于判断激光传感器在激光地图中扫描标记出的工作区域的长度是否达到形成一个房间所允许的基本长度(处于预设房间长度范围内),避免在桌子、椅子、床或沙发等家居底下设置出参考分割边界线以初步划分出房间子区域。如图3所示,机器人沿边行走至贴近位置B时(可视为机器人在位置B),机器人扫描出的工作区域的最左上角P4并在激光地图上标记其横坐标,同时机器人扫描出的工作区域的最右下角P2并在激光地图上标记其横坐标,然后计算最左上角P4横坐标与最右下角P2横坐标的差值的绝对值是否处于预设房间长度范围内。
步骤S24、在机器人实时构建的激光地图上,判断已扫描标记的工作区域的最右上角横坐标与已扫描标记的工作区域的最左下角横坐标的差值的绝对值是否处于预设房间长度范围内,是则进入步骤S25,否则进入步骤S28。步骤S24相对于步骤S23是从另一个对称的方位去判断激光传感器在激光地图中扫描标记出的工作区域的长度是否达到形成一个房间所允许的基本长度(处于预设房间长度范围内),更为全面地避免在桌子、椅子、床或沙发等家居底下设置出参考分割边界线以初步划分出房间子区域。如图3所示,机器人沿边行走至贴近位置B时(可视为机器人在位置B),机器人扫描出的工作区域的最右上角P3并在激光地图上标记其横坐标,同时机器人扫描出的工作区域的最左下角P1并在激光地图上标记其横坐标,然后计算最右上角P3横坐标与最左下角P1横坐标的差值的绝对值是否处于预设房间长度范围内。
步骤S25、在机器人实时构建的激光地图上,判断已扫描标记的工作区域的最左上角纵坐标与已扫描标记的工作区域的最右下角纵坐标的差值的绝对值是否处于预设房间宽度范围内,是则进入步骤S26,否则进入步骤S28。步骤S26用于判断激光传感器在激光地图中扫描标记出的工作区域的宽度是否达到形成一个房间所允许的基本宽度(处于预设房间宽度范围内),避免在桌子、椅子、床或沙发等家居底下设置出参考分割边界线以初步划分出房间子区域。如图3所示,机器人沿边行走至贴近位置B时(可视为机器人在位置B),机器人扫描出的工作区域的最左上角P4并在激光地图上标记其纵坐标,同时机器人扫描出的工作区域的最右下角P2并在激光地图上标记其纵坐标,然后计算最左上角P4纵坐标与最右下角P2纵坐标的差值的绝对值是否处于预设房间宽度范围内。
步骤S26、在机器人实时构建的激光地图上,判断已扫描标记的工作区域的最右上角纵坐标与已扫描标记的工作区域的最左下角纵坐标的差值的绝对值是否处于预设房间宽度范围内,是则进入步骤S27,否则进入步骤S28。步骤S26相对于步骤S25是从另一个对称的方位去判断激光传感器在激光地图中扫描标记出的工作区域的长度是否达到形成一个房间所允许的基本宽度(处于预设房间宽度范围内),更为全面地避免在桌子、椅子、床或沙发等家居底下设置出参考分割边界线以初步划分出房间子区域。如图3所示,机器人沿边行走至贴近位置B时(可视为机器人在位置B),机器人扫描出的工作区域的最右上角P3并在激光地图上标记其纵坐标,同时机器人扫描出的工作区域的最左下角P1并在激光地图上标记其纵坐标,然后计算最右上角P3纵坐标与最左下角P1纵坐标的差值的绝对值是否处于预设房间宽度范围内。
前述步骤S21至步骤S26中,所述在室内工作区域设置出同时满足预设边界宽度条件和预设区域尺寸条件的候选边界线的步骤是:先判断所述候选边界线是否满足所述预设边界宽度条件,再在所述候选边界线满足所述预设边界宽度条件的基础上,继续判断所述候选边界线是否满足所述预设区域尺寸条件。实现先判断边界线的可通行性,再判断边界线所处区域的是否具备形成房间的尺寸。其中,已扫描标记的工作区域的最左上角的横纵坐标、已扫描标记的工作区域的最左下角的横纵坐标、已扫描标记的工作区域的最右上角的横纵坐标、以及已扫描标记的工作区域的最右下角的横纵坐标都是根据机器人的激光传感器实时扫描的数据标记在激光地图中的坐标参数,选择的这些坐标参数用于全面地代表一个大的房间区域的尺寸信息,用于判断基于这些坐标参数框定的大区域的尺寸信息是否处于正常参数范围内。其中,步骤S23至步骤S26中的所述候选边界线满足所述预设区域尺寸条件的判断步骤可以与步骤S22的所述候选边界线满足所述预设边界宽度条件的判断步骤的顺序对调。
值得注意的是,如图3所示,前述步骤中的已扫描标记的工作区域是所述室内工作区域的一部分,机器人在沿边贴近位置B时,激光传感器发射的激光光线可以覆盖未遍历区域#2的边角位置P9、P10和P11,但是未遍历区域#2还是存在部分的区域没有被激光光线所扫描覆盖到,这部分区域将留到机器人完成已遍历区域#1的清扫任务后再进行清扫。
步骤S27、确定所述候选边界线既满足所述预设区域尺寸条件,也满足所述预设边界宽度条件,进而将这个所述候选边界线标记为所述参考分割边界线,可以实现对室内工作区域的初步划分,再结合视觉识别进一步地作为门的候选位置。
步骤S28、确定所述候选边界线不是所述参考分割边界线。其中由步骤S22跳至步骤S28的执行条件是所述候选边界线不满足所述预设边界宽度条件,其它步骤跳至步骤S28的执行条件是所述候选边界线不满足所述预设区域尺寸条件。
前述步骤S21至步骤S28所述的机器人区域划分方法,使得所述候选边界线在正常可通行大小的室内工作区域内进行子区域的初步划分,避免机器人在低矮的家具下划分出房间子区域,而真正划分出房间子区域是需要在所述参考分割边界线处识别出门。
在所述室内工作区域设置出同时满足所述预设边界宽度条件和所述预设区域尺寸条件的候选边界线之前,即在执行前述步骤S21至步骤S28所述的机器人区域划分方法之前,还需要执行以下步骤:使用种子填充算法对构建的激光地图的未遍历区域进行填充处理,具体地,当检测到未遍历区域内的栅格的灰度值是128 时,则将这个栅格填充为红色(图中未表示出)且标记为未遍历区域的轮廓边界栅格,直到填充完未遍历区域时才停止填充处理,使得所述未遍历区域的轮廓边界的栅格都填充为红色,且这些填充出的轮廓边界围成一个闭合多边形区域,或者是这些填充出的轮廓边界连接已遍历区域的轮廓边界以围成一个闭合多边形区域,这个闭合多边形区域能够包围所述未遍历区域,这时,这个未遍历区域的轮廓边界包围区域内也存在着灰度值是128的孤立分布的栅格,是容易误判为地图边界线的孤立障碍物,因此,前述的候选边界线只从所述未遍历区域中填充出的轮廓边界中选择出来,使得前述填充出的轮廓边界记为所述候选边界线,从而在划分房间子区域之前过滤掉容易误判为地图边界线的孤立障碍物,避免后续对所述参考分割边界线的误判,提高室内工作区域的划分准确性。其中,前述实施例中的所述候选边界线的扫描长度是在所述种子填充算法处理后的激光地图中,填充出的轮廓边界的线段长度。
需要说明的是,使用种子填充算法对构建的激光地图的未遍历区域进行填充处理的过程中,本发明实施例公开的激光地图中,地图边界(包括后续设置的用于划分区域的边界线)上栅格的灰度值配置为128这一特定灰度值,激光地图中的空闲栅格的灰度值配置为大于128,激光地图中标记障碍物的栅格的灰度值配置为小于128;当检测到栅格的灰度值不等于128时,不对该栅格填充并标记为1,否则对该栅格填充并标记为0。
作为一种实施例,所述当机器人结束预设沿边方向上的沿边行走后,根据机器人的摄像头采集的参考分割边界线所在位置的图像特征信息,识别出参考分割边界线所处位置上的门的具体方法包括:
在步骤S31中,前述实施例完成所述室内工作区域的参考分割边界线的设置,并在所述参考分割边界线BA、边界P2P5、边界P5P7、边界P7B、边界AP8、边界P8P6、边界P6P1、边界P1P2围成一个封闭的子区域#1完成逆时针方向上的沿边行走,此时所述参考分割边界线BA将封闭的子区域#1划分为已遍历区域;当机器人结束所述预设沿边方向上的沿边行走后,控制机器人在所述已遍历区域#1内移动至所述参考分割边界线的前方,如图3所示,可以是一边采集图像信息一边移动至所述参考分割边界线的前方预设距离处的预设采集位置c处,然后进入步骤S32。
步骤S32、控制机器人的摄像头采集所述参考分割边界线所在位置的一张图像,使得机器人从这张图像中提取出两条竖直线以及这两条竖直线之间的两条水平线段,这两条竖直线与这两条水平线相交围成一个矩形。具体地,控制机器人的摄像头采集所述参考分割边界线所在位置的一张图像,使得机器人从这张图像中提取出两条斜线以及这两条斜线之间的两条水平线段,这两条水平线段分居这两条斜线的上下端,其中,提取出的两条斜线分别连接到前述两条水平线段的两端,这两条斜线与这两条水平线相交围成一个四边形;然后通过预设图像坐标变换关系将这两条斜线转换为分别与所述的两条水平线段垂直的两条竖直线,这里的预设图像坐标变换关系实际上是对门所在的平面上的空间点和图像像素上的点进行简单的标定,实现将图像上的斜线和水平线围成的四边形(可能是拍摄视角的问题)修正为实际门的矩形,基于这些预设图像坐标变换关系转换获取的这两条竖直线分别垂直设置于其中一条水平线段的下方,这两条竖直线分别垂直设置于另一条水平线段的上方,使得这两条竖直线与这两条水平线相交围成一个矩形;然后进入步骤S33;机器人的摄像头在步骤S32中采集的图像信息能够包括所述参考分割边界线上方的天花板与门框之间的墙壁、门框、门槛、侧壁和前壁,然后才从这张图像中提取表示门的形状的特征线,虽然这样的图像信息可随着机器人的位置变化而改变,特别说明的是,从图像中提取出的水平线段在室内工作区域内可以实际匹配到所述参考分割边界线。
步骤S33、结合前述的两条竖直线和前述的两条水平线段在所述参考分割边界线处识别出门,并将所述参考分割边界线标记为激光地图中的门的位置。具体地,若通过预设图像坐标变换关系将步骤S32所述的两条斜线转换为分别与步骤S32所述的两条水平线段垂直的两条竖直线时,基于这些预设图像坐标变换关系转换获取的这些竖直线,仅仅是存在于图像中的线段,需要进一步判断它们对应的实际物体的长度才能确定是否对应于形成在室内工作区域的天花板、前壁、侧壁之间的边界上的多条竖直线以及由门框自身形成的竖直线,避免出现门框的误判问题。在获取的这些竖直线对应的实际物体高度满足真实门框的高度时,确定所述两条水平线段及其相垂直设置的两条竖直线对应于门框的形状,进而确定机器人在所述参考分割边界线处识别出门。
其中,所述摄像头的朝向的倾斜角度与预设图像坐标变换关系存在映射关系,即所述预设图像坐标变换关系用于将所述摄像头在所述参考分割边界线前方预设距离处采集的图像中前述的两条斜线转换为分别与步骤S32所述水平线段垂直的两条竖直线,当所述摄像头的朝向相对于地平面的倾斜角度越大,摄像头采集到的所述参考分割边界线处的图像中代表门框的斜线相对于竖直方向的倾斜度越大,则所述预设图像坐标变换关系所发挥的转换作用越显著。该步骤通过转换判断前述的两条斜线,确定所述参考分割边界线所在位置的图像中的两条斜线及其之间的一条水平线段是否可被识别为竖直线和水平线的结合的门,简化门的识别步骤和提高门识别的准确度。
通过执行步骤S31至步骤S33,本实施例在激光扫描确定参考分割边界线的基础上实现利用单一图像中完整的特征线的尺寸来识别门,不需要机器人以多种角度或位置生成多个图像信息。既可以保证门识别的准确度,又减小视觉处理运算量。相对于现有技术,本实施例不利用摄像头采集的图像信息对门进行定位,因为本实施例已经在前述实施例中利用激光数据设置的参考分割边界线完成区域的初步划分和确定门的候选位置(即所述参考分割边界线),使得机器人只是通过采集处理所述参考分割边界线位置处的特征线是否符合门框的形状,进而识别出门但不包括利用图像信息定位门的位置,从而不需要处理相对于机器人的不同角度下采集的多幅图像,减小视觉运算负载。
具体地,所述结合前述的两条竖直线和前述的两条水平线段在所述参考分割边界线处识别出门的方法包括:
首先使用激光传感器测出所述预设采集位置与所述参考分割边界线的距离,此时所述预设采集位置对所述参考分割边界线处采集的图像信息已经满足识别门框的基本视觉效果要求,即采集提取到相对完整的相交的竖直线段和水平线段,足以描述出基本的门框形状,但也有可能是床底、桌底的形状,单纯凭借相交的竖直线段和水平线段去识别门框容易出现误判,所以进一步判断图像中提取出的竖直线段对应的实际物体高度,而门框的宽度问题已在前述步骤设置出所述参考分割边界后就确定下来。在本实施中,为了获取竖直线段对应的实际物体高度,还需结合摄像头的焦距、激光传感器扫描出的所述预设采集位置与所述参考分割边界线的距离,构造出摄像机成像几何模型进行比例运算求得竖直线段对应的实际物体的高度信息。需要说明的是,不能从单张图像中获取到所述参考分割边界线的深度信息,即所述预设采集位置与所述参考分割边界线的距离,所以,本实施例只能通过位于所述预设采集位置处的机器人的激光传感器扫描出所述预设采集位置与所述参考分割边界线的距离。
然后结合摄像头的焦距和所述预设采集位置与所述参考分割边界线的距离,利用摄像机成像几何模型,将前述两条竖直线被前述两条水平线段相交截得的竖直线段的高度换算为实际高度,这一换算步骤实际上是将所述预设采集位置与所述参考分割边界线的距离、摄像头的焦距、竖直线段的高度代入摄像机成像几何模型(小孔成像模型)内设的相似三角比例关系中,以将竖直线段的高度换算为实际高度,再判断该实际高度是否为预设门框高度,是则确定前述的两条竖直线及其上方相垂直设置的水平线段对应于门框的形状,进而确定机器人在所述参考分割边界线处识别出门;其中,机器人的摄像头的朝向设置为水平斜向上,使得机器人移动至所述参考分割边界线的前方的预设采集位置时,机器人的摄像头的视角覆盖到所述参考分割边界线至天花板之间的区域。
其中,本实施例在图3的已遍历区域#1中存在一个开口AB,从而在步骤S2中只设置一个参考分割边界线AB,使得机器人只需要在预设采集位置c处采集一次参考分割边界线AB位置处的门框线条形状图像即可;摄像头设置在机器人本体的前端,机器人的摄像头的朝向设置为水平斜向上,摄像头的光轴与水平面成45度,用于采集前进方向的地面上的图像信息,使得机器人移动至所述参考分割边界线的前方预设距离时,机器人的摄像头的视角覆盖到所述参考分割边界线至天花板之间的区域。本实施例可设置单个摄像头机,在执行清扫任务的过程中可以保持摄像。
当机器人在所述参考分割边界线处识别出门后,这个门的位置标记作为所述激光地图内相应房间子区域的入口,实现将室内工作区域划分为不同的房间子区域,同时在所述激光地图内对不同的房间子区域进行标记,对应于图3的室内工作区域,机器人在已遍历区域#1中识别出所述参考分割边界线AB处是存在门的,则以这个参考分割边界线AB为界确定将所述室内工作区域划分为房间子区域#1和房间子区域#2,这是在前述步骤S21至步骤S28的基础上确定的结果,实现最终划分所述室内工作区域为不同的房间子区域,当机器人完成房间子区域#1的清洁任务后,再跨过参考分割边界线AB进入房间子区域#2,然后在房间子区域#2开始沿着一个预设沿边方向执行沿边行走,再按照前述方法步骤在沿边结束后开始对房间子区域#2清扫,并执行步骤1至步骤3以划分出新的房间子区域,可以是在沿边贴近位置B处的机器人的激光传感器没有扫描覆盖到的房间子区域#2的未遍历区域中划分出新的房间子区域,但不会返回已清扫遍历过的房间子区域#1内,具体是通过重复执行所述机器人区域划分方法设置所述参考分割边界线以划分出新的子区域,并控制机器人在相应的子区域内完成覆盖式清扫,进而通过划分出房间子区域来完成所述室内工作区域的覆盖式清扫。本实施例通过识别的门来划分不同的房间子区域,以便机器人根据划分的房间子区域相继完成各个房间的清洁,机器人在执行清洁任务的过程中就不会随意进出两个相邻的房间子区域,实现智能化清洁。
一种芯片,该芯片存储有计算机程序指令,所述计算机程序指令执行时实现所述的机器人区域划分方法。既可以保证门识别的准确度,又减小视觉处理运算量。
一种机器人,该机器人同时装配有激光传感器和前置摄像头,该机器人内置有所述芯片,用于通过调用激光传感器和前置摄像头来执行所述的机器人区域划分方法。克服纯视觉摄像头不能预先采集到未遍历区域的轮廓信息。本发明实施例公开的机器人通过激光数据设置出用于定位门位置和作为候选门位置的参考分割边界线,实现对室内工作区域的初步分割,然后在初步分割出的子区域内结合参考分割边界线处的图像信息去识别实际存在的门;本发明公开的机器人区域划分方法先后通过激光扫描的平面边界信息和摄像头采集处理水平地面上方的门框特征线的多维度结合方式,比纯视觉技术手段对房间房门的识别的准确率更高。
上述实施例只为说明本发明的技术构思及特点,其目的是让熟悉该技术领域的技术人员能够了解本发明的内容并据以实施,并不能以此来限制本发明的保护范围。凡根据本发明精神实质所作出的等同变换或修饰,都应涵盖在本发明的保护范围之内。
Claims (9)
1.一种基于边界的机器人区域划分方法,其特征在于,包括:
机器人在室内工作区域内按照预设沿边方向执行沿边行走时,根据机器人的激光传感器扫描的数据,设置出用于划分室内工作区域的参考分割边界线,使得机器人沿着参考分割边界线执行预设沿边方向上的沿边行走
当机器人结束预设沿边方向上的沿边行走后,根据机器人的摄像头采集的参考分割边界线所在位置的图像特征信息,识别出参考分割边界线所处位置上的门,并将这个参考分割边界线标记到激光地图中,使得这个门将室内工作区域划分为不同的房间子区域;
机器人结束所述预设沿边方向上的沿边行走的条件是:机器人在已遍历区域内通过执行所述预设沿边方向上的沿边行走回到沿边起点位置处,或在已遍历区域内执行所述预设沿边方向上的沿边行走的过程中设置不出新的所述参考分割边界线;
其中,所述参考分割边界线在所述室内工作区域中划分出已遍历区域和未遍历区域,已遍历区域包括沿边起点位置和已沿边行走遍历过的路径;
其中,机器人在所述已遍历区域内执行所述预设沿边方向上的沿边行走过程中,每设置出一条参考分割边界线,则划分出新的未遍历区域,并控制机器人沿着这条参考分割边界线继续执行所述预设沿边方向上的沿边行走。
2.根据权利要求1所述机器人区域划分方法,其特征在于,所述根据机器人的激光传感器实时扫描的数据设置出参考分割边界线的具体方法为:
根据机器人的激光传感器扫描的数据,在室内工作区域设置出同时满足预设边界宽度条件和预设区域尺寸条件的候选边界线,并在激光地图中标记为所述参考分割边界线。
3.根据权利要求2所述机器人区域划分方法,其特征在于,在所述室内工作区域设置出同时满足所述预设边界宽度条件和所述预设区域尺寸条件的候选边界线之前,还包括:
通过种子填充算法对激光地图的未遍历区域进行填充处理,以填充出用于包围所述未遍历区域的轮廓边界,再将这些填充出的轮廓边界记为所述候选边界线;
其中,所述候选边界线的扫描长度是在所述种子填充算法处理后的激光地图中,填充出的轮廓边界的线段长度。
4.根据权利要求3所述机器人区域划分方法,其特征在于,所述候选边界线满足所述预设边界宽度条件的判断步骤包括:
判断所述候选边界线的扫描长度是否大于第一预设边界长度且小于第二预设边界长度,是则确定所述候选边界线满足所述预设边界宽度条件,否则确定所述候选边界线不是所述参考分割边界线。
5.根据权利要求3所述机器人区域划分方法,其特征在于,所述候选边界线满足所述预设区域尺寸条件的判断步骤包括:
步骤21、在机器人实时构建的激光地图上,判断已扫描标记的工作区域的最左上角横坐标与已扫描标记的工作区域的最右下角横坐标的差值的绝对值是否处于预设房间长度范围内,是则进入步骤22,否则确定所述候选边界线不满足所述预设区域尺寸条件;
步骤22、判断已扫描标记的工作区域的最右上角横坐标与已扫描标记的工作区域的最左下角横坐标的差值的绝对值是否处于预设房间长度范围内,是则进入步骤23,否则确定所述候选边界线不满足所述预设区域尺寸条件;
步骤23、判断已扫描标记的工作区域的最左上角纵坐标与已扫描标记的工作区域的最右下角纵坐标的差值的绝对值是否处于预设房间宽度范围内,是则进入步骤24,否则确定所述候选边界线不满足所述预设区域尺寸条件;
步骤24、判断已扫描标记的工作区域的最右上角纵坐标与已扫描标记的工作区域的最左下角纵坐标的差值的绝对值是否处于预设房间宽度范围内,是则确定所述候选边界线满足所述预设区域尺寸条件,否则确定所述候选边界线不满足所述预设区域尺寸条件。
6.根据权利要求1所述机器人区域划分方法,其特征在于,所述当机器人结束预设沿边方向上的沿边行走后,根据机器人的摄像头采集的参考分割边界线所在位置的图像特征信息,识别出参考分割边界线所处位置上的门的具体方法包括:
机器人结束所述预设沿边方向上的沿边行走后,控制机器人在所述已遍历区域内移动至所述参考分割边界线的前方的预设采集位置处;
控制机器人的摄像头采集所述参考分割边界线所在位置的一张图像,使得机器人从这张图像中提取出两条竖直线以及这两条竖直线之间的两条水平线段,这两条竖直线与这两条水平线相交围成一个矩形;
然后结合前述的两条竖直线和前述的两条水平线段在所述参考分割边界线处识别出门,并将所述参考分割边界线标记为激光地图中的门的位置。
7.根据权利要求6所述机器人区域划分方法,其特征在于,所述结合前述的两条竖直线和前述的两条水平线段在所述参考分割边界线处识别出门的方法包括:
首先使用激光传感器测出所述预设采集位置与所述参考分割边界线的距离;
再结合所述预设采集位置与所述参考分割边界线的距离,利用摄像机成像几何模型,将前述两条竖直线被前述两条水平线段相交截得的竖直线段的高度换算为实际高度,然后判断该实际高度是否为预设门框高度,是则确定前述的两条竖直线及其上方相垂直设置的水平线段对应于门框的形状,进而确定机器人在所述参考分割边界线处识别出门;
其中,机器人的摄像头的朝向设置为水平斜向上,使得机器人移动至所述参考分割边界线的前方的预设采集位置时,机器人的摄像头的视角覆盖到所述参考分割边界线至天花板之间的区域。
8.一种芯片,该芯片存储有计算机程序指令,其特征在于,所述计算机程序指令执行时实现权利要求1至7任一项所述的机器人区域划分方法。
9.一种机器人,该机器人同时装配有激光传感器和前置摄像头,其特征在于,该机器人内置有权利要求8所述芯片,用于通过调用激光传感器和前置的摄像头来执行权利要求1至7任一项所述的机器人区域划分方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010764284.7A CN111897334B (zh) | 2020-08-02 | 2020-08-02 | 一种基于边界的机器人区域划分方法、芯片及机器人 |
US17/771,471 US20240045433A1 (en) | 2020-08-02 | 2020-11-24 | Method for Dividing Robot Area Based on Boundaries, Chip and Robot |
PCT/CN2020/131188 WO2022027869A1 (zh) | 2020-08-02 | 2020-11-24 | 一种基于边界的机器人区域划分方法、芯片及机器人 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010764284.7A CN111897334B (zh) | 2020-08-02 | 2020-08-02 | 一种基于边界的机器人区域划分方法、芯片及机器人 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111897334A CN111897334A (zh) | 2020-11-06 |
CN111897334B true CN111897334B (zh) | 2022-06-14 |
Family
ID=73183892
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010764284.7A Active CN111897334B (zh) | 2020-08-02 | 2020-08-02 | 一种基于边界的机器人区域划分方法、芯片及机器人 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20240045433A1 (zh) |
CN (1) | CN111897334B (zh) |
WO (1) | WO2022027869A1 (zh) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111897334B (zh) * | 2020-08-02 | 2022-06-14 | 珠海一微半导体股份有限公司 | 一种基于边界的机器人区域划分方法、芯片及机器人 |
CN112991368B (zh) * | 2021-03-16 | 2023-08-15 | 追觅创新科技(苏州)有限公司 | 目标对象的检测方法及装置、存储介质及电子装置 |
CN112990098B (zh) * | 2021-04-13 | 2023-08-15 | 追觅创新科技(苏州)有限公司 | 区域划分方法和装置、存储介质、电子装置 |
CN113223019B (zh) * | 2021-05-21 | 2024-03-26 | 深圳乐居智能电子有限公司 | 一种清扫区域的分区方法、装置及清扫设备 |
CN113223020B (zh) * | 2021-05-21 | 2024-03-26 | 深圳乐居智能电子有限公司 | 一种清扫区域的分区方法、装置及清扫设备 |
CN113475977B (zh) * | 2021-06-22 | 2023-05-05 | 深圳拓邦股份有限公司 | 机器人路径规划方法、装置及机器人 |
CN113503877A (zh) * | 2021-06-22 | 2021-10-15 | 深圳拓邦股份有限公司 | 机器人分区地图建立方法、装置及机器人 |
CN113341752B (zh) * | 2021-06-25 | 2023-04-14 | 杭州萤石软件有限公司 | 一种智能门锁与清洁机器人联动的方法、智能家居系统 |
CN113485334A (zh) * | 2021-07-02 | 2021-10-08 | 宁波瑞霖机械科技有限公司 | 一种割草机控制方法、系统及其存储介质 |
CN114237218A (zh) * | 2021-11-04 | 2022-03-25 | 深圳拓邦股份有限公司 | 一种室内机器人门槛区域识别方法及室内机器人 |
CN114415658A (zh) * | 2021-12-10 | 2022-04-29 | 深圳拓邦股份有限公司 | 一种房间分区缺口识别方法及室内机器人 |
CN116841285A (zh) * | 2022-03-24 | 2023-10-03 | 追觅创新科技(苏州)有限公司 | 区域划分方法、设备及存储介质 |
CN114766177B (zh) * | 2022-03-31 | 2023-12-29 | 深圳拓邦股份有限公司 | 一种割草机器人内外圈识别方法、装置、电子设备及存储介质 |
CN114983272A (zh) * | 2022-05-30 | 2022-09-02 | 美智纵横科技有限责任公司 | 场景地图处理方法和装置、清洁组件和清洁设备 |
CN115114713B (zh) * | 2022-07-26 | 2022-11-15 | 江西少科智能建造科技有限公司 | 一种自动风盘布置方法、系统、存储介质及设备 |
CN115399699A (zh) * | 2022-08-31 | 2022-11-29 | 深圳银星智能集团股份有限公司 | 门口区域的确定方法、存储介质及清洁机器人 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345437A (ja) * | 2002-05-22 | 2003-12-05 | Toshiba Tec Corp | 自律走行ロボット |
CN109920424A (zh) * | 2019-04-03 | 2019-06-21 | 北京石头世纪科技股份有限公司 | 机器人语音控制方法、装置、机器人和介质 |
CN110377014A (zh) * | 2018-04-13 | 2019-10-25 | 上海未来伙伴机器人有限公司 | 一种通用的扫地机器人清扫路径规划方法 |
CN111202472A (zh) * | 2020-02-18 | 2020-05-29 | 深圳市愚公科技有限公司 | 一种扫地机器人的终端地图构建方法、终端设备及清扫系统 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107981790B (zh) * | 2017-12-04 | 2020-06-09 | 深圳市无限动力发展有限公司 | 室内区域划分方法及扫地机器人 |
CN108196555B (zh) * | 2018-03-09 | 2019-11-05 | 珠海市一微半导体有限公司 | 自主移动机器人沿边行走的控制方法 |
US11272823B2 (en) * | 2018-08-31 | 2022-03-15 | Neato Robotics, Inc. | Zone cleaning apparatus and method |
KR102065521B1 (ko) * | 2018-11-29 | 2020-01-13 | 엘지전자 주식회사 | 로봇의 이동 경로의 레이저 조사를 제어하는 서버와 방법 및 이에 기반하여 이동하는 로봇 |
WO2020140860A1 (zh) * | 2019-01-03 | 2020-07-09 | 科沃斯机器人股份有限公司 | 动态区域划分与区域通道识别方法及清洁机器人 |
CN109947109B (zh) * | 2019-04-02 | 2022-06-21 | 北京石头创新科技有限公司 | 机器人工作区域地图构建方法、装置、机器人和介质 |
US11493931B2 (en) * | 2019-05-14 | 2022-11-08 | Lg Electronics Inc. | Method of extracting feature from image using laser pattern and device and robot of extracting feature thereof |
CN110269550B (zh) * | 2019-06-13 | 2021-06-08 | 深圳市银星智能科技股份有限公司 | 一种门位置识别方法以及移动机器人 |
CN110579213B (zh) * | 2019-09-30 | 2022-10-04 | 湖南格兰博智能科技有限责任公司 | 一种应用于低成本芯片的扫地机器人清扫路径规划导航方法 |
CN111897334B (zh) * | 2020-08-02 | 2022-06-14 | 珠海一微半导体股份有限公司 | 一种基于边界的机器人区域划分方法、芯片及机器人 |
-
2020
- 2020-08-02 CN CN202010764284.7A patent/CN111897334B/zh active Active
- 2020-11-24 US US17/771,471 patent/US20240045433A1/en active Pending
- 2020-11-24 WO PCT/CN2020/131188 patent/WO2022027869A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003345437A (ja) * | 2002-05-22 | 2003-12-05 | Toshiba Tec Corp | 自律走行ロボット |
CN110377014A (zh) * | 2018-04-13 | 2019-10-25 | 上海未来伙伴机器人有限公司 | 一种通用的扫地机器人清扫路径规划方法 |
CN109920424A (zh) * | 2019-04-03 | 2019-06-21 | 北京石头世纪科技股份有限公司 | 机器人语音控制方法、装置、机器人和介质 |
CN111202472A (zh) * | 2020-02-18 | 2020-05-29 | 深圳市愚公科技有限公司 | 一种扫地机器人的终端地图构建方法、终端设备及清扫系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2022027869A1 (zh) | 2022-02-10 |
US20240045433A1 (en) | 2024-02-08 |
CN111897334A (zh) | 2020-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111897334B (zh) | 一种基于边界的机器人区域划分方法、芯片及机器人 | |
EP4043988A1 (en) | Robot edge treading areal sweep planning method, chip, and robot | |
CN110801180B (zh) | 清洁机器人的运行方法及装置 | |
CN108053476B (zh) | 一种基于分段三维重建的人体参数测量系统及方法 | |
CN111857156A (zh) | 一种基于激光的机器人区域划分方法、芯片及机器人 | |
EP4154788A1 (en) | Linear laser beam-based method and device for obstacle avoidance | |
CN106908052B (zh) | 用于智能机器人的路径规划方法及装置 | |
CN111198378B (zh) | 基于边界的自主探索方法和装置 | |
CN113696180A (zh) | 机器人自动回充方法、装置、存储介质及机器人系统 | |
CN106504227A (zh) | 基于深度图像的人数统计方法及其系统 | |
CN113925390B (zh) | 一种基于地图图像的跨区域通道识别方法、机器人及芯片 | |
CN113848892B (zh) | 一种机器人清扫区域划分方法、路径规划方法及装置 | |
CA3215518A1 (en) | Generating mappings of physical spaces from point cloud data | |
CN112388626A (zh) | 机器人辅助导航方法 | |
CN111401337B (zh) | 一种车道跟随探索建图方法、存储介质及机器人 | |
CN111240322B (zh) | 机器人移动限制框的工作起点确定方法及运动控制方法 | |
CN115342800A (zh) | 一种基于三目视觉传感器的地图构建方法及系统 | |
WO2021220345A1 (ja) | エレベーターの3次元データの処理装置 | |
WO2021220346A1 (ja) | エレベーターの3次元データの処理装置 | |
CN112308033A (zh) | 一种基于深度数据的障碍物碰撞警告方法及视觉芯片 | |
CN114092805A (zh) | 一种基于建筑模型的机器狗识别裂痕方法 | |
CN115393372A (zh) | 地图分区方法、装置、自主移动设备和存储介质 | |
CN116228849B (zh) | 构建机器外部图像的导航用建图方法 | |
CN116465404A (zh) | 基于预设探测距离范围内的最优碰撞点搜索方法 | |
CN116540685A (zh) | 基于障碍像素点的边界配置方法、芯片及机器人 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 519000 2706, No. 3000, Huandao East Road, Hengqin new area, Zhuhai, Guangdong Applicant after: Zhuhai Yiwei Semiconductor Co.,Ltd. Address before: Room 105-514, No.6 Baohua Road, Hengqin New District, Zhuhai City, Guangdong Province Applicant before: AMICRO SEMICONDUCTOR Co.,Ltd. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |