CN110450152A - 区域识别方法、机器人和存储介质 - Google Patents
区域识别方法、机器人和存储介质 Download PDFInfo
- Publication number
- CN110450152A CN110450152A CN201910548570.7A CN201910548570A CN110450152A CN 110450152 A CN110450152 A CN 110450152A CN 201910548570 A CN201910548570 A CN 201910548570A CN 110450152 A CN110450152 A CN 110450152A
- Authority
- CN
- China
- Prior art keywords
- label image
- region
- robot
- identified
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000004140 cleaning Methods 0.000 claims description 50
- 230000015654 memory Effects 0.000 claims description 23
- 238000004590 computer program Methods 0.000 claims description 14
- 239000003550 marker Substances 0.000 claims description 11
- 239000011248 coating agent Substances 0.000 claims description 4
- 238000000576 coating method Methods 0.000 claims description 4
- 238000001514 detection method Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 10
- 230000001360 synchronised effect Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000010408 sweeping Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000010926 purge Methods 0.000 description 1
- 239000000523 sample Substances 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000001179 sorption measurement Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0234—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using optical markers or beacons
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0268—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
- G05D1/0274—Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
Abstract
本申请涉及一种区域识别方法、机器人和存储介质。所述方法包括:识别第一标签图像及第二标签图像,分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息,根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙,根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型,所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。采用本方法能够提高虚拟墙检测的准确性,进而提高对待识别区域的识别准确性。
Description
技术领域
本申请涉及机器人领域,特别是涉及一种区域识别方法、机器人和存储介质。
背景技术
随着机器人技术的发展,机器人已经可以取代人类完成一部分室内的工作。在机器人进行移动工作时,通常需要限定机器人的工作区域,使得机器人只在工作区工作并禁止机器人进入非工作区,例如,仅在客厅或卧室中工作,并禁止进入卫生间及厨房等。
现有划分工作区及非工作区的方案主要有两种:方案一,采用红外虚拟墙限定工作区域,红外虚拟墙产生装置发射一束红外光作为虚拟墙,机器人探测器探测到该光束后,后退离开该光束,使得机器人工作在红外虚拟墙产生装置限定的区域内;方案二,采用磁条虚拟墙限定工作区域,将磁条铺设在地面上,机器人设置的传感器探测到该磁条发出的磁信号时,机器人后退离开该磁条,使得机器人工作在磁条所限定的工作区域内。
然而,上述两种限制机器人工作区域的方案中,建立的虚拟墙会因红外装置、磁条的失效而失效,降低了机器人对虚拟墙检测的准确率,进而使得机器人无法准确识别虚拟墙划分的区域,出现机器人误进入到错误区域的问题。
发明内容
基于此,有必要针对上述技术问题,提供一种能够准确识别区域类型,避免机器人误入错误区域的区域识别方法、装置、机器人和存储介质。
第一方面,提供了一种区域识别方法,所述方法包括:
识别第一标签图像及第二标签图像;所述第一标签图像与所述第二标签图像存在对应关系;
分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息;
根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙;
根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型,所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
在其中一个实施例中,所述识别所述第一标签图像及所述第二标签图像,包括:
获取所述第一标签图像;
分析所述第一标签图像,得到所述第一标签图像与所述第二标签图像的相对位置关系;
根据所述相对位置关系指示所述机器人向所述第二标签图像方向移动以获取所述第二标签图像。
在其中一个实施例中,在指示所述机器人向所述第二标签图像方向移动的步骤之前,所述方法还包括:
保存所述机器人当前位置作为待工作位置;
在获取到所述第二标签图像后,返回所述待工作位置。
在其中一个实施例中,所述根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型,所述方法还包括:
分别获取所述第一标签图像对应的第一数据信息和所述第二标签图像对应的第二数据信息,所述第一数据信息及所述第二数据信息用于指示所述待识别区域的区域类型;
根据所述第一数据信息及所述第二数据信息判定所述待识别区域的区域类型。
在其中一个实施例中,所述方法还包括:
若所述第一数据信息与所述第二数据信息相同,判定虚拟墙设置成功;
若所述第一数据信息与所述第二数据信息不同,判定虚拟墙设置失败,发出告警提示。
在其中一个实施例中,所述第一数据信息及所述第二数据信息包含所述待识别区域的场景类型,所述方法还包括:
将所述待识别区域的清扫模式设置为与所述场景类型对应的清扫模式。
在其中一个实施例中,所述方法还包括:
若判定所述待识别区域的区域类型为非工作区,在电子地图中将所述待识别区域标记为非工作区域,并禁止所述机器人进入非工作区。
在其中一个实施例中,所述方法还包括:
若判定所述待识别区域的区域类型为工作区,在电子地图中将所述待识别区域标记为工作区域。
在其中一个实施例中,所述方法还包括:
将所述待识别区域标记为待清扫区域,在对当前区域清扫完成后对所述待清扫区域进行清扫;或
保存所述机器人当前位置作为待工作位置,在对所述待识别区域清扫完成后,返回所述待工作位置,继续清扫当前区域。
在其中一个实施例中,所述方法还包括:
在所述电子地图中标记每一区域的场景类型及清扫程度。
在其中一个实施例中,所述分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息,所述方法还包括:
获取所述机器人识别所述第一标签图像时的第一位置坐标和第一拍摄方向;
获取所述机器人识别所述第二标签图像时的第二位置坐标和第二拍摄方向;
分别计算所述第一标签图像及所述第二标签图像在环境图像中的第一面积比例及第二面积比例;
根据预设的面积比例和拍摄距离之间的对应关系,分别确定所述第一面积比例对应的第一拍摄距离,及所述第二面积比例对应的第二拍摄距离;
根据所述第一位置坐标、所述第一拍摄方向及所述第一拍摄距离获取所述第一标签图像对应的位置信息;
根据所述第二位置坐标、所述第二拍摄方向及所述第二拍摄距离获取所述第二标签图像对应的位置信息。
在其中一个实施例中,所述第一标签图像及所述第二标签图像设置在图像卡片上,所述图像卡片通过吸盘吸附在所述待识别区域入口的两侧。
在其中一个实施例中,所述标签图像表面覆盖有荧光层。
第二方面,提供了一种机器人,所述机器人包括:
图像识别模块,用于识别第一标签图像及第二标签图像;所述第一标签图像与所述第二标签图像存在对应关系;
获取模块,用于分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息;
虚拟墙设置模块,用于根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙;
区域识别模块,用于根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型,所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
第三方面,提供一种机器人,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现以下步骤:
识别第一标签图像及第二标签图像;所述第一标签图像与所述第二标签图像存在对应关系;
分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息;
根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙;
根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型;所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现以下步骤:
识别第一标签图像及第二标签图像;所述第一标签图像与所述第二标签图像存在对应关系;
分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息;
根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙;
根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型;所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
上述区域识别方法、装置、机器人和存储介质,通过识别第一标签图像及第二标签图像,分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息,根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙。根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型。可以在一组标签图像之间建立虚拟墙,进而实现对当前区域的划分,并且通过标签图像携带的信息确定待识别区域的区域类型,提高了虚拟墙检测的准确度。
附图说明
图1为本申请实施例提供的区域识别方法的实施环境图;
图2为本申请实施例提供的一种区域识别方法的流程图;
图3为本申请实施例提供的另一种区域识别方法的流程图;
图4为本申请实施例提供的另一种区域识别方法的流程图;
图5为本申请实施例提供的另一种区域识别方法的流程图;
图6为本申请实施例提供的一种清扫流程示意图;
图7为本申请实施例提供的另一种清扫流程示意图;
图8为本申请实施例提供的另一种区域识别方法的流程图;
图9为本申请实施例提供的一种机器人的框图;
图10为本申请实施例提供的另一种机器人的框图;
图11为本申请实施例提供的一种机器人的框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
本申请提供的区域识别方法,可以应用于如图1所示的实施环境中。在一个实施例中,机器人101可以与终端设备103直接通信。在另一个可选的实施例中,所述机器人101可以与服务器102进行通信,所述服务器102可以与终端设备103进行通信。其中,机器人101可以但不限于是各种智能机器人、自移动机器人和扫地机器人,服务器104可以用独立的服务器或者是多个服务器组成的服务器集群来实现,终端设备103可以但不限于是智能手机、台式计算机、笔记本电脑、掌上计算机等。
请参考图2,其示出了本实施例提供的一种区域识别方法的流程图,该区域识别方法可以应用于上文所述的实施环境中的机器人101中。
步骤202,识别第一标签图像及第二标签图像;所述第一标签图像与所述第二标签图像存在对应关系。
其中,所述第一标签图像及所述第二标签图像可以任意形式的标签图像,具体可以为条形码,二维码,文字或其他特定图像。对所述第一标签图像及所述第二标签图像的识别方法可以根据标签图像形式的不同而选择对应的识别方法,本发明实施例对此不做详细限定。
具体的,所述第一标签图像与所述第二标签图像存在对应关系,并且成组出现。
具体地,机器人包含图像采集模块,所述图像采集模块用于识别所述第一标签图像及第二标签图像,在机器人在电子地图中按照预设路线移动时,所述图像采集模块会实时采集环境图像,并根据预设的图像识别方法在所述环境图像中识别以得到所述第一标签图像及第二标签图像。所述电子地图在本申请流程开始之前已经建立,并保存在机器人的存储器中。同样的,所述电子地图可以保存在与所述机器人通信的服务器中,同时,所述电子地图也可以保存在与所述机器人或所述服务器通信的终端设备中。每当所述电子地图发生更改时,都会在机器人、服务器及终端设备中同步。
步骤204,分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息。
在本申请的一个实施例中,机器人会依次获取第一标签图像的第一位置信息及所述第二标签图像的第二位置信息,所述第一位置信息和所述第二位置信息分别用于表示所述第一标签图像和所述第二标签图像在电子地图的相对坐标。
具体的,所述机器人在电子地图中按照预设路线移动,当机器人的图像采集模块识别到所述第一标签图像时,所述机器人获取自身在所述电子地图中的相对位置坐标,由于机器人识别到所述第一标签图像时与所述第一标签图像距离较近,可以将机器人的相对坐标近似的作为所述第一标签图像在电子地图中的相对坐标。
相应的,当机器人识别到所述第二标签图像时,将此时所述机器人在电子地图中的相对位置坐标作为所述第二位置信息。
步骤206,根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙。
具体的,机器人在获取到所述第一标签图像和所述第二标签图像分别在所述电子地图中的相对坐标之后,在这两个相对坐标之间建立连线,并将所述两个相对坐标及其之间的连线即为设置的虚拟墙。接着,机器人根据该虚拟墙信息对所述电子地图进行修改,即在所述电子地图中增加设置好的虚拟墙。另外,机器人会将修改后的电子地图同步到服务器及终端设备中。
步骤208,根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型;所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
在本申请的一个实施例中,建立好的虚拟墙会将之前的区域划为以所述虚拟墙为界限的两个区域,其中,所述机器人所在的一侧区域为当前区域,以所述虚拟墙为界限划分的不包括机器人的区域为待识别区域。
此外,所述第一标签图像及所述第二标签图像还包含所述待识别区域的区域类型,所述机器人通过分析所述第一标签图像及所述第二标签图像,获得所述待识别区域的区域类型。
在本申请实施例提供的区域识别方法中,通过识别第一标签图像及第二标签图像,分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息,根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙,根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型,其中,所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。根据本申请实施例提供的区域识别方法,可以通过一组标签图像快速的建立对应的虚拟墙,提高了虚拟墙检测的准确度,并且通过该组标签图像确定待识别区域的区域类型,从而保证了区域识别的准确性。
请参考图3,其示出了本实施例提供的另一种区域识别方法的流程图,该区域识别方法可以应用于上文所述的实施环境中的机器人101中。在上述图2所示实施例的基础上,上述步骤202具体可以包括以下步骤:
步骤302,获取所述第一标签图像。
在本申请的一个实施例中,机器人在移动过程中通过图像采集模块实时采集环境图像并识别得到所述第一标签图像。所述图像采集模块可以是固定朝向的,也可以是任意朝向的,本实施例对此不作限定。当图像采集模块是任意朝向时,在获取到所述第一标签图像时,会保存当前朝向信息。
步骤304,分析所述第一标签图像,得到所述第一标签图像与所述第二标签图像的相对位置关系。
在本申请的一个实施例中,所述第一标签图像中包含与所述第二标签图像的相对位置关系,机器人会根据第一标签图像的图像类型,采用对应的图像识别分析方法对所述第一标签图像进行分析,得到所述第一标签图像与所述第二标签图像的相对位置关系。
步骤306,根据所述相对位置关系指示所述机器人向所述第二标签图像方向移动以获取所述第二标签图像。
在本申请的一个实施例中,机器人会根据获取到的相对位置关系,结合图像采集模块的采集方向,向所述第二标签图像方向移动以获取所述第二标签图像。
在一个具体的实施例中,所述第一标签图像中包含“左”信息,所述第二标签图像中包含“右”信息,所述“左”“右”信息反映了所述第一标签图像与所述第二标签图像的相对位置关系。也就是说,所述第一标签图像为这一组标签图像的左侧标签图像,所述机器人在识别并分析得到第一标签图像中的“左”信息时,可以根据所述“左”信息向右寻找以得到这一组标签图像中的第二标签图像。机器人采集到所述第一标签图像的方向是正北方向,所述机器人分析所述第一标签图像得到“左”信息,所述“左”信息表示第二标签图像在采集方向的右侧,即正北方向的右侧方向(正东方向),所述机器人将图像采集模块的采集方向保持为正北方向,并向正东方向移动,以获取所述第二标签图像。
在本申请实施例提供的区域识别方法中,通过分析所述第一标签图像,得到所述第一标签图像与所述第二标签图像的相对位置关系,并根据所述相对位置关系指示所述机器人向所述第二标签图像方向移动以获取所述第二标签图像。由于在便签图像中添加了另一个标签图像的相对位置关系,可以使得机器人在只发现一个标签图像的情况下,也可以快速并准确的寻找出另一个标签图像,提高了虚拟墙建设的速度。
在机器人识别到所述第一标签图像时,可能正处于一种特定工作模式,当获取到所述第二标签图像之后,需要重新进入到特定工作模式中,因此,请参阅图4,其示出了本申请实施例提供的另一种区域识别方法的流程图,该区域识别方法可以应用于上文所述的实施环境中的机器人101中。在上述图3所示实施例的基础上,步骤306之前,具体可以包括以下步骤:
步骤402,保存所述机器人当前位置作为待工作位置。
在本申请的一个实施例中,当所述机器人获取到所述第一标签图像,并在指示所述机器人向所述第二标签图像方向移动之前,会保存当前的相对位置坐标作为待工作位置。
在一个具体的实施例中,所述机器人在获取到第一标签图像之前,正处于一种特定工作模式。由于获取到了第一标签图像,触发了虚拟墙建立进程,需要暂停当前的特定工作模式去获取第二标签图像以完成虚拟墙建立进程。但是,获取第二标签图像时会离开当前工作位置,保存当前位置作为待工作位置的目的是为了使所述机器人可以迅速返回先前位置,并重新进入特定工作模式中。
步骤404,在获取到所述第二标签图像后,返回所述待工作位置。
在本申请的一个实施例中,在所述机器人获取到第二标签图像后,立即返回所述待工作位置,在返回待工作位置的途中,可以进行所述第二标签图像的分析、虚拟墙建立等操作。
在本申请实施例提供的区域识别方法中,通过保存所述机器人当前位置作为待工作位置,在获取到所述第二标签图像后,返回所述待工作位置。使得机器人在完成虚拟墙建立进程之后,可以快速返回先前位置,并立即恢复之前的工作模式,进而使得虚拟墙建立进程对当前工作模式的影响程度降到最低。请参阅图5,其示出了本申请实施例提供的另一种区域识别方法的流程图,该区域识别方法可以应用于上文所述的实施环境中的机器人101中。在上述图2所示实施例的基础上,上述步骤208具体可以包括以下步骤:
步骤502,分别获取所述第一标签图像对应的第一数据信息和所述第二标签图像对应的第二数据信息,所述第一数据信息及所述第二数据信息用于指示所述待识别区域的区域类型。
具体的,所述第一数据信息及所述第二数据信息可以用于指示所述待识别区域是工作区或是非工作区。进一步的,所述第一数据信息及所述第二数据信息还可以用于表征所述待识别区域的场景类型,场景类型可以包括客厅、卧室、厨房等。
在本申请的一个实施例中,当机器人获取到所述第一标签图像时,分析所述第一标签图像,以得到所述第一数据信息;相应的,当机器人获取到所述第二标签图像时,分析所述第二标签图像,以得到所述第二数据信息。
在本申请的另一个实施例中,当机器人获取到所述第一标签图像及所述第二标签图像时,保存所述第一标签图像及所述第二标签图像,在机器人的计算负载低于预设阈值时,分析保存的第一标签图像及第二标签图像,以得到所述第一数据信息及所述第二数据信息。
步骤504,根据所述第一数据信息及所述第二数据信息判定所述待识别区域的区域类型。
在本申请实施例提供的区域识别方法中,通过别获取所述第一标签图像对应的第一数据信息和所述第二标签图像对应的第二数据信息,根据所述第一数据信息及所述第二数据信息判定所述待识别区域的区域类型。使得机器人可以根据标签图像中的数据信息快速识别所述待识别区域的区域类型。并且,通过设置不同的第一标签图像和所述第二标签图像,可以简单灵活对所述待识别区域进行区域类型的更改,可以适用于多种场景。
在本申请的实际应用中,由于用户将不是同一组的两个标签图像设置在待识别区域入口的两侧,可能会出现机器人识别错误的问题。因此,本申请实施例还提供了另一种区域识别方法,该区域识别方法可以应用于上文所述的实施环境中的机器人101中。在上文所述的实施例的基础上,上述步骤504具体可以包括以下步骤:
若所述第一数据信息与所述第二数据信息相同,判定虚拟墙设置成功。
具体的,机器人将获取到的所述第一数据信息及所述第二数据信息进行对比,根据对比结果确定虚拟墙是否设置成功。若所述第一数据信息与所述第二数据信息相同,判定虚拟墙设置成功。机器人将所述第一数据信息与所述第二数据信息包含的相同的区域类型信息设置为所述待识别区域的区域类型。
若所述第一数据信息与所述第二数据信息不同,判定虚拟墙设置失败,发出告警提示。
在本实施例中,若所述第一数据信息与所述第二数据信息不同,机器人判定虚拟墙设置失败,机器人在电子地图中将之前根据第一位置信息及第二位置信息建立的虚拟墙数据删除。并发出告警提示至服务器或终端,所述告警提示用于表示该虚拟墙建立失败,并指示待识别区域入口两侧的第一标签图像与第二标签图像不是同一组标签图像,以使用户至少更换其中一个标签图像。
在本申请实施例提供的区域识别方法中,通过判断所述第一数据信息与所述第二数据信息是否相同,进而判定虚拟墙设置成功或判定虚拟墙设置失败,发出告警提示。机器人可以在发现标签图像设置错误的情况下,以告警信息提示用户。解决了因用户将不是同一组的两个标签图像设置在待识别区域入口的两侧,可能会出现机器人识别错误的问题。
在机器人的实际工作场景中,除了对于工作区和非工作区的划分,往往还需要对所述带识别区域的具体场景类型进行识别,以便采用对应的工作模式在所述待识别区域内工作。因此,本申请实施例还提供了另一种区域识别方法,该区域识别方法可以应用于上文所述的实施环境中。在上文所述的实施例的基础上,所述第一数据信息及所述第二数据信息包含所述待识别区域的场景类型,在步骤504之后,具体可以包括:将所述待识别区域的清扫模式设置为与所述场景类型对应的清扫模式。
具体的,机器人在获取到所述第一数据信息及所述第二数据信息之后,由于所述第一数据信息及所述第二数据信息包含所述待识别区域的场景类型,机器人还可以进一步获取到所述待识别区域的场景类型。接着,机器人将所述待识别区域的清扫模式设置为与所述场景类型对应的清扫模式。进而使得机器人进入所述待识别区域内时,便会采用与所述场景类型对应的清扫模式对所述待识别区域进行清扫。
其中,所述场景类型为所述待识别区域的房间类型,可以包括:厨房,客厅,卧室等。由于每种场景类型中存在的环境垃圾不同,因此,需要采用的清扫模式也需要适应性的更改。
在一个具体的实施例中,若识别出所述待识别区域的区域类型为厨房时,由于厨房油烟较重,便可以将所述带识别区域的清扫模式设置为针对于厨房的清扫模式,例如采用加大拖地的功率和出水量的模式。当识别出所述待识别区域的区域类型为卧室时,由于卧室毛发较多,便可以将所述带识别区域的清扫模式设置为针对于卧室的清扫模式,例如采用加大风机的吸力和边刷的转速的模式。
在本申请实施例提供的区域识别方法中,通过获取所述第一数据信息及所述第二数据信息中的所述待识别区域的场景类型,可以更进一步的对所述待识别区域进行场景类型的划分,继而进一步的提升了本申请在不同场景的下的应用型。
本申请实施例还提供了另一种区域识别方法,该区域识别方法可以应用于上文所述的实施环境中。在上文所述的实施例的基础上,在步骤208之后,具体可以包括以下步骤:
若判定所述待识别区域的区域类型为非工作区,在电子地图中将所述待识别区域标记为非工作区域,并禁止所述机器人进入非工作区。
具体的,机器人通过第一标签图像和第二标签图像识别出待识别区域的区域类型为非工作区,并通过颜色、文字等标示对电子地图中该待识别区域进行标记,标记后的电子地图可以通过通信连接同步至服务器中,服务器也可将标记后的电子地图同步发送至与其连接的其他终端,以使用户掌握当前区域划分状态。
若判定所述待识别区域的区域类型为工作区,在电子地图中将所述待识别区域标记为工作区域。
具体的,与上文标记方式相同,机器人会将待识别区域的工作区信息通过颜色、文字等标示对电子地图中该待识别区域进行标记,工作区的颜色标记与非工作区的颜色标记有明显差别。
在本申请实施例提供的区域识别方法中,通过在所述电子地图中对待识别区域标记工作区和非工作区,使得用户可以更加轻松便捷地掌握当前区域划分状态。
本申请实施例还提供了另一种区域识别方法,该区域识别方法可以应用于上文所述的实施环境中。在上文所述的实施例的基础上,所述若判定所述待识别区域的区域类型为工作区,在电子地图中将所述待识别区域标记为工作区域,具体可以包括以下步骤:
将所述待识别区域标记为待清扫区域,在对当前区域清扫完成后对所述待清扫区域进行清扫。
具体的,当判断所述待识别区域的区域类型为工作区时,机器人会将其标记为待清扫区域,并继续对当前区域进行清扫。若在对当前区域进行清扫的过程中,再一次识别到其他的工作区,将其他工作区也设置为待清扫区域,直到当前区域完成清扫工作。
进一步的,在对当前区域清扫完成后,若存在多个待清扫区域,可以按照识别到的顺序依次进行清扫。也可以根据所述多个待清扫区域的相对位置,生成一个最优清扫顺序,并按照该最优清扫顺序对所述多个待清扫区域进行清扫。
如图6所示,机器人在对大厅进行打扫的过程中,识别到卧室、书房、厨房是工作区域,机器人将卧室、书房、厨房保存为待工作区域,在对大厅清扫完成之后,按照一定顺序对书房、卧室、厨房进行清扫,并且针对不同场景类型的待工作区域采用不同的清扫模式。
在本实施例中,由于先完成对当前区域的清扫,再依顺序对多个待识别区域进行清扫,在各个区域的清扫模式不相同的情况下,减少了清扫模式切换时间的浪费,也避免了多次切换清扫模式而造成的电量损失。
本申请实施例还提供了另一种区域识别方法,该区域识别方法可以应用于上文所述的实施环境中。在上文所述的实施例的基础上,所述若判定所述待识别区域的区域类型为工作区,在电子地图中将所述待识别区域标记为工作区域,具体可以包括以下步骤:
保存所述机器人当前位置作为待工作位置;
在对所述待识别区域清扫完成后,返回所述待工作位置,继续清扫当前区域。
具体的,机器人对当前区域的清扫过程中,每当识别所述待识别区域的区域类型为工作区时,停止对当前区域的清扫,保存当前位置在电子地图的相对位置坐标作为待工作位置,立即对所述带识别区域按照对应的清扫模式进行清扫。在机器人停止对当前区域清扫时,向所述待识别区域方向移动,当进入所述待识别区域时,采用对应的清扫模式进行清扫。然后,当完成所述待识别区域的清扫工作后,返回所述待工作位置,并继续对当前区域进行清扫。
如图7所示,机器人在对大厅进行打扫的过程中,当识别到卧室是工作区域时,立即采用与卧室对应的清扫模式对卧室进行清扫,在完成对卧室清扫时,返回大厅之前的工作位置,继续对大厅进行清扫;同样的,当检测到书房、厨房是工作区域时,也立即对检测到的待识别区域进行清扫,直到完成对大厅的清扫。
在本实施例中,机器人在当前区域的清扫进程中,若发现待识别区域为工作区,立即按照与待识别区域对应的清扫模式对所述待识别区域进行清扫,并在清扫完成后,继续当前区域的清扫进程。保证了对所述待识别区域清扫的即时性,并且,通过保存待工作位置的方式,避免了因中途清扫其他区域而造成当前区域未彻底清扫的问题。
本申请实施例还提供了另一种区域识别方法,该区域识别方法可以应用于上文所述的实施环境中。在上文所述的实施例的基础上,在所述若判定所述待识别区域的区域类型为工作区,在电子地图中将所述待识别区域标记为工作区域的步骤之后,具体可以包括以下步骤:
在所述电子地图中标记每一区域的场景类型及清扫程度。
具体的,每当机器人在检测到一个待识别区域时,都会分析所述待识别区域的场景类型,并及时将识别到的场景类型标记在所述电子地图中对应的待识别区域中。在标记完成后,机器人可以将标记后的电子地图同步至服务器端,服务器也可将标记后的电子地图同步至与其连接的其他终端中,以使用户掌握当前电子地图中各个区域的区域类型。
另外,机器人在对各个区域进行清扫的过程中,会以一定频率更新对各个区域的清扫程度,并将在所述电子地图的各个区域中标记清扫程度。所述清扫程度可以是已清扫的时间、预计剩余清扫时间、已清扫面积、剩余清扫面积等。标记方法可以是文字标注、颜色深浅程度标记、颜色填充面积等方式。同样的,在标记完成后,机器人可以将标记后的电子地图同步至服务器端,服务器也可将标记后的电子地图同步至与其连接的其他终端中,以使用户掌握当前电子地图中各个区域的清扫程度。
请参阅图8,其示出了本申请实施例提供的另一种区域识别方法的流程图,该区域识别方法可以应用于上文所述的实施环境中。在上述图2所示实施例的基础上,上述步骤204具体可以包括以下步骤:
步骤902、获取所述机器人识别所述第一标签图像时的第一位置坐标和第一拍摄方向;
步骤904、获取所述机器人识别所述第二标签图像时的第二位置坐标和第二拍摄方向;
在本实施例中,每当机器人检测到标签图像时,都会保存当前的位置坐标,即保存机器人在所述电子地图中的相对位置,并且保存图像采集模块采集标签图像时的拍摄方向。
步骤906、分别计算所述第一标签图像及所述第二标签图像在环境图像中的第一面积比例及第二面积比例;
具体的,所述图像采集模块识别到标签图像之前,会预先实时采集包含所述标签图像的环境图像,在利用图像识别算法从所述环境图像中识别所述标签图像。之后,机器人计算标签图像在所述环境图像的面积比例,所述面积比例可以反映所述机器人距离所述标签图像的远近,例如,面积比例越小,所述机器人距离所述标签图像越远。
步骤908、根据预设的面积比例和拍摄距离之间的对应关系,分别确定所述第一面积比例对应的第一拍摄距离,及所述第二面积比例对应的第二拍摄距离;
根据上文描述可知,所述机器人与所述标签图像的拍摄距离与面积比例具有一定的对应关系,所述机器人可以根据预设的面积比例和拍摄距离之间的对应关系,得到与第一面积比例对应的第一拍摄距离,及第二面积比例对应的第二拍摄距离。
步骤910、根据所述第一位置坐标、所述第一拍摄方向及所述第一拍摄距离获取所述第一标签图像对应的位置信息;
步骤912、根据所述第二位置坐标、所述第二拍摄方向及所述第二拍摄距离获取所述第二标签图像对应的位置信息。
在本实施例中,由于机器人得到了拍摄标签图像时的坐标位置、拍摄方向及拍摄距离,进而可以得到所述标签图像在所述电子地图中的实际坐标位置。
在本申请实施例提供的区域识别方法中,,通过对拍摄标签图像时的坐标位置、拍摄方向及拍摄距离的获取,得到了更为精准的标签图像在所述电子地图中的相对位置坐标,进而保证了虚拟墙设置的准确性,也就提高了对所述待识别区域划分及识别的准确性。
在本申请的一个实施例中,所述第一标签图像及所述第二标签图像设置在图像卡片上,所述图像卡片通过吸盘吸附在待识别区域入口的两侧。在本实施例中,通过吸盘和图像卡片的组合将标签图像吸附在门框或墙壁上,使得标签图像可以随意取下并更改吸附位置,具有极高的便利性。再进一步的实施例中,可以在设计上使得吸盘与图像卡片形成成一定的倾斜角,让机器人可以更容易采集图像,提高图像识别效果。
在进一步的实施例中,所述标签图像表面覆盖有荧光层。所述荧光层使得所述标签图像即使在光线较弱的情况下,也可以被机器人采集并识别。
应该理解的是,虽然图2-5、8的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图2-5、8中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
请参考图9,其示出了本申请实施例提供的一种机器人1000的框图。如图9所示,所述机器人1000可以包括:图像识别模块1001、获取模块1002、虚拟墙设置模块1003和区域识别模块1004。其中:
所述图像识别模块1001,用于识别第一标签图像及第二标签图像。
所述获取模块1002,用于分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息。
所述虚拟墙设置模块1003,用于根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙。
所述区域识别模块1004,用于根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型,所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
在本申请的一个实施例中,所述图像识别模块1001,具体用于:获取所述第一标签图像;分析所述第一标签图像,得到所述第一标签图像与所述第二标签图像的相对位置关系;根据所述相对位置关系指示所述机器人向所述第二标签图像方向移动以获取所述第二标签图像。
在本申请的一个实施例中,所述图像识别模块1001,用于:保存所述机器人当前位置作为待工作位置;在获取到所述第二标签图像后,返回所述待工作位置。
在本申请的一个实施例中,所述获取模块1002,具体用于:获取所述机器人识别所述第一标签图像时的第一位置坐标和第一拍摄方向;获取所述机器人识别所述第二标签图像时的第二位置坐标和第二拍摄方向;分别计算所述第一标签图像及所述第二标签图像在环境图像中的第一面积比例及第二面积比例;根据预设的面积比例和拍摄距离之间的对应关系,分别确定所述第一面积比例对应的第一拍摄距离,及所述第二面积比例对应的第二拍摄距离;根据所述第一位置坐标、所述第一拍摄方向及所述第一拍摄距离获取所述第一标签图像对应的位置信息;根据所述第二位置坐标、所述第二拍摄方向及所述第二拍摄距离获取所述第二标签图像对应的位置信息。
在本申请的一个实施例中,所述区域识别模块1004,具体用于:分别获取所述第一标签图像对应的第一数据信息和所述第二标签图像对应的第二数据信息,所述第一数据信息及所述第二数据信息用于指示所述待识别区域的区域类型;根据所述第一数据信息及所述第二数据信息判定所述待识别区域的区域类型。
在本申请的一个实施例中,所述区域识别模块1004,具体用于:若所述第一数据信息与所述第二数据信息相同,判定虚拟墙设置成功;若所述第一数据信息与所述第二数据信息不同,判定虚拟墙设置失败,发出告警提示。
参考图8,本申请实施例还提供了一种机器人1100,所述机器人1100除了包括机器人1000包括的各模块外,可选的,还可以包括区域类型设置模块1005、场景类型设置模块1006和工作控制模块1007。其中:
所述区域类型设置模块1005,用于:若判定所述待识别区域的区域类型为非工作区,在电子地图中将所述待识别区域标记为非工作区域,并禁止所述机器人进入非工作区。
在本申请的一个实施例中,所述区域类型设置模块1005,用于:若判定所述待识别区域的区域类型为工作区,在电子地图中将所述待识别区域标记为工作区域。
在本申请的一个实施例中,所述第一数据信息及所述第二数据信息包含所述待识别区域的场景类型,所述场景类型设置模块1006,用于:将所述待识别区域的清扫模式设置为与所述场景类型对应的清扫模式。
所述工作控制模块1007,用于:将所述待识别区域标记为待清扫区域,在对当前区域清扫完成后对所述待清扫区域进行清扫。
在本申请的一个实施例中,所述工作控制模块1007,用于:保存所述机器人当前位置作为待工作位置;在对所述待识别区域清扫完成后,返回所述待工作位置,继续清扫当前区域。
在本申请的一个实施例中,所述工作控制模块1007,用于:在所述电子地图中标记每一区域的场景类型及清扫程度。
关于机器人的具体限定可以参见上文中对于区域识别方法的限定,在此不再赘述。上述机器人中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种机器人,其内部结构图可以如图9所示。该机器人包括通过系统总线连接的处理器、存储器、网络接口、图像采集模块和数据库。其中,该机器人的处理器用于提供计算和控制能力。该机器人的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该机器人的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种区域识别方法。
本领域技术人员可以理解,图9中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的机器人的限定,具体的机器人可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种机器人,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
识别第一标签图像及第二标签图像;所述第一标签图像与所述第二标签图像存在对应关系;
分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息;
根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙;
根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型;所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
识别第一标签图像及第二标签图像;所述第一标签图像与所述第二标签图像存在对应关系;
分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息;
根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙;
根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型;所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (16)
1.一种区域识别方法,其特征在于,所述方法包括:
识别第一标签图像及第二标签图像;所述第一标签图像与所述第二标签图像存在对应关系;
分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息;
根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙;
根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型;所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
2.根据权利要求1所述的方法,其特征在于,所述识别所述第一标签图像及所述第二标签图像,包括:
获取所述第一标签图像;
分析所述第一标签图像,得到所述第一标签图像与所述第二标签图像的相对位置关系;
根据所述相对位置关系指示所述机器人向所述第二标签图像方向移动以获取所述第二标签图像。
3.根据权利要求2所述的方法,其特征在于,在指示所述机器人向所述第二标签图像方向移动的步骤之前,所述方法还包括:
保存所述机器人当前位置作为待工作位置;
在获取到所述第二标签图像后,返回所述待工作位置。
4.根据权利要求1所述的方法,其特征在于,所述根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型,包括:
分别获取所述第一标签图像对应的第一数据信息和所述第二标签图像对应的第二数据信息,所述第一数据信息及所述第二数据信息用于指示所述待识别区域的区域类型;
根据所述第一数据信息及所述第二数据信息判定所述待识别区域的区域类型。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
若所述第一数据信息与所述第二数据信息相同,判定虚拟墙设置成功;
若所述第一数据信息与所述第二数据信息不同,判定虚拟墙设置失败,发出告警提示。
6.根据权利要求4所述的方法,其特征在于,所述第一数据信息及所述第二数据信息包含所述待识别区域的场景类型,所述方法还包括:
将所述待识别区域的清扫模式设置为与所述场景类型对应的清扫模式。
7.根据权利要求1至6任意一项所述的方法,其特征在于,所述方法还包括:
若判定所述待识别区域的区域类型为非工作区,在电子地图中将所述待识别区域标记为非工作区域,并禁止所述机器人进入非工作区。
8.根据权利要求1至6任意一项所述的方法,其特征在于,所述方法还包括:
若判定所述待识别区域的区域类型为工作区,在电子地图中将所述待识别区域标记为工作区域。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
将所述待识别区域标记为待清扫区域,在对当前区域清扫完成后对所述待清扫区域进行清扫;或
保存所述机器人当前位置作为待工作位置,在对所述待识别区域清扫完成后,返回所述待工作位置,继续清扫当前区域。
10.根据权利要求8述的方法,其特征在于,所述方法还包括:
在所述电子地图中标记每一区域的场景类型及清扫程度。
11.根据权利要求1至6任意一项所述的方法,其特征在于,所述分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息,包括:
获取所述机器人识别所述第一标签图像时的第一位置坐标和第一拍摄方向;
获取所述机器人识别所述第二标签图像时的第二位置坐标和第二拍摄方向;
分别计算所述第一标签图像及所述第二标签图像在环境图像中的第一面积比例及第二面积比例;
根据预设的面积比例和拍摄距离之间的对应关系,分别确定所述第一面积比例对应的第一拍摄距离,及所述第二面积比例对应的第二拍摄距离;
根据所述第一位置坐标、所述第一拍摄方向及所述第一拍摄距离获取所述第一标签图像对应的位置信息;
根据所述第二位置坐标、所述第二拍摄方向及所述第二拍摄距离获取所述第二标签图像对应的位置信息。
12.根据权利要求1所述的方法,其特征在于,所述第一标签图像及所述第二标签图像设置在图像卡片上,所述图像卡片通过吸盘吸附在所述待识别区域入口的两侧。
13.根据权利要求1所述的方法,其特征在于,所述标签图像表面覆盖有荧光层。
14.一种机器人,其特征在于,包括:
图像识别模块,用于识别第一标签图像及第二标签图像;所述第一标签图像与所述第二标签图像存在对应关系;
获取模块,用于分别获取所述第一标签图像对应的第一位置信息和所述第二标签图像对应的第二位置信息;
虚拟墙设置模块,用于根据所述第一位置信息及所述第二位置信息在所述第一标签图像和所述第二标签图像之间设置虚拟墙;
区域识别模块,用于根据所述第一标签图像及所述第二标签图像确定待识别区域的区域类型,所述待识别区域为以所述虚拟墙为界限划分的不包括机器人的区域。
15.一种机器人,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至13中任一项所述方法的步骤。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至13中任一项所述的方法的步骤。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910548570.7A CN110450152A (zh) | 2019-06-24 | 2019-06-24 | 区域识别方法、机器人和存储介质 |
PCT/CN2020/095049 WO2020259274A1 (zh) | 2019-06-24 | 2020-06-09 | 区域识别方法、机器人和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910548570.7A CN110450152A (zh) | 2019-06-24 | 2019-06-24 | 区域识别方法、机器人和存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110450152A true CN110450152A (zh) | 2019-11-15 |
Family
ID=68480818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910548570.7A Pending CN110450152A (zh) | 2019-06-24 | 2019-06-24 | 区域识别方法、机器人和存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN110450152A (zh) |
WO (1) | WO2020259274A1 (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111198549A (zh) * | 2020-02-18 | 2020-05-26 | 陈文翔 | 一种基于大数据的家禽养殖监测管理系统 |
CN111374614A (zh) * | 2020-03-19 | 2020-07-07 | 北京小米移动软件有限公司 | 清洁设备的控制方法、装置及存储介质 |
CN111399502A (zh) * | 2020-03-09 | 2020-07-10 | 惠州拓邦电气技术有限公司 | 移动机器人的建图方法、装置及移动机器人 |
CN111523334A (zh) * | 2020-04-09 | 2020-08-11 | 江苏美的清洁电器股份有限公司 | 虚拟禁区的设置方法、装置、终端设备、标签和存储介质 |
CN111539398A (zh) * | 2020-07-13 | 2020-08-14 | 追创科技(苏州)有限公司 | 自移动设备的控制方法、装置及存储介质 |
WO2020259274A1 (zh) * | 2019-06-24 | 2020-12-30 | 广东宝乐机器人股份有限公司 | 区域识别方法、机器人和存储介质 |
CN112171659A (zh) * | 2020-08-17 | 2021-01-05 | 深圳市优必选科技股份有限公司 | 一种机器人及其限制区域识别方法和装置 |
CN112363516A (zh) * | 2020-10-26 | 2021-02-12 | 深圳优地科技有限公司 | 虚拟墙生成方法、装置、机器人及存储介质 |
CN113128545A (zh) * | 2020-01-16 | 2021-07-16 | 科沃斯机器人股份有限公司 | 机器人采集样本的方法以及其装置 |
CN113183141A (zh) * | 2021-06-09 | 2021-07-30 | 乐聚(深圳)机器人技术有限公司 | 双足机器人的行走控制方法、装置、设备及存储介质 |
WO2021174851A1 (zh) * | 2020-03-05 | 2021-09-10 | 美智纵横科技有限责任公司 | 状态控制方法、扫地机器人及计算机存储介质 |
CN114339593A (zh) * | 2021-12-21 | 2022-04-12 | 美智纵横科技有限责任公司 | 可移动设备及其控制方法、控制装置、可读存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117173415B (zh) * | 2023-11-03 | 2024-01-26 | 南京特沃斯清洁设备有限公司 | 用于大型洗地机的视觉分析方法及系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011052112A1 (de) * | 2011-04-11 | 2012-10-11 | Micro-Star Int'l Co., Ltd. | Reinigungssystem |
CN103220955A (zh) * | 2010-09-20 | 2013-07-24 | 玛纽尔公司 | 清洁机器人系统及其控制方法 |
CN104062973A (zh) * | 2014-06-23 | 2014-09-24 | 西北工业大学 | 一种基于图像标志物识别的移动机器人slam方法 |
CN106037591A (zh) * | 2015-04-09 | 2016-10-26 | 美国iRobot公司 | 限制移动机器人的运动 |
CN106155049A (zh) * | 2015-04-15 | 2016-11-23 | 小米科技有限责任公司 | 智能清洁设备及其引导方法、引导桩、智能清洁系统 |
CN107592921A (zh) * | 2015-02-05 | 2018-01-16 | 格雷奥朗佩特有限公司 | 用于导航控制的设备和方法 |
CN107981790A (zh) * | 2017-12-04 | 2018-05-04 | 深圳市沃特沃德股份有限公司 | 室内区域划分方法及扫地机器人 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9788481B2 (en) * | 2014-10-28 | 2017-10-17 | Deere & Company | Robotic mower navigation system |
CN108227687A (zh) * | 2016-12-09 | 2018-06-29 | 广东德豪润达电气股份有限公司 | 智能机器人识别虚拟边界方法、行进方法及信标 |
US10583561B2 (en) * | 2017-08-31 | 2020-03-10 | Neato Robotics, Inc. | Robotic virtual boundaries |
CN109744945B (zh) * | 2017-11-08 | 2020-12-04 | 杭州萤石网络有限公司 | 一种区域属性确定方法、装置、系统及电子设备 |
CN107997690B (zh) * | 2017-12-04 | 2020-02-07 | 深圳市无限动力发展有限公司 | 室内区域划分方法及扫地机器人 |
CN110450152A (zh) * | 2019-06-24 | 2019-11-15 | 广东宝乐机器人股份有限公司 | 区域识别方法、机器人和存储介质 |
-
2019
- 2019-06-24 CN CN201910548570.7A patent/CN110450152A/zh active Pending
-
2020
- 2020-06-09 WO PCT/CN2020/095049 patent/WO2020259274A1/zh active Application Filing
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103220955A (zh) * | 2010-09-20 | 2013-07-24 | 玛纽尔公司 | 清洁机器人系统及其控制方法 |
DE102011052112A1 (de) * | 2011-04-11 | 2012-10-11 | Micro-Star Int'l Co., Ltd. | Reinigungssystem |
CN104062973A (zh) * | 2014-06-23 | 2014-09-24 | 西北工业大学 | 一种基于图像标志物识别的移动机器人slam方法 |
CN107592921A (zh) * | 2015-02-05 | 2018-01-16 | 格雷奥朗佩特有限公司 | 用于导航控制的设备和方法 |
CN106037591A (zh) * | 2015-04-09 | 2016-10-26 | 美国iRobot公司 | 限制移动机器人的运动 |
CN106155049A (zh) * | 2015-04-15 | 2016-11-23 | 小米科技有限责任公司 | 智能清洁设备及其引导方法、引导桩、智能清洁系统 |
CN107981790A (zh) * | 2017-12-04 | 2018-05-04 | 深圳市沃特沃德股份有限公司 | 室内区域划分方法及扫地机器人 |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020259274A1 (zh) * | 2019-06-24 | 2020-12-30 | 广东宝乐机器人股份有限公司 | 区域识别方法、机器人和存储介质 |
CN113128545A (zh) * | 2020-01-16 | 2021-07-16 | 科沃斯机器人股份有限公司 | 机器人采集样本的方法以及其装置 |
CN113128545B (zh) * | 2020-01-16 | 2023-08-29 | 科沃斯机器人股份有限公司 | 机器人采集样本的方法以及其装置 |
CN111198549B (zh) * | 2020-02-18 | 2020-11-06 | 湖南伟业动物营养集团股份有限公司 | 一种基于大数据的家禽养殖监测管理系统 |
CN111198549A (zh) * | 2020-02-18 | 2020-05-26 | 陈文翔 | 一种基于大数据的家禽养殖监测管理系统 |
WO2021174851A1 (zh) * | 2020-03-05 | 2021-09-10 | 美智纵横科技有限责任公司 | 状态控制方法、扫地机器人及计算机存储介质 |
CN111399502A (zh) * | 2020-03-09 | 2020-07-10 | 惠州拓邦电气技术有限公司 | 移动机器人的建图方法、装置及移动机器人 |
CN111374614A (zh) * | 2020-03-19 | 2020-07-07 | 北京小米移动软件有限公司 | 清洁设备的控制方法、装置及存储介质 |
CN111523334A (zh) * | 2020-04-09 | 2020-08-11 | 江苏美的清洁电器股份有限公司 | 虚拟禁区的设置方法、装置、终端设备、标签和存储介质 |
CN111523334B (zh) * | 2020-04-09 | 2023-09-19 | 美智纵横科技有限责任公司 | 虚拟禁区的设置方法、装置、终端设备、标签和存储介质 |
CN111539398A (zh) * | 2020-07-13 | 2020-08-14 | 追创科技(苏州)有限公司 | 自移动设备的控制方法、装置及存储介质 |
CN112171659A (zh) * | 2020-08-17 | 2021-01-05 | 深圳市优必选科技股份有限公司 | 一种机器人及其限制区域识别方法和装置 |
CN112363516A (zh) * | 2020-10-26 | 2021-02-12 | 深圳优地科技有限公司 | 虚拟墙生成方法、装置、机器人及存储介质 |
CN113183141A (zh) * | 2021-06-09 | 2021-07-30 | 乐聚(深圳)机器人技术有限公司 | 双足机器人的行走控制方法、装置、设备及存储介质 |
CN114339593A (zh) * | 2021-12-21 | 2022-04-12 | 美智纵横科技有限责任公司 | 可移动设备及其控制方法、控制装置、可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2020259274A1 (zh) | 2020-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110450152A (zh) | 区域识别方法、机器人和存储介质 | |
CN108839016B (zh) | 机器人巡检方法、存储介质、计算机设备及巡检机器人 | |
CN107341442B (zh) | 运动控制方法、装置、计算机设备和服务机器人 | |
CN109520510A (zh) | 一种基于虚拟现实技术的室内导航方法及系统 | |
CN111126304A (zh) | 一种基于室内自然场景图像深度学习的增强现实导航方法 | |
CN110163903A (zh) | 三维图像的获取及图像定位方法、装置、设备和存储介质 | |
CN109712428A (zh) | 一种停车位置定位方法及装置、系统 | |
CN110737798B (zh) | 室内巡检方法及相关产品 | |
CN112462780A (zh) | 扫地控制方法、装置、扫地机器人及计算机可读存储介质 | |
CN110146098A (zh) | 一种机器人地图扩建方法、装置、控制设备和存储介质 | |
CN110032982A (zh) | 机器人引路方法、装置、机器人和存储介质 | |
CN112015187B (zh) | 一种用于智能移动机器人的语义地图构建方法及系统 | |
CN105701458A (zh) | 基于车载设备获取图像识别车辆外部信息的方法及系统 | |
CN110246235A (zh) | 一种基于Hololens混合现实技术的配电房现场巡检方法及系统 | |
CN111679664A (zh) | 基于深度相机的三维地图构建方法及扫地机器人 | |
CN111061270A (zh) | 一种全面覆盖方法、系统及作业机器人 | |
CN113469000A (zh) | 区域地图的处理方法及装置、存储介质及电子装置 | |
CN111523334A (zh) | 虚拟禁区的设置方法、装置、终端设备、标签和存储介质 | |
CN112489084B (zh) | 一种基于人脸识别的轨迹跟踪系统及方法 | |
CN109839921B (zh) | 视觉定位导航方法、装置以及终端 | |
CN112558611B (zh) | 一种路径规划方法、装置、计算机设备及存储介质 | |
CN112689234A (zh) | 室内车辆定位方法、装置、计算机设备和存储介质 | |
CN113031588B (zh) | 商场机器人导航系统 | |
Burschka et al. | Vision based model generation for indoor environments | |
CN114271737B (zh) | 一种迎宾式扫地机的控制方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220512 Address after: 510000 No. 30, haogang Avenue, Dagang Town, Nansha District, Guangzhou City, Guangdong Province Applicant after: GUANGZHOU COAYU ROBOT Co.,Ltd. Address before: 518000 2nd and 3rd floors, block D, No. 438, Donghuan Road, Shajing street, Bao'an District, Shenzhen City, Guangdong Province Applicant before: GUANGDONG BONA ROBOT Corp.,Ltd. |
|
TA01 | Transfer of patent application right | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191115 |
|
RJ01 | Rejection of invention patent application after publication |