CN112927278A - 控制方法、装置、机器人及计算机可读存储介质 - Google Patents

控制方法、装置、机器人及计算机可读存储介质 Download PDF

Info

Publication number
CN112927278A
CN112927278A CN202110141605.2A CN202110141605A CN112927278A CN 112927278 A CN112927278 A CN 112927278A CN 202110141605 A CN202110141605 A CN 202110141605A CN 112927278 A CN112927278 A CN 112927278A
Authority
CN
China
Prior art keywords
information
robot
dimensional
dimensional contour
label
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110141605.2A
Other languages
English (en)
Inventor
杨勇
吴泽晓
黄杰文
张康健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen 3irobotix Co Ltd
Original Assignee
Shenzhen 3irobotix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen 3irobotix Co Ltd filed Critical Shenzhen 3irobotix Co Ltd
Priority to CN202110141605.2A priority Critical patent/CN112927278A/zh
Publication of CN112927278A publication Critical patent/CN112927278A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Abstract

本申请适用于机器人控制技术领域,提供了控制方法、装置、机器人及计算机可读存储介质,包括:确定RGB相机获得的图像中的二维坐标的信息,二维坐标的信息包括二维轮廓信息和标签信息;确定深度相机获得的深度图像中的三维坐标的信息,三维坐标的信息包括三维轮廓信息和第一位置信息,第一位置信息为:三维坐标对应的实际场景的坐标与深度相机的相对位置信息;基于机器人在全局地图的全局位置信息、RGB相机与机器人的相对位置信息,以及,深度相机与机器人的相对位置信息,对二维坐标与三维坐标进行对齐;根据对齐结果对机器人进行相应的控制。通过上述方法,能够提高对机器人的精确控制。

Description

控制方法、装置、机器人及计算机可读存储介质
技术领域
本申请属于机器人控制技术领域,尤其涉及控制方法、装置、机器人及计算机可读存储介质。
背景技术
对机器人的控制包括对机器人避障的控制,避障是机器人(如执行清扫功能的机器人)的重要性能指标,也直接决定用户的产品体验感。当今机器人的避障方案大致分为2个方向,一个方向是具有三维物体位置信息,另一个方向是不具有三维物体位置信息。其中,三维物体位置信息的获取方式包括:通过3D时间飞行法(Time of Flight,ToF)获取,该方法中,由于摄像头的分辨率低,因此得到的图像信息不易辅助避障。而不具有三维物体位置信息的避障方案通常采用激光雷达避障,但由于无法完全感知到物体的三维物体位置信息,因此导致对物体的定位不够准确,进而影响对机器人控制的准确性。
综上可知,现有的控制方法仍存在控制不准确的情况,故需要提供一种新的方法以解决对机器人的控制的准确性较低的技术问题。
发明内容
本申请实施例提供了控制方法,可以提高对机器人的精确控制。
第一方面,本申请实施例提供了一种控制方法,应用于机器人,所述机器人包括RGB相机和深度相机,所述控制方法包括:
确定所述RGB相机获得的图像中的二维坐标的信息,所述二维坐标的信息包括二维轮廓信息和标签信息,所述标签信息用于指示所述二维轮廓信息是否具有标签,以及,用于指示所述二维轮廓信息在具有标签时,所述二维轮廓信息对应的标签;
确定所述深度相机获得的深度图像中的三维坐标的信息,所述三维坐标的信息包括三维轮廓信息和第一位置信息,所述第一位置信息为:所述三维坐标对应的实际场景的坐标与所述深度相机的相对位置信息;
基于所述机器人在全局地图的全局位置信息、所述RGB相机与所述机器人的相对位置信息,以及,所述深度相机与所述机器人的相对位置信息,对所述二维坐标与所述三维坐标进行对齐;
根据对齐结果对所述机器人进行相应的控制。
第二方面,本申请实施例提供了一种控制装置,应用于机器人,所述机器人包括RGB相机和深度相机,所述控制装置包括:
二维坐标的信息确定单元,用于确定所述RGB相机获得的图像中的二维坐标的信息,所述二维坐标的信息包括二维轮廓信息和标签信息,所述标签信息用于指示所述二维轮廓信息是否具有标签,以及,用于指示所述二维轮廓信息在具有标签时,所述二维轮廓信息对应的标签;
三维坐标的信息确定单元,用于确定所述深度相机获得的深度图像中的三维坐标的信息,所述三维坐标的信息包括三维轮廓信息和第一位置信息,所述第一位置信息为:所述三维坐标对应的实际场景的坐标与所述深度相机的相对位置信息;
对齐单元,用于基于所述机器人在全局地图的全局位置信息、所述RGB相机与所述机器人的相对位置信息,以及,所述深度相机与所述机器人的相对位置信息,对所述二维坐标与所述三维坐标进行对齐;
机器人控制单元,用于根据对齐结果对所述机器人进行相应的控制。
第三方面,本申请实施例提供了一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如第一方面所述的方法。
第四方面,本申请实施例提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如第一方面所述的方法。
第五方面,本申请实施例提供了一种计算机程序产品,当计算机程序产品在机器人上运行时,使得机器人执行上述第一方面所述的方法。
本申请实施例与现有技术相比存在的有益效果是:
本申请实施例中,由于基于机器人在全局地图的全局位置信息、RGB相机与机器人的相对位置信息,以及,深度相机与机器人的相对位置信息,对二维坐标与三维坐标进行对齐,而二维坐标的信息包括二维轮廓信息和标签信息,且三维坐标的信息包括三维轮廓信息和第一位置信息,因此,使得得到的对齐结果除了包括三维轮廓信息,也包括二维轮廓信息对应的标签信息,也即,根据对齐结果对机器人进行相应的控制时,其所涉及的信息不仅包括三维轮廓信息,也包括二维轮廓信息对应的标签信息,多样的信息有利于提高对机器人的准确控制。
可以理解的是,上述第二方面至第五方面的有益效果可以参见上述第一方面中的相关描述,在此不再赘述。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍。
图1是本申请一实施例提供的第一种控制方法的流程示意图;
图2是本申请一实施例提供的RGB相机拍摄得到的图像的示意图;
图3是本申请一实施例提供的对图2的图像进行语义分割后得到的示意图;
图4是本申请一实施例提供的一种机器人、RGB相机与机器人的相对位置信息、以及,深度相机与机器人的相对位置信息的示意图分别在全局地图中的对应关系的示意图;
图5是本申请一实施例提供的第二种控制方法的流程示意图;
图6是本申请另一实施例提供的三种控制方法的流程示意图;
图7是本申请一实施例提供的一种控制装置的结构示意图;
图8是本申请一实施例提供的机器人的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。
现有的机器人的控制方法中,通过3D ToF的方式获取物体的三维位置信息,进而根据该物体的三维位置信息对机器人进行控制,或者,通过雷达等对物体检测后,再根据检测结果对机器人进行控制。但由于3D ToF对应的深度相机的分辨率较低,因此,其得到的三维位置信息的分辨率也较低,从而在根据较低分辨率的三维位置信息对机器人进行控制时,容易导致控制的准确性较低的问题,另外,由于雷达对物体检测后,只能得到二维信息,而二维信息难以实现对物体的准确定位,因此根据雷达的检测结果对机器人进行控制时,也容易导致控制的准确性较低的问题。为了解决该问题,本申请实施例提供了一种控制方法,在该控制方法中,通过对RGB相机获得的图像和深度相机获得的深度图像进行分析、对齐,进而根据对齐结果对机器人进行控制。由于结合了更多的信息对机器人进行控制,因此,提高了对机器人的控制的准确性。
下面结合附图对本申请实施例提供的控制方法进行描述。
图1示出了本申请实施例提供的第一种控制方法的流程图,该控制方法应用于机器人,该机器人包括红绿蓝(Red Green Blue,RGB)相机和深度相机,详述如下:
步骤S11,确定RGB相机获得的图像中的二维坐标的信息,二维坐标的信息包括二维轮廓信息和标签信息,标签信息用于指示二维轮廓信息是否具有标签,以及,用于指示二维轮廓信息在具有标签时,二维轮廓信息对应的标签。
在一些实施例中,通过语义分割模型对RGB相机获得的二维的图像进行语义分割,得到该RGB相机获得的图像中的二维轮廓信息和标签信息。
在一些实施例中,上述的语义分割模型的网络结构可以使用全卷积神经网络(Fully convolutional networks,FCN)、论文“一种用于图像分割的深度卷积编码-解码架构(A Deep Convolutional Encoder-Decoder Architecture for ImageSegmentation,Segnet)”中提到的网络结构Segnet、论文“应用在医学图像分割的卷积神经网络(U-Net:Conolutional Networks for Biomedical Image Segmentation)”提到的网络结构U-Net等。
通过该语义分割模型能够对图像进行像素级别端到端(end-to-end)的语义分割。为了提高对图像进行语义分割后所得到的分割结果的准确性,可采用以下方式对语义分割模型进行优化:采用多样性的图像数据作为训练样本,保证语义分割模型中的残差网络具有一定的复杂性。进一步地,该语义分割模型还包括空洞卷积网络,在增加空洞卷积网络后,不仅增加了感受野,而且也不会丢失分辨率,这里,在分割任务中,较大的感受野可以检测、分割大目标,另一方面,较高的分辨率可以精确定位目标。
如图2和图3所示,假设图2是对RGB相机获得的图像进行灰度化后得到的图像,则通过语义分割模型对图2进行语义分割后,得到如图3所示的图像,即通过语义分割后,能够得到地面上电线、袜子、背景的二维轮廓信息。若语义分割模型的训练样本包括“电线”这类的训练样本,则该语义分割模型针对“电线”的语义分割结果,除了包括该“电线”的二维轮廓信息,其对应的标签信息中还包括该二维轮廓信息对应的标签“电线”。但若语义分割模型的训练样本没有包括“电线”这类的训练样本,则该语义分割模型不能识别出“电线”的二维轮廓信息所对应的类别是“电线”,也即,得到的标签信息中的标签为空。当然,若图像中分割出多个物体,则每个物体均对应一个标签信息。由于基于语义分割模型对图像进行分割后,该语义分割模型能够反馈物体的二维轮廓信息,也即,可以完全提取当前障碍物的一个轮廓信息,因此提高了机器人的控制准确率,比如,提高了机器人的避障效率和清扫覆盖率。
在步骤S11之前,机器人通过即时定位与地图构建(simultaneous localizationand mapping,SLAM)技术在指定区域(如待清洁区域)构建相应的全局地图,该全局地图为平面地图。具体地,机器人可以调用传感器模块(如激光、RGB相机和/或深度相机等),通过RGB相机捕获现实场景图像后实现全局地图的构建,即通过RGB相机捕获视频数据,进而对该视频数据中的每一帧数据(即图像)进行后处理实现全局地图的构建。
步骤S12,确定深度相机获得的深度图像中的三维坐标的信息,三维坐标的信息包括三维轮廓信息和第一位置信息,第一位置信息为:三维坐标对应的实际场景的坐标与深度相机的相对位置信息。
其中,深度相机是指能够获取物体的深度信息的相机(或摄像头),其可以是结构光、3D ToF或者由双目摄像头所组成的相机。以3D TOF为例,3D TOF相机发射红外或近红外光,通过测量反射回图像传感器的光相位差可以计算该3D TOF相机到场景中每个点的距离,形成深度图像。从该深度图像中可以确定出三维轮廓信息和场景中每个点与深度相机的距离)。
步骤S13,基于机器人在全局地图的全局位置信息、RGB相机与机器人的相对位置信息,以及,深度相机与机器人的相对位置信息,对二维坐标与三维坐标进行对齐。
图4示出了机器人、RGB相机与机器人的相对位置信息、以及,深度相机与机器人的相对位置信息的示意图分别在全局地图中的一种对应关系。当然,在实际情况中,RGB相机与深度相机在机器人上的位置也可以互换,此处不作限定。
本实施例中,由于RGB相机与深度相机都与机器人存在对应的相对位置信息,因此,RGB相机获得的图像中的二维坐标能与深度相机获得的深度图像中的三维坐标进行对齐,即能够对二维轮廓信息与三维轮廓信息进行对齐,且在对齐后能够得到二维轮廓信息(或二维坐标)在全局地图上的位置信息。
在一些实施例中,为了提高对二维坐标与三维坐标进行对齐的效率,则设置RGB相机和深度相机均安装在机器人的同一水平线上,以尽量保证RGB相机和深度相机所拍摄的实际场景相同。当然,若RGB的分辨率高于深度相机的分辨率,则该RGB相机所拍摄的实际场景将大于深度相机所拍摄的实际场景,即二维坐标的数量大于三维坐标的数量,也即存在不能与三维坐标对齐的二维坐标。
在一些实施例中,为了得到更大的视野,设置上述RGB相机为广角的RGB相机。
步骤S14,根据对齐结果对机器人进行相应的控制。
其中,这里的控制包括避障控制和/或清扫控制。
本实施例中,当根据对齐结果判断出需要对机器人进行避障控制时,则对机器人发出绕行指令,以控制机器人绕过某个区域;当根据对齐结果判断出需要对机器人进行清扫控制时,则对机器人发出清扫指令,以控制机器人清扫某个区域。当然,上述的绕行指令和清扫指令仅为一个示例,在实际情况中,还可发出其他类型的指令,此处不作限定。
本申请实施例中,由于基于机器人在全局地图的全局位置信息、RGB相机与机器人的相对位置信息,以及,深度相机与机器人的相对位置信息,对二维坐标与三维坐标进行对齐,而二维坐标的信息包括二维轮廓信息和标签信息,且三维坐标的信息包括三维轮廓信息和第一位置信息,因此,使得得到的对齐结果除了包括三维轮廓信息,也包括二维轮廓信息对应的标签信息,也即,根据对齐结果对机器人进行相应的控制时,其所涉及的信息不仅包括三维轮廓信息,也包括二维轮廓信息对应的标签信息,多样的信息有利于提高对机器人的准确控制。
图5示出了本申请实施例提供的第二种控制方法的流程图,在本实施例中,步骤S54和步骤S55为对上述步骤S14的进一步的描述,步骤S51~步骤S53与上述步骤S11~步骤S13相同,此处不再赘述。
步骤S51,确定RGB相机获得的图像中的二维坐标的信息,二维坐标的信息包括二维轮廓信息和标签信息,标签信息用于指示二维轮廓信息是否具有标签,以及,用于指示二维轮廓信息在具有标签时,二维轮廓信息对应的标签对RGB相机获得的图像进行语义分割,得到图像中的物体的二维轮廓信息。
步骤S52,确定深度相机获得的深度图像中的三维坐标的信息,三维坐标的信息包括三维轮廓信息和第一位置信息,第一位置信息为:三维坐标对应的实际场景的坐标与深度相机的相对位置信息根据二维轮廓信息和深度相机获得的深度信息,得到物体的三维轮廓信息以及位置信息。
步骤S53,基于机器人在全局地图的全局位置信息、RGB相机与机器人的相对位置信息,以及,深度相机与机器人的相对位置信息,对二维坐标与三维坐标进行对齐。
步骤S54,若对齐结果指示存在与二维轮廓信息匹配的三维轮廓信息,且匹配成功的二维轮廓信息对应的标签信息指示匹配成功的二维轮廓信息存在标签,则根据标签确定对应的策略,得到第一策略,第一策略包括预设的避障策略和/或预设的清扫策略。
其中,预设的避障策略是指控制机器人躲避物体的策略,该避障策略包括绕行物体或跨越物体等信息。
其中,预设的清扫策略是指控制人打扫物体的策略,该清扫策略包括打扫次数和/或打扫工具等信息。
在一些实施例中,在得到匹配成功的二维轮廓信息和三维轮廓信息后,若该二维轮廓信息存在对应的标签,则该标签也为该三维轮廓信息对应的标签,此时,为了提高用户的交互体验,根据匹配成功的二维坐标在全局地图的位置信息在全局地图上显示标签。
本实施例中,由于在全局地图上显示物体的标签,因此,有利于用户直观获知机器人得到的物体的标签,进而选择是否向该机器人发出其他指令,从而有利于机器人更好地执行任务,比如,能够更好地控制机器人进行避障或清扫等。
步骤S55,根据第一策略控制机器人对第二位置信息的区域执行相应的动作,其中,第二位置信息为匹配成功的二维轮廓信息在全局地图的全局位置信息。
本申请实施例中,由于第一策略与标签有关,而标签有利于机器人更准确地判断出该物体是障碍物还是需要清理的垃圾,因此能够提高对机器人的控制的准确性。例如,若物体的三维轮廓信息指示该物体的尺寸较大,但该物体的标签指示该物体为垃圾(如废纸),则确定的第一策略为清扫策略,之后机器人将对该物体执行清扫动作。例如,若机器人为清洁机器人,且标签指示二维轮廓信息的物体为“电线”时,则确定的第一策略为避障策略,这样,清洁机器人将预留最大的清扫距离来躲避位于第二位置信息的电线,从而防止电线卷入清洁机器人的清扫刷子。通过这样设置,有利于实现对机器人的准确控制。
在一些实施例中,根据标签、第二位置信息、三维轮廓信息确定第一策略,即在第一策略中存储不同标签、不同第二位置信息以及不同三维轮廓信息与控制指令的对应关系,这里的控制指令包括动作信息和/或时长信息。需要指出的是,当第一策略存储的任一项参数不同时,其对应的控制指令(动作信息和/或时长信息)通常不同。例如,若一个垃圾在插座附近,考虑到机器人打扫过程中可能会误触插座,则其对应的控制指令中的时长信息为1分钟,而若该垃圾周围无电器等设备,则其对应的控制指令中的时长信息为5分钟。通过这样设置,能够进一步提高对机器人的准确控制。上述例子中,虽然两个控制指令的动作信息都为打扫信息,但由于打扫时长不同,故这两个控制指令也为不同的控制指令:
在一些实施例中,可根据不同物体的标签确定该物体所在的场景,此时,控制方法还包括:
根据二维轮廓信息的标签以及与二维轮廓信息相邻的二维轮廓信息的标签,确定二维轮廓信息所在的场景。
其中,若两个二维轮廓信息之间的距离小于预设距离阈值,则判定这两个二维轮廓信息为相邻的二维轮廓信息。本实施例中,考虑到实际情况中,不同场景所包含的物体通常是不同的,例如,“卧室”场景通常不会包含“厨具”,“客厅”场景不会包括“马桶”等等。故,通过结合二维轮廓信息以及与该二维轮廓信息相邻的二维轮廓信息的标签一起进行场景识别,能够提高得到的场景的准确性。
对应地,步骤S54在根据标签确定对应的策略,得到第一策略,具体包括:
根据标签以及二维轮廓信息所在的场景确定对应的策略,得到第一策略。
例如,若机器人为清扫机器人,物体所在的场景为浴室场景,该物体的标签为“垃圾”,考虑到浴室通常有水,为了保护清扫机器人,则确定的第一策略为躲避策略,即不对浴室的垃圾进行清扫。或者,询问用户是否需要打扫等等。例如,考虑到客厅通常比卧室脏一些,则确定客厅对应的策略的清扫次数为3次,而卧室对应的策略的清扫次数是1次,或者,客厅对应的策略中指定结合拖布进行清扫等。本实施例中,由于结合物体对应的场景以及物体的标签确定第一策略,因此,能够提高对机器人的控制的准确性。
在一些实施例中,通过预先训练的场景识别模型对RGB相机获得的图像进行识别得到该图像中物体所在的场景,该预先训练的场景模型为深度卷积神经网络。该场景模型可通过以下方式训练:获取不同场景对应的图像,通过人工对该图像进行场景标记,再将进行场景标识后的图像输入待训练的场景识别模型中,得到该待训练的场景识别模型输出的场景识别结果,将该场景识别结果与人工进行场景标记得到的标记结果比较,若符合要求,则停止对场景识别模型的训练,否则,对场景识别模型的参数进行调整后,再继续对参数调整后的场景识别模型进行训练。
在一些实施例中,在得到物体所在的场景后,根据物体所在的场景、物体的标签、该物体在全局地图的位置信息以及构建的全局地图,生成具有分区信息的全局地图。
这里的分区信息与场景有关,比如,若场景包含“客厅”、“卧室1”、“卧室2”等信息,则生成的全局地图也包含“客厅”、“卧室1”、“卧室2”等的分区信息。本实施例中,考虑到SLAM虽然能够构建地图,但无法识别具体的房间类型,在分区方面也无法准确定位门的位置,而结合语义分割模型输出的标签以及物体在全部地图的位置便可精确定位识别门的位置,然后再结合物体所在的场景实现对构建的全局地图的分区,如实现对卧室、客厅、走廊、洗手间等的分区。由于生成具有分区信息的全局地图,因此,使得构建的全局地图更准确。
在一些实施例中,当RGB相机的分辨率高于深度相机的分辨率,或者,RGB相机为广角的RGB相机时,从RGB相机获得的图像中所确定的二维轮廓信息中通常存在不能与从深度图像中确定的三维轮廓信息匹配的二维轮廓信息,此时,从步骤S14,包括:
若对齐结果指示不存在与二维轮廓信息匹配的三维轮廓信息,且匹配失败的二维轮廓信息对应的标签信息指示匹配失败的二维轮廓信息存在标签,则控制机器人避开第三位置信息的区域,其中,第三位置信息为匹配失败的二维轮廓信息在全局地图的预估的全局位置信息。
本实施例中,考虑到深度相机在实际使用中,通常会设置参数来过滤地面几毫米以下返回的物体信息(否则,会因为地面一些杂点反射回来而导致传感器一直捕获到前方有障碍物,进而导致机器人无法前进)而过滤物体信息的过程中很可能会过滤掉黑色或高反光物体对应的物体信息,因此,若仅依据深度相机的深度信息难以检测出黑色或高反光物体,比如,难以检测出地面上的电线等。但又考虑到一个二维轮廓信息没有匹配的三维轮廓信息时,机器人不能准确确定该二维轮廓信息在全局地图上的位置,因此,为了避免机器人发生意外情况,则根据二维轮廓信息在RGB相机获得的图像中的位置、RGB相机与机器人的相对位置以及机器人在全局地图的全局位置信息等预估该二维轮廓信息在全局地图的位置,得到第三位置信息,最后控制机器人避开该第三位置信息的区域。或者,根据二维轮廓信息在RGB相机获得的图像中的位置、该二维轮廓信息的标签、RGB相机与机器人的相对位置以及机器人在全局地图的全局位置信息等预估该二维轮廓信息在全局地图的位置,得到第三位置信息,最后控制机器人避开该第三位置信息的区域。例如,假设标签1为“饮料瓶”,标签2为“笔”,标签1对应的二维轮廓信息为二维轮廓信息1,标签2对应的二维轮廓信息为二维轮廓信息2,二维轮廓信息1和二维轮廓信息2均在图像的左上方,但对二维轮廓信息1预估的第三位置信息所对应的区域将大于对二维轮廓信息2预估的第三位置信息所对应的区域。
在一些实施例中,在全局地图上显示物体的标签。
在一些实施例中,步骤S14,包括:
A1、若对齐结果指示存在与二维轮廓信息匹配的三维轮廓信息,且匹配成功的二维轮廓信息对应的标签信息指示匹配成功的二维轮廓信息不存在标签,则根据匹配成功的三维轮廓信息确定对应的策略,得到第二策略,第二策略包括预设的避障策略和/或预设的清扫策略,且第二策略与第一策略不同。
A2、根据第二策略控制机器人对第四位置信息的区域执行相应的动作,其中,第四位置信息为匹配成功的二维轮廓信息在全局地图的全局位置信息。
上述A1和A2中,当不能确定三维轮廓信息对应的标签时,根据三维轮廓信息确定对应的策略。例如,当三维轮廓信息指示物体较大时,第二策略为避障策略;比如,当三维轮廓信息指示物体为指定形状(如饮料瓶的形状),则第二策略为清扫策略。
为了进一步描述本申请实施例提供的控制方法,下面以机器人为清扫机器人为例进行说明。
参考图6,清扫机器人包括图像捕获模块,该图像捕获模块包括深度相机图像捕获模块(相当于深度相机)和RGB相机图像捕获模块(相当于RGB相机)。
深度相机执行深度测距功能,得到深度相机的当前视野范围内的三维轮廓信息以及位置信息(即第一位置信息)。
RGB相机的语义分割功能通过物体分割模块和场景识别模块体现,物体分割模块对RGB相机获得的图像进行物体分割后,得到像素级的物体的二维轮廓信息和该物体的标签信息。
物体的二维轮廓信息和物体的标签信息与三维轮廓信息以及第一位置信息进行对齐等处理后,得到:1)虚拟的感兴趣物体(即具有标签、二维轮廓信息、第一位置信息,但无三维轮廓信息的物体);2)非感兴趣物体(即没有标签,但有二维轮廓信息、三维轮廓信息以及第一位置信息);3)真实感兴趣物体(即由标签、二维轮廓信息、三维轮廓信息以及第一位置信息)。
物体的标签信息输入场景识别模块得到对应的场景信息,比如物体所在的场景的信息。
上述虚拟的感兴趣物体、非感兴趣物体、真实感兴趣物体以及场景信息通过综合处理,得到对应的策略,若得到的策略是避障策略,则控制清扫机器人执行相应的避障动作,若得到的策略是清扫策略,则控制机器人执行相应的清扫动作。在清扫完成后,在清扫机器人的显示屏上按分区或场景显示全局地图或者,在清扫机器人的显示屏上显示用户感兴趣的图标。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例的控制方法,图7示出了本申请实施例提供的控制装置的结构框图,该控制装置应用于机器人,机器人包括RGB相机和深度相机,为了便于说明,仅示出了与本申请实施例相关的部分。
该控制装置7包括:二维坐标的信息确定单元71、三维坐标的信息确定单元72、对齐单元73、机器人控制单元74。其中:
二维坐标的信息确定单元71,用于确定RGB相机获得的图像中的二维坐标的信息,二维坐标的信息包括二维轮廓信息和标签信息,标签信息用于指示二维轮廓信息是否具有标签,以及,用于指示二维轮廓信息在具有标签时,二维轮廓信息对应的标签。
在一些实施例中,通过语义分割模型对RGB相机获得的二维的图像进行语义分割,得到该RGB相机获得的图像中的二维轮廓信息和标签信息。
三维坐标的信息确定单元72,用于确定深度相机获得的深度图像中的三维坐标的信息,三维坐标的信息包括三维轮廓信息和第一位置信息,第一位置信息为:三维坐标对应的实际场景的坐标与深度相机的相对位置信息。
对齐单元73,用于基于机器人在全局地图的全局位置信息、RGB相机与机器人的相对位置信息,以及,深度相机与机器人的相对位置信息,对二维坐标与三维坐标进行对齐。
在一些实施例中,为了提高对二维坐标与三维坐标进行对齐的效率,则设置RGB相机和深度相机均安装在机器人的同一水平线上,以尽量保证RGB相机和深度相机所拍摄的实际场景相同。
在一些实施例中,为了得到更大的视野,设置上述RGB相机为广角的RGB相机。
机器人控制单元74,用于根据对齐结果对机器人进行相应的控制。
本申请实施例中,由于基于机器人在全局地图的全局位置信息、RGB相机与机器人的相对位置信息,以及,深度相机与机器人的相对位置信息,对二维坐标与三维坐标进行对齐,而二维坐标的信息包括二维轮廓信息和标签信息,且三维坐标的信息包括三维轮廓信息和第一位置信息,因此,使得得到的对齐结果除了包括三维轮廓信息,也包括二维轮廓信息对应的标签信息,也即,根据对齐结果对机器人进行相应的控制时,其所涉及的信息不仅包括三维轮廓信息,也包括二维轮廓信息对应的标签信息,多样的信息有利于提高对机器人的准确控制。
在一些实施例中,机器人控制单元74包括:
第一策略确定模块,用于若对齐结果指示存在与二维轮廓信息匹配的三维轮廓信息,且匹配成功的二维轮廓信息对应的标签信息指示匹配成功的二维轮廓信息存在标签,则根据标签确定对应的策略,得到第一策略,第一策略包括预设的避障策略和/或预设的清扫策略。
第一控制模块,用于根据第一策略控制机器人对第二位置信息的区域执行相应的动作,其中,第二位置信息为匹配成功的二维轮廓信息在全局地图的全局位置信息。
在一些实施例中,控制装置7还包括:
场景确定单元,用于根据二维轮廓信息的标签以及与二维轮廓信息相邻的二维轮廓信息的标签,确定二维轮廓信息所在的场景。
第一策略确定模块在根据标签确定对应的策略,得到第一策略时,具体用于:
根据标签以及二维轮廓信息所在的场景确定对应的策略,得到第一策略。
在一些实施例中,机器人控制单元74包括:
第二控制模块,用于若对齐结果指示不存在与二维轮廓信息匹配的三维轮廓信息,且匹配失败的二维轮廓信息对应的标签信息指示匹配失败的二维轮廓信息存在标签,则控制机器人避开第三位置信息的区域,其中,第三位置信息为匹配失败的二维轮廓信息在全局地图的预估的全局位置信息。
在一些实施例中,机器人控制单元74包括:
第二策略确定模块,用于若对齐结果指示存在与二维轮廓信息匹配的三维轮廓信息,且匹配成功的二维轮廓信息对应的标签信息指示匹配成功的二维轮廓信息不存在标签,则根据匹配成功的三维轮廓信息确定对应的策略,得到第二策略,第二策略包括预设的避障策略和/或预设的清扫策略,且第二策略与第一策略不同。
第三控制模块,用于根据第二策略控制机器人对第四位置信息的区域执行相应的动作,其中,第四位置信息为匹配成功的二维轮廓信息在全局地图的全局位置信息。
在一些实施例中,控制装置7还包括:
标签显示单元,用于在全局地图上显示标签。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
图8为本申请一实施例提供的机器人的结构示意图。如图8所示,该实施例的机器人8包括:至少一个处理器80(图8中仅示出一个处理器)、存储器81以及存储在所述存储器81中并可在所述至少一个处理器80上运行的计算机程序82,该机器人还包括RGB相机和深度相机。所述处理器80执行所述计算机程序82时实现上述任意各个方法实施例中的步骤:
确定所述RGB相机获得的图像中的二维坐标的信息,所述二维坐标的信息包括二维轮廓信息和标签信息,所述标签信息用于指示所述二维轮廓信息是否具有标签,以及,用于指示所述二维轮廓信息在具有标签时,所述二维轮廓信息对应的标签;
确定所述深度相机获得的深度图像中的三维坐标的信息,所述三维坐标的信息包括三维轮廓信息和第一位置信息,所述第一位置信息为:所述三维坐标对应的实际场景的坐标与所述深度相机的相对位置信息;
基于所述机器人在全局地图的全局位置信息、所述RGB相机与所述机器人的相对位置信息,以及,所述深度相机与所述机器人的相对位置信息,对所述二维坐标与所述三维坐标进行对齐;
根据对齐结果对所述机器人进行相应的控制。
可选地,所述根据对齐结果对所述机器人进行相应的控制,包括:
若所述对齐结果指示存在与所述二维轮廓信息匹配的三维轮廓信息,且匹配成功的二维轮廓信息对应的标签信息指示所述匹配成功的二维轮廓信息存在标签,则根据所述标签确定对应的策略,得到第一策略,所述第一策略包括预设的避障策略和/或预设的清扫策略;
根据所述第一策略控制所述机器人对第二位置信息的区域执行相应的动作,其中,所述第二位置信息为匹配成功的二维轮廓信息在所述全局地图的全局位置信息。
可选地,所述控制方法,还包括:
根据所述二维轮廓信息的标签以及与所述二维轮廓信息相邻的二维轮廓信息的标签,确定所述二维轮廓信息所在的场景;
所述根据所述标签确定对应的策略,得到第一策略,包括:
根据所述标签以及所述二维轮廓信息所在的场景确定对应的策略,得到第一策略。
可选地,所述根据对齐结果对所述机器人进行相应的控制,包括:
若所述对齐结果指示不存在与所述二维轮廓信息匹配的三维轮廓信息,且匹配失败的所述二维轮廓信息对应的标签信息指示所述匹配失败的二维轮廓信息存在标签,则控制所述机器人避开第三位置信息的区域,其中,所述第三位置信息为匹配失败的二维轮廓信息在所述全局地图的预估的全局位置信息。
可选地,所述根据对齐结果对所述机器人进行相应的控制,包括:
若所述对齐结果指示存在与所述二维轮廓信息匹配的三维轮廓信息,且匹配成功的二维轮廓信息对应的标签信息指示所述匹配成功的二维轮廓信息不存在标签,则根据匹配成功的三维轮廓信息确定对应的策略,得到第二策略,所述第二策略包括预设的避障策略和/或预设的清扫策略,且所述第二策略与所述第一策略不同;
根据所述第二策略控制所述机器人对第四位置信息的区域执行相应的动作,其中,所述第四位置信息为匹配成功的二维轮廓信息在所述全局地图的全局位置信息。
可选地,所述控制方法,还包括:
在所述全局地图上显示所述标签。
可选地,所述RGB相机为广角RGB相机。
所述机器人8可以是人形机器人或非人形的机器人(如一般的扫地机器人等)。该机器人可包括,但不仅限于,处理器80、存储器81。本领域技术人员可以理解,图8仅仅是机器人8的举例,并不构成对机器人8的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器80可以是中央处理单元(Central Processing Unit,CPU),该处理器80还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器81在一些实施例中可以是所述机器人8的内部存储单元,例如机器人8的硬盘或内存。所述存储器81在另一些实施例中也可以是所述机器人8的外部存储设备,例如所述机器人8上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器81还可以既包括所述机器人8的内部存储单元也包括外部存储设备。所述存储器81用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器81还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种网络设备,该网络设备包括:至少一个处理器、存储器以及存储在所述存储器中并可在所述至少一个处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意各个方法实施例中的步骤。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,当计算机程序产品在移动终端上运行时,使得移动终端执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/机器人的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种控制方法,其特征在于,应用于机器人,所述机器人包括RGB相机和深度相机,所述控制方法包括:
确定所述RGB相机获得的图像中的二维坐标的信息,所述二维坐标的信息包括二维轮廓信息和标签信息,所述标签信息用于指示所述二维轮廓信息是否具有标签,以及,用于指示所述二维轮廓信息在具有标签时,所述二维轮廓信息对应的标签;
确定所述深度相机获得的深度图像中的三维坐标的信息,所述三维坐标的信息包括三维轮廓信息和第一位置信息,所述第一位置信息为:所述三维坐标对应的实际场景的坐标与所述深度相机的相对位置信息;
基于所述机器人在全局地图的全局位置信息、所述RGB相机与所述机器人的相对位置信息,以及,所述深度相机与所述机器人的相对位置信息,对所述二维坐标与所述三维坐标进行对齐;
根据对齐结果对所述机器人进行相应的控制。
2.如权利要求1所述的控制方法,其特征在于,所述根据对齐结果对所述机器人进行相应的控制,包括:
若所述对齐结果指示存在与所述二维轮廓信息匹配的三维轮廓信息,且匹配成功的二维轮廓信息对应的标签信息指示所述匹配成功的二维轮廓信息存在标签,则根据所述标签确定对应的策略,得到第一策略,所述第一策略包括预设的避障策略和/或预设的清扫策略;
根据所述第一策略控制所述机器人对第二位置信息的区域执行相应的动作,其中,所述第二位置信息为匹配成功的二维轮廓信息在所述全局地图的全局位置信息。
3.如权利要求2所述的控制方法,其特征在于,所述控制方法,还包括:
根据所述二维轮廓信息的标签以及与所述二维轮廓信息相邻的二维轮廓信息的标签,确定所述二维轮廓信息所在的场景;
所述根据所述标签确定对应的策略,得到第一策略,包括:
根据所述标签以及所述二维轮廓信息所在的场景确定对应的策略,得到第一策略。
4.如权利要求1所述的控制方法,其特征在于,所述根据对齐结果对所述机器人进行相应的控制,包括:
若所述对齐结果指示不存在与所述二维轮廓信息匹配的三维轮廓信息,且匹配失败的所述二维轮廓信息对应的标签信息指示所述匹配失败的二维轮廓信息存在标签,则控制所述机器人避开第三位置信息的区域,其中,所述第三位置信息为匹配失败的二维轮廓信息在所述全局地图的预估的全局位置信息。
5.如权利要求1所述的控制方法,其特征在于,所述根据对齐结果对所述机器人进行相应的控制,包括:
若所述对齐结果指示存在与所述二维轮廓信息匹配的三维轮廓信息,且匹配成功的二维轮廓信息对应的标签信息指示所述匹配成功的二维轮廓信息不存在标签,则根据匹配成功的三维轮廓信息确定对应的策略,得到第二策略,所述第二策略包括预设的避障策略和/或预设的清扫策略,且所述第二策略与所述第一策略不同;
根据所述第二策略控制所述机器人对第四位置信息的区域执行相应的动作,其中,所述第四位置信息为匹配成功的二维轮廓信息在所述全局地图的全局位置信息。
6.如权利要求2至4任一项所述的控制方法,其特征在于,所述控制方法,还包括:
在所述全局地图上显示所述标签。
7.如权利要求2至4任一项所述的控制方法,其特征在于,所述RGB相机为广角RGB相机。
8.一种控制装置,其特征在于,应用于机器人,所述机器人包括RGB相机和深度相机,所述控制装置包括:
二维坐标的信息确定单元,用于确定所述RGB相机获得的图像中的二维坐标的信息,所述二维坐标的信息包括二维轮廓信息和标签信息,所述标签信息用于指示所述二维轮廓信息是否具有标签,以及,用于指示所述二维轮廓信息在具有标签时,所述二维轮廓信息对应的标签;
三维坐标的信息确定单元,用于确定所述深度相机获得的深度图像中的三维坐标的信息,所述三维坐标的信息包括三维轮廓信息和第一位置信息,所述第一位置信息为:所述三维坐标对应的实际场景的坐标与所述深度相机的相对位置信息;
对齐单元,用于基于所述机器人在全局地图的全局位置信息、所述RGB相机与所述机器人的相对位置信息,以及,所述深度相机与所述机器人的相对位置信息,对所述二维坐标与所述三维坐标进行对齐;
机器人控制单元,用于根据对齐结果对所述机器人进行相应的控制。
9.一种机器人,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的方法。
CN202110141605.2A 2021-02-02 2021-02-02 控制方法、装置、机器人及计算机可读存储介质 Pending CN112927278A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110141605.2A CN112927278A (zh) 2021-02-02 2021-02-02 控制方法、装置、机器人及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110141605.2A CN112927278A (zh) 2021-02-02 2021-02-02 控制方法、装置、机器人及计算机可读存储介质

Publications (1)

Publication Number Publication Date
CN112927278A true CN112927278A (zh) 2021-06-08

Family

ID=76169507

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110141605.2A Pending CN112927278A (zh) 2021-02-02 2021-02-02 控制方法、装置、机器人及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN112927278A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2624527A (en) * 2022-10-05 2024-05-22 Thanh Vuong System and method of semantic segmentation for a cleaning device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140033868A (ko) * 2012-09-11 2014-03-19 한국과학기술원 증강현실 응용을 위한 환경 모델링 방법 및 장치
US20180211399A1 (en) * 2017-01-26 2018-07-26 Samsung Electronics Co., Ltd. Modeling method and apparatus using three-dimensional (3d) point cloud
CN109636905A (zh) * 2018-12-07 2019-04-16 东北大学 基于深度卷积神经网络的环境语义建图方法
CN110298873A (zh) * 2019-07-05 2019-10-01 青岛中科智保科技有限公司 三维地图的构建方法、构建装置、机器人及可读存储介质
CN111476894A (zh) * 2020-05-14 2020-07-31 小狗电器互联网科技(北京)股份有限公司 三维语义地图构建方法、装置、存储介质及电子设备
CN111815754A (zh) * 2019-04-12 2020-10-23 Oppo广东移动通信有限公司 一种三维信息确定方法、三维信息确定装置及终端设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140033868A (ko) * 2012-09-11 2014-03-19 한국과학기술원 증강현실 응용을 위한 환경 모델링 방법 및 장치
US20180211399A1 (en) * 2017-01-26 2018-07-26 Samsung Electronics Co., Ltd. Modeling method and apparatus using three-dimensional (3d) point cloud
CN109636905A (zh) * 2018-12-07 2019-04-16 东北大学 基于深度卷积神经网络的环境语义建图方法
CN111815754A (zh) * 2019-04-12 2020-10-23 Oppo广东移动通信有限公司 一种三维信息确定方法、三维信息确定装置及终端设备
CN110298873A (zh) * 2019-07-05 2019-10-01 青岛中科智保科技有限公司 三维地图的构建方法、构建装置、机器人及可读存储介质
CN111476894A (zh) * 2020-05-14 2020-07-31 小狗电器互联网科技(北京)股份有限公司 三维语义地图构建方法、装置、存储介质及电子设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2624527A (en) * 2022-10-05 2024-05-22 Thanh Vuong System and method of semantic segmentation for a cleaning device

Similar Documents

Publication Publication Date Title
CN108845574B (zh) 目标识别与追踪方法、装置、设备及介质
US10366310B2 (en) Enhanced camera object detection for automated vehicles
JP6710426B2 (ja) 障害物検出方法及び装置
CN110587597B (zh) 一种基于激光雷达的slam闭环检测方法及检测系统
CN110442120B (zh) 控制机器人在不同场景下移动的方法、机器人及终端设备
CN111609852A (zh) 语义地图构建方法、扫地机器人及电子设备
CN111178138B (zh) 基于激光点云和双目视觉的配网导线作业点检测方法及装置
CN115381335B (zh) 一种扫地机器人的路径控制方法、装置、设备及存储介质
CN111679664A (zh) 基于深度相机的三维地图构建方法及扫地机器人
CN110673607B (zh) 动态场景下的特征点提取方法、装置、及终端设备
CN112927278A (zh) 控制方法、装置、机器人及计算机可读存储介质
CN111726591A (zh) 地图更新方法、装置、存储介质及电子设备
CN112748721A (zh) 视觉机器人及其清洁控制方法、系统和芯片
KR101333459B1 (ko) 차선 인식 방법 및 장치
CN111830966A (zh) 角落识别和清扫方法、装置及存储介质
CN113064409A (zh) 一种动态分区方法、系统及清洁设备
CN114967698A (zh) 清扫方法、装置、电子设备及存储介质
CN109146973A (zh) 机器人场地特征识别和定位方法、装置、设备和存储介质
CN114489058A (zh) 扫地机器人及其路径规划方法、装置和存储介质
CN114564018A (zh) 控制方法、控制装置、终端设备及计算机可读存储介质
CN112528959A (zh) 用于清洁机器人的障碍物识别方法
CN116700228A (zh) 机器人路径规划方法、电子设备及可读存储介质
CN113516715A (zh) 目标区域录入方法、装置、存储介质、芯片及机器人
Garibotto et al. 3D scene analysis by real-time stereovision
CN117908526A (zh) 移动体的控制方法和装置、存储介质及电子装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination