CN112711250B - 一种自行走设备移动控制方法与自行走设备 - Google Patents

一种自行走设备移动控制方法与自行走设备 Download PDF

Info

Publication number
CN112711250B
CN112711250B CN201911020875.7A CN201911020875A CN112711250B CN 112711250 B CN112711250 B CN 112711250B CN 201911020875 A CN201911020875 A CN 201911020875A CN 112711250 B CN112711250 B CN 112711250B
Authority
CN
China
Prior art keywords
point cloud
self
type
movement control
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911020875.7A
Other languages
English (en)
Other versions
CN112711250A (zh
Inventor
黄亚丁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ecovacs Robotics Suzhou Co Ltd
Original Assignee
Ecovacs Robotics Suzhou Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ecovacs Robotics Suzhou Co Ltd filed Critical Ecovacs Robotics Suzhou Co Ltd
Priority to CN201911020875.7A priority Critical patent/CN112711250B/zh
Publication of CN112711250A publication Critical patent/CN112711250A/zh
Application granted granted Critical
Publication of CN112711250B publication Critical patent/CN112711250B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/24Floor-sweeping machines, motor-driven
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47LDOMESTIC WASHING OR CLEANING; SUCTION CLEANERS IN GENERAL
    • A47L11/00Machines for cleaning floors, carpets, furniture, walls, or wall coverings
    • A47L11/40Parts or details of machines not provided for in groups A47L11/02 - A47L11/38, or not restricted to one of these groups, e.g. handles, arrangements of switches, skirts, buffers, levers
    • A47L11/4011Regulation of the cleaning machine by electric means; Control systems and remote control systems therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows

Abstract

本申请提供一种自行走设备移动控制方法与一种自行走设备,其中,所述自行走设备移动控制方法包括:获取待分析区域的可能物体的图像信息;将图像信息转换为点云;根据对点云的分析处理,确定待分析区域存在的物体的物体类型;根据物体类型,确定克服物体的移动控制策略。本申请的自行走设备移动控制方法,通过获取物体的图像信息,将图像信息转换为点云,并对点云进行分析处理;之后根据分析结果确定物体类型,根据物体类型,确定克服物体的移动控制策略。该方法针对不同类型的物体采取不同的克服物体的移动控制策略,因此,避免因处理工作场景中的各种各样的物体方式过于单一,造成清洁机器人或者物体易损坏的问题。

Description

一种自行走设备移动控制方法与自行走设备
技术领域
本申请涉及清洁设备领域,具体涉及一种自行走设备移动控制方法与自行走设备。
背景技术
近年来,随着科技的迅速发展与物质生活的极大丰富,清洁机器人越来越受到人们的青睐。
目前的清洁机器人,具体以扫地机器人为例,例如,在扫地机器人工作的家庭场景中,一般家庭地面上可能存在各种各样的物体,现有的扫地机器人仅能对前方的物体初步进行预判,并提前减速以防止大力碰撞物体。具体地,现有的扫地机器人主要采用如:红外传感器,碰撞传感器,线激光传感器等来检测物体。红外传感器和线激光传感器只能检测出扫地机器人前方是否有物体,若前方有物体则采用提前减速的方式以减少扫地机器人对物体的碰撞力度。碰撞传感器只能在扫地机器人碰到物体后才进行后退、转弯等动作来绕开物体。显然,如果扫地机器人碰撞到的是电线后,扫地机器人就很可能被电线卡死;再如,如果扫地机机器人碰撞到袜子后,扫地机器人将袜子吸入机器内导致扫地机器人无法正常工作,或者袜子将扫地机器人的边刷或者滚刷卡死,导致扫地机器人无法正常工作。总之,现有的扫地机器人对室内的各种各样的物体处理方式过于单一,造成扫地机器人或者物体易损坏。
发明内容
本申请提供一种自行走设备移动控制方法,用以解决现有的清洁机器人处理工作场景中的各种各样的物体方式过于单一,造成清洁机器人或者物体易损坏的问题。本申请同时提供一种自行走设备。
本申请提供一种自行走设备移动控制方法,包括:
获取待分析区域的物体的图像信息;
将所述图像信息转换为点云;
根据对所述点云的分析处理,确定待分析区域存在的物体的物体类型;
根据所述物体类型,确定克服所述物体的移动控制策略。
可选的,所述将所述图像信息转换为点云,包括:
根据所述图像信息获得所述物体相对于所述自行走设备的深度信息;
将所述深度信息转换为点云。
可选的,所述根据对所述点云的分析处理,获得待分析区域存在的物体的物体类型,包括:
根据预设特征对所述点云进行分割,获得一个或者多个点云块;
以每个点云块为分析对象,进行块内分析,确定该点云块对应的物体类型;针对各个点云块的上述分析的分解分析结果,即获得所述待分析区域存在的物体的物体类型。
可选的,在根据对所述点云的分析处理之前,还包括:对点云进行滤波处理。
可选的,所述预设特征包括以下特征中的至少一项或者多项:空间特征、几何特征、纹理特征。
可选的,所述以每个点云块为分析对象,进行块内分析,确定该点云块对应的物体类型,包括:
获取所述点云块的点云在水平方向上的宽度和竖直方向上的高度;
当所述宽度在预设宽度范围内且所述高度超过预设高度,则判断所述物体为第一类型物体;
当所述物体为第一类型物体时,所述移动控制策略包括:控制所述自行走设备减速并轻碰所述物体。
可选的,所述预设宽度范围为4cm-10cm,所述预设高度为20cm。
可选的,所述克服所述物体的移动控制策略,包括:
标记所述物体的实际位置;
根据所述物体的实际位置,在所述物体预设半径以外寻找目标点;
根据所述目标点,按照预设的导航算法规划避让所述物体的路径。
可选的,所述获取待分析区域的可能物体的图像信息,包括:利用深度传感器获取待分析区域的可能物体的图像信息。
本申请还提供一种自行走设备,包括:深度传感器与处理器;
所述深度传感器用于获取所述自行走设备周围环境的可能物体的图像信息;
所述处理器用于接收所述深度传感器传送的所述图像信息,并将将所述图像信息转换为点云;根据对所述点云的分析处理,确定所述自行走设备周围环境存在的物体的物体类型;并根据所述物体类型,确定所述自行走设备克服所述物体的移动控制策略。
与现有技术相比,本申请具有以下优点:
本申请提供一种自行走设备移动控制方法,包括:获取待分析区域的可能物体的图像信息;将所述图像信息转换为点云;根据对所述点云的分析处理,确定待分析区域存在的物体的物体类型;根据所述物体类型,确定克服所述物体的移动控制策略。本申请的自行走设备移动控制方法,通过获取物体的图像信息,将图像信息转换为点云,并对点云进行分析处理;之后根据分析结果确定物体类型,在获取物体类型后,根据物体类型,确定克服所述物体的移动控制策略。由于该方法针对不同类型的物体采取不同的克服物体的移动控制策略,因此,避免了现有的清洁机器人因处理工作场景中的各种各样的物体方式过于单一,造成清洁机器人或者物体易损坏的问题。
附图说明
图1为本申请第一实施例自行走设备移动控制方法的流程图;
图2为本申请第一实施例第二类型物体的点云示意图;
图3为本申请第一实施例第二类型物体的点云分析示意图;
图4为本申请第一实施例第四类型物体的第一示例点云示意图;
图5为本申请第一实施例第四类型物体的第二示例点云示意图;
图6为本申请第一实施例第四类型物体的第三示例点云示意图;
图7为本申请第一实施例第四类型物体的第一示例点云分析示意图;
图8为本申请第一实施例第四类型物体的第二示例点云分析示意图;
图9为本申请第一实施例第四类型物体的第三示例点云分析示意图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此,本申请不受下面公开的具体实施的限制。
本申请提供一种自行走设备移动控制方法与自行走设备,以下采用具体的实施例对本申请的一种自行走设备移动控制方法与自行走设备进行描述。需要说明的是,所描述的实施例仅仅是本申请一部分的实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请第一实例提供一种自行走设备移动控制方法,该自行走设备移动控制方法应用于自行走设备在行走过程中针对各种各样的物体,为克服物体而设置的移动控制策略。自行走设备可以是清洁设备领域中的行走机器人,本实施例中以扫地机器人为例进行说明。当然可以理解的是,自行走设备也可以是应用在其他领域的能够自主移动的设备,均属于本申请保护的范围。如图1所示,其为本申请第一实施例的自行走设备移动控制方法流程图。所述方法包括如下步骤。
步骤S101:获取待分析区域的可能物体的图像信息。
本实施例的自行走设备移动控制方法,主要介绍的是扫地机器人在家庭的清扫场景中,针对不同物体的物体类型,规划扫地机器人工作中的行驶路径。以清扫地面为例,在扫地机器人清扫地面时,地面上存在各种各样的物体,该物体相对扫地机器人为障碍物,显然在遇到物体时,针对物体扫地机器人需要采取克服物体的策略,而克服策略需要依据物体的类型确定。为获得物体的物体类型,首先获取待分析区域的可能物体的图像信息。
具体地,获取待分析区域的可能物体的图像信息,可以通过安装在扫地机器人内部的深度传感器实现,在本实施例中,深度传感器为安装在扫地机器人内部的深度相机,通过深度相机对扫地机器人工作环境的待分析区域的可能物体进行实时拍照,从而获取待分析区域的可能物体的图像信息。更具体地,可以将深度相机安装在扫地机器人前方,本实施例的深度相机可以选择TOF,结构光、RGBD等类型的深度相机,换言之,该深度相机拍摄的图像信息只要能够获取扫地机器人工作环境周围的到物体相对于扫地机器人的深度信息(包括物体与扫地机器人之间的距离信息以及物体的具体立体空间信息)即可。
步骤S102:将图像信息转换为点云。
在步骤S101获取物体的图像信息后,将图像信息转换为点云。在本申请实施例中,采用物体的点云信息,实质上获取的是扫地机器人所处周围环境中可能的物体表面每个采样点的坐标组成的空间上点坐标的集合。通过对点云中包括大量的具体的点,每个点均有空间三维坐标,通过各个点的坐标信息可以对点云进行分析,从而能够进一步判断物体的物体类型。
由于在步骤S101中,获取图像信息采用的是深度相机,其获取的图像信息中包含物体相对于扫地机器人的距离信息,即深度信息;深度相机又称为3D相机,顾名思义,就是通过该相机能检测出拍摄空间的景深距离,这也是与普通摄像头最大的区别;普通相机拍摄到的图片能看到相机视角内的所有物体并记录下来,但是其所记录的数据不包含这些物体距离相机的距离;仅仅能通过图像的语义分析来判断哪些物体离相机比较远,哪些比较近,但是并没有确切的数据。而深度相机能准确知道图像中每个点离摄像头距离,这样加上该点在2D图像中的(x,y)坐标,就能获取图像中每个点的三维空间坐标;通过三维坐标就能还原真实场景,实现场景建模等应用。因此,通过深度相机获得的图像,可以获得其中每个点的三维坐标,通过这些三维坐标就可以转换为点云。
在获取点云后,将点云进行滤波处理。在获取点云数据时,由于深度相机设备精度、清扫环境因素、物体表面性质变化和数据拼接配准操作过程的影响,点云数据中不可避免地出现一些噪声点、离群点或者空洞等,这些因素均属于随机误差。例如,由于受到外界干扰视线遮挡或者物体本身等因素的影响,点云数据中往往存在着一些距离主体点云较远的离散点,即离群点。滤波处理作为之后对点云分析处理的预处理步骤,对后续点云分析处理有很重要的作用。只有在滤波处理中将点云中的噪声点、离群点、空洞等进行处理,才能在后续分析处理步骤中更好地将点云进行分析处理。
步骤S103:根据对点云的分析处理,确定待分析区域存在的物体的物体类型。
在对点云进行滤波处理后,对点云进行分析处理,从而以此根据点云的分析结果获取物体的物体类型。具体地,对点云进行分析处理,确定待分析区域存在的物体的物体类型,按照如下描述的方式。
首先,根据预设特征对所述点云进行分割,获得一个或者多个点云块。
由于在步骤S102中获取的点云信息,对应于扫地机器人工作周围环境待分析区域的可能物体。同时,在扫地机器人周边环境中的物体可能不止一个,因此,深度相机拍摄的图像信息中的物体不止一个,对应获得的点云信息可能包含了一个或者多个物体的点云信息。
例如,在扫地机器人清扫的地面上有袜子、拖鞋、抹布、电线、门槛、移门滑轨、椅子以及组合柜家具等的场景中,若存在抹布或者拖鞋等物品与椅子腿接触的情形,则深度相机采集的该场景的图像信息转换成的点云信息必然与实际情形一致,即抹布或者拖鞋等物品的点云与椅子腿点云连为一体。但是,在扫地机器人的实际工作模式中,扫地机器人克服物体的移动策略不同,即针对抹布或者拖鞋的处理方式与针对椅子腿的处理方式不同。显然不能将椅子与抹布或者拖鞋按照同一物体进行处理,因此需要按照图像信息中的预设特征对所述点云进行分割,获得一个或者多个点云块。在图像信息中仅有一个物体时,对应分割后的点云块可以为一个,即对应该物体的点云。在图像信息中有多个物体时,对应分割后的点云块的个数可以与物体的个数相同,即一个物体对应一个点云块。当然,也可是将一个物体的不同部分对应的点云进行分割,以得到多个不同的点云块。例如,在物体仅有一张椅子时,可以将图像信息中的物体椅子对应的椅子点云按照椅子腿与椅子板进行分割为两个点云块。
上述分割点云依据的所述预设特征可以是空间特征、几何特征、纹理特征。上述特征可以根据深度相机获得的包含深度信息的图像获得;当然也可以是上述特征之外的能够将点云进行分割的预设特征,其同样属于本申请保护的范围之内。
之后,以每个点云块为分析对象,进行块内分析,确定该点云块对应的物体类型。
在对点云进行分割之后,对每个点云块为分析对象,确定其对应的物体类型。具体地,分析确定每个点云块对应的物体类型可以按照如下描述的方式。
作为第一种以每个点云块为分析对象,进行块内分析,确定该点云块对应的物体类型的方式:
第一步,获取所述点云块的点云在水平方向上的宽度和竖直方向上的高度。
上述获取点云块的点云在水平方向上的宽度和竖直方向上的高度是指,点云在扫地机器人的坐标系中的宽度与高度。需要说明的是,由于步骤S102获取的点云信息的点云坐标是以深度相机坐标系基准的,因此,为获得点云块的点云在水平方向上的宽度和竖直方向上的高度,需要预先通过标定的外参,将深度相机坐标系的点云信息的点云坐标转换到扫地机器人的坐标系中。再对点云进行相应的分析,以获得物体相对与扫地机器人的位置、物体高度以及物体类型。针对物体类型,扫地机器人采取克服物体的移动控制策略。
第二步,根据所述获取的点云块的点云在水平方向上的宽度和竖直方向上的高度判断所述宽度是否在预设宽度范围内且所述高度是否超过预设高度;如果所述宽度在预设宽度范围内且所述高度超过预设高度,则判断所述物体为第一类型物体。例如,在扫地机器人的室内地面清扫场景中,对于家具类型的物体,一般其宽度范围为4cm-10cm,高度在20cm以上。因此,在判断这类物体时,直接判断点云块的点云在水平方向上的宽度是否在预设的4cm-10cm宽度范围内,并且判断竖直方向上的高度是否超过预设的20cm高度,在判断符合上述条件后,直接将该点云块的点云对应的物体判断为第一类型物体即可。
除了上述第一种以每个点云块为分析对象,进行块内分析,确定该点云块对应的物体类型的方式,还可以采取以下介绍的第二种以每个点云块为分析对象,进行块内分析,确定该点云块对应的物体类型的方式。第二种方式一般可以应用于在判断点云块的点云对应的物体类型不属于第一物体类型时。第二种以每个点云块为分析对象,进行块内分析,确定该点云块对应的物体类型具体实施方式描述如下。
第一步,将所述点云块的点云在水平方向上以设定值为单位划分为n等份。同样地,将所述点云块的点云在水平方向上以设定值为单位划分为n等份,此处的点云也是指转变为在扫地机器人的坐标系中的点云。例如可以是在水平方向,将点云块的点云以2.5cm为单位划分成n等份。
第二步,计算每一等份里的点云的平均高度Hi
第三步,计算所述n个平均高度Hi的平均值E(H)和方差s2
第四步,根据E(H)和s2判断所述物体类型。
具体地,根据E(H)和s2判断所述物体类型,可以是按照如下判断结果规定物体的类型。
当判断s2低于第一设定阈值,且E(H)低于第二设定阈值时,判断所述物体为第二类型物体;当判断s2低于第一设定阈值,且E(H)高于第二设定阈值时,判断所述物体为第三类型物体;当s2高于第一设定阈值时,判断所述物体为第四类型物体。
具体地,在扫地机器人清扫的地面上有袜子、拖鞋、抹布、电线、门槛、移门滑轨、椅子以及组合柜家具等的场景中,经上述判断过程,门槛、移门滑轨等物体在深度相机拍摄的图像信息转换的点云分析结果中,属于第二类型物体,其点云示意图如图2所示,其点云分析示意图如图3所示;袜子、拖鞋、抹布、电线等物体在深度相机拍摄的图像信息转换的点云分析结果中,属于第四类型物体,拖鞋、抹布、电线点云示意图如图4至图6所示,拖鞋、抹布、电线点云分析示意图如图7-9所示。
在逐一判断点云块的点云对应的物体类型后,最终,针对各个点云块的上述分析的分解分析结果,即获得所述待分析区域存在的物体的物体类型。具体地,在获得点云块后,并非每个点云块的点云对应的均为物体,有些可能是无关点云块。因此,需要结合逐一判断的每个点云块的点云对应的物体类型,获得所述待分析区域存在的物体的物体类型。例如,在深度相机获取的图像信息转换的点云中,某一点云块的点云对应的物体为置于地面上的椅子,可以将椅子确认为物体。而另一点云块的点云对应的物体为悬挂在墙面上的相框,显然相框不属于扫地机器人工作场景中的物体。
步骤S104:根据物体类型,确定克服物体的移动控制策略。
在步骤S103确定物体类型后,根据物体类型确定扫地机器人克服物体的移动控制策略。克服物体的移动控制策略可以是按照如下描述的方式。
具体地,当所述物体为第一类型物体时,控制所述自行走设备减速并轻碰所述物体。采取此方式能够在清扫第一物体周边环境的同时,尽量较小扫地机器人与第一类型物体之间的碰撞力,以最大力度保护扫地机器人和第一类型物体。当所述物体为第二类型物体时,控制所述自行走设备越过所述物体。当所述物体为第三类型物体时,控制所述自行走设备绕过所述物体。当所述物体为第四类型物体时,控制所述自行走设备绕过所述物体。
例如对于第二类型或者第三类型物体,如果方差在第一设定阈值内,说明物体表面较平滑,n个平均高度Hi就是物体的高度,根据第二设定阈值,即高度阈值,扫地机器人可以选择调整位置越过(物体为第二类型)或者绕过(物体为第三类型)物体。反之,如果方差超过第一设定阈值,则说明物体表面高度变化较大,可能是电线、袜子等物体,扫地机器人绕过物体,以防电线、袜子等物体被吸入扫地机器人而导致扫地机器人不能正常工作,避免因吸入电线、袜子等物体可能因此产生的安全隐患。
更具体地,对于第二类型物体,所述控制扫地机器人越过所述物体可以是:首先,控制扫地机器人后退并旋转到与所述物体垂直的方向;之后,控制扫地机器人加速越过所述物体。如果扫地机器人前方是门槛、移门滑轨等需要越过的物体,扫地机器人自身会根据判断的门槛的结果,扫地机器人加速越过门槛继续清扫,或者扫地机器人判断距离门槛较近时,扫地机器人后退,加速越过门槛继续清扫。为了扫地机器人更加快速有效的越过门槛,扫地机机器人在进行越过动作之前会将前进方向旋转到与门槛垂直的方向物体。采用此方式能够解决因扫地机器人运行方向与门槛之间的角度太小而被卡住的问题。
而对于第三或者第四类型物体,控制扫地机器人绕过所述物体可以按照如下的方式。首先,标记所述物体的实际位置;之后,根据所述物体的实际位置,在所述物体预设半径以外寻找目标点;最终,根据所述目标点,按照预设的导航算法规划避让所述物体的路径。具体地,以电线为例,在判断电线的物体类型后,根据深度相机获取的深度信息,获取电线的边缘的位置信息,从而标记电线的实际位置;之后,根据电线的实际位置,在电线预设半径以外寻找目标点;根据所述目标点,按照预设的导航算法(例如A*导航算法)规划避让所述物体的路径。
本申请的自行走设备移动控制方法,通过获取物体的图像信息,将图像信息转换为点云,并对点云进行分析处理;之后根据分析结果确定物体类型,在获取物体类型后,根据物体类型,确定克服所述物体的移动控制策略。由于该方法针对不同类型的物体采取不同的克服物体的移动控制策略,因此,避免了现有的清洁机器人因处理工作场景中的各种各样的物体方式过于单一,造成清洁机器人或者物体易损坏的问题。
在上述第一实施例中提供了一种自行走设备移动控制方法。与之对应的,本申请第二实施例提供一种自行走设备,由于本实施例的一种自行走设备的工作方法已经进行了详细论述,关于自行走设备的相关描述请参见第一实施例的介绍,以下对自行走设备的阐述仅仅是示意性的。
本实施例提供一种自行走设备,包括:深度传感器与处理器;
所述深度传感器用于获取所述自行走设备周围环境的可能物体的图像信息;
所述处理器用于接收所述深度传感器传送的所述图像信息,并将将所述图像信息转换为点云;根据对所述点云的分析处理,确定所述自行走设备周围环境存在的物体的物体类型;并根据所述物体类型,确定所述自行走设备克服所述物体的移动控制策略。
可选的,所述自行走设备为清洁机器人。
可选的,所述深度传感器为深度相机。
应用场景1
扫地机器人在清扫地面时,经安装在扫地机器人内部的处理器判断在扫地机器人的前方存在袜子与拖鞋。扫地机器人自身会根据判断的袜子与拖鞋的结果,自动重新规划绕开前方的袜子与拖鞋的清扫路线。以防袜子与拖鞋被吸入扫地机器人而导致扫地机器人不能正常工作,避免因吸入袜子、拖鞋等可能因此产生的安全隐患。
应用场景2
扫地机器人在清扫地面时,经安装在扫地机器人内部的处理器判断在扫地机器人的前方存在电线。扫地机器人自身会根据判断的电线的结果,自动重新规划绕开前方的电线的清扫路线。以防电线将扫地机器人的边刷或者滚刷卡死而导致扫地机器人不能正常工作,甚至电线会将扫地机器人缠绕住,而导致扫地机器人不能正常行走进行清洁作业。采用这种方式能够解决扫地机器人因电线而造成的卡死、缠绕的问题。
应用场景3
扫地机器人在清扫地面时,经安装在扫地机器人内部的处理器判断在扫地机器人的前方存在门槛。扫地机器人自身会根据判断的门槛的结果,扫地机器人加速越过门槛继续清扫,或者扫地机器人判断距离门槛较近时,扫地机器人后退,加速越过门槛继续清扫。为了扫地机器人更加快速有效的越过门槛,扫地机机器人在进行越过动作之前会将前进方向旋转到与门槛垂直的方向,采用此方式能够解决因扫地机器人运行方向与门槛之间的角度太小而被卡住的问题。
本申请虽然以较佳实施例公开如上,但其并不是用来限定本申请,任何本领域技术人员在不脱离本申请的精神和范围内,都可以做出可能的变动和修改,因此本申请的保护范围应当以本申请权利要求所界定的范围为准。

Claims (8)

1.一种自行走设备移动控制方法,其特征在于,包括:
获取待分析区域的物体的图像信息;
将所述图像信息转换为点云;
根据对所述点云的分析处理,确定待分析区域存在的物体的物体类型,包括:根据预设特征对所述点云进行分割,获得一个或者多个点云块;获取各个点云块的点云在水平方向上的宽度和竖直方向上的高度;当所述宽度在预设宽度范围内且所述高度超过预设高度,则判断所述物体为第一类型物体;
根据所述物体类型,确定克服所述物体的移动控制策略;当所述物体为第一类型物体时,所述移动控制策略包括:控制所述自行走设备减速并轻碰所述物体。
2.根据权利要求1所述的自行走设备移动控制方法,其特征在于,所述将所述图像信息转换为点云,包括:
根据所述图像信息获得所述物体相对于所述自行走设备的深度信息;
将所述深度信息转换为点云。
3.根据权利要求1所述的自行走设备移动控制方法,其特征在于,在根据对所述点云的分析处理之前,还包括:对点云进行滤波处理。
4.根据权利要求1所述的自行走设备移动控制方法,其特征在于,所述预设特征包括以下特征中的至少一项或者多项:空间特征、几何特征、纹理特征。
5.根据权利要求1所述的自行走设备移动控制方法,其特征在于,所述预设宽度范围为4cm-10cm,所述预设高度为20cm。
6.根据权利要求1所述的自行走设备移动控制方法,其特征在于,所述克服所述物体的移动控制策略,包括:
标记所述物体的实际位置;
根据所述物体的实际位置,在所述物体预设半径以外寻找目标点;
根据所述目标点,按照预设的导航算法规划避让所述物体的路径。
7.根据权利要求1所述的自行走设备移动控制方法,其特征在于,所述获取待分析区域的可能物体的图像信息,包括:利用深度传感器获取待分析区域的可能物体的图像信息。
8.一种自行走设备,其特征在于,包括:深度传感器与处理器;
所述深度传感器用于获取所述自行走设备周围环境的可能物体的图像信息;
所述处理器用于接收所述深度传感器传送的所述图像信息,并将所述图像信息转换为点云;根据对所述点云的分析处理,确定所述自行走设备周围环境存在的物体的物体类型;并根据所述物体类型,确定所述自行走设备克服所述物体的移动控制策略;
其中,所述根据对所述点云的分析处理,确定所述自行走设备周围环境存在的物体的物体类型,包括:根据预设特征对所述点云进行分割,获得一个或者多个点云块;获取各个点云块的点云在水平方向上的宽度和竖直方向上的高度;当所述宽度在预设宽度范围内且所述高度超过预设高度,则判断所述物体为第一类型物体;当所述物体为第一类型物体时,所述控制策略包括:控制所述自行走设备减速并轻碰所述物体。
CN201911020875.7A 2019-10-25 2019-10-25 一种自行走设备移动控制方法与自行走设备 Active CN112711250B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911020875.7A CN112711250B (zh) 2019-10-25 2019-10-25 一种自行走设备移动控制方法与自行走设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911020875.7A CN112711250B (zh) 2019-10-25 2019-10-25 一种自行走设备移动控制方法与自行走设备

Publications (2)

Publication Number Publication Date
CN112711250A CN112711250A (zh) 2021-04-27
CN112711250B true CN112711250B (zh) 2022-07-05

Family

ID=75540514

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911020875.7A Active CN112711250B (zh) 2019-10-25 2019-10-25 一种自行走设备移动控制方法与自行走设备

Country Status (1)

Country Link
CN (1) CN112711250B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114617476A (zh) * 2021-06-02 2022-06-14 北京石头创新科技有限公司 自移动设备
CN115267825A (zh) * 2022-06-24 2022-11-01 奥比中光科技集团股份有限公司 基于tof传感器的扫地机避障和导航方法、装置及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10357636B4 (de) * 2003-12-10 2013-05-08 Vorwerk & Co. Interholding Gmbh Selbsttätig verfahrbares Bodenstaub-Aufsammelgerät
CN107958458B (zh) * 2016-10-17 2021-01-22 京东方科技集团股份有限公司 图像分割方法、图像分割系统及包括其的设备
CN107092252A (zh) * 2017-04-11 2017-08-25 杭州光珀智能科技有限公司 一种基于机器视觉的机器人主动避障方法及其装置
CN110353583A (zh) * 2019-08-21 2019-10-22 追创科技(苏州)有限公司 扫地机器人及扫地机器人的自动控制方法

Also Published As

Publication number Publication date
CN112711250A (zh) 2021-04-27

Similar Documents

Publication Publication Date Title
CN110801180B (zh) 清洁机器人的运行方法及装置
US9939529B2 (en) Robot positioning system
JP2022546289A (ja) 掃除ロボット及び掃除ロボットの自動制御方法
CN107981790B (zh) 室内区域划分方法及扫地机器人
CN110989631B (zh) 自移动机器人控制方法、装置、自移动机器人和存储介质
CN109344687B (zh) 基于视觉的障碍物检测方法、装置、移动设备
CN112711250B (zh) 一种自行走设备移动控制方法与自行走设备
US20170368686A1 (en) Method and device for automatic obstacle avoidance of robot
CN111521184A (zh) 一种扫地机器人的建图方法、装置及系统
CN110850885A (zh) 自主机器人
CN114266960A (zh) 一种点云信息与深度学习相结合的障碍物检测方法
CN110597265A (zh) 一种扫地机器人回充方法和装置
KR20220025250A (ko) 로봇 청소 장치 전방의 표면의 레벨차를 검출하는 방법
EP3555721A1 (de) Verfahren zur erstellung einer umgebungskarte für ein bearbeitungsgerät
CN111714028A (zh) 清扫设备的禁区脱困方法、装置、设备及可读存储介质
CN113848944A (zh) 一种地图构建方法、装置、机器人及存储介质
CN116211168A (zh) 清洁设备的运行控制方法及装置、存储介质及电子装置
CN111700553A (zh) 避障方法、装置、机器人和存储介质
CN111830966A (zh) 角落识别和清扫方法、装置及存储介质
CN113287969B (zh) 清扫表面类型的判断方法、清扫模式调整方法及清扫设备
CN114967698A (zh) 清扫方法、装置、电子设备及存储介质
CN112045654B (zh) 一种无人密闭空间的检测方法、装置和机器人
CN112308033B (zh) 一种基于深度数据的障碍物碰撞警告方法及视觉芯片
CN111358360B (zh) 机器人避免线缠绕的方法、装置和芯片及扫地机器人
CN113741441A (zh) 作业方法及自移动设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant