CN113867349A - 一种机器人的避障方法、系统及智能机器人 - Google Patents

一种机器人的避障方法、系统及智能机器人 Download PDF

Info

Publication number
CN113867349A
CN113867349A CN202111141519.8A CN202111141519A CN113867349A CN 113867349 A CN113867349 A CN 113867349A CN 202111141519 A CN202111141519 A CN 202111141519A CN 113867349 A CN113867349 A CN 113867349A
Authority
CN
China
Prior art keywords
avoidance
target
robot
visual image
rectangular
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111141519.8A
Other languages
English (en)
Other versions
CN113867349B (zh
Inventor
王林源
马子昂
刘征宇
殷俊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Dahua Technology Co Ltd
Original Assignee
Zhejiang Dahua Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Dahua Technology Co Ltd filed Critical Zhejiang Dahua Technology Co Ltd
Priority to CN202111141519.8A priority Critical patent/CN113867349B/zh
Publication of CN113867349A publication Critical patent/CN113867349A/zh
Application granted granted Critical
Publication of CN113867349B publication Critical patent/CN113867349B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0221Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0223Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving speed control of the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0242Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using non-visible light signals, e.g. IR or UV signals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0253Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting relative motion information from a plurality of images taken successively, e.g. visual odometry, optical flow
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0255Control of position or course in two dimensions specially adapted to land vehicles using acoustic signals, e.g. ultra-sonic singals
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0257Control of position or course in two dimensions specially adapted to land vehicles using a radar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

本发明公开了一种机器人的避障方法、系统及智能机器人,通过获取机器人当前位置对应的视觉图像和栅格地图,可以根据视觉图像中存在的避让物的避让物类别,从避让关系表中,得到扩充边界所需的避让距离。这样在对栅格地图中避让物占据的栅格区域的边界扩充避让距离后,作为目标边界。在栅格地图中,目标边界围成的区域可以作为具有避让物的避让区域,除目标边界围成的区域之外的区域可以作为不具有避让物的非避让区域,以实现根据避让物类型对栅格地图进行膨胀处理,在控制机器人在非避让区域内移动时,可以减少碰撞。

Description

一种机器人的避障方法、系统及智能机器人
技术领域
本发明涉及机器人技术领域,特别涉及一种机器人的避障方法、系统及智能机器人。
背景技术
随着科学技术的进步,机器人正在逐渐走进人们的生产生活中,将人们从长时间单调重复性任务中解放出来,如搬运机器人和扫地机器人等。通常,机器人可以根据建立的地图进行移动,以防止机器人本体碰撞避让物。然而,在机器人对避让物的避让时,无法对避让物的类型进行区分,进而不具备针对具体避让物类别执行特定避障策略的能力。
发明内容
本发明实施例提供一种机器人的避障方法、系统及智能机器人,用以实现机器人避障。
本发明实施例提供一种机器人的避障方法,包括:
获取所述机器人当前位置对应的视觉图像和栅格地图;
根据所述视觉图像中存在的避让物的避让物类别与设定的避让关系表,对所述栅格地图中所述避让物占据的栅格区域的边界扩充避让距离后,作为目标边界;其中,所述避让关系表至少包括避让物类别与避让距离的对应关系表;
将所述栅格地图中除所述目标边界所在区域之外的区域作为非避让区域,并控制所述机器人在所述非避让区域内移动。
本发明实施例提供的机器人的避障方法,通过获取机器人当前位置对应的视觉图像和栅格地图,可以根据视觉图像中存在的避让物的避让物类别,从避让关系表中,得到扩充边界所需的避让距离。这样在对栅格地图中避让物占据的栅格区域的边界扩充避让距离后,作为目标边界。在栅格地图中,目标边界围成的区域可以作为具有避让物的避让区域,除目标边界围成的区域之外的区域可以作为不具有避让物的非避让区域,以实现根据避让物类型对栅格地图进行膨胀处理,在控制机器人在非避让区域内移动时,可以减少碰撞。
在一些示例中,所述根据所述视觉图像中存在的避让物的避让物类别与设定的避让关系表,对所述栅格地图中所述避让物占据的栅格区域的边界扩充避让距离后,作为目标边界,包括:
对所述视觉图像进行检测,确定每一个所述矩形标注框中避让物对应的避让物类别,并对所述视觉图像中的每一个避让物标注矩形标注框;
根据所述视觉图像中的所述矩形标注框,确定划分比例;
根据所述划分比例,将所述机器人在所述栅格地图中的视场角划分为多个目标视场角;
根据确定出的所述避让物类别与所述避让关系表,对处于同一所述目标视场角区域中的避让物占据的栅格所在区域的边界扩充同一避让距离后,作为目标边界。
在一些示例中,所述根据所述视觉图像中的所述矩形标注框,确定划分比例,包括:
根据所述视觉图像中的矩形标注框,确定在所述视觉图像中的纵向区域内不交叠的基准框;
根据所述基准框将所述视觉图像划分成多个图像区域;其中,所述多个图像区域沿所述视觉图像的纵向方向延伸,且所述多个图像区域沿所述视觉图像的横向方向排列;
按照从所述视觉图像的左侧边指向右侧边的方向的顺序,将所述多个图像区域在所述横向方向上的宽度之间的比例关系确定为所述划分比例。
在一些示例中,所述根据所述视觉图像中的矩形标注框,确定在所述视觉图像中的纵向区域内不交叠的基准框,包括:
针对所述视觉图像中的一个矩形标注框,在判断所述矩形标注框不存在交叠的矩形标注框时,将所述矩形标注框作为基准框;
针对所述视觉图像中的一个矩形标注框,在判断所述矩形标注框存在交叠的矩形标注框时,根据所述交叠的矩形标注框中避让物类别和所述避让关系表,确定所述交叠的矩形标注框中对应最大避让距离的矩形标注框;
当对应最大避让距离的矩形标注框的横向宽度最大时,将对应最大避让距离的矩形标注框作为基准框;
当所述交叠的矩形标注框中对应最大避让距离的矩形标注框的横向宽度较小时,根据所述横向宽度较小的矩形标注框将所述交叠的矩形标注框中横向宽度较大的矩形标注框进行划分后作为基准框。
在一些示例中,采用已经训练完成的深度学习网络模型对所述视觉图像进行检测,在确定所述视觉图像中具有避让物时,确定所述避让物对应的矩形标注框的坐标以及所述避让物对应的避让物类别;
根据输出的所述避让物对应的矩形标注框的坐标,对所述视觉图像中的每一个避让物标注矩形标注框。
在一些示例中,所述避让关系表还包括避让物类别与避让物赋值的对应关系表;
所述根据确定出的所述避让物类别与所述避让关系表,对处于同一所述目标视场角区域中的避让物占据的栅格所在区域的边界扩充同一避让距离后,作为目标边界,包括:
根据所述目标视场角区域内存在的避让物类别与所述避让关系表,对所述目标视场角区域内的每一个避让物占据的栅格,采用相同的避让物赋值进行赋值;
针对每一个所述目标视场角区域,根据所述避让关系表以及所述目标视场角区域内的避让物赋值,确定所述避让物赋值对应的避让距离;
将赋值后的栅格所在区域的边界扩充与赋值对应的避让距离后,作为目标边界。
在一些示例中,所述根据所述目标视场角区域内存在的避让物类别与所述避让关系表,对所述目标视场角区域内的每一个避让物占据的栅格,采用相同的避让物赋值进行赋值,包括:
针对每一个所述目标视场角区域,判断所述目标视场角区域内是否存在多种类别的避让物;
若是,则根据所述目标视场角区域内存在的避让物类别与所述避让关系表,将一个避让物类别对应的避让物赋值确定为目标赋值,并根据所述目标赋值对所述目标视场角区域内的每一个避让物占据的栅格进行赋值;
若否,则根据所述目标视场角区域内存在的避让物类别与所述避让关系表,将所述目标视场角区域内存在的避让物类别对应的避让物赋值确定为目标赋值,并根据所述目标赋值对所述目标视场角区域内的每一个避让物占据的栅格进行赋值。
在一些示例中,所述根据所述目标视场角区域内存在的避让物类别与所述避让关系表,将一个避让物类别对应的避让物赋值确定为目标赋值,包括:
根据所述目标视场角区域内存在的避让物类别以及避让关系表,确定所述目标视场角区域内每一个避让物类别对应的避让距离;
确定所述目标视场角区域内存在的避让物类别对应的避让距离中的最大值;
根据所述避让关系表以及所述最大值对应的避让物类别,将对应所述最大值的避让物类别的避让物赋值作为目标赋值。
本发明实施例还提供了机器人的避障系统,包括:
获取单元,被配置为获取所述机器人当前位置对应的视觉图像和栅格地图;
边界确定单元,被配置为根据所述视觉图像中存在的避让物的避让物类别与设定的避让关系表,对所述栅格地图中所述避让物占据的栅格区域的边界扩充避让距离后,作为目标边界;其中,所述避让关系表至少包括避让物类别与避让距离的对应关系表;
驱动单元,被配置为将所述栅格地图中除所述目标边界所在区域之外的区域作为非避让区域,并控制所述机器人在所述非避让区域内移动。
本发明实施例提供的一种智能机器人,包括机器人本体以及上述的机器人的避障系统。
附图说明
图1为本发明实施例中的避障方法的一些流程图;
图2为本发明实施例中机器人上的相机拍摄的一个视觉图像的示意图;
图3为本发明实施例中机器人上的相机拍摄的另一个视觉图像的示意图;
图4为本发明实施例中的避障方法的另一些流程图;
图5为本发明实施例中的避障方法的又一些流程图;
图6为本发明实施例中的机器人在栅格地图中的视场角的一些示意图;
图7为本发明实施例中的机器人在栅格地图中的视场角的另一些示意图;
图8为本发明实施例中的避障系统的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例的附图,对本发明实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。并且在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。基于所描述的本发明的实施例,本领域普通技术人员在无需创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
除非另外定义,本发明使用的技术术语或者科学术语应当为本发明所属领域内具有一般技能的人士所理解的通常意义。本发明中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。
需要注意的是,附图中每一个图形的尺寸和形状不反映真实比例,目的只是示意说明本发明内容。并且自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。
在实际应用中,机器人的避障传感器有多种选择,常见的如机械式碰撞传感器,超声波传感器,红外距离传感器,激光传感器,毫米波雷达和图像传感器等。避障常用处理方法是对机器人在的周围环境建立地图,保证机器人在地图的可通行区域内移动,以防止机器人本体碰撞避让物。然而,在机器人对避让物的避让时,无法对避让物的类型进行区分,进而不具备针对具体避让物类别执行特定避障策略的能力。
本发明实施例提供的机器人的避障方法,如图1所示,可以包括如下步骤:
S100、获取机器人当前位置对应的视觉图像和栅格地图。
S200、根据视觉图像中存在的避让物的避让物类别与设定的避让关系表,对栅格地图中避让物占据的栅格区域的边界扩充避让距离后,作为目标边界。
S300、将栅格地图中除目标边界所在区域之外的区域作为非避让区域,并控制机器人在非避让区域内移动。
本发明实施例提供的机器人的避障方法,通过获取机器人当前位置对应的视觉图像和栅格地图,可以根据视觉图像中存在的避让物的避让物类别,从避让关系表中,得到扩充边界所需的避让距离。这样在对栅格地图中避让物占据的栅格区域的边界扩充避让距离后,作为目标边界。在栅格地图中,目标边界围成的区域可以作为具有避让物的避让区域,除目标边界围成的区域之外的区域可以作为不具有避让物的非避让区域,以实现根据避让物类型对栅格地图进行膨胀处理,在控制机器人在非避让区域内移动时,可以减少碰撞。
在一些示例中,机器人上设置有相机(例如,设置一个相机、或设置两个相机或更多),相机可以用来拍摄机器人所在位置前方的图像。在本发明实施例中,可以通过设置在机器人上的相机拍摄机器人所在的当前位置前方的图像,作为视觉图像。如图2与图3所示,图2示意出了机器人上的相机拍摄的一个视觉图像,图3示意出了机器人上的相机拍摄的另一个视觉图像。图2所示的视觉图像中具有避让物W1、避让物W2以及避让物W3。图3所示的视觉图像中具有避让物W4、避让物W5以及避让物W6。示例性地,避障系统可以直接从相机中提取该视觉图像,以获取到该视觉图像。或者,也可以使相机在拍摄完视觉图像后,将视觉图像直接传输到避障系统中,以使避障系统可以获取到该视觉图像。示例性地,视觉图像可以为彩色图像,也可以为黑白图像,在此不作限定。
一般,采用激光即时定位与地图构建(Simultaneous Localization AndMapping,SLAM)方式创建的地图为栅格地图。栅格地图是一个二态的地图,即每个栅格只有两种状态:被占据(occupied)状态或者自由(free)状态。在实际应用中,栅格地图的更新,主要是根据激光雷达反馈的激光点云数据来确定占据栅格地图中各栅格中是否包含避让物,在包含避让物时将该栅格的状态设置为被占据状态,在不包含避让物时将该栅格的状态设置为自由状态。在本发明实施例中,可以根据SLAM方式创建栅格地图。其中,避障系统可以直接将创建的栅格地图进行提取,或者也可以使栅格地图创建完成后直接上传到避障系统中。
在本发明实施例中,如图4所示,步骤S200、根据视觉图像中存在的避让物的避让物类别与设定的避让关系表,对栅格地图中避让物占据的栅格区域的边界扩充避让距离后,作为目标边界,可以包括如下步骤:
S210、对视觉图像进行检测,确定每一个矩形标注框中避让物对应的避让物类别,并对视觉图像中的每一个避让物标注矩形标注框。
S220、根据视觉图像中的矩形标注框,确定划分比例。
S230、根据划分比例,将机器人在栅格地图中的视场角划分为多个目标视场角。
S240、根据确定出的避让物类别与避让关系表,对处于同一目标视场角区域中的避让物占据的栅格所在区域的边界扩充同一避让距离后,作为目标边界。
示例性地,针对步骤S210,可以采用已经训练完成的基于深度学习网络的图像检测模型对视觉图像进行检测,在确定视觉图像中具有避让物时,确定避让物对应的矩形标注框的坐标以及避让物对应的避让物类别。即可以将视觉图像中存在的每一个避让物对应的矩形标注框的左上角坐标和右下角坐标确定出来并将视觉图像中存在的每一个避让物对应的避让物类别确定出来。之后,可以根据输出的避让物对应的矩形标注框的坐标,对视觉图像中的每一个避让物标注矩形标注框。即可以根据确定出来的每一个避让物对应的矩形标注框的左上角坐标和右下角坐标,在视觉图像中将相应的避让物采用矩形标注框标识出来。
示例性地,如图2所示,可以根据图像检测模型确定出:避让物W1对应的矩形标注框K1的左上角坐标(x11,y11)和右下角坐标(x12,y12)。避让物W2对应的矩形标注框K2的左上角坐标(x21,y21)和右下角坐标(x22,y22)。避让物W3对应的矩形标注框K3的左上角坐标(x31,y31)和右下角坐标(x32,y32)。这样可以根据矩形标注框K1的左上角坐标(x11,y11)和右下角坐标(x12,y12),在视觉图像中将矩形标注框K1标识出来。并且,根据矩形标注框K2的左上角坐标(x21,y21)和右下角坐标(x22,y22),在视觉图像中将矩形标注框K2标识出来。以及,根据矩形标注框K3的左上角坐标(x31,y31)和右下角坐标(x32,y32),在视觉图像中将矩形标注框K3标识出来。
示例性地,如图3所示,可以根据图像检测模型确定出:避让物W4对应的矩形标注框K4的左上角坐标(x41,y41)和右下角坐标(x42,y42)。避让物W5对应的矩形标注框K5的左上角坐标(x51,y51)和右下角坐标(x52,y52)。避让物W6对应的矩形标注框K6的左上角坐标(x61,y61)和右下角坐标(x62,y62)。这样可以根据矩形标注框K4的左上角坐标(x41,y41)和右下角坐标(x42,y42),在视觉图像中将矩形标注框K4标识出来。并且,根据矩形标注框K5的左上角坐标(x51,y51)和右下角坐标(x52,y52),在视觉图像中将矩形标注框K5标识出来。以及,根据矩形标注框K6的左上角坐标(x61,y61)和右下角坐标(x62,y62),在视觉图像中将矩形标注框K6标识出来。
在本发明实施例中,针对步骤S220、根据视觉图像中的矩形标注框,确定划分比例,可以包括如下步骤:根据视觉图像中的矩形标注框,确定在视觉图像中的纵向区域内不交叠的基准框。之后,根据基准框将视觉图像划分成多个图像区域。之后,按照从视觉图像的左侧边指向右侧边的方向的顺序,将多个图像区域在横向方向F1上的宽度之间的比例关系确定为划分比例。在一些示例中,根据视觉图像中的矩形标注框,确定在视觉图像中的纵向区域内不交叠的基准框,可以包括:针对视觉图像中的一个矩形标注框,在判断矩形标注框不存在交叠的矩形标注框时,将矩形标注框作为基准框。示例性地,如图2所示,矩形标注框K1不存在交叠的矩形标注框,则可以将矩形标注框K1作为基准框。如图3所示,矩形标注框K4不存在交叠的矩形标注框,则可以将矩形标注框K4作为基准框。
在一些示例中,根据视觉图像中的矩形标注框,确定在视觉图像中的纵向区域内不交叠的基准框,可以包括:针对视觉图像中的一个矩形标注框,在判断矩形标注框存在交叠的矩形标注框时,根据交叠的矩形标注框中避让物类别和避让关系表,确定交叠的矩形标注框中对应最大避让距离的矩形标注框。当对应最大避让距离的矩形标注框的横向宽度最大时,将对应最大避让距离的矩形标注框作为基准框。示例性地,如图2所示,矩形标注框K2和K3存在交叠,则可以根据矩形标注框K2中的避让物对应的避让物类别A2,从避让关系表中确定出避让物类别A2对应的避让距离B2。以及,根据矩形标注框K3中的避让物对应的避让物类别A3,从避让关系表中确定出避让物类别A3对应的避让距离B3。判断避让距离B2和避让距离B3的大小关系。若避让距离B2大于避让距离B3,则说明矩形标注框K2是这些交叠的矩形标注框中对应最大避让距离的矩形标注框。之后,再确定矩形标注框K2和K3的横向宽度,若矩形标注框K2的横向宽度最大时,可以将矩形标注框K2作为基准框。
在一些示例中,根据视觉图像中的矩形标注框,确定在视觉图像中的纵向区域内不交叠的基准框,可以包括:针对视觉图像中的一个矩形标注框,在判断矩形标注框存在交叠的矩形标注框时,根据交叠的矩形标注框中避让物类别和避让关系表,确定交叠的矩形标注框中对应最大避让距离的矩形标注框。当交叠的矩形标注框中对应最大避让距离的矩形标注框的横向宽度较小时,根据横向宽度较小的矩形标注框将交叠的矩形标注框中横向宽度较大的矩形标注框进行划分后作为基准框。
示例性地,如图3所示,矩形标注框K5和K6存在交叠,则可以根据矩形标注框K5中的避让物对应的避让物类别A5,从避让关系表中确定出避让物类别A5对应的避让距离B5。以及,根据矩形标注框K6中的避让物对应的避让物类别A6,从避让关系表中确定出避让物类别A6对应的避让距离B6。判断避让距离B5和避让距离B6的大小关系。若避让距离B6大于避让距离B5,则说明矩形标注框K6是这些交叠的矩形标注框中对应最大避让距离的矩形标注框。之后,再确定矩形标注框K5和K6的横向宽度,若矩形标注框K6的横向宽度小于矩形标注框K5的横向宽度,可以根据矩形标注框K6将矩形标注框K5进行划分,以将矩形标注框K5划分为三个小矩形框:K51、K52、K53,则将矩形框:K51、K52、K53作为基准框。
在一些示例中,多个图像区域沿视觉图像的纵向方向F2延伸,且多个图像区域沿视觉图像的横向方向F1排列。示例性地,如图2所示,矩形标注框K1和K2作为基准框,可以根据矩形标注框K1和K2将视觉图像划分成5个图像区域:TB11、TB12、TB13、TB14、TB15。其中,图像区域TB12的横向宽度与矩形标注框K1的横向宽度相同,图像区域TB14的横向宽度与矩形标注框K2的横向宽度相同。这样可以按照从视觉图像的左侧边指向右侧边的方向(即F1箭头所指的方向)的顺序,可以将图像区域TB11的横向宽度KD11、图像区域TB12的横向宽度KD12、图像区域TB13的横向宽度KD13、图像区域TB14的横向宽度KD14、图像区域TB15的横向宽度KD15之间的比例关系:KD11:KD12:KD13:KD14:KD15,确定为划分比例。即,划分比例为KD11:KD12:KD13:KD14:KD15。
示例性地,如图3所示,矩形标注框K4、K51、K52和K53作为基准框,可以根据矩形标注框K4、K51、K52和K53将视觉图像划分成7个图像区域:TB21、TB22、TB23、TB24、TB25、TB26、TB27。其中,图像区域TB22的横向宽度与矩形标注框K4的横向宽度相同,图像区域TB24的横向宽度与矩形标注框K51的横向宽度相同,图像区域TB25的横向宽度与矩形标注框K52的横向宽度相同,图像区域TB26的横向宽度与矩形标注框K53的横向宽度相同。这样可以按照从视觉图像的左侧边指向右侧边的方向(即F1箭头所指的方向)的顺序,可以将图像区域TB21的横向宽度KD21、图像区域TB22的横向宽度KD22、图像区域TB23的横向宽度KD23、图像区域TB24的横向宽度KD24、图像区域TB25的横向宽度KD25、图像区域TB26的横向宽度KD26、图像区域TB27的横向宽度KD27之间的比例关系:KD21:KD22:KD23:KD24:KD25:KD26:KD27,确定为划分比例。即,划分比例为KD21:KD22:KD23:KD24:KD25:KD26:KD27。
在本发明实施例中,针对步骤S230,根据划分比例,将机器人在栅格地图中的视场角划分为多个目标视场角。示例性地,结合图2与图6所示,图6示意出了机器人Q在栅格地图中的视场角β的一些示例图。根据划分比例KD11:KD12:KD13:KD14:KD15,将视场角β分成5个目标视场角:SC11、SC12、SC13、SC14、SC15。其中,划分比例SC11:SC12:SC13:SC14:SC15与划分比例KD11:KD12:KD13:KD14:KD15相等。示例性地,结合图3与图7所示,图7示意出了机器人Q在栅格地图中的视场角β的另一些示例图。根据划分比例KD21:KD22:KD23:KD24:KD25:KD26:KD27,将视场角β分成7个目标视场角:SC21、SC22、SC23、SC24、SC25、SC26、SC27。其中,划分比例SC21、SC22、SC23、SC24、SC25、SC26、SC27与划分比例KD21:KD22:KD23:KD24:KD25:KD26:KD27相等。
在本发明实施例中,避让关系表可以包括避让物类别与避让距离的对应关系表。其中,避让物类别包括多种,每一种避让物类别一一对应避让距离。如表一所示,其示意出了避让关系表的一个示例。例如,假设避让关系表有:避让物类别A1、避让物类别A2、避让物类别A3、避让物类别A4。则避让物类别A1对应避让距离B1,避让物类别A2对应避让距离B2,避让物类别A3对应避让距离B3,避让物类别A4对应避让距离B4,避让物类别A5对应避让距离B5,避让物类别A6对应避让距离B6。示例性地,可以根据实际应用的需求对不同避让物类别对应的避让距离进行确定。例如,可以根据避让物类别是否易碎,是否是贵重物品等,将其对应的避让距离确定的较大一些。可以根据避让物类别是否是泡沫、海绵等较软的物品,将其对应的避让距离确定的较小一些。
避让物类别 避让距离
A1 B1
A2 B2
A3 B3
A4 B4
A5 B5
A6 B6
表一
在一些示例总,避让关系表还可以包括避让物类别与避让物赋值的对应关系表。其中,避让物类别包括多种,每一种避让物类别一一对应避让物赋值。如表二所示,其示意出了避让关系表的另一个示例。例如,假设避让关系表有:避让物类别A1、避让物类别A2、避让物类别A3、避让物类别A4。则避让物类别A1对应避让物赋值C1,避让物类别A2对应避让物赋值C2,避让物类别A3对应避让物赋值C3,避让物类别A4对应避让物赋值C4,避让物类别A5对应避让物赋值C5,避让物类别A6对应避让物赋值C6。
避让物类别 避让物赋值
A1 C1
A2 C2
A3 C3
A4 C4
A5 C5
A6 C6
表二
在本发明实施例中,还可以将表一和表二进行合并,例如,避让关系表可以包括避让物类别、避让物赋值以及避让距离的对应关系表。如表三所示,其示意出了避让关系表的又一个示例。例如,假设避让关系表有:避让物类别A1、避让物类别A2、避让物类别A3、避让物类别A4。则避让物类别A1对应避让物赋值C1与避让距离B1,避让物类别A2对应避让物赋值C2与避让距离B2,避让物类别A3对应避让物赋值C3与避让距离B3,避让物类别A4对应避让物赋值C4与避让距离B4,避让物类别A5对应避让物赋值C5与避让距离B5,避让物类别A6对应避让物赋值C6与避让距离B6。
避让物类别 避让物赋值 避让距离
A1 C1 B1
A2 C2 B2
A3 C3 B3
A4 C4 B4
A5 C5 B5
A6 C6 B6
表三
在一些示例中,可以根据避让物类别对避让距离进行设定。例如,本实施例以仓库中的搬运机器人为例,在仓库这一场景中的避让物可能较为复杂,例如有:操作人员、固定货架、易碎货物、墙等。示例性地,可以将避让物类别A1作为操作人员、避让物类别A2作为固定货架、避让物类别A3作为易碎货物、避让物类别A4作为墙壁。其中,若机器人撞到易碎货物,那么可能会造成该货物损坏,因此可以将易碎货物对应的避让距离B3设置的较大一些。若机器人撞到墙壁,若墙壁上设置有保护装置,可以承受一定程度的碰撞,那么可以将墙壁对应的避让距离B4设置的较小一些。
在本发明实施例中,如图5所示,步骤S230、根据确定出的避让物类别与避让关系表,对处于同一目标视场角区域中的避让物占据的栅格所在区域的边界扩充同一避让距离后,作为目标边界,可以包括如下步骤:
S231、根据目标视场角区域内存在的避让物类别与避让关系表,对目标视场角区域内的每一个避让物占据的栅格,采用相同的避让物赋值进行赋值。
S232、针对每一个目标视场角区域,根据避让关系表以及目标视场角区域内的避让物赋值,确定避让物赋值对应的避让距离。
S233、将赋值后的栅格所在区域的边界扩充与赋值对应的避让距离后,作为目标边界。
在本发明实施例中,步骤S231、根据目标视场角区域内存在的避让物类别与避让关系表,对目标视场角区域内的每一个避让物占据的栅格,采用相同的避让物赋值进行赋值,可以包括如下步骤:针对每一个目标视场角区域,判断目标视场角区域内是否存在多种类别的避让物。其中,在判断目标视场角区域内存在多种类别的避让物时,则根据目标视场角区域内存在的避让物类别与避让关系表,将一个避让物类别对应的避让物赋值确定为目标赋值,并根据目标赋值对目标视场角区域内的每一个避让物占据的栅格进行赋值。示例性地,根据目标视场角区域内存在的避让物类别与避让关系表,将一个避让物类别对应的避让物赋值确定为目标赋值,可以包括:根据目标视场角区域内存在的避让物类别以及避让关系表,确定目标视场角区域内每一个避让物类别对应的避让距离。确定目标视场角区域内存在的避让物类别对应的避让距离中的最大值。根据避让关系表以及最大值对应的避让物类别,将对应最大值的避让物类别的避让物赋值作为目标赋值。并且,在判断目标视场角区域内不存在多种类别的避让物时,则根据目标视场角区域内存在的避让物类别与避让关系表,将目标视场角区域内存在的避让物类别对应的避让物赋值确定为目标赋值,并根据目标赋值对目标视场角区域内的每一个避让物占据的栅格进行赋值。
示例性地,结合图6与表三,图6中目标视场角SC12中的阴影区域对应避让物W1在栅格地图中占据栅格的区域SGW1,目标视场角SC14中的一个阴影区域对应避让物W2在栅格地图中占据栅格的区域SGW2,目标视场角SC14中的另一个阴影区域对应避让物W3在栅格地图中占据栅格的区域SGW3。若避让距离中B1>B2>B3,避让物W1的类型为避让物类别A1、避让物W2的类型为避让物类别A2、避让物W3的类型为避让物类别A3,则避让物W3对应的避让距离B3大于避让物W2对应的避让距离B2,则可以将避让物W3对应的避让物赋值C3作为目标视场角SC4对应的目标赋值,这样可以将目标视场角SC4中区域SGW2和区域SGW3中的栅格均赋值为C3。并且,目标视场角SC2中具有避让物W1,避让物W1的类型为避让物类别A1,可以将避让物W1对应的避让物赋值C1作为目标视场角SC2对应的目标赋值,这样可以将目标视场角SC2中区域SGW1中的栅格均赋值为C1。
示例性地,结合图7与表三,图7中目标视场角SC22中的阴影区域对应避让物W4在栅格地图中占据栅格的区域SGW4。目标视场角SC24中的阴影区域对应避让物W5在栅格地图中占据栅格的区域SGW5。目标视场角SC24中的一个阴影区域对应避让物W6在栅格地图中占据栅格的区域SGW6。目标视场角SC24中的另一个阴影区域对应避让物W5在栅格地图中占据栅格的区域SGW5。目标视场角SC26中的阴影区域对应避让物W5在栅格地图中占据栅格的区域SGW5。
若避让距离中B6>B5,避让物W4的类型为避让物类别A4、避让物W5的类型为避让物类别A5、避让物W6的类型为避让物类别A6,则避让物W6对应的避让距离B3大于避让物W5对应的避让距离B5,则可以将避让物W6对应的避让物赋值C6作为目标视场角SC25对应的目标赋值,这样可以将目标视场角SC25中区域SGW6和区域SGW5中的栅格均赋值为C6。并且,目标视场角SC22中具有避让物W4,避让物W4的类型为避让物类别A4,可以将避让物W4对应的避让物赋值C4作为目标视场角SC22对应的目标赋值,这样可以将目标视场角SC22中区域SGW4中的栅格均赋值为C4。以及,目标视场角SC24中具有避让物W5,避让物W5的类型为避让物类别A5,可以将避让物W5对应的避让物赋值C5作为目标视场角SC24对应的目标赋值,这样可以将目标视场角SC24中区域SGW5中的栅格均赋值为C5。以及,目标视场角SC26中具有避让物W5,避让物W5的类型为避让物类别A5,可以将避让物W5对应的避让物赋值C5作为目标视场角SC26对应的目标赋值,这样可以将目标视场角SC26中区域SGW5中的栅格均赋值为C5。
下面结合具体实施例,结合图2与图6对本发明进行详细说明。需要说明的是,下述实施例中是为了更好的解释本发明,但不限制本发明。
本发明实施例提供的机器人的避障方法,可以包括如下步骤:
(1)机器人在移动的时候,会通过安装在机器人四周的激光传感器,或红外传感器,或超声波传感器等建立栅格地图。并且,机器人还可以通过前部设置的相机采集机器人当前位置的视觉图像。
(2)采用已经训练完成的基于深度学习网络的图像识别模型,对视觉图像进行检测,以从视觉图像中,确定出:避让物W1对应的避让物类别A1以及矩形标注框K1的左上角坐标(x11,y11)和右下角坐标(x12,y12)。避让物W2对应的避让物类别A2以及矩形标注框K2的左上角坐标(x21,y21)和右下角坐标(x22,y22)。避让物W3对应的避让物类别A3以及矩形标注框K3的左上角坐标(x31,y31)和右下角坐标(x32,y32)。
这样可以根据矩形标注框K1的左上角坐标(x11,y11)和右下角坐标(x12,y12),在视觉图像中将矩形标注框K1标识出来。并且,根据矩形标注框K2的左上角坐标(x21,y21)和右下角坐标(x22,y22),在视觉图像中将矩形标注框K2标识出来。以及,根据矩形标注框K3的左上角坐标(x31,y31)和右下角坐标(x32,y32),在视觉图像中将矩形标注框K3标识出来。
示例性地,训练基于深度学习网络的图像检测模型的方法,可以为:对机器人上设置的相机进行标定,以获取相机的内部参数和外部参数。其中,相机的内部参数用以去除图像的畸变,相机的外部参数用于确定机器人底盘和相机之间的相对位置关系。根据机器人具体使用的场景中需要避让的障碍物进行类别区分,确定障碍物在栅格地图中的避让物赋值和避让距离(例如表三)。控制机器人在相应的使用场景中采集多个图像,并使用矩形标注框标注图像中避让物的位置并同时对避让物的类别进行分类,以将标注出的避让物输入基于深度学习网络的图像检测模型中,对图像检测模型进行训练。
(3)根据视觉图像中存在的矩形标注框,可以确定出矩形标注框K1不存在交叠的矩形标注框,则可以将矩形标注框K1作为基准框。
并且,矩形标注框K2和K3存在交叠,则可以根据矩形标注框K2中的避让物对应的避让物类别A2,从避让关系表中确定出避让物类别A2对应的避让距离B2。以及,根据矩形标注框K3中的避让物对应的避让物类别A3,从避让关系表中确定出避让物类别A3对应的避让距离B3。
判断避让距离B2和避让距离B3的大小关系。若避让距离B2大于避让距离B3,则说明矩形标注框K2是这些交叠的矩形标注框中对应最大避让距离的矩形标注框。
之后,再确定矩形标注框K2和K3的横向宽度,若矩形标注框K2的横向宽度最大时,可以将矩形标注框K2作为基准框。
因此,矩形标注框K1和K2作为基准框。
(4)根据矩形标注框K1和K2作为的基准框,可以将视觉图像划分成5个图像区域:TB11、TB12、TB13、TB14、TB15。其中,图像区域TB12的横向宽度与矩形标注框K1的横向宽度相同,图像区域TB14的横向宽度与矩形标注框K2的横向宽度相同。
(5)按照从视觉图像的左侧边指向右侧边的方向(即F1箭头所指的方向)的顺序,可以将图像区域TB11的横向宽度KD11、图像区域TB12的横向宽度KD12、图像区域TB13的横向宽度KD13、图像区域TB14的横向宽度KD14、图像区域TB15的横向宽度KD15之间的比例关系:KD11:KD12:KD13:KD14:KD15,确定为划分比例。即,划分比例为KD11:KD12:KD13:KD14:KD15。
(6)根据划分比例KD11:KD12:KD13:KD14:KD15,将视场角β分成5个目标视场角:SC11、SC12、SC13、SC14、SC15。其中,划分比例SC11:SC12:SC13:SC14:SC15与划分比例KD11:KD12:KD13:KD14:KD15相等。
(7)目标视场角SC12中的阴影区域对应避让物W1在栅格地图中占据栅格的区域SGW1,即目标视场角SC12中仅具有避让物W1,避让物W1的类型为避让物类别A1,可以将避让物W1对应的避让物赋值C1作为目标视场角SC12对应的目标赋值,这样可以将目标视场角SC12中区域SGW1中的栅格均赋值为C1。
并且,目标视场角SC14中的一个阴影区域对应避让物W2在栅格地图中占据栅格的区域SGW2,目标视场角SC14中的另一个阴影区域对应避让物W3在栅格地图中占据栅格的区域SGW3。若避让距离中B1>B2>B3,避让物W1的类型为避让物类别A1、避让物W2的类型为避让物类别A2、避让物W3的类型为避让物类别A3。目标视场角SC4具有两个避让物类别A2、A3,则可以根据避让关系表得到避让物类别A2对应的避让距离B2、避让物类别A3对应的避让距离B3,且避让物类别A3对应的避让距离B3比避让距离B2大,则可以将避让物W3对应的避让物赋值C3作为目标视场角SC24对应的目标赋值,这样可以将目标视场角SC24中区域SGW2和区域SGW3中的栅格均赋值为C3。
(8)针对目标视场角SC12中,避让物赋值为C1,C1对应避让距离B1。
并且,针对目标视场角SC14中,避让物赋值为C3,C3对应避让距离B3。
(9)目标视场角SC12中,将区域SGW1的边界扩张避让距离B1后,形成了目标边界KZ1。
并且,目标视场角SC14中,将区域SGW2的边界扩张避让距离B3后形成了目标边界KZ2,以及将区域SGW3的边界扩张避让距离B3后形成了目标边界KZ3。
这样基于避让物的类别,对其在栅格地图中的边界进行了膨胀处理,可以尽可能的降低机器人碰撞的风险,使得机器人在避障时兼顾避让物安全性和通行速度,提高了机器人在避障时的智能化程度。
(11)在确定目标边界后,可以将目标边界在栅格地图中围成区域内作为具有避让物的区域,将栅格地图中除目标边界所在区域之外的区域作为非避让区域,可以控制机器人在非避让区域内进行移动,可以尽可能的降低机器人碰撞的风险,使得机器人在避障时兼顾避让物安全性和通行速度,提高了机器人在避障时的智能化程度。
基于同一发明构思,本发明实施例还提供了一种机器人的避障系统,如图8所示,可以包括:获取单元10、边界确定单元20以及驱动单元30。
其中,获取单元10被配置为获取机器人当前位置对应的视觉图像和栅格地图。
边界确定单元20被配置为根据视觉图像中存在的避让物的避让物类别与设定的避让关系表,对栅格地图中避让物占据的栅格区域的边界扩充避让距离后,作为目标边界;其中,避让关系表至少包括避让物类别与避让距离的对应关系表。
驱动单元30被配置为将栅格地图中除目标边界所在区域之外的区域作为非避让区域,并控制机器人在非避让区域内移动。
需要说明的是,该机器人的避障系统的工作原理和具体实施方式与上述实施例机器人的避障方法的原理和实施方式相同,因此,该机器人的避障系统的工作方法可参见上述实施例中机器人的避障方法的具体实施方式进行实施,在此不再赘述。
基于同一发明构思,本发明实施例还提供了一种智能机器人,包括机器人本体以及本发明实施例提供的上述的机器人的避障系统。该智能机器人解决问题的原理与前述机器人的避障系统相似,因此该智能机器人的实施可以参见前述机器人的避障系统的实施,重复之处在此不再赘述。
示例性地,机器人本体可以为扫地机器人本体或搬运机器人本体。对于该扫地机器人本体或搬运机器人本体的其它必不可少的组成部分均为本领域的普通技术人员应该理解具有的,在此不做赘述,也不应作为对本发明的限制。
当然,在实际应用中,机器人本体也可以为其他类型的机器人,在此不作限定。
显然,本领域的技术人员可以对本发明进行每一个种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种机器人的避障方法,其特征在于,包括:
获取所述机器人当前位置对应的视觉图像和栅格地图;
根据所述视觉图像中存在的避让物的避让物类别与设定的避让关系表,对所述栅格地图中所述避让物占据的栅格区域的边界扩充避让距离后,作为目标边界;其中,所述避让关系表至少包括避让物类别与避让距离的对应关系表;
将所述栅格地图中除所述目标边界所在区域之外的区域作为非避让区域,并控制所述机器人在所述非避让区域内移动。
2.如权利要求1所述的机器人的避障方法,其特征在于,所述根据所述视觉图像中存在的避让物的避让物类别与设定的避让关系表,对所述栅格地图中所述避让物占据的栅格区域的边界扩充避让距离后,作为目标边界,包括:
对所述视觉图像进行检测,确定每一个所述矩形标注框中避让物对应的避让物类别,并对所述视觉图像中的每一个避让物标注矩形标注框;
根据所述视觉图像中的所述矩形标注框,确定划分比例;
根据所述划分比例,将所述机器人在所述栅格地图中的视场角划分为多个目标视场角;
根据确定出的所述避让物类别与所述避让关系表,对处于同一所述目标视场角区域中的避让物占据的栅格所在区域的边界扩充同一避让距离后,作为目标边界。
3.如权利要求2所述的机器人的避障方法,其特征在于,所述根据所述视觉图像中的所述矩形标注框,确定划分比例,包括:
根据所述视觉图像中的矩形标注框,确定在所述视觉图像中的纵向区域内不交叠的基准框;
根据所述基准框将所述视觉图像划分成多个图像区域;其中,所述多个图像区域沿所述视觉图像的纵向方向延伸,且所述多个图像区域沿所述视觉图像的横向方向排列;
按照从所述视觉图像的左侧边指向右侧边的方向的顺序,将所述多个图像区域在所述横向方向上的宽度之间的比例关系确定为所述划分比例。
4.如权利要求3所述的机器人的避障方法,其特征在于,所述根据所述视觉图像中的矩形标注框,确定在所述视觉图像中的纵向区域内不交叠的基准框,包括:
针对所述视觉图像中的一个矩形标注框,在判断所述矩形标注框不存在交叠的矩形标注框时,将所述矩形标注框作为基准框;
针对所述视觉图像中的一个矩形标注框,在判断所述矩形标注框存在交叠的矩形标注框时,根据所述交叠的矩形标注框中避让物类别和所述避让关系表,确定所述交叠的矩形标注框中对应最大避让距离的矩形标注框;
当对应最大避让距离的矩形标注框的横向宽度最大时,将对应最大避让距离的矩形标注框作为基准框;
当所述交叠的矩形标注框中对应最大避让距离的矩形标注框的横向宽度较小时,根据所述横向宽度较小的矩形标注框将所述交叠的矩形标注框中横向宽度较大的矩形标注框进行划分后作为基准框。
5.如权利要求3所述的机器人的避障方法,其特征在于,采用已经训练完成的深度学习网络模型对所述视觉图像进行检测,在确定所述视觉图像中具有避让物时,确定所述避让物对应的矩形标注框的坐标以及所述避让物对应的避让物类别;
根据输出的所述避让物对应的矩形标注框的坐标,对所述视觉图像中的每一个避让物标注矩形标注框。
6.如权利要求2-5任一项所述的机器人的避障方法,其特征在于,所述避让关系表还包括避让物类别与避让物赋值的对应关系表;
所述根据确定出的所述避让物类别与所述避让关系表,对处于同一所述目标视场角区域中的避让物占据的栅格所在区域的边界扩充同一避让距离后,作为目标边界,包括:
根据所述目标视场角区域内存在的避让物类别与所述避让关系表,对所述目标视场角区域内的每一个避让物占据的栅格,采用相同的避让物赋值进行赋值;
针对每一个所述目标视场角区域,根据所述避让关系表以及所述目标视场角区域内的避让物赋值,确定所述避让物赋值对应的避让距离;
将赋值后的栅格所在区域的边界扩充与赋值对应的避让距离后,作为目标边界。
7.如权利要求6所述的机器人的避障方法,其特征在于,所述根据所述目标视场角区域内存在的避让物类别与所述避让关系表,对所述目标视场角区域内的每一个避让物占据的栅格,采用相同的避让物赋值进行赋值,包括:
针对每一个所述目标视场角区域,判断所述目标视场角区域内是否存在多种类别的避让物;
若是,则根据所述目标视场角区域内存在的避让物类别与所述避让关系表,将一个避让物类别对应的避让物赋值确定为目标赋值,并根据所述目标赋值对所述目标视场角区域内的每一个避让物占据的栅格进行赋值;
若否,则根据所述目标视场角区域内存在的避让物类别与所述避让关系表,将所述目标视场角区域内存在的避让物类别对应的避让物赋值确定为目标赋值,并根据所述目标赋值对所述目标视场角区域内的每一个避让物占据的栅格进行赋值。
8.如权利要求7所述的机器人的避障方法,其特征在于,所述根据所述目标视场角区域内存在的避让物类别与所述避让关系表,将一个避让物类别对应的避让物赋值确定为目标赋值,包括:
根据所述目标视场角区域内存在的避让物类别以及避让关系表,确定所述目标视场角区域内每一个避让物类别对应的避让距离;
确定所述目标视场角区域内存在的避让物类别对应的避让距离中的最大值;
根据所述避让关系表以及所述最大值对应的避让物类别,将对应所述最大值的避让物类别的避让物赋值作为目标赋值。
9.一种机器人的避障系统,其特征在于,包括:
获取单元,被配置为获取所述机器人当前位置对应的视觉图像和栅格地图;
边界确定单元,被配置为根据所述视觉图像中存在的避让物的避让物类别与设定的避让关系表,对所述栅格地图中所述避让物占据的栅格区域的边界扩充避让距离后,作为目标边界;其中,所述避让关系表至少包括避让物类别与避让距离的对应关系表;
驱动单元,被配置为将所述栅格地图中除所述目标边界所在区域之外的区域作为非避让区域,并控制所述机器人在所述非避让区域内移动。
10.一种智能机器人,其特征在于,包括机器人本体以及如权利要求9所述的机器人的避障系统。
CN202111141519.8A 2021-09-28 2021-09-28 一种机器人的避障方法、系统及智能机器人 Active CN113867349B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111141519.8A CN113867349B (zh) 2021-09-28 2021-09-28 一种机器人的避障方法、系统及智能机器人

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111141519.8A CN113867349B (zh) 2021-09-28 2021-09-28 一种机器人的避障方法、系统及智能机器人

Publications (2)

Publication Number Publication Date
CN113867349A true CN113867349A (zh) 2021-12-31
CN113867349B CN113867349B (zh) 2024-04-09

Family

ID=78991797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111141519.8A Active CN113867349B (zh) 2021-09-28 2021-09-28 一种机器人的避障方法、系统及智能机器人

Country Status (1)

Country Link
CN (1) CN113867349B (zh)

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455034A (zh) * 2013-09-16 2013-12-18 苏州大学张家港工业技术研究院 一种基于最近距离向量场直方图的避障路径规划方法
CN103926925A (zh) * 2014-04-22 2014-07-16 江苏久祥汽车电器集团有限公司 一种基于改进的vfh算法的定位与避障方法及机器人
WO2016045615A1 (zh) * 2014-09-25 2016-03-31 科沃斯机器人有限公司 机器人静态路径规划方法
CN105511485A (zh) * 2014-09-25 2016-04-20 科沃斯机器人有限公司 用于自移动机器人栅格地图的创建方法
CN110083157A (zh) * 2019-04-28 2019-08-02 深兰科技(上海)有限公司 一种避障方法及装置
CN110393482A (zh) * 2019-09-03 2019-11-01 深圳飞科机器人有限公司 地图处理方法以及清洁机器人
CN110522359A (zh) * 2019-09-03 2019-12-03 深圳飞科机器人有限公司 清洁机器人以及清洁机器人的控制方法
CN110550029A (zh) * 2019-08-12 2019-12-10 华为技术有限公司 障碍物避让方法及装置
CN110956161A (zh) * 2019-12-17 2020-04-03 中新智擎科技有限公司 一种自主建图方法、装置及智能机器人
CN111427360A (zh) * 2020-04-20 2020-07-17 珠海市一微半导体有限公司 基于地标定位的地图构建方法、机器人及机器人导航系统
US20200340826A1 (en) * 2017-12-29 2020-10-29 Zte Corporation Map construction and navigation method, and device and system
US20200394924A1 (en) * 2017-10-26 2020-12-17 Guangzhou Xaircraft Technology Co., Ltd Method for Configuring Navigation Chart, Method for Avoiding Obstacle and Device, Terminal and Unmanned Aerial Vehicle
CN112486184A (zh) * 2020-12-10 2021-03-12 北京小狗吸尘器集团股份有限公司 一种扫地机器人及其避障路径确定方法

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103455034A (zh) * 2013-09-16 2013-12-18 苏州大学张家港工业技术研究院 一种基于最近距离向量场直方图的避障路径规划方法
CN103926925A (zh) * 2014-04-22 2014-07-16 江苏久祥汽车电器集团有限公司 一种基于改进的vfh算法的定位与避障方法及机器人
WO2016045615A1 (zh) * 2014-09-25 2016-03-31 科沃斯机器人有限公司 机器人静态路径规划方法
CN105511485A (zh) * 2014-09-25 2016-04-20 科沃斯机器人有限公司 用于自移动机器人栅格地图的创建方法
US20200394924A1 (en) * 2017-10-26 2020-12-17 Guangzhou Xaircraft Technology Co., Ltd Method for Configuring Navigation Chart, Method for Avoiding Obstacle and Device, Terminal and Unmanned Aerial Vehicle
US20200340826A1 (en) * 2017-12-29 2020-10-29 Zte Corporation Map construction and navigation method, and device and system
CN110083157A (zh) * 2019-04-28 2019-08-02 深兰科技(上海)有限公司 一种避障方法及装置
CN110550029A (zh) * 2019-08-12 2019-12-10 华为技术有限公司 障碍物避让方法及装置
CN110522359A (zh) * 2019-09-03 2019-12-03 深圳飞科机器人有限公司 清洁机器人以及清洁机器人的控制方法
CN110393482A (zh) * 2019-09-03 2019-11-01 深圳飞科机器人有限公司 地图处理方法以及清洁机器人
CN110956161A (zh) * 2019-12-17 2020-04-03 中新智擎科技有限公司 一种自主建图方法、装置及智能机器人
CN111427360A (zh) * 2020-04-20 2020-07-17 珠海市一微半导体有限公司 基于地标定位的地图构建方法、机器人及机器人导航系统
CN112486184A (zh) * 2020-12-10 2021-03-12 北京小狗吸尘器集团股份有限公司 一种扫地机器人及其避障路径确定方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
高环宇;邓国庆;张龙;刘勇;高震宇;: "基于Frontier-Based边界探索和探索树的未知区域探索方法", 计算机应用, no. 2, 20 December 2017 (2017-12-20) *

Also Published As

Publication number Publication date
CN113867349B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
Ess et al. Moving obstacle detection in highly dynamic scenes
Levinson et al. Traffic light mapping, localization, and state detection for autonomous vehicles
US9102055B1 (en) Detection and reconstruction of an environment to facilitate robotic interaction with the environment
EP2000953B1 (en) Information processing apparatus, information processing method, and computer program
Wan et al. Teaching robots to do object assembly using multi-modal 3d vision
Schneider et al. Fusing vision and lidar-synchronization, correction and occlusion reasoning
CN110969655A (zh) 用于检测车位的方法、装置、设备、存储介质以及车辆
US11120280B2 (en) Geometry-aware instance segmentation in stereo image capture processes
Burgin et al. Using depth information to improve face detection
Neto et al. Real-time estimation of drivable image area based on monocular vision
Yin et al. Development of a target recognition and following system for a field robot
CN110705385B (zh) 一种障碍物角度的检测方法、装置、设备及介质
Ganokratanaa et al. An Intelligent Autonomous Document Mobile Delivery Robot Using Deep Learning.
CN113867349A (zh) 一种机器人的避障方法、系统及智能机器人
KR20180066668A (ko) 무인 이동체의 주행 환경 제작 기술을 위한 장치 및 방법
Guo et al. Robust road boundary estimation for intelligent vehicles in challenging scenarios based on a semantic graph
CN113821033B (zh) 一种无人车路径规划方法、系统及终端
CN111739332A (zh) 一种停车场管理系统
Bonin-Font et al. A monocular mobile robot reactive navigation approach based on the inverse perspective transformation
CN115446846A (zh) 一种基于条码识别的图书盘点机器人
CN109558835A (zh) 一种基于人体识别的自动牵引车的控制方法及其系统
de Babo Martins et al. Visual-inertial based autonomous navigation
US20230286155A1 (en) Method and system to detect and estimate dynamic obstacles using rgbd sensors for robot navigation
Silva et al. Obstacle detection, identification and sharing on a robotic soccer team
Abdul-Khalil et al. A review on object detection for autonomous mobile robot

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant