CN111726591A - 地图更新方法、装置、存储介质及电子设备 - Google Patents

地图更新方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN111726591A
CN111726591A CN202010576705.3A CN202010576705A CN111726591A CN 111726591 A CN111726591 A CN 111726591A CN 202010576705 A CN202010576705 A CN 202010576705A CN 111726591 A CN111726591 A CN 111726591A
Authority
CN
China
Prior art keywords
target
map
obstacle
image
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010576705.3A
Other languages
English (en)
Other versions
CN111726591B (zh
Inventor
郭少峰
杨旭
邓剑锋
王云华
马鑫磊
车路平
刘威
朱莹莹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gree Electric Appliances Inc of Zhuhai
Zhuhai Lianyun Technology Co Ltd
Original Assignee
Gree Electric Appliances Inc of Zhuhai
Zhuhai Lianyun Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gree Electric Appliances Inc of Zhuhai, Zhuhai Lianyun Technology Co Ltd filed Critical Gree Electric Appliances Inc of Zhuhai
Priority to CN202010576705.3A priority Critical patent/CN111726591B/zh
Publication of CN111726591A publication Critical patent/CN111726591A/zh
Application granted granted Critical
Publication of CN111726591B publication Critical patent/CN111726591B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Abstract

本发明公开了一种地图更新方法、装置、存储介质及电子设备,方法包括:获取移动机器人在第一位置处采集的第一图像和第一深度信息;在对第一图像进行识别得到目标障碍物时,根据第一深度信息得到目标障碍物对应在地图中的第一目标位置和对应的第一障碍物图层,将第一障碍物图层添加至地图中的第一目标位置处,并控制移动机器人移动至第二位置,以获取移动机器人在第二位置处采集的包括目标障碍物第二图像和第二深度信息,根据第二深度信息得到目标障碍物在地图中的第二目标位置以及第二障碍物图层,并利用第二目标位置和第二障碍物图层分别对第一目标位置和第一障碍物图层进行更新,通过上述方法,可以有提高地图中目标障碍物的位置的准确性。

Description

地图更新方法、装置、存储介质及电子设备
技术领域
本发明属于计算机视觉领域,具体涉及一种地图更新方法、装置、存储介质及电子设备。
背景技术
目前,地图是移动机器人自主导航的重要研究内容,移动机器人可以通过地图完成自动驾驶、家庭服务等人机交互任务。现有的移动机器人通常是利用激光雷达和碰撞传感器来实现对周围环境的感知,对于激光雷达扫描平面的障碍物,机器人通过接收到的雷达信号对障碍物进行定位,而无法扫描到的区域,则利用机身的碰撞传感器去“触碰”,从而感知障碍物,一旦障碍物的质地较软较轻无法触发碰撞传感器,机器人就无法感知到障碍物。
在日常家庭环境中,诸如动物粪便、塑料袋、袜子、线材等都属于此类障碍物,对于工作中的移动机器人来说,如对扫地机来说,由于工作原理的关系,一旦无法精准识别此类障碍物或无法精准定位此类障碍物的位置,在遇到这类障碍物,非但无法对此类障碍物进行清理,甚至会造成二次污染或者无法正常工作的严重影响。
发明内容
本发明提供了一种地图更新方法、装置、存储介质及电子设备,以精准识别障碍物,并对障碍物进行精准定位,以避免由于障碍物定位不准确影响移动机器人的正常工作的问题。
第一方面,本发明提供一种地图更新方法,包括:
获取移动机器人的双目图像采集设备在第一位置处采集的第一图像和与该第一图像对应的第一深度信息;
在对所述第一图像进行识别得到的识别结果中包括目标障碍物时,根据所述第一深度信息得到该目标障碍物对应在地图中的第一目标位置和该目标障碍物对应的第一障碍物图层,将所述第一障碍物图层添加至所述地图中的第一目标位置处,并控制所述移动机器人移动至第二位置,其中,所述地图是基于所述移动机器人采集到的深度信息建立的;
获取所述移动机器人在所述第二位置处采集的包括所述目标障碍物第二图像和与该第二图像对应的第二深度信息;
根据所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层,并利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新,以对所述地图进行更新。
可选的,在上述地图更新方法中,根据所述第一深度信息得到该目标障碍物对应在地图中的第一目标位置和该目标障碍物对应的第一障碍物图层,包括:
将所述第一深度信息转化为第一灰度图,获取所述目标障碍物在所述第一灰度图中对应的第一目标灰度图像,并根据第一深度信息得到所述第一位置与第一目标灰度图像的轮廓中轮廓点的位置关系和距离;
根据所述第一位置在所述地图中的第一定位信息、所述第一位置与第一目标灰度图像的轮廓中多个轮廓点的位置关系和距离得到所述目标障碍物在所述地图中的第一目标位置;
根据所述第一目标灰度图像的轮廓得到第一轮廓中心,并从所述第一目标灰度图像的轮廓中确定第一目标轮廓点,并根据该第一目标轮廓点与所述第一轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀以得到第一障碍物图层。
可选的,在上述地图更新方法中,根据所述第一目标灰度图像的轮廓得到第一轮廓中心,包括:
从与所述双目图像采集设备的光轴平行的多条轴线中选取与所述第一目标灰度图像的轮廓有交点,且距离为最远的两条第一目标轴线;
对所述第一目标灰度图像的轮廓中与该两条第一目标轴线相交的轮廓点求取均值以得到所述第一目标灰度图像的轮廓的第一轮廓中心。
可选的,在上述地图更新方法中,从所述第一目标灰度图像的轮廓中确定第一目标轮廓点,包括:
从所述第一目标灰度图像的轮廓中与该两条第一目标轴线相交的轮廓点中选取到所述第一轮廓中心距离最近的第一目标轮廓点。
可选的,在上述地图更新方法中,控制所述移动机器人移动至第二位置,包括:
控制所述移动机器人按照预设移动轨迹移动,以移动至该预设移动轨迹上的多个第二位置。
可选的,在上述地图更新方法中,根据所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层,包括:
将所述第二深度信息转化为第二灰度图,获取所述目标障碍物在所述第二灰度图中对应的第二目标灰度图像,并根据第二深度信息得到所述第二位置与第二目标灰度图像的轮廓中轮廓点的位置关系和距离;
根据所述第二位置在所述地图中的第二定位信息、所述第二位置与第二目标灰度图像的轮廓中多个轮廓点的位置关系和距离得到所述目标障碍物在所述地图中的第二目标位置;
根据所述第二目标灰度图像的轮廓得到第二轮廓中心,并从所述第二目标灰度图像的轮廓中确定第二目标轮廓,并根据该第二目标轮廓点与所述第二轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀以得到第二障碍物图层。
可选的,在上述地图更新方法中,利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新,以对所述地图进行更新,包括:
将所述第一目标位置在所述地图中的坐标值和第二目标位置在所述地图中的坐标值进行加权处理,得到的加权处理后的坐标值,将该加权处理后的坐标值对应的在地图中的位置作为更新后的目标位置;
提取所述第二障碍物图层中的目标障碍物的姿态,并利用该目标障碍物的姿态更新所述第一障碍物图层中的目标障碍物;
将所述第一障碍物图层中更新后的目标障碍物添加至更新后的目标位置,以完成对地图的更新。
可选的,在上述地图更新方法中,所述方法还包括:
获取多张样本图像,其中,每张所述样本图像中包括物品图像及该物品图像的标注结果;
将所述多张样本图像输入至神经网络进行训练以得到图像识别模型;
利用所述图像识别模型对所述第一图像进行识别,以得到所述第一图像对应的识别结果。
第二方面,本发明还提供一种地图更新装置,所述装置包括:
第一获取模块,用于获取移动机器人的双目图像采集设备在第一位置处采集的第一图像和与该第一图像对应的第一深度信息;
图层添加模块,用于在对所述第一图像进行识别得到的识别结果中包括目标障碍物时,根据所述第一深度信息得到该目标障碍物对应在地图中的第一目标位置和该目标障碍物对应的第一障碍物图层,将所述第一障碍物图层添加至所述地图中的第一目标位置处,并控制所述移动机器人移动至第二位置,其中,所述地图是基于所述移动机器人采集到的深度信息建立的;
第二获取模块,用于获取所述移动机器人在所述第二位置处采集的包括所述目标障碍物第二图像和与该第二图像对应的第二深度信息;
地图更新模块,用于根据所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层,并利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新,以对所述地图进行更新。
第三方面,本发明还提供一种存储介质,该存储介质存储有计算机程序,所述计算机程序被一个或多个处理器执行时实现如上述的地图更新方法。
第四方面,本发明还提供一种电子设备,包括存储器和处理器,所述存储器上存储有计算机程序,该计算机程序被所述处理器执行时,执行如上述的地图更新方法。
本发明提供的一种地图更新方法、装置、存储介质及电子设备,方法包括:获取移动机器人在第一位置处采集的第一图像和第一深度信息;在对第一图像进行识别得到目标障碍物时,根据第一深度信息得到目标障碍物对应在地图中的第一目标位置和对应的第一障碍物图层,将第一障碍物图层添加至地图中的第一目标位置处,并控制移动机器人移动至第二位置,以获取移动机器人在第二位置处采集的包括目标障碍物第二图像和第二深度信息,根据第二深度信息得到目标障碍物在地图中的第二目标位置以及第二障碍物图层,并利用第二目标位置和第二障碍物图层分别对第一目标位置和第一障碍物图层进行更新,通过上述方法,可以有提高地图中目标障碍物的位置的准确性。
附图说明
附图用来提供对本申请的技术方案或现有技术的进一步理解,并且构成说明书的一部分。其中,表达本申请实施例的附图与本申请的实施例一起用于解释本申请的技术方案,但并不构成对本申请技术方案的限制。
图1为本发明实施例提供的一种地图更新方法的流程示意图。
图2为图1中步骤S120的流程示意图。
图3为图1中步骤S140的流程示意图。
图4为图1中步骤S140的另一流程示意图。
图5为本发明实施例中的中心点的确认示意图;
图6为本发明实施例中的第一轮廓点的确认示意图;
图7为本发明实施例中的地图更新的示意图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达到相应技术效果的实现过程能充分理解并据以实施。本申请实施例以及实施例中的各个特征,在不相冲突前提下可以相互结合,所形成的技术方案均在本发明的保护范围之内。
另外,附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
第一实施例
请参阅图1,本实施例提供了一种地图更新方法,该方法应用于电子设备,如移动机器人和/或与该移动机器人关联的终端设备,当所述地图更新方法应用于所述电子设备时,执行步骤S110至步骤S140。
步骤S110:获取移动机器人的双目图像采集设备在第一位置处采集的第一图像和与该第一图像对应的第一深度信息。
步骤S120:在对所述第一图像进行识别得到的识别结果中包括目标障碍物时,根据所述第一深度信息得到该目标障碍物对应在地图中的第一目标位置和该目标障碍物对应的第一障碍物图层,将所述第一障碍物图层添加至所述地图中的第一目标位置处,并控制所述移动机器人移动至第二位置。
其中,所述地图是基于所述移动机器人采集到的深度信息建立的。
步骤S130:获取所述移动机器人在所述第二位置处采集的包括所述目标障碍物第二图像和与该第二图像对应的第二深度信息。
步骤S140:根据所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层,并利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新,以对所述地图进行更新。
通过采用上述步骤S110至步骤S140,可以精准识别障碍物,并对障碍物进行精准定位,进而有效保障更新后的地图的可靠性,以在移动机器人根据所述地图移动时避免障碍物定位不准确影响移动机器人的正常工作的问题。以及在移动机器人为扫地机,且障碍物为动物粪便时,有效避免该扫地机可能会造成二次污染的情况。
在步骤S110中,所述双目图像采集装置可以包括一个RGB摄像头和一个结构光测距模组,也可以包括一个RGB摄像头和一个TOF测距模组,还可以包括一个RGB摄像头和一个深度摄像头,只要能够获取该移动机器人移动前方的视野中的RGB图像和深度信息即可,在此不做具体限定,根据实际需求进行设置即可。
需要说明的是,所述RGB摄像头(彩色摄像头)由三根不同的线缆给出了三个基本彩色成分,其通常是用三个独立的CCD传感器来获取三种彩色信号,因此RGB摄像头经常被用来做非常精确的彩色图像采集,在本实施例中,用于采集图像,即所述第一图像和第二图像。
所述深度信息可以用于反映有效视场角中目标障碍物到传感器的距离及双目图像采集设备与目标障碍物传感器之间的位置关系,其中,该位置关系则能够通过目标障碍物的轮廓点像素相对市场角中心的偏移角确定。
在步骤S120中,所述地图可以基于移动机器人在移动过程中采集到一张或多张图像分别对应的深度信息得建立得到,还可以是基于所述移动机器人采集到的第一深度信息建立得到,在此不做具体限定,根据实际需求进行设置即可。
其中,基于深度信息建立地图的过程可以是:建立与该移动机器人行走空间相对应的地图坐标系,根据移动机器人的双目图像采集设备采集到的深度信息,依据所述深度信息在所述地图坐标系中建立行走空间的地图。也可以是基于所述双目图像采集设备利用即时定位与地图构建(Simultaneous Localization and Mapping,SLAM)技术构建地图,在此不做具体限定,根据实际需求进行设置即可。
其中,上述建立的地图可以为二维地图,也可以为三维地图,在本实施例中,上述建立的地图为二维地图。
所述目标障碍物可以是任意机器人不能跨越过的障碍物,如,椅子、桌子、线材、塑料袋等,也可以是线材、塑料袋、袜子等则会缠绕机器人滚刷的高危障碍物或者宠物粪便将会造成大面积污染的高危障碍物,可选的,在本实施例中,所述目标障碍物包括线材、塑料袋、袜子、宠物粪便等障碍物。可以理解,在移动机器人为扫地机时,上述线材、塑料袋、袜子等高位障碍物会缠绕边刷或堵住机器人吸口,宠物粪便会造成二次污染。
可以理解,在执行步骤S120之前,所述方法还可以包括:
对所述第一图像进行识别,以得到该第一图像对应的识别结果,并判断该识别结果中是否包括目标障碍物图像。
其中,对所述第一图像进行识别以得到对应的识别结果的方式可以是利用图像识别模型进行识别,也可以是利用聚类算法进行识别,当利用图像识别模型进行识别时,该图像识别模型可以利用以下方式获得:
获取多张样本图像,其中,每张所述样本图像中包括物品图像及该物品图像的标注结果,将所述多张样本图像输入至神经网络进行训练以得到图像识别模型。
其中,多张样本图像可以是由所述双目摄像头采集的数千张或数万张正式家庭环境的RGB图像,每张图像中包括一类或多类高危障碍物,如可以包括宠物粪便、电线、塑料袋、袜子共计四类中的一类或多类障碍物,且每张RGB图像分别标注其包括的障碍物相应的障碍物分类(障碍物对应的标注名称),所述神经网络可以是CNN神经网络,也可以是卷积神经网络,在此不做具体限定,根据实际需求进行设置即可。
根据所述第一深度信息得到该目标障碍物对应在所述地图中的第一目标位置和该目标障碍物对应的第一障碍物层的方式可以是:
根据所述第一位置在所述地图中的第一定位信息、所述第一位置与第一目标灰度图像的轮廓中多个轮廓点的位置关系和距离得到所述目标障碍物在所述地图中的第一目标位置。
需要说明的是,在构建地图过程中,所述移动机器人通常会自行定位,以获得其所在位置在构建的地图中的定位信息。因此,根据所述第一深度信息得到该目标障碍物对应在所述地图中的第一目标位置和该目标障碍物对应的第一障碍物层的方式可以是:根据所述第一深度信息和所述移动机器人在所述第一位置处的第一定位信息得到目标障碍物在所述地图中的第一目标位置,从深度信息中提取所述障碍物图像的轮廓,以基于该障碍物的轮廓得到障碍物图层。
在本实施例中,如图2所示,步骤S120中,所述根据所述第一深度信息得到该目标障碍物对应在地图中的第一目标位置和该目标障碍物对应的第一障碍物图层的步骤,包括以下步骤:
步骤S122:将所述第一深度信息转化为第一灰度图,获取所述目标障碍物在所述第一灰度图中对应的第一目标灰度图像,并根据第一深度信息得到所述第一位置与第一目标灰度图像的轮廓中轮廓点的位置关系和距离。
步骤S124:根据所述第一位置在所述地图中的第一定位信息、所述第一位置与第一目标灰度图像的轮廓中多个轮廓点的位置关系和距离得到所述目标障碍物在所述地图中的第一目标位置。
步骤S126:根据所述第一目标灰度图像的轮廓得到第一轮廓中心,并从所述第一目标灰度图像的轮廓中确定第一目标轮廓点,并根据该第一目标轮廓点与所述第一轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀以得到第一障碍物图层。
通过上述设置,将所述第一障碍物图层添加至所述第一目标位置处,以在移动人移动过程中,避免与第一障碍物图层所在位置接触,进而有效避免该第一障碍物层对应的障碍物影响该移动机器人正常工作的情况。
需要说明的是,不同的障碍物属性对应的有不同的膨胀系数,且膨胀系数通常在1至1.5的系数范围之间,以目标障碍物是鞋子为例,当鞋子的轮廓中心点与该鞋子的第一目标轮廓点之间的距离为15厘米时,将鞋子的轮廓中心为原点以15CM*膨胀系数为半径形成的圆形区域作为所述第一障碍物图层的区域;当目标障碍物是塑料袋为例,当塑料袋的轮廓中心与该塑料袋的第一目标轮廓点之间的距离为35厘米时,将塑料袋的轮廓中心为原点,35CM*膨胀系数为半径形成的圆形区域作为所述第一障碍物图层的区域。
还需要说明的是,根据该第一目标轮廓点与所述第一轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀以得到第一障碍物图层具体可以是:根据该第一目标轮廓点与所述第一轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀得到第一虚拟墙,将所述第一目标灰度图像的轮廓添加到所述第一虚拟墙以得到所述第一障碍物图层,其中,所述第一目标灰度图像的第一轮廓中心可以与所述第一虚拟墙的中心重合。
其中,根据所述目标灰度图像的轮廓得到第一轮廓中心可以是,将所述目标灰度图像的轮廓上的所有轮廓点的中心位置作为第一轮廓中心,还可以是从所述目标灰度图像的轮廓上选取多个点,并求取该多个点的中心位置第一轮廓中心。
可选的,在本实施例中,根据所述目标灰度图像的轮廓得到第一轮廓中心包括:
从与所述双目图像采集设备的光轴平行的多条轴线中选取与所述第一目标灰度图像的轮廓有交点,且距离为最远的两条第一目标轴线;对所述第一目标灰度图像的轮廓中与该两条第一目标轴线相交的轮廓点求取均值以得到所述第一目标灰度图像的轮廓的第一轮廓中心。
通过上述设置,可以有效避免拍摄过程中图像发生畸变从而影响轮廓中心点的位置确定,以及避免由于拍摄角度不同而影响轮廓中心确定的准确性。
步骤S126中,从所述第一目标灰度图像的轮廓中确定第一目标轮廓点可以是,根据所述第一目标灰度图像的轮廓中每个轮廓点到该图像中第一轮廓中心的距离选取第一目标轮廓点,如该第一目标轮廓点可以是第一轮廓中心最短的轮廓点;也可以是从所述第一目标灰度图像的轮廓中与该两条第一目标轴线相交的轮廓点中选取到所述第一轮廓中心距离最近的第一目标轮廓点。在此不做具体限定,根据实际需求进行设置即可。
控制所述移动机器人移动至第二位置的方式可以是,控制所述移动机器人按照预设移动轨迹移动,以移动至该预设移动轨迹上的多个位置,还可以是控制所述移动机器人以所述目标障碍物为中心顺时针或逆时针方向移动,以移动至该顺时针方向上的一个或多个第二位置。
在步骤S130中,具体可以是获取所述移动机器人在移动过程中移动到一个或多个第二位置处,以在每个第二位置处分别采集包括该目标障碍物的第二图像及该第二图像对应的第二深度信息。
在步骤S140中,利用所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层具体参照步骤S120中利用第一深度信息得到所述目标障碍物在所述地图中的第一位置及第一障碍物图层的具体描述。
在本实施例中,如图3所示,根据所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层,包括:
步骤S142a:将所述第二深度信息转化为第二灰度图,获取所述目标障碍物在所述第二灰度图中对应的第二目标灰度图像,并根据第二深度信息得到所述第二位置与第二目标灰度图像的轮廓中轮廓点的位置关系和距离。
步骤S142b:根据所述第二位置在所述地图中的第二定位信息、所述第二位置与第二目标灰度图像的轮廓中多个轮廓点的位置关系和距离得到所述目标障碍物在所述地图中的第二目标位置。
步骤S142c:根据所述第二目标灰度图像的轮廓得到第二轮廓中心,并从所述第二目标灰度图像的轮廓中确定第二目标轮廓,并根据该第二目标轮廓点与所述第二轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀以得到第二障碍物图层。
关于上述步骤S142c的具体描述可以参照前文对步骤S126的具体描述,在此不做一一赘述。
还需要说明的是,根据该第二目标轮廓点与所述第二轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀以得到第二障碍物图层具体可以是:根据该第二目标轮廓点与所述第二轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀得到第二虚拟墙,将所述第二目标灰度图像的轮廓添加到所述第二虚拟墙以得到所述第二障碍物图层,其中,所述第二目标灰度图像的第二轮廓中心可以与所述第二虚拟墙的中心重合。
利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新:将所述第一目标位置与所述第二目标位置之间的中间位置作为更新后的第一目标位置,将所述第一障碍物图层与所述第二障碍物图层进行叠加处理,以将叠加去重后得到的图层作为更新后的障碍物图层,以将更新后的障碍物图层添加至更新后的第一目标位置;还可以是,将所述第一目标位置在所述地图中的坐标值和第二目标位置在所述地图中的坐标值进行加权处理,得到的加权处理后的坐标值,将该加权处理后的坐标值对应的在地图中的位置作为更新后的目标位置,并根据第二障碍物图层中目标障碍物的姿态更新所述第一障碍物图层中的目标障碍物,将所述第一障碍物图层中更新后的目标障碍物添加至更新后的目标位置,以完成对地图的更新。
可选的,在本实施例中,如图4所示,利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新,以对所述地图进行更新,包括:
步骤S144a:将所述第一目标位置在所述地图中的坐标值和第二目标位置在所述地图中的坐标值进行加权处理,得到的加权处理后的坐标值,将该加权处理后的坐标值对应的在地图中的位置作为更新后的目标位置。
步骤S144b:提取所述第二障碍物图层中的目标障碍物的姿态,并利用该目标障碍物的姿态更新所述第一障碍物图层中的目标障碍物。
步骤S144c:将所述第一障碍物图层中更新后的目标障碍物添加至更新后的目标位置,以对所述地图。
通过上述设置,以实现对地图中目标障碍物的更新,进而可以有效保障更新后的目标障碍物的位置和轮廓形状的可靠性,进而可以有效避免由于目标障碍物位置不准确从而导致移动机器人移动过程中一些高危障碍物会影响到机器人的正常移动的问题。在移动机器人为扫地机时,如宠物粪便、线材、塑料袋、袜子等物品由于清洁机器人无法准确定位,一旦相遇,宠物粪便将会造成大面积的地面二次污染,线材、塑料袋、袜子等则会缠绕机器人滚刷、边刷或堵住机器人吸口,从而使得机器人产生无法移动或者无法进一步清扫的问题。
需要说明的是,目标障碍物的姿态可以用于表征障碍物在机器人坐标系中的形式描述,第一障碍物图层中提取的目标障碍物的姿态相当于在第一位置处采集到的目标障碍物的宽、高以及轮廓信息,当机器人移动到第二位置时,能够根据其定位信息确定此时和障碍物的相对位置,通过观测到的宽、高以及轮廓信息更新第一障碍物图层的宽、高以及轮廓等尺寸信息。
请结合图5、图6以及图7,以所述移动机器人为扫地机、在第一位置处采集的第一图像及其对应的深度信息中包括鞋子为例进行说明。获取移动机器人在第一位置处(A位置处)采集到的第一图像及第一深度信息,利用图像识别模型对所述第一图像进行识别以得到鞋子,将所述第一深度信息转化为第一灰度图,获取所述鞋子在所述第一灰度图中对应的第一目标灰度图像,并根据第一深度信息得到所述第一位置与第一目标灰度图像的轮廓中轮廓点的位置关系和距离;根据所述第一位置在所述地图中的第一定位信息、所述第一位置与第一目标灰度图像的轮廓中多个轮廓点的位置关系和距离得到所述鞋子在所述地图中的第一目标位置,从与所述双目图像采集设备的光轴Do平行的多条轴线中选取与所述第一目标灰度图像的轮廓有交点(如图5所示),且距离为最远的两条第一目标轴线,分别为Da和Db;对所述第一目标灰度图像的轮廓中与该两条第一目标轴线相交的轮廓点求取均值以得到所述第一目标灰度图像的轮廓的第一轮廓中心O。从所述第一目标灰度图像的轮廓中与该两条第一目标轴线相交的轮廓点中选取到所述第一轮廓中心距离最近的第一目标轮廓点,并根据该第一目标轮廓点与所述第一轮廓中心之间的距离与所述目标障碍物的属性对应的膨胀系数的乘积作为膨胀半径r,并以第一轮廓中心O为原点,r为半径形成的轮廓作为进行中心点膨胀形成的圆形区域作为第一虚拟墙,并将所述障碍物轮廓添加至所述虚拟墙以得到第一障碍物图层(如图6所示),将所述第一障碍物图层添加至所述地图中的第一目标位置处后,控制所述移动机器人以所述障碍物为中心顺时针方向上的多个第二位置(如图7所示),多个第二位置中包括B和C对应的位置,以在该第二位置处,获取所述移动机器人在所述第二位置处采集的包括所述目标障碍物第二图像和与该第二图像对应的第二深度信息,并对所述第二景深图像执行与上述第一景深图像相同的处理方式得到每个第二位置处分别对应的第二障碍物图层,并将所述第一目标位置在所述地图中的坐标值和第二目标位置在所述地图中的坐标值进行加权处理,得到的加权处理后的坐标值,将该加权处理后的坐标值对应的在地图中的位置作为更新后的目标位置,提取所述第二障碍物图层中的目标障碍物的姿态,并利用该目标障碍物的姿态更新所述第一障碍物图层中的目标障碍物,将所述第一障碍物图层中更新后的目标障碍物添加至更新后的目标位置,以完成对地图的更新。需要说明的是,图7中仅示出在在A、B、C三个位置处获得的障碍物图层,根据障碍物层的更新同时进行动态更新,最终保持一个比较准确的障碍物区域,即图中外围的轮廓区域,以及最终获得的更新后的障碍物图层中的目标障碍物的轮廓。
第二实施例
本实施例提供一种地图更新装置,所述装置包括:
第一获取模块,用于获取移动机器人的双目图像采集设备在第一位置处采集的第一图像和与该第一图像对应的第一深度信息。
其中,关于所述第一获取模块的具体描述可以参照前文对步骤S110的具体描述,在此不作一一赘述。
图层添加模块,用于在对所述第一图像进行识别得到的识别结果中包括目标障碍物时,根据所述第一深度信息得到该目标障碍物对应在地图中的第一目标位置和该目标障碍物对应的第一障碍物图层,将所述第一障碍物图层添加至所述地图中的第一目标位置处,并控制所述移动机器人移动至第二位置,其中,所述地图是基于所述移动机器人采集到的深度信息建立的。
其中,关于所述图层添加模块的具体描述可以参照前文对步骤S120的具体描述,在此不作一一赘述。
第二获取模块,用于获取所述移动机器人在所述第二位置处采集的包括所述目标障碍物第二图像和与该第二图像对应的第二深度信息。
其中,关于所述第二获取模块的具体描述可以参照前文对步骤S130的具体描述,在此不作一一赘述。
地图更新模块,用于根据所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层,并利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新,以对所述地图进行更新。
其中,关于所述地图更新模块的具体描述可以参照前文对步骤S140的具体描述,在此不作一一赘述。
第三实施例
本实施例提供一种存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务器、App应用商城等等,其上存储有计算机程序,所述计算机程序被一个或多个处理器执行时可以实现实施例一中的地图更新方法。
上述方法步骤的具体实施例过程可参见实施例一,本实施例在此不再重复赘述。
第四实施例
本申请实施例提供了一种电子设备,该电子设备可以是用户终端,例如:手机、电脑或平板电脑等,也可以是移动机器人,例如,扫地机或护理机器人等,还可以是服务器,在此不做具体限定。
在本实施例中,所述电子设备包括存储器和处理器,所述存储器上存储有计算器程序,该计算机程序被处理器执行时实现如实施例一中所述的地图更新方法。
可选的,在本实施例中,当所述电子设备为移动机器人时,所述移动机器人还包括双目图像采集设备。
可以理解,电子设备还可以包括,多媒体组件,输入/输出(I/O)接口,以及通信组件。
其中,处理器用于执行如实施例一中的地图更新方法中的全部或部分步骤。存储器用于存储各种类型的数据,这些数据例如可以包括电子设备中的任何应用程序或方法的指令,以及应用程序相关的数据。
所述处理器可以是专用集成电路(Application Specific Integrated Circuit,简称ASIC)、数字信号处理器(Digital Signal Processor,简称DSP)、数字信号处理设备(Digital Signal Processing Device,简称DSPD)、可编程逻辑器件(Programmable LogicDevice,简称PLD)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述实施例一中的地图更新方法。
所述存储器可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(Static Random Access Memory,简称SRAM),电可擦除可编程只读存储器(Electrically Erasable Programmable Read-Only Memory,简称EEPROM),可擦除可编程只读存储器(Erasable Programmable Read-Only Memory,简称EPROM),可编程只读存储器(Programmable Read-Only Memory,简称PROM),只读存储器(Read-Only Memory,简称ROM),磁存储器,快闪存储器,磁盘或光盘。
虽然本发明所揭露的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。任何本发明所属技术领域内的技术人员,在不脱离本发明所揭露的精神和范围的前提下,可以在实施的形式上及细节上作任何的修改与变化,但本发明的专利保护范围,仍须以所附的权利要求书所界定的范围为准。

Claims (11)

1.一种地图更新方法,其特征在于,所述方法包括:
获取移动机器人的双目图像采集设备在第一位置处采集的第一图像和与该第一图像对应的第一深度信息;
在对所述第一图像进行识别得到的识别结果中包括目标障碍物时,根据所述第一深度信息得到该目标障碍物对应在地图中的第一目标位置和该目标障碍物对应的第一障碍物图层,将所述第一障碍物图层添加至所述地图中的第一目标位置处,并控制所述移动机器人移动至第二位置,其中,所述地图是基于所述移动机器人采集到的深度信息建立的;
获取所述移动机器人在所述第二位置处采集的包括所述目标障碍物第二图像和与该第二图像对应的第二深度信息;
根据所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层,并利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新,以对所述地图进行更新。
2.根据权利要求1所述的地图更新方法,其特征在于,根据所述第一深度信息得到该目标障碍物对应在地图中的第一目标位置和该目标障碍物对应的第一障碍物图层,包括:
将所述第一深度信息转化为第一灰度图,获取所述目标障碍物在所述第一灰度图中对应的第一目标灰度图像,并根据第一深度信息得到所述第一位置与第一目标灰度图像的轮廓中轮廓点的位置关系和距离;
根据所述第一位置在所述地图中的第一定位信息、所述第一位置与第一目标灰度图像的轮廓中多个轮廓点的位置关系和距离得到所述目标障碍物在所述地图中的第一目标位置;
根据所述第一目标灰度图像的轮廓得到第一轮廓中心,并从所述第一目标灰度图像的轮廓中确定第一目标轮廓点,并根据该第一目标轮廓点与所述第一轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀以得到第一障碍物图层。
3.根据权利要求2所述的地图更新方法,其特征在于,根据所述第一目标灰度图像的轮廓得到第一轮廓中心,包括:
从与所述双目图像采集设备的光轴平行的多条轴线中选取与所述第一目标灰度图像的轮廓有交点,且距离为最远的两条第一目标轴线;
对所述第一目标灰度图像的轮廓中与该两条第一目标轴线相交的轮廓点求取均值以得到所述第一目标灰度图像的轮廓的第一轮廓中心。
4.根据权利要求3所述的地图更新方法,其特征在于,从所述第一目标灰度图像的轮廓中确定第一目标轮廓点,包括:
从所述第一目标灰度图像的轮廓中与该两条第一目标轴线相交的轮廓点中选取到所述第一轮廓中心距离最近的第一目标轮廓点。
5.根据权利要求1所述的地图更新方法,其特征在于,控制所述移动机器人移动至第二位置,包括:
控制所述移动机器人按照预设移动轨迹移动,以移动至该预设移动轨迹上的多个第二位置。
6.根据权利要求1所述的地图更新方法,其特征在于,根据所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层,包括:
将所述第二深度信息转化为第二灰度图,获取所述目标障碍物在所述第二灰度图中对应的第二目标灰度图像,并根据第二深度信息得到所述第二位置与第二目标灰度图像的轮廓中轮廓点的位置关系和距离;
根据所述第二位置在所述地图中的第二定位信息、所述第二位置与第二目标灰度图像的轮廓中多个轮廓点的位置关系和距离得到所述目标障碍物在所述地图中的第二目标位置;
根据所述第二目标灰度图像的轮廓得到第二轮廓中心,并从所述第二目标灰度图像的轮廓中确定第二目标轮廓,并根据该第二目标轮廓点与所述第二轮廓中心之间的距离和所述目标障碍物的属性进行中心点膨胀以得到第二障碍物图层。
7.根据权利要求1所述的地图更新方法,其特征在于,利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新,以对所述地图进行更新,包括:
将所述第一目标位置在所述地图中的坐标值和第二目标位置在所述地图中的坐标值进行加权处理,得到的加权处理后的坐标值,将该加权处理后的坐标值对应的在地图中的位置作为更新后的目标位置;
提取所述第二障碍物图层中的目标障碍物的姿态,并利用该目标障碍物的姿态更新所述第一障碍物图层中的目标障碍物;
将所述第一障碍物图层中更新后的目标障碍物添加至更新后的目标位置,以对所述地图进行更新。
8.根据权利要求1所述的地图更新方法,其特征在于,所述方法还包括:
获取多张样本图像,其中,每张所述样本图像中包括物品图像及该物品图像的标注结果;
将所述多张样本图像输入至神经网络进行训练以得到图像识别模型;
利用所述图像识别模型对所述第一图像进行识别,以得到所述第一图像对应的识别结果。
9.一种地图更新装置,其特征在于,所述装置包括:
第一获取模块,用于获取移动机器人的双目图像采集设备在第一位置处采集的第一图像和与该第一图像对应的第一深度信息;
图层添加模块,用于在对所述第一图像进行识别得到的识别结果中包括目标障碍物时,根据所述第一深度信息得到该目标障碍物对应在地图中的第一目标位置和该目标障碍物对应的第一障碍物图层,将所述第一障碍物图层添加至所述地图中的第一目标位置处,并控制所述移动机器人移动至第二位置,其中,所述地图是基于所述移动机器人采集到的深度信息建立的;
第二获取模块,用于获取所述移动机器人在所述第二位置处采集的包括所述目标障碍物第二图像和与该第二图像对应的第二深度信息;
地图更新模块,用于根据所述第二深度信息得到所述目标障碍物在所述地图中的第二目标位置以及第二障碍物图层,并利用所述第二目标位置和第二障碍物图层分别对所述第一目标位置和所述第一障碍物图层进行更新,以对所述地图进行更新。
10.一种存储介质,该存储介质存储有计算机程序,其特征在于,所述计算机程序被一个或多个处理器执行时实现如权利要求1-8中任意一项所述的地图更新方法。
11.一种电子设备,其特征在于,包括存储器和处理器,所述存储器上存储有计算机程序,该计算机程序被所述处理器执行时,执行如权利要求1-8任意一项所述的地图更新方法。
CN202010576705.3A 2020-06-22 2020-06-22 地图更新方法、装置、存储介质及电子设备 Active CN111726591B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010576705.3A CN111726591B (zh) 2020-06-22 2020-06-22 地图更新方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010576705.3A CN111726591B (zh) 2020-06-22 2020-06-22 地图更新方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN111726591A true CN111726591A (zh) 2020-09-29
CN111726591B CN111726591B (zh) 2021-11-23

Family

ID=72568282

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010576705.3A Active CN111726591B (zh) 2020-06-22 2020-06-22 地图更新方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN111726591B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308039A (zh) * 2020-11-25 2021-02-02 珠海市一微半导体有限公司 一种基于tof摄像头的障碍物分割处理方法及芯片
CN114474064A (zh) * 2022-03-04 2022-05-13 美智纵横科技有限责任公司 机器人控制方法及其装置、扫地机器人和存储介质
WO2023138373A1 (zh) * 2022-01-24 2023-07-27 追觅创新科技(苏州)有限公司 地图处理方法、系统和自移动设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150212521A1 (en) * 2013-05-23 2015-07-30 Irobot Corporation Simultaneous Localization And Mapping For A Mobile Robot
CN109765901A (zh) * 2019-02-18 2019-05-17 华南理工大学 基于线激光与双目视觉的动态代价地图导航方法
CN109895100A (zh) * 2019-03-29 2019-06-18 深兰科技(上海)有限公司 一种导航地图的生成方法、装置及机器人
CN110522359A (zh) * 2019-09-03 2019-12-03 深圳飞科机器人有限公司 清洁机器人以及清洁机器人的控制方法
US10620636B2 (en) * 2017-01-25 2020-04-14 Lg Electronics Inc. Method of identifying functional region in 3-dimensional space, and robot implementing the method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150212521A1 (en) * 2013-05-23 2015-07-30 Irobot Corporation Simultaneous Localization And Mapping For A Mobile Robot
US10620636B2 (en) * 2017-01-25 2020-04-14 Lg Electronics Inc. Method of identifying functional region in 3-dimensional space, and robot implementing the method
CN109765901A (zh) * 2019-02-18 2019-05-17 华南理工大学 基于线激光与双目视觉的动态代价地图导航方法
CN109895100A (zh) * 2019-03-29 2019-06-18 深兰科技(上海)有限公司 一种导航地图的生成方法、装置及机器人
CN110522359A (zh) * 2019-09-03 2019-12-03 深圳飞科机器人有限公司 清洁机器人以及清洁机器人的控制方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112308039A (zh) * 2020-11-25 2021-02-02 珠海市一微半导体有限公司 一种基于tof摄像头的障碍物分割处理方法及芯片
WO2023138373A1 (zh) * 2022-01-24 2023-07-27 追觅创新科技(苏州)有限公司 地图处理方法、系统和自移动设备
CN114474064A (zh) * 2022-03-04 2022-05-13 美智纵横科技有限责任公司 机器人控制方法及其装置、扫地机器人和存储介质
CN114474064B (zh) * 2022-03-04 2024-01-09 美智纵横科技有限责任公司 机器人控制方法及其装置、扫地机器人和存储介质

Also Published As

Publication number Publication date
CN111726591B (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
CN111726591B (zh) 地图更新方法、装置、存储介质及电子设备
US10740920B1 (en) Method and apparatus for combining data to construct a floor plan
CN110989631B (zh) 自移动机器人控制方法、装置、自移动机器人和存储介质
US11227434B2 (en) Map constructing apparatus and map constructing method
CN113670292B (zh) 地图的绘制方法和装置、扫地机、存储介质、电子装置
CN111609852A (zh) 语义地图构建方法、扫地机器人及电子设备
US20110188708A1 (en) Three-dimensional edge extraction method, apparatus and computer-readable medium using time of flight camera
CN108628318B (zh) 拥堵环境检测方法、装置、机器人及存储介质
CN113848943B (zh) 栅格地图的修正方法及装置、存储介质及电子装置
CN111521184A (zh) 一种扫地机器人的建图方法、装置及系统
CN113907663B (zh) 障碍物地图构建方法、清洁机器人及存储介质
CN111709988B (zh) 一种物体的特征信息的确定方法、装置、电子设备及存储介质
JP2022540109A (ja) クロスモーダルセンサデータの位置合わせ
CN111679661A (zh) 基于深度相机的语义地图构建方法及扫地机器人
CN111476894A (zh) 三维语义地图构建方法、装置、存储介质及电子设备
CN111609853A (zh) 三维地图构建方法、扫地机器人及电子设备
CN111739099A (zh) 预防跌落方法、装置及电子设备
CN116416518A (zh) 智能避开障碍的方法及装置
US20200368899A1 (en) Probabilistic object models for robust, repeatable pick-and-place
CN111198563B (zh) 一种用于足式机器人动态运动的地形识别方法及系统
CN115546216B (zh) 一种托盘检测方法、装置、设备及存储介质
CN112182122A (zh) 一种移动机器人工作环境导航地图的获取方法及装置
CN115381335B (zh) 一种扫地机器人的路径控制方法、装置、设备及存储介质
CN114862953A (zh) 一种基于视觉特征和3d激光的移动机器人重定位方法及装置
CN115700507B (zh) 地图更新方法及其装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant