CN111899299A - 地面障碍物地图标记方法、移动机器人和存储介质 - Google Patents

地面障碍物地图标记方法、移动机器人和存储介质 Download PDF

Info

Publication number
CN111899299A
CN111899299A CN202010548704.8A CN202010548704A CN111899299A CN 111899299 A CN111899299 A CN 111899299A CN 202010548704 A CN202010548704 A CN 202010548704A CN 111899299 A CN111899299 A CN 111899299A
Authority
CN
China
Prior art keywords
obstacle
depth
robot
coordinate system
position coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010548704.8A
Other languages
English (en)
Inventor
许少强
向良华
董敏杰
潘何浩
罗方龙
陈兆先
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huizhi Robot Technology Shenzhen Co ltd
Original Assignee
Flyingwings Intelligent Robot Technology Shanghai Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Flyingwings Intelligent Robot Technology Shanghai Co ltd filed Critical Flyingwings Intelligent Robot Technology Shanghai Co ltd
Priority to CN202010548704.8A priority Critical patent/CN111899299A/zh
Publication of CN111899299A publication Critical patent/CN111899299A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • G06T2207/101363D ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Electromagnetism (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种地面障碍物地图标记方法、移动机器人和存储介质,涉及移动机器人技术领域。其方法技术要点包括从深度相机中读取彩色图像;利用深度学习训练的识别模型检测识别彩色图像中的障碍物,并基于识别的障碍物生成障碍物边界框;将深度相机中彩色图像的障碍物边界框映射到深度图像中,获取深度图像中的检测边界框;基于深度图像中的边界框计算出障碍物与机器人之间的深度距离;获取机器人在三维坐标系中的位置坐标,计算得到地图坐标系下的障碍物的位置坐标;机器人通讯客户端,将障碍物在地图坐标系下的位置坐标发送至客户端,本发明具有减轻清洁工后续搜寻障碍物的工作量的优点。

Description

地面障碍物地图标记方法、移动机器人和存储介质
技术领域
本发明涉及移动机器人技术领域,更具体地说,它涉及一种地面障碍物地图标记方法、移动机器人和存储介质。
背景技术
目前移动机器人应用的范围越来越广,除了应用在家庭环境下之外,移动机器人还应用在商场和地库等垃圾种类繁多的复杂环境下进行清洁。在复杂环境下会出现移动机器人无法清理的障碍物,如矿水瓶、易拉罐或其它较小的障碍物。
而面对此类障碍物,现有的移动机器人无法清理,一般会选择绕开。因此为了保持地库或商场的清洁,还需要雇佣清洁工人进行二次清理,捡取障碍物。在现有方式中,若移动机器人的工作范围较大,需要清洁工逐一搜寻,工作量大。
发明内容
针对现有的技术问题,本发明的目的在于提供一种地面障碍物地图标记方法,其具有减轻清洁工后续搜寻障碍物的工作量优点。
为实现上述目的,本发明提供了如下技术方案:一种地面障碍物地图标记方法,包括:
从深度相机中读取彩色图像;
利用深度学习训练的识别模型检测识别彩色图像中的障碍物,并基于识别的障碍物生成障碍物边界框;
将深度相机中彩色图像的障碍物边界框映射到深度图像中,获取深度图像中的检测边界框;
基于深度图像中的边界框计算出障碍物与机器人之间的深度距离;
获取机器人在三维坐标系中的位置坐标,并根据深度距离计算获取障碍物在三维坐标系中的位置坐标,将机器人的三维坐标系变换到地图坐标系下,计算得到地图坐标系下的障碍物的位置坐标;
机器人通讯客户端,将障碍物在地图坐标系下的位置坐标发送至客户端。
通过采用上述技术方案,根据现有技术可知深度相机能够拍摄两种图像,第一种是彩色图像,第二种是深度图像。通过深度学习训练模型可以实时地识别出与检测障碍物在彩色图像中的边界框。根据得到的障碍物边界框和深度相机得到障碍物深度距离信息与机器人自身的位置通过坐标变换可以实时地得到障碍物在地图中的位置坐标。深度相机自动检测与识别地面障碍物,并将障碍物位姿信息标记到地图中发送至客户端,帮助清洁工快速定位障碍物,提高搜寻效率。
本发明进一步设置为:所述深度相机设置于移动机器人的前侧的下方。
通过采用上述技术方案,由于移动机器人是向前移动的,因此在移动机器人移动的过程中,前侧下方的深度相机能够持续的获取到移动机器人移动方向上的障碍物,起到避让障碍物的同时也能起到很好的测距效果。
本发明进一步设置为:所述识别模型包括数据集,所述数据集中包括70%的训练集、15%的验证集和15%的测试集。
通过采用上述技术方案,识别模型的深度学习,基于对数据集中训练集、验证集和测试集的分配,来保证深度学习获得的数据信息稳定而准确。
本发明进一步设置为:利用所述识别模型比对彩色图像,当彩色图像的置信度超过预设置信度值时,彩色图像被识别为存在障碍物。
通过采用上述技术方案,由于障碍物之间虽然存在共性,但是也存在一定的差异性,因此在实际运用识别模型的过程中,无需判断彩色图像中的物体和识别模型完全一致,因此设置置信度能够提升识别障碍物的准确度。
本发明进一步设置为:所述预设置信度值至少为0.5。
通过采用上述技术方案,0.5的置信度能够起到良好的识别效果,只有在彩色图像和识别模型之间的相同出超过0.5才能起到良好的障碍物准确度识别。
本发明进一步设置为:计算障碍物与机器人之间的深度距离包括:
基于深度图像计算获取边界框内各点的深度信息;
结合各点的深度信息变换得到点云;
将点云按深度信息大小进行排序,选择深度信息距离处于中部的点云作为检测距离的检测点云;
基于检测点云计算获得障碍物的深度距离。
通过采用上述技术方案,将点云按距离大小进行排序,选择中间的一些点云作为检测物体的点云,能够去除边界框中背景距离信息,就可得到障碍物在前下深度相机坐标系下较准确的距离信息,且无需框选障碍物的边界。
本发明进一步设置为:检测点云选择深度信息距离处于中部40-60%的点云。
通过采用上述技术方案,40-60%的深度信息量,能够较为全面的去除边界框中的背景距离信息,且能够保证一定的数据量确保计算深度信息计算准确。
本发明进一步设置为:机器人通讯客户端,将障碍物在地图坐标系下的位置坐标发送至客户端之后还包括:客户端将障碍物在地图坐标系下的位置坐标通过短信方式发送给移动终端。
通过采用上述技术方案,移动终端可以是手机等具有通讯功能的设备,因此清洁工在清洁过程中,无需自主去查询障碍物位置,能够通过移动终端上的短信信息获取到障碍物的位置坐标信息。
本发明目的二是提供一种移动机器人,具有超声波探头频率的有效利用率高的特点。
本发明的上述发明目的二是通过以下技术方案得以实现的:
一种移动机器人,包括存储器和处理器,所述存储器上存储有能够被处理器加载并执行上述地面障碍物地图标记方法的计算机程序。
本发明目的三是提供一种计算机存储介质,能够存储相应的程序,具有便于实现超声波探头频率的有效利用率高的特点。
本发明的上述发明目的三是通过以下技术方案得以实现的:
一种计算机可读存储介质,存储有能够被处理器加载并执行上述任一种地面障碍物地图标记方法的计算机程序。
与现有技术相比,本发明的有益效果是:
(1)将得到的障碍物位置信息通过短信方式发送给清洁工,清洁工不需要四处巡逻寻找障碍物,通过客户端可以查看所有障碍物的位置坐标信息,提高了清理效率;
(2)移动机器人在工作中自动将障碍物位置坐标标记在地图中,无需手动绘制;
(3)采用先获取边界框在点云计算中值的方式,保证了计算深度距离的效率和准确率。
附图说明
图1为地面障碍物地图标记方法的流程示意图。
具体实施方式
下面结合附图和实施例,对本发明进行详细描述。
实施例,一种地面障碍物地图标记方法,该障碍物地图标记方法主要应用于安装有深度相机的移动机器人。
其中,深度相机(又称之为3D相机)于普通彩色相机最大区别在于深度相机能够检测出拍摄空间的距离信息。普通的彩色相机拍摄到的图片能看到相机视角内的所有物体并记录下来,但是其所记录的数据不包含这些物体距离相机的距离。仅仅能通过图像的语义分析来判断哪些物体比较远,哪些比较近,并没有确切的数据。
而深度相机能准确知道图像中每个点离摄像头距离,因此通过深度相机拍摄的图像除了拍摄获得彩色图像外,还能通过拍摄获取每个点离摄像头距离的深度图像。
一种地面障碍物地图标记方法,包括以下步骤:
S1、从深度相机中读取彩色图像;
深度相机采用间隔指定时长拍摄的方式,也可以采用当移动机器人检测到移动方向上具有障碍时执行拍摄的方式启动。其中,当移动机器人检测到移动方向上具有障碍时执行拍摄的方式能够更加节能作为优选。而移动机器人检测移动方向上具有障碍的方式可类似于现有移动机器人,采用超声波传感器和红外线传感器的方式,故不赘述。
而为了保证深度相机能够稳定的拍摄到障碍的图像信息。深度相机安装在移动机器人前侧的下方,保证移动机器人移动的过程中,前侧下方的深度相机能够拍摄获取到移动机器人移动方向上的障碍图像,以用于判定障碍是否为障碍物。而当深度相机拍摄后,会产生彩色图像和深度图像两张图像,首先从深度相机中读取彩色图像来判定图像中是否存在障碍物。
S2、利用深度学习训练的识别模型检测识别彩色图像中的障碍物,并基于识别的障碍物生成障碍物边界框;
识别模型的深度学习训练采用包括数据集中的神经网络训练。数据集中包括70%的训练集、15%的验证集和15%的测试集。其中训练集:顾名思义指的是用于训练的样本集合,主要用来训练神经网络中的参数。验证集:从字面意思理解即为用于验证模型性能的样本集合。不同神经网络在训练集上训练结束后,通过验证集来比较判断各个模型的性能。这里的不同模型主要是指对应不同超参数的神经网络,也可以指完全不同结构的神经网络。测试集:对于训练完成的神经网络,测试集用于客观的评价神经网络的性能。
上述识别模型设计适合障碍物小目标的多尺度特征融合的轻量级神经网络,调整合适的超参数进行训练,以提高准确率与模型鲁棒性。利用模型检测和识别各种障碍物,训练完的识别模型经过量化、剪枝等方式减小模型的参数量与复杂度。
在步骤S2中,首先通过识别模型和深度相机拍摄的彩色图像进行比对判断彩色图像中是否存在障碍物。当彩色图像的置信度超过预设置信度值时,彩色图像被识别为存在障碍物。预设置信度值至少为0.5。即彩色图像中存在和识别模型中置信度超过0.5的物体后,就判断彩色图像中存在障碍物,反之则不存在。
而当在彩色图像中识别到障碍物后,在障碍物的边界处生成矩形的边界框,以减小选中障碍物边界的运算量。
S3、将深度相机中彩色图像的障碍物边界框映射到深度图像中,获取深度图像中的检测边界框;
彩色图像中的每个点和深度图像中每个点的位置相对应的,因此通过边界框的映射能够快速获取到深度图像中存在障碍物的检测边界框。
S4、基于深度图像中的边界框计算出障碍物与机器人之间的深度距离;
步骤S4中计算障碍物与机器人之间的深度距离包括以下步骤:
S41、基于深度图像计算获取边界框内各点的深度信息;
S42、结合各点的深度信息变换得到点云;
S43、将点云按深度信息大小进行排序,选择深度信息距离处于中部的点云作为检测距离的检测点云;
S44、基于检测点云计算获得障碍物的深度距离。
其中,在步骤S43中,检测点云选择深度信息距离处于中部40-60%的点云。能够较为全面的去除边界框中的背景距离信息,且能够保证一定的数据量确保计算深度信息计算准确。
在步骤S44中,障碍物的深度距离基于计算检测点云的深度信息均值获得。由于检测点云内大概率都是障碍物的深度信息,因此通过均值计算能够保证最后计算获得的深度距离落入到障碍物的轮廓里,使得计算结果准确。
S5、获取机器人在三维坐标系中的位置坐标,并根据深度距离计算获取障碍物在三维坐标系中的位置坐标,将机器人的三维坐标系变换到地图坐标系下,计算得到地图坐标系下的障碍物的位置坐标;
S6、机器人通讯客户端,将障碍物在地图坐标系下的位置坐标发送至客户端;
具体的,机器人将障碍物在地图坐标系下的位置坐标以广播通讯的方式发送至客户端。
S7、客户端将障碍物在地图坐标系下的位置坐标通过短信方式发送给移动终端。
移动终端可以是手机等具有通讯功能的设备,因此清洁工在清洁过程中,无需自主去查询障碍物位置,能够通过移动终端上的短信信息获取到障碍物的位置坐标信息。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意结合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者安装有计算机的移动机器人。所述计算机指令可以存储在计算机可读移动式存储设备中。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读移动式存储设备中,上述提到的移动式存储设备可以是U盘、TF卡或SD卡等。
在本发明中,移动机器人除了躲避障碍还能够在躲避障碍的同时,获取深度相机拍摄的图像信息。并利用图像信息中的彩色图像和识别模型对比获取躲避的障碍是否为深度学习训练的识别模型中的障碍物,障碍物一般为矿水瓶、易拉罐等。并在判断是彩色图像中存在障碍物后,在彩色图像中使用矩形的边界框。
之后利用深度相机中彩色图像和深度图像相对应的关系,映射获得深度相机上具有障碍物的边界框;在障碍物边界框内构成具有深度信息的点云,选取深度信息处于中部的点云作为检测点云,来排除背景。并计算检测点云中深度信息的平均值作为障碍物和移动机器人的距离。
而后获取机器人在三维坐标系中的位置坐标,并根据深度距离计算获取障碍物在地图坐标系中的位置坐标,最后将障碍物在地图坐标系中的位置坐标通讯发送至客户端,有客户端发送至清洁工持有的移动终端上。
从而实现了移动机器人在工作中自动将障碍物位置坐标标记在客户端的地图坐标系中,并通过客户端发送至至清洁工手持的移动终端上,从而帮助清洁工快速定位障碍物,提高搜寻效率。
以上所述仅是本发明的优选实施方式,本发明的保护范围并不仅局限于上述实施例,凡属于本发明思路下的技术方案均属于本发明的保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (10)

1.一种地面障碍物地图标记方法,其特征在于:包括:
从深度相机中读取彩色图像;
利用深度学习训练的识别模型检测识别彩色图像中的障碍物,并基于识别的障碍物生成障碍物边界框;
将深度相机中彩色图像的障碍物边界框映射到深度图像中,获取深度图像中的检测边界框;
基于深度图像中的检测边界框计算出障碍物与机器人之间的深度距离;
获取机器人在三维坐标系中的位置坐标,并根据深度距离计算获取障碍物在三维坐标系中的位置坐标,将机器人的三维坐标系变换到地图坐标系下,计算得到地图坐标系下的障碍物的位置坐标;
机器人通讯客户端,将障碍物在地图坐标系下的位置坐标发送至客户端。
2.根据权利要求1所述的地面障碍物地图标记方法,其特征在于:所述深度相机设置于移动机器人的前侧的下方。
3.根据权利要求1所述的地面障碍物地图标记方法,其特征在于:所述识别模型包括数据集,所述数据集中包括70%的训练集、15%的验证集和15%的测试集。
4.根据权利要求1所述的地面障碍物地图标记方法,其特征在于:利用所述识别模型比对彩色图像,当彩色图像的置信度超过预设置信度值时,彩色图像被识别为存在障碍物。
5.根据权利要求4所述的地面障碍物地图标记方法,其特征在于:所述预设置信度值至少为0.5。
6.根据权利要求5所述的地面障碍物地图标记方法,其特征在于:计算障碍物与机器人之间的深度距离包括:
基于深度图像计算获取边界框内各点的深度信息;
结合各点的深度信息变换得到点云;
将点云按深度信息大小进行排序,选择深度信息距离处于中部的点云作为检测距离的检测点云;
基于检测点云计算获得障碍物的深度距离。
7.根据权利要求6所述的地面障碍物地图标记方法,其特征在于:检测点云选择深度信息距离处于中部40-60%的点云。
8.根据权利要求1所述的地面障碍物地图标记方法,其特征在于:机器人通讯客户端,将障碍物在地图坐标系下的位置坐标发送至客户端之后还包括:
客户端将障碍物在地图坐标系下的位置坐标通过短信方式发送给移动终端。
9.一种移动机器人,其特征在于,包括存储器和处理器,所属存储器上存储有能够被处理器加载并执行如权利要求1至8中任一种方法的计算机程序。
10.一种计算机可读存储介质,其特征在于,存储有能够被处理器加载并执行如权利要求1至8中任一种方法的计算机程序。
CN202010548704.8A 2020-06-16 2020-06-16 地面障碍物地图标记方法、移动机器人和存储介质 Pending CN111899299A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010548704.8A CN111899299A (zh) 2020-06-16 2020-06-16 地面障碍物地图标记方法、移动机器人和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010548704.8A CN111899299A (zh) 2020-06-16 2020-06-16 地面障碍物地图标记方法、移动机器人和存储介质

Publications (1)

Publication Number Publication Date
CN111899299A true CN111899299A (zh) 2020-11-06

Family

ID=73207681

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010548704.8A Pending CN111899299A (zh) 2020-06-16 2020-06-16 地面障碍物地图标记方法、移动机器人和存储介质

Country Status (1)

Country Link
CN (1) CN111899299A (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112528781A (zh) * 2020-11-30 2021-03-19 广州文远知行科技有限公司 一种障碍物检测方法、装置、设备和计算机可读存储介质
CN113282088A (zh) * 2021-05-21 2021-08-20 潍柴动力股份有限公司 工程车的无人驾驶方法、装置、设备、存储介质及工程车
CN113841154A (zh) * 2021-03-30 2021-12-24 华为技术有限公司 一种障碍物检测方法及装置
WO2022095654A1 (zh) * 2020-11-09 2022-05-12 达闼机器人股份有限公司 基于点云的地图校准方法、系统、机器人及云端平台
CN114627239A (zh) * 2022-03-04 2022-06-14 北京百度网讯科技有限公司 包围盒生成方法、装置、设备及存储介质
CN115381335A (zh) * 2022-04-26 2022-11-25 深圳市普森斯科技有限公司 一种扫地机器人的路径控制方法、装置、设备及存储介质
CN116051775A (zh) * 2023-03-06 2023-05-02 超节点创新科技(深圳)有限公司 语义地图构建方法、移动机器人及存储介质

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022095654A1 (zh) * 2020-11-09 2022-05-12 达闼机器人股份有限公司 基于点云的地图校准方法、系统、机器人及云端平台
CN112528781A (zh) * 2020-11-30 2021-03-19 广州文远知行科技有限公司 一种障碍物检测方法、装置、设备和计算机可读存储介质
CN112528781B (zh) * 2020-11-30 2024-04-26 广州文远知行科技有限公司 一种障碍物检测方法、装置、设备和计算机可读存储介质
CN113841154A (zh) * 2021-03-30 2021-12-24 华为技术有限公司 一种障碍物检测方法及装置
WO2022204905A1 (zh) * 2021-03-30 2022-10-06 华为技术有限公司 一种障碍物检测方法及装置
CN113282088A (zh) * 2021-05-21 2021-08-20 潍柴动力股份有限公司 工程车的无人驾驶方法、装置、设备、存储介质及工程车
CN114627239A (zh) * 2022-03-04 2022-06-14 北京百度网讯科技有限公司 包围盒生成方法、装置、设备及存储介质
CN114627239B (zh) * 2022-03-04 2024-04-30 北京百度网讯科技有限公司 包围盒生成方法、装置、设备及存储介质
CN115381335A (zh) * 2022-04-26 2022-11-25 深圳市普森斯科技有限公司 一种扫地机器人的路径控制方法、装置、设备及存储介质
CN115381335B (zh) * 2022-04-26 2024-01-02 深圳市普森斯科技有限公司 一种扫地机器人的路径控制方法、装置、设备及存储介质
CN116051775A (zh) * 2023-03-06 2023-05-02 超节点创新科技(深圳)有限公司 语义地图构建方法、移动机器人及存储介质
CN116051775B (zh) * 2023-03-06 2023-08-04 超节点创新科技(深圳)有限公司 语义地图构建方法、移动机器人及存储介质

Similar Documents

Publication Publication Date Title
CN111899299A (zh) 地面障碍物地图标记方法、移动机器人和存储介质
CN110163904B (zh) 对象标注方法、移动控制方法、装置、设备及存储介质
CN110349250B (zh) 一种基于rgbd相机的室内动态场景的三维重建方法
EP3825903A1 (en) Method, apparatus and storage medium for detecting small obstacles
JP5380789B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
CN109086724B (zh) 一种加速的人脸检测方法及存储介质
US20110164832A1 (en) Image-based localization feature point registration apparatus, method and computer-readable medium
Mendez et al. Sedar-semantic detection and ranging: Humans can localise without lidar, can robots?
JP5297727B2 (ja) ロボット装置及び物体の位置姿勢推定方法
CN109033985B (zh) 商品识别的处理方法、装置、设备、系统及存储介质
CN112075879A (zh) 一种信息处理方法、装置及存储介质
CN111322993B (zh) 一种视觉定位方法和装置
WO2023066078A1 (zh) 栅格地图的修正方法及装置、存储介质及电子装置
Lee et al. Vision-based kidnap recovery with SLAM for home cleaning robots
Elseberg et al. Full wave analysis in 3D laser scans for vegetation detection in urban environments
Ortigosa et al. Obstacle-free pathway detection by means of depth maps
Cociaş et al. Multiple-superquadrics based object surface estimation for grasping in service robotics
JP7133971B2 (ja) 3次元モデル生成装置及び3次元モデル生成方法
CN111260709B (zh) 一种面向动态环境的地面辅助的视觉里程计方法
CN115019164A (zh) 一种基于深度学习方法的图像型火灾探测器烟火识别方法
CN114740867A (zh) 基于双目视觉的智能避障方法、装置、机器人及介质
CN112598736A (zh) 一种基于地图构建的视觉定位方法及装置
Dong et al. Semantic Lidar Odometry and Mapping for Mobile Robots Using RangeNet++
CN110187921A (zh) 唤醒设备的方法及装置
CN115375985B (zh) 非限定类别障碍物检测方法、相关网络训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20221013

Address after: Room 702, Block B, Wanhai Building, No. 1031 Nanhai Avenue, Yanshan Community, Zhaoshang Street, Nanshan District, Shenzhen, Guangdong 518000

Applicant after: Huizhi robot technology (Shenzhen) Co.,Ltd.

Address before: 3 / F, building 1, 400 Fangchun Road, Pudong New Area (Shanghai) pilot Free Trade Zone, Shanghai

Applicant before: FLYINGWINGS INTELLIGENT ROBOT TECHNOLOGY (SHANGHAI) CO.,LTD.