CN113984037A - 一种基于任意方向目标候选框的语义地图构建方法 - Google Patents

一种基于任意方向目标候选框的语义地图构建方法 Download PDF

Info

Publication number
CN113984037A
CN113984037A CN202111157543.0A CN202111157543A CN113984037A CN 113984037 A CN113984037 A CN 113984037A CN 202111157543 A CN202111157543 A CN 202111157543A CN 113984037 A CN113984037 A CN 113984037A
Authority
CN
China
Prior art keywords
point cloud
camera
target
depth
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111157543.0A
Other languages
English (en)
Other versions
CN113984037B (zh
Inventor
范峥荣
方黎勇
杨方健
刘伟
李�昊
周启南
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing Shidao Information Technology Co ltd
Yangtze River Delta Research Institute of UESTC Huzhou
Original Assignee
Nanjing Shidao Information Technology Co ltd
Yangtze River Delta Research Institute of UESTC Huzhou
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing Shidao Information Technology Co ltd, Yangtze River Delta Research Institute of UESTC Huzhou filed Critical Nanjing Shidao Information Technology Co ltd
Priority to CN202111157543.0A priority Critical patent/CN113984037B/zh
Publication of CN113984037A publication Critical patent/CN113984037A/zh
Application granted granted Critical
Publication of CN113984037B publication Critical patent/CN113984037B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3837Data obtained from a single source
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3863Structures of map data
    • G01C21/387Organisation of map data, e.g. version management or database structures

Abstract

本发明提出了一种基于任意方向目标候选框的语义地图构建方法,包括:S1,采用相机获取深度图像,再由深度图像获得原始点云数据;S2,采用相机获得RGB彩色图像;S3,针对RGB彩色图像,设计任意方向目标检测器,对所获得图像进行检测,获得目标的任意方向候选框;S4,将S3得到的任意方向候选框投影到步骤S1中的点云中,进行点云的框取,并进行后处理,获得较为规整的点云团;并完成框取点云与目标类别的数据关联,得到3D目标的语义信息;S5,利用视觉里程计信息将点云坐标转换为世界坐标系下的坐标并进行存储,即可保存点云语义地图。本发明能理解和利用环境中物体级别的高维语义信息进行定位、建图和路径规划,拥有对环境的全局理解能力。

Description

一种基于任意方向目标候选框的语义地图构建方法
技术领域
本发明涉及机器人智能感知领域,尤其涉及基于任意方向目标候选框的语义地图构建方法。
背景技术
工业技术发展迅猛,移动机器人在生活中已经是屡见不鲜,例如送餐机器人、物流机器人、移动服务类机器人。这些机器人均实现了基本的建图、定位、导航等任务,但是这些机器人在大场景、跨区域、弱特征、高动态的场景下真的能够完成更复杂的任务吗?地面移动机器人经常面临复杂的、非结构化的场景。因此其核心技术涉及环境感知和建模能力、目标识别及自主任务规划能力、路径规划和决策能力。其中,环境感知和建模就如同人的眼睛获取外界图像一样,对机器人而言是至关重要的。目前的移动机器人普遍无法做到理解和利用环境中物体级别的高维语义信息,只能利用环境中的点、线、面等低维信息进行定位、建图和路径规划,缺乏对环境的全局理解能力。
发明内容
本发明旨在至少解决现有技术中存在的技术问题,特别创新地提出了一种基于任意方向目标候选框的语义地图构建方法。
为了实现本发明的上述目的,本发明提供了一种基于任意方向目标候选框的语义地图构建方法,包括以下步骤:
S1,采用相机一获取深度图像,再由深度图像获得原始点云数据;
S2,采用相机二获得RGB彩色图像;相机一采用RGB-D相机;相机二采用RGB-D相机或彩色相机,当其相机一和相机二均采用RGB-D相机时,此时仅有一个相机,即共用同一相机。
S3,针对RGB彩色图像,设计基于改进YOLO神经网络的任意方向目标检测器,对所获得图像进行检测,获得目标的任意方向候选框;
S4,将S3得到的任意方向候选框投影到步骤S1中的点云中,进行点云的框取,并将框取的点云进行后处理,获得较为规整的点云团,即使用候选框信息进行点云分割;并完成框取点云与目标类别的数据关联,得到3D目标的语义信息;
这样即可完成单帧点云的语义提取、点云分割和数据关联;
S5,完成单帧点云分割的基础上,利用视觉里程计信息将点云坐标转换为世界坐标系下的坐标并进行存储,即可保存点云语义地图。
进一步地,所述S3中的YOLO神经网络包括主干网络,主干网络为一个CSP模块和4个CBL模块;
还包括:将顶层粗粒度特征和经过CSP网络模块的细粒度特征通过route层融合,最后经过卷积层扩充通道,连接到Yolo层进行特征解码;通过减小骨干网络的深度、进行粗细粒度的特征融合进而减小网络的参数量和计算量。
进一步地,所述S3中的目标的任意方向候选框包括:
使用标准化候选框和五参数法,将目标的groundtruth和候选框通过任意方向各自的角度变换成为轴对齐的框,再平移到原点处。
这时两个矩形框都变成了轴对齐框,容易计算其交并比IOU。
进一步地,还包括:
在损失函数中增加预测角度的损失,对角度信息进行回归。
进一步地,所述S4中的后处理包括:
通过相机内参矩阵将像素坐标转换为相机坐标系下的坐标,转换公式如下:
Figure BDA0003289206930000031
其中xc,yc分别为物体在相机坐标系下的实际横坐标和纵坐标,u,v分别为像素的横坐标与纵坐标,fx,fy分别为深度相机在X轴、Y轴方向的焦距,ppx,ppy分别为深度相机在X轴、Y轴方向的主点偏移,z为通过深度图获取的物体的深度距离信息。
本发明还公开了一种基于任意方向目标候选框的语义地图构建系统,包括机器人及与所述机器人无线通讯的云平台,机器人包括底座,在底座底部设置有用于行走用的行走装置,在底座顶部设置有用于升降的升降装置,在升降装置上设置有竖向旋转平台,在竖向旋转平台上固定安装有相机一或/和相机二,相机一与相机二的镜头方向相同;
还包括设置在竖向旋转平台内的PCB电路板,在PCB电路板上设置有控制器和无线数据模块,控制器的无线数据连接端与无线数据模块的无线数据连接端相连;
第一相机数据端与控制器的第一相机数据端相连,第二相机数据端与控制器的第二相机数据端相连,行走装置的行走控制端与控制器的行走控制端相连,升降装置的升降控制端与控制器的升降控制端相连,竖向旋转平台的旋转控制端与控制器的旋转控制端相连;
机器人根据云平台发送的移动指令进行移动,将相机一和相机二通过上下升降以及旋转拍摄的图像数据传输至云平台。
在本发明的一种优选实施方式中,当其相机一和相机二共用一个相机时,包括机器人及与所述机器人无线通讯的云平台,机器人包括底座,在底座底部设置有用于行走用的行走装置,在底座顶部设置有用于升降的升降装置,在升降装置上设置有竖向旋转平台,在竖向旋转平台上固定安装有相机;
还包括设置在竖向旋转平台内的PCB电路板,在PCB电路板上设置有控制器和无线数据模块,控制器的无线数据连接端与无线数据模块的无线数据连接端相连;
机器人根据云平台发送的移动指令进行移动,将相机一通过上下升降以及旋转拍摄的图像数据传输至云平台。将拍摄的图像数据传输至云平台的方法为:
S1-1,将待上传至云平台的图像数据进行压缩处理;降低其传输时长;得到其压缩图像包;对得到的压缩图像包进行解压缩处理,得到其解压图像数据,判断其解压图像数据与待上传至云平台的图像数据是否一致:
若解压图像数据与待上传至云平台的图像数据一致,则压缩图像包为待上传图像包,执行步骤S1-2;
若解压图像数据与待上传至云平台的图像数据不一致,则此时解压图像数据文件数量多于待上传至云平台的图像数据,将压缩图像包中多余的文件筛除后,得到其待上传图像包;
S1-2,对待上传图像包进行计算上传码,其上传码的计算方法为:
Upload code=MD5 function[upload Image package,N],
其中,MD5 function[,]表示哈希函数,优选采用MD5算法;
upload Image package表示待上传图像包;
N表示执行哈希函数迭代次数;N为大于或者等于1的正整数;优选N取4。
当N取1时,执行一次MD5算法算法,
Figure BDA0003289206930000041
U1=MD5 function[upload Image package],
当N取2时,执行两次MD5算法算法,
Figure BDA0003289206930000042
即是,U1=MD5 function[upload Image package]
U2=MD5 function[U1];
当N取3时,执行三次MD5算法算法,
Figure BDA0003289206930000051
即是,U1=MD5 function[upload Image package]
U2=MD5 function[U1];
U3=MD5 function[U2];
当N取4时,执行四次MD5算法算法,
Figure BDA0003289206930000052
即是,U1=MD5 function[upload Image package]
U2=MD5 function[U1];
U3=MD5 function[U2];
U4=MD5 function[U3];
当N取5时,执行五次MD5算法算法,
Figure BDA0003289206930000053
即是,U1=MD5 function[upload Image package]
U2=MD5 function[U1];
U3=MD5 function[U2];
U4=MD5 function[U3];
U5=MD5 function[U4];
……。
Upload code表示上传码;
S1-3,将待上传图像包和待上传图像包对应的上传码上传至云平台,云平台接收到上传图像包和上传码后,分别对其重命名为接收图像包和接收码,对接收图像包进行对比码进行计算:
Receive code=MD5 function[Receive image package,N],
其中,Receive image package表示接收图像包;
Receive code表示对比码;
若对比码与接收码一致,则对接收图像包进行解压缩;
若对比码与接收码不一致,则返回步骤S1-2。若3次传输仍然不正确,传输其余图像数据。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
能理解和利用环境中物体级别的高维语义信息进行定位、建图和路径规划,拥有对环境的全局理解能力。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1是本发明的逻辑结构示意图。
图2是本发明改进的YOLO目标识别神经网络结构图示意图。
图3是本发明目标的任意方向候选框生成示意图。
图4是本发明标准化候选框计算IOU方式的示意图。
图5是本发明映射后的点云数据示意图。
图6是本发明与固定方向点云分割的对比示意图。
图7是本发明开放场景下的点云分割效果图。
其中图7(a)为点云分割效果图;图7(b)为目标检测原图示意图。
图8是本发明TUM数据集下的典型图片示意图。
图9是本发明rgbd_dataset_freiburg1_desk上的语义地图实验结果示意图。
其中图9(a),图9(b)为不同方向的视图;图9(c)为语义标签。
图10是本发明rgbd_dataset_freiburg2_desk上的语义地图实验结果。
其中图10(a),图10(b)为不同方向的视图;图10(c)为语义标签。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
为解决上述问题,本发明公开了一种基于任意方向目标检测候选框的语义地图建模方法。该方法在构建任意方向目标检测网络的基础上,生成任意方向的2D目标候选框,根据任意方向的候选框信息在三维点云中框取合适的点云,有效的滤除多余的点云信息,再将框取的点云进行滤波等后处理计算出点云3D包围框的信息,完成点云分割和数据关联,从而获得这些地图数据的语义地图。
本发明提供了一种基于任意方向目标检测候选框的语义地图建模方法,如图1所示,包括:
步骤一:采用RGB-D相机获取深度图像,获得原始点云数据。
步骤二:采用RGB-D相机获得RGB彩色图像。
步骤三:针对RGB彩色图像,设计基于改进YOLO神经网络的任意方向目标检测器,对所获得图像进行检测,获得目标的任意方向候选框,如图3所示。
步骤四:把RGB图像中的任意方向目标检测器投影到步骤一中的点云中,进行点云的框取,并将框取的点云进行后处理,获得较为规整的点云团,完成数据关联。这样即可完成单帧点云的语义提取、点云分割和数据关联,如图4所示。
步骤五:完成单帧点云分割的基础上,利用视觉里程计信息将点云坐标转换为世界坐标系下的坐标并进行存储,即可保存点云语义地图,如图5所示。
其中,图1显示了该发明的整体技术框架和整体步骤。本章采用2D图像目标检测候选框为主进行点云分割的思路,首先使用RGB图像基于Yolo的目标检测器输出常规的轴对齐候选框,再使用深度图像生成点云数据,然后将候选框投影到3D点云中框取点云。对框取到的有序点云进行后处理,获得可靠的点云团,并完成框取点云与目标类别的数据关联,得到3D目标的语义信息。在完成单帧点云分割的基础上,利用视觉里程计信息将点云坐标转换为世界坐标系下的坐标并进行存储,即可保存点云语义地图。
图2示出了基于YOLO网络的目标识别。该网络的主干网络为一个CSP模块和4个CBL模块。与原始的网络相比,改进后的特征提取器网络缩短了主干网的深度;减少了CSP网络模块的同时,将顶层粗粒度特征和经过CSP网络模块的细粒度特征通过route层融合,最后经过卷积层扩充通道,连接到Yolo层进行特征解码。通过减小骨干网络的深度、进行粗细粒度的特征融合进而减小网络的参数量和计算量。
图3示出了目标的任意方向候选框生成。使用标准化候选框和五参数法,将目标的groundtruth和候选框通过任意方向各自的角度变换成为轴对齐的框,再平移到原点处。这时两个矩形框都变成了轴对齐框,容易计算其交并比IOU。如图4所示,为标准化任意方向框的示意图。其次考虑在损失函数中增加预测角度的损失,对角度信息进行回归。
在图4中,黑色框为目标的groundtruth(groundtruth为输入数据的标注信息),红色虚线框为神经网络的推断输出。首先将目标的groundtruth通过旋转平移到坐标原点处,对神经网络训练时的输出候选框也经过旋转平移到坐标原点处。在坐标原点处两个候选框形成交叠区域或者不交叠。橘黄色为交叠区域,即可以方便计算出IOU,使用这个方法只考虑了矩形框是否重叠,丢失了角度的信息,所以要在损失函数中增加角度损失项。
图5为单帧点云的语义提取、点云分割和数据关联。将候选框投影到3D点云即原始点云数据中,使用候选框信息进行点云分割。本文中使用RGB-D相机,能够通过深度图获得像素点的深度信息,通过相机内参矩阵将像素坐标转换为相机坐标系下的坐标。转换公式如式4-1所示。
Figure BDA0003289206930000091
式4-1中xc,yc为物体在相机坐标系下的实际坐标;(u,v)为物体的像素坐标;fx,fy为相机的焦距,理论上两者相等;(ppx,ppy)为相机的主点偏移;z为通过深度图获取的物体的深度距离信息。其中xc,yc分别为物体在相机坐标系下的实际横坐标和纵坐标,u,v分别为像素的横坐标与纵坐标,fx,fy分别为深度相机在X轴、Y轴方向的焦距;(ppx,ppy)分别为深度相机在X轴、Y轴方向的主点偏移。
图8是在TUM公开数据集下构建的语义地图构建,如图9所示,TUM数据集包含RGB-D相机即深度相机采集的彩色图像和深度图像以及通过IMU采集的数据。
该数据集包含一系列的办公场景和其他场景。数据集的数据由RGB-D相机和IMU模块采集,包含彩色和深度图像,及对应的IMU数据。在rgbd_dataset_freiburg1_desk和rgbd_dataset_freiburg2_desk数据上测试,测试结果图和标签如图9和图10所示。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

Claims (6)

1.一种基于任意方向目标候选框的语义地图构建方法,其特征在于,包括以下步骤:
S1,采用相机一获取深度图像,再由深度图像获得原始点云数据;
S2,采用相机二获得RGB彩色图像;
S3,针对RGB彩色图像,设计基于改进YOLO神经网络的任意方向目标检测器,对所获得图像进行检测,获得目标的任意方向候选框;
S4,将S3得到的任意方向候选框投影到步骤S1中的点云中,进行点云的框取,并将框取的点云进行后处理,获得较为规整的点云团,即使用候选框信息进行点云分割;并完成框取点云与目标类别的数据关联,得到3D目标的语义信息;
S5,完成单帧点云分割的基础上,利用视觉里程计信息将点云坐标转换为世界坐标系下的坐标并进行存储,即可保存点云语义地图。
2.根据权利要求1所述的一种基于任意方向目标候选框的语义地图构建方法,其特征在于,所述S1中的相机一采用RGB-D相机;所述S2中的相机二采用RGB-D相机或彩色相机。
3.根据权利要求1所述的一种基于任意方向目标候选框的语义地图构建方法,其特征在于,所述S3中的YOLO神经网络包括主干网络,主干网络为一个CSP模块和4个CBL模块;
还包括:将顶层粗粒度特征和经过CSP网络模块的细粒度特征通过route层融合,最后经过卷积层扩充通道,连接到Yolo层进行特征解码;通过减小骨干网络的深度、进行粗细粒度的特征融合进而减小网络的参数量和计算量。
4.根据权利要求1所述的一种基于任意方向目标候选框的语义地图构建方法,其特征在于,所述S3中的目标的任意方向候选框包括:
使用标准化候选框和五参数法,将目标的groundtruth和候选框通过任意方向各自的角度变换成为轴对齐的框,再平移到原点处。
5.根据权利要求4所述的一种基于任意方向目标候选框的语义地图构建方法,其特征在于,还包括:
在损失函数中增加预测角度的损失,对角度信息进行回归。
6.根据权利要求1所述的一种基于任意方向目标候选框的语义地图构建方法,其特征在于,所述S4中的后处理包括:
通过相机内参矩阵将像素坐标转换为相机坐标系下的坐标,转换公式如下:
Figure FDA0003289206920000021
其中,xc为物体在相机坐标系下的实际横坐标;
u为像素的横坐标;
ppx为深度相机在X轴方向的主点偏移;
z为通过深度图获取的物体的深度距离信息;
fx为深度相机在X轴方向的焦距;
yc为物体在相机坐标系下的实际纵坐标;
v为像素的纵坐标;
ppy为深度相机在Y轴方向的主点偏移;
fy为深度相机在Y轴方向的焦距。
CN202111157543.0A 2021-09-30 2021-09-30 一种基于任意方向目标候选框的语义地图构建方法 Active CN113984037B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111157543.0A CN113984037B (zh) 2021-09-30 2021-09-30 一种基于任意方向目标候选框的语义地图构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111157543.0A CN113984037B (zh) 2021-09-30 2021-09-30 一种基于任意方向目标候选框的语义地图构建方法

Publications (2)

Publication Number Publication Date
CN113984037A true CN113984037A (zh) 2022-01-28
CN113984037B CN113984037B (zh) 2023-09-12

Family

ID=79737344

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111157543.0A Active CN113984037B (zh) 2021-09-30 2021-09-30 一种基于任意方向目标候选框的语义地图构建方法

Country Status (1)

Country Link
CN (1) CN113984037B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663612A (zh) * 2022-03-24 2022-06-24 北京百度网讯科技有限公司 一种高精度地图构建方法、装置及电子设备
CN115690524A (zh) * 2023-01-05 2023-02-03 中国科学院空天信息创新研究院 语义信息指导的点云目标检测正样本筛选方法

Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108597009A (zh) * 2018-04-10 2018-09-28 上海工程技术大学 一种基于方向角信息进行三维目标检测的方法
US20190096086A1 (en) * 2017-09-22 2019-03-28 Zoox, Inc. Three-Dimensional Bounding Box From Two-Dimensional Image and Point Cloud Data
CN110264416A (zh) * 2019-05-28 2019-09-20 深圳大学 稀疏点云分割方法及装置
CN110909623A (zh) * 2019-10-31 2020-03-24 南京邮电大学 三维目标检测方法及三维目标检测器
CN111080693A (zh) * 2019-11-22 2020-04-28 天津大学 一种基于YOLOv3的机器人自主分类抓取方法
CN111145174A (zh) * 2020-01-02 2020-05-12 南京邮电大学 基于图像语义特征进行点云筛选的3d目标检测方法
WO2020108311A1 (zh) * 2018-11-29 2020-06-04 北京市商汤科技开发有限公司 目标对象3d检测方法、装置、介质及设备
CN111486855A (zh) * 2020-04-28 2020-08-04 武汉科技大学 一种具有物体导航点的室内二维语义栅格地图构建方法
CN111583337A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于多传感器融合的全方位障碍物检测方法
CN111798475A (zh) * 2020-05-29 2020-10-20 浙江工业大学 一种基于点云深度学习的室内环境3d语义地图构建方法
WO2020237693A1 (zh) * 2019-05-31 2020-12-03 华南理工大学 一种水面无人装备多源感知方法及系统
CN112785643A (zh) * 2021-02-02 2021-05-11 武汉科技大学 一种基于机器人平台的室内墙角二维语义地图构建方法
WO2021114031A1 (zh) * 2019-12-09 2021-06-17 深圳市大疆创新科技有限公司 一种目标检测方法和装置
CN113128348A (zh) * 2021-03-25 2021-07-16 西安电子科技大学 一种融合语义信息的激光雷达目标检测方法及系统
CN113128434A (zh) * 2021-04-27 2021-07-16 南京大学 一种对单目rgb图像进行3d目标检测的方法
CN113160401A (zh) * 2021-03-29 2021-07-23 东北大学 一种面向物体的视觉slam轻量化语义地图创建方法

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190096086A1 (en) * 2017-09-22 2019-03-28 Zoox, Inc. Three-Dimensional Bounding Box From Two-Dimensional Image and Point Cloud Data
CN108597009A (zh) * 2018-04-10 2018-09-28 上海工程技术大学 一种基于方向角信息进行三维目标检测的方法
WO2020108311A1 (zh) * 2018-11-29 2020-06-04 北京市商汤科技开发有限公司 目标对象3d检测方法、装置、介质及设备
CN110264416A (zh) * 2019-05-28 2019-09-20 深圳大学 稀疏点云分割方法及装置
WO2020237693A1 (zh) * 2019-05-31 2020-12-03 华南理工大学 一种水面无人装备多源感知方法及系统
CN110909623A (zh) * 2019-10-31 2020-03-24 南京邮电大学 三维目标检测方法及三维目标检测器
CN111080693A (zh) * 2019-11-22 2020-04-28 天津大学 一种基于YOLOv3的机器人自主分类抓取方法
WO2021114031A1 (zh) * 2019-12-09 2021-06-17 深圳市大疆创新科技有限公司 一种目标检测方法和装置
CN111145174A (zh) * 2020-01-02 2020-05-12 南京邮电大学 基于图像语义特征进行点云筛选的3d目标检测方法
CN111583337A (zh) * 2020-04-25 2020-08-25 华南理工大学 一种基于多传感器融合的全方位障碍物检测方法
CN111486855A (zh) * 2020-04-28 2020-08-04 武汉科技大学 一种具有物体导航点的室内二维语义栅格地图构建方法
CN111798475A (zh) * 2020-05-29 2020-10-20 浙江工业大学 一种基于点云深度学习的室内环境3d语义地图构建方法
CN112785643A (zh) * 2021-02-02 2021-05-11 武汉科技大学 一种基于机器人平台的室内墙角二维语义地图构建方法
CN113128348A (zh) * 2021-03-25 2021-07-16 西安电子科技大学 一种融合语义信息的激光雷达目标检测方法及系统
CN113160401A (zh) * 2021-03-29 2021-07-23 东北大学 一种面向物体的视觉slam轻量化语义地图创建方法
CN113128434A (zh) * 2021-04-27 2021-07-16 南京大学 一种对单目rgb图像进行3d目标检测的方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FANGJIAN YANG等: "A Novel Object Detection and Localization Approach via Combining Vision with Lidar Sensor", 《2021 IEEE 4TH INTERNATIONAL CONFERENCE ON ELECTRONICS TECHNOLOGY (ICET)》 *
赵矿军;: "基于RGB-D摄像机的室内三维彩色点云地图构建", 哈尔滨商业大学学报(自然科学版), no. 01 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114663612A (zh) * 2022-03-24 2022-06-24 北京百度网讯科技有限公司 一种高精度地图构建方法、装置及电子设备
CN115690524A (zh) * 2023-01-05 2023-02-03 中国科学院空天信息创新研究院 语义信息指导的点云目标检测正样本筛选方法

Also Published As

Publication number Publication date
CN113984037B (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
CN111968129B (zh) 具有语义感知的即时定位与地图构建系统及方法
WO2020155616A1 (zh) 一种基于数字视网膜的拍摄装置的定位方法
US10427304B2 (en) Robotic charger alignment
US9928605B2 (en) Real-time cascaded object recognition
CN110009675B (zh) 生成视差图的方法、装置、介质及设备
CN112767391A (zh) 融合三维点云和二维图像的电网线路部件缺陷定位方法
CN113093726A (zh) 一种基于Yolo_v4算法的目标检测与跟踪方法
CN111260779B (zh) 地图构建方法、装置及系统、存储介质
CN113984037B (zh) 一种基于任意方向目标候选框的语义地图构建方法
CN112734765A (zh) 基于实例分割与多传感器融合的移动机器人定位方法、系统及介质
CN115641401A (zh) 一种三维实景模型的构建方法及相关装置
CN111815672B (zh) 动态跟踪控制方法、装置及控制设备
CN112815923A (zh) 视觉定位方法和装置
WO2023164845A1 (zh) 三维重建方法、装置、系统及存储介质
CN116194951A (zh) 用于基于立体视觉的3d对象检测与分割的方法和装置
CN113326769B (zh) 高精地图生成方法、装置、设备及存储介质
Wang et al. Construction Photo Localization in 3D Reality Models for Vision-Based Automated Daily Project Monitoring
Zhu et al. PairCon-SLAM: Distributed, online, and real-time RGBD-SLAM in large scenarios
CN113378605A (zh) 多源信息融合方法及装置、电子设备和存储介质
CN116295412A (zh) 一种基于深度相机的室内移动机器人稠密建图与自主导航一体化方法
CN115359067A (zh) 一种基于连续卷积网络的逐点融合点云语义分割方法
CN113222968B (zh) 融合毫米波和图像的检测方法、系统、设备及存储介质
CN112001970A (zh) 一种基于点线特征的单目视觉里程计方法
CN112860946A (zh) 一种视频图像信息转换为地理信息的方法及系统
Porzi et al. An automatic image-to-DEM alignment approach for annotating mountains pictures on a smartphone

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant