CN112258631B - 一种基于深度神经网络的三维目标检测方法及系统 - Google Patents
一种基于深度神经网络的三维目标检测方法及系统 Download PDFInfo
- Publication number
- CN112258631B CN112258631B CN202011123745.9A CN202011123745A CN112258631B CN 112258631 B CN112258631 B CN 112258631B CN 202011123745 A CN202011123745 A CN 202011123745A CN 112258631 B CN112258631 B CN 112258631B
- Authority
- CN
- China
- Prior art keywords
- information
- neural network
- point cloud
- color image
- deep neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 63
- 238000001514 detection method Methods 0.000 title claims abstract description 31
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 238000009432 framing Methods 0.000 claims description 7
- 239000011159 matrix material Substances 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- General Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了三维目标检测技术领域的一种基于深度神经网络的三维目标检测方法及系统,具有目标检测准确,神经网络层数少,计算量小,对硬件要求低,通用性和实时性强等特点。包括:获取目标物体所处环境的彩色图像和点云信息;采用深度神经网络YOLO6D与YOLOv2对彩色图像进行联合检测,分别获取目标物体在彩色图像上的2D边界框与3D边界框;将点云信息映射到彩色图像的图像坐标系下,获取点云信息在彩色图像中的坐标信息;根据目标物体在图像上的2D边界框与3D边界框,结合点云信息在彩色图像中的坐标信息,分别获取2D边界框与3D边界框的深度信息;根据2D边界框与3D边界框的深度信息,结合点云信息的维度,获取目标物体的类别、大小和位姿信息。
Description
技术领域
本发明属于三维目标检测技术领域,具体涉及一种基于深度神经网络的三维目标检测方法及系统。
背景技术
随着深度学习理论的发展,已被广泛应用于目标识别、人脸识别、运动目标检测与风格迁移等各个领域中,然而,随着网络的不断加深,神经网络功能越来越强大,但其对硬件的要求也越来越高,尤其是三维目标检测领域。复杂的深度神经网络会大大增加所需成本,而且很多场合还需要满足实时性要求,这是三维目标检测应用中的一大难题。
发明内容
为解决现有技术中的不足,本发明提供一种基于深度神经网络的三维目标检测方法及系统,具有目标检测准确,神经网络层数少,计算量小,对硬件要求低,通用性和实时性强等特点。
为达到上述目的,本发明所采用的技术方案是:一种基于深度神经网络的三维目标检测方法,包括:a、获取目标物体所处环境的彩色图像和点云信息;b、采用深度神经网络YOLO6D与YOLOv2对彩色图像进行联合检测,框选目标物体,分别获取目标物体在彩色图像上的2D边界框与3D边界框;c、将点云信息映射到彩色图像的图像坐标系下,获取点云信息在彩色图像中的坐标信息;d、根据目标物体在彩色图像上的2D边界框与3D边界框,结合点云信息在彩色图像中的坐标信息,分别获取2D边界框与3D边界框的深度信息;e、根据2D边界框与3D边界框的深度信息,结合点云信息的维度,获取目标物体的类别、大小和位姿信息。
进一步地,在所述步骤a中,通过RGB彩色相机获取目标物体所处环境的彩色图像,通过深度相机或激光雷达获取目标物体的点云信息。
进一步地,在所述步骤c中,通过将深度相机或激光雷达与RGB彩色相机进行标定,从而将点云信息映射到彩色图像的图像坐标系下。
进一步地,在所述步骤b中,深度神经网络YOLOv2的输出维度为:
S1×S1×(N1×(4+1+C1)) (1)
其中,S1是划分的单元格数量,N1为瞄框数量,4为彩色图像中心点坐标与边界框长宽的参数数量,1为深度神经网络YOLOv2的置信度的参数数量,C1为深度神经网络YOLOv2中各个类别的概率的参数数量;
深度神经网络YOLO6D采用YOLOv2的框架结构,其输出维度为:
S2×S2×(9×2+1+C2) (2)
其中,S2是划分的单元格数量,9代表的是3D边界框的8个顶点与1个中心点的参数数量,1为深度神经网络YOLO6D的置信度的参数数量,C2为深度神经网络YOLO6D中各个类别的概率的参数数量。
进一步地,在所述步骤d中,将点云信息在彩色图像中的坐标信息与深度神经网络YOLO6D输出的3D边界框进行比较,若点云信息在彩色图像中的坐标信息在3D边界框的内部,则说明该点云属于目标物体,从而直接提取彩色图像中框选目标物体的3D边界框的深度信息;将点云信息在彩色图像中的坐标信息与2D边界框的各个顶点及中心比对,将包含在2D边界框的深度信息平均求和,获取各个顶点及中心的深度信息,即为2D边界框的深度信息。
进一步地,在所述步骤e中,若点云信息为三维,利用3D边界框的深度信息,直接根据3D边界框分割三维点云信息;若点云信息为二维,利用2D边界框的深度信息,将2D边界框转化为三维点云,从而获取目标物体的类别、大小与位姿信息。
一种基于深度神经网络的三维目标检测系统,包括:第一模块,用于获取目标物体所处环境的彩色图像和点云信息;第二模块,用于采用深度神经网络YOLO6D与YOLOv2对彩色图像进行联合检测,框选目标物体,分别获取目标物体在彩色图像上的2D边界框与3D边界框;第三模块,用于将点云信息映射到彩色图像的图像坐标系下,获取点云信息在彩色图像中的坐标信息;第四模块,用于根据目标物体在图像上的2D边界框与3D边界框,结合点云信息在彩色图像中的坐标信息,分别获取2D边界框与3D边界框的深度信息;第五模块,用于根据2D边界框与3D边界框的深度信息,结合点云信息的维度,获取目标物体的类别、大小和位姿信息。
与现有技术相比,本发明所达到的有益效果:本发明通过采用RGB相机获取目标物体所处环境的彩色图像,输入深度神经网络获得目标物体在二维图像上的位置或姿态,其后通过深度相机或激光雷达获取目标物体的点云信息,基于传统的相机标定原理,合成三维点云,从而获取目标物体的类别、大小与位姿信息;该策略主要采用深度神经网络与坐标转换算法,对各类场景具有很好的适应性,且采用神经网络网络层数较少,计算量小,对硬件要求较低,从而具有较好的通用性与实时性。
附图说明
图1是本发明实施例提供的一种基于深度神经网络的三维目标检测方法的流程示意图;
图2是深度神经网络YOLOv2的框架结构示意图;
图3是深度神经网络YOLO6D基于YOLOv2框架的输出卷积层示意图;
图4是相机标定原理示意图;
图5是本发明实施例中,深度神经网络YOLOv2的识别结果图;
图6是本发明实施例中,深度神经网络YOLO6D的识别结果图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
实施例一:
如图1所示,一种基于深度神经网络的三维目标检测方法,包括:a、获取目标物体所处环境的彩色图像和点云信息;b、采用深度神经网络YOLO6D与YOLOv2对彩色图像进行联合检测,框选目标物体,分别获取目标物体在彩色图像上的2D边界框与3D边界框;c、将点云信息映射到彩色图像的图像坐标系下,获取点云信息在彩色图像中的坐标信息;d、根据目标物体在彩色图像上的2D边界框与3D边界框,结合点云信息在彩色图像中的坐标信息,分别获取2D边界框与3D边界框的深度信息;e、根据2D边界框与3D边界框的深度信息,结合点云信息的维度,获取目标物体的类别、大小和位姿信息。
1)获取目标物体所处环境的彩色图像和点云信息;通过RGB彩色相机获取目标物体所处环境的彩色图像,通过深度相机或激光雷达获取目标物体的点云信息,点云信息可以是三维或二维。
2)采用深度神经网络YOLO6D与YOLOv2对彩色图像进行联合检测,框选目标物体,分别获取目标物体在彩色图像上的2D边界框与3D边界框;YOLOv2整体网络框架如图2,输出维度为
S1×S1×(N1×(4+1+C1)) (1)
其中,S1是划分的单元格数量,N1为瞄框数量,4为彩色图像中心点坐标与边界框长宽的参数数量,即有四个参数,分别是中心点x,y,长和宽,1为深度神经网络YOLOv2的置信度的参数数量,即有一个参数为置信度,C1为深度神经网络YOLOv2中各个类别的概率的参数数量。
如图5所示,采用深度神经网络YOLOv2对随机选取的图片进行识别,可以看出网络可以准确得出目标物体的类别和二维边界框。
深度神经网络YOLO6D采用YOLOv2的框架结构,如图2所示,但置信度计算公式与输出矩阵维度有所改动,输出矩阵维度卷积层如图3所示,网络输入也是2D彩色图像,但输出的维度变为:
S2×S2×(9×2+1+C2) (2)
其中,S2是划分的单元格数量,9代表的是3D边界框的8个顶点与1个中心点的参数数量,1为深度神经网络YOLO6D的置信度的参数数量,C2为深度神经网络YOLO6D中各个类别的概率的参数数量。
如图6所示,采用YOLO6D对给定图片进行识别,较准确地得出了物体的三维边界框。
3)将点云信息映射到彩色图像的图像坐标系下,获取点云信息在彩色图像中的坐标信息;将深度相机或激光雷达与RGB彩色相机进行标定,从而将点云信息映射到彩色图像的图像坐标系下。
4)根据目标物体在图像上的2D边界框与3D边界框,结合点云信息在彩色图像中的坐标信息,分别获取2D边界框与3D边界框的深度信息;将转换后点云信息在彩色图像中的坐标信息与深度神经网络YOLO6D输出的3D边界框进行比较,若点云信息在彩色图像中的坐标信息在3D边界框的内部,则说明该点云属于目标物体,从而直接提取彩色图像中框选目标物体的3D边界框的深度信息,进而得到目标物体的三维信息;将点云信息在彩色图像中的坐标信息与2D边界框的各个顶点及中心比对,将包含在2D边界框的深度信息平均求和,从而近似获取各个顶点及中心的深度信息,即为2D边界框的深度信息,根据该深度信息,可以获取2D边界框的三维坐标,从而得到目标物体的三维信息。
5)根据2D边界框与3D边界框的深度信息,结合点云信息的维度,获取目标物体的类别、大小和位姿信息,具体为:
若点云信息为三维,利用3D边界框的深度信息,直接根据3D边界框分割三维点云信息;
若点云信息为二维,利用2D边界框的深度信息,将2D边界框转化为三维点云,从而获取目标物体的类别、大小与位姿信息;
如图4所示,根据相机标定原理,合成3D边界框的三维点云。设点m在图像坐标系下的坐标为(um,vm),在地面坐标系下的坐标为(xM,yM,zM),根据相机标定原理,可得其转换关系为:
式中,u0为彩色图像的中心的x轴坐标,v0为彩色图像的中心的y轴坐标,zc为目标到相机的距离,R为外参矩阵的3×3旋转矩阵,T为3×1平移矩阵,f为相机焦距,dx为x方向上的像元尺寸,dy为y方向上的像元尺寸。
本实施例结合深度神经网络和相机标定原理,利用简易的坐标转换算法获取三维目标的类别、大小与位姿信息,对各类场景具有一定适应性,且采用神经网络层数较少,计算量不大,对硬件要求较低,从而具有较好的通用性与实时性。
实施例二:
基于实施例一所述的基于深度神经网络的三维目标检测方法,本实施例提供一种基于深度神经网络的三维目标检测系统,包括:
第一模块,用于获取目标物体所处环境的彩色图像和点云信息;
第二模块,用于采用深度神经网络YOLO6D与YOLOv2对彩色图像进行联合检测,框选目标物体,分别获取目标物体在彩色图像上的2D边界框与3D边界框;
第三模块,用于将点云信息映射到彩色图像的图像坐标系下,获取点云信息在彩色图像中的坐标信息;
第四模块,用于根据目标物体在图像上的2D边界框与3D边界框,结合点云信息在彩色图像中的坐标信息,分别获取2D边界框与3D边界框的深度信息;
第五模块,用于根据2D边界框与3D边界框的深度信息,结合点云信息的维度,获取目标物体的类别、大小和位姿信息。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (6)
1.一种基于深度神经网络的三维目标检测方法,其特征是,包括:
a、获取目标物体所处环境的彩色图像和点云信息;
b、采用深度神经网络YOLO6D与YOLOv2对彩色图像进行联合检测,框选目标物体,分别获取目标物体在彩色图像上的2D边界框与3D边界框;其中,深度神经网络YOLOv2的输出维度为:
S1×S1×(N1×(4+1+C1))(1)
其中,S1是划分的单元格数量,N1为瞄框数量,4为彩色图像中心点坐标与边界框长宽的参数数量,1为深度神经网络YOLOv2的置信度的参数数量,C1为深度神经网络YOLOv2中各个类别的概率的参数数量;
深度神经网络YOLO6D采用YOLOv2的框架结构,其输出维度为:
S2×S2×(9×2+1+C2)(2)
其中,S2是划分的单元格数量,9代表的是3D边界框的8个顶点与1个中心点的参数数量,1为深度神经网络YOLO6D的置信度的参数数量,C2为深度神经网络YOLO6D中各个类别的概率的参数数量;
c、将点云信息映射到彩色图像的图像坐标系下,获取点云信息在彩色图像中的坐标信息;
d、根据目标物体在彩色图像上的2D边界框与3D边界框,结合点云信息在彩色图像中的坐标信息,分别获取2D边界框与3D边界框的深度信息;
e、根据2D边界框与3D边界框的深度信息,结合点云信息的维度,获取目标物体的类别、大小和位姿信息。
2.根据权利要求1所述的基于深度神经网络的三维目标检测方法,其特征是,在所述步骤a中,通过RGB彩色相机获取目标物体所处环境的彩色图像,通过深度相机或激光雷达获取目标物体的点云信息。
3.根据权利要求2所述的基于深度神经网络的三维目标检测方法,其特征是,在所述步骤c中,通过将深度相机或激光雷达与RGB彩色相机进行标定,从而将点云信息映射到彩色图像的图像坐标系下。
4.根据权利要求1所述的基于深度神经网络的三维目标检测方法,其特征是,在所述步骤d中,将点云信息在彩色图像中的坐标信息与深度神经网络YOLO6D输出的3D边界框进行比较,若点云信息在彩色图像中的坐标信息在3D边界框的内部,则说明该点云属于目标物体,从而直接提取彩色图像中框选目标物体的3D边界框的深度信息;将点云信息在彩色图像中的坐标信息与2D边界框的各个顶点及中心比对,将包含在2D边界框的深度信息平均求和,获取各个顶点及中心的深度信息,即为2D边界框的深度信息。
5.根据权利要求1所述的基于深度神经网络的三维目标检测方法,其特征是,在所述步骤e中,若点云信息为三维,利用3D边界框的深度信息,直接根据3D边界框分割三维点云信息;若点云信息为二维,利用2D边界框的深度信息,将2D边界框转化为三维点云,从而获取目标物体的类别、大小与位姿信息。
6.一种基于深度神经网络的三维目标检测系统,其特征是,包括:
第一模块,用于获取目标物体所处环境的彩色图像和点云信息;
第二模块,用于采用深度神经网络YOLO6D与YOLOv2对彩色图像进行联合检测,框选目标物体,分别获取目标物体在彩色图像上的2D边界框与3D边界框;其中,深度神经网络YOLOv2的输出维度为:
S1×S1×(N1×(4+1+C1))(1)
其中,S1是划分的单元格数量,N1为瞄框数量,4为彩色图像中心点坐标与边界框长宽的参数数量,1为深度神经网络YOLOv2的置信度的参数数量,C1为深度神经网络YOLOv2中各个类别的概率的参数数量;
深度神经网络YOLO6D采用YOLOv2的框架结构,其输出维度为:
S2×S2×(9×2+1+C2)(2)
其中,S2是划分的单元格数量,9代表的是3D边界框的8个顶点与1个中心点的参数数量,1为深度神经网络YOLO6D的置信度的参数数量,C2为深度神经网络YOLO6D中各个类别的概率的参数数量;
第三模块,用于将点云信息映射到彩色图像的图像坐标系下,获取点云信息在彩色图像中的坐标信息;
第四模块,用于根据目标物体在图像上的2D边界框与3D边界框,结合点云信息在彩色图像中的坐标信息,分别获取2D边界框与3D边界框的深度信息;
第五模块,用于根据2D边界框与3D边界框的深度信息,结合点云信息的维度,获取目标物体的类别、大小和位姿信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011123745.9A CN112258631B (zh) | 2020-10-20 | 2020-10-20 | 一种基于深度神经网络的三维目标检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011123745.9A CN112258631B (zh) | 2020-10-20 | 2020-10-20 | 一种基于深度神经网络的三维目标检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112258631A CN112258631A (zh) | 2021-01-22 |
CN112258631B true CN112258631B (zh) | 2023-12-08 |
Family
ID=74245071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011123745.9A Active CN112258631B (zh) | 2020-10-20 | 2020-10-20 | 一种基于深度神经网络的三维目标检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112258631B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112989997A (zh) * | 2021-03-11 | 2021-06-18 | 中国科学技术大学 | 一种基于多信息融合的3d目标检测方法及系统 |
CN114356078B (zh) * | 2021-12-15 | 2024-03-19 | 之江实验室 | 一种基于注视目标的人物意图检测方法、装置及电子设备 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019100647A1 (zh) * | 2017-11-21 | 2019-05-31 | 江南大学 | 一种基于rgb-d相机的物体对称轴检测方法 |
CN109903328A (zh) * | 2017-12-11 | 2019-06-18 | 宁波盈芯信息科技有限公司 | 一种应用于智能手机的物体体积测量的装置及方法 |
CN110264416A (zh) * | 2019-05-28 | 2019-09-20 | 深圳大学 | 稀疏点云分割方法及装置 |
CN110472534A (zh) * | 2019-07-31 | 2019-11-19 | 厦门理工学院 | 基于rgb-d数据的3d目标检测方法、装置、设备和存储介质 |
CN111709923A (zh) * | 2020-06-10 | 2020-09-25 | 中国第一汽车股份有限公司 | 一种三维物体检测方法、装置、计算机设备和存储介质 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10824862B2 (en) * | 2017-11-14 | 2020-11-03 | Nuro, Inc. | Three-dimensional object detection for autonomous robotic systems using image proposals |
US11618438B2 (en) * | 2018-03-26 | 2023-04-04 | International Business Machines Corporation | Three-dimensional object localization for obstacle avoidance using one-shot convolutional neural network |
-
2020
- 2020-10-20 CN CN202011123745.9A patent/CN112258631B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019100647A1 (zh) * | 2017-11-21 | 2019-05-31 | 江南大学 | 一种基于rgb-d相机的物体对称轴检测方法 |
CN109903328A (zh) * | 2017-12-11 | 2019-06-18 | 宁波盈芯信息科技有限公司 | 一种应用于智能手机的物体体积测量的装置及方法 |
CN110264416A (zh) * | 2019-05-28 | 2019-09-20 | 深圳大学 | 稀疏点云分割方法及装置 |
CN110472534A (zh) * | 2019-07-31 | 2019-11-19 | 厦门理工学院 | 基于rgb-d数据的3d目标检测方法、装置、设备和存储介质 |
CN111709923A (zh) * | 2020-06-10 | 2020-09-25 | 中国第一汽车股份有限公司 | 一种三维物体检测方法、装置、计算机设备和存储介质 |
Non-Patent Citations (3)
Title |
---|
3D Object Proposals Using Stereo Imagery for Accurate Object Class Detection;Xiaozhi Chen et al;《 IEEE Transactions on Pattern Analysis and Machine Intelligence》;第40卷(第5期);1259-1272 * |
基于RGB-D图像的物体识别与位置估计方法;刘海龙;肖攀;邱明玮;刘岩;李兵兵;马春生;柴庆冕;刘志炜;;《机械制造》(2018年第07期);67-70、79 * |
基于图像融合技术的智能检测方法与应用研究;王静;《硕士论文》;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112258631A (zh) | 2021-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110264416B (zh) | 稀疏点云分割方法及装置 | |
CN109493407B (zh) | 实现激光点云稠密化的方法、装置及计算机设备 | |
CN112132972B (zh) | 一种激光与图像数据融合的三维重建方法及系统 | |
CN111563415B (zh) | 一种基于双目视觉的三维目标检测系统及方法 | |
CN110728671B (zh) | 基于视觉的无纹理场景的稠密重建方法 | |
US10477178B2 (en) | High-speed and tunable scene reconstruction systems and methods using stereo imagery | |
CN111899301A (zh) | 一种基于深度学习的工件6d位姿估计方法 | |
CN114399554B (zh) | 一种多相机系统的标定方法及系统 | |
CN113362247B (zh) | 一种激光融合多目相机的语义实景三维重建方法及系统 | |
CN111476242B (zh) | 一种激光点云语义分割方法及装置 | |
TW202117611A (zh) | 電腦視覺訓練系統及訓練電腦視覺系統的方法 | |
CN112258631B (zh) | 一种基于深度神经网络的三维目标检测方法及系统 | |
WO2023164845A1 (zh) | 三维重建方法、装置、系统及存储介质 | |
CN110738731A (zh) | 一种用于双目视觉的3d重建方法和系统 | |
CN113327296B (zh) | 基于深度加权的激光雷达与相机在线联合标定方法 | |
CN112946679B (zh) | 一种基于人工智能的无人机测绘果冻效应检测方法及系统 | |
CN111161154A (zh) | 一种无人机视频实时快速正射拼接系统及其拼接方法 | |
CN116194951A (zh) | 用于基于立体视觉的3d对象检测与分割的方法和装置 | |
Parmehr et al. | Automatic parameter selection for intensity-based registration of imagery to LiDAR data | |
CN113256696B (zh) | 基于自然场景的激光雷达和相机的外参标定方法 | |
CN114332796A (zh) | 一种多传感器融合体素特征图生成方法及系统 | |
CN117152330B (zh) | 一种基于深度学习的点云3d模型贴图方法和装置 | |
Le Besnerais et al. | Dense height map estimation from oblique aerial image sequences | |
CN116958434A (zh) | 多视图三维重建方法、测量方法及系统 | |
CN116704112A (zh) | 一种用于对象重建的3d扫描系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |