CN113111978A - 一种基于点云和图像数据的三维目标检测系统和方法 - Google Patents
一种基于点云和图像数据的三维目标检测系统和方法 Download PDFInfo
- Publication number
- CN113111978A CN113111978A CN202110652361.4A CN202110652361A CN113111978A CN 113111978 A CN113111978 A CN 113111978A CN 202110652361 A CN202110652361 A CN 202110652361A CN 113111978 A CN113111978 A CN 113111978A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- neural network
- target
- detection
- detection neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
- G06F18/256—Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明属于目标检测技术领域,涉及一种基于点云和图像数据的三维目标检测系统和方法,该系统包括:三维检测神经网络、二维检测神经网络、融合处理模块、分类器和后处理模块,所述三维检测神经网络输入三维点云数据,输出三维目标信息至融合处理模块;所述二维检测神经网络输入二维图片数据,输出二维目标信息至融合处理模块;所述融合处理模块对所述三维目标信息和二维目标信息进行融合处理后,将融合处理后的数据输出至分类器;所述分类器对融合处理后的数据信息进行分类,输出分类结果至后处理模块;所述后处理模块输入分类结果和三维目标信息,输出目标检测结果。本发明能够有效提升三维目标检测的准确率。
Description
技术领域
本发明属于目标检测技术领域,涉及一种基于点云和图像数据的三维目标检测系统和方法。
背景技术
目标检测技术尤其是三维目标检测技术是环境感知中最重要的任务之一。由于点云在三维尺寸信息的优势,现阶段效果较佳的三维目标检测技术都是基于纯点云进行三维目标检测,包括论文《Sparsely Embedded Convolutional Detection》、《3D ObjectProposal Generation and Detection from Point Cloud》等,但点云特征在类别分辨上劣势明显,只能通过神经网络对目标大致轮廓以及某些点的反射强度的学习进行分辨判断。图像在二维目标检测领域技术成熟,类别特征的分辨也优势明显,但尺寸信息的缺失是基于图像的三维目标检测最大的瓶颈,无论是基于前视图直接进行三维目标检测的方法,例如论文《Single-Stage Monocular 3D Object Detection via Keypoint Estimation》等,还是基于深度估计或者视差估计得到虚拟点云的三维目标检测的方法,例如论文《Pseudo-LiDAR from Visual Depth Estimation: Bridging the Gap in 3D ObjectDetection for Autonomous Driving》以及发明专利《基于有监督单目深度估计的虚拟点云三维目标检测方法》等,对目标的三维尺寸信息的估计也很难和基于点云的三维尺寸信息估计相媲美。因此,出现了基于点云和图像的融合三维检测方案,现阶段的融合方案主要基于点云和图像在前端的数据融合以及特征层的融合,前者对数据对齐的敏感性很强,例如论文《Sequential Fusion for 3D Object Detection》等,后者是一种端到端的方法,例如论文《Vehicle Object Detection Based on RGB-Camera and Radar Sensor Fusion》、《Enhancing Point Features with Image Semantics for 3D Object Detection》等引入了复杂的神经网络结构,将基于点云的三维检测的神经网络和基于图像的二维检测耦合一起,相互依赖,模型庞大,很难迁移,消耗资源,训练拟合较慢,有些算法的指标甚至不如基于纯点云数据的三维目标检测算法,传感器的增加并没有在指标上体现出来。
发明内容
为了解决现有技术中存在的上述技术问题,本发明提供了一种基于点云和图像数据的三维目标检测系统和方法,提出一种轻量化的网络结构,将基于点云的三维检测的输出结果和基于图像的二维检测的结果进行融合,做到在消耗较小资源以及效率的同时,融合两种传感器各自的优势,提升了三维目标检测的精度,其具体技术方案如下:
一种基于点云和图像数据的三维目标检测系统,包括:三维检测神经网络、二维检测神经网络、融合处理模块、分类器和后处理模块,所述三维检测神经网络是完整的独立完成三维目标检测任务的神经网络,输入为原始三维点云数据,直接输出三维目标信息,并传递至融合处理模块;所述二维检测神经网络是完整的独立完成二维目标检测任务的神经网络,输入为二维图片数据,直接输出二维目标信息,并传递至融合处理模块;所述融合处理模块对所述三维目标信息和二维目标信息进行融合处理后,将融合处理后的数据输出至分类器,所述分类器对融合处理后的数据信息进行分类,输出分类结果至后处理模块,所述分类器采用轻量级神经网络,由M1个卷积层和1个池化层组成,独立于三维检测神经网络和二维检测神经网络训练模型,其中卷积层的卷积核尺寸的M2*1;所述后处理模块输入分类结果和三维目标信息,输出目标检测结果。
进一步的,所述三维检测神经网络,输入数据为若干组三维点云坐标数据,输出为N1组三维目标信息,其中输出的每组三维目标信息包含一个目标的三维区域和该目标属于C1种不同类别的置信度,N1为预设的目标总数,C1为三维检测神经网络定义的类别总数;
所述二维检测神经网络,输入数据为二维图片数据,输出数据为N2组二维目标信息,其中输出的每组二维目标信息包含一个目标的二维区域和该目标属于C2种不同类别的置信度,N2为预设的目标总数,C2为二维检测神经网络定义的类别总数,且二维检测神经网络定义的任意一种类别是二维检测神经网络定义的一种类别或者是二维检测神经网络定义的一种类别的子类别。
进一步的,所述三维检测神经网络为基于Bev图的三维目标检测模块,将所述三维点云坐标数据进行过滤,即在传感器坐标系下X,Y,Z轴的检测范围大小分别为x_min到x_max米,y_min到y_max米,z_min到z_max米进行滤波,并投影到H*W的图像坐标系下,其中传感器坐标系为以传感器中心为坐标原点,向前为X轴正方向,向右为Y轴正方向,向上为Z轴正方向,H与W为图像的长和宽,每个三维点投影到图像的公式如下所示:
Pixelu= Pointx * (x_max-x_min)) / H; Pixelv= Pointy * (y_max-(y_min)))/ W,
其中Pixelu、Pixelv为投影后在图像坐标系下的横、纵坐标,Pointx、Pointy为三维点云在传感器坐标系下的x、y坐标;针对投影后图像数据的每个像素点,取传感器坐标系下z值最高的点,并计算投影到该像素点的点云的密度,其中计算某一像素点的点云的密度公式如下所示:
Densityuv= Min( Log(Counts + 1) / Log(M3), 1)
其中Densityuv为投影到图像坐标系(u,v)上的点云的密度,Counts为投影到该像素点的点的个数,M3为传感器的线束,将该点的高度,反射强度以及Densityuv作为该像素点的RGB特征,得到3*H*W的特征张量送入三维目标检测神经网络中。
进一步的,所述三维目标检测神经网络采用anchor free目标检测框架,对图像坐标系下的目标进行检测,得到图像坐标系下的目标的信息再映射到传感器坐标系下,即得到该目标的三维目标信息。
进一步的,采用Focal_Loss损失函数对图像坐标系下目标的中心点的位置进行回归,采用L1_Loss损失函数对目标的中心点的偏移量进行回归,采用L1_Loss损失函数对目标的长、宽、高以及目标中心点在传感器坐标系下的Z轴坐标进行回归,针对目标的航向角,采用SmoothL1_Loss损失函数对其正弦值和余弦值进行回归。
进一步的,所述三维检测神经网络输出的每个目标的类别置信度数目和二维检测神经网络输出的每个目标的类别置信度数目相同,三维检测神经网络所输出的每个目标的第i个置信度的类别等同于二维检测神经网络输出的每个目标的第i个置信度的类别,或者是二维检测神经网络输出的每个目标的的第i个置信度的类别的父类别。
进一步的,所述融合处理模块的输入具体为三维检测神经网络的输出、二维检测神经网络的输出,以及二维检测神经网络的输出信息所对应的输入图片Im和输入图片Im相关的信息ImData;
所述融合处理模块利用所述相关的信息ImData将三维检测神经网络输出的每个三维目标信息ob[k1]中的三维区域投影到图片Im上,形成区域Region(ob[k1]),其中0<=k1<N1,对二维检测神经网络输出的每个二维目标信息rc[k2],其中0<=k2<N2,计算Region(ob[k1])和rc[k2]中的二维区域的交集区域面积与并集区域面积,计算交集区域面积与并集区域面积之比IOU[k1,k2],若IOU大于预定阈值,则针对三维目标信息ob[k1]产生初步分类信息集S[k1]={(IOU[k1,k2],pa[i], pb[i]),i=1,...,C2},pa[i]为三维检测神经网络DNN1输出的对三维目标信息ob[k1]进行分类后属于第i个类别的置信度,pb[i]是二维检测神经网络输出的对rc[k2]进行分类后属于第i个类别的置信度;
所述融合处理模块的输出由所有三维目标信息对应的初步分类信息集形成的集合组成。
进一步的,所述分类器的输入为融合处理模块的输出,输出为分类集合SF={(label[k1], prob[k1])|k1=0,1,...,N1-1}, 其中label[k1]表示第k1个三维目标信息最终被分类到的类别,prob[k1]表示属于该类别的置信度,该类别是由三维检测神经网络定义的类别,所述分类器通过一个或多个数据集训练得到。
进一步的,所述后处理模块从分类器输出的集合SF={(label[k1],prob[k1])|k1=0,1,...,N1-1}中选取若干元素并匹配相应的目标索引形成集合SF2={(kk,label[kk],prob[kk])},其中(label[kk], prob[kk])属于SF,kk为[0,N1-1]中的整数,kk表示目标索引,且prob[kk]大于预设阈值;
后处理模块将SF2转换为集合SF3 ={(kk,label[kk],prob[kk],vol[kk])}后输出,其中(kk, label[kk],prob[kk])属于SF2,vol[kk]是三维检测神经网络DNN1输出中的第kk个三维目标信息中的目标三维区域。
一种基于点云和图像数据的三维目标检测方法,包括如下步骤:
步骤一,构造并连接各模块:将三维检测神经网络、二维检测神经网络、融合处理模块、分类器和后处理模块连接,构造成三维目标检测系统;
步骤二,对三维检测神经网络和二维检测神经网络进行训练或加载已训练好的网络模型;
步骤三,训练分类器:采用公开数据集对分类器进行训练,采用Focal_Loss作为训练分类器的损失函数,借助优化器对分类器的融合神经网络权重系数进行训练优化,训练过程中只更新融合神经网络的参数,对三维检测神经网络和二维检测神经网络不进行梯度计算、反向传播以及参数更新;
步骤四,推理测试:将三维点云数据输入已经训练好的三维检测神经网络,将二维图像输入已经训练好的二维检测神经网络,分别进行推理选取N1和N2组数据,并将该二维图片以及对应二维图片信息一起输入到融合处理模块,再将结果输入到分类器,最后将分类结果和三维目标检测的结果输入到后处理模块,得到最终三维目标检测结果。
本发明能够有效提升三维目标检测的准确率。
附图说明
图1为基于点云和图像数据的三维目标检测系统结构连接示意图;
图2为基于点云和图像数据的三维目标检测方法流程图;
图3为分类器的融合神经网络示意图;
图4a为基于点云和图像数据的三维目标检测系统和方法的效果图;
图4b为基于点云和图像数据的三维目标检测系统和方法的效果图;
图中,DNN1-三维检测神经网络,DNN2-二维检测神经网络,B1-融合处理模块,B2-后处理模块,F-分类器。
具体实施方式
为了使本发明的目的、技术方案和技术效果更加清楚明白,以下结合说明书附图和实施例,对本发明进行进一步清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的实施例采用权威的kitti数据集,并对该数据集做进一步的类别标注,即将行人类别分为男行人和女行人。因此,实施例采用的数据集包括,7481帧点云以及对应的彩色图像,其中6000帧为训练集,1481帧为验证集,每一帧点云或者图像中目标的类别信息,如车辆、男行人、女行人、骑自行车的人,在图像坐标系的2D信息以及在相机坐标系的3D信息。
如图1所示,一种基于点云和图像数据的三维目标检测系统,包括:三维检测神经网络DNN1、二维检测神经网络DNN2、融合处理模块B1、分类器F和后处理模块B2。
所述三维检测神经网络DNN1是完整的独立的神经网络,可以独立完成三维目标检测任务,并不需要二次训练优化,输入为原始三维点云坐标数据,可直接输出N1组三维目标信息并传递至融合处理模块B1;所述二维检测神经网络DNN2同样是完整的独立的神经网络,可以完整的独立的完成二维目标检测任务,不需要二次训练优化,输入为二维图片数据,可直接输出N2组二维目标信息,并传递至融合处理模块B1;所述融合处理模块B1对所述N1组三维目标信息和N2组二维目标信息进行融合处理后,将融合处理后的数据输出至分类器F;所述分类器F对该数据信息进行分类,输出分类结果至后处理模块B2;所述后处理模块B2输入分类器F的输出和N1组三维目标信息,输出目标检测结果。
其中,所述分类器F可选用轻量级神经网络,完全独立于三维检测神经网络和二维检测神经网络训练模型,即不对两者训练好的模型进行参数更新。
所述三维检测神经网络DNN1为基于Bev图的三维目标检测模块,输入数据为若干组三维点云坐标数据,将三维点云坐标数据进行过滤,即按照传感器坐标系下,x方向0~80米,y方向-40~40米,z方向-2.73~1.27米进行滤波,并投影到长乘宽为608*608的图像坐标系下,其中每个三维点投影到图像的公式如下所示:
Pixelu= Pointx * (80-0)) / 608; Pixelv= Pointy * (40-(-40))) / 608
其中Pixelu、Pixelv为投影后在图像坐标系下的横、纵坐标,Pointx、Pointy为三维点云在传感器标系下的x、y坐标。
由于很多三维点云会投影到一个像素点下,故选取传感器标系下z值最高的点,并计算投影到该像素点的点云的密度,其中计算某一像素点的点云的密度公式如下所示:
Densityuv= Min( Log(Counts + 1) / Log(64), 1)
其中Densityuv为投影到图像坐标系(u,v)上的点云的密度,Counts为投影到该像素点的点的个数,64为kitti采用的激光雷达传感器的线束,将该点的高度,反射强度以及Densityuv作为该像素点的RGB特征,因此得到3*608*608的特征张量送入三维目标检测神经网络中。
三维目标检测神经网络采用anchor free目标检测框架,对图像坐标系下的目标进行检测,得到图像坐标系下的目标的信息再映射到传感器坐标系下,即可得到该目标的三维目标信息。输出为200组三维目标信息,其中输出的每组目标信息包含一个目标的三维区域和该目标属于3种不同类别的置信度,200为预设的目标总数,3为三维检测神经网络DNN1所定义的类别总数,具体为车辆、行人以及骑自行车的人。采用Focal_Loss损失函数对图像坐标系下目标的中心点的位置进行回归,采用L1_Loss损失函数对目标的中心点的偏移量进行回归,采用L1_Loss损失函数对目标的长、宽、高以及目标中心点在传感器坐标系下的Z轴坐标进行回归,针对目标的航向角,采用SmoothL1_Loss损失函数对其正弦值和余弦值进行回归。完成训练并加载训练好的神经网络模型,推理出训练集和验证集中每个目标所有类别的置信度,以及每个目标对应传感器坐标系下的三维信息,其中,所述每个目标为最高类别置信度前50的目标,所述三维信息为预测区域的中心点位置在x、y、z方向上的坐标、预测区域在长、宽、高方向上的尺寸以及预测区域的切线和x轴方向的航向角夹角。
所述二维检测神经网络DNN2为较成熟的二维目标检测算法CenterNet,输入数据为二维图片数据,输出数据为50组二维目标信息,其中输出的每组目标信息包含一个目标的二维区域和该目标属于4种不同类别的置信度,50为预设的目标总数,4为二维检测神经网络DNN2所定义的类别总数,且二维检测神经网络DNN2所定义的任意一种类别是二维检测神经网络DNN1所定义的一种类别或者是二维检测神经网络DNN1所定义的一种类别的子类别,具体的为车辆、男行人、女行人、骑自行车的人,完成训练并加载训练好的神经网络模型,设置检测置信度为0.2,可推理出训练集和验证集中每个目标的所有类别的置信度,以及对应的图像坐标系下的二维信息,其中,所述每个目标为最高类别的置信度大于0.2,共有K个,所述二维信息为预测区域在图像坐标系上左顶点的坐标u,v以及预测区域在长、宽方向上的尺寸h、w。
所述融合处理模块B1,将所述三维目标检测模块输出的每个三维目标信息利用激光雷达、相机的外参以及相机的内参投影到图像坐标系下,并分别和每个二维目标信息进行IOU计算,得到K*50个IOU分数,其中IOU是两个二维信息的交集与并集之比;排除IOU分数等于0的目标,得到X个有效IOU分数,形成X*4*3的特征张量Input,其中特征张量的第2维度的长度4指的是不同类别,包括车辆、男行人、女行人、骑自行车的人,特征张量的第3个维度的长度3指的是不同特征,包括相同类别的IOU分数、当前类别三维目标检测置信度、当前类别二维目标检测置信度,其中,相同类别是指二维目标检测的男女行人都是对应三维目标检测的行人类别,与此同时,记录在形成每个特征张量Input时,用目标编号对三维检测结果和二维检结果在各自模块的输出位置进行标注,记为标签Index。
更具体的,所述融合处理模块B1的输入为三维检测神经网络DNN1的输出和二维检测神经网络DNN2的输出,以及二维检测神经网络DNN2的输出信息所对应的输入图片Im和输入图片Im相关的信息ImData;
根据三维检测神经网络DNN1所定义的类别和二维检测神经网络DNN2所定义的类别的对应关系,通过对三维检测神经网络DNN1输出的属于不同类别的置信度进行复制或顺序调整,使得其满足:(a)对每个目标,三维检测神经网络DNN1所输出的类别置信度数目和DNN2输出的类别置信度数目相同,(b)对每个目标,三维检测神经网络DNN1所输出的第i个置信度的类别等同于DNN2输出的第i个置信度的类别,或者是二维检测神经网络DNN2输出的第i个置信度的类别的父类别。
对三维检测神经网络DNN1输出的每个三维目标信息ob[k1],其中0<=k1<N1,B1利用所述相关的信息ImData将ob[k1]中的三维区域投影到图片Im上,形成区域Region(ob[k1]),对二维检测神经网络DNN2输出的每个二维目标信息rc[k2],其中0<=k2<N2,计算Region(ob[k1])和rc[k2]中的二维区域的交集区域面积与并集区域面积,计算交集区域面积与并集区域面积之比IOU[k1,k2],若IOU大于预定阈值,则针对ob[k1]产生初步分类信息集S[k1]={(IOU[k1,k2],pa[i], pb[i]),i=1,...,C2},pa[i]为三维检测神经网络DNN1输出的对ob[k1]进行分类后属于第i个类别的置信度,pb[i]是二维检测神经网络DNN2输出的对rc[k2]进行分类后属于第i个类别的置信度。
因此,所述融合处理模块B1输出由所有三维目标信息对应的初步分类信息集形成的集合组成。
如图3所示,所述分类器F为融合神经网络,通过一个或多个数据集训练得到。该神经网络由4个卷积和1个池化层组成,十分轻量,几乎不影响效率和资源。将所述特征向量Input和输出位置标签Index作为融合神经网络的输入,每一层神经网络的具体参数下表所示:
网络层 | 卷积核尺寸 | 步长 | 填充 | 通道数 | 输入尺寸 | 输出尺寸 |
Conv1+relu | 1*1 | 1*1 | 0*0 | 18 | X*4*3 | X*4*18 |
Conv2+relu | 1*1 | 1*1 | 0*0 | 36 | X*4*18 | X*4*36 |
Conv3+relu | 1*1 | 1*1 | 0*0 | 36 | X*4*36 | X*4*36 |
Conv4+relu | 1*1 | 1*1 | 0*0 | 1 | X*4*36 | X*4*1 |
pool1 | 200*1 | 1*1 | 0*0 | / | 200*50*4 | 1*50*4 |
通过输出位置标签Index将卷积层conv4+relu的输出映射到特征张量out1中,out1的数组为200*50*4,其中认为二维目标检测结果最高类别的置信度超过0.2的目标的个数小于200,将out1作为池化层pool1的输入,最后再数据重组成1*50的向量,作为融合神经网络的输出,经过sigmoid激活函数得到50个目标中4个类别分数最大的类别及其对应的置信度,即融合神经网络的输出。所述融合神经网络的输出即分类器F的输出,可表示为集合SF={(label[k1], prob[k1])|k1=0,1,...,N1-1}, 其中label[k1]表示第k1个三维目标最终被分类到的类别,prob[k1]表示属于该类别的置信度,该类别是由三维检测神经网络DNN1所定义的类别。
所述后处理模块B2,输入所述50个目标的三维信息和分类器F输出的50个目标的类别以及置信度,过滤置信度小于预设阈值0.2的目标,最终得到新的三维目标检测结果。
详细的,后处理模块B2从分类器F输出的集合SF={(label[k1], prob[k1])|k1=0,1,...,N1-1}中选取若干元素并匹配相应的目标索引形成集合SF2={(kk,label[kk],prob[kk])},其中(label[kk], prob[kk])属于SF,kk为[0,N1-1]中的整数,kk表示目标索引,且prob[kk]大于预设阈值;
后处理模块B2将SF2转换为集合SF3 ={(kk,label[kk],prob[kk],vol[kk])},其中(kk, label[kk],prob[kk])属于SF2,vol[kk]是三维检测神经网络DNN1输出中的第kk个三维目标信息中的目标三维区域,后处理模块B2将SF3输出。
如图2所示,一种基于点云和图像数据的三维目标检测方法,包括以下步骤:
步骤一,构造并连接各模块:将三维检测神经网络DNN1、二维检测神经网络DNN2、融合处理模块B1、分类器F和后处理模块B2连接,构造成三维目标检测系统;
步骤二,对三维检测神经网络DNN1和二维检测神经网络DNN2进行训练或者加载已经训练好的模型;
步骤三,训练分类器F:采用kitti数据集对分类器F进行训练,采用Focal_Loss作为训练分类器F的损失函数,借助Adam优化器对分类器F的融合神经网络权重系数进行训练优化,训练过程中只更新融合神经网络的参数,对三维检测神经网络DNN1和二维检测神经网络DNN2不进行梯度计算、反向传播以及参数更新,即完全独立于三维检测神经网络DNN1和二维检测神经网络DNN2,对两者训练好的模型参数不构成任何影响,每训练1个epoch,对验证集数据进行推理验证,训练100个epoch,找到综合指标最佳的分类器F网络模型;
步骤四,推理测试:将三维点云数据输入已经训练好的三维检测神经网络DNN1,将二维图像输入已经训练好的二维检测神经网络DNN2,分别进行推理选取N1和N2组数据,并将该二维图片以及对应二维图片信息一起输入到融合处理模块B1,再将结果输入到分类器F,最后将分类结果和三维目标检测的结果输入到后处理模块B2,得到最终三维目标检测结果。
所述采用本发明实施方案中的基于点云和图像数据的三维目标检测方法和现阶段较为流行的基于纯点云的三维目标检测方案PointPillars、PointRCNN、Second以及基于点云和图像数据融合的其他技术方案EPNet相对比,保证同样的训练集以及模型参数优化方法,各自在验证集的各类别指标的3D map比较如下表所示:
车辆 | 行人 | 骑车的人 | |
PointPillars | 89.65372 | 72.65376 | 86.88952 |
PointRCNN | 94.78256 | 73.66579 | 88.63552 |
Second | 93.37265 | 73.22698 | 88.98336 |
EPNet | 92.78644 | 74.77859 | 90.01653 |
Ours | 96.59697 | 78.402351 | 91.121017 |
本发明在提升三维目标检测精度的同时,整体效率只降低了5-10ms,保证了三维目标检测的实时性。
本发明效果图比较如图4a和图4b所示,其中图4a是基于纯点云进行三维目标检测并将三维包围盒投影到图像上的结果,图4b是本发明实施例中基于点云和图像融合的三维目标检测并三维包围盒投影到图像上的结果。明显可以看出,前者对左前方的行人漏检,后者基于图像的特征将该行人召回。
Claims (10)
1.一种基于点云和图像数据的三维目标检测系统,其特征在于,包括:三维检测神经网络、二维检测神经网络、融合处理模块、分类器和后处理模块,所述三维检测神经网络是完整的独立完成三维目标检测任务的神经网络,输入为原始三维点云数据,直接输出三维目标信息,并传递至融合处理模块;所述二维检测神经网络是完整的独立完成二维目标检测任务的神经网络,输入为二维图片数据,直接输出二维目标信息,并传递至融合处理模块;所述融合处理模块对所述三维目标信息和二维目标信息进行融合处理后,将融合处理后的数据输出至分类器,所述分类器对融合处理后的数据信息进行分类,输出分类结果至后处理模块,所述分类器采用轻量级神经网络,由M1个卷积层和1个池化层组成,独立于三维检测神经网络和二维检测神经网络训练模型,其中卷积层的卷积核尺寸的M2*1;所述后处理模块输入分类结果和三维目标信息,输出目标检测结果。
2.如权利要求1所述的一种基于点云和图像数据的三维目标检测系统,其特征在于,所述三维检测神经网络,输入数据为若干组三维点云坐标数据,输出为N1组三维目标信息,其中输出的每组三维目标信息包含一个目标的三维区域和该目标属于C1种不同类别的置信度,N1为预设的目标总数,C1为三维检测神经网络定义的类别总数;
所述二维检测神经网络,输入数据为二维图片数据,输出数据为N2组二维目标信息,其中输出的每组二维目标信息包含一个目标的二维区域和该目标属于C2种不同类别的置信度,N2为预设的目标总数,C2为二维检测神经网络定义的类别总数,且二维检测神经网络定义的任意一种类别是二维检测神经网络定义的一种类别或者是二维检测神经网络定义的一种类别的子类别。
3.如权利要求2所述的一种基于点云和图像数据的三维目标检测系统,其特征在于,所述三维检测神经网络为基于Bev图的三维目标检测模块,将所述三维点云坐标数据进行过滤,即在传感器坐标系下X,Y,Z轴的检测范围大小分别为x_min到x_max米,y_min到y_max米,z_min到z_max米进行滤波,并投影到H*W的图像坐标系下,其中传感器坐标系为以传感器中心为坐标原点,向前为X轴正方向,向右为Y轴正方向,向上为Z轴正方向,H与W为图像的长和宽,每个三维点投影到图像的公式如下所示:
Pixelu = Pointx * (x_max-x_min)) / H; Pixelv = Pointy * (y_max-(y_min))) /W,
其中Pixelu、Pixelv为投影后在图像坐标系下的横、纵坐标,Pointx、Pointy为三维点云在传感器坐标系下的x、y坐标;针对投影后图像数据的每个像素点,取传感器坐标系下z值最高的点,并计算投影到该像素点的点云的密度,其中计算某一像素点的点云的密度公式如下所示:
Densityuv = Min( Log(Counts + 1) / Log(M3), 1)
其中Densityuv为投影到图像坐标系(u,v)上的点云的密度,Counts为投影到该像素点的点的个数,M3为传感器的线束,将该点的高度,反射强度以及Densityuv作为该像素点的RGB特征,得到3*H*W的特征张量送入三维目标检测神经网络中。
4.如权利要求3所述的一种基于点云和图像数据的三维目标检测系统,其特征在于,所述三维目标检测神经网络采用anchor free目标检测框架,对图像坐标系下的目标进行检测,得到图像坐标系下的目标的信息再映射到传感器坐标系下,即得到该目标的三维目标信息。
5.如权利要求4所述的一种基于点云和图像数据的三维目标检测系统,其特征在于,采用Focal_Loss损失函数对图像坐标系下目标的中心点的位置进行回归,采用L1_Loss损失函数对目标的中心点的偏移量进行回归,采用L1_Loss损失函数对目标的长、宽、高以及目标中心点在传感器坐标系下的Z轴坐标进行回归,针对目标的航向角,采用SmoothL1_Loss损失函数对其正弦值和余弦值进行回归。
6.如权利要求2所述的一种基于点云和图像数据的三维目标检测系统,其特征在于,所述三维检测神经网络输出的每个目标的类别置信度数目和二维检测神经网络输出的每个目标的类别置信度数目相同,三维检测神经网络所输出的每个目标的第i个置信度的类别等同于二维检测神经网络输出的每个目标的第i个置信度的类别,或者是二维检测神经网络输出的每个目标的的第i个置信度的类别的父类别。
7.如权利要求2述的一种基于点云和图像数据的三维目标检测系统,其特征在于,所述融合处理模块的输入具体为三维检测神经网络的输出、二维检测神经网络的输出,以及二维检测神经网络的输出信息所对应的输入图片Im和输入图片Im相关的信息ImData;
所述融合处理模块利用所述相关的信息ImData将三维检测神经网络输出的每个三维目标信息ob[k1]中的三维区域投影到图片Im上,形成区域Region(ob[k1]),其中0<=k1<N1,对二维检测神经网络输出的每个二维目标信息rc[k2],其中0<=k2<N2,计算Region(ob[k1])和rc[k2]中的二维区域的交集区域面积与并集区域面积,计算交集区域面积与并集区域面积之比IOU[k1,k2],若IOU大于预定阈值,则针对三维目标信息ob[k1]产生初步分类信息集S[k1]={(IOU[k1,k2],pa[i], pb[i]),i=1,...,C2},pa[i]为三维检测神经网络DNN1输出的对三维目标信息ob[k1]进行分类后属于第i个类别的置信度,pb[i]是二维检测神经网络输出的对rc[k2]进行分类后属于第i个类别的置信度;
所述融合处理模块的输出由所有三维目标信息对应的初步分类信息集形成的集合组成。
8.如权利要求2所述的一种基于点云和图像数据的三维目标检测系统,其特征在于,所述分类器的输入为融合处理模块的输出,输出为分类集合SF={(label[k1], prob[k1])|k1=0,1,...,N1-1}, 其中label[k1]表示第k1个三维目标信息最终被分类到的类别,prob[k1]表示属于该类别的置信度,该类别是由三维检测神经网络定义的类别,所述分类器通过一个或多个数据集训练得到。
9.如权利要求8所述的一种基于点云和图像数据的三维目标检测系统,其特征在于,所述后处理模块从分类器输出的集合SF={(label[k1],prob[k1])|k1=0,1,...,N1-1}中选取若干元素并匹配相应的目标索引形成集合SF2={(kk,label[kk],prob[kk])},其中(label[kk], prob[kk])属于SF,kk为[0,N1-1]中的整数,kk表示目标索引,且prob[kk]大于预设阈值;
后处理模块将SF2转换为集合SF3 ={(kk,label[kk],prob[kk],vol[kk])}后输出,其中(kk, label[kk],prob[kk])属于SF2,vol[kk]是三维检测神经网络DNN1输出中的第kk个三维目标信息中的目标三维区域。
10.一种基于点云和图像数据的三维目标检测方法,其特征在于,包括如下步骤:
步骤一,构造并连接各模块:将三维检测神经网络、二维检测神经网络、融合处理模块、分类器和后处理模块连接,构造成三维目标检测系统;
步骤二,对三维检测神经网络和二维检测神经网络进行训练或加载已训练好的网络模型;
步骤三,训练分类器:采用公开数据集对分类器进行训练,采用Focal_Loss作为训练分类器的损失函数,借助优化器对分类器的融合神经网络权重系数进行训练优化,训练过程中只更新融合神经网络的参数,对三维检测神经网络和二维检测神经网络不进行梯度计算、反向传播以及参数更新;
步骤四,推理测试:将三维点云数据输入已经训练好的三维检测神经网络,将二维图像输入已经训练好的二维检测神经网络,分别进行推理选取N1和N2组数据,并将该二维图片以及对应二维图片信息一起输入到融合处理模块,再将结果输入到分类器,最后将分类结果和三维目标检测的结果输入到后处理模块,得到最终三维目标检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110652361.4A CN113111978B (zh) | 2021-06-11 | 2021-06-11 | 一种基于点云和图像数据的三维目标检测系统和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110652361.4A CN113111978B (zh) | 2021-06-11 | 2021-06-11 | 一种基于点云和图像数据的三维目标检测系统和方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113111978A true CN113111978A (zh) | 2021-07-13 |
CN113111978B CN113111978B (zh) | 2021-10-01 |
Family
ID=76723462
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110652361.4A Active CN113111978B (zh) | 2021-06-11 | 2021-06-11 | 一种基于点云和图像数据的三维目标检测系统和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113111978B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114119992A (zh) * | 2021-10-28 | 2022-03-01 | 清华大学 | 基于图像与点云融合的多模态三维目标检测方法及装置 |
US20220406010A1 (en) * | 2021-06-17 | 2022-12-22 | Board Of Trustees Of Michigan State University | Lidar Camera Fusion For Autonomous Vehicles |
CN115546482A (zh) * | 2022-09-26 | 2022-12-30 | 浙江省测绘科学技术研究院 | 一种基于统计投影的室外点云语义分割方法 |
CN115578608A (zh) * | 2022-12-12 | 2023-01-06 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达点云的抗干扰分类方法及装置 |
CN116740668A (zh) * | 2023-08-16 | 2023-09-12 | 之江实验室 | 三维目标检测方法、装置、计算机设备和存储介质 |
CN116778262A (zh) * | 2023-08-21 | 2023-09-19 | 江苏源驶科技有限公司 | 一种基于虚拟点云的三维目标检测方法和系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609601A (zh) * | 2017-09-28 | 2018-01-19 | 北京计算机技术及应用研究所 | 一种基于多层卷积神经网络的舰船目标识别方法 |
CN109582993A (zh) * | 2018-06-20 | 2019-04-05 | 长安大学 | 城市交通场景图像理解与多视角群智优化方法 |
CN109902702A (zh) * | 2018-07-26 | 2019-06-18 | 华为技术有限公司 | 目标检测的方法和装置 |
CN110363820A (zh) * | 2019-06-28 | 2019-10-22 | 东南大学 | 一种基于激光雷达、图像前融合的目标检测方法 |
CN110472534A (zh) * | 2019-07-31 | 2019-11-19 | 厦门理工学院 | 基于rgb-d数据的3d目标检测方法、装置、设备和存储介质 |
CN111626217A (zh) * | 2020-05-28 | 2020-09-04 | 宁波博登智能科技有限责任公司 | 一种基于二维图片和三维点云融合的目标检测和追踪方法 |
CN111723721A (zh) * | 2020-06-15 | 2020-09-29 | 中国传媒大学 | 基于rgb-d的三维目标检测方法、系统及装置 |
CN112580786A (zh) * | 2020-12-22 | 2021-03-30 | 之江实验室 | 一种用于ReID的神经网络构造方法及其训练方法 |
CN112740268A (zh) * | 2020-11-23 | 2021-04-30 | 华为技术有限公司 | 目标检测方法和装置 |
-
2021
- 2021-06-11 CN CN202110652361.4A patent/CN113111978B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107609601A (zh) * | 2017-09-28 | 2018-01-19 | 北京计算机技术及应用研究所 | 一种基于多层卷积神经网络的舰船目标识别方法 |
CN109582993A (zh) * | 2018-06-20 | 2019-04-05 | 长安大学 | 城市交通场景图像理解与多视角群智优化方法 |
CN109902702A (zh) * | 2018-07-26 | 2019-06-18 | 华为技术有限公司 | 目标检测的方法和装置 |
CN110363820A (zh) * | 2019-06-28 | 2019-10-22 | 东南大学 | 一种基于激光雷达、图像前融合的目标检测方法 |
CN110472534A (zh) * | 2019-07-31 | 2019-11-19 | 厦门理工学院 | 基于rgb-d数据的3d目标检测方法、装置、设备和存储介质 |
CN111626217A (zh) * | 2020-05-28 | 2020-09-04 | 宁波博登智能科技有限责任公司 | 一种基于二维图片和三维点云融合的目标检测和追踪方法 |
CN111723721A (zh) * | 2020-06-15 | 2020-09-29 | 中国传媒大学 | 基于rgb-d的三维目标检测方法、系统及装置 |
CN112740268A (zh) * | 2020-11-23 | 2021-04-30 | 华为技术有限公司 | 目标检测方法和装置 |
CN112580786A (zh) * | 2020-12-22 | 2021-03-30 | 之江实验室 | 一种用于ReID的神经网络构造方法及其训练方法 |
Non-Patent Citations (1)
Title |
---|
SU PANG等: "《CLOCs:Camera-LiDAR Object Candidates Fusion for 3D Object Detection》", 《2020 INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220406010A1 (en) * | 2021-06-17 | 2022-12-22 | Board Of Trustees Of Michigan State University | Lidar Camera Fusion For Autonomous Vehicles |
CN114119992A (zh) * | 2021-10-28 | 2022-03-01 | 清华大学 | 基于图像与点云融合的多模态三维目标检测方法及装置 |
CN115546482A (zh) * | 2022-09-26 | 2022-12-30 | 浙江省测绘科学技术研究院 | 一种基于统计投影的室外点云语义分割方法 |
CN115578608A (zh) * | 2022-12-12 | 2023-01-06 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达点云的抗干扰分类方法及装置 |
CN115578608B (zh) * | 2022-12-12 | 2023-02-28 | 南京慧尔视智能科技有限公司 | 一种基于毫米波雷达点云的抗干扰分类方法及装置 |
CN116740668A (zh) * | 2023-08-16 | 2023-09-12 | 之江实验室 | 三维目标检测方法、装置、计算机设备和存储介质 |
CN116740668B (zh) * | 2023-08-16 | 2023-11-14 | 之江实验室 | 三维目标检测方法、装置、计算机设备和存储介质 |
CN116778262A (zh) * | 2023-08-21 | 2023-09-19 | 江苏源驶科技有限公司 | 一种基于虚拟点云的三维目标检测方法和系统 |
CN116778262B (zh) * | 2023-08-21 | 2023-11-10 | 江苏源驶科技有限公司 | 一种基于虚拟点云的三维目标检测方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113111978B (zh) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113111978B (zh) | 一种基于点云和图像数据的三维目标检测系统和方法 | |
Huang et al. | Autonomous driving with deep learning: A survey of state-of-art technologies | |
US10733755B2 (en) | Learning geometric differentials for matching 3D models to objects in a 2D image | |
CN110765922A (zh) | 一种agv用双目视觉物体检测障碍物系统 | |
CN111832655A (zh) | 一种基于特征金字塔网络的多尺度三维目标检测方法 | |
CN108709513A (zh) | 一种基于模型拟合算法的车辆三维检测方法 | |
CN111046767B (zh) | 一种基于单目图像的3d目标检测方法 | |
Fan et al. | Computer stereo vision for autonomous driving | |
Qiao et al. | Adaptive feature fusion for cooperative perception using lidar point clouds | |
Ma et al. | CG-SSD: Corner guided single stage 3D object detection from LiDAR point cloud | |
CN110969064A (zh) | 一种基于单目视觉的图像检测方法、装置及存储设备 | |
CN116830164A (zh) | LiDAR去相关对象检测系统与方法 | |
CN116129233A (zh) | 基于多模态融合感知的自动驾驶场景全景分割方法 | |
CN116486368A (zh) | 基于自动驾驶场景下的多模态融合三维目标鲁棒检测方法 | |
CN115115917A (zh) | 基于注意力机制和图像特征融合的3d点云目标检测方法 | |
Wang et al. | A survey of 3D point cloud and deep learning-based approaches for scene understanding in autonomous driving | |
CN115082681A (zh) | 语义分割、环境感知方法、装置和无人车 | |
CN113255779B (zh) | 多源感知数据融合识别方法、系统及计算机可读存储介质 | |
Gomez-Donoso et al. | Three-dimensional reconstruction using SFM for actual pedestrian classification | |
Zhang et al. | Infrastructure 3D Target detection based on multi-mode fusion for intelligent and connected vehicles | |
CN117557980A (zh) | 一种基于卷积注意力和特征解耦的单目三维目标检测方法 | |
CN117173399A (zh) | 一种跨模态交叉注意力机制的交通目标检测方法及系统 | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
Tian et al. | Semantic-enhanced graph voxelization for pillar-based 3D detection from point clouds | |
CN113569803A (zh) | 一种基于多尺度卷积的多模态数据融合车道目标检测的方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |