CN118038017A - 一种基于多视图融合的三维点云目标检测方法 - Google Patents

一种基于多视图融合的三维点云目标检测方法 Download PDF

Info

Publication number
CN118038017A
CN118038017A CN202410081806.1A CN202410081806A CN118038017A CN 118038017 A CN118038017 A CN 118038017A CN 202410081806 A CN202410081806 A CN 202410081806A CN 118038017 A CN118038017 A CN 118038017A
Authority
CN
China
Prior art keywords
view
point cloud
evidence
target detection
top view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410081806.1A
Other languages
English (en)
Inventor
周牧
冉浩成
谢良波
杜楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN202410081806.1A priority Critical patent/CN118038017A/zh
Publication of CN118038017A publication Critical patent/CN118038017A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明提出了一种基于多视图融合的三维点云目标检测方法。首先,将3D点云在XOY进行投影得到2D俯视图,将3D点云转到柱坐标并将柱面剪开摊平为矩形得到2D前视图,结合3D点云的高度、密度、深度和反射强度信息对两个2D视图进行编码处理得到三通道伪RGB图像,然后利用双边滤波对图像去噪,之后将其作为目标检测网络的输入,利用能够针对点云数据进行目标检测的Complex‑YOLOv4网络作为目标检测网络,分别对前视图和俯视图进行目标检测,最后将前视图和俯视图分别得到的目标检测结果进行融合,将加权D‑S证据理论应用到多视图融合中,利用基于BPA的决策方法对其分类做判决,得到最终目标检测结果。本发明将基于3D点云多视图投影的目标检测进行融合,提高了目标检测的精度。

Description

一种基于多视图融合的三维点云目标检测方法
技术领域
本发明属于汽车驾驶道路目标识别方法技术领域,具体涉及一种基于多视图融合的三维点云目标检测方法。
背景技术
随着汽车激光雷达传感器的发展,如今基于激光雷达的3D采集技术发展日益成熟,使用3D点云的应用正在增长,激光雷达可以轻松获取汽车周围的三维世界信息,所以基于点云的目标检测对于自动驾驶有着不可替代的作用,它与汽车道路环境感知紧密联系在一起,因此为预测和运动规划奠定了基础,点云目标检测在自动驾驶中变得越来越重要。
目前主要研究方法是围绕深度学习网络,使用卷积神经网络(CNN)做点云目标检测,由于激光雷达采集的每帧点云的点数多达十几万个,直接处理3D点云的目标检测方法需要处理的数据量太大,且3D CNN计算复杂,所以诞生了在3D点云的2D投影视图上做目标检测的方法。
目前基于投影的目标检测方法主要利用点云的前视图或俯视图这两种视图,相对于直接处理3D点云数据,利用其投影视图做目标检测可以减少计算复杂性,从而实现更高的处理速度和实时性,还可以利用现在已有的2D图像目标检测的一些方法作为工具,更容易对数据进行预处理、分割和增强。若仅基于前视图做目标检测,在投影过程中可能会损失一些关于场景深度和空间结构的信息,这可能影响目标检测的准确性和鲁棒性,且在2D前视图中,可能会出现遮挡问题,导致目标检测的漏检。仅基于俯视图做目标检测,因为它从上方直接观察场景,可以减少或避免由于物体遮挡而导致的漏检问题,然而从俯视图角度观察场景可能会导致点云数据的密度不均,且在投影中会丢失部分高度信息,可能影响目标检测的准确性。
将点云投影前视图和俯视图进行结合,用俯视图减少前视图因为遮挡产生的漏检情况,用密集的前视图保留的更多高度信息补充俯视图的丢失的信息,二者相互补充可以有效提高目标检测性能。
发明内容
本发明的目的提供一种基于多视图融合的三维点云目标检测方法。相比与直接处理点云的目标检测方法,本发明利用3D到2D转换减少了大量的数据处理和CNN计算开销,并且本发明融合了前视图和俯视图这两个视图,相互弥补了基于单个投影视图的不足,减少漏检,提高了目标检测的精度。
本发明所采用的技术方案为:一种基于D-S证据理论多视图融合的3D点云目标检测方法,具体包括以下步骤:
步骤一、利用激光雷达采集得到3D点云;
步骤二、将3D点云进行投影处理得到2D伪RGB的前视图和俯视图;
步骤三、对前视图和俯视图进行双边滤波去噪;
步骤四、将前视图和俯视图分别输入到各自视图训练好的complex-yolov4网络中进行独立地目标检测任务,得到目标类别和置信度;
步骤五、利用D-S证据理论将前视图和俯视图的目标检测结果进行融合;
步骤六、将步骤五的融合结果进行基于可信度的决策方法进行判决得到目标类别。
所述步骤二中包括以下步骤:
步骤二(1)筛选出传感器正前方50m×50m的ROI区域,高度限定在4m以内;
步骤二(2)直接将点云投影到XOY平面上,并将点云栅格化到网格分辨率为8cm的二维网格图中,转化为一张俯视的三通道图片;
三通道分别由点云高度信息Bg(Sj)=max(PΩi→j·[0,0,1]T)、点云强度信息Bb(Sj)=max(I(PΩi→j))、点云密度信息Br(Sj)=min(1.0,log(N+1)/64)N=|PΩi→j|进行编码;
其中,Sj表示每个像素的点云映射函数,PΩ表示感兴趣区域范围内的所有点集,I(·)表示点的反射强度,N表示每个像素中的点数;
在投影过程中可能会有多个点投影到前视图中的一个像素点上,选取这些点中深度、高度、反射强度最大值作为三通道的数值;
步骤二(3)将点云转到柱坐标系,再将柱面剪开摊平为矩形,生成前视图,利用前视图投影公式对3D点云进行投影得到分辨率为C×R的2D三通道前视图,C和R分别表示图像的长度和宽度,投影公式c=arctan(y/x)/Δθ、
其中,(x,y,z)表示3D点云的坐标,Δθ、Δμ分别表示水平分辨角与垂直分辨角,在2D前视图的每个像素中;
三通道利用3D点云中的信息中的高度Fg(Sj)=max(PΩi→j·[0,0,1]T)、反射强度Fb(Sj)=max(I(PΩi→j))以及计算得到的前视图深度Fr(Sj)=max(D(PΩi→j))进行编码;
其中Fr表示最大深度,Fg表示最大高度,Fb表示最大反射强度,表示点(x,y,z)处的深度;
所述步骤三采用的双边滤波具有良好的边缘保持能力,主要可以对2D投影视图的值域和空域进行平滑去噪,有效去除图像中的高斯噪声,双边滤波公式为:
其中,I(·)表示像素值,表示更新后输出的像素值,Wp表示归一化权重因子,Gσs、Gσr分别是表示图像的空间域核和像素域核的二维高斯公式,q表示输入像素,p表示中心点像素。
所述步骤五中包括以下步骤:
步骤五(1)构建辨识框架:在D-S证据理论中,辨识框架Θ定义为非空集合Θ={θ12,…,θi,…,θN},i=1,2,…,N,θi表示辨识框架中的元素,是N个两两互斥且相互独立的元素,本方法将前视图和俯视图为证据源,幂集2Θ定义为辨识框架中包含的所有子集的集合,表示为
将步骤四中检测到的行人、车辆、骑车的人三种类别作为辨识框架中的元素θ1、θ2、θ3,则如果函数m:2Θ→[0,1]满足:
则m称为基本概论分配函数(Basic ProbabilityAssignment,BPA)或mass函数,m(A)是命题A基本概率分配,当m(A)>0时,称A为2Θ的一个焦元,将步骤四中得到的置信度作为BPA函数。
步骤五(2)引入证据权:本方法有前视图和俯视图这2个证据源,系统对其中信任程度最高的证据称为首要证据源,另一个称为次要证据源。首要证据源的证据权为β1=1,次要证据源相对于首要证据源的信任度为β2,则β2为次要证据源相对于首要证据源的证据权,0<βi≤1(i=1,2)。
在本方法中,证据权来自前视图和俯视图在目标检测网络中各自检测结果的平均精度P1、P2,若P1>P2,以俯视图为首要证据源,前视图证据源相对于首要证据源的证据权为β2=P2/P1,m1、m2分别是在目标检测辨识框架Θ中的前视图和俯视图的BPA,则俯视图中各类别加权后的BPA不变即m1'=m1,加入证据权之后前视图中各类别的BPA为m1'、m2':
U表示不确定情况。
步骤五(3)D-S组合规则:将m1'和m2'融合后的新BPA表示为m1'⊕m2',则融合规则为:
其中Ai,Bj∈2Θ,θo∈Θ(o=1,2,3),为冲突系数,表示两个不同视图证据源的冲突或不一致性程度。它是一个介于0到1之间的值,其中0表示无冲突,1表示最大的冲突。
所述步骤六中本方法主要是行人、车辆、骑车的人三种类别的单类别检测,θo∈Θ(o=1,2,3)则是这三种类别,且利用步骤五(3)得到的三种类别最终BPA为m'(θo1)>m'(θo2)>m'(θo3)>0,通过基于BPA的决策方法决策出最终类别判决,如果满足:
ε2和ε1是提前设置好的阈值,则类别判决为θo1,若不满足该条件,则判决为无目标。
附图说明
图1为本发明方法的系统模块框图;
图2为3D点云实例及其三通道投影视图,(a)是3D点云,(b)是俯视投影图,(c)是前视投影图;
具体实施方式
为使本领域技术人员理解本发明技术方案,下面将结合本发明的附图,对本发明的技术方案进行清楚、完整地描述。
如图1所示,一种基于多视图融合的三维点云目标检测方法,具体步骤包括:
步骤一、利用激光雷达采集得到3D点云;
步骤二、将3D点云进行投影处理得到2D伪RGB的前视图和俯视图,具体步骤如下:
如图1中点云数据处理模块所示,利用点云中的深度、高度、反射强度、密度信息对投影视图进行编码:
步骤二(1)筛选出传感器正前方50m×50m的感兴趣区域,高度限定在4m以内,具体就是将点云中不同时满足x<50m、y<50m、z<4m这三个条件的点都移除掉;
步骤二(2)直接将点云投影到XOY平面上,并将点云栅格化到网格分辨率为8cm的二维网格图中,转化为一张俯视的三通道图片,三通到分别由点云高度信息Bg(Sj)=max(PΩi→j·[0,0,1]T),强度信息Bb(Sj)=max(I(PΩi→j)),密度信息Br(Sj)=min(1.0,log(N+1)/64)N=|PΩi→j|三种信息进行编码,Sj表示每个像素的点云映射函数,PΩ表示感兴趣区域范围内的所有点集,I(·)表示点的反射强度,N表示每个像素中的点数。在投影过程中可能会有多个点投影到前视图中的一个像素点上,选取这些点中深度、高度、反射强度最大值作为三通道的数值。
步骤二(3)由于点云直接进行投影到前视图会导致前视图显的比较稀疏,为了得到一个叫稠密的2D前视图,先将点云转到柱坐标系,再将柱面剪开摊平为矩形,生成前视图,利用前视图投影公式对3D点云进行投影得到分辨率为C×R的2D三通道前视图,C和R分别表示图像的长度和宽度,投影公式为c=arctan(y/x)/Δθ、其中,(x,y,z)表示3D点云的坐标,Δθ、Δμ分别表示水平分辨角与垂直分辨角。
在2D前视图的每个像素中,三通道利用3D点云中的信息中的高度Fg(Sj)=max(PΩi→j·[0,0,1]T)、反射强度Fb(Sj)=max(I(PΩi→j))以及计算得到的前视图深度Fr(Sj)=max(D(PΩi→j))进行编码,其中表示点(x,y,z)处的深度;
步骤三、对前视图和俯视图进行双边滤波去噪,具体步骤为:
在3D点云投影到2D多视图的过程中,由于投影矩阵的估计误差或3D点云在采集时的环境造成的误差,可能会产生重投影误差,这些误差会在2D投影图中引入噪声,采用的双边滤波具有良好的边缘保持能力,主要可以对2D投影视图的值域和空域进行平滑去噪,有效去除图像中的高斯噪声,双边滤波公式为:
其中,I(·)表示像素值,表示更新后输出的像素值,Wp表示归一化权重因子,分别是表示图像的空间域核和像素域核的二维高斯公式,q表示输入像素,p表示中心点像素。
步骤四、将前视图和俯视图分别输入到各自视图训练好的Complex-YOLOv4网络中进行独立地目标检测任务,得到目标类别和置信度;
Complex-YOLOv4网络是根据YOLOv4改进而来,在YOLOv4的基础上,提出了一种特定欧拉区域建议网络(Euler-Region Proposal Network,E-RPN),通过在回归网络中添加虚分数和实分数来估计目标的姿态,可以估计出每个行人、车辆的准确航向。
步骤五、利用D-S证据理论将前视图和俯视图的目标检测结果进行融合,具体步骤包括:
步骤五(1)构建辨识框架:在D-S证据理论中,辨识框架Θ定义为非空集合Θ={θ12,…,θi,…,θN},i=1,2,…,N,θi表示辨识框架中的元素,是N个两两互斥且相互独立的元素,本方法将前视图和俯视图为证据源,幂集2Θ定义为辨识框架中包含的所有子集的集合,表示为i=1,2,…,N。将步骤四中检测到的行人、车辆、骑车的人三种类别作为辨识框架中的元素θ1、θ2、θ3,则如果函数m:2Θ→[0,1]满足:
则m称为基本概论分配函数(Basic ProbabilityAssignment,BPA)或mass函数,m(A)是命题A基本概率分配,当m(A)>0时,称A为2Θ的一个焦元,将步骤四中得到的置信度作为BPA函数。
步骤五(2)引入证据权:本方法有前视图和俯视图这2个证据源,系统对其中信任程度最高的证据称为首要证据源,另一个称为次要证据源。首要证据源的证据权为β1=1,次要证据源相对于首要证据源的信任度为β2,则β2为次要证据源相对于首要证据源的证据权,0<βi≤1(i=1,2)。
在本方法中,证据权来自前视图和俯视图在目标检测网络中各自检测结果的全类平均精度(meanAverage Precision,mAP)P1、P2,若P1>P2,以俯视图为首要证据源,前视图证据源相对于首要证据源的证据权为β2=P2/P1,m1、m2分别是在目标检测辨识框架Θ中的前视图和俯视图的BPA,则俯视图中各类别加权后的BPA不变即m1'=m1,加入证据权之后前视图中各类别的BPA为m1'、m2':
U表示不确定情况。
步骤五(3)D-S组合规则:将m1'和m2'融合后的结果就是新BPA,表示为m1'⊕m2',则融合规则为:
其中Ai,Bj∈2Θ,θo∈Θ(o=1,2,3),为冲突系数,表示两个不同视图证据源的冲突或不一致性程度。它是一个介于0到1之间的值,其中0表示无冲突,1表示最大的冲突。
步骤六、将步骤五的融合结果进行基于可信度的决策方法进行判决得到目标类别;
本方法主要是行人、车辆、骑车的人三种类别的单类别检测,θo∈Θ(o=1,2,3)则是这三种类别,且利用步骤五(3)得到的三种类别最终BPA为m'(θo1)>m'(θo2)>m'(θo3)>0,通过基于BPA的决策方法决策出最终类别判决,如果满足:
ε2和ε1是提前设置好的阈值,一般设为,则类别判决为θo1,若不满足该条件,则判决为无目标。

Claims (5)

1.一种基于多视图融合的三维点云目标检测方法,其特征在于包括以下步骤:
步骤一、利用激光雷达采集得到3D点云;
步骤二、将3D点云进行投影处理得到2D伪RGB的前视图和俯视图;
步骤三、对前视图和俯视图进行双边滤波去噪;
步骤四、将前视图和俯视图分别输入到各自视图训练好的Complex-YOLOv4网络中进行独立地目标检测任务,得到目标类别和置信度;
步骤五、利用D-S证据理论将前视图和俯视图的目标检测结果进行融合;
步骤六、将步骤五的融合结果进行基于可信度的决策方法进行判决得到目标类别。
2.根据权利要求1所述的一种基于D-S证据理论多视图融合的3D点云目标检测方法,其特征在于:所述步骤二中包括以下步骤:
步骤二(1)筛选出传感器正前方50m×50m的感兴趣区域,高度限定在4m以内;
步骤二(2)直接将点云投影到XOY平面上,并将点云栅格化到网格分辨率为8cm的二维网格图中,转化为一张俯视的三通道图片,三通道分别由点云高度信息Bg(Sj)=max(PΩi→j·[0,0,1]T)、点云强度信息Bb(Sj)=max(I(PΩi→j))、点云密度信息Br(Sj)=min(1.0,log(N+1)/64)N=|PΩi→j|进行编码,Sj表示每个像素的点云映射函数,PΩ表示感兴趣区域范围内的所有点集,I(·)表示点的反射强度,N表示每个像素中的点数。在投影过程中可能会有多个点投影到前视图中的一个像素点上,选取这些点中深度、高度、反射强度最大值作为三通道的数值;
步骤二(3)将点云转到柱坐标系,再将柱面剪开摊平为矩形,生成前视图,利用前视图投影公式对3D点云进行投影得到分辨率为C×R的2D三通道前视图,C和R分别表示图像的长度和宽度,投影公式c=arctan(y/x)/Δθ、其中,(x,y,z)表示3D点云的坐标,Δθ、Δμ分别表示水平分辨角与垂直分辨角,在2D前视图的每个像素中,三通道利用3D点云中的信息中的高度Fg(Sj)=max(PΩi→j·[0,0,1]T)、反射强度Fb(Sj)=max(I(PΩi→j))以及计算得到的前视图深度Fr(Sj)=max(D(PΩi→j))进行编码,其中表示点(x,y,z)处的深度。
3.根据权利要求1所述的一种基于D-S证据理论多视图融合的3D点云目标检测方法,其特征在于步骤三采用的双边滤波具有良好的边缘保持能力,主要可以对2D投影视图的值域和空域进行平滑去噪,有效去除图像中的高斯噪声,双边滤波公式为:
其中,I(·)表示像素值,表示更新后输出的像素值,Wp表示归一化权重因子,分别是表示图像的空间域核和像素域核的二维高斯公式,q表示输入像素,p表示中心点像素。
4.根据权利要求1所述的一种基于D-S证据理论多视图融合的3D点云目标检测方法,其特征在于:所述步骤五中包括以下步骤:
步骤五(1)构建辨识框架:在D-S证据理论中,辨识框架Θ定义为非空集合Θ={θ12,…,θi,…,θN},i=1,2,…,N,θi表示辨识框架中的元素,是N个两两互斥且相互独立的元素,本方法将前视图和俯视图为证据源,幂集2Θ定义为辨识框架中包含的所有子集的集合,表示为将步骤四中检测到的行人、车辆、骑车的人三种类别作为辨识框架中的元素θ1、θ2、θ3,则如果函数m:2Θ→[0,1]满足:
则m称为基本概论分配函数(Basic Probability Assignment,BPA)或mass函数,m(A)是命题A基本概率分配,当m(A)>0时,称A为2Θ的一个焦元,将步骤四中得到的置信度作为BPA函数。
步骤五(2)引入证据权:本方法有前视图和俯视图这2个证据源,系统对其中信任程度最高的证据称为首要证据源,另一个称为次要证据源。首要证据源的证据权为β1=1,次要证据源相对于首要证据源的信任度为β2,则β2为次要证据源相对于首要证据源的证据权,0<βi≤1(i=1,2)。在本方法中,证据权来自前视图和俯视图在目标检测网络中各自检测结果的全类平均精度(mean Average Precision,mAP)P1、P2,若P1>P2,以俯视图为首要证据源,前视图证据源相对于首要证据源的证据权为β2=P2/P1,m1、m2分别是在目标检测辨识框架Θ中的前视图和俯视图的BPA,则俯视图中各类别加权后的BPA不变即m1'=m1,加入证据权之后前视图中各类别的BPA为m1'、m2':
U表示不确定情况。
步骤五(3)D-S组合规则:将m1'和m2'融合后的新BPA表示为则融合规则为:
其中Ai,Bj∈2Θ,θo∈Θ(o=1,2,3),为冲突系数,表示两个不同视图证据源的冲突或不一致性程度。它是一个介于0到1之间的值,其中0表示无冲突,1表示最大的冲突。
5.根据权利要求1所述的一种基于D-S证据理论多视图融合的3D点云目标检测方法,其特征在于步骤六中本方法主要是行人、车辆、骑车的人三种类别的单类别检测,θo∈Θ(o=1,2,3)则是这三种类别,且利用步骤五(3)得到的三种类别最终BPA为m'(θo1)>m'(θo2)>m'(θo3)>0,通过基于BPA的决策方法决策出最终类别判决,如果满足:
ε2和ε1是提前设置好的阈值,则类别判决为θo1,若不满足该条件,则判决为无目标。
CN202410081806.1A 2024-01-19 2024-01-19 一种基于多视图融合的三维点云目标检测方法 Pending CN118038017A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410081806.1A CN118038017A (zh) 2024-01-19 2024-01-19 一种基于多视图融合的三维点云目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410081806.1A CN118038017A (zh) 2024-01-19 2024-01-19 一种基于多视图融合的三维点云目标检测方法

Publications (1)

Publication Number Publication Date
CN118038017A true CN118038017A (zh) 2024-05-14

Family

ID=90986985

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410081806.1A Pending CN118038017A (zh) 2024-01-19 2024-01-19 一种基于多视图融合的三维点云目标检测方法

Country Status (1)

Country Link
CN (1) CN118038017A (zh)

Similar Documents

Publication Publication Date Title
CN111553859B (zh) 一种激光雷达点云反射强度补全方法及系统
CN112396650B (zh) 一种基于图像和激光雷达融合的目标测距系统及方法
CN111209825B (zh) 一种用于动态目标3d检测的方法和装置
EP2637126B1 (en) Method and apparatus for detecting vehicle
CN112613378B (zh) 3d目标检测方法、系统、介质及终端
KR20160123668A (ko) 무인자동주차 기능 지원을 위한 장애물 및 주차구획 인식 장치 및 그 방법
JP7091686B2 (ja) 立体物認識装置、撮像装置および車両
CN114359181B (zh) 一种基于图像和点云的智慧交通目标融合检测方法及系统
CN114972968A (zh) 基于多重神经网络的托盘识别和位姿估计方法
CN113267761B (zh) 激光雷达目标检测识别方法、系统及计算机可读存储介质
CN117274749B (zh) 一种基于4d毫米波雷达和图像的融合3d目标检测方法
CN116486368A (zh) 基于自动驾驶场景下的多模态融合三维目标鲁棒检测方法
CN115035296A (zh) 一种基于鸟瞰投影的飞行汽车3d语义分割方法及系统
CN117311372B (zh) 基于双目立体视觉的水下机器人自主避障系统及方法
CN117173399A (zh) 一种跨模态交叉注意力机制的交通目标检测方法及系统
CN114648639B (zh) 一种目标车辆的检测方法、系统及装置
CN118038017A (zh) 一种基于多视图融合的三维点云目标检测方法
CN112364693B (zh) 基于双目视觉的障碍识别方法、装置、设备及存储介质
CN112395956A (zh) 一种面向复杂环境的可通行区域检测方法及系统
CN111699410B (zh) 点云的处理方法、设备和计算机可读存储介质
CN111414848B (zh) 一种全类别3d障碍物检测方法、系统和介质
CN114972758B (zh) 一种基于点云弱监督的实例分割方法
WO2020237516A1 (zh) 点云的处理方法、设备和计算机可读存储介质
Drulea et al. An omnidirectional stereo system for logistic plants. Part 2: stereo reconstruction and obstacle detection using digital elevation maps
CN118072285A (zh) 基于单目视觉的适应雨雾天气的单目3d目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination