CN115965959B - 单阶段单目3d目标检测网络 - Google Patents

单阶段单目3d目标检测网络 Download PDF

Info

Publication number
CN115965959B
CN115965959B CN202310035219.4A CN202310035219A CN115965959B CN 115965959 B CN115965959 B CN 115965959B CN 202310035219 A CN202310035219 A CN 202310035219A CN 115965959 B CN115965959 B CN 115965959B
Authority
CN
China
Prior art keywords
network
depth
module
loss
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310035219.4A
Other languages
English (en)
Other versions
CN115965959A (zh
Inventor
张峻宁
唐波
史英春
黄中瑞
秦立龙
张硕
樊甫华
王贵生
张坤峰
王军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National University of Defense Technology
Original Assignee
National University of Defense Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National University of Defense Technology filed Critical National University of Defense Technology
Priority to CN202310035219.4A priority Critical patent/CN115965959B/zh
Publication of CN115965959A publication Critical patent/CN115965959A/zh
Application granted granted Critical
Publication of CN115965959B publication Critical patent/CN115965959B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种单阶段单目3D目标检测网络,包括:深度估计网络模块、语义分割网络模块以及三维物体检测模块,所述深度估计网络模块用于对输入的特征图进行深度估计处理,输出深度特征信息;所述语义分割网络模块用于对输入的特征图进行语义分割处理,输出分割特征信息;所述三维物体检测模块用于对输入的特征图进行三维物体检测,输出关键点特征信息;深度特征信息、分割特征信息以及关键点特征信息通过融合模块进行融合处理后分别输出给关键点网络模块以及回归网络模块进行处理,关键点网络模块以及回归网络模块处理后进行3D目标的检测。所述网络结构能够减少源和目标之间的性能差距,并有效地将多个功能与UDA学习相结合。

Description

单阶段单目3D目标检测网络
技术领域
本发明涉及自动驾驶方法技术领域,尤其涉及一种域自适应的深度语义感知单阶段单目3D目标检测网络。
背景技术
基于视觉的目标检测是自动驾驶系统的重要支柱,其主要任务是对目标类别进行检测和分类,并估计其位置和方向,以感知出行环境。目前,三维物体检测的发展在检测精度方面取得了很好的成绩,但大多数方法在检测网络训练中严重依赖昂贵的3D标签数据集来提供准确的目标信息,而手工制作3D标签数据集缺乏高精度传感器,且成本高、标签精度差。
但是单目相机提供了相对划算和容易安装的解决方案。大多数单眼3D目标检测算法都是根据学习到的大量2D建议,附加一个额外的网络分支来学习3D信息。虽然在过去的5年中,这个想法已经取得了很好的实证成功。一方面在3D探测器的训练过程中,由于需要在2D建议书中列举所有可能的物体位置和大小,这就带来了持续的噪声和额外的计算成本。另一方面,CenterNet先驱者直接从图像平面学习3D目标对象信息,避免了使用局部2D建议的方法不可避免的不必要的计算成本。然而,这些方法的训练成本仍然很高,需要人工标记目标3D包围框的单眼图像。
UDA(无监督域适应)技术旨在从源监督的目标样本上训练一个性能良好的模型(成本低)。其中源样本和目标样本分别为计算机合成的虚拟数据集和真实场景数据集。最近,Wang等人提出了一种弱监督对抗域自适应算法,以提高从合成数据到真实场景的分割性能。然后,应用域因子和偏置权学习域移位,最大限度地减少了域分类损失,以较低的成本学习了真实单眼图像的高成本空间和位置信息。因此,在单目UDA框架上进行三维检测是可取的,即使这是一个具有挑战性的任务。
然而,据作者所知,很少有研究人员将UDA框架用于单目3D目标检测。这是因为之前最先进的算法是从局部的2D建议中学习3D信息,而UDA的优势在于从整个图像平面中获得训练良好的模型。而由此产生的多阶段三维目标检测在二维检测中引入了持续的噪声,这大大增加了网络感知周围环境结构的难度。
发明内容
本发明所要解决的技术问题是如何提供一种能够减少源和目标之间的性能差距,并有效地将多个功能与UDA学习相结合的单阶段单目3D目标检测网络。
为解决上述技术问题,本发明所采取的技术方案是:一种单阶段单目3D目标检测网络,其特征在于包括:深度估计网络模块、语义分割网络模块以及三维物体检测模块,所述深度估计网络模块用于对输入的特征图进行深度估计处理,输出深度特征信息;所述语义分割网络模块用于对输入的特征图进行语义分割处理,输出分割特征信息;所述三维物体检测模块用于对输入的特征图进行三维物体检测,输出关键点特征信息;深度特征信息、分割特征信息以及关键点特征信息通过融合模块进行融合处理后分别输出给关键点网络模块以及回归网络模块进行处理,关键点网络模块以及回归网络模块处理后进行3D目标的检测。
进一步的技术方案在于:所述检测网络还包括对抗学习框架,所述对抗学习框架包括基于融合特征的鉴别器训练模块以及基于CMK的DDM对抗学习模块,所述鉴别器训练模块用于使用输入特征向量来弥合共享低层CNN表示的域差距;所述DDM对抗学习模块用于使用CMK来标记被疏离的具有较大域差异的像素区域,忽略对这些像素区域的训练损失。
进一步的技术方案在于:在源图像上训练语义分割的方法包括如下步骤:
语义分割方法采用基于交叉熵的最大软损失算法进行训练。
进一步的技术方案在于:在源图像上进行深度估计的方法包括如下步骤:
对于深度估计,使用反向深度表示,深度估计的基础是不同深度残差回归的berHu损失;
给定一个源图像,加上像素级分割/>和深度标注/>,,监督源分割和深度损失可以表示为:
(1)
(2)
其中表示语义分割和预测深度,在语义分割的损耗计算中,激活通道K中的函数,K为类的数量,Dmin为经验设置的深度剩余阈值。
进一步的技术方案在于:所述通过融合模块进行融合处理的方法包括如下步骤:
使用关键点网络作为特征融合网络,首先,在返回主分支的残差路径上,对来自特征提取模块的编码特征进行解码,输入到关键点网络;
其次,采用Feat的元素智能产品,融合和执行融合的基础上的壮举;
第三,将融合后的特征前馈到剩余的回归模块,生成目标检测框;
最后设为(i, j)位置的关键点网络的输出,/>为经过高斯核函数预处理的对应点的地面真值;/> 和/>的定义为:
(3)
定义可调超参数,N是每幅图像的关键点数量;一个车辆分类损失的例子可以表示为:
(4)
进一步的技术方案在于:所述通过回归网络模块进行处理的方法包括如下步骤:
目标检测网络的第三个模块是回归分支,用于为热图上的每个关键点构造一个三维边界框; t,3D信息被编码为8元组,回归3D框中心[x, y, z]、尺寸(h, w, l)和旋转角度;
定义3D边界框回归损失:
(5)
其中是一个比例因子,用于保持分类和回归之间的平衡。
通过联合最小化能量来训练目标检测网络的参数:
(6)
其中为三维边界框回归损失权值。
进一步的技术方案在于:所述基于融合特征的鉴别器训练模块的实现方法包括如下步骤:
给定一组源图像和目标图像,用关键点特征作为加权特征向量,其中
(7)
定义语义切分网络的语义特征为,深度特征为/>,用/>和/>重构特征向量;和/>、/>的融合,本申请称之为DDM融合;
首先,是和/>的元素级积,其中使用逆深度,然后将其与/>集成,这样的结合有助于集中于场景中特定对象对应的领域;
然后,将融合特征前馈到一个鉴别器中作为输入,该鉴别器通过学习来识别源和目标输出;最后,将binary_crossentropy定义为使融合特征/>,即融合特征之间的距离尽可能小的对抗性损失,可以表示为:
G尽量最小化这个目标而D尽量最大化这个目标;
然后,将分类目标最小化为:
(8)
对目标图像的训练损失可以表示为:
(9)。
进一步的技术方案在于:所述基于CMK的DDM对抗学习模块的处理过程包括:
构建置信掩码,CMK对能够实现领域对齐的像素点进行估计和标记;
损失重新计算,忽略未标记像素点对应的损失,计算CMK损失。
进一步的技术方案在于:根据CMK重新定义鉴别器损耗如下:
(10)
式中为目标图像T的可解释掩码,/>为鉴别器损耗;
考虑到无监督机制的CMK预测会以零值来最小化损失,在掩模损失函数中设置正则化项,通过最小化标记为常数“1”的交叉熵来实现非零预测;为CMK损失,可表示为:
(11)
其中为交叉熵,1为所有像素为1的常数掩码,其大小与和相同;
最后,训练损失函数可以表示为:
(12)
其中和/>分别表示相应的损失权重。
采用上述技术方案所产生的有益效果在于:本申请所述网络构建了两个用于语义分割和深度估计的分支网络,将语义和深度特征(仅作为源模型训练中的先验信息)嵌入到目标检测主干网络中,其中深度和语义分割信息作为特征表达,减少了源和目标之间的性能差距。此外,为了解决有效地将多个功能与UDA学习相结合这个问题,本申请提出了一个对抗训练协议,该协议集成了深度、语义和特定目标信息。
附图说明
下面结合附图和具体实施方式对本发明作进一步详细的说明。
图1是本发明实施例所述检测网络的原理框图;
图2是本发明实施例中CMK的网络结构图;
图3是本发明实施例中可视化检测到的三维目标图;
图4是本发明实施例中KITTI汽车数据集上不同方法的平均定位误差曲线图;
图5是本发明实施例中不同算法的GPU内存访问测试对比图:从上到下:SMOKE vsMCK-NET vs MonoGRNet vs 本申请。
图6是本发明实施例中CMK掩码可视化之间的目标图像和源图像;
图7是从SYNTHIA数据集和KITTI数据集测试了不同的样本语义分割图;
图8是从SYNTHIA数据集和KITTI数据集测试了不同的样本深度图。
具体实施方式
下面结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是本发明还可以采用其他不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本发明内涵的情况下做类似推广,因此本发明不受下面公开的具体实施例的限制。
为了降低三维目标标签集的制作成本,本申请提出了在UDA框架下的单目三维目标检测网络,同时进行深度估计和语义分割,如图1所示。
首先,提出了一个嵌入语义和深度特征的单目三维物体检测网络(DDM-NET),在测试时只输入单目图像。还研究了UDA网络中三维关键点、语义和深度特征的融合和表示,旨在在感知场景结构的前提下实现精确的三维目标检测。将特征融合和表示分为特征网络融合和特征融合输出的对抗性训练。
其次,针对源和目标之间缩小域差距的困难和不合理,创造性地在UDA框架中提出了一种置信掩码(CMK),允许一定程度的松弛来折扣DDM-NET没有考虑的失败语义深度特征关键点,提出的CMK的新颖之处在于忽略了源和目标之间固有的区域差异。
第三,在相同的训练模式下,所得到的网络优于现有的所有最先进的单目三维目标检测网络。此外,本申请比较了本申请的DDM-NET与之前直接在目标数据集上训练的作品的性能。
如图1所示,本发明公开了一种域自适应的深度语义感知单阶段单目3D目标检测网络。该网络基于对源场景的理解执行检测任务。显然,语义分割和场景深度分别是对象分类和场景结构的感知结果。本申请的目标是在UDA框架中引入它们用于特定目标的深度语义感知,以提高目标检测。
DDM-NET网络架构:
1)分割和深度分支
从目标检测网络开始,引入了分割网络和深度网络作为额外的分支,将用于场景理解的特征流反馈给骨干网络(目标检测网络)。
首先在源图像上训练语义分割和深度估计。现有的语义分割方法一般采用基于交叉熵的最大软损失算法进行训练。对于深度估计,使用反向深度表示。深度估计的基础是不同深度残差回归的berHu损失。
给定一个源图像,加上像素级分割/>和深度标注/>,,监督源分割和深度损失可以表示为:
(1)
(2)
其中表示语义分割和预测深度。在语义分割的损耗计算中,激活通道K中的函数,K为类的数量。Dmin为经验设置的深度剩余阈值。
2)基于源感知信息的目标检测分支
与以往使用二维方案估计三维物体姿态的技术相比,本申请通过在被检测物体实例上使用多步纠缠模块生成三维包围盒,从而提高了三维参数的收敛性和检测精度。目标检测分支包括特征提取模块、关键点分支和回归分支。
特征提取模块:在本模块中,着重研究深度、语义和检测分支网络的互补作用,特别是在表示形式和融合结构等方面。由于不同任务特征层上的接受域和分辨率不同,选择包含更高分辨率和更高接收域的早期特征域作为编码器和解码器组成的特征提取模块的输入流,其中编码器类似于一个小型的Vgg-16网络,解码器通过反褶积产生高维数的特征流。然后,根据多个任务之间的相关性和差异性,将组合分解后的特征分解流作为目标检测任务的共享特征。
关键点融合网络:使用关键点网络作为特征融合网络,它定义了物体在图像平面上的投影3D中心,以便与其他传感器的感知信息聚合。该方法在特征提取阶段将目标信息的深度信息从深度分支和语义分割分支中分离出来,极大地帮助了三维投影中心的有效训练。
首先,在返回主分支的残差路径上,对来自特征提取模块的编码特征(在输出深度和语义分割之前)进行解码,输入到关键点网络。
其次,采用了名为Feat的元素智能产品。融合和执行融合的基础上的壮举。融合层。
第三,将融合后的特征前馈到剩余的回归模块,生成目标检测框。
最后设为(i, j)位置的关键点网络的输出,/>为经过高斯核函数预处理的对应点的地面真值。/>和/>的定义为:
(3)
定义可调超参数,N是每幅图像的关键点数量。一个车辆分类损失的例子可以表示为:
(4)
回归分支:目标检测网络的第三个模块是回归分支,它为热图上的每个关键点构造一个三维边界框。t与其他单眼3D检测框架类似,3D信息被编码为8元组,回归3D框中心[x, y, z]、尺寸(h, w, l)和旋转角度。然而,现有网络仅通过输入缺乏空间几何信息的二维图像,难以直观简单地准确学习三维信息。回归分支网络从深度热图上相应的关键点位置输入深度特征。请注意,深度-热图的编码-解码步骤与热图相同。对于三维包围盒,利用关键点提升变换对特征图上的回归参数进行变换和计算。让/>成为预测的变换,也成为最基本的真理。定义3D边界框回归损失:
(5)
其中是一个比例因子,用于保持分类和回归之间的平衡。
因此,本申请通过联合最小化能量来训练目标检测网络的参数:
(6)
其中为三维边界框回归损失权值。
DDM对抗性学习框架:
选择带有leak - relus的4个顺序卷积层作为DDM-NET的鉴别器。给定由计算机自动标记的虚拟数据集S(源)和未标记的真实数据集T(目标),DDM框架将源和目标域对齐,使鉴别器无法区分这两个域,从而实现用源数据集训练的网络可以在真实数据集中进行测试。
基于融合特征的鉴别器训练:
考虑在鉴别器中部署深度和语义特征,其功能是通过使用输入特征向量来弥合共享低层CNN表示的域差距。因此,鉴别器期望得到的特征向量具有丰富且具有代表性的域特征。输入深度和语义特征代表了对环境深度和对象类别的感知,从而增强了网络对周围环境的理解,进一步提高了对目标域的主要任务。
为了实现这样的策略,本申请提出了联合对齐:首先合并多特征(深度-语义-关键点特征)。更准确地说,给定一组源图像和目标图像,本申请用关键点特征作为加权特征向量,其中
(7)
定义语义切分网络的语义特征为,深度特征为/>,用/>和/>重构特征向量。和/>、/>的融合,本申请称之为DDM融合。首先,是/>和/>的元素级积,其中使用逆深度。然后将其与/>集成,这样的结合有助于集中于场景中特定对象对应的领域。
然后,将融合特征前馈到一个鉴别器中作为输入,该鉴别器通过学习来识别源和目标输出(分别标记为“1”和“0”)。最后,将binary_crossentropy定义为使融合特征/>,即融合特征之间的距离尽可能小的对抗性损失。可以表示为:
G尽量最小化这个目标而D尽量最大化这个目标。
然后,将分类目标最小化为:
(8)
对目标图像的训练损失可以表示为:
(9)
该鉴别器利用深度语义感知映射从空间结构和对象类别等多维度保持域的一致性,有利于源和目标域在特定对象上的对齐。
2)基于CMK的DDM对抗学习
为了避免对其他场景像素的干扰,使用CMK (confidence mask)来标记被疏离的具有较大域差异的像素区域,忽略对这些像素区域的训练损失。如图3所示,基于CMK的领域对抗学习方案主要由两个过程组成:i)构建置信掩码,CMK对能够实现领域对齐的像素点进行估计和标记;ii)损失重新计算,忽略未标记像素点对应的损失,计算CMK损失。这两个过程只在训练过程中同时发生。下面将详细描述这些过程。
面罩结构的构建:本申请训练了一个名为CMK的置信度掩模,用于标记源图像中相应像素的置信度。像素的置信度越高,像素域对齐的概率越高。CMK网络结构如图2所示。
由图2可以看出,该网络是一个编码器-解码器架构,编码器由6个卷积层组成,对应于卷积核的参数:
解码器为6个上卷积层:
除预测层为sigmoid函数外,每一层的卷积核均为3,预测层对应的输出层和卷积核的尺寸参数为:
基于CMK的损失函数:根据CMK重新定义鉴别器损耗如下:
(10)
式中为目标图像T的可解释掩码,/>为鉴别器损耗。
考虑到无监督机制的CMK预测会以零值来最小化损失,在掩模损失函数中设置正则化项,通过最小化标记为常数“1”的交叉熵来实现非零预测。为CMK损失,可表示为:
(11)
其中为交叉熵,1为所有像素为1的常数掩码,其大小与和相同。换句话说,本申请鼓励源根据设计的DDM融合特征对目标域进行对齐,但允许对具有较大域间隙的像素区域进行一定程度的松弛。
最后,训练损失函数可以表示为:
(12)
其中和/>分别表示相应的损失权重。本申请算法还首次提出了一个置信度掩码(CMK),用于忽略具有较大目标域差异的疏离像素的对齐。
实验方法:
本申请补充了本工作中使用的合成-2-实基准,并定性和定量地比较了所提模型与其他单目3D目标检测算法的性能。
A. 语义分割
数据集:为了评估本申请的方法,本申请使用了一个具有挑战性的合成2实无监督域自适应设置。在这项试验中,SYNTHIA数据集提供了9400张带有像素级语义标签和深度标签的训练图片,被用作源域。对于目标域,本申请采用城市景观数据集KITTI,该数据集提供7481张图片用于训练,7352张图片用于测试。根据Car、pedestrian和cyclist等对象实例在2D边界框中的遮挡和截断程度,将数据集分为三个层次:(1)Easy、(2)Moderate、(3)Hard。在之前的工作中,领域对齐(SYNTHIA-KITTI)并没有被用于三维物体检测任务中,这是本申请首次将其作为评价标准协议。
指标:采用三维方框重叠测量的平均精度(和/>)作为算法的评价指标,采用三维边界方框重叠指数(IOU)来评价目标三维方框的检测效果。在本申请的评估中,不同类别的借条阈值是固定的:汽车借条=70%,行人借条= 50%,自行车借条= 50%。
训练细节:DDM-NET的培训过程分为两个阶段。在第一阶段,本申请使用包含语义标签和深度注释的SYNTHIA数据集作为多任务网络训练的输入。然后,在DDM对抗性学习框架下,联合训练源数据(SYNTHIA)和目标数据(KITTI),以实现源网络应用于真实数据集。DDM-NET在Pytorch 1.1、CUDA 10.0和CUDNN 7.5上实现。实验中测试的图像是通过单台相机拍摄的。所有实验都将图像大小调整为1280 384,初始学习率和小批量分别设为r=0.0002和b=4。对于式(12),loss weights设为
绩效评估
3D检测性能:首先,本申请使用直接在Kitti数据集中训练的不同单目3D目标检测方法评估所提出的DDM-NET的结果。它们被标记为“*”,以区分本申请在SYNTHIA数据集上训练的方法。定量比较结果见表2。本申请可以观察到,本申请的方法在相同的SYNTHIA数据集上训练的方法中取得了最先进的结果。在中度和硬性类别(+45.9%,+23.9%)的APbv(IoU=0.5, 0.7)指标上观察到重要的收益。然而,本申请的方法不如用KITTI数据集训练的方法[15,16,20]。注意,方法[15,16,20]的训练和测试数据使用KITTI数据集,而本申请的方法仅使用KITTI作为测试集,低成本计算机生成图像(SYN)作为训练集。合成数据集(SYNTHIA)和真实数据集(KITTI)在场景布局上的差异导致姿态估计网络的性能有限,导致本申请的方法与其他方法[15,16,20,23]进行不公平的比较。尽管如此,与使用KITTI数据集训练的方法(Mono3D*)相比,本申请使用合成数据集训练的方法仍然在3D检测的硬水平上取得了具有竞争力的结果。
为了定量评价本申请的DDM-NET与其他算法的能力,本申请使用KITTI数据集作为训练集,但本申请的算法在训练时需要使用相应的深度和语义标签,使用KITTI数据集不能满足这一要求。本申请利用网络生成的语义分割和深度图像作为额外的训练输入。得到的深度估计实验结果如表1所示。事实上,网络产生的训练输入与实际图像之间的差距限制了本申请网络的性能。然而,在相同的训练模式下,本申请的DDM-NET比现有的所有最先进的单眼3D目标检测算法都要好。
因此,本申请推测,提高检测精度得益于场景深度和物体类别信息的引入,扩展了网络上的感知层次和范围;另一方面,从多维角度实现源目标域对齐,提高目标检测精度。
表1-不同算法在鸟瞰图(APbv)和3D方框(AP3D)上的性能比较
其中Mono3D[16] 是指:X. Chen, H. Ma, J. Wan, et al. Monocular 3dobject detection for autonomous driving[C]// Proceedings of the Conference onComputer Vision and Pattern Recognition. IEEE, 2147–2156, 2016.
其中Deep3DBox[23] 是指:A. Mousavian, D. Anguelov, J. Flynn, et al. 3DBounding Box Estimation Using Deep Learning and Geometry[C]// Proceedings ofthe Conference on Computer Vision and Pattern Recognition, arXiv: 1612.00496,2017.
Multi-Fusion[20]是指:B. Xu, Z. Chen. Multi-level fusion based 3dobject detection from monocular images[C]// Proceedings of the Conference onComputer Vision and Pattern Recognition. IEEE, 2345-2353, 2018.
MonoGRNet[15]是指:Z. Qin, J. Wang, Y. Lu. MonoGRNet: A GeometricReasoning Network for Monocular 3D Object Localization[C]// Proceedings ofthe Conference on Computer Vision and Pattern Recognition. IEEE, arXiv:1811.10247, 2019.
在Kitti数据集上的检测结果示例如图3所示。从非遮挡车辆检测中可以看出,本申请的方法检测到的三维包围盒与实际车辆一致,很好地包围了车辆的四个车轮。对于车辆密集区域的车辆中心定位,本申请有了很大的改进。即使图像中车辆的边界被严重截断,本申请的检测结果也能满足自动驾驶场景中车辆突然从侧面出现时避免相互碰撞的要求。通过上述比较,证明了DDM-NET在目标检测性能上的优越性。
3D定位估计。表2所示的三维物体定位结果表明,在相同的训练情况下,DDM-Net在尺寸评价指标(高度、宽度、长度)上优于现有的所有单眼方法。通过对“SMOKE”和“本申请”的对比,可以看出“本申请”对3D盒子角的检测能力更强。因此,语义分支和深度分支的提取对规模估计具有重要意义。此外,本申请的方法从深度和语义分支上分享了必要的三维盒子回归特征,简化了直接从图回归的过程,加快了三维盒子的检测。
表2-三维边界框元素误差比较,以粗体显示最佳结果
图4定量显示了三维位置误差。从许多基于单目图像的检测算法中可以看出,深度估计误差随着目标距离的增大而增大,尤其是对距离较远的小目标的检测。但是,我本申请的模型在对象上有更健壮的性能。当目标距离相机30米及以上时,本申请的方法在定位误差上明显优于MonoGRNet[15]和3DOP[38]。
3DOP[38]是指:X. Chen, K. Kundu, Y. Zhu, et al. 3d object proposalsusing stereo imagery for accurate object class detection[J], IEEETransactions on Pattern Analysis and Machine Intelligence, vol. 40, no. 25,pp. 1259-1272, 2018.
算法效率的比较。表3显示了运行结果的算法运行效率。对于得到的神经网络参数,SMOKE的网络参数为2.4*106,MCK-NET的网络参数为2.7*106,MonoGRNet的网络参数为4.2*106,本申请算法的网络参数为1.9*106。虽然本申请的网络参数接近于SMOKE,但本申请的运行时间至少比SMOKE解决方案快20%。这是因为本申请需要的输入图像分辨率只有640*640,因此不需要花费更多的操作时间来达到新的状态。其次,由于本申请只使用一个阶段来估计回归的3D变量,发现本申请的方法比MCK-NET/ MonoGRNet快60%。然后,单组件任务和本申请的DDM-NET的平均训练时数如表3所示。数值结果表明,由于多任务的联合训练,本文提出的网络结构平均比之前的系统快了近16%。
表3-不同算法运行效率比较。
此外,本申请粗略估计了所提算法在边缘设备(NVIDIA Jetson Xavier NX)上的效率。图5显示了在DDM-Net测试中测量的GPU内存访问情况。由于网络结构的优化,与SMOKE相比,大大减少了内存访问次数。测试时消耗的GPU内存为0.77G。可以观察到,本申请的算法的运行时间将从GTX 2080Ti设备上的0.026s更改为NVIDIA Jetson Xavier NX上的0.102s。该算法的计算性能约为SMOKE算法的1.21倍。请注意,如果使用更高级的自动驾驶处理芯片,而不是像实际的特斯拉芯片那样使用板载芯片,运行时间可能会减少。
消融研究:
在表4中报告了一系列实验,包括7个训练设置,S1到S5: S1是基线模型(BM)(不引入深度和语义分割),S2是改进的SMOKE(使用深度和语义分割特征的关键点融合网络),S5是本申请的DDM-NET。中间设置S3到S4相当于使用或不使用鉴别器训练中的融合特征和DDM对抗学习中的CMK掩码。首先,本申请注意到共享深度和语义信息确实有助于提高主要任务(3D对象检测)的性能。与S4相比,S5的改进体现了关键点网络在特征层面表达和整合深度特征和语义特征的有效性。事实上,S5将融合特征输入到DDM对抗性学习中,比S4性能更好(例如方位0.216 vs. 0.169,尺寸0.70 vs. 0.064)。不过,在S3中,源和目标之间的对齐像素会由于较大的域间隙而导致精度降低。本申请的深度语义感知框架S5采用特征融合和CMK掩模,性能最好:允许对具有较大间隙的像素区域进行一定程度的松弛。S3到S5的改进体现了CMK掩模的优势。
表4-使用和不使用建议组件训练的模型的性能比较
那么,本申请的DDM-NET各个模块的平均运行时间和整体运行时间如表5所示。S1-S5的运行时间分别为0.032、0.457、0.463、0.514和0.521,由此可以推断出各个模块的运行时间:语义深度分支网络为0.457,约占DDM-NET总运行时间的81.5%,判别器训练模块为0.057s,约为DDM-NET运行时间的1.2%,CMK掩码模块为0.057s,回归模块推理剩余时间为0.032s。总的来说,这种时间成本在离线应用中至少是可以接受和满意的,因为本申请提出的网络结构比之前的系统平均快14%,具体对比见表5。
表5-使用和不使用建议组件训练的模型的性能比较。
考虑到深度-语义对齐中布局极不一致的区域对其他像素区域的影响,本申请采用基于优化后的三维中心投影和对应深度的置信度掩码(CMK)对区域差异较大的疏离像素区域进行标记。图6显示了网络预测的可解释掩码。分析结果表明,可解释掩码上大部分白色像素(置信度高),表明所提出的网络对目标进行了深度到语义的关系处理,实验结果表明,对这些目标的检测精度确实有很大的提高。相反,掩蔽后的MaskNet对于远处(图中为灰色)清晰度较低或遮挡较低的物体可信度较低,说明模型网络无法明确物体上的深度-语义对应关系。实验中对这些物体的检测精度进一步说明了这一问题。
本申请训练和比较了一组模型,以证明CMK处理偏差的有效性,并在表VII中评估检测和定位性能,其中“BM”代表基线模型(不引入CMK和CMK损失,(2)“SFM-BM”表示使用SFMLearner[36]将掩码输入到DDM对抗性学习框架,(3)“Mask - bm”表示Mask[32]对DDM对抗性学习框架的输入,DDM- cmk是本申请的框架。
SFMLearner[36]是指:C. Godard, O. M. Aodha, G. J. Brostow.Unsupervised monocular depth estimation with left-right consistency[C]//Proceedings of the Conference on Computer Vision and Pattern Recognition,6602–6611.
Mask[32]是指:F. S. Saleh, M. S. Aliakbarian, M. Salzmann, et al.Effective use of synthetic data for urban scene semantic segmentation [C] //Proceedings of European Conference on Computer Vision, pages 86–103.Springer, Cham, 2018.
通过对“BM”和“SFM-BM”的对比,如表6所示,可以验证掩码网络应用的输入在深度估计和目标检测精度上都有提高。与MASK-BM和SFM-BM相比,DDM-CMK表明本申请的网络结构在实现深度语义对应方面是最好的,并进一步补偿了检测精度。
表 6 有CMK掩码和无CMK损耗的目标检测网络性能对比
深度语义感知对抗性适应对深度估计和语义分割的影响
为了分析深度语义感知对抗性适应对深度估计和语义分割的影响,本申请随后探讨了深度语义感知对抗性适应对其他分支任务的贡献。
对深度估计的影响:这个实验证明了深度语义感知对抗适应带来的卓越性能。由于DDM对抗性学习作用于其他子任务(深度分割和语义分割)。本申请采用不同的组合进行实验,并在表7中评价检测定位性能。本文对子任务性能的两个版本进行了如下分析:(a)D是一个深度估计模型[35],不使用所提出的DDM对抗学习。(b)“DDM-D”是指将DDM对抗性学习引入深度网络(D);(c)“S”是一个不使用DDM对抗学习的语义分割模型[35]。(d)“DDM-S”相当于改进的S (Semantic segmentation with DDM对抗性学习),DDM- net是本申请的框架,它引入了分割和深度网络作为附加分支。
[35]是指:T. H. Vu, H. Jain, M. Bucher, et al. DADA: Depth-AwareDomain Adaptation in Semantic Segmentation[C]// Proceedings of the Conferenceon Computer Vision and Pattern Recognition, arXiv: 1904.01886, 2019.
表7-不同算法的深度和语义分割评
本申请可以发现,“D”和DDM-D的比较已经证明了通过DDM对抗学习进行深度估计的优势。此外,本申请提出的网络优于其他模型,给出了最先进的结果在语义分割评估。语义分割样本如图7所示。本申请可以观察到所提出的模型如何逐步提供更好的语义分割。这一事实在步骤中更加明显:基于深度特征的对抗性学习逐渐明显,如最后一列中的示例所示。图8为SYNTHIA数据集和KITTI数据集深度测试的可视化结果。可以看到,本申请的方法可以产生清晰、尖锐的深度输出,并能很好地保存物体边界和细长的结构(树木、电线杆等)。因此,本申请的DDM-Net对这些区域提供了合理的预测-有时甚至接近真实的深度。
综上,本申请提出了一种新的单级单目三维目标检测网络,该网络引入了额外的深度和语义分割信息。为了有效地结合UDA学习的多种特征,本申请提出了一种集成深度、语义和特定目标信息的对手训练协议。针对对手训练协议中对象域差距的严重和不合理,本申请创造性地在UDA框架中提出了一种信心掩码(CMK),允许一定程度的放松,以对DDM-NET未考虑的关键点的语义深度域对齐失败进行折扣。在相关数据集上,本申请的模型优于所有现有的最先进的单眼3D目标检测算法。

Claims (8)

1.一种单阶段单目3D目标检测网络,其特征在于包括:深度估计网络模块、语义分割网络模块以及三维物体检测模块,所述深度估计网络模块用于对输入的特征图进行深度估计处理,输出深度特征信息;所述语义分割网络模块用于对输入的特征图进行语义分割处理,输出分割特征信息;所述三维物体检测模块用于对输入的特征图进行三维物体检测,输出关键点特征信息;深度特征信息、分割特征信息以及关键点特征信息通过融合模块进行融合处理后分别输出给关键点网络模块以及回归网络模块进行处理,关键点网络模块以及回归网络模块处理后进行3D目标的检测;
所述检测网络还包括对抗学习框架,所述对抗学习框架包括基于融合特征的鉴别器训练模块以及基于CMK的DDM对抗学习模块,所述鉴别器训练模块用于使用输入特征向量来弥补共享低层CNN表示的域差距;所述DDM对抗学习模块用于使用CMK来标记被疏离的具有较大域差异的像素区域,忽略对这些像素区域的训练损失。
2.如权利要求1所述的单阶段单目3D目标检测网络,其特征在于:在源图像上训练语义分割的方法包括如下步骤:
语义分割方法采用基于交叉熵的最大软损失算法进行训练。
3.如权利要求2所述的单阶段单目3D目标检测网络,其特征在于:在源图像上进行深度估计的方法包括如下步骤:
对于深度估计,使用反向深度表示,深度估计的基础是不同深度残差回归的berHu损失;
给定一个源图像加上像素级分割Ys和深度标注Zs,监督源分割和深度损失可以表示为:
Lseg=H(ys,Ys)
其中ys,zs表示语义分割和预测深度,在语义分割的损耗计算中,激活通道K中的函数,K为类的数量,Dmin为经验设置的深度剩余阈值。
4.如权利要求1所述的单阶段单目3D目标检测网络,其特征在于:所述通过融合模块进行融合处理的方法包括如下步骤:
使用关键点网络作为特征融合网络,首先,在返回主分支的残差路径上,对来自特征提取模块的编码特征进行解码,输入到关键点网络;
其次,采用Feat的元素智能产品,该产品被执行到融合层基础上;
第三,将融合后的特征前馈到剩余的回归模块,生成目标检测框;
最后设ki,j为(i,j)位置的关键点网络的输出,yi,j为经过高斯核函数预处理的对应点的地面真值;和/>的定义为:
定义可调超参数(α,β),N是每幅图像的关键点数量;一个车辆分类损失的例子可以表示为:
5.如权利要求1所述的单阶段单目3D目标检测网络,其特征在于:通过所述回归网络模块进行处理的方法包括如下步骤:
目标检测网络的第三个模块是回归分支,用于为热图上的每个关键点构造一个三维边界框;3D信息被编码为8元组,回归3D框中心[x,y,z]、尺寸(h,w,l)和旋转角度;
定义3D边界框回归损失:
其中λ是一个比例因子,用于保持分类和回归之间的平衡;
通过联合最小化能量来训练目标检测网络的参数:
L3d=Lkfl+μLrb (6)
其中μ为三维边界框回归损失权值。
6.如权利要求1所述的单阶段单目3D目标检测网络,其特征在于:所述基于融合特征的鉴别器训练模块的实现方法包括如下步骤:
给定一组源图像和目标图像,用关键点特征作为加权特征向量,其中It∈[0,1]H×W×C
定义语义切分网络的语义特征为St,深度特征为Dt,用St和Dt重构特征向量;It和Dt、St的融合,本申请称之为DDM融合;
首先,是It和Dt的元素级积,其中使用逆深度,然后将其与logSt集成,这样的结合有助于集中于场景中特定对象对应的领域;
然后,将融合特征It'前馈到一个鉴别器中作为输入,该鉴别器通过学习来识别源和目标输出;最后,将binary_crossentropy定义为使融合特征Ladv,即融合特征之间的距离尽可能小的对抗性损失,可以表示为:
Ladv=E[logD(I,D,S)]+E[log(1-D(I',G(I,D,S)))]
G尽量最小化这个目标而D尽量最大化这个目标;
然后,将分类目标最小化为:
对目标图像的训练损失可以表示为:
7.如权利要求1所述的单阶段单目3D目标检测网络,其特征在于:所述基于CMK的DDM对抗学习模块的处理过程包括:
构建置信掩码,CMK对能够实现领域对齐的像素点进行估计和标记;
损失重新计算,忽略未标记像素点对应的损失,计算CMK损失。
8.如权利要求7所述的单阶段单目3D目标检测网络,其特征在于:
根据CMK重新定义鉴别器损耗如下:
式中Mt为目标图像T的可解释掩码,Ladv为鉴别器损耗;
考虑到无监督机制的CMK预测会以零值来最小化损失,在掩模损失函数中设置正则化项,通过最小化标记为常数“1”的交叉熵来实现非零预测;为CMK损失,可表示为:
Lmask(t)=γ[Mt,1] (11)
其中γ(·)为交叉熵,1为所有像素为1的常数掩码,其大小与和相同;
最后,训练损失函数可以表示为:
其中δ和υ分别表示相应的损失权重。
CN202310035219.4A 2023-01-10 2023-01-10 单阶段单目3d目标检测网络 Active CN115965959B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310035219.4A CN115965959B (zh) 2023-01-10 2023-01-10 单阶段单目3d目标检测网络

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310035219.4A CN115965959B (zh) 2023-01-10 2023-01-10 单阶段单目3d目标检测网络

Publications (2)

Publication Number Publication Date
CN115965959A CN115965959A (zh) 2023-04-14
CN115965959B true CN115965959B (zh) 2023-10-03

Family

ID=87354846

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310035219.4A Active CN115965959B (zh) 2023-01-10 2023-01-10 单阶段单目3d目标检测网络

Country Status (1)

Country Link
CN (1) CN115965959B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110298873A (zh) * 2019-07-05 2019-10-01 青岛中科智保科技有限公司 三维地图的构建方法、构建装置、机器人及可读存储介质
CN111539412A (zh) * 2020-04-21 2020-08-14 上海云从企业发展有限公司 一种基于ocr的图像分析方法、系统、设备及介质
DE102019127282A1 (de) * 2019-10-10 2021-04-15 Valeo Schalter Und Sensoren Gmbh System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen
CN113642531A (zh) * 2021-10-12 2021-11-12 阿里巴巴达摩院(杭州)科技有限公司 视频图像的识别方法、系统以及计算机可读存储介质
CN114495089A (zh) * 2021-12-21 2022-05-13 西安电子科技大学 基于多尺度异源特征自适应融合的三维目标检测方法
CN115294433A (zh) * 2022-08-11 2022-11-04 山西大学 一种适用于恶劣环境的物体六维位姿估计方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110298873A (zh) * 2019-07-05 2019-10-01 青岛中科智保科技有限公司 三维地图的构建方法、构建装置、机器人及可读存储介质
DE102019127282A1 (de) * 2019-10-10 2021-04-15 Valeo Schalter Und Sensoren Gmbh System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen
CN111539412A (zh) * 2020-04-21 2020-08-14 上海云从企业发展有限公司 一种基于ocr的图像分析方法、系统、设备及介质
CN113642531A (zh) * 2021-10-12 2021-11-12 阿里巴巴达摩院(杭州)科技有限公司 视频图像的识别方法、系统以及计算机可读存储介质
CN114495089A (zh) * 2021-12-21 2022-05-13 西安电子科技大学 基于多尺度异源特征自适应融合的三维目标检测方法
CN115294433A (zh) * 2022-08-11 2022-11-04 山西大学 一种适用于恶劣环境的物体六维位姿估计方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
performance and challenges of 3D object detection methods in complex scenes for autonomous driving;Ke Wang 等;《IEEE》;第1699-1716页 *

Also Published As

Publication number Publication date
CN115965959A (zh) 2023-04-14

Similar Documents

Publication Publication Date Title
Caltagirone et al. LIDAR–camera fusion for road detection using fully convolutional neural networks
Yin et al. Scale recovery for monocular visual odometry using depth estimated with deep convolutional neural fields
CN113408492B (zh) 一种基于全局-局部特征动态对齐的行人重识别方法
Leng et al. Robust obstacle detection and recognition for driver assistance systems
Xia et al. Scpnet: Semantic scene completion on point cloud
Choi et al. Safenet: Self-supervised monocular depth estimation with semantic-aware feature extraction
Ambrus et al. Two stream networks for self-supervised ego-motion estimation
Browning et al. Cortical dynamics of navigation and steering in natural scenes: Motion-based object segmentation, heading, and obstacle avoidance
Chen et al. Pgnet: Panoptic parsing guided deep stereo matching
Yang et al. SAM-Net: Semantic probabilistic and attention mechanisms of dynamic objects for self-supervised depth and camera pose estimation in visual odometry applications
Kang et al. Real-time eye tracking for bare and sunglasses-wearing faces for augmented reality 3D head-up displays
Erbs et al. From stixels to objects—A conditional random field based approach
Shen et al. MCCG: A ConvNeXt-based multiple-classifier method for cross-view geo-localization
Ji et al. Stereo 3D object detection via instance depth prior guidance and adaptive spatial feature aggregation
Wang et al. PVF-DectNet: Multi-modal 3D detection network based on Perspective-Voxel fusion
Wang et al. EMAT: Efficient feature fusion network for visual tracking via optimized multi-head attention
CN116758117B (zh) 可见光与红外图像下的目标跟踪方法及系统
Wang et al. Cbwloss: constrained bidirectional weighted loss for self-supervised learning of depth and pose
Tian et al. Domain adaptive object detection with model-agnostic knowledge transferring
CN115965959B (zh) 单阶段单目3d目标检测网络
Zhang et al. CCVO: Cascaded CNNs for fast monocular visual odometry towards the dynamic environment
Zhai et al. Geometry understanding from autonomous driving scenarios based on feature refinement
Karaoglu et al. Dynamon: Motion-aware fast and robust camera localization for dynamic nerf
Cui et al. PVF-NET: Point & voxel fusion 3D object detection framework for point cloud
Hou et al. Vehicle behavior recognition using multi-stream 3D convolutional neural network

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant