CN113221659B - 一种基于不确定感知网络的双光车辆检测方法及装置 - Google Patents

一种基于不确定感知网络的双光车辆检测方法及装置 Download PDF

Info

Publication number
CN113221659B
CN113221659B CN202110394835.XA CN202110394835A CN113221659B CN 113221659 B CN113221659 B CN 113221659B CN 202110394835 A CN202110394835 A CN 202110394835A CN 113221659 B CN113221659 B CN 113221659B
Authority
CN
China
Prior art keywords
uncertain
rgb
infrared
network
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110394835.XA
Other languages
English (en)
Other versions
CN113221659A (zh
Inventor
朱鹏飞
孙一铭
黄进晟
王汉石
赵帅
胡清华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Automotive Data of China Tianjin Co Ltd
Original Assignee
Tianjin University
Automotive Data of China Tianjin Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University, Automotive Data of China Tianjin Co Ltd filed Critical Tianjin University
Priority to CN202110394835.XA priority Critical patent/CN113221659B/zh
Publication of CN113221659A publication Critical patent/CN113221659A/zh
Application granted granted Critical
Publication of CN113221659B publication Critical patent/CN113221659B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour

Abstract

本发明公开了一种基于不确定感知网络的双光车辆检测方法及装置,方法包括:收集并构建一基于无人机的RGB‑红外线的车辆检测数据集;构建一不确定感知网络,所述不确定感知网络包括:不确定感知模块和特征融合框架;通过所构造的车辆检测数据集来训练所提出的不确定感知网络,得到分类与回归的预测结果然后计算损失以此更新网络中的参数;通过训练后的模型对双光车辆进行检测。装置包括:数据集模块、不确定感知网络模块、训练模块及检测模块。本发明有效地衡量双模态之间的不确定度,可以灵活地应用于各类多模态目标检测算法中;没有增加任何计算消耗,满足了实际应用中的多种需要。

Description

一种基于不确定感知网络的双光车辆检测方法及装置
技术领域
本发明涉及多模态目标检测领域,尤其涉及包括基于无人机的双光车辆检测数据集 (DroneVehicle)的构造以及通过不确定感知网络来改善多模态目标检测任务的方法及装置。
背景技术
近年来,基于无人机的计算机视觉技术在智慧城市建设与救灾中发挥着极其重要的作用。配备有摄像头的无人机能够以一种更加宽阔的视野来收集图像,通过这种方式更有利于捕捉地面上的物体。然而,上述收集得到的图像都是鸟瞰图,具有高度复杂的背景和变化程度极大的照明。因此,基于无人机图像的对象检测在计算机视觉领域是一种重要但具有挑战性的任务。
目前已经有一些具有影响力的工作来研究基于无人机图像的对象检测任务。但是,这些研究都只在单一的RGB模式下进行。通常,在弱光条件下(如夜晚),物体在RGB图像中很难被识别,但是由红外感知得到的图像能够使物体显示比RGB图像更清晰。因此,如何发挥好RGB模态图像和红外感知模态图像的优势来联合提高目标检测任务的性能受到了社会的广泛关注。
在基于RGB–Infrared(RGB-红外线)双模态图像的目标检测领域,一些研究者已经进行了深入的研究来探究多模态融合的方法。这些研究工作对这一领域的发展有很好的促进作用,但是这些研究工作通常只在城市街道上采集数据集,在航空场景上仍然存在着一些新问题。目前仍然没有大规模的空中场景数据集可以用于多模态目标检测的研究。
发明内容
本发明提供了一种基于不确定感知网络的双光车辆检测方法及装置,本发明构造了一个大规模的基于无人机的RGB-红外双模态的数据集DroneVehicle,提出了不确定感知模块 UAM,并且设计构造了UANet不确定感知网络来解决双光车辆检测问题,详见下文描述:
第一方面,一种基于不确定感知网络的双光车辆检测方法,所述方法包括:
收集并构建一基于无人机的RGB-红外线的车辆检测数据集;
构建一不确定感知网络,所述不确定感知网络包括:不确定感知模块和特征融合框架;
通过所构造的车辆检测数据集来训练所提出的不确定感知网络,得到分类与回归的预测结果然后计算损失以此更新网络中的参数;
通过训练后的模型对双光车辆进行检测。
在一种实施方式中,所述不确定感知模块将RGB红外图像对的标签信息作为先验知识,利用交并比软化对应模态的标签信息,通过软化得到不确定权重;
所述特征融合框架用于学习模态融合特征的表示,同时学习红外与RGB模态各自的特征表示。
在一种实施方式中,所述利用交并比软化对应模态的标签信息具体为:
使用交并比来评估RGB和红外图像中目标标记方块的重叠,并且完成两种模态不确定性的量化。
在一种实施方式中,所述特征融合框架具体为:
输入为一对RGB-Infrared图像对,分别输入到特征提取器中,模型的参数不共享;在框架中,对于混合感知层输出的相应尺度上的红外特征和RGB特征,将二者直接应用到元素自增操作获得融合特征,被送到检测头分支用于训练。
在一种实施方式中,在训练阶段,所述不确定感知模块作用于红外模态的检测头、RGB 模态的检测头以及双模态的检测头;在测试阶段,仅使用融合分支。
第二方面,一种基于不确定感知网络的双光车辆检测装置,所述装置包括:
数据集模块,用于收集并构建一基于无人机的RGB-红外线的车辆检测数据集;
不确定感知网络模块,用于构建一不确定感知网络,所述不确定感知网络包括:不确定感知模块和特征融合框架;
训练模块,用于通过所构造的车辆检测数据集来训练所提出的不确定感知网络,得到分类与回归的预测结果然后计算损失以此更新网络中的参数;
检测模块,用于通过训练后的模型对双光车辆进行检测。
第三方面,一种基于不确定感知网络的双光车辆检测装置,所述装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行第一方面中的所述的方法步骤。
第四方面,一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时使所述处理器执行第一方面中的所述的方法步骤。
本发明提供的技术方案的有益效果是:
1)本发明构造了一个大规模的基于无人机的RGB-Infrared数据集DroneVehicle(包含有来自各类场景的31,064幅图像,含有将近441,642物体实例),与其他基于无人机的数据集相比,本发明的数据集是首次且是最大规模的能够用于RGB-Infrared车辆检测问题研究的数据集;
2)本发明提出了不确定感知模块UAM(一种用于衡量模态不确定度的方法,可以用于多模态目标检测任务),通过先验知识,UAM可以有效地衡量双模态之间的不确定度,而且,UAM可以灵活地应用于各类多模态目标检测算法中;
3)本发明提出了不确定感知网络UANet,首次将图像模态交叉的不确定度信息融入到模型训练中,在所构造的数据集DroneVehicle上,提出的方法的性能优于现有技术中最优的方法,并且本发明没有增加任何计算消耗,满足了实际应用中的多种需要。
附图说明
图1为整体网络的结构示意图;
图2为DroneVehicle数据集中的一些样本图像的示意图;
图3为RGB模态与红外模态的不确定性的示意图;
图4为UAM的示意图;
图5为不确定感知网络架构图;
图6为DroneVehicle数据集上的可视化结果的示意图;
图7为一种基于不确定感知网络的双光车辆检测装置的结构示意图;
图8为不确定感知网络模块的结构示意图;
图9为一种基于不确定感知网络的双光车辆检测装置的另一结构示意图。
具体实施方式
表1为DroneVehicle数据集与现有数据集的比较;
表2为在DroneVehicle数据集上的实验结果;
表3为在DroneVehicle数据集上的消融研究结果;
表4为在DroneVehicle数据集上不同融合机制的实验结果。
为使本发明的目的、技术方案和优点更加清楚,下面对本发明实施方式作进一步地详细描述。
第一方面,本发明实施例提供了一种基于不确定感知网络的双光车辆检测方法,参见图1,其中下文的双光车辆均指代的是图像的两种模态,本方法以RGB模态与红外模态为例进行说明,该方法包括以下部分:
一、构建数据集本发明实施例收集并构建了一个大规模的基于无人机的RGB-Infrared车辆检测数据集 DroneVehicle。收集了四类在无人机应用中经常使用的目标物体(汽车、公共汽车、卡车、货车)并且采用441,642个目标检测方块标记这些类别中的目标物体实例。DroneVehicle 数据集与其他目标检测数据集的对比如表1所示。
表1为DroneVehicle数据集与现有数据集的比较
Figure BDA0003018201540000041
Figure BDA0003018201540000051
(1)数据收集
DroneVehicle数据集包含有31,064张图像,15,532对RGB-Infrared双模态图像对。 DroneVehicle数据集通过各式各样的无人机摄像机采集,覆盖了大范围的场景(不同的城市街道、居民区、停车场、高速公路等),同时有多个目标物体类别(汽车、公交车、卡车、货车等)。DroneVehicle数据集是通过无人机平台在不同的场景、不同的光照条件下收集的。DroneVehicle数据集中一共有441,642个人工标注的边界框。数据集中的一些数据样本如图2所示。
(2)数据标记
数据集中的航拍图像是在不同的方位条件下拍摄的,本发明实施例精准地使用带有方位的边界框标记目标物体。
(3)数据统计
在DroneVehicle数据集中标记了汽车、卡车、公共汽车、以及货车。其中,在RGB 图像中一共有193,183个汽车标记,6,483个卡车标记,5,056个公共汽车标记以及4,649 个货车标记。在红外感知图像中有209,167个汽车标记,7,107个卡车标记,5,431个公共汽车标记以及5,530个货车标记。显然红外感知图像比RGB图像拥有更多的标记。主要的原因在于数据集中许多数据都是在夜晚采集的。数据集中的每幅图像中平均含有14.2辆车辆,其中最多的图像中含有206辆车辆。总的来说,DroneVehicle数据集包含大量的RGB 图像以及与之相对应的红外图像,是一个非常先进的基准数据集。
二、使用所构造的DroneVehicle数据集来训练不确定感知网络模型UANet
正如图3(a)所示,在航拍场景中可能存在RGB图像完全失光的情况。此时,每个物体的确切位置是不确定的,但对应的红外图像可以补充RGB图像中的不确定物体。然而,在一些光照条件比较好的白天时,红外图像缺少如颜色和外观细节等信息。如图3(b)所示,红外图像中有一些物体看起来很像车辆,但并不是车辆。此外,由于红外成像期间的热交叉现象,在红外图像中没有车辆的位置有可能会出现“鬼影”。在使用红外图像进行目标检测时,这些问题都会造成较强的不确定性,最终会影响目标监测模型的精度。另外,由于两台相机在图像采集过程中存在方位上的细微差异,红外图像和RGB图像之间可能存在一定的像素错位,这也带来了多模态的不确定性。
考虑到多模态的不确定性,本发明实施例想探究是否可以通过数据样本的先验信息来量化两个模态的不确定性,使模型从不确定性中获得性能改进。
本发明实施例提出了一种基于目前流行的目标检测方法的不确定感知网络(UANet)。该不确定感知网络UANet包括:一个不确定感知模块(UAM)和一个特征融合框架。UAM 将RGB红外图像对的标签信息作为先验知识,利用IoU(交并比)方法来软化对应模态的标签信息。通过软化得到的不确定权重将会在模型的训练阶段发挥重要作用。
特征融合框架使UANet不仅能够学习模态融合特征的表示,同时还能学习红外与RGB 模态各自的特征表示。
不确定感知网络(UANet)的模型架构:
正如上文所提到的,单一的模态总会存在不确定性,所以希望利用这种不确定性来提升多模态模型的性能。模型的总体架构如图1所示。不确定感知网络(UANet)由两部分构成:不确定感知模块与特征融合架构。
(1)不确定感知模块(UAM)
不确定性可以用来评价不同模态之间的可信度。而对于不确定性的量化,前人的一些工作更注重于构建一个数学分布,将不确定性量化以数学的方式进行评价,例如:使用方差、标准差等指标。但在多模态的目标检测任务中,本发明实施例希望以任务驱动的方式量化不确定性。所提出的不确定感知模块如图4所示。
IoU是一种非常流行的评估目标定位质量的方法。在不确定性感知模块中,使用IoU (Intersection over Union)来评估RGB和红外图像中目标标记方块的重叠并且完成两种模态不确定性的量化。Brgb表示RGB图像中的标记方块,Binfrared表示红外图像中的标记方块。 area是计算多边形面积的函数。计算公式如下:
Figure BDA0003018201540000071
在UAM中,首先计算RGB图像和红外图像的标记方块之间的IoU。理想情况下,两者之间的IoU计算结果应该接近1。但是,RGB图像中能见度较低的对象缺少标注。因此,红外模态下的一些标记方块在RGB模态下很难找到相应的位置。但是在RGB图像中这些缺失的物体是真实存在的,所以需要补充。正如前面所提到的,这些丢失的目标物体是不确定的,所以设置一个不确定权重wrgb,wrgb被分配给这些丢失的目标对象以及丢失的标记边界框。红外图像中的物体往往具有混淆的外观,人工标注时很容易错过标注。在这种情况下,还需要利用RGB图像中相应物体的标记方块来补充红外图像中缺失的物体。当 RGB图像中标注的目标数量多于红外图像中标注的目标数量时,将RGB模态下的标记方块和红外模态下的不确定性权重分配给红外模态下缺失的目标物体。在本文中,设置 winfrared为1。
由于在图像采集过程中很难保证两种模态的图像在对应的像素位置上完全对齐,因此 IoU计算结果可能不等于1。将对齐阈值设置为q。当IoU的计算结果小于q或者不等于0,将红外模态图像中的目标位置作为真实值,将IoU计算结果作为不确定权重同时将权重赋予RGB模态中目标物体的标记方块。
在训练过程中,不确定权重能够实现不确定目标物体的标记方块回归损失函数的软化。这将引导模型更多地关注两种模态中具有歧义性的目标物体,而避免模型过多地关注两种模态中具有不确定性的目标物体。UAM中的不确定权重W计算公式如下:
Figure BDA0003018201540000081
其中,wrgb为RGB模态的不确定权重,rgb为RGB模态,winfrared为红外模态的不确定权重,IoU为IoU测量标准。
(2)特征融合框架
选择RoITransformer(已有模型名称,本领域技术人员所公知,本发明实施例对此不做赘述)作为基础的目标检测模型,将RoITransformer模型改造成双模态模型架构。特征融合框架的输入为一对RGB-Infrared图像对,分别输入到特征提取器中,模型的参数是不共享的。在框架中,对于FPN(混合感知层)层输出的相应尺度上的红外特征和RGB特征,模型将二者直接应用到元素自增操作(本领域技术人员所公知,本发明实施例对此不做赘述)获得融合特征,然后被送到检测头分支用于训练。同时,考虑到红外模态和RGB 模态各有特点,所以在训练阶段,仍然保留红外模态和RGB模态的独立检测头分支。本发明实施例提出的UAM(不确定感知模块)也作用于这三个检测头分支(即红外模态的检测头、RGB模态的检测头以及双模态的检测头)。如图5所示,在测试阶段,只使用中间的融合分支。
在检测头分支中,UAM分别作用于RPN模块和ROI Transformer模块。RPN模块负责产生horizontal proposals,ROI Transformer模块将horizontal proposals转换为带有方向的边界框,并进行精细的分类和回归。UAM可以重新校准这两个模块中涉及的目标对象边界框回归的权值,软化某些目标对象的回归损失函数。引入UAM后,框架能够更加有引导性地被训练。在UANet中,目标对象的边界框回归的损失函数Lloc计算如下:
Figure BDA0003018201540000082
其中,i∈{x,y,w,h,θ},tu表示预测的结果,u表示真实的类别,v代表真实的标记方块的回归目标值,W表示不确定性权值。(x,y)表示预测结果的中心点,(w,h)表示预测结果的宽和高,smoothL1为软化函数,L1为正则化。
以RGB模态分支为例,使用了多任务损失Lrgb将分类与标记框回归训练合并:
Lrgb(p,u,tu,v,W)=Lcls(p,u)+λ[u≥1]Lloc(tu,v,W) (4)
其中,Lcls使用交叉熵损失函数,p代表每个类别的预测概率大小。当u≥1时,括号指示函数[u≥1]的值为1否则为0。按照惯例,包含所有物体的背景类标记为u=0。超参数λ控制两个任务之间的损失平衡。在所有的实验中λ=1。在UANet中,总的损失函数计算包含三个分支,将这些损失进行加权求和:
L=αLrgb+βLinfrared+γLfusion (5)
其中,α,β,γ是超参数,Linfrared为红外感知模块的损失,Lfusion为混合模态的损失。在所有的实验中这些超参数的值均设置为1。
三、模型训练
按照上述所描述的模型架构,通过所构造的DroneVehicle数据集来训练所提出的不确定感知网络(UANet),由模型得到分类与回归的预测结果然后计算损失以此来更新网络中的参数由此训练网络。
四、模型的使用细节(训练与测试)
提出的UANet模型使用ResNet50-FPN作为骨干网络,该模型已经预先在ImageNet数据集上训练过。数据集中的每幅图像以0.5的概率随机水平翻转以增加数据多样性。整个模型通过SGD优化算法进行学习,学习率设置为0.005,一个batch的大小的4。权重衰减与动量分别设置为0.0001与0.9。在UANet网络中,设置RGB模态的不确定度wrgb为 0.05,设置红外模态的不确定度winfrared为1。将对齐阈值q设置为0.8。
五、将提出的模型与现有的模型在所构造的数据集上进行对比(针对双光车辆检测问题)。
为了验证本发明实施例所提出的基于不确定感知网络的双光车辆检测方法的有效性,选取了目前最好的方法作为baseline方法与之进行对比。
检验策略:使用mAP(Mean Average Precision)评价指标来评估基于无人机的双光车辆检测方法。mAP评价指标衡量了测试集中边界框的质量(如果预测与真实标签的IoU计算值大于0.5则将预测视为正确)。
实验结果:
在相同的设置下,将所提出的方法与目前最优的方法在DroneVehicle数据集上进行比较,实验结果如表2所示。所提出的UANet在每一个类别中均达到最高的AP值。进行比较的所有算法都是在RGB模态和红外模态下独立训练的。所有的结果均在双模态融合后得到的标签下进行评估。
为了进行公平性比较,往比较算法RoITransformer中引入了的元素添加操作,赋予其融合能力。与单模态结果相比,具有元素添加的RoITransformer有了显著的改进。RGB模态的结果提高了4.78%,红外模态的结果则提高了5.77%。所比较的方法与UANet的主要区别是缺少UAM模块,这使得结果降低了4.4%。这也说明了UAM模块在UANet中的有效性。
表2为在DroneVehicle数据集上的实验结果
Figure BDA0003018201540000101
为了验证UAM的有效性,选择RoITransformer作为baseline,直接将UAM加入到baseline上,分别训练RGB模态下目标检测模型和红外模态下的目标检测模型。如表3所示,UAM可以有效地提高两种模态的mAP值。其中,RGB模态增加了3.13%,红外模态增加了2.78%。另外,在baseline中加入了元素自增操作,使用了与UANet相同的训练设置,mAP仍然比UANet低4.4%,这也证明了UAM的有效性。值得一提的是,本发明提出的UAM可以为单模态模型或融合模型产生收益,而增加的计算成本可以忽略不计。
表3在DroneVehicle数据集上的消融研究结果
Figure BDA0003018201540000111
为了验证UANet中元素自增操作的有效性,从表3中可以看出,在RGB模态下UANet的mAP比baseline(UAM)模型高6.05%,在红外模态下比baseline(UAM)模型高7.39%。此外,还为实验的baseline模型添加了元素自增操作。在测试集上,其mAP值比RGB模态训练的baseline模型高5.77%,比红外模态训练的baseline模型高4.78%。上述的实验结果表明元素自增操作是非常有效的。
在不同的多模态特征融合方法中,本发明的目标是使用最简单的方法来实现特征级的融合,即元素加操作。为了验证UAM对其他融合方法的影响,使用连接操作而不是元素自增操作,然后使用1*1的卷积核来保证通道数量的一致性。还做了两个比较实验,分别为baseline(CAT)和baseline(EWA),区别只在于是否有UAM模块,模型其余的配置是相同的。从表4可以看出,UANet(CAT)的mAP比baseline(CAT)的mAP高1.16%。这也证明了本发明所提出的UAM模块是有效的,并且可以嵌入到其他RGB-Infrared融合框架中而不需要额外的成本。
表4为DroneVehicle数据集上不同融合机制的实验结果
Figure BDA0003018201540000112
此外,还发现,在使用UAM模块之后,元素添加操作相较于连接操作使模型的mAP值提升更高,并且不引入任何模型参数。因此,选择元素自增操作作为UANet中的特征融合方法。在同一场景中,baseline模型有一些明显的漏检和错误检测。相比之下,本发明提出的UANet具有更高的检测精度。如果baseline使用UAM可以缓解漏检和错误检测的问题。
第二方面,本发明实施例提供了一种基于不确定感知网络的双光车辆检测装置,参见图6,该装置包括:
数据集模块1,用于收集并构建一基于无人机的RGB-红外线的车辆检测数据集;
不确定感知网络模块2,用于构建一不确定感知网络,参加图7,不确定感知网络包括:不确定感知子模块21和特征融合框架22;
训练模块3,用于通过所构造的车辆检测数据集来训练所提出的不确定感知网络,得到分类与回归的预测结果然后计算损失以此更新网络中的参数;
检测模块4,用于通过训练后的模型对双光车辆进行检测。
其中,该不确定感知子模块21用于将RGB红外图像对的标签信息作为先验知识,利用交并比软化对应模态的标签信息,通过软化得到不确定权重;
该特征融合框架22用于学习模态融合特征的表示,同时学习红外与RGB模态各自的特征表示。
在一种实施方式种,利用交并比软化对应模态的标签信息具体为:
使用交并比来评估RGB和红外图像中目标标记方块的重叠,并且完成两种模态不确定性的量化。
其中,特征融合框架22具体为:
输入为一对RGB-Infrared图像对,分别输入到特征提取器中,模型的参数不共享;在框架中,对于混合感知层输出的相应尺度上的红外特征和RGB特征,将二者直接应用到元素自增操作获得融合特征,被送到检测头分支用于训练。
在训练阶段,该不确定感知子模块21作用于红外模态的检测头、RGB模态的检测头以及双模态的检测头;在测试阶段,仅使用融合分支。
这里需要指出的是,以上实施例中的装置描述是与上述方法实施例描述相对应的,本发明实施例在此不做赘述。
上述各个模块、单元的执行主体可以是计算机、单片机、微控制器等具有计算功能的器件,具体实现时,本发明实施例对执行主体不做限制,根据实际应用中的需要进行选择。
基于同一发明构思,本发明实施例还提供了一种基于不确定感知网络的双光车辆检测装置,参见图8,该装置包括:处理器5和存储器6,存储器6中存储有程序指令,处理器5调用存储器6中存储的程序指令以使装置执行实施例中的以下方法步骤:
收集并构建一基于无人机的RGB-红外线的车辆检测数据集;
构建一不确定感知网络,不确定感知网络包括:不确定感知模块和特征融合框架;
通过所构造的车辆检测数据集来训练所提出的不确定感知网络,得到分类与回归的预测结果然后计算损失以此更新网络中的参数;
通过训练后的模型对双光车辆进行检测。
在一种实施方式中,不确定感知模块将RGB红外图像对的标签信息作为先验知识,利用交并比软化对应模态的标签信息,通过软化得到不确定权重;
所述特征融合框架用于学习模态融合特征的表示,同时学习红外与RGB模态各自的特征表示。
在一种实施方式中,利用交并比软化对应模态的标签信息具体为:
使用交并比来评估RGB和红外图像中目标标记方块的重叠,并且完成两种模态不确定性的量化。
在一种实施方式中,特征融合框架具体为:
输入为一对RGB-Infrared图像对,分别输入到特征提取器中,模型的参数不共享;在框架中,对于混合感知层输出的相应尺度上的红外特征和RGB特征,将二者直接应用到元素自增操作获得融合特征,被送到检测头分支用于训练。
在一种实施方式中,在训练阶段,不确定感知模块作用于红外模态的检测头、RGB模态的检测头以及双模态的检测头;在测试阶段,仅使用融合分支。
这里需要指出的是,以上实施例中的装置描述是与实施例中的方法描述相对应的,本发明实施例在此不做赘述。
上述的处理器5和存储器6的执行主体可以是计算机、单片机、微控制器等具有计算功能的器件,具体实现时,本发明实施例对执行主体不做限制,根据实际应用中的需要进行选择。
存储器6和处理器5之间通过总线7传输数据信号,本发明实施例对此不做赘述。
基于同一发明构思,本发明实施例还提供了一种计算机可读存储介质,存储介质包括存储的程序,在程序运行时控制存储介质所在的设备执行上述实施例中的方法步骤。
该计算机可读存储介质包括但不限于快闪存储器、硬盘、固态硬盘等。
这里需要指出的是,以上实施例中的可读存储介质描述是与实施例中的方法描述相对应的,本发明实施例在此不做赘述。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本发明实施例的流程或功能。
计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者通过计算机可读存储介质进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质或者半导体介质等。
本发明实施例对各器件的型号除做特殊说明的以外,其他器件的型号不做限制,只要能完成上述功能的器件均可。
本领域技术人员可以理解附图只是一个优选实施例的示意图,上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种基于不确定感知网络的双光车辆检测方法,其特征在于,所述方法包括:
收集并构建一基于无人机的RGB-红外线的车辆检测数据集;
构建一不确定感知网络,所述不确定感知网络包括:不确定感知模块和特征融合框架;
通过所构造的车辆检测数据集来训练所提出的不确定感知网络,得到分类与回归的预测结果然后计算损失以此更新网络中的参数;
通过训练后的模型对双光车辆进行检测;
其中,所述不确定感知模块将RGB红外图像对的标签信息作为先验知识,利用交并比软化对应模态的标签信息,通过软化得到不确定权重;
所述特征融合框架用于学习模态融合特征的表示,同时学习红外与RGB模态各自的特征表示。
2.根据权利要求1所述的一种基于不确定感知网络的双光车辆检测方法,其特征在于,所述利用交并比软化对应模态的标签信息具体为:
使用交并比来评估RGB和红外图像中目标标记方块的重叠,并且完成两种模态不确定性的量化。
3.根据权利要求1所述的一种基于不确定感知网络的双光车辆检测方法,其特征在于,所述不确定权重具体为:
Figure FDA0003889374770000011
其中,wrgb为RGB模态的不确定权重,rgb为RGB模态,winfrared为红外模态的不确定权重,IoU为交并比测量标准。
4.根据权利要求1所述的一种基于不确定感知网络的双光车辆检测方法,其特征在于,所述特征融合框架具体为:
输入为一对RGB-Infrared图像对,分别输入到特征提取器中,模型的参数不共享;在框架中,对于混合感知层输出的相应尺度上的红外特征和RGB特征,将二者直接应用到元素自增操作获得融合特征,被送到检测头分支用于训练。
5.根据权利要求4所述的一种基于不确定感知网络的双光车辆检测方法,其特征在于,在训练阶段,所述不确定感知模块作用于红外模态的检测头、RGB模态的检测头以及双模态的检测头;在测试阶段,仅使用融合分支。
6.根据权利要求4所述的一种基于不确定感知网络的双光车辆检测方法,其特征在于,所述不确定感知网络的目标对象的边界框回归的损失函数Lloc计算如下:
Figure FDA0003889374770000021
其中,i∈{x,y,w,h,θ},tu表示预测的结果,u表示真实的类别,v代表真实的标记方块的回归目标值,W表示不确定性权值;(x,y)表示预测结果的中心点,(w,h)表示预测结果的宽和高,smoothL1为软化函数,L1为正则化;
使用了多任务损失Lrgb将分类与标记框回归训练合并:
Lrgb(p,u,tu,v,W)=Lcls(p,u)+λ[u≥1]Lloc(tu,v,W)
其中,Lcls使用交叉熵损失函数,p代表每个类别的预测概率大小;当u≥1时,括号指示函数[u≥1]的值为1否则为0;λ为超参数;总的损失函数计算包含三个分支,将这些损失进行加权求和:
L=αLrgb+βLinfrared+γLfusion
其中,α,β,γ是超参数,Linfrared为红外感知模块的损失,Lfusion为混合模态的损失。
7.一种基于不确定感知网络的双光车辆检测装置,其特征在于,所述装置包括:
数据集模块,用于收集并构建一基于无人机的RGB-红外线的车辆检测数据集;
不确定感知网络模块,用于构建一不确定感知网络,所述不确定感知网络包括:不确定感知模块和特征融合框架;
训练模块,用于通过所构造的车辆检测数据集来训练所提出的不确定感知网络,得到分类与回归的预测结果然后计算损失以此更新网络中的参数;
检测模块,用于通过训练后的模型对双光车辆进行检测;
其中,所述不确定感知模块将RGB红外图像对的标签信息作为先验知识,利用交并比软化对应模态的标签信息,通过软化得到不确定权重;
所述特征融合框架用于学习模态融合特征的表示,同时学习红外与RGB模态各自的特征表示。
8.一种基于不确定感知网络的双光车辆检测装置,其特征在于,所述装置包括:处理器和存储器,所述存储器中存储有程序指令,所述处理器调用存储器中存储的程序指令以使装置执行权利要求1-6中的任一项所述的方法步骤。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序包括程序指令,所述程序指令被处理器执行时使所述处理器执行权利要求1-6中的任一项所述的方法步骤。
CN202110394835.XA 2021-04-13 2021-04-13 一种基于不确定感知网络的双光车辆检测方法及装置 Active CN113221659B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110394835.XA CN113221659B (zh) 2021-04-13 2021-04-13 一种基于不确定感知网络的双光车辆检测方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110394835.XA CN113221659B (zh) 2021-04-13 2021-04-13 一种基于不确定感知网络的双光车辆检测方法及装置

Publications (2)

Publication Number Publication Date
CN113221659A CN113221659A (zh) 2021-08-06
CN113221659B true CN113221659B (zh) 2022-12-23

Family

ID=77087247

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110394835.XA Active CN113221659B (zh) 2021-04-13 2021-04-13 一种基于不确定感知网络的双光车辆检测方法及装置

Country Status (1)

Country Link
CN (1) CN113221659B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115240015B (zh) * 2022-09-23 2023-01-06 中汽数据(天津)有限公司 目标检测模型的训练方法、装置、设备和存储介质
CN115457420B (zh) * 2022-11-10 2023-03-17 松立控股集团股份有限公司 一种基于无人机拍摄夜间低对比度的车辆重检测方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108288270A (zh) * 2018-02-05 2018-07-17 南京邮电大学 一种基于通道修剪与全卷积深度学习的目标检测方法
CN109271990A (zh) * 2018-09-03 2019-01-25 北京邮电大学 一种针对rgb-d图像的语义分割方法及装置
CN110210539A (zh) * 2019-05-22 2019-09-06 西安电子科技大学 多级深度特征融合的rgb-t图像显著性目标检测方法
CN110349185A (zh) * 2019-07-12 2019-10-18 安徽大学 一种rgbt目标跟踪模型的训练方法及装置
CN110956094A (zh) * 2019-11-09 2020-04-03 北京工业大学 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN111968240A (zh) * 2020-09-04 2020-11-20 中国科学院自动化研究所 基于主动学习的摄影测量网格的三维语义标注方法
CN112233079A (zh) * 2020-10-12 2021-01-15 东南大学 多传感器图像融合的方法及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10824862B2 (en) * 2017-11-14 2020-11-03 Nuro, Inc. Three-dimensional object detection for autonomous robotic systems using image proposals
EP3756129A1 (en) * 2018-02-21 2020-12-30 Robert Bosch GmbH Real-time object detection using depth sensors
WO2020025696A1 (en) * 2018-07-31 2020-02-06 Deutsches Krebsforschungszentrum Stiftung des öffentlichen Rechts Method and system for augmented imaging using multispectral information
WO2020061489A1 (en) * 2018-09-20 2020-03-26 Nvidia Corporation Training neural networks for vehicle re-identification
US11610115B2 (en) * 2018-11-16 2023-03-21 Nvidia Corporation Learning to generate synthetic datasets for training neural networks
CN109815799A (zh) * 2018-12-18 2019-05-28 南京理工大学 一种基于ssd的快速航拍车辆检测算法
CN110321923B (zh) * 2019-05-10 2021-05-04 上海大学 不同尺度感受野特征层融合的目标检测方法、系统及介质
CN111915583B (zh) * 2020-07-29 2024-02-09 西安电子科技大学 复杂场景中基于车载红外热像仪的车辆和行人检测方法
CN112200089B (zh) * 2020-10-12 2021-09-14 西南交通大学 一种基于车辆计数感知注意力的稠密车辆检测方法
CN112150821B (zh) * 2020-10-14 2022-05-06 清华大学 轻量化车辆检测模型构建方法、系统及装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108288270A (zh) * 2018-02-05 2018-07-17 南京邮电大学 一种基于通道修剪与全卷积深度学习的目标检测方法
CN109271990A (zh) * 2018-09-03 2019-01-25 北京邮电大学 一种针对rgb-d图像的语义分割方法及装置
CN110210539A (zh) * 2019-05-22 2019-09-06 西安电子科技大学 多级深度特征融合的rgb-t图像显著性目标检测方法
CN110349185A (zh) * 2019-07-12 2019-10-18 安徽大学 一种rgbt目标跟踪模型的训练方法及装置
CN110956094A (zh) * 2019-11-09 2020-04-03 北京工业大学 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN111968240A (zh) * 2020-09-04 2020-11-20 中国科学院自动化研究所 基于主动学习的摄影测量网格的三维语义标注方法
CN112233079A (zh) * 2020-10-12 2021-01-15 东南大学 多传感器图像融合的方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Quality-Aware Feature Aggregation Network for Robust RGBT Tracking";Yabin Zhu,等;《 IEEE Transactions on Intelligent Vehicles》;20200313;第6卷(第1期);第2-7页 *
"Towards Safe Autonomous Driving: Capture Uncertainty in the Deep Neural Network For Lidar 3D Vehicle Detection";Di Feng,等;《2018 21st International Conference on Intelligent Transportation Systems (ITSC)》;20181209;第3-8页 *

Also Published As

Publication number Publication date
CN113221659A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
Zheng et al. Citysim: A drone-based vehicle trajectory dataset for safety-oriented research and digital twins
CN113221659B (zh) 一种基于不确定感知网络的双光车辆检测方法及装置
CN113128348A (zh) 一种融合语义信息的激光雷达目标检测方法及系统
CN105659304A (zh) 视觉增强导航
CN113420607A (zh) 无人机多尺度目标检测识别方法
CN110525342A (zh) 一种基于深度学习的ar-hud车载辅助驾驶方法及其系统
Khalifa et al. A novel multi-view pedestrian detection database for collaborative intelligent transportation systems
CN111931764A (zh) 一种目标检测方法、目标检测框架及相关设备
Naufal et al. Preprocessed mask RCNN for parking space detection in smart parking systems
CN112289037B (zh) 基于复杂环境下高视角的机动车辆违规停车检测方法及系统
CN113159024A (zh) 一种基于改进YOLOv4的车牌识别技术
Wang et al. Simultaneous detection and tracking using deep learning and integrated channel feature for ambint traffic light recognition
CN107918775B (zh) 一种辅助车辆安全驾驶的斑马线检测方法及系统
CN116279592A (zh) 一种用于无人物流车的可行驶区域划分方法
CN110909656B (zh) 一种雷达与摄像机融合的行人检测方法和系统
CN115100741A (zh) 一种点云行人距离风险检测方法、系统、设备和介质
Haris et al. Lane lines detection under complex environment by fusion of detection and prediction models
CN111316324A (zh) 一种自动驾驶模拟系统、方法、设备及存储介质
CN113255555A (zh) 中国交通标志牌识别方法、系统、处理设备及存储介质
CN117372991A (zh) 基于多视角多模态融合的自动驾驶方法及系统
CN113743163A (zh) 交通目标识别模型训练方法、交通目标定位方法、装置
CN115909245A (zh) 一种基于深度学习的视觉多任务处理方法
US20240127585A1 (en) Method for determining the encoder architecture of a neural network
CN112818837B (zh) 一种基于姿态校正和困难样本感知的航拍车辆重识别方法
CN115273005A (zh) 一种基于改进yolo算法的视觉导航车环境感知方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant