CN114821014A - 基于多模态与对抗学习的多任务目标检测识别方法及装置 - Google Patents
基于多模态与对抗学习的多任务目标检测识别方法及装置 Download PDFInfo
- Publication number
- CN114821014A CN114821014A CN202210534762.4A CN202210534762A CN114821014A CN 114821014 A CN114821014 A CN 114821014A CN 202210534762 A CN202210534762 A CN 202210534762A CN 114821014 A CN114821014 A CN 114821014A
- Authority
- CN
- China
- Prior art keywords
- task
- network
- target
- modal
- proposal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本发明公开了一种基于多模态多任务对抗学习的目标检测识别方法及装置,该方法将整个模型分成了特征提取阶段、区域提案阶段和多任务目标检测阶段三个部分。在特征提取阶段,采用多模态特征融合的方法,对输入数据的RGB图像和语义图像进行特征提取,使模型对于图像中目标的位置信息更加敏感,同时还增强了目标语义信息的提取;区域提案阶段用以生成随机窗口和提案框作为下阶段的输入;在多任务目标检测阶段中,采用多任务学习的方法,通过联合训练三个辅助任务来提高主任务的检测精度。对于目标检测网络,引入了对抗学习的思想,加入两个对抗式生成网络,用来生成多样式样本,提高模型的鲁棒性。
Description
技术领域
本发明属于深度学习的目标检测领域,涉及一种基于多模态与对抗学习的多任务目标检测识别方法及装置。
背景技术
目标检测技术即定位与识别图像中所感兴趣的物体。随着计算机视觉的发展和人工智能的兴起,目标检测技术因其在智能化时代中的大量应用需求,近几年来取得了长足的进展,在无人驾驶、电力监测、医药生产、航天航空和国防军工等国家级重大产业领域获得了广泛的应用。然而产业的快速发展,给目标检测技术提出了更高的要求,传统方法已不能够支撑起各行业的进一步发展。为此本文利用不同种类物体之间形状、颜色、纹理特征的不同,对目标物体进行位置的检测和种类的识别,通过集成多模态——特征融合、多任务学习、对抗式生成网络三种模型,设计了一种新颖的目标检测与识别方法,提高了对目标物体的检测识别精度,对现行热门的智能抓取技术也提供了很好的视觉先行条件。
随着机器视觉和深度学习技术的不断发展,对不同的网络模型进行集成,充分利用各网络模型中的优点,来提高整体网络的表现性能是现行视觉领域中的一种流行的思想。深度学习的思想通过模仿人的大脑运行而来,而多模态学习在信息获取方面最为符合大脑的运行机制。自2010年多模态步入深度学习阶段,利用多模态特征融合的思想,充分利用数据的各方面信息,已成为深度学习领域的一种重要方法。多任务学习是图像识别领域的一个新的发展方向,并在图像检测识别方面取得了良好的表现性能。以往,对于图像中多种物体的位置检测和种类识别,往往是先进行目标物体位置的检测,进而对分割后对目标区域中的物体进行种类识别。采用单独的卷积神经网络对两个任务分别进行训练,忽略了两个任务之间的联系,任务中产生的参数只会在特定的任务中进行处理,这样不仅效率较低,而且会由于训练样本数量过少出现过拟合的风险,不能生成表现良好的模型。多任务学习方法则是同时对两个任务进行训练,通过任务之间存在的一定联系,共享任务之间的特征表示,为每个任务都提供了额外的参数信息,从而有效的解决了单任务中存在的过拟合问题,提高了模型的泛化能力。而对抗式生产网络,随着对抗式生成网络(GAN)的出现,以其能生成相似的对抗样本,在深度学习领域兴起了一股研究的热潮,很多在GAN基础上改进变形的网络相继出现,其博弈的思想也被用于分类、检测等诸多领域,通过在训练过程中生成对抗式样本来与真实样本竞争,从而提高模型对不同条件(如遮挡,变形和光照)数据的鲁棒性。
急需设计一个新的多模态多任务对抗学习模型,充分利用多模态、多任务、对抗式生成模型的优点,并将其应用于目标物体的位置检测和种类识别,有着重要的现实意义和使用价值。
发明内容
为了解决上述单任务学习中存在的缺点,再加上形变和遮挡样本比较稀缺的问题,提高模型的鲁棒性和图像中目标检测识别的精度,本发明技术方案提出了一种基于多模态与对抗学习的多任务目标检测识别方法及装置,集成了多模态——特征融合、多任务学习、对抗式生成网络三种模型,其中多任务学习(MTL)模块充分利用了自监督学习(SSL)的优点,并通过一套辅助任务来提高主任务目标检测器的准确性。
本发明提供了以下技术方案:
一方面,一种基于多模态与对抗学习的多任务目标检测识别方法,包括:
步骤1:RGB图像目标标注与预处理,并获取对应的语义图;
语义图是采用labelme软件对原始RGB图进行语义标注,即在labelme中点击Create Polygons对图像中的物体进行多线段标注,围成一圈后注释上物体类别信息以生成相应json文件,最后对json文件进行解析生成语义图。
步骤2:构建基于多模态与对抗学习的多任务识别网络模型;
所述基于多模态与对抗学习的多任务识别网络模型包括依次连接的多模态特征融合网络、区域提案网络以及多任务目标检测网络;
步骤3:设置损失函数,用于训练基于多模态与对抗学习的多任务识别网络模型;
步骤4:使用训练好的基于多模态与对抗学习的多任务识别网络模型对待识别图像中的目标物体进行检测识别;
将RGB图像和对应的语义图输入到训练好的基于多模态与对抗学习的多任务识别网络模型中,获得待识别图像中待识别目标和训练样本图像中目标的相似度值,经softmax分类之后选其中分数最大的类别作为识别结果。
本技术方案充分利用各多模态、多任务、对抗式生成模型的优点,解决了稀疏训练样本造成的过拟合问题,利用多模态特征融合、多任务参数共享的特点,提高了图像中目标检测和识别的精度;通过对抗学习生成对抗样本,提高了不同条件下网络的鲁棒性,能够快速且准确的对图像中的目标进行检测识别。
进一步的,所述多模态特征融合网络是采用两个Resnet18主干CNN网络,再连接concat融合网络构成;
所述区域提案网络输出随机窗口和提案框;
所述多任务目标检测网络中的多任务包括三个辅助任务与一个主任务,其中,主任务为目标检测器,所述目标检测器采用Fast R-CNN模型,在所述Fast R-CNN模型的感兴趣池化层后引入对抗生成网络,三个辅助任务依次为颜色标记任务、多目标标记任务以及前景标记任务;
其中,所述随机窗口作为多目标标记任务的输入数据,所述提案框作为颜色标记任务和主任务的输入数据,所述多模态特征融合网络输出的融合特征图作为前景标记任务的输入数据。
目标检测器输出两条分支,一条为Bbox分支,一条为Class分支。Bbox分支用以回归计算出目标对象的包围框,Class分支经过辅助任务细化后用以预测出目标的类别。
进一步的,所述对抗生成网络包括依次串联的对抗空间丢弃网络和对抗空间变换网络;
所述对抗空间丢弃网络用于生成对特征图进行遮挡的对抗样本,所述对抗空间变换网络用于在目标的卷积特征空间中,对目标特征产生形变。
进一步的,所述对抗空间丢弃网络通过掩码分支对提案特征图进行掩码操作,生成对抗样本;
其中,掩码分支由两个全连接层和一个掩码子网络组成,掩码子网络包括5个串联的conv_mask卷积层,用来生成mask值,然后与输入的提案特征图结合,通过Dropout删除激活生成掩码样本;
抗空间丢弃网络的损失函数采用二进制交叉熵损失,具体如下:
其中,表示第p个提案特征图在给定输入尺寸大小为d×d的特征映射在位置(i,j)处对抗空间丢弃网络的输出结果;表示第p个提案特征图的掩码矩阵M的增广矩阵的第i行第j列所在的掩码值,n表示提案特征图数量;
所述对抗空间变换网络由本地网络、网格生成器、采样器三个部分组成;
其中,本地网络输入特征图像,经过隐藏网络层输出空间变换参数,所述隐藏网络层包括两个卷积层和两个最大池化层,以及一个3×2的仿射矩阵回归层;
所述网格生成器依据本地网络输出的变换参数,对特征映射进行变换得到采样网格;
所述采样器利用采样网格和输入的特征图,得到特征图经过变换之后的结果;
Dropout是公知的操作,即随机丢弃一定比例的神经元连接。
给定一个大小为d×d×c的特征图,其中d为空间维度,c为通道数。经过阈值后,ASDN就会生成一个d×d的掩模M,其值只有0或1。Mij表示掩模M中第i行第j列元素的掩码值,则Xij k代表第k个通道中(i,j)坐标处的特征;如果Mij=1,去掉特征图中该坐标位置下所有通道的像素值,将其归零,即Xij k=0,∀k。
在卷积特征空间中直接对特征进行操作,生成对抗样本实例,而不是生成形变和遮挡的像素图像。这样操作后的效果更好,因为对抗空间变换网络用生成的图像随机且复杂,而对抗空间丢弃网络通过修改图片特征层,在保证了整体图像没有大幅度改变的同时,使得对象更加难以判别。本方案中的多任务识别网络通过真实样本与生成的对抗样本之间的相互竞争并克服障碍,从中学会以健壮的方式处理遮挡和变形的样本。对抗网络只在训练过程中使用,用来使目标检测器学习到更加充分的参数权重。
进一步的,在多目标标记任务中,以提案框为中心创建Nr个不同尺寸大小的窗口,在多目标标记任务中,以提案框为中心创建Nr个不同尺寸大小的窗口,通过将特征图和提案框之间的空间划分为Nr-1个均匀间隔来设置窗口尺寸大小,获取Nr窗口的多目标标签,记为,Nr为设定值;获得特征图中所有提案框的语义颜色标签,并计算它们的平均值,组合起来作为一个c向量表示;将主任务中分类分支输出的特征向量更新为:
所述颜色标记任务是指用于获取识别对象语义颜色,并依据语义颜色进行对象类型标记;
所述多目标标记任务是指用于获取随机包围框中各目标占所有目标数量的比例;
所述前景标记任务是指用于对整幅图像的前景区域和背景区域进行标记;
所述主任务是指用于获取对象位置以及识别对象的类型标签。
进一步的,对各任务和对抗生成网络设置交叉熵损失函数,并将所有交叉熵损失函数之和作为目标交叉熵损失函数;
通过ImageNet预训练初始化基于多模态与对抗学习的多任务识别网络模型,将训练样本放入初始化后的基于多模态与对抗学习的多任务识别网络模型中进行学习;其中,训练样本中原始RGB图像和其对应的语义图作为基于多模态与对抗学习的多任务识别网络模型的输入数据,原始RGB图像对应的目标物体标注结果作为基于多模态与对抗学习的多任务识别网络模型的输出数据;
在训练过程中使得目标交叉熵损失函数达到最小值,获得训练好的基于多模态与对抗学习的多任务识别网络模型;
在训练过程中使得目标交叉熵损失函数达到最小值,获得训练好的基于多模态与对抗学习的多任务识别网络模型;
联合训练是指将多个任务的损失函数相加,然后使用同一个优化函数,训练较快;
对于区域提案网络(RPN),网络实际分为两条线;
一条通过softmax分类anchors(锚点)获得positive和negative分类,另一条用于计算对于anchors(锚点)的bounding box regression(边界框回归)偏移量,以获得精确的proposal(提案框)。
而最后的提案层则负责综合positive anchors和对应bounding box regression(边界框回归)偏移量获取proposals,同时剔除太小和超出边界的提案框。
进一步的,主任务的目标检测器的损失函数为分类损失和回归损失之和:
其中,X表示经过所述Fast R-CNN模型的感兴趣池化层输出的高维特征,是表示目标检测器中包含的X的分类结果,表示目标检测器中对X预测的包围框位置;C表示分类标签,L表示包围框坐标标签,bg表示背景,分别表示分类损失、回归损失。
另一方面,本发明技术方案还提供一种基于上述多模态与对抗学习的多任务目标检测识别方法的装置,包括:
语义图获取单元:通过RGB图像目标标注与预处理,并获取对应的语义图;
识别网络构建单元:利用依次连接的多模态特征融合网络、区域提案网络以及多任务目标检测网络,构建基于多模态与对抗学习的多任务识别网络模型;
所述多模态特征融合网络是采用两个Resnet18主干CNN网络,再连接concat融合网络构成;所述区域提案网络输出随机窗口和提案框;
所述多任务目标检测网络中的多任务包括三个辅助任务与一个主任务,其中,主任务为目标检测器,所述目标检测器采用Fast R-CNN模型,在所述Fast R-CNN模型的感兴趣池化层后引入对抗生成网络模块,三个辅助任务依次为颜色标记任务、多目标标记任务以及前景标记任务;
其中,所述随机窗口作为多目标标记任务的输入数据,所述提案框作为颜色标记任务和主任务的输入数据,所述模态特征融合网络输出的融合特征图作为前景标记任务的输入数据;
所述对抗生成网络模块包括依次串联的对抗空间丢弃网络子模块和对抗空间变换网络子模块;
所述对抗空间丢弃网络子模块用于生成对特征图进行遮挡的对抗样本,所述对抗空间变换网络子模块用于在目标的卷积特征空间中,对目标特征产生形变;
网络训练单元:通过设置损失函数,用于训练基于多模态与对抗学习的多任务识别网络模型;
通过对各任务和对抗生成网络设置交叉熵损失函数,并将所有交叉熵损失函数之和作为目标交叉熵损失函数;利用ImageNet预训练进行初始化后,再使用训练样本进行训练,在训练过程中,以目标交叉熵损失函数达到最小值时,获得训练好的基于多模态与对抗学习的多任务识别网络模型;
识别单元:使用训练好的基于多模态与对抗学习的多任务识别网络模型对待识别图像中的对象进行检测识别。
再一方面,本发明技术方案还提供一种电子终端,其特征在于:至少包括:
一个或多个处理器;
一个或多个存储器;
所述处理器调用所述存储器存储的计算机程序以执行:
上述一种基于多模态与对抗学习的多任务目标检测识别方法的步骤。
再一方面,本发明技术方案还提供一种可读存储介质,存储了计算机程序,所述计算机程序被处理器调用以实现:
上述一种基于多模态与对抗学习的多任务目标检测识别方法的步骤。
有益效果
本发明提出了一种基于多模态与对抗学习的多任务目标检测识别方法及装置,该方法包括:RGB图像目标标注与预处理,并获取对应的语义图;构建基于多模态与对抗学习的多任务识别网络模型;设置损失函数,用于训练基于多模态与对抗学习的多任务识别网络模型;使用训练好的基于多模态与对抗学习的多任务识别网络模型对待识别图像中的目标物体进行检测识别;将RGB图像和对应的语义图输入到训练好的基于多模态与对抗学习的多任务识别网络模型中,获得待识别图像中待识别目标和训练样本图像中目标的相似度值,经softmax分类之后选其中分数最大的类别作为识别结果。
该方案将整个模型分成了特征提取阶段、区域提案阶段和多任务目标检测阶段三个部分。集成了多模态特征融合、多任务学习、对抗式生成网络三种网络。在特征提取阶段,采用了多模态特征融合的方法,输入目标的RGB图像和语义图进行特征提取,使模型对于图像中目标物体的位置信息更加敏感;区域提案阶段用以生成随机窗口和提案框作为下阶段的输入;在多任务目标检测阶段中,采用了多任务学习的方法,通过联合训练三个辅助任务来提高主任务(目标检测)的检测精度;其中,对于目标检测器,引入了对抗学习的思想,加入了两个对抗式生成网络,用来生成多样式样本,提高模型的鲁棒性。
本发明充分利用各多模态、多任务、对抗式生成模型的优点,解决了稀疏训练样本造成的过拟合问题,利用多模态特征融合、多任务参数共享的特点,提高了图像中目标物体检测和识别的精度。通过对抗学习生成对抗样本,提高了不同条件下网络的鲁棒性。能够快速且准确的对图像中的目标物体进行检测识别,有着重要的现实意义和使用价值。
附图说明
图1为本发明实例所述方法总流程图;
图2为本发明实例中多模态多任务对抗学习模型的网络结构图;
图3为本发明实例中使用的CNN分支ResNet-18的详细结构示意图;
图4为本发明实例中引入对抗生成网络后主任务目标检测器的网络结构图;
图5为本发明实例中多任务目标检测阶段中的细化操作的结构示意图;
图6为本发明实例中窗口设置示意图。
具体实施方式
下面结合实施例对本发明做进一步详细的说明。
实施例1:
本发明实施例提出了一种基于多模态多任务对抗学习的目标检测识别方法,如图1所示,该方法包括:
步骤1:准备所需的图像数据集,对数据集图像进行归一化处理,并对所有数据图像中目标的位置和种类进行人工标注;再采用传统数据增强方法扩充数据集,之后使用labelme软件对所有的RGB图像进行语义信息标注,并生成语义图;
具体内容如下:
(1)图像训练数据集是通过自己拍摄和网上搜寻收集到的,图像中要求包含有数量不一的不同种类的目标物体。
(2)对所有图像数据进行归一化处理,将图像转换成256×256像素的标准图像大小。
(3)使用labelme软件,对训练样本图像中目标的位置用矩形框进行紧密包围并附上对应目标的种类,得到训练图像的注释信息,并将其转换为coco数据集的标签格式。
(4)采用随机旋转和亮度调节的数据增强方法对数据集进行扩充,其中随机旋转可改善卷积神经网络平移不变性的缺陷,这在以往的研究中得到了证明。
(5)语义图的获取,是采用labelme软件对原始RGB图进行语义标注,即在labelme中点击Create Polygons对图像中的物体进行多线段标注,围成一圈后注释上物体类别信息以生成相应json文件,最后对json文件进行解析生成语义图。
步骤2:构建基于多模态与对抗学习的多任务识别网络模型,模型整体结构图如图2所示。
所述基于多模态与对抗学习的多任务识别网络模型包括依次连接的多模态特征融合网络、区域提案网络以及多任务目标检测网络;
所述多模态特征融合网络是采用两个Resnet18主干CNN网络,再连接concat融合网络构成;
所述区域提案网络输出随机窗口和提案框;
所述多任务目标检测网络中的多任务包括三个辅助任务与一个主任务,其中,主任务为目标检测器,所述目标检测器采用Fast R-CNN模型,在所述Fast R-CNN模型的感兴趣池化层后引入对抗生成网络,三个辅助任务依次为颜色标记任务、多目标标记任务以及前景标记任务;
其中,所述随机窗口作为多目标标记任务的输入数据,所述提案框作为颜色标记任务和主任务的输入数据,所述多模态特征融合网络输出的融合特征图作为前景标记任务的输入数据。
步骤3:设置损失函数,用于训练基于多模态与对抗学习的多任务识别网络模型;
对模型进行训练,通过ImageNet预训练初始化整个多模态多任务对抗网络,然后把训练样本放入网络中进行学习。首先使用原始RGB图像和获取的语义图对CNN主干进行训练,CNN结构如图3所示。在区域提案阶段,将辅助任务与主任务联合训练,所谓联合训练,即输入融合特征图,四个任务通过共享任务之间的相关特征信息,同时学习融合特征图中特定于任务的特征信息,得到多模态多任务对抗学习的目标检测识别模型;对于辅助任务的损失函数。之前已经谈及将每个辅助任务的损失定义为交叉熵损失,因为它们基本上执行类标签的预测,公式如下:
由于每个辅助任务给主任务提供有用信息量的不同,这里对三个辅助任务损失进行加权和得到总的辅助任务损失:
对于对抗空间丢弃ASDN网络的具体操作,网络的输入为RoI池层后每个前景对象提案的卷积特征。给定对象的特性后,ASDN将尝试生成一个掩码,指示该特性的哪些部分丢失(分配零),以便检测器无法识别该对象。更细致的来说,给定一个大小为d×d×c的特征图,其中d为空间维度,c为通道数。经过阈值后,ASDN就会生成一个d×d的掩模M,其值只有0或1。假设Mij表示第i行第j列元素的掩码值,则Xij k代表第k个通道中(i,j)坐标处的特征。如果Mij=1,就去掉特征图中该坐标位置下所有通道的像素值,将其归零,即Xij k=0,∀k。对于ASDN网络,依旧使用的是二进制交叉熵损失。公式如下,其中Aij(Xp)表示给定输入特征映射Xp在位置(i,j)处ASDN的输出结果。
对于对抗空间变换ASTN网络,其关键思想是在目标特征上产生形变,使探测器难以识别目标。该网络基于空间变压器网络(STN),STN对特征进行变形从而使得分类更容易。通过与变形的后的特征相互竞争,可以训练出一个更好的探测器,它对变形具有很强的鲁棒性。其具体操作为给予一个特征映射,假设提案特征图像U的第i个像素的坐标为,变换后特征图像的第i个像素坐标为,特征映射为一个3×2的仿射变换函数,和的对应关系则为:
ASTN网络学会旋转特征映射,使得它更加难以识别。
最后,将这两个网络以串联的方式加进了目标检测器中,如图4所示,在RoI(感兴趣)池化之后提取的特征映射首先被输入到ASDN网络中删除一些激活,修改后的特征被ASTN进一步变形。两个对抗网络提供不同类型的信息,通过同时竞争,增强了的检测器的鲁棒性。
对于引入的对抗学习网络的损失,假设A是对抗学习网络的生成器,则A(X)为由特征X生成的一个对抗实例。显然,对抗性网络需要学会预测检测器容易误判的特征。通过以下损失函数训练这个对抗性网络:
在多任务目标检测阶段的最后预测部分,使用辅助任务的输出对模型的预测进行细化,尤其是基于区域提案的分类,整体过程参考图5。
多目标标记模型能够预测给定提案框及其周围窗口内的软类标签。颜色标记模型通过重点关注颜色特征来预测区域提案内目标的种类。检测细化的关键思想是让主任务(即目标检测器)利用上述两个辅助任务的预测,因为多目标可以为检测器提供有用的上下文信息,而颜色标记则可以提供特定于目标种类识别的特征信息,以便更好地进行分类决策。也就是说,对于目标检测器需要预测的给定提案框,多目标模型为box周围的局部和全局上下文信息提供软标签预测,而颜色标记模型特定于本次的目标检测识别,使检测器更加关注与目标相关的特定特征,提供区域提案内目标种类的预测。这里,不使用前景标记的输出,因为相比于其他两个辅助任务,前景标记没有额外的信息。
对细化进行更为深入的探讨,在常用的目标检测器中,检测头模块通过计算给定提议框一个分类结果x,通过一个softmax层后生成一个类概率y。对目标检测的细化就是利用辅助任务的输出将分类结果x进行更新,具体过程如下:
1)在多目标标记任务中,以提案框为中心创建Nr个不同尺寸大小的窗口,通过将特征图像和提案框之间的空间划分为Nr-1个均匀间隔来设置窗口尺寸大小,获取Nr窗口的多目标标签,记为,Nr为设定值;如图6所示,其中实线为提案框,虚线为不同尺寸大小的窗口,每个窗口之间的间隔都相等;
2)获得图像中所有提案的颜色标签,并计算它们的平均值,组合起来作为一个c向量表示。向量c被视为特定于目标图像的特征信息的总结,这比每个提案框使用单独的输出要好得多;
对于最后预测部分的细化损失,依旧用的交叉熵损失进行分类。为了确保精化损失对每个任务的预测器和特征提取器不造成影响,于是停止了梯度操作。也就是说,由于主任务和每个辅助任务都有自己的损失,细化损失只更新细化层的权重。
最后将总损失定义为主任务损失、辅助任务损失和细化损失之和:
对模型进行训练,更细致的来说,首先使用ImageNet预处理初始化整个多模态多任务对抗网络。之后,在区域提案阶段,利用了主辅任务的正确背景标注(GTs)对多任务网络进行联合训练。在训练过程中,将总损失定义为主任务损失、辅助任务损失和细化损失三个损失之和。其中的主任务损失包括目标检测器损失和对抗学习损失,目标检测损失又被定义为softmax loss和bbox loss之和:
其中,X表示经过所述Fast R-CNN模型的感兴趣池化层输出的高维特征,是表示目标检测器中包含的X的分类结果,表示目标检测器中对X预测的包围框位置;C表示分类标签,L表示包围框坐标标签,bg表示背景,分别表示分类损失、回归损失。
步骤4:使用训练好的模型对待识别图像进行检测识别。
将图像的RGB图像和语义图输入到训练好的模型中,提取图像的RGB特征和语义特征,将两种特征融合后输入到区域提案网络,区域提案网络给出了三个输出,一个输出作为前景标记辅助任务的输入。一个输出随机窗口,进一步进行多目标标记任务。一个输出提案框,提案框中包含的高维特征作为目标检测器和颜色标记辅助任务的输入。目标检测器中输出两条分支,一条为Bbox分支,一条为Class分支。Bbox分支用以回归计算出目标对象的包围框,Class分支用以预测出目标的类别。在Class分支中,利用辅助任务的输出结果细化Class分支的预测结果,并在共享Bbox分支中的高维特征后,计算图像中待识别目标和训练样本图像中目标的相似度值,经softmax之后选其中分数最大的那一种类别作为识别结果。
本发明实例提出了一种基于多模态多任务对抗学习的目标检测识别方法,将整个网络分成了特征提取阶段、区域提案阶段和多任务目标检测阶段三个部分。集成了多模态——特征融合、多任务学习、对抗式生成网络三种网络。在特征提取阶段,采用了多模态——特征融合的方法,输入目标的RGB图像和语义图进行特征提取,使模型对于图像中目标的位置信息更加敏感;在区域提案阶段,采用了多任务学习的方法,通过联合训练三个辅助任务来提高主任务(目标检测)的检测精度;对于目标检测器,引入了对抗学习的思想,加入了两个对抗式生成网络,用来生成多样式样本,提高模型的鲁棒性。
本发明方法的主要流程包括:准备所需的目标图像数据集,对数据集中的RGB图像进行语义标注并生成语义图;通过ImageNet预训练初始化整个多模态多任务对抗网络,再使用原始RGB图像和获取的语义图对CNN主干和特征融合网络进行训练;在区域提案阶段,辅助任务与主要任务联合训练,学习融合特征图中的共享特性,得到多模态多任务对抗学习模型;将测试的目标RGB图像和语义图输入到训练好的模型中,提取目标图像的融合特征图,检测出图中每个目标的位置坐标,共享Bbox分支中的高维特征后,识别出选取区域中目标的种类。
本发明充分利用各多模态、多任务、对抗式生成模型的优点,解决了稀疏训练样本造成的过拟合问题,利用多模态特征融合、多任务参数共享的特点,提高了图像中目标检测和识别的精度。通过对抗学习生成对抗样本,提高了不同条件下网络的鲁棒性。能够快速且准确的对图像中的目标进行检测识别,有着重要的现实意义和使用价值。
实施例2:
基于上述方法,本发明实施例还提供一种基于多模态与对抗学习的多任务目标检测识别装置,包括:
语义图获取单元:通过RGB图像目标标注与预处理,并获取对应的语义图;
识别网络构建单元:利用依次连接的多模态特征融合网络、区域提案网络以及多任务目标检测网络,构建基于多模态与对抗学习的多任务识别网络模型;
所述多模态特征融合网络是采用两个Resnet18主干CNN网络,再连接concat融合网络构成;
所述区域提案网络输出随机窗口和提案框;
所述多任务目标检测网络中的多任务包括三个辅助任务与一个主任务,其中,主任务为目标检测器,所述目标检测器采用Fast R-CNN模型,在所述Fast R-CNN模型的感兴趣池化层后引入对抗生成网络模块,三个辅助任务依次为颜色标记任务、多目标标记任务以及前景标记任务;
其中,所述随机窗口作为多目标标记任务的输入数据,所述提案框作为颜色标记任务和主任务的输入数据,所述模态特征融合网络输出的融合特征图作为前景标记任务的输入数据;
目标检测器输出两条分支,一条为Bbox分支,一条为Class分支。Bbox分支用以回归计算出目标对象的包围框,Class分支经过辅助任务细化后用以预测出目标的类别;
所述对抗生成网络模块包括依次串联的对抗空间丢弃网络子模块和对抗空间变换网络子模块;
所述对抗空间丢弃网络子模块用于生成对特征图进行遮挡的对抗样本,所述对抗空间变换网络子模块用于在目标的卷积特征空间中,对目标特征产生形变;
网络训练单元:通过设置损失函数,用于训练基于多模态与对抗学习的多任务识别网络模型;
通过对各任务和对抗生成网络设置交叉熵损失函数,并将所有交叉熵损失函数之和作为目标交叉熵损失函数;利用ImageNet预训练进行初始化后,再使用训练样本进行训练,在训练过程中,以目标交叉熵损失函数达到最小值时,获得训练好的基于多模态与对抗学习的多任务识别网络模型;
识别单元:利用训练好的基于多模态与对抗学习的多任务识别网络模型对待识别目标图像进行检测识别。
应当理解,本发明各个实施例中的功能单元模块可以集中在一个处理单元中,也可以是各个单元模块单独物理存在,也可以是两个或两个以上的单元模块集成在一个单元模块中,可以采用硬件或软件的形式来实现。
实施例3:
本发明实例还提供一种电子终端,其特征在于:至少包括:
一个或多个处理器;
一个或多个存储器;
所述处理器调用所述存储器存储的计算机程序以执行:前述一种基于多模态与对抗学习的多任务目标检测识别方法的步骤。
应当理解,具体实现过程参照实施例1的相关内容。
该终端还包括:通信接口,用于与外界设备进行通信,进行数据交互传输。譬如与运行信息采集子系统的采集设备、其他列车的通讯模块之间通讯,以获取列车本身及其相邻列车的实时运行信息。
其中,存储器可能包含高速RAM存储器,也可能还包括非易失性除颤器,例如至少一个磁盘存储器。
如果存储器、处理器和通信接口独立实现,则存储器、处理器和通信接口可以通过总线相互连接并完成相互间的通信。所述总线可以是工业标准体系结构总线,外部设备互联总线或扩展工业标准体系结构总线等。所述总线可以分为地址总线、数据总线、控制总线等。
可选的,在具体实现上,如果存储器、处理器和通信接口集成在一块芯片上,则存储器、处理器即通信接口可以通过内部接口完成相互之间的通信。
各个步骤的具体实现过程请参照前述方法的阐述。
应当理解,在本发明实施例中,所称处理器可以是中央处理单元(CentralProcessing Unit,CPU),该处理器还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据。存储器的一部分还可以包括非易失性随机存取存储器。例如,存储器还可以存储设备类型的信息。
实施例4:
本发明实施例提供一种可读存储介质,存储了计算机程序,所述计算机程序被处理器调用以实现:前述一种基于多模态与对抗学习的多任务目标检测识别方法的步骤。
应当理解,具体实现过程参照实施例1的相关内容。
所述可读存储介质为计算机可读存储介质,其可以是前述任一实施例所述的控制器的内部存储单元,例如控制器的硬盘或内存。所述可读存储介质也可以是所述控制器的外部存储设备,例如所述控制器上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述可读存储介质还可以既包括所述控制器的内部存储单元也包括外部存储设备。所述可读存储介质用于存储所述计算机程序以及所述控制器所需的其他程序和数据。所述可读存储介质还可以用于暂时地存储已经输出或者将要输出的数据。
基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的可读存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
最后应当说明的是:以上实施例仅用以说明本发明的技术方案而非对其限制,尽管参照上述实施例对本发明进行了详细的说明,所属领域的普通技术人员应当理解:依然可以对本发明的具体实施方式进行修改或者等同替换,而未脱离本发明精神和范围的任何修改或者等同替换,其均应涵盖在本发明的权利要求保护范围之内。
Claims (10)
1.一种基于多模态与对抗学习的多任务目标检测识别方法,其特征在于,包括:
步骤1:RGB图像目标标注与预处理,并获取对应的语义图;
步骤2:构建基于多模态与对抗学习的多任务识别网络模型;
所述基于多模态与对抗学习的多任务识别网络模型包括依次连接的多模态特征融合网络、区域提案网络以及多任务目标检测网络;
步骤3:设置损失函数,用于训练基于多模态与对抗学习的多任务识别网络模型;
步骤4:使用训练好的基于多模态与对抗学习的多任务识别网络模型对待识别图像中的目标物体进行检测识别;
将RGB图像和对应的语义图输入到训练好的基于多模态与对抗学习的多任务识别网络模型中,获得待识别图像中待识别目标和训练样本图像中目标的相似度值,经softmax分类之后选其中分数最大的类别作为识别结果。
2.根据权利要求1所述的方法,其特征在于,所述多模态特征融合网络是采用两个Resnet18主干CNN网络,再连接concat融合网络构成;
所述区域提案网络输出随机窗口和提案框;
所述多任务目标检测网络中的多任务包括三个辅助任务与一个主任务,其中,主任务为目标检测器,所述目标检测器采用Fast R-CNN模型,在所述Fast R-CNN模型的感兴趣池化层后引入对抗生成网络,三个辅助任务依次为颜色标记任务、多目标标记任务以及前景标记任务;
其中,所述随机窗口作为多目标标记任务的输入数据,所述提案框作为颜色标记任务和主任务的输入数据,所述多模态特征融合网络输出的融合特征图作为前景标记任务的输入数据。
3.根据权利要求2所述的方法,其特征在于,所述对抗生成网络包括依次串联的对抗空间丢弃网络和对抗空间变换网络;
所述对抗空间丢弃网络用于生成对特征图进行遮挡的对抗样本,所述对抗空间变换网络用于在目标的卷积特征空间中,对目标特征产生形变。
4.根据权利要求3所述的方法,其特征在于,所述对抗空间丢弃网络通过掩码分支对提案特征图进行掩码操作,生成对抗样本;
其中,掩码分支由两个全连接层和一个掩码子网络组成,掩码子网络包括5个串联的conv_mask卷积层,用来生成mask值,然后与输入的提案特征图结合,通过Dropout删除激活生成掩码样本;
抗空间丢弃网络的损失函数采用二进制交叉熵损失,具体如下:
其中,表示第p个提案特征图在给定输入尺寸大小为d×d的特征映射在位置(i,j)处对抗空间丢弃网络的输出结果;表示第p个提案特征图的掩码矩阵M的增广矩阵的第i行第j列所在的掩码值,n表示提案特征图数量;
所述对抗空间变换网络由本地网络、网格生成器、采样器三个部分组成;
其中,本地网络输入特征图像,经过隐藏网络层输出空间变换参数,所述隐藏网络层包括两个卷积层和两个最大池化层,以及一个3×2的仿射矩阵回归层;
所述网格生成器依据本地网络输出的变换参数,对特征映射进行变换得到采样网格;
所述采样器利用采样网格和输入的特征图,得到特征图经过变换之后的结果;
5.根据权利要求2所述的方法,其特征在于,在多目标标记任务中,以提案框为中心创建Nr个不同尺寸大小的窗口,通过将特征图和提案框之间的空间划分为Nr-1个均匀间隔来设置窗口尺寸大小,获取Nr窗口的多目标标签,记为,Nr为设定值;获得特征图中所有提案框的语义颜色标签,并计算它们的平均值,组合起来作为一个c向量表示;将主任务中分类分支输出的特征向量更新为:
所述颜色标记任务是指用于获取识别对象语义颜色,并依据语义颜色进行对象类型标记;
所述多目标标记任务是指用于获取随机包围框中各目标占所有目标数量的比例;
所述前景标记任务是指用于对整幅图像的前景区域和背景区域进行标记;
所述主任务是指用于获取对象位置以及识别对象的类型标签。
6.根据权利要求2所述的方法,其特征在于,对各任务和对抗生成网络设置交叉熵损失函数,并将所有交叉熵损失函数之和作为目标交叉熵损失函数;
通过ImageNet预训练初始化基于多模态与对抗学习的多任务识别网络模型,将训练样本放入初始化后的基于多模态与对抗学习的多任务识别网络模型中进行学习;其中,训练样本中原始RGB图像和其对应的语义图作为基于多模态与对抗学习的多任务识别网络模型的输入数据,原始RGB图像对应的目标物体标注结果作为基于多模态与对抗学习的多任务识别网络模型的输出数据;
在训练过程中使得目标交叉熵损失函数达到最小值,获得训练好的基于多模态与对抗学习的多任务识别网络模型;
8.一种基于权利要求1-7任一项所述多模态与对抗学习的多任务目标检测识别方法的装置,其特征在于,包括:
语义图获取单元:通过RGB图像目标标注与预处理,并获取对应的语义图;
识别网络构建单元:利用依次连接的多模态特征融合网络、区域提案网络以及多任务目标检测网络,构建基于多模态与对抗学习的多任务识别网络模型;
网络训练单元:通过设置损失函数,用于训练基于多模态与对抗学习的多任务识别网络模型;
识别单元:使用训练好的基于多模态与对抗学习的多任务识别网络模型对待识别图像中的目标物体进行检测识别;
通过将RGB图像和对应的语义图输入到训练好的基于多模态与对抗学习的多任务识别网络模型中,获得待识别图像中待识别目标和训练样本图像中目标的相似度值,经softmax分类之后选其中分数最大的类别作为识别结果。
9.一种电子终端,其特征在于:至少包括:
一个或多个处理器;
一个或多个存储器;
所述处理器调用所述存储器存储的计算机程序以执行:
权利要求1-7任一项所述一种基于多模态与对抗学习的多任务目标检测识别方法的步骤。
10.一种可读存储介质,其特征在于:存储了计算机程序,所述计算机程序被处理器调用以实现:
权利要求1-7任一项所述一种基于多模态与对抗学习的多任务目标检测识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210534762.4A CN114821014A (zh) | 2022-05-17 | 2022-05-17 | 基于多模态与对抗学习的多任务目标检测识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210534762.4A CN114821014A (zh) | 2022-05-17 | 2022-05-17 | 基于多模态与对抗学习的多任务目标检测识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114821014A true CN114821014A (zh) | 2022-07-29 |
Family
ID=82515529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210534762.4A Pending CN114821014A (zh) | 2022-05-17 | 2022-05-17 | 基于多模态与对抗学习的多任务目标检测识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821014A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240075A (zh) * | 2022-09-22 | 2022-10-25 | 山东大学 | 电力视觉多粒度预训练大模型的构建与训练方法 |
CN115661780A (zh) * | 2022-12-23 | 2023-01-31 | 深圳佑驾创新科技有限公司 | 一种交叉视角下的摄像头目标匹配方法、装置及存储介质 |
CN116052006A (zh) * | 2023-03-29 | 2023-05-02 | 山东建筑大学 | 基于多任务学习与对偶彩票假说的建筑物边缘优化方法 |
CN117274656A (zh) * | 2023-06-06 | 2023-12-22 | 天津大学 | 基于自适应深度监督模块的多模态模型对抗训练方法 |
-
2022
- 2022-05-17 CN CN202210534762.4A patent/CN114821014A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115240075A (zh) * | 2022-09-22 | 2022-10-25 | 山东大学 | 电力视觉多粒度预训练大模型的构建与训练方法 |
CN115240075B (zh) * | 2022-09-22 | 2022-12-13 | 山东大学 | 电力视觉多粒度预训练大模型的构建与训练方法 |
CN115661780A (zh) * | 2022-12-23 | 2023-01-31 | 深圳佑驾创新科技有限公司 | 一种交叉视角下的摄像头目标匹配方法、装置及存储介质 |
CN116052006A (zh) * | 2023-03-29 | 2023-05-02 | 山东建筑大学 | 基于多任务学习与对偶彩票假说的建筑物边缘优化方法 |
CN117274656A (zh) * | 2023-06-06 | 2023-12-22 | 天津大学 | 基于自适应深度监督模块的多模态模型对抗训练方法 |
CN117274656B (zh) * | 2023-06-06 | 2024-04-05 | 天津大学 | 基于自适应深度监督模块的多模态模型对抗训练方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109344701B (zh) | 一种基于Kinect的动态手势识别方法 | |
CN110298404B (zh) | 一种基于三重孪生哈希网络学习的目标跟踪方法 | |
CN108280397B (zh) | 基于深度卷积神经网络的人体图像头发检测方法 | |
CN114821014A (zh) | 基于多模态与对抗学习的多任务目标检测识别方法及装置 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN111814661B (zh) | 基于残差-循环神经网络的人体行为识别方法 | |
Aung et al. | Face detection in real time live video using yolo algorithm based on Vgg16 convolutional neural network | |
CN110633632A (zh) | 一种基于循环指导的弱监督联合目标检测和语义分割方法 | |
CN104517103A (zh) | 一种基于深度神经网络的交通标志分类方法 | |
Chen et al. | Research on recognition of fly species based on improved RetinaNet and CBAM | |
CN110555420B (zh) | 一种基于行人区域特征提取和重识别融合模型网络及方法 | |
CN111783576A (zh) | 基于改进型YOLOv3网络和特征融合的行人重识别方法 | |
CN111291809A (zh) | 一种处理装置、方法及存储介质 | |
CN112861917B (zh) | 基于图像属性学习的弱监督目标检测方法 | |
Zhao et al. | Real-time pedestrian detection based on improved YOLO model | |
Barodi et al. | An enhanced artificial intelligence-based approach applied to vehicular traffic signs detection and road safety enhancement | |
Li et al. | Fast recognition of pig faces based on improved Yolov3 | |
Yeh et al. | Intelligent mango fruit grade classification using alexnet-spp with mask r-cnn-based segmentation algorithm | |
CN117437691A (zh) | 一种基于轻量化网络的实时多人异常行为识别方法及系统 | |
CN112949510A (zh) | 基于Faster R-CNN热红外影像人物探测方法 | |
Akanksha et al. | A Feature Extraction Approach for Multi-Object Detection Using HoG and LTP. | |
CN116872961A (zh) | 用于智能驾驶车辆的控制系统 | |
Chuang et al. | Deep learning‐based panoptic segmentation: Recent advances and perspectives | |
CN116740516A (zh) | 基于多尺度融合特征提取的目标检测方法及系统 | |
CN116596966A (zh) | 一种基于注意力和特征融合的分割与跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |