CN113971815A - 基于奇异值分解特征增强的少样本目标检测方法 - Google Patents

基于奇异值分解特征增强的少样本目标检测方法 Download PDF

Info

Publication number
CN113971815A
CN113971815A CN202111266049.8A CN202111266049A CN113971815A CN 113971815 A CN113971815 A CN 113971815A CN 202111266049 A CN202111266049 A CN 202111266049A CN 113971815 A CN113971815 A CN 113971815A
Authority
CN
China
Prior art keywords
feature
target detection
feature map
network
characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111266049.8A
Other languages
English (en)
Inventor
杨延华
孙娜
武阿明
杨木李
王宇宣
邓成
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN202111266049.8A priority Critical patent/CN113971815A/zh
Publication of CN113971815A publication Critical patent/CN113971815A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于奇异值分解特征增强的少样本目标检测方法,解决了少样本目标检测方法的泛化性和判别性较差的问题。实现包括:获取目标检测图像数据集;对训练样本集图像进行特征提取;构建特征增强模块对提取特征进行增强;RPN模块生成候选框区域并进行RoI对齐;对两种特征图融合形成特征融合层;目标物体的边框定位与分类;对改进后的Faster R‑CNN网络进行训练;对待检测图像进行目标检测。本发明提出了特征增强模块、特征融合层和Lkl损失函数三个部分,学习到图像更本质的特征和在高维空间的判别信息,使特征具有很好的泛化性和判别性,有效提高了少样本目标检测的定位与分类精度,可用于机器人导航、智能视频监控等领域。

Description

基于奇异值分解特征增强的少样本目标检测方法
技术领域
本发明属于计算机视觉图像检测技术领域,特别涉及图像的少样本目标检测,且具体是一种基于奇异值分解特征增强的少样本目标检测方法,可用于机器人导航、智能视频监控等领域。
背景技术
目标检测是一种基于目标几何和统计特征的图像分割,它可以同时对目标进行定位和识别。现有的目标检测方法主要分为两类:基于RPN的两阶段方法和基于SSD和YOLOv1/v2/v3的单阶段方法。基于RPN的两阶段方法专注于提高目标检测的精度,比如RCNN、Fast-RCNN、Faster-RCNN、Mask RCNN等。基于SSD和YOLOv1/v2/v3的单阶段方法专注于提高目标检测的速度,比如RetinaNet的端到端方法等。
Shaoqing Ren和Kaiming He等人在2016年的Computer Vision and PatternRecognition会议上发表的名为“Faster R-CNN:Towards Real-Time Object Detectionwith Region Proposal Networks”,其数据处理流程是,第一步将数据输入特征提取网络之中得到提取到的特征图;第二步是将提取到的特征输入RPN模块生成候选框区域;第三步是将生成的候选框区域通过RoI对齐层对齐;第四步是将对齐后的特征图输入边框回归器和分类器对目标进行定位与分类。
但是现有的目标检测任务都依赖于大量的标注图像进行训练,在实际应用中收集和标注样本费时费力且代价昂贵,限制了目标检测在一些场景下的应用和推广。
少样本目标检测就是利用极少的标签数据学习具有一定泛化能力的模型,从而解决现有目标检测的问题。当前,已有研究人员发现将基于微调的方法应用于少样本目标检测,例如,Xin Wang和Thomas E Huang等人在2020年的International Conference onMachine Learning会议上发表的名为“Frustratingly Simple Few-Shot ObjectDetection”文章,公开了一种基于微调的少样本目标检测,该方法分为两个阶段,第一阶段是利用大量的基类标注样本对常用的目标检测网络(如Faster-RCNN)进行训练,网络的损失函数由三部分构成:RPN网络损失、分类损失和边框回归损失;第二阶段是基于少样本图像的微调,将新类随机初始化的权值分配给分类和回归预测网络,在固定特征提取器网络参数的情形下微调预测网络,即微调目标检测网络模型的最后一层。
尽管现有的目标检测方法在图像的定位与分类方面取得了良好的性能,但在仅有少量标注图像的情形下目标检测仍存在很大挑战,因此促进了少样本目标检测的发展。但在现有的少样本目标检测方法中,在特征提取中提取到的特征难以泛化,并且判别能力较弱,学习到的模型不具有很好的泛化性和判别性,难以将图像中的目标精准分类与定位。
发明内容
本发明的目的在于克服上述技术存在的不足,提出了一种显著提高目标检测定位与分类精度的基于奇异值分解特征增强的少样本目标检测方法。
本发明是一种基于奇异值分解特征增强的少样本目标检测方法,其特征在于,包括如下步骤:
(1)获取目标检测的图像数据集:图像数据集包括训练样本集和测试样本集,少样本目标检测的常用数据集为PASCAL VOC和COCO数据集,对数据集具体操作如下:
1.1)获取训练样本集:VOC数据集总共有20个类别,其中随机选取15类被划分为基类,基类含有丰富的带标签样本,另外5类被划分为新类,新类含有少数带标签的样本,将VOC2007和VOC2012的训练集和验证集合并作为训练样本集;COCO数据集总共有80个类别,其中与VOC数据集重合的20类被划分为新类,另外60类被划分为基类,将COCO2014训练集作为训练样本集;
1.2)获取测试样本集:待检测的目标检测图像数据从新类中选取,将VOC2007测试集作为测试样本集;将COCO2014验证集作为测试样本集;
(2)对训练样本集中的图像进行特征提取:基于Faster R-CNN的网络,将训练样本集中的图像输入在ImageNet数据集上预训练的ResNet-101网络进行特征提取,该网络中第3个阶段卷积的输出作为特征图F输出,该特征图的矩阵输出维数为1024维;
(3)构建特征增强模块,对提取的特征进行增强:所构建的特征增强模块具体是,对提取到的特征图进行特征增强,针对提取到的特征图通过奇异值分解并学习得到泛化特征图E和判别特征图D,同时基于字典学习从判别特征图学习到高级的判别信息;
(4)RPN模块生成候选框区域:将泛化特征图E输入RPN模块进行分类及粗略的边框回归,将候选框分为两类:前景和背景;利用分类的概率值执行非最大值抑制进行初始边框回归,输出生成的候选框区域P;
(5)候选框区域进行RoI对齐:对生成的候选框区域P进行RoI对齐,将每个候选框区域特征图P输入RoI对齐层得到一个7×7特征图的输出,得到经RoI对齐后的特征图;
(6)对两种特征图进行融合,形成特征融合层:将生成的候选框区域特征图P用字典学习中的码字集进行编码表示,表示为Rep,再将表示Rep与生成的候选框区域特征图P通过RoI对齐层进行对齐,对齐后将两者进行特征融合;将对齐后的生成的候选框区域特征图P与字典学习学习到的融合关系表示X两者进行特征融合;对上述两种特征图的特征融合均是通过矩阵拼接的方式进行融合,形成特征融合层,得到具有融合特征的泛化特征图和判别特征图;
(7)目标物体的边框定位与分类:将上述网络处理得到的信息与训练样本集标签信息输入边框回归器和分类器,得到目标物体的边框定位与分类结果,得到改进后的Faster R-CNN网络;
7.1)目标物体的边框定位:将RPN模块初始边框回归的信息与标签真实边框信息输入边框回归器,得到目标物体边框的精确回归结果;
7.2)对融合后的特征图利用Lkl损失函数约束分类结果:对具有融合特征的泛化特征图和判别特征图分别对应性输入泛化特征分类器和判别特征分类器进行类别预测,得到各自的分类结果,分类器约束损失函数Lkl对两个分类器进行约束,得到改进后的Faster R-CNN网络;
(8)对改进后的Faster R-CNN网络进行训练:将训练样本集的数据输入改进后的Faster R-CNN网络中,通过最小化损失函数实现网络的最优化:
8.1)对网络进行初始化:使用ImageNet数据集上预训练的ResNet-101网络参数对网络进行初始化,得到初始化的ResNet-101网络;
8.2)设置整体网络的损失函数:整体改进后的Faster R-CNN网络的损失函数L为:L=Lcls+Lloc+Lrpn+λLkl,Lcls是分类器的交叉熵损失函数,Lloc是边框回归的定位损失函数,Lrpn是RPN模块的前景背景分类损失函数,Lkl作为插件插入现有的各种少样本目标检测的损失函数,其中λ是Lkl的权重系数,取值为0-1;
8.3)执行训练:返回步骤(1),将经过步骤(1)获取的训练样本集的图像及对应的标签信息输入初始化ResNet-101网络,输出提取到的特征图,对特征图进行奇异值分解得到对应的泛化特征图和判别特征图,并对判别特征图进行字典学习,将泛化特征图通过RPN模块实现初始边框回归和生成候选框区域,通过RoI对齐层将两种特征图分别进行融合,输入边框回归器与分类器,对两个分类器做一个KL损失约束,对损失函数L最小化实现对整个网络的训练,且在训练网络时采用深度学习工具箱PyTorch中的SGD优化器,其动量为0.9,衰减权重为0.0001;
8.4)训练过程中采用两级微调的方式对网络进行优化,首先使用训练样本集中的基类对整个网络进行训练,再使用平衡的新类和基类微调分类器,新类与基类样本数量一致,分类器使用随机初始化,得到一个最优化的改进后的Faster R-CNN网络;
(9)对待检测的图像进行目标检测:从测试样本集中选取新类的待检测图像,将待检测图像输入到训练好的ResNet-101网络中,得到待检测图像特征;将待检测图像特征输入到训练好的特征增强模块,输出待检测图像的泛化特征图和判别特征图;将泛化特征图和判别特征图输入RPN模块、RoI对齐层和特征融合层,通过边框回归器和分类器,实现待检测图像的目标定位与分类。
本发明解决了现有少样本目标检测中的因为提取到的特征代表性不强以及泛化性、判别性较弱使得定位与分类精度不够高的问题。
本发明与现有技术相比,具有如下优点:
提高特征图的泛化性和判别性:本发明提出了基于奇异值分解的特征增强模块,通过对现有的少样本目标检测提取到的特征进行奇异值分解,分解后的较大的奇异值及其对应的特征向量学习泛化特征图,分解后的较小的奇异值及其对应的特征向量学习判别特征图,并基于字典学习从判别特征图学习到高级判别信息,改善了现有方法特征提取的代表性,提高了增强后特征图的泛化性和判别性。
明显提高图像的定位与分类精度:本发明借助特征增强模块,可以学习到图像更本质的特征和在高维空间的判别信息,通过特征融合层对增强特征进行融合,有效提高了少样本目标检测的定位与分类性能。
特征增强模块、特征融合层和Lkl损失函数即插即用:本发明可看作一个插件,通过将特征增强模块、特征融合层和Lkl损失函数插入现有的少样本目标检测方法之中,实现明显提升图像的目标检测性能的效果。
附图说明:
图1是本发明的流程框图;
图2是本发明的数据处理流程图;
图3-a-图3-e是现有方法MPSR的在不同K取值下的检测结果图,其中图3-a是K=1时的检测结果图,图3-b是K=2时的检测结果图,图3-c是K=3时的检测结果图,图3-d是K=5时的检测结果图,图3-e是K=10时的检测结果图;
图4-a-图4-e是现有方法FSCE的在不同K取值下的检测结果图,其中图4-a是K=1时的检测结果图,图4-b是K=2时的检测结果图,图4-c是K=3时的检测结果图,图4-d是K=5时的检测结果图,图4-e是K=10时的检测结果图;
图5-a-图5-e是本发明与MPSR结合在不同K取值下的检测结果图,其中图5-a是K=1时的检测结果图,图5-b是K=2时的检测结果图,图5-c是K=3时的检测结果图,图5-d是K=5时的检测结果图,图5-e是K=10时的检测结果图。
具体实施方案
以下结合附图和具体实施例,对本发明详细描述:
实施例1
现有的少样本目标检测方法中,由于样本数量少,提取到的特征不能很好的代表这一类别的特征,学习到的模型泛化性和判别性较差。本发明针对上述问题展开研究,提供了一种基于奇异值分解特征增强的少样本目标检测方法。
本发明是一种基于奇异值分解特征增强的少样本目标检测方法,参见图1,图1是本发明的流程框图,本发明的基于奇异值分解特征增强的少样本目标检测方法包括如下步骤:
(1)获取目标检测的图像数据集:图像数据集包括训练样本集和测试样本集,少样本目标检测的常用数据集为PASCAL VOC和COCO数据集,对数据集具体操作如下:
1.1)获取训练样本集:VOC数据集总共有20个类别,其中随机选取15类被划分为基类,基类含有丰富的带标签样本,另外5类被划分为新类,新类含有少数带标签的样本,将VOC2007和VOC2012的训练集和验证集合并作为训练样本集,合计11,530张图像;COCO数据集总共有80个类别,其中与VOC数据集重合的20类被划分为新类,另外60类被划分为基类,将COCO2014训练集作为训练样本集,合计82,783张图像。
1.2)获取测试样本集:待测的目标检测图像数据从新类中选取,将VOC2007测试集作为测试样本集,合计4,952张图像;将COCO2014验证集作为测试样本集,合计40,775张图像。
上述VOC和COCO数据集中的图像,含有丰富的标签信息,其中包含有真实的分类信息和精确的目标边框位置信息。
(2)对训练样本集中的图像进行特征提取:基于Faster R-CNN的网络,将在ImageNet数据集上预训练的ResNet-101网络参数赋初值给ResNet-101网络,实现ResNet-101网络的初始化,其中ResNet-101网络为Faster R-CNN网络的特征提取部分的网络模型。将训练样本集中的图像输入初始化后的ResNet-101网络进行特征提取,将该初始化后的ResNet-101网络中第3个阶段卷积的输出作为特征图F输出,该特征图F就是提取的特征图,该特征图的矩阵输出维数为1024维。
(3)构建特征增强模块,对提取的特征进行增强:本发明所构建的特征增强模块具体是,将提取到的1024维特征图进行特征增强,针对提取到的特征图进行奇异值分解,较大的奇异值及对应的特征向量学习泛化特征图E,较小的奇异值及对应的特征向量学习判别特征图D,得到的两个特征图的尺寸与维度输入特征图一样。利用无监督聚类的思想,基于字典学习学习到判别特征图D的高级判别信息。也就是利用判别特征图进行了字典学习,学习到了字典学习的码字集C和融合关系表示X。
本发明的特征增强模块输入为ResNet-101网络提取到的特征,具体为1024维的特征图的矩阵输出。特征增强模块输出为泛化特征图、判别特征图、字典学习的码字集C和融合关系表示X。在特征增强模块中,实现了对提取特征的增强。
(4)RPN模块生成候选框区域:RPN是一个全卷积神经网络,可输入任何大小的输入,其输出是一系列矩形的带有概率值的候选框区域。将泛化特征图E输入RPN模块进行分类及粗略的边框回归,先进行3×3卷积,得到RPN分类和初始边框回归的共享特征图。在不关心目标类别的条件下将候选框分为两类:前景和背景,候选框的中心点称之为锚点。使用1×1的卷积操作,分别得到通道数为18的类别概率图和类别数为36的位置回归图。利用分类的概率值执行非最大值抑制进行边框回归,得到目标物体的位置信息,并输出其中概率值前2,000的区域,即为生成的候选框区域P,其中候选框区域包含了目标位置的边框信息。通常IoU阈值选为0.7,阈值的选取可以调整,主要与数据集相关。
(5)候选框区域进行RoI对齐:上述生成的候选框区域,是一个锚点同时生成1:1,1:2,2:1,2:2不同比例的区域,因此需要对生成的候选框区域进行RoI对齐。具体是将每个候选框区域特征图P输入RoI对齐层得到一个7×7特征图的输出,得到RoI对齐后的特征图。将对齐后的特征图再输入到ResNet-101网络第四个卷积层,通过一个3×3卷积得到全局平均池化的向量,用于后续的图像分类与回归。
(6)对两种特征图进行融合,形成特征融合层:将生成的候选框区域特征图P用字典学习中的码字集进行编码表示,表示为Rep,再将表示Rep与生成的候选框区域特征图P通过RoI对齐层进行对齐,对齐后将两者进行特征融合。将对齐后的生成的候选框区域特征图P与字典学习学习到的融合关系表示X两者进行特征融合。对上述两种特征图的特征融合均是通过矩阵拼接的方式进行融合,形成特征融合层,得到具有融合特征的泛化特征图和判别特征图。
换句话说,将用字典学习表示的候选框区域特征图P融入候选框区域P,使泛化特征图具有高级判别信息。通过卷积操作将RoI对齐后的泛化特征图融入具有高级判别信息的融合关系表示,使判别特征图具有泛化性。并对两种特征图分别通过矩阵拼接的方式实现特征融合,得到具有融合特征的两种特征图。
本步骤说明了本发明如何将增强后的特征图与原有的方法的边框回归器与分类器结合起来。
本发明中从步骤(2)到步骤(6)进行了网络处理以及一系列数据处理,得到目标的初始边框信息和具有融合特征的特征图。
(7)得到目标物体的边框定位与分类:将上述网络处理得到的边框回归信息、两种特征图与训练样本集标签信息输入边框回归器和分类器,其中边框回归器和分类器是目标检测中的常用模块,训练样本集标签信息包含目标物体的真实分类结果与精确的边框位置信息,由此得到目标物体的边框定位与分类结果,得到改进后的Faster R-CNN网络。包括如下步骤:
7.1)目标物体边框定位:将RPN模块边框回归的信息与标签真实边框信息输入边框回归器,得到目标检测边框的精确回归结果。
7.2)对融合后的特征图利用Lkl损失函数约束分类结果:为保证融合后的特征图输入分类器之后,使用SGD优化器训练优化时结果是收敛的,需要对两种特征图对应的分类器的结果作KL损失函数约束,使得两个分类器具有相同的分布,即输入同一张图像时,两个分类器有相同的类别预测结果。具体步骤是,对步骤(6)得到的具有融合特征的泛化特征图和判别特征图分别对应性输入泛化特征分类器和判别特征分类器进行类别预测,得到各自的分类结果,分类器约束损失函数Lkl对两个分类器进行约束,最终得到改进后的Faster R-CNN网络。
(8)对改进后的Faster R-CNN网络进行训练:将训练样本集的数据输入改进后的Faster R-CNN网络中,通过最小化损失函数L实现网络的最优化:
8.1)对网络进行初始化:使用ImageNet数据集上预训练的ResNet-101网络参数对网络进行初始化,得到初始化的ResNet-101网络。
8.2)设置整体网络的损失函数:整体改进后的Faster R-CNN网络的损失函数L为:L=Lcls+Lloc+Lrpn+λLkl,其中Lcls、Lloc、Lrpn均是Faster R-CNN网络中目标检测中常用的损失函数,具体计算方式同需要插入的少样本目标检测方法中的计算方式,Lcls是分类器的交叉熵损失函数,Lloc是边框回归的定位损失函数,Lrpn是RPN模块的前景背景分类损失函数,Lkl是分类器约束损失函数,Lkl作为插件插入现有的各种少样本目标检测的损失函数,其中λ是Lkl的权重系数,取值为0-1。
8.3)执行训练:返回步骤(1),将经过步骤(1)获取的训练样本集的图像及对应的标签信息输入初始化ResNet-101网络,输出提取到的特征图,对特征图进行奇异值分解得到对应的泛化特征图和判别特征图,并对判别特征图进行字典学习,将泛化特征图通过RPN模块实现初始边框回归和生成候选框区域,通过RoI对齐层将两种特征图分别进行融合,输入边框回归器与分类器,对两个分类器计算Lkl约束损失函数,对损失函数L最小化实现对整个网络的训练,且在训练网络时采用深度学习工具箱PyTorch中的SGD优化器,其动量为0.9,衰减权重为0.0001。
8.4)训练过程中采用两级微调的方式对网络进行优化,首先使用训练样本集中的基类对整个网络进行训练,再使用平衡的新类和基类微调分类器,平衡指新类与基类样本数量一致,分类器使用服从高斯分布的随机初始化值,微调以后得到一个最优化的改进后的Faster R-CNN网络。
(9)对待检测的图像进行目标检测:从测试样本集中选取新类的待检测图像,将待检测图像输入到训练好的ResNet-101网络中,得到待检测图像特征;将待检测图像特征输入到训练好的特征增强模块,输出待检测图像的泛化特征图和判别特征图;将泛化特征图和判别特征图输入RPN模块、RoI对齐层和特征融合层,通过边框回归器和分类器,实现待检测图像的目标定位与分类。
本发明给出了一个实现基于奇异值分解特征增强的少样本目标检测方法的整体技术方案。
在现有的少样本目标检测方法之中,提取到的特征不能很好的代表这一类别的特征,因此学习到的模型泛化性和判别性较差。
本发明的技术思路是,通过对特征提取网络提取到的特征进行奇异值分解实现特征增强,对较大的奇异值及其对应的特征向量学习泛化性特征,对较小的奇异值及其对应的特征向量学习判别性特征,同时使用字典学习从判别特征图学习到高级的判别信息,并对增强后的特征进行融合。
本发明具体方案为:获取目标检测的图像数据集;通过ResNet-101网络对训练样本集中的图像进行特征提取;构建特征增强模块,通过奇异值分解的思路对提取到的特征进行特征增强,得到泛化特征图和判别特征图;通过RPN模块生成候选框区域;对候选框区域进行RoI对齐;对增强后的两种特征图进行融合,形成特征融合层;目标物体的边框定位与分类;对改进后的Faster R-CNN网络进行训练;对待检测的图像进行目标检测。从而解决了少样本目标检测中泛化能力和判别能力弱的问题,明显提高了目标检测定位与分类的精度。
实施例2
基于奇异值分解特征增强的少样本目标检测方法同实施例1,步骤(3)中所述的构建特征增强模块,进行特征增强包括有如下步骤:
3.1)对特征图进行奇异值分解:将步骤(2)提取到的特征图F,
Figure BDA0003327028690000091
重新调整为
Figure BDA0003327028690000092
对调整后的特征图F进行奇异值分解,得到
Figure BDA0003327028690000093
其中U是奇异值分解后的左奇异矩阵,
Figure BDA0003327028690000094
V是奇异值分解后的右奇异矩阵,
Figure BDA0003327028690000095
U与V属于正交的酉矩阵,Σ是对角线奇异值按大小排序的m×n的对角阵,其维度为2k,m是特征图F的通道数,ω是特征图F的宽度,h是特征图F的高度,n是调整后特征图F的维度,n=ω×h。
3.2)学习泛化特征图:选取奇异值分解后的对角阵Σ的前k个奇异值与其对应的特征向量计算
Figure BDA0003327028690000096
G为计算特征图过程中的一个中间变量,G与F进行矩阵加法操作得到泛化特征图E,具体过程如下:
Figure BDA0003327028690000097
E=G+F
其中,Um×k是矩阵U的前k列,
Figure BDA0003327028690000098
是矩阵VT的前k行,Σk×k是一个k×k的矩阵,E是增强后的泛化特征图,
Figure BDA0003327028690000101
后续调整为E输入RPN模块,
Figure BDA0003327028690000102
3.3)学习判别特征图:选取奇异值分解后的Σ的剩余k个奇异值与其对应的特征向量去计算判别特征图D,
Figure BDA0003327028690000103
方法同3.2。
3.4)基于字典学习从判别特征图学习到高级的判别信息,定义一个码字集
Figure BDA0003327028690000104
其包含Q个码字,判别特征图D中的每个列向量
Figure BDA0003327028690000105
为每个码字分配一个权重aij,残差向量被定义为rij=di-cj,其中i=1,2,…,n,具体过程如下:
Figure BDA0003327028690000106
其中,sj表示对应码字cj的可学习平滑因子,字典学习的输出是一个固定长度融合关系表示X,意味着融合判别特征图D与码字集C,
Figure BDA0003327028690000107
通过字典学习,学习得到了码字集C和融合关系表示X,他们包含了高级的判别信息。
针对现有少样本目标检测中的特征提取部分,提取到的特征不具有代表性,使得学习到的模型在少样本目标检测中表现不佳。因此,本发明提出了基于奇异值分解的特征增强模块,借助特征增强模块,可以学习到图像更本质的特征和在高维空间的判别信息,通过对现有的少样本目标检测提取到的特征进行奇异值分解,分解后的较大的奇异值及其对应的特征向量学习得到泛化特征图,分解后的较小的奇异值及其对应的特征向量学习得到判别特征图,并基于字典学习从判别特征图学习得到高级的判别信息,改善了现有特征提取的代表性,提高了增强后特征图的泛化性和判别性。
实施例3
基于奇异值分解特征增强的少样本目标检测方法同实施例1-2,步骤(6)中所述的对两种特征图进行融合,形成特征融合层,包括有如下步骤:
6.1)泛化特征图融合高级判别信息:将生成的候选框区域特征图P用字典学习学习到的码字集进行编码表示,表示为Rep,再将表示Rep与生成的候选框区域特征图P通过RoI对齐层进行对齐,对齐后将两者通过矩阵拼接的方式实现特征融合,得到具有融合特征的泛化特征图[φ(P),φ(Rep)],表示过程如下:
Figure BDA0003327028690000111
其中,ψ是将特征图P映射到字典空间的一层全连接层,p是P的特征子图,所有
Figure BDA0003327028690000112
构成了
Figure BDA0003327028690000113
z表示候选框区域P的数量,o表示候选框区域P的尺寸,φ表示RoI对齐层,是一个两层全连接层。
6.2)判别特征图融合泛化性:将对齐后的生成的候选框区域特征图P与字典学习学习到的融合关系表示X两者进行特征融合;将步骤(4)得到的候选框区域P通过RoI对齐层对齐,同时将字典学习学习到的融合关系表示X输入单层卷积层,将两者的结果通过矩阵拼接的方式实现特征融合,得到具有融合特征的判别特征图[φ(P),ωcX+bc],其中,φ表示RoI对齐层,是一个两层全连接层,ωc、bc表示卷积层的权重与偏差,是一个可学习的参数,[,]表示矩阵拼接。
参见图2,本发明在进行了泛化特征图融合高级判别信息和判别特征图融合泛化性之后,得到特征融合层。
本发明针对增强之后的特征,采用何种方法将它与现有的目标检测数据处理流程融合,也是一个需要解决的技术问题。本发明借助矩阵拼接的方法,将增强后的特征图通过RPN模块生成候选框区域,将得到的两种特征图通过RoI对齐层,对齐后借助矩阵拼接的方法,成功实现了特征的融合,融合后的特征具有较好的泛化性和判别性。
本发明中融合关系表示X是在字典学习中的约束项,将判别特征图D与码字集C之间建立起联系,同时学习到码字集C。Rep是将对齐后候选框区域P映射到字典中,将其用编码集中的码字表示出来,是一种编码表示。本发明通过特征融合层对特征进行融合,有效提高了少样本目标检测的定位与分类性能。
实施例4
基于奇异值分解特征增强的少样本目标检测方法同实施例1-3,步骤(7.2)中所述的对融合后的特征图利用Lkl损失函数约束分类结果,包括有如下步骤:
7.2.1)具有融合特征的泛化特征图分类:将融合后的特征经过RoI对齐层对齐,输入泛化特征分类器中,即可预测目标的分类结果,分类函数yrep如下:
yrep=cls([φ(P),φ(Rep)])
其中,φ表示RoI对齐层,Rep是候选框区域P用字典学习的编码表示,'cls'表示分类器网络。
7.2.2)具有融合特征的判别特征图分类:将融合后的特征输入判别特征分类器中,即可预测目标的分类结果,分类函数y如下:
y=cls([φ(P),ωcX+bc])
其中,φ表示RoI对齐层,ωc、bc表示卷积层的权重与偏差,是一个可学习的参数,'cls'表示分类器网络。
7.2.3)利用Lkl损失函数约束分类结果:为保证两种思路得到的分类器具有相同的分布,两个分类器之间权重共享,并利用Lkl损失函数对两个分类损失函数进行约束,Lkl损失约束函数的计算公式如下:
Lkl=∑yrep(logyrep-logy)
其中,yrep表示泛化特征分类器的预测分类结果,y表示判别特征分类器的预测分类结果。
也就是说,对特征融合层中的具有融合特征的泛化特征图和判别特征图分别对应性输入泛化特征分类器和判别特征分类器进行类别预测,得到各自的分类结果,分类器约束损失函数Lkl对两个分类器进行约束。
经过目标检测边框定位和约束分类,最终得到改进后的Faster R-CNN网络。
针对融合之后的两种特征图,本发明采用了Lkl损失函数对两种特征图对应的分类器的分类损失函数进行约束,使得两个分类器之间权重共享,保证两种特征图对应的分类器具有相同的分布,监督特征增强模块和特征融合模块。
在仅有少量带标签样本的情形下,本发明学习到图像的更本质的特征和在高维空间的判别信息,使得学习到的特征具有很好的泛化性和判别性,在少样本目标检测中,显著提高了目标检测的分类与定位的精度,具有广泛的应用前景。
实施例5
基于奇异值分解特征增强的少样本目标检测方法同实施例1-4,本发明还是一种基于奇异值分解特征增强的少样本目标检测方法的即插即用方法。分类器约束损失函数Lkl作为插件插入现有的各种少样本目标检测的损失函数中,在现有的目标检测流程中,将基于奇异值分解特征增强的少样本目标检测方法与现有的方法结合,将特征增强模块、特征融合层和Lkl损失函数插入现有的方法中,实现更为精确的目标检测分类与定位,包括有如下步骤:
步骤A:现有的目标检测流程是,第一步将数据输入特征提取网络之中得到提取到的特征图;第二步是将提取到的特征输入RPN模块生成候选框区域;第三步是将生成的候选框区域通过RoI对齐层对齐;第四步是将对齐后的特征图输入边框回归器和分类器对目标进行定位与分类。
步骤B:将基于奇异值分解特征增强的少样本目标检测方法的特征增强模块引入现有的目标检测流程之中,在现有的目标检测流程的第一步与第二步之间插入特征增强模块,对提取到的特征图进行特征增强。
步骤C:将基于奇异值分解特征增强的少样本目标检测方法的特征融合层引入现有的目标检测流程之中,在现有的目标检测流程的第三步与第四步之间插入特征融合层,将增强以后的特征分别进行融合。
步骤D:将基于奇异值分解特征增强的少样本目标检测方法的Lkl损失函数插入现有的目标检测流程之中,将Lkl插入原有目标检测网络损失函数之中,通过Lkl损失函数实现提升目标检测分类与定位精度的效果。
本发明可以作为一个插件,与其他少样本目标检测方法结合,即插即用,改善其他方法的定位与分类精度。针对本发明提出的特征增强模块、特征融合层和Lkl损失函数,可与现有的少样本目标检测的方法相结合,改善现有方法的目标检测精度。通过将特征增强模块、特征融合层和Lkl损失函数插入现有的方法中,实现更为精确的目标检测分类与定位。
下面给出一个详细的例子,对本发明进一步说明:
实施例6
基于奇异值分解特征增强的少样本目标检测方法同实施例1-5,参照图2,本发明基于奇异值分解特征增强的少样本目标检测方法,将其与MPSR结合,其具体实现步骤包括如下:
步骤1,获取目标检测的图像数据集。
少样本目标检测的常用数据集为PASCAL VOC和COCO数据集,具体设置如下:
1.1)VOC数据集总共有20个类别,其中随机选取15类被划分为基类,基类含有丰富的带标签样本,另外5类被划分为新类,新类含有少数带标签的样本,具体使用VOC2007和VOC2012的训练集和验证集作为训练样本集,使用VOC2007测试集测试,其中对于每个新类带标签样本数量K设置为1,2,3,5,10,同时基类和新类的随机划分遵循现有少样本目标检测任务设置,并分别命名为划分1、划分2、划分3;
1.2)COCO数据集总共有80个类别,其中与VOC数据集重合的20类被划分为新类,另外60类被划分为基类,并使用COCO2014验证集中的5,000张图像作为测试样本集,其中新类带标签样本数量K设置为10,30。
1.3)新类的随机选取及划分标准同现有的各种少样本目标检测任务设置,上述提及的数据集可从对应的官网进行下载,注意下载的版本要与本发明中提到的一致,不同版本的数据集划分存在细微差别。
步骤2,对训练样本集中的图像进行特征提取。
基于MPSR方法中增加了强化分支的Faster R-CNN的网络,在MPSR方法中,相较于Faster R-CNN网络,增加了强化分支,利用多尺度的目标物体的真实边框信息增加前景的样本数量,因此增加了各种尺度目标物体的检测精度。特征提取的具体步骤是,将训练样本集中的图像输入在ImageNet数据集上预训练的ResNet-101网络进行特征提取,选取该网络中第3个阶段卷积的输出作为特征图F输出,该特征图的矩阵输出维数为1024维。
步骤3,构建特征增强模块,对提取的特征进行增强。
对上述经过特征提取网络得到的特征进行特征增强,针对提取到的特征图通过奇异值分解并学习泛化特征图E和判别特征图D,同时基于字典学习从判别特征图学习到高级的判别信息。
3.1)对特征图进行奇异值分解。具体是将步骤2提取到的特征图
Figure BDA0003327028690000141
调整为
Figure BDA0003327028690000142
调整后的特征图F为m×n维,其中n=ω×h,m,ω,h分别表示特征图的通道数、宽度、高度,m取值为1024,ω,h取决于输入图像的尺寸,在目标检测中输入图像的尺寸通常不一致,导致卷积得到的特征图尺寸不一致。对调整后的特征图F进行奇异值分解,得到
Figure BDA0003327028690000143
其中
Figure BDA0003327028690000144
Figure BDA0003327028690000145
是奇异值分解后得到的正交的酉矩阵,Σ是对角线奇异值按大小排序的m×n的对角阵,其维度为2k,其中k=512。
3.2)学习泛化特征图。对上述分解得到的矩阵,选取Σ前k个奇异值与其对应的特征向量去计算泛化特征图
Figure BDA0003327028690000146
G与F进行矩阵加法操作得到泛化性增强的特征图E,具体过程如下:
Figure BDA0003327028690000147
其中,Um×k
Figure BDA0003327028690000148
是矩阵U的前k列和VT的前k行,Σk×k是一个k×k的矩阵,
Figure BDA0003327028690000149
是增强后的泛化特征图,后续可拆分为
Figure BDA00033270286900001410
输入RPN模块。
3.3)学习判别特征图。选取奇异值分解后的Σ的剩余k个奇异值与其对应的特征向量去计算判别特征图
Figure BDA0003327028690000151
方法同3.2。
3.4)基于判别特征图的字典学习,利用无监督聚类的思想从判别特征图学习到高级的判别信息。具体地,定义一个编码集
Figure BDA0003327028690000152
其包含Q个码字,本发明中Q取值为23,判别特征图D中的每个列向量
Figure BDA0003327028690000153
为每个码字分配一个权重aij,残差向量被定义为rij=di-cj,其中i=1,2,…,n,具体过程如下:
Figure BDA0003327028690000154
其中,sj表示对应码字cj的可学习平滑因子,在训练中学得,字典学习的输出是一个固定长度的融合关系表示
Figure BDA0003327028690000155
步骤4,RPN模块生成候选框区域。
RPN是一个全卷积神经网络,可接收任何大小的输入,其输出是一系列矩形的候选框区域,并且每一个候选框都有一个概率值。首先对预测区域进行分类及粗略的边框回归,在不关心目标类别的条件下将候选框分为两类:前景和背景,利用分类的概率值执行非最大值抑制,进行边框回归。分类的概率值即Intersection over Union,简记为IoU,表示候选框区域与真实边框的交并比,阈值设置为0.7,并输出其中概率值排序靠前的区域,即生成的候选框区域。
将步骤3得到的泛化特征图生成预选框,依据RPN的输出和预选框解码之后映射到图像输入得到候选框,个数为(h/16)*(ω/16)*9,然后依据RPN预测的概率值选出前1,2000个候选框,进行阈值为0.7的非极大值抑制,对处理后的候选框区域依据概率值大小选出前2,000个,得到生成的候选框区域。
具体地,将步骤3得到的泛化特征图E拆分为
Figure BDA0003327028690000156
输入RPN模块,得到一系列候选框区域,过程如下:
P=RPN(E) (3)
其中,生成的候选框区域
Figure BDA0003327028690000157
z是生成候选框区域的数量,m是字典学习融合关系表示的维数,也是泛化特征图的通道数,o×o表示生成候选框区域的尺寸。
步骤5,候选框区域进行RoI对齐。
对步骤4得到的候选框区域进行RoI对齐,具体是为每个候选框区域特征图P输入RoI对齐层,进行卷积操作得到一个7×7特征图的输出。通过RoI对齐,可以将不同大小的候选框区域映射为同一尺寸大小,是一种池化方式,便于后续边框回归器与分类器的处理。
步骤6,对两种特征图进行融合,形成特征融合层。
6.1)泛化特征图融合高级判别信息:将生成的候选框区域特征图P用字典学习中的码字集进行编码表示,表示为Rep,再将表示Rep与生成的候选框区域特征图P通过RoI对齐层进行对齐,对齐后将两者通过矩阵拼接的方式实现特征融合,得到具有融合特征的泛化特征图[φ(P),φ(Rep)],表示过程如下:
Figure BDA0003327028690000161
其中,ψ是将特征图P映射到字典空间的一层全连接层,p是P的特征子图,所有
Figure BDA0003327028690000162
构成了
Figure BDA0003327028690000163
z表示候选框区域特征图P的数量,o表示候选框区域特征图P的尺寸,φ表示RoI对齐层,是一个两层全连接层。
6.2)判别特征图融合泛化性:将对齐后的生成的候选框区域特征图P与字典学习学习到的融合关系表示X两者进行特征融合;将步骤(4)得到的候选框区域P通过RoI对齐层对齐,同时将字典学习学习到的融合关系表示X输入单层卷积层,将两者的结果通过矩阵拼接的方式实现特征融合,得到具有融合特征的判别特征图[φ(P),ωcX+bc]。其中,φ表示RoI对齐层,是一个两层全连接层,ωc、bc表示卷积层的权重与偏差,是一个可学习的参数,[,]表示矩阵拼接。
本发明中从步骤2到步骤6进行了网络处理以及一系列数据处理,得到目标的初始边框信息和具有融合特征的特征图。
步骤7,目标物体边框定位与分类。
将上述网络处理得到的信息与训练样本集标签信息输入边框回归器和分类器,得到目标检测的边框定位与分类结果,得到改进后的增加了强化分支的Faster R-CNN的网络。
7.1)目标物体边框定位。将RPN模块初始边框回归的信息与标签真实边框信息输入边框回归器,得到目标物体边框的精确回归结果。
7.2)对融合后的特征图利用Lkl损失函数约束分类结果。对步骤6得到的具有融合特征的泛化特征图和判别特征图分别对应性输入泛化特征分类器和判别特征分类器进行类别预测,得到各自的分类结果,分类器约束损失函数Lkl对两个分类器进行约束,最终得到改进后的增加了强化分支的Faster R-CNN网络。
7.2.1)具有融合特征的泛化特征图分类。将融合后的特征经过RoI对齐层对齐,输入泛化特征分类器中,即可预测目标的分类结果,分类函数yrep如下:
yrep=cls([φ(P),φ(Rep)]) (5)
其中,φ表示RoI对齐层,Rep是候选框区域P用字典学习的编码表示,'cls'表示分类器网络。
7.2.2)具有融合特征的判别特征图分类。将融合后的特征输入判别特征分类器中,即可预测目标的分类结果,分类函数y如下:
y=cls([φ(P),ωcX+bc]) (6)
其中,φ表示RoI对齐层,ωc、bc表示卷积层的权重与偏差,是一个可学习的参数,'cls'表示分类器网络。
7.2.3)利用Lkl损失函数约束分类结果:为保证两种思路得到的分类器具有相同的分布,两个分类器之间权重共享,利用Lkl损失函数对两个分类损失函数进行约束,Lkl损失函数的计算公式如下:
Figure BDA0003327028690000171
其中,z表示输入的第z张图像,N表示训练样本集中的图像数量,yrep z表示输入的第z张图像的泛化特征分类器的预测分类结果,yz表示输入的第z张图像的判别特征分类器的预测分类结果。
经过目标检测边框定位和约束分类,最终得到改进后的增加了强化分支的FasterR-CNN网络。
步骤8,对改进后的增加了强化分支的Faster R-CNN网络进行训练。
8.1)对网络进行初始化。使用ImageNet预训练的参数对网络进行初始化,得到初始化的ResNet101网络。
8.2)设置整体网络的损失函数。整体网络的损失函数L为:L=Lcls+Lloc+Lrpn+λLkl,其中Lkl是本发明中提出损失函数,Lcls、Lloc、Lrpn是MPSR方法中的损失函数,Lcls是分类器的交叉熵损失函数,Lloc是边框回归的定位损失函数,Lrpn是增加了强化分支的RPN模块的前景背景分类损失函数,相较于与之前的方法增加了强化分支部分的损失,Lkl是分类器约束损失函数,Lkl作为插件插入现有的各种少样本目标检测的损失函数,其中λ是Lkl的权重系数,取值为0-1,本发明中实验时设置为1。
8.3)执行训练。返回步骤1,将经过步骤1获取的训练样本集的图像及其对应的标签信息输入初始化ResNet-101网络中,输出网络提取的特征图,对特征图进行奇异值分解得到对应的泛化特征图和判别特征图,并对判别特征图进行字典学习,将泛化特征图通过RPN模块实现初始边框回归和生成候选框区域,通过RoI对齐层将两种特征图进行融合,输入边框回归器与分类器,对两个分类器计算Lkl损失函数;同时将目标物体的真实边框对应的图像输入强化分支模块,得到的强化信息分别输入分类器的交叉熵损失函数和RPN模块的前景背景分类损失函数,弥补缺少多尺度信息的不足,该分支不干扰主流的数据处理流程,只是作为辅助信息增加多尺度信息,本发明与MPSR结合也与该分支无关联。通过对损失函数L最小化实现对整个网络的训练。在训练网络时采用深度学习工具箱PyTorch中的SGD优化器,其动量为0.9,衰减权重为0.0001。训练时batchsize设置为4,同时使用2个GPU,每个GPU同时训练2张图像。
8.4)训练过程中采用两级微调的方式对网络进行优化。第一阶段使用训练样本集中的基类对整个网络进行训练,所有的网络参数都随着更新。第二阶段固定特征提取部分网络、特征增强模块和特征融合层,使用平衡的新类和基类微调边框回归器与分类器,平衡的新类和基类指新类与基类带标签样本数量一致,边框回归器与分类器随机初始化,得到一个最优化的改进后的增加了强化分支的Faster R-CNN网络。
步骤9,对待检测的图像进行目标检测。从测试样本集中选取新类的待检测图像,将待检测图像输入到训练好的ResNet-101网络中,得到待检测图像特征;将待检测图像特征输入到训练好的特征增强模块,输出待检测图像的泛化特征图和判别特征图;将泛化特征图和判别特征图输入RPN模块、RoI对齐层和特征融合层,通过边框回归器和分类器,实现待检测图像的目标定位与分类。
本发明提出了一种基于奇异值分解特征增强的少样本目标检测方法,主要解决了现有少样本目标检测方法的泛化性和判别性表现不佳的问题。其方案为:获取训练样本集;通过ResNet-101网络对训练样本集中的图像进行特征提取;通过奇异值分解的思路对提取到的特征进行特征增强,得到泛化性特征和判别性特征;通过将泛化性特征输入RPN模块生成候选框区域;对候选框区域进行RoI对齐;对对齐后的特征分别进行融合;执行Faster R-CNN的回归与分类并用KL损失约束两个分类器的结果;将待检测的图像输入网络之中进行目标检测。本发明学习到图像的更本质的特征和在高维空间的判别信息,有效提高了少样本目标检测的定位与分类性能。
以下结合仿真实验,对本发明的技术效果再作说明。
实施例7
基于奇异值分解特征增强的少样本目标检测方法同实施例1-6。
仿真条件:使用型号为NVIDIA GTX TITAN V的GPU,基于深度学习的工具箱PyTorch进行仿真实验。
仿真内容:在两个公开的专门用于目标检测方法性能测试的数据集PASCAL VOC和COCO上进行仿真实验,其中:
VOC数据集总共有20个类别,其中随机选取15类被划分为基类,另外5类被划分为新类,具体使用VOC2007和VOC2012的训练集和验证集训练,使用VOC2007测试集测试。
COCO数据集总共有80个类别,其中与VOC数据集重合的20类被划分为新类,另外60类被划分为基类。
用本发明和现有基于深度卷积神经网络的少样本目标检测方法,在上述两个公开数据集VOC和COCO上进行仿真对比实验,结果分别如表1、表2所示。
表1在VOC数据集上不同设置下的的各种方法的分类精度表
Figure BDA0003327028690000191
表2在COCO数据集上不同设置下的的各种方法的分类精度表
Figure BDA0003327028690000201
仿真结果与分析:
表1中的nAP50表示IoU的值取50%时在新类上的精度,现有的少样本目标检测方法MPSR、FSCE已有了不错的表现,超越了之前传统的少样本目标检测。仿真实验中,在本发明与MPSR、FSCE相结合以后,得到了比仅用MPSR、FSCE更好的结果,从表1可以观察到在三种划分中的分类精度均有至少1%的提升效果,尤其是在K=1的设置下,最好的表现相较于MPSR提升了5%。
表2中的APS、APM和APL分别表示在小型目标、中性目标、大型目标上的分类精度。仿真实验中,在本发明与MPSR、FSCE相结合以后,得到了比仅用MPSR、FSCE更好的结果,从表2可以观察到不同K值下的分类精度均有1%的提升效果,尤其是在小型目标和中性目标上的分类精度相较于MPSR提升了1-2%。
实验数据证明,本发明与现有少样本目标检测方法MPSR、FSCE相结合,分类精度出现了明显的提高。
实施例8
基于奇异值分解特征增强的少样本目标检测方法同实施例1-6,仿真条件和内容在实施例7的基础上,对划分1的检测结果如下:
本发明基于奇异值分解特征增强的少样本目标检测方法,在VOC数据集上,5种新类(狗类、鸟类、马类、猫类、牛类)在现有的少样本目标检测方法MPSR、FSCE和本发明与MPSR结合的检测结果进行可视化,结果如图3、4、5所示。
图3、图4、图5分别对应MPSR、FSCE和本发明与MPSR结合的方法的目标检测结果,图3-a、图4-a、图5-a是K=1时上述三种方法对狗类的目标检测结果,图3-b、图4-b、图5-b是K=2时上述三种方法对鸟类的目标检测结果,图3-c、图4-c、图5-c是K=3时上述三种方法对马类的目标检测结果,图3-d、图4-d、图5-d是K=5时上述三种方法对猫类的目标检测结果,图3-e、图4-e、图5-e是K=10时上述三种方法对牛类的目标检测结果。
图3-a-图3-e是现有方法MPSR的在不同K取值下对5种新类的检测结果图,图4-a-图4-e是现有方法FSCE的在不同K取值下对5种新类的检测结果图,图5-a-图5-e是本发明与MPSR结合的方法在不同K取值下对5种新类的检测结果图。
针对目标检测任务设置,其中同一类别的物体检测出的边框用同种颜色标注,不同类别的物体检测出的边框用不同颜色标注。
仿真结果与分析:
图3-a、图4-a、图5-a均是K=1时对狗类的目标检测结果,图3-a不仅检测出了狗的边框信息,对影子也检测出来并标记为一种新类,出现了错误检测结果;图4-a检测出了狗的边框信息,虽然没有对影子的错误检测,但检测出两种边框信息,意味着标记为两种类别;本发明与MPSR结合则既没有影子的错误检测,也没有检测出两个边框,正确检测出狗的边框信息。
参见图3-e、图4-e、图5-e是K=10时对牛类的目标检测结果,图3-e仅检测出了人及右边白色牛的边框信息,未检测出左边被人遮挡的黑白相间牛;图4-e检测出了人、右边白色牛和左边被人遮挡的黑白相间牛三个目标物体,但检测出的边框信息标记范围过大,不够精确;本发明与MPSR结合则能检测出人、右边白色牛和左边被人遮挡的黑白相间牛三个目标物体,并对三个物体的边框信息精确定位。
对比图3-b、图4-b,对比图3-c、图4-c,对比图3-d、图4-d,也是相同的问题,图5-b、图5-c、图5-d均明显提升了分类和边框信息的精度。
在MPSR方法中,依据目标物体的边缘信息对目标物体进行检测,导致对图像的影子也会进行检测定位并标记为一种新类,同时在目标物体存在边缘遮挡时,往往检测不出目标物体的边框信息。
在FSCE方法中,对目标物体检测出的边框往往远大于目标物体的实际大小,这表明检测出的位置信息包含很多无关信息。
只有本发明与MPSR结合的方法中,不仅没有出现错误检测的现象,并且检测到的位置信息也十分精确,显著提高了目标检测的定位精度。
综上所述,本发明提出了一种基于奇异值分解特征增强的少样本目标检测方法,主要解决了现有少样本目标检测方法的泛化性和判别性较差的问题。其实现包括:获取目标检测的图像数据集;通过ResNet-101网络对训练样本集中的图像进行特征提取;构建特征增强模块,通过奇异值分解的思路对提取到的特征进行特征增强,得到泛化特征图和判别特征图;通过RPN模块生成候选框区域;对候选框区域进行RoI对齐;对增强后的两种特征图分别进行融合,形成特征融合层;目标物体边框定位与分类;对改进后的Faster R-CNN网络进行训练;对待检测的图像进行目标检测。本发明提出了特征增强模块、特征融合层和Lkl损失函数三个部分,学习到图像的更本质的特征和在高维空间的判别信息,使得学习到的特征具有很好的泛化性和判别性,有效提高了少样本目标检测的定位与分类精度,可用于机器人导航、智能视频监控等领域。

Claims (5)

1.一种基于奇异值分解特征增强的少样本目标检测方法,其特征在于,包括如下步骤:
(1)获取目标检测的图像数据集:图像数据集包括训练样本集和测试样本集,少样本目标检测的常用数据集为PASCAL VOC和COCO数据集,对数据集具体操作如下:
1.1)获取训练样本集:VOC数据集总共有20个类别,其中随机选取15类被划分为基类,基类含有丰富的带标签样本,另外5类被划分为新类,新类含有少数带标签的样本,将VOC2007和VOC2012的训练集和验证集合并作为训练样本集;COCO数据集总共有80个类别,其中与VOC数据集重合的20类被划分为新类,另外60类被划分为基类,将COCO2014训练集作为训练样本集;
1.2)获取测试样本集:待检测的目标检测图像数据从新类中选取,将VOC2007测试集作为测试样本集;将COCO2014验证集作为测试样本集;
(2)对训练样本集中的图像进行特征提取:基于Faster R-CNN的网络,将训练样本集中的图像输入在ImageNet数据集上预训练的ResNet-101网络上进行特征提取,该网络中第3个阶段卷积的输出作为特征图F输出,该特征图的矩阵输出维数为1024维;
(3)构建特征增强模块,对提取的特征进行增强:所构建的特征增强模块具体是,对提取到的特征图进行特征增强,针对提取到的特征图通过奇异值分解并学习得到泛化特征图E和判别特征图D,同时基于字典学习从判别特征图学习到高级的判别信息;
(4)RPN模块生成候选框区域:将泛化特征图E输入RPN模块进行分类及粗略的边框回归,将候选框分为两类:前景和背景;利用分类的概率值执行非最大值抑制,进行初始边框回归,输出生成的候选框区域P;
(5)候选框区域进行RoI对齐:对生成的候选框区域P进行RoI对齐,将每个候选框区域特征图P输入RoI对齐层得到一个7×7特征图的输出,得到RoI对齐后的特征图;
(6)对两种特征图进行融合,形成特征融合层:将生成的候选框区域特征图P用字典学习中的码字集进行编码表示,表示为Rep,再将表示Rep与生成的候选框区域特征图P通过RoI对齐层进行对齐,对齐后将两者进行特征融合;将对齐后的生成的候选框区域特征图P与字典学习学习到的融合关系表示X两者进行特征融合;对上述两种特征图的特征融合均是通过矩阵拼接的方式进行融合,形成特征融合层,得到具有融合特征的泛化特征图和判别特征图;
(7)目标物体的边框定位与分类:将上述网络处理得到的信息与训练样本集标签信息输入边框回归器和分类器,得到目标物体的边框定位与分类结果,得到改进后的Faster R-CNN网络;
7.1)目标物体的边框定位:将RPN模块初始边框回归的信息与标签真实边框信息输入边框回归器,得到目标物体边框的精确回归结果;
7.2)对融合后的特征图利用Lkl损失函数约束分类结果:对具有融合特征的泛化特征图和判别特征图分别对应性输入泛化特征分类器和判别特征分类器进行类别预测,得到各自的分类结果,分类器约束损失函数Lkl对两个分类器进行约束,得到改进后的Faster R-CNN网络;
(8)对改进后的Faster R-CNN网络进行训练:将训练样本集的数据输入改进后的Faster R-CNN网络中,通过最小化损失函数实现网络的最优化:
8.1)对网络进行初始化:使用ImageNet数据集上预训练的ResNet-101网络参数对网络进行初始化,得到初始化的ResNet-101网络;
8.2)设置整体网络的损失函数:改进后的Faster R-CNN网络的损失函数L为:L=Lcls+Lloc+Lrpn+λLkl,Lcls是分类器的交叉熵损失函数,Lloc是边框回归的定位损失函数,Lrpn是RPN模块的前景背景分类损失函数,Lkl是分类器约束损失函数,Lkl作为插件插入现有的各种少样本目标检测的损失函数,其中λ是Lkl的权重系数,取值为0-1;
8.3)执行训练:返回步骤(1),将经过步骤(1)及对应的标签信息输入初始化ResNet-101网络,输出提取到的特征图,对特征图进行奇异值分解得到对应的泛化特征图和判别特征图,并对判别特征图进行字典学习,将泛化特征图通过RPN模块实现初始边框回归和生成候选框区域,通过RoI对齐层将两种特征图分别进行融合,输入边框回归器与分类器,对两个分类器计算Lkl损失函数,对损失函数L最小化实现对整个网络的训练,且在训练网络时采用深度学习工具箱PyTorch中的SGD优化器,其动量为0.9,衰减权重为0.0001;
8.4)训练过程中采用两级微调的方式对网络进行优化,首先使用训练样本集中的基类对整个网络进行训练,再使用平衡的新类和基类微调分类器,新类与基类样本数量一致,分类器使用随机初始化,得到一个最优化的改进后的Faster R-CNN网络;
(9)对待检测的图像进行目标检测:从测试样本集中选取新类的待检测图像,将待检测图像输入到训练好的ResNet-101网络中,得到待检测图像特征;将待检测图像特征输入到训练好的特征增强模块,输出待检测图像的泛化特征图和判别特征图;将泛化特征图和判别特征图输入RPN模块、RoI对齐层和特征融合层,通过边框回归器和分类器,实现待检测图像的目标定位与分类。
2.根据权利要求1所述的基于奇异值分解特征增强的少样本目标检测方法,其特征在于,步骤(3)中所述的构建特征增强模块,进行特征增强包括有如下步骤:
3.1)对特征图进行奇异值分解:将步骤(2)提取到的特征图F,
Figure FDA0003327028680000031
重新调整为
Figure FDA0003327028680000032
对调整后的特征图F进行奇异值分解,得到
Figure FDA0003327028680000033
其中
Figure FDA0003327028680000034
Figure FDA0003327028680000035
为奇异值分解后得到的正交的酉矩阵,Σ是对角线奇异值按大小排序的m×n的对角阵,其维度为2k,m是特征图的通道数,ω是特征图的宽度,h是特征图的高度,n=ω×h是调整后特征图维度;
3.2)学习泛化特征图:选取奇异值分解后的对角阵Σ的前k个奇异值与其对应的特征向量计算
Figure FDA0003327028680000036
G与F进行矩阵加法操作得到泛化特征图E,具体过程如下:
Figure FDA0003327028680000037
E=G+F
其中,Um×k
Figure FDA0003327028680000038
是矩阵U的前k列和VT的前k行,Σk×k是一个k×k的矩阵,
Figure FDA0003327028680000039
增强后的泛化特征图,后续调整为
Figure FDA00033270286800000310
输入RPN模块;
3.3)学习判别特征图:选取奇异值分解后的Σ的剩余k个奇异值与其对应的特征向量去计算判别特征图
Figure FDA00033270286800000311
方法同3.2;
3.4)基于字典学习从判别特征图学习到高级的判别信息,定义一个编码集
Figure FDA00033270286800000312
其包含Q个码字,判别特征图D中的每个列向量
Figure FDA00033270286800000313
为每个码字分配一个权重aij,残差向量被定义为rij=di-cj,其中i=1,2,…,n,具体过程如下:
Figure FDA00033270286800000314
其中,sj表示对应码字cj的可学习平滑因子,字典学习的输出是一个固定长度的融合信息表示
Figure FDA00033270286800000315
3.根据权利要求1所述的基于奇异值分解特征增强的少样本目标检测方法,其特征在于,步骤(6)中所述的对两种特征图进行融合,形成特征融合层,包括有如下步骤:
6.1)泛化特征图融合高级判别信息:将生成的候选框区域特征图P用字典学习中的码字集进行编码表示,表示为Rep,再将表示Rep与生成的候选框区域特征图P通过RoI对齐层进行对齐,对齐后将两者通过矩阵拼接的方式实现特征融合,得到具有融合特征的泛化特征图[φ(P),φ(Rep)],表示过程如下:
Figure FDA0003327028680000041
其中,ψ是将特征图P映射到字典空间的一层全连接层,p是P的特征子图,所有
Figure FDA0003327028680000042
构成了
Figure FDA0003327028680000043
z表示候选框区域P的数量,o表示候选框区域P的尺寸,φ表示RoI对齐层,是一个两层全连接层;
6.2)判别特征图融合泛化性:将对齐后的生成的候选框区域特征图P与融合关系表示X两者进行特征融合;将步骤(4)得到的候选框区域P通过RoI对齐层对齐,同时将字典学习学习到的融合关系表示X输入单层卷积层,将两者的结果通过矩阵拼接的方式实现特征融合,得到具有融合特征的判别特征图[φ(P),ωcX+bc],其中,φ表示RoI对齐层,是一个两层全连接层,ωc、bc表示卷积层的权重与偏差,是一个可学习的参数,[,]表示矩阵拼接。
4.根据权利要求1所述的基于奇异值分解特征增强的少样本目标检测方法,其特征在于,步骤(7.2)中所述的对融合后的特征图利用Lkl损失函数约束分类结果,包括有如下步骤:
7.2.1)具有融合特征的泛化特征图分类:将融合后的特征经过RoI对齐层对齐,输入泛化特征分类器中,即可预测目标的分类结果,分类函数yrep如下:
yrep=cls([φ(P),φ(Rep)])
其中,φ表示RoI对齐层,Rep是候选框区域P用字典学习的编码表示,'cls'表示分类器网络;
7.2.2)具有融合特征的判别特征图分类:将融合后的特征输入判别特征分类器中,即可预测目标的分类结果,分类函数y如下:
y=cls([φ(P),ωcX+bc])
其中,φ表示RoI对齐层,ωc、bc表示卷积层的权重与偏差,是一个可学习的参数,'cls'表示分类器网络;
7.2.3)利用Lkl损失函数约束分类结果:两个分类器之间权重共享,并利用Lkl损失函数对两个分类损失函数进行约束,Lkl损失函数的计算公式如下:
Lkl=∑yrep(logyrep-logy)
其中,yrep表示泛化特征分类器的预测分类结果,y表示判别特征分类器的预测分类结果;
经过目标检测边框定位和约束分类,最终得到改进后的Faster R-CNN网络。
5.一种基于奇异值分解特征增强的少样本目标检测方法的即插即用方法,其特征在于,在现有的目标检测流程中,将基于奇异值分解特征增强的少样本目标检测方法与现有的方法结合,将特征增强模块、特征融合层和Lkl损失函数插入现有的方法中,实现更为精确的目标检测分类与定位,包括有如下步骤:
步骤A:现有的目标检测流程是,第一步将数据输入特征提取网络之中得到提取到的特征图;第二步是将提取到的特征输入RPN模块生成候选框区域;第三步是将生成的候选框区域通过RoI对齐层对齐;第四步是将对齐后的特征图输入边框回归器和分类器对目标进行定位与分类;
步骤B:将基于奇异值分解特征增强的少样本目标检测方法的特征增强模块引入现有的目标检测流程之中,在现有的目标检测流程的第一步与第二步之间插入特征增强模块,对提取到的特征图进行特征增强;
步骤C:将基于奇异值分解特征增强的少样本目标检测方法的特征融合层引入现有的目标检测流程之中,在现有的目标检测流程的第三步与第四步之间插入特征融合层,将增强以后的特征分别进行融合;
步骤D:将基于奇异值分解特征增强的少样本目标检测方法的Lkl损失函数插入现有的目标检测流程之中,将Lkl插入原有目标检测网络损失函数之中,通过Lkl损失函数实现提升目标检测分类与定位精度的效果。
CN202111266049.8A 2021-10-28 2021-10-28 基于奇异值分解特征增强的少样本目标检测方法 Pending CN113971815A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111266049.8A CN113971815A (zh) 2021-10-28 2021-10-28 基于奇异值分解特征增强的少样本目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111266049.8A CN113971815A (zh) 2021-10-28 2021-10-28 基于奇异值分解特征增强的少样本目标检测方法

Publications (1)

Publication Number Publication Date
CN113971815A true CN113971815A (zh) 2022-01-25

Family

ID=79588846

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111266049.8A Pending CN113971815A (zh) 2021-10-28 2021-10-28 基于奇异值分解特征增强的少样本目标检测方法

Country Status (1)

Country Link
CN (1) CN113971815A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494792A (zh) * 2022-04-15 2022-05-13 珠海亿智电子科技有限公司 基于单阶段的目标检测方法、装置、设备及存储介质
CN114694150A (zh) * 2022-05-31 2022-07-01 成都考拉悠然科技有限公司 一种提升数字图像分类模型泛化能力的方法及系统
CN115393634A (zh) * 2022-08-11 2022-11-25 重庆邮电大学 一种基于迁移学习策略的少样本目标实时检测方法
CN117237697A (zh) * 2023-08-01 2023-12-15 北京邮电大学 一种小样本图像检测方法、系统、介质及设备

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114494792A (zh) * 2022-04-15 2022-05-13 珠海亿智电子科技有限公司 基于单阶段的目标检测方法、装置、设备及存储介质
CN114694150A (zh) * 2022-05-31 2022-07-01 成都考拉悠然科技有限公司 一种提升数字图像分类模型泛化能力的方法及系统
CN114694150B (zh) * 2022-05-31 2022-10-21 成都考拉悠然科技有限公司 一种提升数字图像分类模型泛化能力的方法及系统
CN115393634A (zh) * 2022-08-11 2022-11-25 重庆邮电大学 一种基于迁移学习策略的少样本目标实时检测方法
CN115393634B (zh) * 2022-08-11 2023-12-26 重庆邮电大学 一种基于迁移学习策略的少样本目标实时检测方法
CN117237697A (zh) * 2023-08-01 2023-12-15 北京邮电大学 一种小样本图像检测方法、系统、介质及设备
CN117237697B (zh) * 2023-08-01 2024-05-17 北京邮电大学 一种小样本图像检测方法、系统、介质及设备

Similar Documents

Publication Publication Date Title
CN113971815A (zh) 基于奇异值分解特征增强的少样本目标检测方法
Xie et al. Multilevel cloud detection in remote sensing images based on deep learning
Li et al. Traffic light recognition for complex scene with fusion detections
Endres et al. Category-independent object proposals with diverse ranking
CN109558823B (zh) 一种以图搜图的车辆识别方法及系统
CN103984943B (zh) 一种基于贝叶斯概率框架的场景文本识别方法
CN110263786B (zh) 一种基于特征维度融合的道路多目标识别系统及方法
CN111709311A (zh) 一种基于多尺度卷积特征融合的行人重识别方法
CN106845430A (zh) 基于加速区域卷积神经网络的行人检测与跟踪方法
CN113378632A (zh) 一种基于伪标签优化的无监督域适应行人重识别算法
CN110619059B (zh) 一种基于迁移学习的建筑物标定方法
CN112990282B (zh) 一种细粒度小样本图像的分类方法及装置
CN110147841A (zh) 基于弱监督及无监督部件检测和分割的细粒度分类方法
CN112732921B (zh) 一种虚假用户评论检测方法及系统
CN111738300A (zh) 一种交通标志及信号灯检测和识别的优化算法
Wang et al. MCF3D: Multi-stage complementary fusion for multi-sensor 3D object detection
Rezaee et al. Road detection using deep neural network in high spatial resolution images
CN115471739A (zh) 基于自监督对比学习的跨域遥感场景分类与检索方法
CN114821340A (zh) 一种土地利用分类方法及系统
CN111696136A (zh) 一种基于编解码结构的目标跟踪方法
CN111310820A (zh) 基于交叉验证深度cnn特征集成的地基气象云图分类方法
CN117516937A (zh) 基于多模态特征融合增强的滚动轴承未知故障检测方法
CN113032612B (zh) 一种多目标图像检索模型的构建方法及检索方法和装置
CN114638277A (zh) 一种基于判别决策树的工业部件分类方法
Lukac et al. An algorithm selection based platform for image understanding using high-level symbolic feedback and machine learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination