CN114639021A - 一种目标检测模型的训练方法及目标划分方法 - Google Patents

一种目标检测模型的训练方法及目标划分方法 Download PDF

Info

Publication number
CN114639021A
CN114639021A CN202210308818.4A CN202210308818A CN114639021A CN 114639021 A CN114639021 A CN 114639021A CN 202210308818 A CN202210308818 A CN 202210308818A CN 114639021 A CN114639021 A CN 114639021A
Authority
CN
China
Prior art keywords
model
training
target
preset
updating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210308818.4A
Other languages
English (en)
Inventor
卫星
白婷
赵明
刘玉洁
张立
邓哲
虞浩
姚尚
赵冲
陆阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hefei University of Technology
Original Assignee
Hefei University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hefei University of Technology filed Critical Hefei University of Technology
Priority to CN202210308818.4A priority Critical patent/CN114639021A/zh
Publication of CN114639021A publication Critical patent/CN114639021A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种目标检测模型的训练方法及目标划分方法,能够采集无标签的包含预设目标的图片作为目标域数据图片,并进行增强处理得到目标域数据集;将目标域数据集中的图片随机分为训练集、测试集;根据训练集训练教师模型和学生模型,得到第一模型和第二模型;训练过程中采用知识蒸馏和权重正则化策略更新更新第二模型的权重参数,并根据第二模型的权重参数更新第一模型的权重参数;将测试集输入更新权重参数后的第一模型,将满足预设条件的第一模型作为目标检测模型。本发明可以解决数据隐私保护、存储空间受限、人力成本高昂等因素导致的实时情况下大量源域标注样本不可获得的问题,完成无源域数据的域自适应目标检测任务。

Description

一种目标检测模型的训练方法及目标划分方法
技术领域
本发明涉及技术领域,特别是涉及一种目标检测模型的训练方法及目标划分方法。
背景技术
作为重要的计算机视觉基础任务,目标检测(Object Detection)需要同时在场景图像中获取不同对象的位置结果(矩形轮廓及中心点坐标)和种类结果(标签类别及概率)。基于深度学习的目标检测模型目前已被广泛探讨和研究,围绕模型的检测精度和速度,研究者们相继提出了RCNN、SPP-Net、Fast RCNN、Faster RCNN等,其中典型的如RossB.Girshick提出的Faster RCNN,在结构上将特征提取、区域建议、边界框回归和分类四个模块整合在了一个网络上,综合性能得到显著提高。
上述目标检测深度网络的有效性归功于两个基本条件:一是训练样本和测试样本来自于共同的数据集或分布相似的不同数据集;二是训练阶段拥有海量标注样本。一般将任务实际场景采集的数据集合称为目标域(未标注),将相关场景公开数据集合(已标注)统称为源域。首先,由于背景、光照强度、天气状况等不同,目标域与源域图像风格迥异、数据分布差异较大;其次,由于目标检测任务的有监督样本需要同时标注对象位置与类别,当对象种类数十成百时人力成本不可承受。因此,跨域目标检测模型的准确性、鲁棒性遇到了巨大挑战。
域自适应目标检测(Domain adaptive object detection)最早于2018年通过CVPR(IEEE Conference on Computer Vision and Pattern Recognition)会议被正式提出,借鉴迁移学习思想,通过源域中带有标注的数据以及目标域少量标注数据或大量无标注数据,学习源域和目标域的共有域不变特征。研究者从不同视角提出了若干的解决方案,例如基于分布差异、并行学习、数据重建、混合机制优化等,有效调和了特征通用性与任务特殊性之间的矛盾。
深度学习网络模型的提出,使计算机视觉领域得到更进一步的发展。深度学习模型从图像中自适应学习,是一种端到端的检测方法。随着大数据时代的到来,各种用于训练深度学习网络模型的数据集不断地丰富与完善也推动了基于深度学习的计算机视觉领域发展。域自适应目标检测是指通过大量带标签的源域数据和不带标签的目标域数据训练跨域的目标检测器,学习两个域间的域不变特征,从而减小或消除域间差异。然而该目标检测方法在跨域学习过程中需要访问源域数据,在一些实际场景中,或因为内存存储要求、共享数据、隐私问题和其他数据集处理问题等,导致源域数据无法访问,不能提取特征空间导致训练受阻。
综上,现有技术中存在实时情况下不可获得大量源域标注样本、训练过程中无法访问源域数据使得检测器无法训练等问题。
发明内容
鉴于以上现有技术的缺点,本发明的目的在于提供一种目标检测模型的训练方法及目标划分方法,以改善现有技术中的实时情况下不可获得大量源域标注样本、训练过程中无法访问源域数据使得检测器无法训练等技术问题。
为实现上述目的及其他相关目的,本发明提供一种目标检测模型的训练方法,包括:
采集包含预设目标的图片,并对所述图片进行增强处理,得到目标域数据集;其中,所述目标域数据集的图片未携带有预设目标对应的区域定位结果和区域分类结果;
将所述目标域数据集中的图片随机分为训练集、测试集;
根据所述训练集训练教师模型和学生模型,得到训练好的第一模型和第二模型;其中,所述教师模型和所述学生模型采用源域数据集预先训练得到,所述源域数据集中的图片包含预设目标且携带有预设目标对应的区域定位结果和区域分类结果;
采用知识蒸馏和权重正则化策略更新所述第二模型的权重参数,并根据所述第二模型的权重参数更新所述第一模型的权重参数;
将所述测试集输入更新权重参数后的第一模型,将满足预设条件的第一模型作为所述目标检测模型。
在一种较优的实施例中,所述教师模型和所述学生模型均包括ResNet-101网络和区域卷积神经网络;
所述根据所述训练集训练教师模型和学生模型,得到训练好的第一模型和第二模型的步骤包括:
将所述训练集中的图片分别输入所述教师模型和所述学生模型的ResNet-101网络,得到对应的特征图;
将所述特征图输入对应的区域卷积神经网络,得到目标检测结果;其中所述目标检测结果包括所有所述预设目标的区域定位结果和区域分类结果。
在一种较优的实施例中,所述采用知识蒸馏和权重正则化策略更新所述第二模型的权重参数,并根据所述第二模型的权重参数更新所述第一模型的权重参数的步骤包括:
采用知识蒸馏来实现所述教师模型和所述学生模型中ResNet-101网络分别输出的特征图的像素级特征对齐;
采用权重正则化策略实现所述教师模型和所述学生模型中区域卷积神经网络输出的目标检测结果的区域级特征对齐、图间结构匹配和图内同类别特征对齐,以实现所述第二模型的权重参数的更新;
根据所述第二模型的EMA指数平均移动更新所述第一模型的权重参数。在一种较优的实施例中,采用如下公式更新所述第一模型的权重参数:
θ′t=λθ′t-1-(1-λ)θt
其中,θ′t表示所述第一模型当前层的权重参数;θ′t-1表示所述第一模型上一层的权重参数;θt表示所述第二模型的权重参数;λ表示预设的权重平滑参数。
在一种较优的实施例中,所述根据所述第二模型的EMA指数平均移动更新所述第一模型的权重参数的步骤还包括:
采用如下公式计算得到更新后的第一模型的训练损失:
L=αLdist+β(LRe+LEc+LIn)
其中,L表示所述训练损失;α、β表示预设的调优参数;Ldist表示知识蒸馏对应的损失函数;LRe表示区域级特征对齐对应的损失函数;LEc表示图间结构匹配对应的损失函数;LIn表示图内同类别特征对应的损失函数。
在一种较优的实施例中,所述将所述测试集输入更新权重参数后的第一模型,将满足预设条件的第一模型作为所述目标检测模型的步骤包括:
将所述测试集输入更新权重参数后的第一模型,得到所述测试集中所有预设目标对应的预测区域定位结果和预测区域分类结果;
针对所述测试集中的每张图片:
计算所有预设目标预测的区域定位结果和区域分类结果;
判断所有预设目标预测的区域定位结果和区域分类结果符合实际的区域定位结果和区域分类结果的概率是否达到预设的阈值,若是,则认为当前图片识别准确,否则,则认为当前图片识别不准确;
判断识别准确的图片是否达到预设数量,若是,则认为更新权重参数后的第一模型满足预设条件。
本发明还公开了一种目标检测模型的训练系统,包括:
处理模块,用于采集包含预设目标的图片,并对所述图片进行增强处理,得到目标域数据集;其中,所述目标域数据集的图片未携带有预设目标对应的区域定位结果和区域分类结果;
划分模块,用于将所述目标域数据集中的图片随机分为训练集、测试集;
训练模块,用于根据所述训练集训练教师模型和学生模型,得到训练好的第一模型和第二模型;其中,所述教师模型和所述学生模型采用源域数据集预先训练得到,所述源域数据集中的图片包含预设目标且携带有预设目标对应的区域定位结果和区域分类结果;
更新模块,用于采用知识蒸馏和权重正则化策略更新所述第二模型的权重参数,并根据所述第二模型的权重参数更新所述第一模型的权重参数;
检验模块,用于将所述测试集输入更新权重参数后的第一模型,将满足预设条件的第一模型作为所述目标检测模型。
本发明还公开了一种计算机设备,包括处理器,所述处理器和存储器耦合,所述存储器存储有程序指令,当所述存储器存储的程序指令被所述处理器执行时实现上述目标检测模型的训练方法。
本发明还公开了一种计算机可读的存储介质,包括程序,当其在计算机上运行时,使得计算机执行上述目标检测模型的训练方法。
本发明还公开了一种目标划分方法,采用上述目标检测模型的训练方法训练得到的目标检测模型,所述目标划分方法包括:
将包含多个待检测目标的图片输入所述目标检测模型,输出目标检测结果;其中,所述目标检测结果包括所有所述待检测目标的区域定位结果和区域分类结果。
本发明提供的一种目标检测模型的训练方法及目标划分方法仅依赖一个采用源域数据集预先训练好的目标检测模型和目标域数据集,训练生成适用于目标域数据集的检测器,初始的教师模型和学生模型通过一致性正则化策略使得差异最小化,并通过知识蒸馏,在像素级自适应中实现了特征空间对齐,进一步减小领域差异,最终实现目标域的目标检测任务;本发明可以解决数据隐私保护、存储空间受限、人力成本高昂等因素导致的实时情况下大量源域标注样本不可获得的问题,完成无源域数据的域自适应目标检测任务。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1显示为本发明的目标检测模型的训练方法于一实施例中的流程示意图。
图2显示为本发明的目标检测模型的训练系统于一实施例中的结构示意图。
图3显示为本发明的计算机设备于一实施例中的结构示意图。
图4显示为本发明的目标划分方法于一实施例中的流程示意图。
图5显示为本发明的目标检测模型于一实施例中的训练流程示意图。
图6显示为本发明的目标检测模型中国的ResNet-101网络于一实施例中的结构示意图。
元件标号说明
100、目标检测模型;110、处理模块;120、划分模块;130、训练模块;140、更新模块;150、检验模块;200、计算机设备;210、处理器;220、存储器。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其它优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。还应当理解,本发明实施例中使用的术语是为了描述特定的具体实施方案,而不是为了限制本发明的保护范围。下列实施例中未注明具体条件的试验方法,通常按照常规条件,或者按照各制造商所建议的条件。
请参阅图1至图6。须知,本说明书附图所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容所能涵盖的范围内。同时,本说明书中所引用的如“上”、“下”、“左”、“右”、“中间”及“一”等的用语,亦仅为便于叙述的明了,而非用以限定本发明可实施的范围,其相对关系的改变或调整,在无实质变更技术内容下,当亦视为本发明可实施的范畴。
当实施例给出数值范围时,应理解,除非本发明另有说明,每个数值范围的两个端点以及两个端点之间任何一个数值均可选用。除非另外定义,本发明中使用的所有技术和科学术语与本技术领域的技术人员对现有技术的掌握及本发明的记载,还可以使用与本发明实施例中所述的方法、设备、材料相似或等同的现有技术的任何方法、设备和材料来实现本发明。
请参阅图1,显示为本实施例中一种目标检测模型的训练方法的流程示意图,训练方法包括:
步骤S100、采集包含预设目标的图片,并对所述图片进行增强处理,得到目标域数据集;其中,目标域数据集的图片未携带有预设目标对应的区域定位结果和区域分类结果。
步骤S100具体包括:
将包含预设目标的图片进行随机翻转,并裁剪至预设尺寸,随后使用随机颜色抖动或加入域噪声以完成增强处理。
例如,将所有包含预设目标的图像裁剪至512×512大小,并将所有图片的数据增强,先使用随机裁剪、翻转等方式增强目标样本,再使用随机颜色抖动(如对比度、亮度、色彩饱和度等)或加入域噪声实现不同类型的数据增强,生成带噪声的图片作为目标域数据集。
具体的,目标域数据集图片中的预设目标例如为行人、车辆、建筑物,则预设目标对应的区域定位结果和区域分类结果例如为行人、车辆、建筑物对应的区域框和区域类别,其中,区域类别例如将行人对应的区域框分为第一类、将车辆对应的区域框分为第二类、将建筑物对应的区域框分为第三类。
步骤S200、将目标域数据集中的图片随机分为训练集、测试集。
其中,训练集和测试集的比例例如为8:2。
步骤S300、根据训练集训练教师模型和学生模型,得到训练好的第一模型和第二模型;其中,教师模型和学生模型采用源域数据集预先训练得到,源域数据集中的图片包含预设目标且携带有预设目标对应的区域定位结果和区域分类结果。
教师模型和学生模型采用源域数据集预先训练得到,源域数据集例如为预先人工标记好预设目标对应的区域定位结果和区域分类结果的图片。
具体的,教师模型和学生模型的基础模型例如为Faster RCNN模型。
教师模型和学生模型均包括ResNet-101网络和区域卷积神经网络(即R-CNN),则训练集中的图片输入教师模型和学生模型后的处理步骤具体包括:
将训练集中的图片分别输入教师模型和学生模型的ResNet-101网络,得到对应的特征图;
将特征图输入对应的区域卷积神经网络,得到目标检测结果;其中目标检测结果包括所有预设目标的区域定位结果和区域分类结果。
通过上述处理步骤,训练教师模型和学生模型,分别得到训练好的ResNet-101网络和区域卷积神经网络,作为第一模型和第二模型。
在训练的过程中,例如需要训练教师模型和学生模型的batch大小,epoch数量,初始化学习率,权重衰减率,优化方法和loss函数。
请参阅图6,其中,ResNet-101网络由1个conv1卷积层,3个conv2_x(3个卷积层),4个conv3_x(3个卷积层),23个conv4_x(3个卷积层),3个conv5_x(3个卷积层)以及1个平均池化层组成,第一层是一个步长为2的的卷积,最后一层是一个全连接层,其中四种不同大小残差块,分别为conv2_x(卷积核,数量64;卷积核,数量64;卷积核,数量256),conv3_x(卷积核,数量128;卷积核,数量128;卷积核,数量512),conv4_x(卷积核,数量256;卷积核,数量256;卷积核,数量1024),conv5_x(卷积核,数量512;卷积核,数量512;卷积核,数量2048)。
R-CNN模型判断ResNet-101网络提取到的特征的类别,并使用回归期精细修正区域定位结果的位置。
步骤S400、采用知识蒸馏和权重正则化策略更新所述第二模型的权重参数,并根据所述第二模型的权重参数更新所述第一模型的权重参数。
步骤S400具体包括:
采用知识蒸馏来实现教师模型和学生模型中ResNet-101网络分别输出的特征图的像素级特征对齐;
采用权重正则化策略实现教师模型和学生模型中区域卷积神经网络输出的目标检测结果的区域级特征对齐、图间结构匹配和图内同类别特征对齐,以实现第二模型的权重参数的更新;
根据第二模型的EMA指数平均移动更新第一模型的权重参数。
请参阅图5,例如,将测试集中两张带噪声的图片
Figure BDA0003564016930000091
Figure BDA0003564016930000092
分别输入第一模型和第二模型,第一模型和第二模型共同使用第一模型生成的区域定位结果,以实现特征提取并生成特征映射fT和fs,我们使用知识蒸馏机制,在像素级对齐第二模型每个像素的类概率,通过蒸馏指导第二模型,反向传播更新权重参数,帮助第二模型提高性能。
在本实施例中,首先定义知识蒸馏为一项为图像中的每个像素分配类别标签(即区域分类结果)、实现特征对齐的任务,其中类别总数定义为C,以训练集中大小为W×H×3的RGB图像I作为输入,经过ResNet-101网络,计算特征图F的大小,定义为W′×H′×N,其中N是通道数。
则在步骤S400中,知识蒸馏过程中对应的预测损失为:
Figure BDA0003564016930000093
其中,Ldist表示知识蒸馏对应的预测损失;
Figure BDA0003564016930000094
表示第一模型中当前特征图第i个像素的区域分类的概率;
Figure BDA0003564016930000095
表示第二模型中当前特征图第i个像素的区域分类的概率,且R={1,2,3,…W′×H′};DKL表示第一模型和第二模型的KL散度。
针对两个网络模型的特征映射fT和fs,在最后一个模块我们使用权重正则化方法分别生成两个关系图谱
Figure BDA0003564016930000101
进一步的,采用权重正则化策略保证第一模型和第二模型的预测一致,其中包括区域级特征对齐、图间结构匹配和图内同类别特征对齐,具体的:
区域级特征对齐即区域级一致性,旨在减少局部实例差异,如光照强度、随机噪声、比例大小等,以对齐共享相同空间位置的
Figure BDA0003564016930000102
Figure BDA0003564016930000103
顶点间的区域级预测,具体通过以下两个步骤具体实现区域级预测:
首先,通过第一模型的RPN网络生成一系列预测的区域定位结果
Figure BDA0003564016930000104
并且第二模型共同使用第一模型生成的
Figure BDA0003564016930000105
以实现特征提取。对于每个区域建议定位框
Figure BDA0003564016930000106
经过ROI Pooling层从特征映射fT和fs中提取固定长度向量
Figure BDA0003564016930000107
Figure BDA0003564016930000108
当我们获取了每个区域的区域特征
Figure BDA0003564016930000109
Figure BDA00035640169300001010
后,同时可以获取相应的每个区域的概率分布
Figure BDA00035640169300001011
Figure BDA00035640169300001012
从而获得第一模型和第二模型的检测结果分别为
Figure BDA00035640169300001013
Figure BDA00035640169300001014
随后,将区域级特征对齐的预测定义为衡量第一模型和第二模型预测结果间的距离,首先进行区域预处理,设置置信阈值滤除所有低置信度前景区域及背景区域,使用均方误差的平均值计算表示第一模型和第二模型对应的区域级预测损失:
Figure BDA00035640169300001015
其中,
Figure BDA00035640169300001016
表示第一模型生成的预测的区域定位结果;
Figure BDA00035640169300001017
表示第一模型对于各个预测的区域定位结果的检测概率;
Figure BDA00035640169300001018
表示第二模型对于各个预测的区域定位结果的检测概率。
图间结构匹配即图间一致性,旨在减小图内结构带来的差异,具体通过以下步骤具体实现图间一致性:
首先,计算得到第二模型中的关系图
Figure BDA00035640169300001019
其中,
Figure BDA00035640169300001020
表示当前输入第二模型的图片中所有区域定位结果的概率集合,
Figure BDA00035640169300001021
表示第二模型输出的图片的亲和矩阵,进一步计算
Figure BDA00035640169300001022
中每两个区域间的相似度
Figure BDA00035640169300001023
ri,rj用于表示第二模型输出的图片内任意两个区域定位结果,
Figure BDA00035640169300001024
用于表示经过ROI-pooling层提取到的区域特征,将对应特征转化为固定大小的维度,本实施例采用余弦相似度的计算公式计算任意两个区域定位结果的相似性,并生成一个第二模型的亲和矩阵:
Figure BDA0003564016930000111
其中,
Figure BDA0003564016930000112
表示第二模型输出的图片内任意两个区域定位结果的相似度;
Figure BDA0003564016930000113
Figure BDA0003564016930000114
分别表示第二模型经过ROI-pooling层处理得到的维度固定的特征映射。
第一模型的亲和矩阵采用如第二模型的亲和矩阵相同的计算方法,则进一步的,图间一致性差异可定义为第一模型的亲和矩阵与第二模型的亲和矩阵间的均方误差,图间结构匹配对应的预测损失如下:
Figure BDA0003564016930000115
其中,
Figure BDA0003564016930000116
分别表示第一模型的亲和矩阵与第二模型的亲和矩阵;
Figure BDA0003564016930000117
表示第一模型生成的预测的区域定位结果。
图内同类别特征对齐即图内一致性,旨在通过第一模型生成的伪标签指导第二模型,具体通过以下步骤具体实现图内一致性:
首先,为第一模型生成的每个
Figure BDA0003564016930000118
生成伪标签
Figure BDA0003564016930000119
其中,C表示区域分类结果的分类总数,k表示区域分类结果中的第k个类别,
Figure BDA00035640169300001110
表示第一模型预测的区域定位结果为第k个类别的概率。
随后,生成
Figure BDA00035640169300001111
的监督矩阵
Figure BDA00035640169300001112
并判断第一模型预测的每两个区域定位结果是否属于同一类别:
Figure BDA00035640169300001113
其中,i,j分别表示第一模型预测的第i个区域定位结果和第j个区域定位结果;
Figure BDA00035640169300001114
分别表示第i个区域定位结果和第j个区域定位结果对应的伪标签,
Figure BDA00035640169300001115
表示生成的第i行第j列的监督矩阵。
根据第二模型的亲和矩阵
Figure BDA00035640169300001116
和第一模型的监督矩阵
Figure BDA00035640169300001117
图内同类别特征对齐对应的预测损失如下:
Figure BDA0003564016930000121
其中,
Figure BDA0003564016930000122
表示第二模型输出的图片内任意两个区域定位结果的相似度;
Figure BDA0003564016930000123
表示生成的第i行第j列的监督矩阵。
最后,采用如下公式计算得到更新后的第一模型的训练损失:
L=αLdist+β(LRe+LEc+LIn)
其中,L表示训练损失;α、β表示预设的调优参数;Ldist表示知识蒸馏对应的损失函数;LRe表示区域级特征对齐对应的损失函数;LEc表示图间结构匹配对应的损失函数;LIn表示图内同类别特征对应的损失函数。
步骤S400采用如下公式更新第一模型的权重参数:
θ′t=λθ′t-1-(1-λ)θt
其中,θ′t表示第一模型当前层的权重参数;θ′t-1表示第一模型上一层的权重参数;θt表示第二模型的权重参数;λ表示预设的权重平滑参数。
在本步骤中,通过一致性正则化策略最小化教师模型和学生模型间的差异;最后通过知识蒸馏,在像素级自适应中实现上述第一模型和第二模型的特征空间对齐,进一步减小领域差异,最终实现目标域数据集的目标检测任务。
步骤S500、将测试集输入更新权重参数后的第一模型,将满足预设条件的第一模型作为所述目标检测模型。
步骤S500具体包括:
将所述测试集输入更新权重参数后的第一模型,得到测试集中所有预设目标对应的预测区域定位结果和预测区域分类结果;
针对测试集中的每张图片:
计算所有预设目标预测的区域定位结果和区域分类结果;
判断所有预设目标预测的区域定位结果和区域分类结果符合实际的区域定位结果和区域分类结果的概率是否达到预设的阈值,若是,则认为当前图片识别准确,否则,则认为当前图片识别不准确;
判断识别准确的图片是否达到预设数量,若是,则认为更新权重参数后的第一模型满足预设条件。
请参阅图2,本实施例中还公开了一种目标检测模型的训练系统100,包括:
处理模块110,用于采集包含预设目标的图片,并对图片进行增强处理,得到目标域数据集;其中,目标域数据集的图片未携带有预设目标对应的区域定位结果和区域分类结果;
划分模块120,用于将目标域数据集中的图片随机分为训练集、测试集;
训练模块130,用于根据训练集训练教师模型和学生模型,得到训练好的第一模型和第二模型;其中,教师模型和学生模型采用源域数据集预先训练得到,源域数据集中的图片包含预设目标且携带有预设目标对应的区域定位结果和区域分类结果;
更新模块140,用于采用知识蒸馏和权重正则化策略更新第二模型的权重参数,并根据第二模型的权重参数更新第一模型的权重参数;
检验模块150,用于将测试集输入更新权重参数后的第一模型,将满足预设条件的第一模型作为目标检测模型。
请参阅图3,本实施例中还公开了一种计算机设备200,包括处理器210,处理器210和存储器220耦合,存储器220存储有程序指令,当存储器220存储的程序指令被处理器210执行时实现上述目标检测模型的训练方法。处理器210可以是通用处理器,包括中央处理器(Central Processing Unit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processing,简称DSP)、专用集成电路(Application Specific Integrated Circuit,简称ASIC)、现场可编程门阵列(Field-Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件;所述存储器220可能包含随机存取存储器(Random Access Memory,简称RAM),也可能还包括非易失性存储器(Non-Volatile Memory),例如至少一个磁盘存储器。所述存储器220也可以为随机存取存储器(Random Access Memory,RAM)类型的内部存储器,所述处理器210、存储器220可以集成为一个或多个独立的电路或硬件,如:专用集成电路(Application Specific Integrated Circuit,ASIC)。需要说明的是,上述的存储器220中的计算机程序可以通过软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,电子设备,或者网络设备等)执行本发明各个实施例方法的全部或部分步骤。
本实施例还提出一种计算机可读的存储介质,所述存储介质存储有计算机指令,所述计算机指令用于使计算机执行上述目标检测模型的训练方法。存储介质可以是电子介质、磁介质、光介质、电磁介质、红外介质或半导体系统或传播介质。存储介质还可以包括半导体或固态存储器、磁带、可移动计算机磁盘、随机存取存储器(RAM)、只读存储器(ROM)、硬磁盘和光盘。光盘可以包括光盘-只读存储器(CD-ROM)、光盘-读/写(CD-RW)和DVD。
请参阅图4,本实施例还提出一种目标划分方法,采用上述目标检测模型的训练方法训练得到的目标检测模型,该目标划分方法包括:
步骤SS100、将包含多个待检测目标的图片输入目标检测模型,输出目标检测结果;其中,目标检测结果包括所有待检测目标的区域定位结果和区域分类结果。
例如,在实际使用过程中,将一张图片输入目标检测模型,该图片包含了多个行人、多辆车和多个建筑,则目标检测模型输出的图片上将所有行人、车和建筑框选出来,并将所有行人对应的框分为一类,所有车对应的框分为一类,所有建筑对应的框分为一类。
本发明提供的一种目标检测模型的训练方法及目标划分方法仅依赖一个采用源域数据集预先训练好的目标检测模型和目标域数据集,训练生成适用于目标域数据集的检测器,初始的教师模型和学生模型通过一致性正则化策略使得差异最小化,并通过知识蒸馏,在像素级自适应中实现了特征空间对齐,进一步减小领域差异,最终实现目标域的目标检测任务;本发明可以解决数据隐私保护、存储空间受限、人力成本高昂等因素导致的实时情况下大量源域标注样本不可获得的问题,完成无源域数据的域自适应目标检测任务。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (10)

1.一种目标检测模型的训练方法,其特征在于,包括:
采集包含预设目标的图片,并对所述图片进行增强处理,得到目标域数据集;其中,所述目标域数据集的图片未携带有预设目标对应的区域定位结果和区域分类结果;
将所述目标域数据集中的图片随机分为训练集、测试集;
根据所述训练集训练教师模型和学生模型,得到训练好的第一模型和第二模型;其中,所述教师模型和所述学生模型采用源域数据集预先训练得到,所述源域数据集中的图片包含预设目标且携带有预设目标对应的区域定位结果和区域分类结果;
采用知识蒸馏和权重正则化策略更新所述第二模型的权重参数,并根据所述第二模型的权重参数更新所述第一模型的权重参数;
将所述测试集输入更新权重参数后的第一模型,将满足预设条件的第一模型作为所述目标检测模型。
2.根据权利要求1所述的训练方法,其特征在于,所述教师模型和所述学生模型均包括ResNet-101网络和区域卷积神经网络;
所述根据所述训练集训练教师模型和学生模型,得到训练好的第一模型和第二模型的步骤包括:
将所述训练集中的图片分别输入所述教师模型和所述学生模型的ResNet-101网络,得到对应的特征图;
将所述特征图输入对应的区域卷积神经网络,得到目标检测结果;其中所述目标检测结果包括所有所述预设目标的区域定位结果和区域分类结果。
3.根据权利要求2所述的训练方法,其特征在于,所述采用知识蒸馏和权重正则化策略更新所述第二模型的权重参数,并根据所述第二模型的权重参数更新所述第一模型的权重参数的步骤包括:
采用知识蒸馏来实现所述教师模型和所述学生模型中ResNet-101网络分别输出的特征图的像素级特征对齐;
采用权重正则化策略实现所述教师模型和所述学生模型中区域卷积神经网络输出的目标检测结果的区域级特征对齐、图间结构匹配和图内同类别特征对齐,以实现所述第二模型的权重参数的更新;
根据所述第二模型的EMA指数平均移动更新所述第一模型的权重参数。
4.根据权利要求3所述的训练方法,其特征在于,采用如下公式更新所述第一模型的权重参数:
θ′t=λθ′t-1-(1-λ)θt
其中,θ′t表示所述第一模型当前层的权重参数;θ′t-1表示所述第一模型上一层的权重参数;θt表示所述第二模型的权重参数;λ表示预设的权重平滑参数。
5.根据权利要求4所述的训练方法,其特征在于,所述根据所述第二模型的EMA指数平均移动更新所述第一模型的权重参数的步骤还包括:
采用如下公式计算得到更新后的第一模型的训练损失:
L=αLdist+β(LRe+LEc+LIn)
其中,L表示所述训练损失;α、β表示预设的调优参数;Ldist表示知识蒸馏对应的预测损失;LRe表示区域级特征对齐对应的预测损失;LEc表示图间结构匹配对应的预测损失;LIn表示图内同类别特征对应的预测损失。
6.根据权利要求4所述的训练方法,其特征在于,所述将所述测试集输入更新权重参数后的第一模型,将满足预设条件的第一模型作为所述目标检测模型的步骤包括:
将所述测试集输入更新权重参数后的第一模型,得到所述测试集中所有预设目标对应的预测区域定位结果和预测区域分类结果;
针对所述测试集中的每张图片:
计算所有预设目标预测的区域定位结果和区域分类结果;
判断所有预设目标预测的区域定位结果和区域分类结果符合实际的区域定位结果和区域分类结果的概率是否达到预设的阈值,若是,则认为当前图片识别准确,否则,则认为当前图片识别不准确;
判断识别准确的图片是否达到预设数量,若是,则认为更新权重参数后的第一模型满足预设条件。
7.一种目标检测模型的训练系统,其特征在于,包括:
处理模块,用于采集包含预设目标的图片,并对所述图片进行增强处理,得到目标域数据集;其中,所述目标域数据集的图片未携带有预设目标对应的区域定位结果和区域分类结果;
划分模块,用于将所述目标域数据集中的图片随机分为训练集、测试集;
训练模块,用于根据所述训练集训练教师模型和学生模型,得到训练好的第一模型和第二模型;其中,所述教师模型和所述学生模型采用源域数据集预先训练得到,所述源域数据集中的图片包含预设目标且携带有预设目标对应的区域定位结果和区域分类结果;
更新模块,用于采用知识蒸馏和权重正则化策略更新所述第二模型的权重参数,并根据所述第二模型的权重参数更新所述第一模型的权重参数;
检验模块,用于将所述测试集输入更新权重参数后的第一模型,将满足预设条件的第一模型作为所述目标检测模型。
8.一种计算机设备,其特征在于,包括处理器,所述处理器和存储器耦合,所述存储器存储有程序指令,当所述存储器存储的程序指令被所述处理器执行时实现如权利要求1-7任意一项所述的目标检测模型的训练方法。
9.一种计算机可读的存储介质,其特征在于,包括程序,当其在计算机上运行时,使得计算机执行如权利要求1-7任意一项所述的目标检测模型的训练方法。
10.一种目标划分方法,其特征在于,采用如权利要求1-7任意一项所述的目标检测模型的训练方法训练得到的目标检测模型,所述目标划分方法包括:
将包含多个待检测目标的图片输入所述目标检测模型,输出目标检测结果;其中,所述目标检测结果包括所有所述待检测目标的区域定位结果和区域分类结果。
CN202210308818.4A 2022-03-25 2022-03-25 一种目标检测模型的训练方法及目标划分方法 Pending CN114639021A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210308818.4A CN114639021A (zh) 2022-03-25 2022-03-25 一种目标检测模型的训练方法及目标划分方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210308818.4A CN114639021A (zh) 2022-03-25 2022-03-25 一种目标检测模型的训练方法及目标划分方法

Publications (1)

Publication Number Publication Date
CN114639021A true CN114639021A (zh) 2022-06-17

Family

ID=81949888

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210308818.4A Pending CN114639021A (zh) 2022-03-25 2022-03-25 一种目标检测模型的训练方法及目标划分方法

Country Status (1)

Country Link
CN (1) CN114639021A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115359062A (zh) * 2022-10-24 2022-11-18 浙江华是科技股份有限公司 通过半监督实例分割标定监控目标的方法及系统
CN115527083A (zh) * 2022-09-27 2022-12-27 中电金信软件有限公司 图像标注方法、装置和电子设备
CN116229210A (zh) * 2023-02-23 2023-06-06 南通探维光电科技有限公司 目标检测模型训练方法、装置、设备和介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115527083A (zh) * 2022-09-27 2022-12-27 中电金信软件有限公司 图像标注方法、装置和电子设备
CN115359062A (zh) * 2022-10-24 2022-11-18 浙江华是科技股份有限公司 通过半监督实例分割标定监控目标的方法及系统
CN115359062B (zh) * 2022-10-24 2023-01-24 浙江华是科技股份有限公司 通过半监督实例分割标定监控目标的方法及系统
CN116229210A (zh) * 2023-02-23 2023-06-06 南通探维光电科技有限公司 目标检测模型训练方法、装置、设备和介质
CN116229210B (zh) * 2023-02-23 2023-10-24 南通探维光电科技有限公司 目标检测模型训练方法、装置、设备和介质

Similar Documents

Publication Publication Date Title
CN109584248B (zh) 基于特征融合和稠密连接网络的红外面目标实例分割方法
CN114639021A (zh) 一种目标检测模型的训练方法及目标划分方法
CN108171112B (zh) 基于卷积神经网络的车辆识别与跟踪方法
CN110910391B (zh) 一种双模块神经网络结构视频对象分割方法
CN111709416B (zh) 车牌定位方法、装置、系统及存储介质
CN111640125A (zh) 基于Mask R-CNN的航拍图建筑物检测和分割方法及装置
CN108305260B (zh) 一种图像中角点的检测方法、装置及设备
CN115035295B (zh) 一种基于共享卷积核和边界损失函数的遥感图像语义分割方法
CN110610143B (zh) 多任务联合训练的人群计数网络方法、系统、介质及终端
CN110543838A (zh) 车辆信息检测的方法及装置
CN111027539A (zh) 一种基于空间位置信息的车牌字符分割方法
CN114708437B (zh) 目标检测模型的训练方法、目标检测方法、装置和介质
CN111461145A (zh) 一种基于卷积神经网络进行目标检测的方法
CN111738114A (zh) 基于无锚点精确采样遥感图像车辆目标检测方法
CN114359245A (zh) 一种工业场景下产品表面缺陷检测方法
CN112488083A (zh) 基于heatmap提取关键点的交通信号灯的识别方法、装置、介质
CN112560717A (zh) 一种基于深度学习的车道线检测方法
CN113011398A (zh) 一种针对多时相遥感图像的目标变化检测方法及装置
CN115995042A (zh) 一种视频sar运动目标检测方法及装置
CN113435370B (zh) 一种基于图像特征融合获取车辆排队长度的方法及装置
CN113963333A (zh) 一种基于改进yolof模型的交通标志牌检测方法
CN109284752A (zh) 一种车辆的快速检测方法
CN111079634B (zh) 车辆行驶中检测障碍物的方法、装置、系统及车辆
CN111709377B (zh) 特征提取方法、目标重识别方法、装置及电子设备
Suzuki et al. Superpixel convolution for segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination