CN113705570B - 一种基于深度学习的少样本目标检测方法 - Google Patents

一种基于深度学习的少样本目标检测方法 Download PDF

Info

Publication number
CN113705570B
CN113705570B CN202111012122.9A CN202111012122A CN113705570B CN 113705570 B CN113705570 B CN 113705570B CN 202111012122 A CN202111012122 A CN 202111012122A CN 113705570 B CN113705570 B CN 113705570B
Authority
CN
China
Prior art keywords
target
target detection
training
network model
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111012122.9A
Other languages
English (en)
Other versions
CN113705570A (zh
Inventor
李峰
蒲怀建
章登勇
彭建
赵乙芳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changsha University of Science and Technology
Original Assignee
Changsha University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changsha University of Science and Technology filed Critical Changsha University of Science and Technology
Priority to CN202111012122.9A priority Critical patent/CN113705570B/zh
Publication of CN113705570A publication Critical patent/CN113705570A/zh
Application granted granted Critical
Publication of CN113705570B publication Critical patent/CN113705570B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于深度学习的少样本目标检测方法,该方法获取少样本目标检测的数据集;将所述数据集划分为训练集和验证集,将所述训练集划分为支持集和询问集;构建目标检测网络模型和所述目标检测网络模型的目标损失函数;根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型;根据所述验证集对训练完成后的所述目标检测网络模型进行验证。本发明能够提高少样本目标检测网络模型的准确性和泛化性,该目标检测方法还结合了深度学习,使用了需要候选框的双阶段目标检测,能够提高少样本检测的精确度。

Description

一种基于深度学习的少样本目标检测方法
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于深度学习的少样本目标检测方法。
背景技术
计算机视觉领域的目标检测在军事、工业生产及智能监控等领域中都得到了广泛的应用。目标检测是在图片分类的基础上延伸而来,主要包括识别图片中包含的目标,以及标定出目标的位置。在以前,由于计算机的处理速度和内存的限制,研究人员一般使用传统非卷积神经网络的检测方法来检测目标,但随着计算机处理速度和内存的急速发展,使深度学习变成了可行的方法。并且,基于深度神经网络的目标检测方法在检测效率以及准确率上均优于传统的目标检测方法。
目前,目标检测任务严重依赖于大量带有标记的数据集进行训练,在通用的目标检测训练中,每个类别的样本往往有成千上万张图,但在实际应用中,我们发现有些物体的数据本身很少,或者很难去获取。当带有标记的数据缺乏时,将产生非常差的泛化能力,从而导致检测精度很低或者根本无法检测。
发明内容
为解决现有技术中存在的问题,本发明提供一种基于深度学习的少样本目标检测方法,能够实现少样本高精度检测。
为达到上述目的,本发明的技术方案是这样实现的:
一种基于深度学习的少样本目标检测方法,包括以下步骤:
获取少样本目标检测的数据集;其中,所述少样本目标检测的数据集中包括多个图片类别并且每一所述图片类别对应的图片数量少于第一预设值;
将所述数据集划分为训练集和验证集,将所述训练集划分为支持集和询问集;
构建目标检测网络模型和所述目标检测网络模型的目标损失函数,其中,通过如下方式构建所述目标检测网络模型:
通过权重共享特征提取网络提取所述支持集的特征图和所述询问集的特征图;对所述支持集的特征图进行全局平均池化,得到所述支持集的特征向量;将所述支持集的特征向量与所述询问集的特征图进行特征融合获得注意力特征图;提取所述注意力特征图中的第一目标候选框;根据真实标签提取所述支持集的特征图中的第二目标候选框;将所述第一目标候选框和所述第二目标候选框的大小进行统一,根据reshape分别获取所述第一目标候选框的第一候选区域向量和所述第二目标候选框的第二候选区域向量;根据皮尔逊距离函数对所述第一候选区域向量和所述第二候选区域向量进行相似性度量,得到度量最相似的类别;
根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型;
根据所述验证集对训练完成后的所述目标检测网络模型进行验证。
根据本发明的一些实施例,所述获取少样本目标检测的数据集,包括步骤:在所述Microsoft COCO数据集中分别为每一图片类别选取标签正确并且标记框大于图片大小的0.05%的图片作为所述少样本目标检测的数据集。
根据本发明的一些实施例,所述将所述训练集划分为支持集和询问集,包括步骤:从所述训练集中选择五张目标类别区域大于第二预设值的图片作为所述支持集,将所有所述训练集的图片作为所述询问集。
根据本发明的一些实施例,所述提取所述注意力特征图中的第一目标候选框,包括步骤:采用Faster RCNN中的区域提取网络提取所述注意力特征图中的所述第一目标候选框。
根据本发明的一些实施例,所述权重共享特征提取网络包括Darknet53网络和Mish激活函数。
根据本发明的一些实施例,所述将所述支持集的特征向量与所述询问集的特征图进行特征融合获得注意力特征图,包括步骤:将所述支持集的特征向量与所述询问集的特征图通过通道卷积进行特征融合,获得注意力特征图。
根据本发明的一些实施例,所述将所述第一目标候选框和所述第二目标候选框的大小进行统一,包括步骤:将所述第一目标候选框和所述第二目标候选框分别使用ROIAlign进行缩放,获得统一大小后的所述第一目标候选框和所述第二目标候选框。
根据本发明的一些实施例,所述目标损失函数的公式为:
其中,所述b表示每张图片的序号,所述pb表示图片序号是b的概率,所述表示标签,所述/>的取值为0或者1,所述tb表示预测框的四个参数,所述vb表示预测框的标签,所述Lcls表示分类损失函数,所述Lloc表示定位损失函数,所述Ncls和所述Nloc分别表示分类损失函数和定位损失函数的归一化系数,所述λ表示两者之间的权重参数。
根据本发明的一些实施例,所述根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型,包括步骤:
用Pascal VOC2007数据集对所述目标检测网络模型进行预训练获得一个初始权重;
用训练集对所述目标检测网络模型进行训练;
采用梯度下降法使所述目标损失函数最小化,并对所述目标检测网络模型中的所述初始权重进行逐层的反向调节,获得训练完成后的所述目标检测网络模型。
根据本发明的一些实施例,所述根据所述验证集对训练完成后的所述目标检测网络模型进行验证,包括步骤:
输入所述验证集的图片至训练完成后的所述目标检测模型中,获得所述验证集图片的目标类别和位置坐标;
将所述验证集图片的所述目标类别和所述位置坐标与所述验证集的标签进行比较,通过平均精确率指标来评估目标检测模型的准确度。
与现有技术相比,本发明具有以下有益效果:
该目标检测方法对数据集中的图片进行筛选,通过选取数量少于第一预设值的图片来获取少样本目标检测的数据集,然后基于少量样本构建目标检测网络模型。在构建目标检测网络模型中使用了皮尔逊距离函数来进行度量,有利于图片的正确分类,采用权重共享特征提取网络能提高少样本目标检测网络模型的准确性和泛化能力,该目标检测方法还结合了深度学习,使用了需要候选框的双阶段目标检测,能够提高少样本目标检测的精确度。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1本发明一个实施例提供的基于深度学习的少样本目标检测方法的流程图;
图2为本发明另一个实施例提供的基于深度学习的少样本目标检测方法的流程图;
图3为本发明一个实施例提供的区域提取网络的流程图;
图4为本发明一个实施例提供的区域提取网络的内部结构图。
具体实施方式
下面将结合附图,对本公开实施例的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。需要说明的是,在不冲突的情况下,本公开实施例及实施例中的特征可以相互组合。另外,附图的作用在于用图形补充说明书文字部分的描述,使人能够直观地、形象地理解本公开的每个技术特征和整体技术方案,但其不能理解为对本公开保护范围的限制。
现如今,目标检测严重依赖于大量带有标记的数据集进行训练,在通用的目标检测训练中,每个类别的样本往往有成千上万张图,但在实际应用中,有些物体的数据本身很少,或者很难去获取。当带有标记的数据缺乏时,将产生非常差的泛化能力,从而导致检测精度很低或者根本无法检测。
本发明实施例公开了一种基于深度学习的少样本目标检测方法,该方法可以有效解决当需要检测的目标样本数据不足时,检测精度低或无法检测的问题。
参照图1至图4,本实施例提供了一种基于深度学习的少样本目标检测方法,具体实施步骤如下:
步骤S100、获取少样本目标检测的数据集;其中,少样本目标检测的数据集中包括多个图片类别并且每一图片类别对应的图片数量少于第一预设值;
具体的,获取少样本目标检测的数据集,以Microsoft COCO数据集为例,Microsoft COCO数据集一共含有80个类别,对Microsoft COCO数据集中的图片进行筛选和多级分类,将具有相同语义的叶子标签归为一类,删除不属于任何叶子类别的语义,并且删除标签不正确、标记框小于或等于图片大小的0.05%的图片,选取的图片数量少于第一预设值,该第一预设值可以根据实际需要选取的图片数量的多少来设定。
步骤S200、将数据集划分为训练集和验证集,将训练集划分为支持集和询问集。
具体的,从该少样本目标检测的数据集中选取类别不相似的20个类别作为验证集,其余60个类别作为训练集。在训练过程中,从训练集中选择五张目标类别区域大于第二预设值的图片作为支持集,将所有训练集的图片作为询问集。将训练集中图片的目标类别区域的大小进行排序,根据需要选取的图片数量来设定第二预设值,在本实施例中,将训练集中图片的目标类别区域的大小进行从大到小排序,选取前五张图片。
步骤S300、构建目标检测网络模型和目标检测网络模型的目标损失函数,其中通过如下方式构建目标检测网络模型:
通过权重共享特征提取网络提取支持集的特征图和询问集的特征图;对支持集的特征图进行全局平均池化,得到支持集的特征向量;将支持集的特征向量与询问集的特征图进行特征融合获得注意力特征图;提取注意力特征图中的第一目标候选框;根据真实标签提取支持集的特征图中的第二目标候选框;将第一目标候选框和第二目标候选框的大小进行统一,根据reshape分别获取第一目标候选框的第一候选区域向量和第二目标候选框的第二候选区域向量;根据皮尔逊距离函数对第一候选区域向量和第二候选区域向量进行相似性度量,得到度量最相似的类别;
具体的,采用Darknet53网络、Mish激活函数等来构建权重共享特征提取网络,用权重共享特征提取网络对支持集和询问集进行特征提取,获取支持集和询问集的特征图;对支持集的特征图进行全局平均池化得到支持集的特征向量,将支持集的特征向量与询问集的特征图通过通道卷积进行特征融合,获得注意力特征图;采用Faster RCNN中的区域提取网络提取注意力特征图中的第一目标候选框;对支持集特征图采用其真实标签获取第二目标候选框;第一目标候选框和第二目标候选框分别使用ROI Align进行缩放获得统一大小的第一目标候选框和第二目标候选框,将第一目标候选框和第二目标候选框统一大小后,通过reshape分别获得第一目标候选框的第一候选区域向量和第二目标候选框的第二候选区域向量;采用皮尔逊距离函数对第一候选区域向量和第二候选区域向量进行度量,通过对每个维度的均值进行归一化来计算第一候选区域向量和第二候选区域向量之间的相似度,然后再对询问集中的候选框进行分类。其中,Mish激活函数、Faster RCNN中的区域提取网络、ROI Align、reshape为本领域技术人员的公知,此处不再详细描述,皮尔逊距离公式为:
其中,表示皮尔逊距离值,cn和/>分别表示第一候选区域向量和第二候选区域向量,d表示第一候选区域向量和第二候选区域向量的维度,/>和/>分别表示d个维度的第一候选区域向量和第二候选区域向量的平均值。
构建目标检测网络模型的目标损失函数,目标检测网络模型的目标损失函数包括分类损失函数和定位损失函数。其中目标损失函数表达式为:
其中,b表示每张图片的序号。pb表示图片序号是b的概率,表示样本标签,如果样本标签为正,/>为1,如果样本标签为负,/>为0,tb表示预测框的四个参数,vb表示预测框的标签,Lcls表示分类损失函数,Lloc表示定位损失函数,Ncls和Nloc分别表示分类损失函数和定位损失函数的归一化系数,本实施例中设置Ncls为256和Nloc为2400,λ表示两者之间的权重参数,本实施例中设置λ为10。
其中,分类损失函数表达式为:
N表示支持集的训练类别,本实施例中训练类别设置为60,表示询问集中目标是真实标签,/>为皮尔逊距离值。
定位损失函数表达式为:
t表示预测值,v表示样本标签。
本实施例中,采用Mish激活函数能够得到更好的准确性和泛化性。使用区域提取网络来提取注意力特征图的第一目标候选框,能够过滤掉大多数背景框和不匹配类别的背景框,提高目标检测网络的精确度。使用ROI Align对目标候选框进行缩放使得目标检测网络更加精确。
步骤S400、根据训练集和目标损失函数对目标检测网络模型进行训练,得到训练完成后的目标检测网络模型。
具体的,首先,用Pascal VOC2007数据集对目标检测网络模型进行预训练获得一个初始权重;然后,用训练集对目标检测网络模型进行训练;最后,采用梯度下降法使目标损失函数最小化,并对网络中的初始权重进行逐层的反向调节,获取最终训练好的网络模型。梯度下降法为本领域技术人员的公知,此处不再详细描述。由于训练集和验证集的类别没有重合,因此在训练过程中,不需要用验证集类别来进行微调,只需一次训练即可,简化了训练过程。
步骤S500、根据验证集对训练完成后的目标检测网络模型进行验证。
具体的,在验证过程中,对验证集做与训练集同样的操作,将验证集划分为支持集和询问集,然后输入到训练完成后的目标检测模型中进行预测,获得验证集图片的目标类别和位置坐标;将验证集图片的目标类别和位置坐标与验证集的标签进行比较,通过计算AP50来确定该目标检测网络模型的准确度。其中,AP50表示目标标签包含一个类别标签和一个位置标签,位置标签就是一个矩形框,目标检测模型在预测时会获得一个矩形框,该矩形框与位置标签的矩形框两者之间的交集除以两者之间的并集大于或等于0.5时,认为目标检测模型预测的矩形框正确,否则目标检测模型预测的矩形框认为不正确。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的共享条件下还可作出种种等同的变形或替换,这些等同的变形或替换均包括在本发明权利要求所限定的范围内。

Claims (10)

1.一种基于深度学习的少样本目标检测方法,其特征在于,包括以下步骤:
获取少样本目标检测的数据集;其中,所述少样本目标检测的数据集中包括多个图片类别并且每一所述图片类别对应的图片数量少于第一预设值;
将所述数据集划分为训练集和验证集,将所述训练集划分为支持集和询问集;
构建目标检测网络模型和所述目标检测网络模型的目标损失函数,其中,通过如下方式构建所述目标检测网络模型:
通过权重共享特征提取网络提取所述支持集的特征图和所述询问集的特征图;对所述支持集的特征图进行全局平均池化,得到所述支持集的特征向量;将所述支持集的特征向量与所述询问集的特征图进行特征融合获得注意力特征图;提取所述注意力特征图中的第一目标候选框;根据真实标签提取所述支持集的特征图中的第二目标候选框;将所述第一目标候选框和所述第二目标候选框的大小进行统一,根据reshape分别获取所述第一目标候选框的第一候选区域向量和所述第二目标候选框的第二候选区域向量;根据皮尔逊距离函数对所述第一候选区域向量和所述第二候选区域向量进行相似性度量,得到度量最相似的类别;
根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型;
根据所述验证集对训练完成后的所述目标检测网络模型进行验证。
2.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述获取少样本目标检测的数据集,包括步骤:在所述Microsoft COCO数据集中分别为每一图片类别选取标签正确并且标记框大于图片大小的0.05%的图片作为所述少样本目标检测的数据集。
3.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述将所述训练集划分为支持集和询问集,包括步骤:从所述训练集中选择五张目标类别区域大于第二预设值的图片作为所述支持集,将所有所述训练集的图片作为所述询问集。
4.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述提取所述注意力特征图中的第一目标候选框,包括步骤:采用Faster RCNN中的区域提取网络提取所述注意力特征图中的所述第一目标候选框。
5.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述权重共享特征提取网络包括Darknet53网络和Mish激活函数。
6.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述将所述支持集的特征向量与所述询问集的特征图进行特征融合获得注意力特征图,包括步骤:将所述支持集的特征向量与所述询问集的特征图通过通道卷积进行特征融合,获得注意力特征图。
7.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述将所述第一目标候选框和所述第二目标候选框的大小进行统一,包括步骤:将所述第一目标候选框和所述第二目标候选框分别使用ROI Align进行缩放,获得统一大小后的所述第一目标候选框和所述第二目标候选框。
8.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述目标损失函数的公式为:
其中,所述b表示每张图片的序号,所述pb表示图片序号是b的概率,所述表示标签,所述/>的取值为0或者1,所述tb表示预测框的四个参数,所述vb表示预测框的标签,所述Lcls表示分类损失函数,所述Lloc表示定位损失函数,所述Ncls和所述Nloc分别表示分类损失函数和定位损失函数的归一化系数,所述λ表示两者之间的权重参数。
9.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型,包括步骤:
用Pascal VOC2007数据集对所述目标检测网络模型进行预训练获得一个初始权重;
用训练集对所述目标检测网络模型进行训练;
采用梯度下降法使所述目标损失函数最小化,并对所述目标检测网络模型中的所述初始权重进行逐层的反向调节,获得训练完成后的所述目标检测网络模型。
10.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述根据所述验证集对训练完成后的所述目标检测网络模型进行验证,包括步骤:
输入所述验证集的图片至训练完成后的所述目标检测模型中,获得所述验证集图片的目标类别和位置坐标;
将所述验证集图片的所述目标类别和所述位置坐标与所述验证集的标签进行比较,通过平均精确率指标来评估目标检测模型的准确度。
CN202111012122.9A 2021-08-31 2021-08-31 一种基于深度学习的少样本目标检测方法 Active CN113705570B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111012122.9A CN113705570B (zh) 2021-08-31 2021-08-31 一种基于深度学习的少样本目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111012122.9A CN113705570B (zh) 2021-08-31 2021-08-31 一种基于深度学习的少样本目标检测方法

Publications (2)

Publication Number Publication Date
CN113705570A CN113705570A (zh) 2021-11-26
CN113705570B true CN113705570B (zh) 2023-12-08

Family

ID=78657955

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111012122.9A Active CN113705570B (zh) 2021-08-31 2021-08-31 一种基于深度学习的少样本目标检测方法

Country Status (1)

Country Link
CN (1) CN113705570B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114743257A (zh) * 2022-01-23 2022-07-12 中国电子科技集团公司第十研究所 图像目标行为的检测识别方法
CN114663707A (zh) * 2022-03-28 2022-06-24 中国科学院光电技术研究所 基于Faster RCNN改进的少样本目标检测方法
CN114818963B (zh) * 2022-05-10 2023-05-09 电子科技大学 一种基于跨图像特征融合的小样本检测方法
CN116129226B (zh) * 2023-04-10 2023-07-25 之江实验室 一种基于多原型混合模块的少样本目标检测方法及装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109800811A (zh) * 2019-01-24 2019-05-24 吉林大学 一种基于深度学习的小样本图像识别方法
CN109961089A (zh) * 2019-02-26 2019-07-02 中山大学 基于度量学习和元学习的小样本和零样本图像分类方法
CN110363151A (zh) * 2019-07-16 2019-10-22 中国人民解放军海军航空大学 基于双通道卷积神经网络虚警可控的雷达目标检测方法
CN110569886A (zh) * 2019-08-20 2019-12-13 天津大学 一种双向通道注意力元学习的图像分类方法
CN110598693A (zh) * 2019-08-12 2019-12-20 浙江工业大学 一种基于Faster-RCNN的船牌识别方法
CN112488098A (zh) * 2020-11-16 2021-03-12 浙江新再灵科技股份有限公司 一种目标检测模型的训练方法
CN112861720A (zh) * 2021-02-08 2021-05-28 西北工业大学 基于原型卷积神经网络的遥感图像小样本目标检测方法
CN113052185A (zh) * 2021-03-12 2021-06-29 电子科技大学 一种基于Faster R-CNN的小样本目标检测方法
CN113095575A (zh) * 2021-04-16 2021-07-09 清华大学深圳国际研究生院 一种基于迁移学习的车流量预测方法和系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110569795B (zh) * 2018-03-13 2022-10-14 腾讯科技(深圳)有限公司 一种图像识别方法、装置以及相关设备
CN110472483B (zh) * 2019-07-02 2022-11-15 五邑大学 一种面向sar图像的小样本语义特征增强的方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109800811A (zh) * 2019-01-24 2019-05-24 吉林大学 一种基于深度学习的小样本图像识别方法
CN109961089A (zh) * 2019-02-26 2019-07-02 中山大学 基于度量学习和元学习的小样本和零样本图像分类方法
CN110363151A (zh) * 2019-07-16 2019-10-22 中国人民解放军海军航空大学 基于双通道卷积神经网络虚警可控的雷达目标检测方法
CN110598693A (zh) * 2019-08-12 2019-12-20 浙江工业大学 一种基于Faster-RCNN的船牌识别方法
CN110569886A (zh) * 2019-08-20 2019-12-13 天津大学 一种双向通道注意力元学习的图像分类方法
CN112488098A (zh) * 2020-11-16 2021-03-12 浙江新再灵科技股份有限公司 一种目标检测模型的训练方法
CN112861720A (zh) * 2021-02-08 2021-05-28 西北工业大学 基于原型卷积神经网络的遥感图像小样本目标检测方法
CN113052185A (zh) * 2021-03-12 2021-06-29 电子科技大学 一种基于Faster R-CNN的小样本目标检测方法
CN113095575A (zh) * 2021-04-16 2021-07-09 清华大学深圳国际研究生院 一种基于迁移学习的车流量预测方法和系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Feature reconstruction and metric based network for few-shot object detection;Li, YW 等;COMPUTER VISION AND IMAGE UNDERSTANDING(第227期);第1-11页 *
Few-Shot Object Detection Based on the Transformer and High-Resolution Network;Zhang, DY 等;CMC-COMPUTERS MATERIALS & CONTINUA;第74卷(第2期);第3439-3454页 *
基于R-CNN算法的海上船只的检测与识别;张新;郭福亮;梁英杰;陈修亮;;计算机应用研究(第S1期);第324-325+329页 *

Also Published As

Publication number Publication date
CN113705570A (zh) 2021-11-26

Similar Documents

Publication Publication Date Title
CN113705570B (zh) 一种基于深度学习的少样本目标检测方法
CN108830285B (zh) 一种基于Faster-RCNN的加强学习的目标检测方法
CN107133569B (zh) 基于泛化多标记学习的监控视频多粒度标注方法
CN112016605B (zh) 一种基于边界框角点对齐和边界匹配的目标检测方法
CN108537286B (zh) 一种基于关键区域检测的复杂目标精准识别方法
CN101140624A (zh) 图像匹配方法
US9158992B2 (en) Acceleration of linear classifiers
CN111008576B (zh) 行人检测及其模型训练、更新方法、设备及可读存储介质
CN111178451A (zh) 一种基于YOLOv3网络的车牌检测方法
CN111274926B (zh) 图像数据筛选方法、装置、计算机设备和存储介质
CN109977253B (zh) 一种基于语义和内容的快速图像检索方法及装置
Yang et al. Detecting interchanges in road networks using a graph convolutional network approach
CN111414951B (zh) 用于图像的细分类方法及装置
CN117152484A (zh) 改进YOLOv5s的小目标布匹瑕疵检测方法
CN115424237A (zh) 一种基于深度学习的前向车辆识别与距离检测方法
CN111444816A (zh) 一种基于Faster RCNN的多尺度密集行人检测方法
CN112418207B (zh) 一种基于自注意力蒸馏的弱监督文字检测方法
CN108960005B (zh) 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统
CN105844299B (zh) 一种基于词袋模型的图像分类方法
Zhang et al. A YOLOv3-Based Industrial Instrument Classification and Reading Recognition Method
Wu et al. Classification of quickbird image with maximal mutual information feature selection and support vector machine
Shi et al. Anchor Free remote sensing detector based on solving discrete polar coordinate equation
Daudt et al. Learning to understand earth observation images with weak and unreliable ground truth
CN112015937B (zh) 一种图片地理定位方法及系统
CN114663760A (zh) 模型训练的方法、目标检测方法、存储介质及计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant