CN113705570A - 一种基于深度学习的少样本目标检测方法 - Google Patents
一种基于深度学习的少样本目标检测方法 Download PDFInfo
- Publication number
- CN113705570A CN113705570A CN202111012122.9A CN202111012122A CN113705570A CN 113705570 A CN113705570 A CN 113705570A CN 202111012122 A CN202111012122 A CN 202111012122A CN 113705570 A CN113705570 A CN 113705570A
- Authority
- CN
- China
- Prior art keywords
- target
- target detection
- network model
- sample
- few
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 106
- 238000013135 deep learning Methods 0.000 title claims abstract description 23
- 238000012549 training Methods 0.000 claims abstract description 49
- 230000006870 function Effects 0.000 claims abstract description 43
- 238000012795 verification Methods 0.000 claims abstract description 27
- 238000000034 method Methods 0.000 claims abstract description 11
- 238000000605 extraction Methods 0.000 claims description 15
- 230000004927 fusion Effects 0.000 claims description 7
- 238000005259 measurement Methods 0.000 claims description 6
- 230000004913 activation Effects 0.000 claims description 5
- 238000011478 gradient descent method Methods 0.000 claims description 4
- 230000004807 localization Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 102100031315 AP-2 complex subunit mu Human genes 0.000 description 1
- 101000796047 Homo sapiens AP-2 complex subunit mu Proteins 0.000 description 1
- 101150060512 SPATA6 gene Proteins 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000009776 industrial production Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度学习的少样本目标检测方法,该方法获取少样本目标检测的数据集;将所述数据集划分为训练集和验证集,将所述训练集划分为支持集和询问集;构建目标检测网络模型和所述目标检测网络模型的目标损失函数;根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型;根据所述验证集对训练完成后的所述目标检测网络模型进行验证。本发明能够提高少样本目标检测网络模型的准确性和泛化性,该目标检测方法还结合了深度学习,使用了需要候选框的双阶段目标检测,能够提高少样本检测的精确度。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于深度学习的少样本目标检测方法。
背景技术
计算机视觉领域的目标检测在军事、工业生产及智能监控等领域中都得到了广泛的应用。目标检测是在图片分类的基础上延伸而来,主要包括识别图片中包含的目标,以及标定出目标的位置。在以前,由于计算机的处理速度和内存的限制,研究人员一般使用传统非卷积神经网络的检测方法来检测目标,但随着计算机处理速度和内存的急速发展,使深度学习变成了可行的方法。并且,基于深度神经网络的目标检测方法在检测效率以及准确率上均优于传统的目标检测方法。
目前,目标检测任务严重依赖于大量带有标记的数据集进行训练,在通用的目标检测训练中,每个类别的样本往往有成千上万张图,但在实际应用中,我们发现有些物体的数据本身很少,或者很难去获取。当带有标记的数据缺乏时,将产生非常差的泛化能力,从而导致检测精度很低或者根本无法检测。
发明内容
为解决现有技术中存在的问题,本发明提供一种基于深度学习的少样本目标检测方法,能够实现少样本高精度检测。
为达到上述目的,本发明的技术方案是这样实现的:
一种基于深度学习的少样本目标检测方法,包括以下步骤:
获取少样本目标检测的数据集;其中,所述少样本目标检测的数据集中包括多个图片类别并且每一所述图片类别对应的图片数量少于第一预设值;
将所述数据集划分为训练集和验证集,将所述训练集划分为支持集和询问集;
构建目标检测网络模型和所述目标检测网络模型的目标损失函数,其中,通过如下方式构建所述目标检测网络模型:
通过权重共享特征提取网络提取所述支持集的特征图和所述询问集的特征图;对所述支持集的特征图进行全局平均池化,得到所述支持集的特征向量;将所述支持集的特征向量与所述询问集的特征图进行特征融合获得注意力特征图;提取所述注意力特征图中的第一目标候选框;根据真实标签提取所述支持集的特征图中的第二目标候选框;将所述第一目标候选框和所述第二目标候选框的大小进行统一,根据reshape分别获取所述第一目标候选框的第一候选区域向量和所述第二目标候选框的第二候选区域向量;根据皮尔逊距离函数对所述第一候选区域向量和所述第二候选区域向量进行相似性度量,得到度量最相似的类别;
根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型;
根据所述验证集对训练完成后的所述目标检测网络模型进行验证。
根据本发明的一些实施例,所述获取少样本目标检测的数据集,包括步骤:在所述Microsoft COCO数据集中分别为每一图片类别选取标签正确并且标记框大于图片大小的0.05%的图片作为所述少样本目标检测的数据集。
根据本发明的一些实施例,所述将所述训练集划分为支持集和询问集,包括步骤:从所述训练集中选择五张目标类别区域大于第二预设值的图片作为所述支持集,将所有所述训练集的图片作为所述询问集。
根据本发明的一些实施例,所述提取所述注意力特征图中的第一目标候选框,包括步骤:采用Faster RCNN中的区域提取网络提取所述注意力特征图中的所述第一目标候选框。
根据本发明的一些实施例,所述权重共享特征提取网络包括Darknet53网络和Mish激活函数。
根据本发明的一些实施例,所述将所述支持集的特征向量与所述询问集的特征图进行特征融合获得注意力特征图,包括步骤:将所述支持集的特征向量与所述询问集的特征图通过通道卷积进行特征融合,获得注意力特征图。
根据本发明的一些实施例,所述将所述第一目标候选框和所述第二目标候选框的大小进行统一,包括步骤:将所述第一目标候选框和所述第二目标候选框分别使用ROIAlign进行缩放,获得统一大小后的所述第一目标候选框和所述第二目标候选框。
根据本发明的一些实施例,所述目标损失函数的公式为:
其中,所述b表示每张图片的序号,所述pb表示图片序号是b的概率,所述表示标签,所述的取值为0或者1,所述t表示预测框的四个参数,所述vb表示预测框的标签,所述Lcls表示分类损失函数,所述Lloc表示定位损失函数,所述Ncls和所述Nloc分别表示分类损失函数和定位损失函数的归一化系数,所述λ表示两者之间的权重参数。
根据本发明的一些实施例,所述根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型,包括步骤:
用Pascal VOC2007数据集对所述目标检测网络模型进行预训练获得一个初始权重;
用训练集对所述目标检测网络模型进行训练;
采用梯度下降法使所述目标损失函数最小化,并对所述目标检测网络模型中的所述初始权重进行逐层的反向调节,获得训练完成后的所述目标检测网络模型。
根据本发明的一些实施例,所述根据所述验证集对训练完成后的所述目标检测网络模型进行验证,包括步骤:
输入所述验证集的图片至训练完成后的所述目标检测模型中,获得所述验证集图片的目标类别和位置坐标;
将所述验证集图片的所述目标类别和所述位置坐标与所述验证集的标签进行比较,通过平均精确率指标来评估目标检测模型的准确度。
与现有技术相比,本发明具有以下有益效果:
该目标检测方法对数据集中的图片进行筛选,通过选取数量少于第一预设值的图片来获取少样本目标检测的数据集,然后基于少量样本构建目标检测网络模型。在构建目标检测网络模型中使用了皮尔逊距离函数来进行度量,有利于图片的正确分类,采用权重共享特征提取网络能提高少样本目标检测网络模型的准确性和泛化能力,该目标检测方法还结合了深度学习,使用了需要候选框的双阶段目标检测,能够提高少样本目标检测的精确度。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1本发明一个实施例提供的基于深度学习的少样本目标检测方法的流程图;
图2为本发明另一个实施例提供的基于深度学习的少样本目标检测方法的流程图;
图3为本发明一个实施例提供的区域提取网络的流程图;
图4为本发明一个实施例提供的区域提取网络的内部结构图。
具体实施方式
下面将结合附图,对本公开实施例的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。基于本公开的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。需要说明的是,在不冲突的情况下,本公开实施例及实施例中的特征可以相互组合。另外,附图的作用在于用图形补充说明书文字部分的描述,使人能够直观地、形象地理解本公开的每个技术特征和整体技术方案,但其不能理解为对本公开保护范围的限制。
现如今,目标检测严重依赖于大量带有标记的数据集进行训练,在通用的目标检测训练中,每个类别的样本往往有成千上万张图,但在实际应用中,有些物体的数据本身很少,或者很难去获取。当带有标记的数据缺乏时,将产生非常差的泛化能力,从而导致检测精度很低或者根本无法检测。
本发明实施例公开了一种基于深度学习的少样本目标检测方法,该方法可以有效解决当需要检测的目标样本数据不足时,检测精度低或无法检测的问题。
参照图1至图4,本实施例提供了一种基于深度学习的少样本目标检测方法,具体实施步骤如下:
步骤S100、获取少样本目标检测的数据集;其中,少样本目标检测的数据集中包括多个图片类别并且每一图片类别对应的图片数量少于第一预设值;
具体的,获取少样本目标检测的数据集,以Microsoft COCO数据集为例,Microsoft COCO数据集一共含有80个类别,对Microsoft COCO数据集中的图片进行筛选和多级分类,将具有相同语义的叶子标签归为一类,删除不属于任何叶子类别的语义,并且删除标签不正确、标记框小于或等于图片大小的0.05%的图片,选取的图片数量少于第一预设值,该第一预设值可以根据实际需要选取的图片数量的多少来设定。
步骤S200、将数据集划分为训练集和验证集,将训练集划分为支持集和询问集。
具体的,从该少样本目标检测的数据集中选取类别不相似的20个类别作为验证集,其余60个类别作为训练集。在训练过程中,从训练集中选择五张目标类别区域大于第二预设值的图片作为支持集,将所有训练集的图片作为询问集。将训练集中图片的目标类别区域的大小进行排序,根据需要选取的图片数量来设定第二预设值,在本实施例中,将训练集中图片的目标类别区域的大小进行从大到小排序,选取前五张图片。
步骤S300、构建目标检测网络模型和目标检测网络模型的目标损失函数,其中通过如下方式构建目标检测网络模型:
通过权重共享特征提取网络提取支持集的特征图和询问集的特征图;对支持集的特征图进行全局平均池化,得到支持集的特征向量;将支持集的特征向量与询问集的特征图进行特征融合获得注意力特征图;提取注意力特征图中的第一目标候选框;根据真实标签提取支持集的特征图中的第二目标候选框;将第一目标候选框和第二目标候选框的大小进行统一,根据reshape分别获取第一目标候选框的第一候选区域向量和第二目标候选框的第二候选区域向量;根据皮尔逊距离函数对第一候选区域向量和第二候选区域向量进行相似性度量,得到度量最相似的类别;
具体的,采用Darknet53网络、Mish激活函数等来构建权重共享特征提取网络,用权重共享特征提取网络对支持集和询问集进行特征提取,获取支持集和询问集的特征图;对支持集的特征图进行全局平均池化得到支持集的特征向量,将支持集的特征向量与询问集的特征图通过通道卷积进行特征融合,获得注意力特征图;采用Faster RCNN中的区域提取网络提取注意力特征图中的第一目标候选框;对支持集特征图采用其真实标签获取第二目标候选框;第一目标候选框和第二目标候选框分别使用ROI Align进行缩放获得统一大小的第一目标候选框和第二目标候选框,将第一目标候选框和第二目标候选框统一大小后,通过reshape分别获得第一目标候选框的第一候选区域向量和第二目标候选框的第二候选区域向量;采用皮尔逊距离函数对第一候选区域向量和第二候选区域向量进行度量,通过对每个维度的均值进行归一化来计算第一候选区域向量和第二候选区域向量之间的相似度,然后再对询问集中的候选框进行分类。其中,Mish激活函数、Faster RCNN中的区域提取网络、ROI Align、reshape为本领域技术人员的公知,此处不再详细描述,皮尔逊距离公式为:
构建目标检测网络模型的目标损失函数,目标检测网络模型的目标损失函数包括分类损失函数和定位损失函数。其中目标损失函数表达式为:
其中,b表示每张图片的序号。pb表示图片序号是b的概率,表示样本标签,如果样本标签为正,为1,如果样本标签为负,为0,t表示预测框的四个参数,vb表示预测框的标签,Lcls表示分类损失函数,Lloc表示定位损失函数,Ncls和Nloc分别表示分类损失函数和定位损失函数的归一化系数,本实施例中设置Ncls为256和Nloc为2400,λ表示两者之间的权重参数,本实施例中设置λ为10。
其中,分类损失函数表达式为:
定位损失函数表达式为:
t表示预测值,v表示样本标签。
本实施例中,采用Mish激活函数能够得到更好的准确性和泛化性。使用区域提取网络来提取注意力特征图的第一目标候选框,能够过滤掉大多数背景框和不匹配类别的背景框,提高目标检测网络的精确度。使用ROI Align对目标候选框进行缩放使得目标检测网络更加精确。
步骤S400、根据训练集和目标损失函数对目标检测网络模型进行训练,得到训练完成后的目标检测网络模型。
具体的,首先,用Pascal VOC2007数据集对目标检测网络模型进行预训练获得一个初始权重;然后,用训练集对目标检测网络模型进行训练;最后,采用梯度下降法使目标损失函数最小化,并对网络中的初始权重进行逐层的反向调节,获取最终训练好的网络模型。梯度下降法为本领域技术人员的公知,此处不再详细描述。由于训练集和验证集的类别没有重合,因此在训练过程中,不需要用验证集类别来进行微调,只需一次训练即可,简化了训练过程。
步骤S500、根据验证集对训练完成后的目标检测网络模型进行验证。
具体的,在验证过程中,对验证集做与训练集同样的操作,将验证集划分为支持集和询问集,然后输入到训练完成后的目标检测模型中进行预测,获得验证集图片的目标类别和位置坐标;将验证集图片的目标类别和位置坐标与验证集的标签进行比较,通过计算AP50来确定该目标检测网络模型的准确度。其中,AP50表示目标标签包含一个类别标签和一个位置标签,位置标签就是一个矩形框,目标检测模型在预测时会获得一个矩形框,该矩形框与位置标签的矩形框两者之间的交集除以两者之间的并集大于或等于0.5时,认为目标检测模型预测的矩形框正确,否则目标检测模型预测的矩形框认为不正确。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示意性实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上是对本发明的较佳实施进行了具体说明,但本发明并不局限于上述实施方式,熟悉本领域的技术人员在不违背本发明精神的共享条件下还可作出种种等同的变形或替换,这些等同的变形或替换均包括在本发明权利要求所限定的范围内。
Claims (10)
1.一种基于深度学习的少样本目标检测方法,其特征在于,包括以下步骤:
获取少样本目标检测的数据集;其中,所述少样本目标检测的数据集中包括多个图片类别并且每一所述图片类别对应的图片数量少于第一预设值;
将所述数据集划分为训练集和验证集,将所述训练集划分为支持集和询问集;
构建目标检测网络模型和所述目标检测网络模型的目标损失函数,其中,通过如下方式构建所述目标检测网络模型:
通过权重共享特征提取网络提取所述支持集的特征图和所述询问集的特征图;对所述支持集的特征图进行全局平均池化,得到所述支持集的特征向量;将所述支持集的特征向量与所述询问集的特征图进行特征融合获得注意力特征图;提取所述注意力特征图中的第一目标候选框;根据真实标签提取所述支持集的特征图中的第二目标候选框;将所述第一目标候选框和所述第二目标候选框的大小进行统一,根据reshape分别获取所述第一目标候选框的第一候选区域向量和所述第二目标候选框的第二候选区域向量;根据皮尔逊距离函数对所述第一候选区域向量和所述第二候选区域向量进行相似性度量,得到度量最相似的类别;
根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型;
根据所述验证集对训练完成后的所述目标检测网络模型进行验证。
2.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述获取少样本目标检测的数据集,包括步骤:在所述MicrosoftCOCO数据集中分别为每一图片类别选取标签正确并且标记框大于图片大小的0.05%的图片作为所述少样本目标检测的数据集。
3.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述将所述训练集划分为支持集和询问集,包括步骤:从所述训练集中选择五张目标类别区域大于第二预设值的图片作为所述支持集,将所有所述训练集的图片作为所述询问集。
4.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述提取所述注意力特征图中的第一目标候选框,包括步骤:采用Faster RCNN中的区域提取网络提取所述注意力特征图中的所述第一目标候选框。
5.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述权重共享特征提取网络包括Darknet53网络和Mish激活函数。
6.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述将所述支持集的特征向量与所述询问集的特征图进行特征融合获得注意力特征图,包括步骤:将所述支持集的特征向量与所述询问集的特征图通过通道卷积进行特征融合,获得注意力特征图。
7.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述将所述第一目标候选框和所述第二目标候选框的大小进行统一,包括步骤:将所述第一目标候选框和所述第二目标候选框分别使用ROI Align进行缩放,获得统一大小后的所述第一目标候选框和所述第二目标候选框。
9.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述根据所述训练集和所述目标损失函数对所述目标检测网络模型进行训练,得到训练完成后的所述目标检测网络模型,包括步骤:
用Pascal VOC2007数据集对所述目标检测网络模型进行预训练获得一个初始权重;
用训练集对所述目标检测网络模型进行训练;
采用梯度下降法使所述目标损失函数最小化,并对所述目标检测网络模型中的所述初始权重进行逐层的反向调节,获得训练完成后的所述目标检测网络模型。
10.根据权利要求1所述的基于深度学习的少样本目标检测方法,其特征在于,所述根据所述验证集对训练完成后的所述目标检测网络模型进行验证,包括步骤:
输入所述验证集的图片至训练完成后的所述目标检测模型中,获得所述验证集图片的目标类别和位置坐标;
将所述验证集图片的所述目标类别和所述位置坐标与所述验证集的标签进行比较,通过平均精确率指标来评估目标检测模型的准确度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111012122.9A CN113705570B (zh) | 2021-08-31 | 2021-08-31 | 一种基于深度学习的少样本目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111012122.9A CN113705570B (zh) | 2021-08-31 | 2021-08-31 | 一种基于深度学习的少样本目标检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113705570A true CN113705570A (zh) | 2021-11-26 |
CN113705570B CN113705570B (zh) | 2023-12-08 |
Family
ID=78657955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111012122.9A Active CN113705570B (zh) | 2021-08-31 | 2021-08-31 | 一种基于深度学习的少样本目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113705570B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114663707A (zh) * | 2022-03-28 | 2022-06-24 | 中国科学院光电技术研究所 | 基于Faster RCNN改进的少样本目标检测方法 |
CN114743257A (zh) * | 2022-01-23 | 2022-07-12 | 中国电子科技集团公司第十研究所 | 图像目标行为的检测识别方法 |
CN114818963A (zh) * | 2022-05-10 | 2022-07-29 | 电子科技大学 | 一种基于跨图像特征融合的小样本检测算法 |
CN116129226A (zh) * | 2023-04-10 | 2023-05-16 | 之江实验室 | 一种基于多原型混合模块的少样本目标检测方法及装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109800811A (zh) * | 2019-01-24 | 2019-05-24 | 吉林大学 | 一种基于深度学习的小样本图像识别方法 |
CN109961089A (zh) * | 2019-02-26 | 2019-07-02 | 中山大学 | 基于度量学习和元学习的小样本和零样本图像分类方法 |
CN110363151A (zh) * | 2019-07-16 | 2019-10-22 | 中国人民解放军海军航空大学 | 基于双通道卷积神经网络虚警可控的雷达目标检测方法 |
CN110569886A (zh) * | 2019-08-20 | 2019-12-13 | 天津大学 | 一种双向通道注意力元学习的图像分类方法 |
CN110598693A (zh) * | 2019-08-12 | 2019-12-20 | 浙江工业大学 | 一种基于Faster-RCNN的船牌识别方法 |
US20200302180A1 (en) * | 2018-03-13 | 2020-09-24 | Tencent Technology (Shenzhen) Company Limited | Image recognition method and apparatus, terminal, and storage medium |
US20210003700A1 (en) * | 2019-07-02 | 2021-01-07 | Wuyi University | Method and apparatus for enhancing semantic features of sar image oriented small set of samples |
CN112488098A (zh) * | 2020-11-16 | 2021-03-12 | 浙江新再灵科技股份有限公司 | 一种目标检测模型的训练方法 |
CN112861720A (zh) * | 2021-02-08 | 2021-05-28 | 西北工业大学 | 基于原型卷积神经网络的遥感图像小样本目标检测方法 |
CN113052185A (zh) * | 2021-03-12 | 2021-06-29 | 电子科技大学 | 一种基于Faster R-CNN的小样本目标检测方法 |
CN113095575A (zh) * | 2021-04-16 | 2021-07-09 | 清华大学深圳国际研究生院 | 一种基于迁移学习的车流量预测方法和系统 |
-
2021
- 2021-08-31 CN CN202111012122.9A patent/CN113705570B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200302180A1 (en) * | 2018-03-13 | 2020-09-24 | Tencent Technology (Shenzhen) Company Limited | Image recognition method and apparatus, terminal, and storage medium |
CN109800811A (zh) * | 2019-01-24 | 2019-05-24 | 吉林大学 | 一种基于深度学习的小样本图像识别方法 |
CN109961089A (zh) * | 2019-02-26 | 2019-07-02 | 中山大学 | 基于度量学习和元学习的小样本和零样本图像分类方法 |
US20210003700A1 (en) * | 2019-07-02 | 2021-01-07 | Wuyi University | Method and apparatus for enhancing semantic features of sar image oriented small set of samples |
CN110363151A (zh) * | 2019-07-16 | 2019-10-22 | 中国人民解放军海军航空大学 | 基于双通道卷积神经网络虚警可控的雷达目标检测方法 |
CN110598693A (zh) * | 2019-08-12 | 2019-12-20 | 浙江工业大学 | 一种基于Faster-RCNN的船牌识别方法 |
CN110569886A (zh) * | 2019-08-20 | 2019-12-13 | 天津大学 | 一种双向通道注意力元学习的图像分类方法 |
CN112488098A (zh) * | 2020-11-16 | 2021-03-12 | 浙江新再灵科技股份有限公司 | 一种目标检测模型的训练方法 |
CN112861720A (zh) * | 2021-02-08 | 2021-05-28 | 西北工业大学 | 基于原型卷积神经网络的遥感图像小样本目标检测方法 |
CN113052185A (zh) * | 2021-03-12 | 2021-06-29 | 电子科技大学 | 一种基于Faster R-CNN的小样本目标检测方法 |
CN113095575A (zh) * | 2021-04-16 | 2021-07-09 | 清华大学深圳国际研究生院 | 一种基于迁移学习的车流量预测方法和系统 |
Non-Patent Citations (3)
Title |
---|
LI, YW 等: "Feature reconstruction and metric based network for few-shot object detection", COMPUTER VISION AND IMAGE UNDERSTANDING, no. 227, pages 1 - 11 * |
ZHANG, DY 等: "Few-Shot Object Detection Based on the Transformer and High-Resolution Network", CMC-COMPUTERS MATERIALS & CONTINUA, vol. 74, no. 2, pages 3439 - 3454 * |
张新;郭福亮;梁英杰;陈修亮;: "基于R-CNN算法的海上船只的检测与识别", 计算机应用研究, no. 1, pages 324 - 325 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114743257A (zh) * | 2022-01-23 | 2022-07-12 | 中国电子科技集团公司第十研究所 | 图像目标行为的检测识别方法 |
CN114663707A (zh) * | 2022-03-28 | 2022-06-24 | 中国科学院光电技术研究所 | 基于Faster RCNN改进的少样本目标检测方法 |
CN114818963A (zh) * | 2022-05-10 | 2022-07-29 | 电子科技大学 | 一种基于跨图像特征融合的小样本检测算法 |
CN114818963B (zh) * | 2022-05-10 | 2023-05-09 | 电子科技大学 | 一种基于跨图像特征融合的小样本检测方法 |
CN116129226A (zh) * | 2023-04-10 | 2023-05-16 | 之江实验室 | 一种基于多原型混合模块的少样本目标检测方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113705570B (zh) | 2023-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113705570B (zh) | 一种基于深度学习的少样本目标检测方法 | |
CN109086756B (zh) | 一种基于深度神经网络的文本检测分析方法、装置及设备 | |
CN108830285B (zh) | 一种基于Faster-RCNN的加强学习的目标检测方法 | |
CN107133569B (zh) | 基于泛化多标记学习的监控视频多粒度标注方法 | |
CN110770752A (zh) | 多尺度特征融合网络结合定位模型的害虫自动计数方法 | |
CN101539930B (zh) | 一种相关反馈图像检索方法 | |
CN108537286B (zh) | 一种基于关键区域检测的复杂目标精准识别方法 | |
CN111274926B (zh) | 图像数据筛选方法、装置、计算机设备和存储介质 | |
CN111339975A (zh) | 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法 | |
CN110309867A (zh) | 一种基于卷积神经网络的混合气体识别方法 | |
CN109977253B (zh) | 一种基于语义和内容的快速图像检索方法及装置 | |
Yang et al. | Detecting interchanges in road networks using a graph convolutional network approach | |
CN114821102A (zh) | 密集柑橘数量检测方法、设备、存储介质及装置 | |
CN104615998A (zh) | 一种基于多视角的车辆检索方法 | |
CN113129335A (zh) | 一种基于孪生网络的视觉跟踪算法及多模板更新策略 | |
CN115115825B (zh) | 图像中的对象检测方法、装置、计算机设备和存储介质 | |
Liang et al. | Butterfly detection and classification based on integrated YOLO algorithm | |
CN113723558A (zh) | 基于注意力机制的遥感图像小样本舰船检测方法 | |
CN111444816A (zh) | 一种基于Faster RCNN的多尺度密集行人检测方法 | |
Shi et al. | Anchor free remote sensing detector based on solving discrete polar coordinate equation | |
Su et al. | Online cascaded boosting with histogram of orient gradient features for car detection from unmanned aerial vehicle images | |
CN114422450B (zh) | 基于多源网络流量数据的网络流量分析方法和装置 | |
CN112651996B (zh) | 目标检测跟踪方法、装置、电子设备和存储介质 | |
Da et al. | Remote sensing image ship detection based on improved YOLOv3 | |
CN114663760A (zh) | 模型训练的方法、目标检测方法、存储介质及计算设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |