CN115049870A - 一种基于小样本的目标检测方法 - Google Patents

一种基于小样本的目标检测方法 Download PDF

Info

Publication number
CN115049870A
CN115049870A CN202210491329.7A CN202210491329A CN115049870A CN 115049870 A CN115049870 A CN 115049870A CN 202210491329 A CN202210491329 A CN 202210491329A CN 115049870 A CN115049870 A CN 115049870A
Authority
CN
China
Prior art keywords
loss
model
formula
data
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210491329.7A
Other languages
English (en)
Inventor
秦臻
罗伟峰
曹明生
丁熠
邓伏虎
赵洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210491329.7A priority Critical patent/CN115049870A/zh
Publication of CN115049870A publication Critical patent/CN115049870A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明公开了一种基于小样本的目标检测方法,本发明使用Pytorch深度学习框架,通过在模型中引入SGFA,SSA等结构以及关系检测器,够使本模型在不用进行微调的情况下,实现对可变数量的新类别目标的检测。该发明能够用于解决实际场景中的目标检测需要大量带标签数据的问题,使用该方法,即便在数据标签较少的情况下也可以实现较好的目标识别能力,具有推广应用的价值。

Description

一种基于小样本的目标检测方法
技术领域
本发明涉及计算机视觉领域,尤其涉及一种基于小样本的目标检测方法。
背景技术
近年来,计算机视觉研究领域越来越受到关注,其中分类任务、检测任务以及分割任务更是计算机视觉中的重点研究方向。随着深度学习技术的发展,目标检测模型的精度虽在不断提高,但是作为监督学习来说,其需要大量带标注训练样本的本质并没有改变。在实际场景中,训练出一个特定的目标检测模型需要大量的标注样本,而某些特定目标类别图像的获取具有一定难度。
发明内容
本发明的目的是要提供一种基于小样本的目标检测方法。
为达到上述目的,本发明是按照以下技术方案实施的:
本发明包括以下步骤:
S1、获取常规目标检测数据集以及少量数据的新类数据集,统一每类新类的数据数为K;
S2、构建训练模型每次迭代中输入的“支持集”和“查询集”。支持集每次以N类目标每类目标有K张图片的方式进行输入,查询集中的数据用于训练中的查询;
S3、特征提取:将图像进行归一化处理后。输入模型提取特征,其中包括支持集和查询集中的所有图像,经过卷积神经网络后得到特征图;
S4、自适应全局特征注意力模块处理。将初步得到的特征图用全局注意力机制进行处理,改善特征图质量,使模型更加关注全局的重点特征部分;
S5、通过支持注意力机制给查询集中的图像特征加上支持集注意力权重。以使模型在查询集图像中更好地检测出支持集中给定的目标类别;
S6、通过区域提议网络在查询图像上产生大量可能包含目标的前景候选框,并按正负样本1:1采样出正负样本;
S7、用关系检测器采样得到的候选框特征,以及支持集中所给的不同类别图像特征得出候选框最终的类别预测值和边界框位置回归值;
S8、通过Pytorch训练框架和测试数据,不断迭代训练,使其本模型收敛,最终保存整个模型;
S9、将测试集中的新类K张图片作为模型输入的支持集,测试模型在仅利用该K张图片的新类数据时对新类别目标的检测效果;
S10、将目标检测结果与标注内容进行比较,得到各类目标检测任务的平均准确率;
在上述技术方案的基础上,本发明还可以做如下改进。
进一步,所述常规目标检测数据集是包含丰富标注以及类别的数据集,新类数据集是只有少量样本的待检测数据集。
进一步,所述步骤S6中的RPN损失的计算公式为:
Figure BDA0003631070610000021
在公式(1)中,Ncls表示用于计算类别损失的样本数量;n表示采样的批量大小;pi表示RPN预测出的第i个锚框的前景分类概率;
Figure BDA0003631070610000022
表示锚框的类别标签(当锚框分别为正负样本时,
Figure BDA0003631070610000023
对应的取值为1和0);
Figure BDA0003631070610000024
表示类别损失;λ是一个权重系数;Nreg表示用于计算位置回归损失的正样本数量;ti表示所预测的第i个锚框的坐标位置;
Figure BDA0003631070610000025
表示锚框对应的Ground Truth的边界框位置;
Figure BDA0003631070610000026
表示位置回归损失。
进一步,所述步骤S6中RPN中类别损失的计算公式为:
Figure BDA0003631070610000027
公式(2)表示RPN中类别损失的计算。由于是二分类,因此本模型采用二元交叉熵损失来作为RPN的分类损失。
进一步,所述步骤S6中RPN中位置回归损失的计算公式为:
Figure BDA0003631070610000031
Figure BDA0003631070610000032
公式(3)和公式(4)表示RPN中位置回归损失的计算。采样的正样本会参与位置回归损失的计算,而负样本并不参与该损失的计算。
进一步,所述步骤S6中RPN中预测出的锚框位置偏移量为(xt,yt,wt,ht),则通过锚框的坐标位置可计算出RegionProposal的位置信息,其计算过程如公式(5)所示:
Figure BDA0003631070610000033
公式(5)中,xp,yp,wp,hp,表示生成的候选区域提议框RegionProposal的坐标位置(xp,yp,wp,hp)。
进一步,所述步骤S7中第二阶段的分类损失的计算公式为:
Figure BDA0003631070610000034
Figure BDA0003631070610000035
公式(6)和公式(7)中,sj
Figure BDA0003631070610000036
分别表示第j个候选框类别相似性得分的预测值和标签值;
Figure BDA0003631070610000037
为1表示正样本,
Figure BDA0003631070610000038
为0表示负样本;Ncls表示用于计算类别损失的样本数量。
进一步,所述步骤S7中第二阶段的Bounding Box回归损失的计算公式为:
Figure BDA0003631070610000039
Figure BDA0003631070610000041
公式(8)和公式(9)中,Nreg表示用于计算位置回归损失的正样本数量;bj表示模型所预测的第j个候选框位置偏移量;
Figure BDA0003631070610000042
表示目标真实边界框相对于候选框的偏移量。
进一步,所述步骤S7中,假设候选框的坐标位置为(xp,yp,wp,hp),目标真实边界框为(x*,y*,w*,h*),则偏移量
Figure BDA0003631070610000043
的计算公式为:
Figure BDA0003631070610000044
公式(10)中,计算结果
Figure BDA0003631070610000045
将作为最终位置回归的标签值。(c′x,c′y,c′w,c′h)表示各部分计算的权重系数,是模型的超参数。
进一步,所述步骤S7中,利用生成的候选框坐标(xp,yp,wp,hp)以及预测的位置偏移量(xb,yb,wb,hb),可得出模型预测的目标框位置的计算公式为:
Figure BDA0003631070610000046
公式(10)中,计算结果(x,y,w,h)为模型预测的目标框位置。
进一步,需要手动将数据集中的类别图像分为“基类(base class)”和“新类(noval class)”,其中基类的每个类别具有大量的训练数据,而新类的每个类别只有几个到十几个可用的标注实例。为了方便对比,该划分的标准和同行保持一致。最终的目标是使模型对只给出极少量可用样本的新类别也有具有一定的识别能力。
本发明的有益效果是:
本发明是一种基于小样本的目标检测方法,与现有技术相比,本发明使用Pytorch深度学习框架,通过在模型中引入SGFA,SSA等结构以及关系检测器,够使本模型在不用进行微调的情况下,实现对可变数量的新类别目标的检测,达到较高准确率。
附图说明
图1为本发明步骤流程图;
图2“自适应全局特征注意力”模块(SGFA Module);
图3支持集注意力模块的结构(SSA);
图4关系检测器结构(Relation Detector)。
具体实施方式
下面结合附图以及具体实施例对本发明作进一步描述,在此发明的示意性实施例以及说明用来解释本发明,但并不作为对本发明的限定。
如图1所示,一种基于小样本的目标检测方法,包括以下步骤:
S1、获取常规目标检测数据集以及少量数据的新类数据集,统一每类新类的数据数为K;
S2、构建训练模型时每次迭代中输入的“支持集”和“查询集”。支持集每次以N类目标每类目标有K张图片的方式进行输入,即N个类别,每类K张图像,其中K与新类每类的数据相当。查询集用于训练中的查询,寻找查询集图像中的N个类别目标。每次迭代支持集中的数据类别都会改变;
S3、特征提取:将图像进行归一化处理后。输入模型提取特征,其中包括支持集和查询集中的所有图像,经过卷积神经网络后得到特征图;
S4、自适应全局特征注意力模块处理,如图2所示。将初步得到的特征图用全局注意力机制进行处理,改善特征图质量,使模型更加关注全局的重点特征部分;
S5、通过支持注意力机制(Support-Set Attention,SSA),如图3所示,给查询集中的图像特征加上支持集注意力权重。以使模型在查询集图像中更好地检测出支持集中给定的目标类别。
S6、通过区域提议网络在查询图像上产生大量可能包含目标的前景候选框,并按正负样本1:1采样出正负样本;
S7、使用关系检测器(Relation Detector)通过前一步采样得到的候选框特征,如图4所示,以及支持集中所给的不同类别图像特征得出候选框最终的类别预测值和边界框位置回归值;
S8、通过Pytorch训练框架和测试数据,利用梯度下降算法,将损失函数对于各网络层参数的梯度进行反向传播,并更新模型参数,不断迭代训练,减少训练loss,使其本模型收敛,最终保存整个模型,方便后续测试。
S9、将测试集中的新类K张图片作为模型输入的支持集,测试模型在仅利用该K张图片的新类数据时对新类别目标的检测效果;
S10、将目标检测结果与标注内容进行比较,每一类标注数据都会有一个单独的准确率,通过每一类的加权得到该目标检测任务的平均准确率。
在本发明实施例中,所述常规目标检测数据集是包含丰富标注以及类别的数据集,新类数据集是只有少量样本的待检测数据集。
在本发明实施例中,所述步骤S6中的RPN损失的计算公式为:
Figure BDA0003631070610000061
在公式(1)中,Ncls表示用于计算类别损失的样本数量;n表示采样的批量大小;pi表示RPN预测出的第i个锚框的前景分类概率;
Figure BDA0003631070610000071
表示锚框的类别标签(当锚框分别为正负样本时,
Figure BDA0003631070610000072
对应的取值为1和0);
Figure BDA0003631070610000073
表示类别损失;λ是一个权重系数;Nreg表示用于计算位置回归损失的正样本数量;ti表示所预测的第i个锚框的坐标位置;
Figure BDA0003631070610000074
表示锚框对应的Ground Truth的边界框位置;
Figure BDA0003631070610000075
表示位置回归损失。
在本发明实施例中,所述步骤S6中RPN中类别损失的计算公式为:
Figure BDA0003631070610000076
公式(2)表示RPN中类别损失的计算。由于是二分类,因此本模型采用二元交叉熵损失来作为RPN的分类损失。
在本发明实施例中,所述步骤S6中RPN中位置回归损失的计算公式为:
Figure BDA0003631070610000077
Figure BDA0003631070610000078
公式(3)和公式(4)表示RPN中位置回归损失的计算。采样的正样本会参与位置回归损失的计算,而负样本并不参与该损失的计算。
在本发明实施例中,所述步骤S6中RPN中预测出的锚框位置偏移量为(xt,yt,wt,ht),则通过锚框的坐标位置可计算出RegionProposal的位置信息,其计算过程如公式(5)所示:
Figure BDA0003631070610000079
公式(5)中,xp,yp,wp,hp,表示生成的候选区域提议框RegionProposal的坐标位置(xp,yp,wp,hp)。
在本发明实施例中,所述步骤S7中第二阶段的分类损失的计算公式为:
Figure BDA0003631070610000081
Figure BDA0003631070610000082
公式(6)和公式(7)中,sj
Figure BDA0003631070610000083
分别表示第j个候选框类别相似性得分的预测值和标签值;
Figure BDA0003631070610000084
为1表示正样本,
Figure BDA0003631070610000085
为0表示负样本;Ncls表示用于计算类别损失的样本数量。
在本发明实施例中,所述步骤S7中第二阶段的Bounding Box回归损失的计算公式为:
Figure BDA0003631070610000086
Figure BDA0003631070610000087
公式(8)和公式(9)中,Nreg表示用于计算位置回归损失的正样本数量;bj表示模型所预测的第j个候选框位置偏移量;
Figure BDA0003631070610000088
表示目标真实边界框相对于候选框的偏移量。
在本发明实施例中,所述步骤S7中,假设候选框的坐标位置为(xp,yp,wp,hp),目标真实边界框为(x*,y*,w*,h*),则偏移量
Figure BDA00036310706100000811
的计算公式为:
Figure BDA0003631070610000089
公式(10)中,计算结果
Figure BDA00036310706100000810
将作为最终位置回归的标签值。(c′x,c′y,c′w,c′h)表示各部分计算的权重系数,是模型的超参数。
在本发明实施例中,所述步骤S7中,利用生成的候选框坐标(xp,yp,wp,hp)以及预测的位置偏移量(xb,yb,wb,hb),可得出模型预测的目标框位置的计算公式为:
Figure BDA0003631070610000091
公式(10)中,计算结果(x,y,w,h)为模型预测的目标框位置。
在本发明实施例中,需要手动将数据集中的类别图像分为“基类(base class)”和“新类(noval class)”,其中基类的每个类别具有大量的训练数据,而新类的每个类别只有几个可用的标注实例。为了方便对比,该划分的标准和同行保持一致。最终的目标是使模型对只给出极少量可用样本的新类别也有具有一定的识别能力。
在本发明实施例中,所用的评价指标是平均准确率(Average Precision,AP)与平均精度均值(Mean Average Precision,mAP)。AP的值越大,则说明模型的平均准确率越高。假设A为模型的检测结果,B为Ground Truth,即样本的标注结果,那么A和B相交的区域与A和B并集的比例称为(Intersection over Union,IoU)。当IoU超过一定阈值时,则认为检测到目标物体。本实施例用到的阈值为0.5和0.75。对目标检测结果的每个类别计算出一个AP值,然后将所有类别的AP值求取平均就是mAP指标。mAP指标比AP指标更能反映出整个模型的好坏,因为其是对所有类别检测结果的衡量,是目标检测中一个极其重要的指标。通常,mAP是针对整个数据集而言,AP是针对数据集中某一个类别而言。
本发明的技术方案不限于上述具体实施例的限制,凡是根据本发明的技术方案做出的技术变形,均落入本发明的保护范围之内。

Claims (11)

1.一种基于小样本的目标检测方法,其特征在于,包括以下步骤:
S1、获取常规目标检测数据集和数据的新类数据集,每类所述新类数据集的数据数为K;
S2、构建训练模型每次迭代中输入的“支持集”和“查询集”,支持集每次用N类目标,每类目标有K张图片的方式进行输入,查询集中的数据用于训练中的查询;
S3、特征提取:将图像进行归一化处理后输入模型提取特征,其中包括支持集和查询集中的所有图像,经过卷积神经网络后得到特征图;
S4、将初步得到的特征图用全局注意力机制进行处理;
S5、通过支持注意力机制给查询集中的图像特征加上支持集注意力权重;
S6、通过区域提议网络在查询图像上产生大量可能包含目标的前景候选框,并按正负样本1:1采样出正负样本;
S7、用关系检测器采样得到的候选框特征,以及支持集中所给的不同类别图像特征得出候选框最终的类别预测值和边界框位置回归值;
S8、通过Pytorch训练框架和测试数据,不断迭代训练,使模型收敛,最终保存整个模型;
S9、将测试集中的新类K张图片作为模型输入的支持集,测试模型在仅利用该K张图片的新类数据时对新类别目标的检测效果;
S10、将目标检测结果与标注内容进行比较,得到各类目标检测任务的平均准确率。
2.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:所述步骤S1中的常规目标检测数据集包含丰富标注以及类别的数据集,所述新类数据集为只有几张到几十张的待检测数据集。
3.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:所述步骤S6中的RPN损失的计算公式为:
Figure FDA0003631070600000021
在公式(1)中,Ncls表示用于计算类别损失的样本数量;n表示采样的批量大小;pi表示RPN预测出的第i个锚框的前景分类概率;
Figure FDA0003631070600000022
表示锚框的类别标签;当锚框分别为正负样本时,
Figure FDA0003631070600000023
对应的取值为1和0;
Figure FDA0003631070600000024
表示类别损失;λ是一个权重系数;Nreg表示用于计算位置回归损失的正样本数量;ti表示所预测的第i个锚框的坐标位置;
Figure FDA0003631070600000025
表示锚框对应的Ground Truth的边界框位置;
Figure FDA0003631070600000026
表示位置回归损失。
4.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:所述步骤S6中RPN中类别损失的计算公式为:
Figure FDA0003631070600000027
公式(2)表示RPN中类别损失的计算;采用二元交叉熵损失作为RPN的分类损失。
5.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:所述步骤S6中RPN中位置回归损失的计算公式为:
Figure FDA0003631070600000028
Figure FDA0003631070600000029
公式(3)和公式(4)表示RPN中位置回归损失的计算;采样的正样本会参与位置回归损失的计算,而负样本并不参与该损失的计算。
6.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:所述步骤S6中RPN中预测出的锚框位置偏移量为
Figure FDA00036310706000000210
则通过锚框的坐标位置可计算出RegionProposal的位置信息,其计算过程如公式(5)所示:
Figure FDA0003631070600000031
公式(5)中,xp,yp,wp
Figure FDA0003631070600000032
表示生成的候选区域提议框RegionProposal的坐标位置
Figure FDA0003631070600000033
7.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:所述步骤S7中第二阶段的分类损失的计算公式为:
Figure FDA0003631070600000034
Figure FDA0003631070600000035
公式(6)和公式(7)中,sj
Figure FDA0003631070600000036
分别表示第j个候选框类别相似性得分的预测值和标签值;
Figure FDA0003631070600000037
为1表示正样本,
Figure FDA0003631070600000038
为0表示负样本;Ncls表示用于计算类别损失的样本数量。
8.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:所述步骤S7中第二阶段的Bounding Box回归损失的计算公式为:
Figure FDA0003631070600000039
Figure FDA00036310706000000310
公式(8)和公式(9)中,Nreg表示用于计算位置回归损失的正样本数量;bj表示模型所预测的第j个候选框位置偏移量;
Figure FDA00036310706000000311
表示目标真实边界框相对于候选框的偏移量。
9.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:所述步骤S7中,设候选框的坐标位置为
Figure FDA00036310706000000312
目标真实边界框为
Figure FDA00036310706000000313
则偏移量
Figure FDA00036310706000000314
的计算公式为:
Figure FDA0003631070600000041
公式(10)中,计算结果
Figure FDA0003631070600000042
将作为最终位置回归的标签值。(c′x,c′y,c′w,c′h)表示各部分计算的权重系数,是模型的超参数。
10.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:所述步骤S7中,利用生成的候选框坐标
Figure FDA0003631070600000043
以及预测的位置偏移量(xb,yb,wb,hb),可得出模型预测的目标框位置的计算公式为:
Figure FDA0003631070600000044
公式(10)中,计算结果(x,y,w,h)为模型预测的目标框位置。
11.根据权利要求1所述的基于基类数据和新类别数据的小样本目标检测方法,其特征在于:需要手动将数据集中的类别图像分为“基类(base class)”和“新类(noval class)”,其中基类的每个类别具有大量的训练数据,而新类的每个类别只有几个到十几个可用的标注实例;使模型对只给出极少量可用样本的新类别也有具有一定的识别能力。
CN202210491329.7A 2022-05-07 2022-05-07 一种基于小样本的目标检测方法 Pending CN115049870A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210491329.7A CN115049870A (zh) 2022-05-07 2022-05-07 一种基于小样本的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210491329.7A CN115049870A (zh) 2022-05-07 2022-05-07 一种基于小样本的目标检测方法

Publications (1)

Publication Number Publication Date
CN115049870A true CN115049870A (zh) 2022-09-13

Family

ID=83158170

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210491329.7A Pending CN115049870A (zh) 2022-05-07 2022-05-07 一种基于小样本的目标检测方法

Country Status (1)

Country Link
CN (1) CN115049870A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116403071A (zh) * 2023-03-23 2023-07-07 河海大学 基于特征重构的少样本混凝土缺陷检测方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112861720A (zh) * 2021-02-08 2021-05-28 西北工业大学 基于原型卷积神经网络的遥感图像小样本目标检测方法
CN114048340A (zh) * 2021-11-15 2022-02-15 电子科技大学 一种层级融合的组合查询图像检索方法
CN114399697A (zh) * 2021-11-25 2022-04-26 北京航空航天大学杭州创新研究院 一种基于运动前景的场景自适应目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112861720A (zh) * 2021-02-08 2021-05-28 西北工业大学 基于原型卷积神经网络的遥感图像小样本目标检测方法
CN114048340A (zh) * 2021-11-15 2022-02-15 电子科技大学 一种层级融合的组合查询图像检索方法
CN114399697A (zh) * 2021-11-25 2022-04-26 北京航空航天大学杭州创新研究院 一种基于运动前景的场景自适应目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
CHONGZHI YANG等: "Few-Shot Object Detection using Global Attention and Support Attention", 《2020 5TH INTERNATIONAL CONFERENCE ON MECHANICAL, CONTROL AND COMPUTER ENGINEERING (ICMCCE)》, 13 May 2021 (2021-05-13), pages 1 - 4 *
杨崇智: "基于基类数据和新类别数据的小样本目标检测", 《中国优秀硕士学位论文全文数据库 信息科技辑》, 15 January 2023 (2023-01-15) *
王林;张鹤鹤;: "Faster R-CNN模型在车辆检测中的应用", 计算机应用, no. 03, 10 March 2018 (2018-03-10) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116403071A (zh) * 2023-03-23 2023-07-07 河海大学 基于特征重构的少样本混凝土缺陷检测方法及装置
CN116403071B (zh) * 2023-03-23 2024-03-26 河海大学 基于特征重构的少样本混凝土缺陷检测方法及装置

Similar Documents

Publication Publication Date Title
US10929649B2 (en) Multi-pose face feature point detection method based on cascade regression
CN107515895B (zh) 一种基于目标检测的视觉目标检索方法与系统
CN105701502B (zh) 一种基于蒙特卡罗数据均衡的图像自动标注方法
CN114841257B (zh) 一种基于自监督对比约束下的小样本目标检测方法
CN109993236A (zh) 基于one-shot Siamese卷积神经网络的少样本满文匹配方法
CN112365497A (zh) 基于TridentNet和Cascade-RCNN结构的高速目标检测方法和系统
EP4394724A1 (en) Image encoder training method and apparatus, device, and medium
CN111950488A (zh) 一种改进的Faster-RCNN遥感图像目标检测方法
CN110458022A (zh) 一种基于域适应的可自主学习目标检测方法
EP4443396A1 (en) Image encoder training method and apparatus, device, and medium
Zheng et al. Improvement of grayscale image 2D maximum entropy threshold segmentation method
CN113158777B (zh) 质量评分方法、质量评分模型的训练方法及相关装置
CN114694178A (zh) 基于Faster-RCNN算法的电力作业中安全帽监测方法及系统
CN112270285B (zh) 一种基于稀疏表示和胶囊网络的sar图像变化检测方法
CN115393631A (zh) 基于贝叶斯层图卷积神经网络的高光谱图像分类方法
CN110852317A (zh) 一种基于弱边缘的小尺度目标检测方法
US20150242676A1 (en) Method for the Supervised Classification of Cells Included in Microscopy Images
CN112183237A (zh) 基于颜色空间自适应阈值分割的白细胞自动分类方法
CN115546553A (zh) 一种基于动态特征抽取和属性修正的零样本分类方法
CN117036897A (zh) 一种基于Meta RCNN的少样本目标检测方法
CN115049870A (zh) 一种基于小样本的目标检测方法
CN114708462A (zh) 多数据训练的检测模型生成方法、系统、设备及存储介质
CN118279320A (zh) 基于自动提示学习的目标实例分割模型建立方法及其应用
CN112489689B (zh) 基于多尺度差异对抗的跨数据库语音情感识别方法及装置
CN112465821A (zh) 一种基于边界关键点感知的多尺度害虫图像检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination