CN113177549B - 一种基于动态原型特征融合的少样本目标检测方法及系统 - Google Patents

一种基于动态原型特征融合的少样本目标检测方法及系统 Download PDF

Info

Publication number
CN113177549B
CN113177549B CN202110511625.4A CN202110511625A CN113177549B CN 113177549 B CN113177549 B CN 113177549B CN 202110511625 A CN202110511625 A CN 202110511625A CN 113177549 B CN113177549 B CN 113177549B
Authority
CN
China
Prior art keywords
query
feature
support
features
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110511625.4A
Other languages
English (en)
Other versions
CN113177549A (zh
Inventor
凌强
陈春霖
李峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202110511625.4A priority Critical patent/CN113177549B/zh
Publication of CN113177549A publication Critical patent/CN113177549A/zh
Application granted granted Critical
Publication of CN113177549B publication Critical patent/CN113177549B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于动态原型特征融合的少样本目标检测方法及系统,其方法包括:步骤S1:将支持样本和查询样本分别输入到少样本目标检测网络中,提取对应的支持特征和查询特征;步骤S2:将支持特征与查询特征同时输入动态原型特征生成模块,得到动态查询特征,同时将支持特征输入辅助检测模块监督训练;步骤S3:将动态查询特征输入区域建议网络,生成推荐区域结果,并根据支持特征和查询特征,提取区域查询特征和区域支持特征;步骤S4:将区域查询特征和区域支持特征输入到RCNN神经网络中,对边界框进行回归,并对查询目标进行分类。本发明提供的方法,提高少样本检测网络提取特征的表达能力,能够更加灵活地适应输入场景的变化,具有更高的鲁棒性。

Description

一种基于动态原型特征融合的少样本目标检测方法及系统
技术领域
本发明涉及数字图像处理、目标检测和深度学习领域,具体涉及一种基于动态原型特征融合的少样本目标检测方法及系统。
背景技术
经典的目标检测算法都是依赖于大规模的标注数据进行优化学习,并且需要很长的训练时间。然而在实际应用中,对于给定的目标检测任务,获得大规模标注的训练集通常会有较大的困难,当每一类的训练数据很少时,深度神经网络的识别精度会严重下降,这会限制基于深度网络的目标检测算法在实际工程问题上的应用。这一问题激发了近年来在少样本目标检测方面的研究,一个流行的解决方案是通过收集额外的很容易标注标签的图像,用来作为待检测目标的辅助数据。
在现实世界中,由于图像中的光照、形状、纹理等的变化很大,少样本学习是一个挑战。虽然已经取得了重要的研究和进展,但这些方法都集中在图像分类上,很少涉及到少样本目标的检测问题,这是因为从少样本图像分类到少样本目标检测的迁移是一项非常困难的任务。
由于目标检测不仅涉及物体类别的预测,而且还涉及目标的定位,因此现有的少样本图像分类方法不能直接应用于少样本目标检测问题上。
现存的基于少样本目标检测框架,通过最小化源域和目标域之间分类后验概率的差距,将知识从一个大数据集转移到另一个少样本的小数据集。然而,这种方法强烈依赖于源域,很难扩展到非常不同的场景。
发明内容
为了解决上述技术问题,本发明提供一种基于动态原型特征融合的少样本目标检测方法及系统。
本发明技术解决方案为:一种基于动态原型特征融合的少样本目标检测方法,包括:
步骤S1:将支持样本和查询样本分别输入到少样本目标检测网络中,提取对应的支持特征和查询特征;
步骤S2:将所述支持特征与所述查询特征同时输入动态原型特征生成模块,得到动态查询特征,同时将所述支持特征输入辅助检测模块监督训练;
步骤S3:将所述动态查询特征输入区域建议网络,生成推荐区域结果,并根据所述支持特征和所述查询特征,提取区域查询特征和区域支持特征;
步骤S4:将所述区域查询特征和所述区域支持特征输入到RCNN神经网络中,对边界框进行回归,并对查询目标进行分类。
本发明与现有技术相比,具有以下优点:
本发明提出了一种基于动态原型特征融合的少样本目标检测方法,通过动态原型特征生成模块计算查询特征与支持特征之间的相关系数,将该类的所有支持特征加权组合成一个新的原型特征。该原型特征是由支持特征加权组合而成,因此该原型特征包含了该类目标的具有高度区分度的信息,同时由于该原型特征的生成与输入与查询特征有关,因此在不同的位置以及不同输入数据中,都会生成不同的原型特征,这是动态的过程,因此该原型特征能够更加灵活地适应输入场景的变化,具有更高的鲁棒性。
本发明提出了一种基于动态原型特征融合的少样本目标检测方法,通过辅助检测模块来充分利用给定的支持训练样本,通过添加辅助的回归损失函数,可以提供更多的监督信号用于检测模型的优化训练。由于少样本目标检测缺乏充足的训练样本,将支持样本的位置信息纳入到训练中,有利于提高检测模型的泛化性能。
附图说明
图1为本发明实施例中一种基于动态原型特征融合的少样本目标检测方法的流程图;
图2为本发明实施例中少样本目标检测网络结构示意图;
图3为本发明实施例中一种基于动态原型特征融合的少样本目标检测方法中步骤S2:将支持特征与查询特征同时输入动态原型特征生成模块,得到动态查询特征,同时将支持特征输入辅助检测模块监督训练的流程图;
图4为本发明实施例中动态原型特征生成模块的结构示意图;
图5为本发明实施例中一种基于动态原型特征融合的少样本目标检测方法中步骤S25:将支持特征输入辅助检测模块,以监督训练的流程图;
图6为本发明实施例中辅助检测模块的结构示意图;
图7为本发明实施例中一种基于动态原型特征融合的少样本目标检测方法的检测结果示意图;
图8为本发明实施例中一种基于动态原型特征融合的少样本目标检测系统的结构框图。
具体实施方式
本发明提供了一种基于动态原型特征融合的少样本目标检测方法,提高少样本检测网络提取特征的表达能力,能够更加灵活地适应输入场景的变化,具有更高的鲁棒性。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
实施例一
如图1所示,本发明实施例提供的一种基于动态原型特征融合的少样本目标检测方法,包括下述步骤:
步骤S1:将支持样本和查询样本分别输入到少样本目标检测网络中,提取对应的支持特征和查询特征;
步骤S2:将支持特征与查询特征同时输入动态原型特征生成模块,得到动态查询特征,同时将支持特征输入辅助检测模块监督训练;
步骤S3:将动态查询特征输入区域建议网络,生成推荐区域结果,并根据支持特征和查询特征,提取区域查询特征和区域支持特征;
步骤S4:将区域查询特征和区域支持特征输入到RCNN神经网络中,对边界框进行回归,并对查询目标进行分类。
在一个实施例中,上述步骤S1:将支持样本和查询样本分别输入到少样本目标检测网络中,提取对应的支持特征和查询特征,具体包括:
本发明实施例基于Faster RCNN结构,构建少样本目标检测网络,其网络结构如图2所示。本步骤中,将查询图像和支持图像输入基础网络ResNet-50中,提取相应的支持特征和查询特征。
如图3所示,在一个实施例中,上述步骤S2:将支持特征与查询特征同时输入动态原型特征生成模块,得到动态查询特征,同时将支持特征输入辅助检测模块监督训练,具体包括:
步骤S21:将查询特征Q的维度被重新调整为RHW*C,将支持特征S被重新调整为RC*K
如图4所示,为动态原型特征生成模块结构图。本发明实施例中,查询特征Q表示为$Q\in R^{C\times H\times W}$,支持特征S表示为$S\in R^{K\times C}$,S是一个$C$维特征向量。本步骤中,分别将支持特征和查询特征的维度调整为RHW*C和RC*K
步骤S22:利用下述公式(1),对Q和S进行矩阵乘法,生成相关系数矩阵A;
A=ST·QT (1)
步骤S23:使用softmax规范化相关系数矩阵A,并与支持特征进行加权求和,生成动态的原型特征P,如下述公式(2)所示;
P=(softmax(A)·ST)T (2)
步骤S24:将查询特征Q与原型特征P逐元素相乘,如下述公式(3)所示,得到动态查询特征Y;
Y=Q*P (3)
与一般的少样本检测方法不同,本发明所提出的原型特征生成模块可以动态地计算每个输入查询特征对应的原型特性。相关系数矩阵A表示查询特征和$K$个支持特征之间的相似性,相似性越高的系数越大。
本发明可根据相关系数矩阵A的系数权重,对K个支持特征加权求和,生成原型特征。这与交叉注意机制非常相似,并且使得原型特征对输入查询特征更加健壮。虽然支持样本和查询图像在光照、形状、角度等经常变化,但是根据相似度加权的方式可以提取到与查询图像最相似的支持样本的信息。
原型特征生成模块还将使得网络优化特征表示,使不同类别的特征表示具有更高的区分度,也同样间接的促进了模型对于不同新类别的目标的识别。
步骤S25:在执行上述步骤同时,将支持特征输入辅助检测模块,以监督训练。
本发明提出的基于注意力的动态原型特征生成模块。通过计算查询特征与支持特征之间的相关系数,将该类的所有支持特征加权组合成一个新的原型特征。由于该原型特征是由支持特征加权组合而成,因此包含了该类目标的具有高度区分度的信息,同时由于该原型特征的生成与输入的带查询特征有关,因此在不同的位置以及不同输入数据中,都会生成不同的原型特征,这是动态的过程,因此该原型特征能够更加灵活地适应输入场景的变化,具有更高的鲁棒性。
一般的少样本检测算法将支持图像送入检测网络,通过基础网络部分提取得到原始的支持特征。这些原始的支持特征不仅包含支持类别,还包含相关信息。然后在支持图像的标注边界框的指导下,对这些特征利用ROI对齐操作,提取区域支持特征。这种机制使支持特征聚焦在给定的支持类别上。但没有充分利用到支持图像的监督信息,事实上,支持图像的标注信息中包含精细的目标框位置,可以将这些位置信息也加入到模型的微调训练中,提高对这些支持样本的利用率。
由于少样本目标检测缺乏充足的训练样本,将支持样本的每一个有用的信息都纳入到训练中,有利于提高检测模型的泛化性能。
因此本发明在输出支持特征的基础上,增加了一个辅助检测模块,提高对支持样本的利用率。
如图5所示,在一个实施例中,上述步骤S25中辅助检测模块包括:一个卷积层、两个全连接层和一个回归层;如图6所示,辅助检测模块由一个用于通道降维的1×1卷积层、两个全连接层和一个用于边界框位置回归的回归层组成;其监督训练步骤具体包括:
步骤S251:将支持特征通过卷积层、全连接层以及回归层进行支持目标的位置回归计算;
本发明实施例中,卷积层的输出通道为256,在输入全连接层之前将支持特征在空间上进行特征的维度展开,以便于全连接层计算,全连接层的输出为1024。由于支持图像是由一个特写的支持目标样本构成的,因此该支持样本有且仅有一个支持目标,因此不需要额外添加分类分支来检查目标是否存在。辅助检测模块只需要回归一个边界框位置的四个坐标,包括宽度、高度和中心点位置偏移x和y。
步骤S252:使用GIOU函数作为辅助检测模块的辅助损失函数Laux,其计算公式(4)如下所示:
Figure BDA0003060503290000051
其中,IOU表示预测的目标框与标签目标框的交并比,Ac表示两个目标框的外接矩形框面积,而U表示两个目标框的并集。
在位置回归输出之后,使用GIOU函数作为辅助检测模块的辅助损失函数Laux。由于辅助检测模块只用于在训练过程中提供辅助的监督信息,因此在目标检测的过程中不需要运行,不会带来额外的计算开销。
本发明提出了上述辅助检测模块来充分利用给定的支持训练样本,通过添加辅助的回归损失函数,可以提供更多的监督信号用于检测模型的优化训练。由于少样本目标检测缺乏充足的训练样本,将支持样本的位置信息纳入到训练中,有利于提高检测模型的泛化性能。
在一个实施例中,上述步骤S3:将动态查询特征输入区域建议网络,生成推荐区域结果,并根据支持特征和查询特征,提取区域查询特征和区域支持特征;
将动态查询特征Y,输入区域推荐网络中,生成推荐区域结果。本发明实施例采用RPN作为区域推荐网络,将动态查询特征Y输入RPN,可得到更相关的推荐区域的结果。然后通过ROI对齐操作,从步骤S1中得到的支持特征和查询特征中,提取固定尺寸的区域查询特征和区域支持特征。
在一个实施例中,步骤S4:将区域查询特征和区域支持特征输入到RCNN神经网络中,对边界框进行回归,并对查询目标进行分类。
最后,将区域查询特征和区域支持特征输入到RCNN神经网络中,对边界框进行回归,并对查询目标进行分类。本发明实施例使用对比训练策略来分类查询目标是否属于给定的支持类别。
如图7所示,根据3张支持图像,经少样本目标检测网络可在查询图像中,最终检测到棒球棒为感兴趣的目标。
实施例二
如图8所示,本发明实施例提供了一种基于动态原型特征融合的少样本目标检测系统,包括下述模块:
提取支持特征和查询特征模块51,用于将支持样本和查询样本分别输入到少样本目标检测网络中,提取对应的支持特征和查询特征;
获取动态查询模块52,用于将支持特征与查询特征同时输入动态原型特征生成模块,得到动态查询特征,同时将支持特征输入辅助检测模块监督训练;
提取区域查询特征和区域支持特征模块53,用于将动态查询特征输入区域建议网络,生成推荐区域结果,并根据支持特征和查询特征,提取区域查询特征和区域支持特征;
目标分类模块54,用于将区域查询特征和区域支持特征输入到RCNN神经网络中,对边界框进行回归,并对查询目标进行分类。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。

Claims (3)

1.一种基于动态原型特征融合的少样本目标检测方法,其特征在于,包括:
步骤S1:将支持样本和查询样本分别输入到少样本目标检测网络中,提取对应的支持特征和查询特征;
步骤S2:将所述支持特征与所述查询特征同时输入动态原型特征生成模块,得到动态查询特征,同时将所述支持特征输入辅助检测模块监督训练,具体包括如下步骤:
步骤S21:将所述查询特征Q的维度被重新调整为RHW*C,将所述支持特征S被重新调整为RC*K
步骤S22:利用下述公式(1),对Q和S进行矩阵乘法,生成相关系数矩阵A;
A=ST·QT (1)
步骤S23:使用softmax规范化所述相关系数矩阵A,并与所述支持特征进行加权求和,生成动态的原型特征P,如下述公式(2)所示;
P=(softmax(A)·ST)T (2)
步骤S24:将所述查询特征Q与所述原型特征P逐元素相乘,如下述公式(3)所示,得到动态查询特征Y;
Y=Q*P (3)
步骤S25:在执行上述步骤同时,将所述支持特征输入辅助检测模块,以监督训练;
步骤S3:将所述动态查询特征输入区域建议网络,生成推荐区域结果,并根据所述支持特征和所述查询特征,提取区域查询特征和区域支持特征;
步骤S4:将所述区域查询特征和所述区域支持特征输入到RCNN神经网络中,对边界框进行回归,并对查询目标进行分类。
2.根据权利要求1所述的基于动态原型特征融合的少样本目标检测方法,其特征在于,所述步骤S25中所述辅助检测模块包括:一个卷积层、两个全连接层和一个回归层;其监督训练步骤,具体包括:
步骤S251:将所述支持特征通过所述卷积层、所述全连接层以及所述回归层进行支持目标的位置回归计算;
步骤S252:使用GIOU函数作为所述辅助检测模块的辅助损失函数Laux,其计算公式(4)如下所示:
Figure FDA0003688795020000021
其中,IOU表示预测的目标框与标签目标框的交并比,Ac表示两个目标框的外接矩形框面积,而U表示两个目标框的并集。
3.一种基于动态原型特征融合的少样本目标检测系统,其特征在于,包括下述模块:
提取支持特征和查询特征模块,用于将支持样本和查询样本分别输入到少样本目标检测网络中,提取对应的支持特征和查询特征;
获取动态查询模块,用于将所述支持特征与所述查询特征同时输入动态原型特征生成模块,得到动态查询特征,同时将所述支持特征输入辅助检测模块监督训练,具体包括:
步骤S21:将所述查询特征Q的维度被重新调整为RHW*C,将所述支持特征S被重新调整为RC*K
步骤S22:利用下述公式(1),对Q和S进行矩阵乘法,生成相关系数矩阵A;
A=ST·QT (1)
步骤S23:使用softmax规范化所述相关系数矩阵A,并与所述支持特征进行加权求和,生成动态的原型特征P,如下述公式(2)所示;
P=(softmax(A)·ST)T (2)
步骤S24:将所述查询特征Q与所述原型特征P逐元素相乘,如下述公式(3)所示,得到动态查询特征Y;
Y=Q*P (3)
步骤S25:在执行上述步骤同时,将所述支持特征输入辅助检测模块,以监督训练;
提取区域查询特征和区域支持特征模块,用于将所述动态查询特征输入区域建议网络,生成推荐区域结果,并根据所述支持特征和所述查询特征,提取区域查询特征和区域支持特征;
目标分类模块,用于将所述区域查询特征和所述区域支持特征输入到RCNN神经网络中,对边界框进行回归,并对查询目标进行分类。
CN202110511625.4A 2021-05-11 2021-05-11 一种基于动态原型特征融合的少样本目标检测方法及系统 Active CN113177549B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110511625.4A CN113177549B (zh) 2021-05-11 2021-05-11 一种基于动态原型特征融合的少样本目标检测方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110511625.4A CN113177549B (zh) 2021-05-11 2021-05-11 一种基于动态原型特征融合的少样本目标检测方法及系统

Publications (2)

Publication Number Publication Date
CN113177549A CN113177549A (zh) 2021-07-27
CN113177549B true CN113177549B (zh) 2022-09-02

Family

ID=76928743

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110511625.4A Active CN113177549B (zh) 2021-05-11 2021-05-11 一种基于动态原型特征融合的少样本目标检测方法及系统

Country Status (1)

Country Link
CN (1) CN113177549B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113780524B (zh) * 2021-08-30 2024-02-13 武汉理工大学 一种天气自适应的目标检测系统和方法
CN114638839B (zh) * 2022-05-18 2022-09-30 中国科学技术大学 基于动态原型学习的小样本视频目标分割方法
CN115115825B (zh) * 2022-05-27 2024-05-03 腾讯科技(深圳)有限公司 图像中的对象检测方法、装置、计算机设备和存储介质
CN116129226B (zh) * 2023-04-10 2023-07-25 之江实验室 一种基于多原型混合模块的少样本目标检测方法及装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110211097A (zh) * 2019-05-14 2019-09-06 河海大学 一种基于Faster R-CNN参数迁移的裂缝图像检测方法
CN112364931A (zh) * 2020-11-20 2021-02-12 长沙军民先进技术研究有限公司 基于元特征和权重调整的少样本目标检测方法及网络模型

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10832096B2 (en) * 2019-01-07 2020-11-10 International Business Machines Corporation Representative-based metric learning for classification and few-shot object detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110211097A (zh) * 2019-05-14 2019-09-06 河海大学 一种基于Faster R-CNN参数迁移的裂缝图像检测方法
CN112364931A (zh) * 2020-11-20 2021-02-12 长沙军民先进技术研究有限公司 基于元特征和权重调整的少样本目标检测方法及网络模型

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Few-Shot Object Detection With Attention-RPN and Multi-Relation Detector;Qi Fan等;《 CVPR 2020》;20200805;第4013-4022页 *
少样本下的图像分类与检测;史秋月;《中国硕士学位论文全文数据库》;20210415;I138-731 *

Also Published As

Publication number Publication date
CN113177549A (zh) 2021-07-27

Similar Documents

Publication Publication Date Title
CN113177549B (zh) 一种基于动态原型特征融合的少样本目标检测方法及系统
Wu et al. Recent advances in deep learning for object detection
Shang et al. PRRNet: Pixel-Region relation network for face forgery detection
Li et al. Adaptive deep convolutional neural networks for scene-specific object detection
Chandio et al. Precise single-stage detector
CN109815956B (zh) 一种基于自适应位置分割的车牌字符识别方法
CN113609896B (zh) 基于对偶相关注意力的对象级遥感变化检测方法及系统
CN112541491B (zh) 基于图像字符区域感知的端到端文本检测及识别方法
CN113744311A (zh) 基于全连接注意力模块的孪生神经网络运动目标跟踪方法
CN114663707A (zh) 基于Faster RCNN改进的少样本目标检测方法
Zhou et al. Algorithm of Helmet Wearing Detection Based on AT-YOLO Deep Mode.
Wang et al. Fine-grained few shot learning with foreground object transformation
Dou et al. Background subtraction based on circulant matrix
Yun et al. Part-level convolutional neural networks for pedestrian detection using saliency and boundary box alignment
CN113221680B (zh) 基于文本动态引导视觉特征提炼的文本行人检索方法
Qi et al. DGRNet: A Dual-Level Graph Relation Network for Video Object Detection
CN114333062A (zh) 基于异构双网络和特征一致性的行人重识别模型训练方法
Liu et al. Learning position information from attention: End-to-end weakly supervised crack segmentation with GANs
Tan et al. 3D detection transformer: Set prediction of objects using point clouds
Qi et al. TCNet: A novel triple-cooperative network for video object detection
CN113052209B (zh) 融合胶囊相似性的单样本语义分割方法
Qi et al. Class-Aware Dual-Supervised Aggregation Network for Video Object Detection
Liu et al. Shooting condition insensitive unmanned aerial vehicle object detection
Zheng et al. A new efficient finger-vein verification based on lightweight neural network using multiple schemes
Xu Stereo matching and depth map collection algorithm based on deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant