CN115131580B - 基于注意力机制的空间目标小样本识别方法 - Google Patents
基于注意力机制的空间目标小样本识别方法 Download PDFInfo
- Publication number
- CN115131580B CN115131580B CN202211059351.0A CN202211059351A CN115131580B CN 115131580 B CN115131580 B CN 115131580B CN 202211059351 A CN202211059351 A CN 202211059351A CN 115131580 B CN115131580 B CN 115131580B
- Authority
- CN
- China
- Prior art keywords
- feature
- query
- sample
- sample set
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000007246 mechanism Effects 0.000 title claims abstract description 17
- 238000012549 training Methods 0.000 claims abstract description 23
- 238000000605 extraction Methods 0.000 claims description 27
- 238000010586 diagram Methods 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 239000013598 vector Substances 0.000 claims description 8
- 101100533306 Mus musculus Setx gene Proteins 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 2
- 241000532123 Setia Species 0.000 claims 1
- 238000005286 illumination Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 17
- 230000008901 benefit Effects 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 230000007786 learning performance Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于注意力机制的空间目标小样本识别方法,涉及计算机视觉技术领域,以解决对于具有光照不均与过曝严重特点的空间图像,现有的空间目标小样本识别的精度不高的技术问题。该方法根据支持样本集和查询样本集,采用嵌入特征对齐网络的空间目标识别网络模型来训练,得到最终训练好的空间目标识别网络模型,以对待识别图像进行类别预测,从而得到更准确的预测结果。本发明可对宽幅大场景空间图像中的目标实例实现语义特征对齐,抑制目标特征“误对齐”现象,增强同类别样本特征相关性以及不同类别样本特征可分离性,大幅提高空间目标小样本识别的精度。
Description
技术领域
本发明涉及计算机视觉技术领域,具体涉及空间目标小样本识别技术领域,更具体地涉及一种基于注意力机制的空间目标小样本识别方法。
背景技术
近年来,人类航天探索活动日益频繁,各国在轨道空间目标数量陡增,对空间目标进行碰撞预警对保障我国空间站与各种高价值空间目标的在轨安全具有十分重要的意义。空间态势感知技术通过长时间监测非合作空间目标的位置和运动状态信息用于确定其状态、属性以及意图,是目前空间安全问题的主要应对和防范手段。空间目标识别技术是空间态势感知的一项基础性关键技术,其主要任务是利用空间目标图像对目标身份进行识别,便于后续对目标信息(属性、功能与意图)进一步判读。
由于天基光学观测成本等原因,空间目标图像数量非常稀少,常规基于深度学习的图像识别方法训练非常依赖大量数据样本,因此常规深度学习方法难以解决这类小样本识别任务。另外,当前适用于小样本任务的主流基于度量学习的小样本图像识别方法的应用对象主要是人物、动物、生活物品等生活场景,针对空间目标的专用小样本识别方法在行业内依然是空白。因此,研究在训练样本量受限条件下,空间图像专用小样本目标识别方法是一件亟待解决又极具挑战性的技术问题。
目前,将常规小样本图像识别方法直接用于空间目标识别任务存在以下三点困难:(1)训练样本数量较少,特征提取网络较浅导致特征提取能力有限,样本特征具有局限性;(2)空间图像宽幅大场景、光照不均及过曝严重等特点,进一步增加特征提取难度,使得前述问题(1)更加凸显;(3)小样本识别方法模型学习的是不同特征之间距离,无论支持样本还是查询样本都难以获取类别信息;尤其对于具有光照不均与过曝严重特点的空间图像,卷积网络未能捕捉到目标实例特征,而往往更关注光照不均“噪声”部分,造成在度量空间中目标特征的“误对齐”,严重影响小样本目标识别精度。
发明内容
有鉴于此,本发明提供了一种基于注意力机制的空间目标小样本识别方法,以解决对于具有光照不均与过曝严重特点的空间图像,现有的空间目标小样本识别的精度不高的技术问题。
本发明提供的基于注意力机制的空间目标小样本识别方法,包括:获取支持样本集和查询样本集,其中,支持样本集包括多个已标记的空间图像样本,查询样本集为多个未标记的空间图像样本;使用支持样本集和查询样本集作为训练数据,来训练空间目标识别网络模型,空间目标识别网络模型依次包括特征提取网络、特征对齐网络和度量网络,其中,特征提取网络对输入的支持样本集和查询样本集进行浅层特征提取,获得查询样本集的原始特征图X q 和支持样本集的原始特征图;特征对齐网络对原始特征图X q 和进行空间目标实例的特征对齐,生成查询样本集的重构特征图和支持样本集的重构特征图;度量网络将支持样本集的类别标签通过距离度量方式或相似性度量方式传播至查询样本集的核心网络;将待识别图像输入训练好的空间目标识别网络模型,输出待识别图像的预测类别。
与现有技术相比,本发明提供的基于注意力机制的空间目标小样本识别方法,至少具有以下有益效果:
(1)可对宽幅大场景空间图像中的目标实例实现语义特征对齐,抑制目标特征“误对齐”现象,增强同类别样本特征相关性以及不同类别样本特征可分离性,大幅提高空间目标小样本识别的精度;
(2)提出了一种基于多尺度注意力机制的语义特征对齐结构,用于查询样本特征图和支持样本特征图的相关性目标特征建模,以实现目标语义特征对齐,提高同类别的支持样本、查询样本特征图的特征相关性以及特征可分离性;
(3)在MSAFA特征对齐结构基础上,提出了基于注意力机制的空间目标识别模型,通过将MSAFA结构嵌入现有的小样本识别网络中,提高了空间目标小样本识别方法的性能;
(4)提出在空间目标识别网络模型的训练过程中使用查询分类损失函数的策略,降低网络训练难度,加速网络收敛。
附图说明
通过以下参照附图对本发明实施例的描述,本发明的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本发明实施例的基于注意力机制的空间目标小样本识别方法的流程图;
图2示意性示出了根据本发明实施例的特征对齐网络的实现流程图;
图3示意性示出了根据本发明实施例的特征对齐网络的结构图;
图4示意性示出了根据本发明实施例的空间目标识别网络模型的结构图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本发明。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在人类学习行为模式启发下,本发明提供了一种基于注意力机制的空间目标小样本识别方法,可对宽幅大场景空间图像中的目标实例实现语义特征对齐,抑制目标特征“误对齐”现象,增强同类别样本特征相关性以及不同类别样本特征可分离性,大幅提高空间目标小样本识别的精度。
图1示意性示出了根据本发明实施例的基于注意力机制的空间目标小样本识别方法的流程图。
如图1所示,根据该实施例的基于注意力机制的空间目标小样本识别方法,可以包括操作S110~操作S130。
在操作S110,获取支持样本集和查询样本集,其中,支持样本集包括多个已标记的空间图像样本,查询样本集为多个未标记的空间图像样本。
在操作S120,使用支持样本集和查询样本集作为训练数据,来训练空间目标识别网络模型,空间目标识别网络模型依次包括特征提取网络、特征对齐网络和度量网络。
其中,特征提取网络对输入的支持样本集和查询样本集进行浅层特征提取,获得查询样本集的原始特征图X q 和支持样本集的原始特征图;特征对齐网络对原始特征图X q 和进行空间目标实例的特征对齐,生成查询样本集的重构特征图和支持样本集的重构特征图;度量网络将支持样本集的类别标签通过距离度量方式或相似性度量方式传播至查询样本集的核心网络。
在操作S130,将待识别图像输入训练好的空间目标识别网络模型,输出待识别图像的预测类别。
通过本发明的实施例,根据支持样本集和查询样本集,采用嵌入特征对齐网络的空间目标识别网络模型来训练,得到最终训练好的空间目标识别网络模型,以对待识别图像进行类别预测,从而得到更准确的预测结果。本发明实施例可对宽幅大场景空间图像中的目标实例实现语义特征对齐,抑制目标特征“误对齐”现象,增强同类别样本特征相关性以及不同类别样本特征可分离性,大幅提高空间目标小样本识别的精度。
本实施例中,特征对齐网络是一种基于多尺度注意力机制的语义特征对齐结构(Multi-Scale Attention Features Align block, 简称MSAFA block或者MSAFA结构)。MSAFA结构引入的想法是受人类在小样本情况下学习行为启发,一般来说,为了在给定极少量标记图像样本(支持样本集)的情况下识别未知类别图像样本(查询样本集),人类倾向于首先在标记图像和未知类别图像中查找并定位两者中最相关的区域,再综合对比两张图相似性。
类似地,在现有小样本识别网络中,对于给定支持样本特征图和查询样本特征图,MSAFA结构分别为每个特征图生成一个注意力特征图以凸显和加强图像中的目标实例对象,从而实现特征图中的目标实例特征对齐,增强同类别的支持、查询样本的特征相关性,提高不同类别支持、查询样本的特征可分离性,最终降低关系网络的学习难度并提升小样本分类网络的精度。另外,本发明实施例提出的MSAFA结构也可以帮助卷积层提取更具辨识力的特征。
MSAFA结构的核心任务是对查询样本的原始特征图X q 和支持样本的原始特征图X s
中不同地物实例进行特征建模,因此MSAFA结构的输入数据为原始特征图X q 和X s ,输出为实
现特征对齐后的重构特征图和。
将MSAFA结构输入的查询样本的原始特征图X q 和支持样本的原始特征图X s 表示为:
图2示意性示出了根据本发明实施例的特征对齐网络的实现流程图。图3示意性示出了根据本发明实施例的特征对齐网络的结构图。
结合图2和图3所示,本实施例中,在上述操作S120中,特征对齐网络对原始特征图X q 和X s 进行目标实例的特征对齐,生成查询样本集的重构特征图和支持样本集的重构
特征图,可以进一步包括操作S1201~操作S1205。
其中,i、j、l、u取值均从1到N。
生成的多尺度金字塔特征图(Multi-scale Pyramid Feature Maps,简称MPF)如以下公式所示:
式中,AP M (·)表示采用多种参数设置的均值池化层操作,具体经过均值池化后输出特征图尺寸如下表1所示:
其中,Pool-1、Pool-2、Pool-3、Pool-4、Pool-5依次表示五个池化层操作。
然后,在操作S1204,将金字塔特征图和在空间维展开,利用高斯核函数计算分布在嵌入特征空间内
的金字塔特征图的任一特征点和一编码特征点之间的相似度,以及
金字塔特征图的另一特征点和另一编码特征点之间的相似度,获得
注意力权重矩阵S qs 和S sq 。
式中,T为在空间维展开过程的中间系数;v、w、k、m是特征图中特征点的序列号。
利用高斯核函数计算分布在嵌入特征空间内的金字塔特征图的任一特征点和一编码特征点之间的相似度,以及金字塔特征图的另一特征点和另一编码特征点之间的相似度,获得注意力权重矩阵S qs 和S sq ,具
体公式计算如下:
需要说明的是,以上注意力权重矩阵的计算公式的具体编程可以利用SoftMax函数来实现。由此,获得的注意力权重矩阵S qs 和S sq 具体如下式来表示:
具体如下式所示:
经过上述处理,可以实现对查询样本的原始特征图X q 和支持样本的原始特征图X s 中的多个地物目标实例特征进行相关性建模,在大量数据训练以及学习过程中,实现对两张特征图中目标实例的特征对齐。
针对空间目标识别任务中训练样本量严重受限问题,结合本发明实施例提出的MSAFA结构的特征对齐优势,本发明实施例提出了基于注意力机制的空间目标识别网络模型。
图4示意性示出了根据本发明实施例的空间目标识别网络模型的结构图。
如图4所示,本发明实施例中的空间目标识别网络模型依次包括特征提取网络、特征对齐网络和度量网络三个部分。
由于训练样本量严重不足,特征提取网络是一个由9个卷积层构成的浅层网络,负责对输入的查询样本集和支持样本集图像进行特征提取。特征对齐网络的核心是MSAFA结构。度量网络将支持样本集的类别标签通过距离度量方式或相似性度量方式传播至查询样本集的核心网络。
具体地,度量网络可分成两部分组成:1)特征再提取模块;2)关联层(CorrelationLayer)和查询分类器(Query Classifier)。
查询分类器只在空间目标识别网络模型的训练过程中使用,通过引入查询样本的类别信息,以优化特征提取网络的参数,从而尽可能地改善特征提取网络性能,同时加强网络挖掘类别实例特征能力。另外,在预测推理过程中不考虑查询分类器预测结果。
针对小样本任务特点以及加强类别实例特征抓取能力要求,本实施例中,采用近邻分类损失函数(Nearest Neighbor Classifier Loss,NNC Loss)和查询分类损失函数(Query Classifier Loss,QC Loss)的联合训练策略,来训练空间目标识别网络模型。
1、近邻分类损失函数
本实施例中,近邻分类损失函数根据以下方式来构建:以支持样本集的重构特征
图为参考,度量查询样本的原始特征图X q 与支持样本的重构特征图中的每个特征
点的距离,利用最近距离对查询样本的类别标签进行分类。
具体地,通过关联层(Correlation Layer)实现对两个特征之间的相似性度量,对
于第i个查询样本,通过近邻分类器在支持样本集C个的类别标签上通过相似性度量可
以生成类似于SoftMax的标签分布。
其中,C是当前任务Batch中支持样本集的类别总数;是第i个查询样本的原始
特征图经过全局均值池化(Global Average Pooling,GAP)操作后形成的特征向量;是
所述支持样本集的重构特征图中的第j种类别特征向量;d(·)表示余弦距离。
然后,近邻分类损失函数L 1 可以描述为:
其中,N q 是一个批处理Batch中查询样本的数量。
2、查询分类损失函数
为了加强网络提取类别实例特征进一步改善特征度量学习性能,本发明实施例提出在网络训练过程中使用查询分类损失函数的策略。使用全连接层(Fully ConnectionLayer,FC Layer)构成查询分类器(Query Classifier),然后使用SoftMax函数对所有可用的训练类别中的每个查询样本进行分类。
需要强调的是,查询分类器只在网络训练过程中起作用,通过引入更多的类别信息帮助特征提取网络更好地强化特征提取能力,尽可能捕捉类别实例特征;当网络进行预测推理时,查询分类器预测结果被屏蔽。
其中,N q 是一个批处理Batch中查询样本的数量;y ik 是第i个查询样本中的第k个指
示变量,取值为0或1,当该类别与第i个查询样本的类别相同即取1,否则取0;是第i个查
询样本属于类别k的预测概率。
本实施例中,空间目标识别网络模型的总损失函数为近邻分类损失函数和查询分类损失函数的加权和。
总损失函数L定义如下:
式中,λ为超参数,是为了平衡两种不同损失函数影响力的指标。在实验编程中,超参数λ可以取0.5。
通过优化总损失函数L,可以实现对整个空间目标识别网络模型进行端到端训练。
综上所述,本发明实施例提供一种基于注意力机制的空间目标小样本识别方法,实现目标实例特征对齐以提高特征可分离性,可适用于在空间目标小样本识别任务,提升当前网络分类性能。并且,方法结构采用模块化设计;即插即用,适应性强,可针对所有基于度量学习网络结构,具有一定算法普适性。
附图中示出了一些方框图和/或流程图。应理解,方框图和/或流程图中的一些方框或其组合可以由计算机程序指令来实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,从而这些指令在由该处理器执行时可以创建用于实现这些方框图和/或流程图中所说明的功能/操作的装置。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。因此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是至少两个,例如两个、三个等,除非另有明确具体的限定。此外,位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于注意力机制的空间目标小样本识别方法,其特征在于,包括:
获取支持样本集和查询样本集,其中,所述支持样本集包括多个已标记的空间图像样本,所述查询样本集为多个未标记的空间图像样本;
使用所述支持样本集和查询样本集作为训练数据,来训练空间目标识别网络模型,所述空间目标识别网络模型依次包括特征提取网络、特征对齐网络和度量网络,其中,所述特征提取网络对输入的支持样本集和查询样本集进行浅层特征提取,获得所述查询样本集的原始特征图X q 和所述支持样本集的原始特征图;所述特征对齐网络对所述原始特征图X q 和进行空间目标实例的特征对齐,生成查询样本集的重构特征图和支持样本集的重构特征图;所述度量网络将所述支持样本集的类别标签通过距离度量方式或相似性度量方式传播至所述查询样本集的核心网络;
将待识别图像输入训练好的空间目标识别网络模型,输出所述待识别图像的预测类别;
分别将所述查询样本集的原始特征图X q 和所述支持样本集的原始特征图X s 线性映射到嵌入特征空间中,获得编码特征,其中,所述编码特征分别为所述查询样本集的第j个编码特征点、所述查询样本集的第u个编码特征点、所述支持样本集的第i个编码特征点和所述支持样本集的第l个编码特征点;
将所述金字塔特征图和在空间维展开,利用高斯核函数计算分布在嵌入特征空间内的金字塔特征图的任一特征点和一编码特征点之间的相似度,以及金字塔特征图的另一特征点和另一编码特征点之间的相似度,获得注意力权重矩阵S qs 和S sq ;
4.根据权利要求1所述的基于注意力机制的空间目标小样本识别方法,其特征在于,采用近邻分类损失函数和查询分类损失函数的联合训练策略,来训练所述空间目标识别网络模型。
9.根据权利要求4所述的基于注意力机制的空间目标小样本识别方法,其特征在于,所述空间目标识别网络模型的总损失函数为所述近邻分类损失函数和所述查询分类损失函数的加权和。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211059351.0A CN115131580B (zh) | 2022-08-31 | 2022-08-31 | 基于注意力机制的空间目标小样本识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211059351.0A CN115131580B (zh) | 2022-08-31 | 2022-08-31 | 基于注意力机制的空间目标小样本识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115131580A CN115131580A (zh) | 2022-09-30 |
CN115131580B true CN115131580B (zh) | 2022-11-22 |
Family
ID=83387519
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211059351.0A Active CN115131580B (zh) | 2022-08-31 | 2022-08-31 | 基于注意力机制的空间目标小样本识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115131580B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115527152A (zh) * | 2022-11-10 | 2022-12-27 | 南京恩博科技有限公司 | 一种小样本视频动作分析方法、系统及装置 |
CN115953665B (zh) * | 2023-03-09 | 2023-06-02 | 武汉人工智能研究院 | 一种目标检测方法、装置、设备及存储介质 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110020682B (zh) * | 2019-03-29 | 2021-02-26 | 北京工商大学 | 一种基于小样本学习的注意力机制关系对比网络模型方法 |
CN114207667A (zh) * | 2019-09-19 | 2022-03-18 | 赫尔实验室有限公司 | 利用嵌入空间中的少量标签来学习动作 |
CN111582337A (zh) * | 2020-04-24 | 2020-08-25 | 东南大学 | 基于小样本细粒度图像分析的草莓畸形状态检测方法 |
CN112434721B (zh) * | 2020-10-23 | 2023-09-01 | 特斯联科技集团有限公司 | 一种基于小样本学习的图像分类方法、系统、存储介质及终端 |
CN113095416B (zh) * | 2021-04-16 | 2023-08-18 | 西安电子科技大学 | 基于混合损失与图注意力的小样本sar目标分类方法 |
CN113869418B (zh) * | 2021-09-29 | 2024-07-02 | 哈尔滨工程大学 | 一种基于全局注意力关系网络的小样本船舶目标识别方法 |
CN114488140B (zh) * | 2022-01-24 | 2023-04-25 | 电子科技大学 | 一种基于深度迁移学习的小样本雷达一维像目标识别方法 |
CN114926702B (zh) * | 2022-04-16 | 2024-03-19 | 西北工业大学深圳研究院 | 一种基于深度注意力度量的小样本图像分类方法 |
-
2022
- 2022-08-31 CN CN202211059351.0A patent/CN115131580B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN115131580A (zh) | 2022-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112101165B (zh) | 兴趣点识别方法、装置、计算机设备和存储介质 | |
CN113936339B (zh) | 基于双通道交叉注意力机制的打架识别方法和装置 | |
CN115131580B (zh) | 基于注意力机制的空间目标小样本识别方法 | |
CN100461204C (zh) | 一种基于二维偏最小二乘法的面部表情识别方法 | |
CN109375186B (zh) | 基于深度残差多尺度一维卷积神经网络的雷达目标识别方法 | |
CN106845341B (zh) | 一种基于虚拟号牌的无牌车辆识别方法 | |
CN107622229A (zh) | 一种基于融合特征的视频车辆重识别方法与系统 | |
CN103279768B (zh) | 一种基于增量学习人脸分块视觉表征的视频人脸识别方法 | |
CN106909938B (zh) | 基于深度学习网络的视角无关性行为识别方法 | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN104240256A (zh) | 一种基于层次化稀疏建模的图像显著性检测方法 | |
WO2019167784A1 (ja) | 位置特定装置、位置特定方法及びコンピュータプログラム | |
CN103020658B (zh) | 二维图像中的物体识别方法 | |
CN111428619A (zh) | 基于有序回归和软标签的三维点云头部姿态估计系统和方法 | |
Zang et al. | Traffic lane detection using fully convolutional neural network | |
CN110874576A (zh) | 一种基于典型相关分析融合特征的行人再识别方法 | |
CN115994558A (zh) | 医学影像编码网络的预训练方法、装置、设备及存储介质 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN113158777A (zh) | 质量评分方法、质量评分模型的训练方法及相关装置 | |
CN114926725A (zh) | 一种基于图像分析的线上金融团伙欺诈识别方法 | |
CN109033321A (zh) | 一种图像与自然语言特征提取及基于关键词的语言指示图像分割方法 | |
CN113449676B (zh) | 一种基于双路互促进解纠缠学习的行人重识别方法 | |
CN108154199B (zh) | 一种基于深度学习的高精度快速单类目标检测方法 | |
CN112861881A (zh) | 一种基于改进MobileNet模型的蜂窝肺识别方法 | |
CN111832463A (zh) | 一种基于深度学习的交通标志检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |