CN115272857B - 基于注意力机制的多源遥感图像目标识别方法 - Google Patents

基于注意力机制的多源遥感图像目标识别方法 Download PDF

Info

Publication number
CN115272857B
CN115272857B CN202210900863.9A CN202210900863A CN115272857B CN 115272857 B CN115272857 B CN 115272857B CN 202210900863 A CN202210900863 A CN 202210900863A CN 115272857 B CN115272857 B CN 115272857B
Authority
CN
China
Prior art keywords
feature
hidden layer
remote sensing
source
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210900863.9A
Other languages
English (en)
Other versions
CN115272857A (zh
Inventor
冯鹏铭
贺广均
金世超
符晗
常江
刘世烁
邹同元
王勇
梁银川
车程安
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Satellite Information Engineering
Original Assignee
Beijing Institute of Satellite Information Engineering
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Satellite Information Engineering filed Critical Beijing Institute of Satellite Information Engineering
Priority to CN202210900863.9A priority Critical patent/CN115272857B/zh
Publication of CN115272857A publication Critical patent/CN115272857A/zh
Application granted granted Critical
Publication of CN115272857B publication Critical patent/CN115272857B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Abstract

本发明涉及一种基于注意力机制的多源遥感图像目标识别方法,包括:获取多源遥感图像及其对应的目标类别标签,并进行预处理;提取预处理后的多源遥感图像中的目标特征,对所述目标特征进行过滤,得到多源目标的关键特征;构建特征融合编码器并对所述关键特征进行融合,获得隐层特征数据;构建特征解码器并重构所述隐层特征数据;利用重构的隐层特征数据和所述关键特征对所述特征融合编码器和所述特征解码器进行优化;利用分类网络对所述隐层特征数据进行分类识别。本发明不仅实现多源遥感图像中的目标识别,还可提高识别的精度。

Description

基于注意力机制的多源遥感图像目标识别方法
技术领域
本发明涉及多源数据融合与遥感图像目标识别技术领域,尤其涉及一种基于注意力机制的多源遥感图像目标识别方法。
背景技术
基于卷积神经网络的深度学习方法已经广泛应用于遥感图像目标识别领域,但针对天基遥感资源碎片化严重、受环境影响较大等问题,现有方法尚难以综合利用不同环境、不同条件下所获取的目标样本特征。而且,对于不同源遥感图像的目标识别任务,现有方法中多源数据融合的信息提供不完整、信息特征差异大,导致融合精度差。
发明内容
为解决上述现有技术存在的技术问题,本发明的目的在于提供一种基于注意力机制的多源遥感图像目标识别方法,实现多源遥感图像中的目标识别,解决了现有技术融合精度不高、特征提取困难的问题。
为实现上述发明目的,本发明的技术方案是:
本发明提供一种基于注意力机制的多源遥感图像目标识别方法,包括:
获取多源遥感图像及其对应的目标类别标签,并进行预处理;
提取预处理后的多源遥感图像中的目标特征,对所述目标特征进行过滤,得到多源目标的关键特征;
构建特征融合编码器并对所述关键特征进行融合,获得隐层特征数据;
构建特征解码器并重构所述隐层特征数据;
利用重构的隐层特征数据和所述关键特征对所述特征融合编码器和所述特征解码器进行优化;
利用分类网络对所述隐层特征数据进行分类识别。
根据本发明的一个方面,所述多源遥感图像包括:光学遥感图像和SAR遥感图像。
根据本发明的一个方面,所述预处理包括:对获取的多源遥感图像及其对应的目标类别标签进行剪裁和翻转。
根据本发明的一个方面,所述提取预处理后的多源遥感图像中的目标特征中,利用特征提取主干网络提取预处理后的多源遥感图像中的目标特征,得到多源特征图。
根据本发明的一个方面,所述对所述目标特征进行过滤,包括:
对所述多源遥感图像的成像和场景的条件信息进行向量编码,利用条件信息传递模块使VGG网络根据传递的编码后的条件信息对网络参数进行调整;
利用预训练的VGG网络提取所述多源特征图上的特征,计算特征感知相似度误差;
利用所述特征感知相似度误差作为损失函数,对前置单源数据过滤器进行训练,利用训练好的前置单源数据过滤器对所述多源特征图进行过滤,得到多源目标的关键特征。
根据本发明的一个方面,所述构建特征融合编码器并对所述关键特征进行融合,包括:
构建基于注意力机制的特征融合编码器;
利用所述特征融合编码器的卷积层,对所述多源目标的关键特征投影到不同的特征空间,得到注意力图;
利用所述特征融合编码器的注意力层对所述注意力图进行融合,并利用以下公式获得隐层特征数据,
其中, x i 为所述多源目标的关键特征, o i 为所述注意力层输出的中间结果, γ为缩放因子。
根据本发明的一个方面,所述构建特征解码器并重构所述隐层特征数据,包括:
构建特征解码器,利用所述特征解码器对所述隐层特征数据进行解码重建;
利用L1函数计算特征融合和重建误差;
对所述特征融合编码器中间的隐层特征数据进行调整和限制,相同类型目标的数据被分配在同一训练批次中,利用所述特征融合编码器获取特征空间中的隐层特征数据,利用VGG网络分别计算该隐层特征数据与同一训练批次内其他数据的特征感知相似度,作为特征感知损失。
根据本发明的一个方面,所述利用重构的隐层特征数据和所述关键特征对所述特征融合编码器和所述特征解码器进行优化,包括:
构建损失函数,利用损失函数计算重构的隐层特征数据和所述多源目标的关键特征的相似度,并利用所述相似度对所述特征融合编码器和所述特征解码器进行训练和优化。
根据本发明的一个方面,所述利用分类网络对所述隐层特征数据进行分类识别之前,还包括:利用网络剖析方法对所述隐层特征数据进行可解释性分析和可视化。
根据本发明的一个方面,所述利用网络剖析方法对所述隐层特征数据进行可解释性分析和可视化,包括:
构建具有领域专家知识的视觉概念数据库;
建立所述隐层特征数据与所述视觉概念数据库的关联模型;
对所述关联模型输入视觉概念图像,确定用于判断所述隐层特征数据是否激活的阈值;
量化所述隐层特征数据和所述视觉概念数据库的匹配程度,根据所述阈值对所述隐层特征数据进行可视化解释。
与现有技术相比,本发明具有如下优点:
根据本发明的方案,深度学习和注意力机制相结合,整合并利用不同源、不同场景和不同成像条件下获取的目标样本,利用多源遥感图像特征融合模型使光学图像和SAR图像特征充分结合、优势互补,最大限度地利用样本的有效信息,使目标识别模型具备针对多源遥感图像中的目标同时识别的能力。
根据本发明的一个方案,采用基于注意力机制的目标特征数据融合,对光学图像与SAR图像进行拆分式的特征提取与过滤,同时进行感知约束,使两类特征数据充分融合,去除冗余信息,获取能够同时代表光学和SAR目标特征的隐层特征数据,从而在识别中高效准确地利用多源遥感图像目标样本的有效特征信息。同时,基于该有效特征信息,采用一种基于网络剖析的方法对隐层特征数据进行可解释性分析及可视化,进一步提高了多源遥感图像中目标识别的精度。
附图说明
为了更清楚地说明本发明实施方式或现有技术中的技术方案,下面将对实施方式中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性表示本发明实施例提供的一种基于注意力机制的多源遥感图像目标识别方法的实现流程图;
图2示意性表示本发明实施例提供的基于注意力机制的特征融合示意图;
图3示意性表示本发明实施例提供的特征数据融合的自编码器模型结构图。
具体实施方式
此说明书实施方式的描述应与相应的附图相结合,附图应作为完整的说明书的一部分。在附图中,实施例的形状或是厚度可扩大,并以简化或是方便标示。再者,附图中各结构的部分将以分别描述进行说明,值得注意的是,图中未示出或未通过文字进行说明的元件,为所属技术领域中的普通技术人员所知的形式。
此处实施例的描述,有关方向和方位的任何参考,均仅是为了便于描述,而不能理解为对本发明保护范围的任何限制。以下对于优选实施方式的说明会涉及到特征的组合,这些特征可能独立存在或者组合存在,本发明并不特别地限定于优选的实施方式。本发明的范围由权利要求书所界定。
参见图1,本发明实施例提供的一种基于注意力机制的多源遥感图像目标识别方法,包括以下步骤:
步骤100,获取多源遥感图像及其对应的目标类别标签,并进行预处理。
在一个实施例中,步骤100中所述多源遥感图像包括:光学遥感图像和SAR遥感图像。所述预处理的具体实施过程包括:对获取的多源遥感图像及其对应的目标类别标签进行剪裁和翻转。
步骤200,提取预处理后的多源遥感图像中的目标特征,对所述目标特征进行过滤,得到多源目标的关键特征。
具体的,步骤200中利用特征提取主干网络提取预处理后的多源遥感图像中的目标特征,得到多源特征图。进一步地,所述特征提取主干网络可以采用ResNet50网络。也就是,提取光学遥感图像和SAR遥感图像中的目标特征,分别获得光学特征图和SAR特征图
在一个实施例中,步骤200中所述对所述目标特征进行过滤的具体实施过程包括:
对所述多源遥感图像的成像和场景的条件信息进行向量编码,利用条件信息传递模块使VGG网络根据传递的编码后的条件信息对网络参数进行调整。
具体的,将特征提取主干网络提取的光学特征图和SAR特征图输入VGG网络,将光学遥感图像和SAR遥感图像的成像和场景的条件信息进行向量编码,利用条件信息传递模块使VGG网络根据传递的编码后的条件信息对网络参数进行调整。
利用预训练的VGG网络提取所述多源特征图上的特征,计算特征感知相似度误差。具体的,利用预训练的VGG网络提取光学特征图 和SAR特征图 的特征,计算二者的特征感知相似度误差,
其中:ϕ表示VGG网络,W和H分别表示特征图的长和宽,F表示前置特征提取与数据过滤网络模型,θ表示SAR图像数据的网络模型的参数, 表示光学图像数据的网络模型参数。SAR图像的数据和光学图像的数据分别通过前置网络后再利用VGG网络计算相应的感知特征,最后计算两个数据之间感知特征的均方误差(Mean Square Error, MSE)。
利用所述特征感知相似度误差作为损失函数,对前置单源数据过滤器进行训练,利用训练好的前置单源数据过滤器对所述多源特征图进行过滤,得到多源目标的关键特征。此关键特征即为识别多源目标的有效特征。具体的,对光学特征图和SAR特征图进行过滤。
本实施例整合并利用不同源、不同场景和不同成像条件下获取的目标样本,可以最大限度地将与目标有关的更多信息让网络感知,从而提高后续目标识别的准确度。
步骤300,构建特征融合编码器并对所述关键特征进行融合,获得隐层特征数据。具体的,该隐层特征数据可以将SAR图像数据和光学图像数据融合为统一表达。
在一个实施例中,步骤300中所述构建特征融合编码器并对所述关键特征进行融合的具体实施过程包括:
构建基于注意力机制的特征融合编码器;
利用所述特征融合编码器的卷积层,对所述多源目标的关键特征投影到不同的特征空间,得到注意力图;
利用所述特征融合编码器的注意力层对所述注意力图进行融合,并利用以下公式获得隐层特征数据,
其中, x i 为所述多源目标的关键特征, o i 为所述注意力层输出的中间结果, γ为缩放因子。
具体的,参见图2,构建基于注意力机制的特征融合编码器。首先将光学目标关键特征数据 和SAR目标关键特征数据先通过1×1卷积转换成两个特征空间,用于计算注意力。在将转置之后和进行矩阵乘法运算,通过softmax得到注意力图:
其中, 表示第i个位置是否应该与第j个位置形成关联,注意力层最终输出为:
其中,
 为光学目标关键特征与SAR目标关键特征的叠加结果,最终将注意力层的输出加上一个缩放因子后与最开始的卷积层相加,作为最终输出,即:
其中 被初始化为0,在之后学习过程中逐渐变大,有利于模型的稳定。获取的结果 即为SAR和光学图像的融合数据。
本实施例的基于注意力机制的目标特征融合策略,首先将多源遥感图像中的目标特征投影到两个不同的特征空间,然后注意力层对特征进行融合,获取有效特征;通过注意力层的输出与原始特征数据相加的方式,在保留原始数据特征的基础上,对有效特征进行了增强。与现有方法相比,解决了多源遥感图像在融合应用中信息提供不完整、信息特征差异大导致的融合精度差的问题,通过将多源数据特征相互弥补,更能完整的体现样本的真实特征。
针对多源数据存在数据差异,在融合中首先对SAR图像和光学图像进行拆分式的特征提取与过滤,并进行感知约束,达到提取关键特征以及干扰数据过滤的目的。通过自编码器结构与数据重建约束,使得数据融合模型能够充分的结合SAR和光学图像数据。与现有方法相比,剔除了单源特征中的冗余和噪声信息,使得在特征融合中获取的隐层目标特征更有效的兼顾不同源特征,提升特征融合模型的精度。
步骤400,构建特征解码器并重构所述隐层特征数据。
在一个实施例中,步骤400中构建特征解码器并重构所述隐层特征数据的具体实施过程包括:
构建特征解码器,利用所述特征解码器对所述隐层特征数据进行解码重建,参见图3。
利用L1函数计算特征融合和重建误差。具体的,
为进一步提高数据融合的性能,对所述特征融合编码器中间的隐层特征数据进行调整和限制,相同类型目标的数据被分配在同一训练批次中,利用所述特征融合编码器获取特征空间中的隐层特征数据,利用VGG网络分别计算该隐层特征数据与同一训练批次内其他数据的特征感知相似度,作为特征感知(Type Feature)损失。
其中N为同一个训练批次的数据数量,每一个隐层特征数据会以同一批次中其他特征数据的均值为目标进行训练。
步骤500,利用重构的隐层特征数据和所述关键特征对所述特征融合编码器和所述特征解码器进行优化。
在一个实施例中,步骤500中利用重构的隐层特征数据和所述关键特征对所述特征融合编码器和所述特征解码器进行优化的具体实施过程包括:
构建损失函数,利用损失函数计算重构的隐层特征数据和所述多源目标的关键特征的相似度,并利用所述相似度对所述特征融合编码器和所述特征解码器进行训练和优化。具体的,损失函数为L1损失,公式为:
其中R代表模型最后的重建卷积层,M代表模型中间的数据融合模型。
步骤700,利用分类网络对所述隐层特征数据进行分类识别。
在一个实施例中,所述步骤700,所述利用分类网络对所述隐层特征数据进行分类识别之前,该方法还包括:步骤600,利用网络剖析方法对所述隐层特征数据进行可解释性分析和可视化。
在一个实施例中,步骤600中利用网络剖析方法对所述隐层特征数据进行可解释性分析和可视化的具体实施过程包括:
步骤601,构建具有领域专家知识的视觉概念数据库。具体的,视觉概念数据库包括从低维度到高维度的相关领域视觉概念与知识数据。
步骤602,建立所述隐层特征数据与所述视觉概念数据库的关联模型。
步骤603,对所述关联模型输入视觉概念图像,收集模型内部每个卷积层k的激活图 。通过计算每层激活值的分布,确定最高分位数水平 ,使得在数据集中的激活图的每个空间位置上的概率有:
然后用 作为判断该隐层特征数据是否激活的标准。
步骤604,量化所述隐层特征数据和所述视觉概念数据库的匹配程度,根据所述阈值 对所述隐层特征数据进行可视化解释。
本发明实施例的基于注意力机制的多源遥感图像目标识别方法,针对多源遥感图像中的目标识别问题,首先对不同源特征数据进行过滤,剔除冗余和噪声信息。其次利用基于注意力机制的特征融合网络融合不同源目标特征,获取目标的隐层特征信息,从而更准确地同时利用不同源目标特征对多源目标进行分类识别。在网络训练过程中,通过构建编码器和解码器,对特征融合网络进行训练调优,从而获取更有效的多源目标融合特征(即隐层特征数据)。由此,该方法不仅实现了多源遥感图像中的目标识别,而且解决了现有技术融合精度不高、特征提取困难的问题。在训练中,通过自编码器结构与数据重建约束,使得特征融合网络能够充分的结合多源遥感图像的不同特征,从而提升目标识别的精度。
对于本发明的方法所涉及的上述各个步骤的执行顺序应以其功能和内在逻辑确定,而不应对本发明的实施方式的实施过程构成任何限定。
以上所述仅为本发明的较佳实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。

Claims (9)

1.一种基于注意力机制的多源遥感图像目标识别方法,包括:
获取多源遥感图像及其对应的目标类别标签,并进行预处理;
提取预处理后的多源遥感图像中的目标特征,对所述目标特征进行过滤,得到多源目标的关键特征;
构建特征融合编码器并对所述关键特征进行融合,获得隐层特征数据;
构建特征解码器并重构所述隐层特征数据;
利用重构的隐层特征数据和所述关键特征对所述特征融合编码器和所述特征解码器进行优化;
利用分类网络对所述隐层特征数据进行分类识别;
其中,所述构建特征融合编码器并对所述关键特征进行融合,包括:
构建基于注意力机制的特征融合编码器;
利用所述特征融合编码器的卷积层,对所述多源目标的关键特征投影到不同的特征空间,得到注意力图;
利用所述特征融合编码器的注意力层对所述注意力图进行融合,并利用以下公式获得隐层特征数据,
yi=γoi+xi
其中,xi为所述多源目标的关键特征,oi为所述注意力层输出的中间结果,γ为缩放因子。
2.根据权利要求1所述的方法,其特征在于,所述多源遥感图像包括:光学遥感图像和SAR遥感图像。
3.根据权利要求1所述的方法,其特征在于,所述预处理包括:对获取的多源遥感图像及其对应的目标类别标签进行剪裁和翻转。
4.根据权利要求1所述的方法,其特征在于,所述提取预处理后的多源遥感图像中的目标特征中,利用特征提取主干网络提取预处理后的多源遥感图像中的目标特征,得到多源特征图。
5.根据权利要求4所述的方法,其特征在于,所述对所述目标特征进行过滤,包括:
对所述多源遥感图像的成像和场景的条件信息进行向量编码,利用条件信息传递模块使VGG网络根据传递的编码后的条件信息对网络参数进行调整;
利用预训练的VGG网络提取所述多源特征图上的特征,计算特征感知相似度误差;
利用所述特征感知相似度误差作为损失函数,对前置单源数据过滤器进行训练,利用训练好的前置单源数据过滤器对所述多源特征图进行过滤,得到多源目标的关键特征。
6.根据权利要求1所述的方法,其特征在于,所述构建特征解码器并重构所述隐层特征数据,包括:
构建特征解码器,利用所述特征解码器对所述隐层特征数据进行解码重建;
利用L1函数计算特征融合和重建误差;
对所述特征融合编码器中间的隐层特征数据进行调整和限制,相同类型目标的数据被分配在同一训练批次中,利用所述特征融合编码器获取特征空间中的隐层特征数据,利用VGG网络分别计算该隐层特征数据与同一训练批次内其他数据的特征感知相似度,作为特征感知损失。
7.根据权利要求1所述的方法,其特征在于,所述利用重构的隐层特征数据和所述关键特征对所述特征融合编码器和所述特征解码器进行优化,包括:
构建损失函数,利用损失函数计算重构的隐层特征数据和所述多源目标的关键特征的相似度,并利用所述相似度对所述特征融合编码器和所述特征解码器进行训练和优化。
8.根据权利要求1所述的方法,其特征在于,所述利用分类网络对所述隐层特征数据进行分类识别之前,还包括:利用网络剖析方法对所述隐层特征数据进行可解释性分析和可视化。
9.根据权利要求8所述的方法,其特征在于,所述利用网络剖析方法对所述隐层特征数据进行可解释性分析和可视化,包括:
构建具有领域专家知识的视觉概念数据库;
建立所述隐层特征数据与所述视觉概念数据库的关联模型;
对所述关联模型输入视觉概念图像,确定用于判断所述隐层特征数据是否激活的阈值;
量化所述隐层特征数据和所述视觉概念数据库的匹配程度,根据所述阈值对所述隐层特征数据进行可视化解释。
CN202210900863.9A 2022-07-28 2022-07-28 基于注意力机制的多源遥感图像目标识别方法 Active CN115272857B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210900863.9A CN115272857B (zh) 2022-07-28 2022-07-28 基于注意力机制的多源遥感图像目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210900863.9A CN115272857B (zh) 2022-07-28 2022-07-28 基于注意力机制的多源遥感图像目标识别方法

Publications (2)

Publication Number Publication Date
CN115272857A CN115272857A (zh) 2022-11-01
CN115272857B true CN115272857B (zh) 2023-04-07

Family

ID=83770069

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210900863.9A Active CN115272857B (zh) 2022-07-28 2022-07-28 基于注意力机制的多源遥感图像目标识别方法

Country Status (1)

Country Link
CN (1) CN115272857B (zh)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220058489A1 (en) * 2020-08-19 2022-02-24 The Toronto-Dominion Bank Two-headed attention fused autoencoder for context-aware recommendation
CN112465880B (zh) * 2020-11-26 2023-03-10 西安电子科技大学 基于多源异构数据认知融合的目标检测方法
CN112434745B (zh) * 2020-11-27 2023-01-24 西安电子科技大学 基于多源认知融合的遮挡目标检测识别方法
CN114154529A (zh) * 2021-10-12 2022-03-08 北京邮电大学 基于多源数据融合的电磁目标识别方法及相关设备
CN113743383B (zh) * 2021-11-05 2022-06-07 航天宏图信息技术股份有限公司 一种sar影像水体提取方法、装置、电子设备及存储介质
CN114387439B (zh) * 2022-01-13 2023-09-12 中国电子科技集团公司第五十四研究所 一种基于光学和PolSAR特征融合的语义分割网络

Also Published As

Publication number Publication date
CN115272857A (zh) 2022-11-01

Similar Documents

Publication Publication Date Title
CN108399428B (zh) 一种基于迹比准则的三元组损失函数设计方法
CN111612008B (zh) 基于卷积网络的图像分割方法
CN111581405A (zh) 基于对偶学习生成对抗网络的跨模态泛化零样本检索方法
CN110008948B (zh) 基于变分自编码网络的高光谱图像目标检测方法
CN113780149A (zh) 一种基于注意力机制的遥感图像建筑物目标高效提取方法
CN112507937B (zh) 融合多源数据的卫星影像无监督分类方法和装置
CN113312993B (zh) 一种基于PSPNet的遥感数据土地覆盖分类方法
CN115471437B (zh) 一种基于卷积神经网络的影像融合方法以及遥感影像融合方法
CN114120125A (zh) 基于双流深度网络的农田识别方法、装置及存储介质
CN112489168A (zh) 一种图像数据集生成制作方法、装置、设备及存储介质
CN114647715A (zh) 一种基于预训练语言模型的实体识别方法
CN115713538A (zh) 一种基于跨模态对偶图对齐的参考图像分割方法
CN115376019A (zh) 一种异源遥感影像对象级变化检测方法
CN112084895A (zh) 一种基于深度学习的行人重识别方法
CN114821050A (zh) 一种基于transformer的指称图像分割方法
Zhou et al. MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution
CN114399661A (zh) 一种实例感知主干网络训练方法
CN115272857B (zh) 基于注意力机制的多源遥感图像目标识别方法
CN113837290A (zh) 一种基于注意力生成器网络的无监督非成对图像翻译方法
CN117115663A (zh) 一种基于深度监督网络的遥感图像变化检测系统及其方法
CN115982573B (zh) 多功能送料机及其控制方法
CN117151983A (zh) 一种基于小波启发和高频增强的图像全色锐化方法
CN115631428B (zh) 一种基于结构纹理分解的无监督图像融合方法和系统
CN115272776A (zh) 基于双路卷积与双注意的高光谱图像分类方法及存储介质
CN112446345B (zh) 一种低质量三维人脸识别方法、系统、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant