CN116843588B - 目标语义层级挖掘的红外与可见光图像融合方法 - Google Patents

目标语义层级挖掘的红外与可见光图像融合方法 Download PDF

Info

Publication number
CN116843588B
CN116843588B CN202310732526.8A CN202310732526A CN116843588B CN 116843588 B CN116843588 B CN 116843588B CN 202310732526 A CN202310732526 A CN 202310732526A CN 116843588 B CN116843588 B CN 116843588B
Authority
CN
China
Prior art keywords
image
fusion
module
mining
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310732526.8A
Other languages
English (en)
Other versions
CN116843588A (zh
Inventor
赵文达
解世赓
王海鹏
刘颢
杨向广
夏学知
何友
卢湖川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University of Technology
Original Assignee
Dalian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University of Technology filed Critical Dalian University of Technology
Priority to CN202310732526.8A priority Critical patent/CN116843588B/zh
Publication of CN116843588A publication Critical patent/CN116843588A/zh
Application granted granted Critical
Publication of CN116843588B publication Critical patent/CN116843588B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明属于图像信息处理技术领域,提出一种目标语义层级挖掘的红外与可见光图像融合方法。图像融合网络包括融合特征模块、语义特征模块、层级挖掘模块与图像重建模块;源图像对输入至图像融合网络后,融合特征模块提取源图像对的图像融合特征Fuj,语义特征模块提取源图像对的图像语义特征Fej;层级挖掘模块挖掘多个层级的目标语义特征并进行整合,多次重复特征提取与挖掘后,通过图像重建模块生成融合结果。相较于仅利用单一图像融合特征的融合方法,本发明通过不同层次的挖掘图像中目标语义并将其整合到图像融合网络中,有效地提升了图像融合网络中特征的多样性,从而可以获得更高质量的图像融合结果。

Description

目标语义层级挖掘的红外与可见光图像融合方法
技术领域
本发明涉及图像信息处理技术领域,尤其涉及一种目标语义层级挖掘的红外与可见光图像融合方法。
背景技术
红外传感器根据物体发出的热辐射信息来形成图像,因此可以良好的捕捉目标的结构与轮廓,不易受外部环境因素(如光照条件)的影响。但红外图像受其成像原理的限制,无法体现被捕捉场景中的纹理等细节信息且图像分辨率较低。而可见光传感器根据光的反射原理进行成像,可见光传感器在良好的照明条件下可以获得分辨率高、纹理等细节信息丰富的可见光图像,但可见光图像的质量易受外部环境的影响。红外与可见光图像的融合旨在生成同时具备两种模态优势的融合图像,在理想状态下,该融合图像可以包含各个模态中互补的有效信息,抛弃冗余信息,可以准确、全面地描述实际场景并且有效地缓解了数据体积增大的问题。因此,此技术也被广泛地应用于遥感、医学、安防等领域。
现有的图像融合算法可以分为两类:传统算法与基于深度学习的算法。在传统算法领域,Li等人在《MDLatLRR:A Novel Decomposition Method for Infrared andVisible Image Fusion》提出了一种基于潜在低秩表示的多级图像分解方法,将源图像分解为细节部分和基础部分,然后对于不同的部分设计相应的融合算法来实现图像融合任务;晁等在《一种基于小波变换的图像融合算法》中提出了基于小波变换的图像融合方法,并针对小波分解的不同频率域研究设计了不同的系数选择方案。
在基于深度学习的领域,Zhang等人《IFCNN:A general image fusion frameworkbased on convolutional neural network》设计了一种通用的全卷积模型,该模型对于每个输入图像利用一个卷积神经网络提取特征,然后根据输入图像的类型选择合适融合规则将输入图像的特征进行融合并生成融合结果。王等人在《基于多分支CNN的高光谱与全色影像融合处理》设计了两个独立的分支网络逐级计算光谱特征与空间特征,提升了融合后图像空间细节。Ma等人在《SwinFusion:Cross-domain Long-range Learning for GeneralImage Fusion via Swin Transformer》提出了一个卷积神经网络与Swin Transformer结合的图像融合框架,利用卷积神经网络提取图像的局部特征,利用Swin Transformer提取图像的全局特征,最终把局部与全局特征进行融合来生成融合结果。有关融合模型约束的研究往往会与方法框架等方面向结合,Ma等人《FusionGAN:Agenerative adversarialnetwork for infrared and visible image fusion》在对抗生成损失中加入图像的内容损失,约束生成器输出的结果更加真实且减小图像内容(如纹理,边缘等)的丢失,提升了网络的融合效果。
然而,现有的图像大多数融合算法仅仅利用比较单一的图像信息,使融合算法中的融合特征缺乏多样性,因此无法进一步提升其融合性能。而本方法通过设计层级挖掘模块通过两个层次充分挖掘图像的语义信息并将其整合到图像融合特征中,从而增加图像融合特征的多样性,有效地提升图像融合性能。
发明内容
为了利用多方面的图像信息提升图像融合性能,本发明提出了一种目标语义层级挖掘的红外与可见光图像融合方法。层级挖掘模块通过两个层次全面地整合多个级别的语义信息来帮助图像融合模型提升其特征的多样性,从而使得图像融合模型可以利用多方面信息进行融合,提升图像融合模型的图像融合性能。因此本发明的关键是设计层级挖掘模块,来挖掘目标语义中不同层级的信息。
本发明的技术方案如下:一种目标语义层级挖掘的红外与可见光图像融合方法,基于图像融合网络实现;所述图像融合网络包括融合特征模块、语义特征模块、层级挖掘模块与图像重建模块;源图像对输入至图像融合网络后,融合特征模块提取源图像对的图像融合特征Fuj,语义特征模块提取源图像对的图像语义特征Fej;层级挖掘模块挖掘多个层级的目标语义特征并进行整合,多次重复特征提取与挖掘后,通过图像重建模块生成融合结果;
所述图像融合网络的损失函数为SSIM损失;首先计算两幅输入图像x、y之间的SSIM数值,如公式1所示,
其中,μx、μy为输入图像x、y各自的均值,σx、σy为输入图像x、y各自的标准差,σxy为输入图像x、y之间的协方差;所述SSIM损失计算如公式2所示;
其中,If为融合结果,Ii为输入的红外图像,Iv输入的可见光图像;当If包含Ii、Iv中信息越多时,Lf越趋近于0,该损失用于约束图像融合网络生成的结果包含输入源图像对的信息。
所述层级挖掘模块包括三个支路,分别为上方支路、中间支路和下方支路;所述上方支路用于直接传输图像融合特征;所述中间支路为权重支路,用于计算挖掘图像语义特征不同层级的权重;
第j个层级挖掘模块的中间支路计算过程如下,首先通过两个分支计算通道权重wcj与空间权重wsj,如公式3至5所示;
wcj=P×1(FC×3(tuj)) (4)
wsj=C×2(tuj) (5)
其中,是由图像融合特征Fuj经过一层平均池化P×1后与图像语义特征Fej级联得到,/>由tuj经过一层全局平均池化P×1,再经过三层全连接层得到,其中前两层全连接层以ReLU为激活函数,最后一层全连接层以Sigmoid为激活函数;由tuj经过两层卷积层C×2获得,其中第一层卷积层以ReLU为激活函数,第二层卷积层以Sigmoid为激活函数;
所述下方支路用于图像语义特征的映射;图像语义特征首先经过两层以ReLU为激活函数的卷积层,通道权重wcj与空间权重wsj通过复制扩展数据维度为将通道权重wcj的对应位置元素分别与经过两层卷积映射的图像语义特征Fej相乘得到通道挖掘特征Fcj,如公式6所示;
Fcj=C×2(Fej)×wcj (6)
将空间权重wsj的对应位置元素分别与经过两层卷积映射的图像语义特征Fej相乘,得到空间挖掘特征Fsj,如公式7所示,
Fsj=C×2(Fej)×wsj (7)
通道挖掘特征Fcj、空间挖掘特征Fsj与上方支路的图像融合特征相加整合为多样化特征,再经过两层以ReLU为激活函数的卷积层输入至融合特征模块中,其过程如公式8所示;
Fmj=C×2(Fsj+Fcj+Fuj) (8)
其中,Fmj为第j个层级挖掘模块的输出。
所述图像重建模块根据最终层级挖掘模块输出的多样化特征生成融合结果;图像重建模块包括六层卷积层,前五层卷积层以ReLU作为激活函数,最后一层卷积层以Sigmoid作为激活函数。
所述融合特征模块包括六个卷积层并分为两支路,每个支路均由两个卷积层构成;源图像对通过两个卷积层计算特征,所得特征分别经过两个支路上的卷积层进行进一步的特征提取;两个支路的输出经级联以得到图像融合特征;所述图像融合网络中第j个融合特征模块的计算过程通过公式9与10所示;
txj=C×2(Fmj-1) (9)
其中,Fuj表示图像融合特征;输入Fmj-1为第j-1个层级挖掘模块的输出,j=1、2、3,当j=1时,Fm0为输入的源图像对;C×2代表两个以ReLU为激活函数的卷积层,表示特征图通道维度级联;
所述语义特征模块通过4层以ReLU为激活函数的卷积层构成,采用语义分割任务对语义特征模块进行训练获得其权重,从而使语义特征模块提取到图像中的语义信息。
本发明的有益效果:相较于仅利用单一图像融合特征的融合方法,本发明通过不同层次的挖掘图像中目标语义并将其整合到图像融合网络中,有效地提升了图像融合网络中特征的多样性,从而可以获得更高质量的图像融合结果。
附图说明
图1(a)为目标语义层级挖掘的红外与可见光图像融合方法中图像融合网络结构示意图。
图1(b)为层级挖掘模块示意图。
图1(c)为融合特征模块示意图。
具体实施方式
以下结合附图和技术方案,进一步说明本发明的具体实施方式。
如图1(a)所示,本发明的图像融合网络包括融合特征模块、语义特征模块、层级挖掘模块与图像重建模块。总体来说,在源图像对输入图像融合网络后,融合特征模块用于提取源图像对的融合特征,然后利用层级挖掘模块使图像融合网络可以整合多个层级的目标语义信息,重复特征提取与挖掘过程两次后,最终利用图像重建模块生成融合结果。
融合特征模块首先使用两个卷积层计算特征;紧接着,这些特征会分别经过两个分支进行进一步的特征提取;最终,两个分支的输出会被级联起来以得到该模块的输出。其中每个分支均有两个卷积层构成。第j个融合特征模块的计算过程可以由公式1与2所示,
txj=C×2(Fmj-1) (1)
其中,Fuj表示融合特征模块输出的图像融合特征;输入Fmj-1为第j-1个层级挖掘模块的输出,j=1、2、3,特别地,当j=1时,Fm0为输入的图像对;C×2代表两个以ReLU为激活函数的卷积层,表示特征图通道维度级联,
层级挖掘模块是本方法的关键,如图1(b)所示,通过两个层级挖掘图像中的语义信息,并与融合特征模块进行整合;第一个层级是通道级别的挖掘,图像融合特征与图像语义特征获得通道权重,通过此权重本方法可以在语义信息的通道维度上发掘图像语义信息中的重要部分,并减少冗余特征的整合到图像融合网络中去。第二个层级是空间级别的挖掘,图像融合特征与图像语义特征获得空间权重,通过此权重本方法可以在语义信息的空间维度上发掘图像语义信息中的重要部分,并将其整合到融合特征中来提升融合特征对于图像语义的表达,从而有效的提升图像融合效果。所述通道权重、空间权重分别与语义特征进行像素级相乘,分别获得通道挖掘特征、空间挖掘特征;所述通道挖掘特征、空间挖掘特征整合到图像融合特征中。层级挖掘模块通过两个层级来充分的挖掘图像中的语义信息,然后在与图像融合特征进行整合从而使图像融合网络可以利用不同种类的特征进而提升图像融合效果。
图像重建模块用于根据提取到的图像融合特征生成融合结果,该模块由六层卷积构成,其中前五层以ReLU激活,最后一层以Sigmoid作为激活函数。
在本发明框架中,语义特征模块用于提供图像的语义信息。每个语义特征模块均有4层以ReLU为激活函数的卷积层构成,并加载语义分割训练的权重,从而使语义特征模块可以提取到图像中的语义信息。
本方法采用图像融合领域中常用的SSIM损失,其计算首先计算两幅输入图像x、y之间的SSIM数值。
其中,μx、μy为输入图像x、y各自的均值,σx、σy为输入图像x、y各自的标准差,σxy为输入图像x、y之间的协方差。
其中,If为融合结果,Ii为输入的红外图像,Iv输入的可见光图像。当If与Ii、Iv相似即If包含Ii、Iv中信息时,公式7中第二项约为1,使Lf约等于0,因此该损失可以约束融合网络生成的结果包含输入源图像对的信息。
首先,从红外与可见光图像融合数据集中采样一对输入图像,送入图1(a)所示的网络模型,在该模型中,在语义特征模块提取到图像的特征后,通过一个目标语义层级挖掘模块通过通道层级与空间层级两方面挖掘图像中目标语义,层级挖掘模块的结构如图1(b)所示,然后再将其与图像融合网络提取到的特征进行相加以提升图像融合特征的多样性,并由图像融合网络生成图像融合结果;在得到图像融合结果之后,通过损失函数来约束模型产生合理的图像融合结果。融合特征模块的结构如图1(c)所示。
总的来说,本方法设计了一个目标语义层级挖掘的红外与可见光图像融合模型,可以生成高质量的融合图像。

Claims (3)

1.一种目标语义层级挖掘的红外与可见光图像融合方法,其特征在于,基于图像融合网络实现;所述图像融合网络包括融合特征模块、语义特征模块、层级挖掘模块与图像重建模块;源图像对输入至图像融合网络后,融合特征模块提取源图像对的图像融合特征Fuj,语义特征模块提取源图像对的图像语义特征Fej;层级挖掘模块挖掘多个层级的目标语义特征并进行整合,多次重复特征提取与挖掘后,通过图像重建模块生成融合结果;
所述图像融合网络的损失函数为SSIM损失;首先计算两幅输入图像x、y之间的SSIM数值,如式(1)所示:
其中,μx、μy为输入图像x、y各自的均值,σx、σy为输入图像x、y各自的标准差,σxy为输入图像x、y之间的协方差;所述SSIM损失计算如式(2)所示:
其中,If为融合结果,Ii为输入的红外图像,Iv输入的可见光图像;当If包含Ii、Iv中信息越多时,Lf越趋近于0,该损失用于约束图像融合网络生成的结果包含输入源图像对的信息;
所述层级挖掘模块包括三个支路,分别为上方支路、中间支路和下方支路;所述上方支路用于直接传输图像融合特征;所述中间支路为权重支路,用于计算挖掘图像语义特征不同层级的权重;
第j个层级挖掘模块的中间支路计算过程如下,首先通过两个分支计算通道权重wcj与空间权重wsj,如式(3)至(5)所示;
wcj=P×1(FC×3(tuj))(4)
wsj=C×2(tuj)(5)
其中,是由图像融合特征Fuj经过一层平均池化P×1后与图像语义特征Fej级联得到,/>由tuj经过一层平均池化P×1,再经过三层全连接层得到,其中前两层全连接层以ReLU为激活函数,最后一层全连接层以Sigmoid为激活函数;由tuj经过两层卷积层C×2获得,其中第一层卷积层以ReLU为激活函数,第二层卷积层以Sigmoid为激活函数;
所述下方支路用于图像语义特征的映射;图像语义特征首先经过两层以ReLU为激活函数的卷积层,通道权重wcj与空间权重wsj通过复制扩展数据维度为将通道权重wcj的对应位置元素分别与经过两层卷积映射的图像语义特征Fej相乘得到通道挖掘特征Fcj,如式(6)所示:
Fcj=C×2(Fej)×wcj(6)
将空间权重wsj的对应位置元素分别与经过两层卷积映射的图像语义特征Fej相乘,得到空间挖掘特征Fsj,如式(7)所示:
Fsj=C×2(Fej)×wsj(7)
通道挖掘特征Fcj、空间挖掘特征Fsj与上方支路的图像融合特征相加整合为多样化特征,再经过两层以ReLU为激活函数的卷积层输入至融合特征模块中,其过程如式(8)所示:
Fmj=C×2(Fsj+Fcj+Fuj)(8)
其中,Fmj为第j个层级挖掘模块的输出。
2.根据权利要求1所述的目标语义层级挖掘的红外与可见光图像融合方法,其特征在于,所述图像重建模块根据最终层级挖掘模块输出的多样化特征生成融合结果;图像重建模块包括六层卷积层,前五层卷积层以ReLU作为激活函数,最后一层卷积层以Sigmoid作为激活函数。
3.根据权利要求2所述的目标语义层级挖掘的红外与可见光图像融合方法,其特征在于,所述融合特征模块包括六个卷积层并分为两支路,每个支路均由两个卷积层构成;源图像对通过两个卷积层计算特征,所得特征分别经过两个支路上的卷积层进行进一步的特征提取;两个支路的输出经级联以得到图像融合特征;所述图像融合网络中第j个融合特征模块的计算过程通过式(9)与(10)所示:
txj=C×2(Fmj-1)(9)
其中,Fuj表示图像融合特征;输入Fmj-1为第j-1个层级挖掘模块的输出,j=1、2、3,当j=1时,Fm0为输入的源图像对;C×2代表两个以ReLU为激活函数的卷积层,表示特征图通道维度级联;
所述语义特征模块通过4层以ReLU为激活函数的卷积层构成,采用语义分割任务对语义特征模块进行训练获得其权重,从而使语义特征模块提取到图像中的语义信息。
CN202310732526.8A 2023-06-20 2023-06-20 目标语义层级挖掘的红外与可见光图像融合方法 Active CN116843588B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310732526.8A CN116843588B (zh) 2023-06-20 2023-06-20 目标语义层级挖掘的红外与可见光图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310732526.8A CN116843588B (zh) 2023-06-20 2023-06-20 目标语义层级挖掘的红外与可见光图像融合方法

Publications (2)

Publication Number Publication Date
CN116843588A CN116843588A (zh) 2023-10-03
CN116843588B true CN116843588B (zh) 2024-02-06

Family

ID=88171767

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310732526.8A Active CN116843588B (zh) 2023-06-20 2023-06-20 目标语义层级挖掘的红外与可见光图像融合方法

Country Status (1)

Country Link
CN (1) CN116843588B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118552424B (zh) * 2024-07-30 2024-09-24 大连理工大学 像素级-目标级特征平衡的红外与可见光图像融合方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114187221A (zh) * 2021-12-13 2022-03-15 北京环境特性研究所 基于自适应权重学习的红外与可见光图像融合方法
CN115063329A (zh) * 2022-06-10 2022-09-16 中国人民解放军国防科技大学 低光照环境下的可见光和红外图像融合增强方法及系统
CN115471723A (zh) * 2022-09-23 2022-12-13 安徽优航遥感信息技术有限公司 一种基于红外与可见光图像融合的变电站无人机巡检方法
CN115620010A (zh) * 2022-09-20 2023-01-17 长春理工大学 一种rgb-t双模态特征融合的语义分割方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111161356B (zh) * 2019-12-17 2022-02-15 大连理工大学 一种基于双层优化的红外和可见光融合方法
CN111062905B (zh) * 2019-12-17 2022-01-04 大连理工大学 一种基于显著图增强的红外和可见光融合方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114187221A (zh) * 2021-12-13 2022-03-15 北京环境特性研究所 基于自适应权重学习的红外与可见光图像融合方法
CN115063329A (zh) * 2022-06-10 2022-09-16 中国人民解放军国防科技大学 低光照环境下的可见光和红外图像融合增强方法及系统
CN115620010A (zh) * 2022-09-20 2023-01-17 长春理工大学 一种rgb-t双模态特征融合的语义分割方法
CN115471723A (zh) * 2022-09-23 2022-12-13 安徽优航遥感信息技术有限公司 一种基于红外与可见光图像融合的变电站无人机巡检方法

Also Published As

Publication number Publication date
CN116843588A (zh) 2023-10-03

Similar Documents

Publication Publication Date Title
CN111145131B (zh) 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法
Zhang et al. Information fusion for classification of hyperspectral and LiDAR data using IP-CNN
Li et al. Asymmetric feature fusion network for hyperspectral and SAR image classification
Liu et al. GAFNet: Group attention fusion network for PAN and MS image high-resolution classification
CN111046967A (zh) 一种基于卷积神经网络和注意力机制的水下图像分类方法
CN116843588B (zh) 目标语义层级挖掘的红外与可见光图像融合方法
CN105184270A (zh) 一种基于脉冲耦合神经网络方法的道路信息遥感提取方法
CN117292274B (zh) 基于深度语义字典零次学习的高光谱湿地图像分类方法
Yang et al. MSFusion: Multistage for remote sensing image spatiotemporal fusion based on texture transformer and convolutional neural network
Liu et al. Class-guided coupled dictionary learning for multispectral-hyperspectral remote sensing image collaborative classification
CN115841438A (zh) 基于改进gan网络的红外图像与可见光图像融合方法
Gao et al. Hierarchical shrinkage multiscale network for hyperspectral image classification with hierarchical feature fusion
Wang et al. A double dictionary-based nonlinear representation model for hyperspectral subpixel target detection
CN116863247A (zh) 一种融合全局和局部信息的多模态遥感数据分类方法
CN113724308B (zh) 基于光度与对比度互注意力的跨波段立体匹配算法
Kanellopoulos et al. Integration of neural network and statistical image classification for land cover mapping
Yang et al. Cirrus detection based on tensor multi-mode expansion sum nuclear norm in infrared imagery
CN117576483A (zh) 基于多尺度卷积自编码器的多源数据融合地物分类方法
Yu et al. Shadow Mask Driven Multimodal Intrinsic Image Decomposition For Hyperspectral and LiDAR Data Fusion
Ni et al. MHST: Multiscale Head Selection Transformer for Hyperspectral and LiDAR Classification
Lu et al. Hyperspectral image classification based on multilevel joint feature extraction network
Jing et al. An image super-resolution reconstruction method based on PEGAN
Zhang et al. Local–Global Cross Fusion Network With Gaussian-Initialized Learnable Positional Prompting for Hyperspectral Image Classification
Ren et al. Cultivated land segmentation of remote sensing image based on PSPNet of attention mechanism
CN112396099B (zh) 一种基于深度学习和信息融合的点击率预估方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant