CN111784619B - 一种红外和可见光图像的融合方法 - Google Patents

一种红外和可见光图像的融合方法 Download PDF

Info

Publication number
CN111784619B
CN111784619B CN202010629990.0A CN202010629990A CN111784619B CN 111784619 B CN111784619 B CN 111784619B CN 202010629990 A CN202010629990 A CN 202010629990A CN 111784619 B CN111784619 B CN 111784619B
Authority
CN
China
Prior art keywords
fusion
layer
self
image
infrared
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010629990.0A
Other languages
English (en)
Other versions
CN111784619A (zh
Inventor
张萍
杨晓迪
张灵怡
豆亚萍
季晓天
费春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202010629990.0A priority Critical patent/CN111784619B/zh
Publication of CN111784619A publication Critical patent/CN111784619A/zh
Application granted granted Critical
Publication of CN111784619B publication Critical patent/CN111784619B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明属于图像处理技术领域,具体涉及一种红外和可见光图像的融合方法。本发明提供的基于混合l1‑l0分解模型与自编码器的红外和可见光图像融合方法,使用混合l1‑l0分解模型将图像分解结果作为双层自编码网络的输出,使得双层自编码网络自备层分解能力。将图像特征分解到基础层特征和细节层特征,对不同层次定制不同的融合策略能够保有更多的纹理信息和热辐射信息。利用l1范数策略补偿显著性检测忽略的热辐射信息,提高了基础层融合的鲁棒性。网络采用端到端的方式简化训练过程,降低了模型复杂度。通过矩阵运算,降低了特征融合处理时耗,进而提升融合框架的响应速度。

Description

一种红外和可见光图像的融合方法
技术领域
本发明属于图像处理技术领域,具体涉及一种红外和可见光图像的融合方法。
背景技术
红外和可见光融合是图像融合技术的一个重要分支,红外技术已被广泛的应用于生物、医疗、军事及安防等领域。虽然红外图像能提供较好的热辐射信息帮助人们检测诊断,但是由于其分辨率较低、缺少大量的纹理信息使其在应用层面的价值大打折扣,因此人们希望利用图像融合技术将可见光图像的纹理空间信息注入到红外图像中使得融合图像既保留红外辐射信息又持有丰富的纹理信息,从而提高其应用价值。
目前最为常见的红外和可见光图像融合方法是基于多尺度变换的融合方法,它需要确定基函数和分解层次。然而如何灵活选择基函数使得源图像能够被最佳表示和如何自适应的选择分解层次仍然是待解决的问题。基于稀疏表示的融合方法采用基于块的方法,但是忽略了块间相关性,往往会导致细节信息的丢失。随着深度学习的兴起,许多基于深度学习的融合方法被提出,利用卷积神经网络(CNN)获得图像特征,并对融合后的图像进行重构。在这些基于CNN的融合方法中,一般性策略是利用特征提取网络的最后一层结果作为图像特征,这种策略会丢失网络中间层所包含的大量信息,影响融合结果。
香港理工大学Zhetong Liang等人提出混合l1-l0分解模型对基础层使用l1约束使得基础层可以保留较大梯度,且是分段光滑的,对细节层使用l0范数约束强制细节层的小纹理梯度为零,同时保持主要结构梯度不变,是一种鲁棒的层分解模型。自编码器是前馈非循环神经网络,具有非常好的提取数据特征表示的能力,利用编码器提取特征,利用解码器重构,天然的适合做特征级的融合实现。基于此,本发明提出基于混合l1-l0分解模型与自编码器的红外和可见光图像融合方法。
发明内容
本发明的目的在于提供一种基于混合l1-l0分解模型与自编码器的红外和可见光图像融合方法,将热辐射信息和纹理信息的提取和融合拆分到不同网络中进行,使得融合策略更具有针对性,进而实现更好的融合效果。
本发明的技术方案为:一种红外和可见光图像的融合方法,包括以下步骤:
S1、获取训练数据集:采用混合l1-l0分解模型将网络输入图像S分解为基础层B和细节层S-B,作为训练数据集:
Figure BDA0002568173640000021
其中p表示像素点,N表示像素总数,
Figure BDA0002568173640000022
表示沿i方向的偏导运算,λ1、λ2表示l1范数和l0范数的权值系数,
Figure BDA0002568173640000023
第一项(Sp-Bp)2使得基础层在像素级别上趋近于源图像,第二项
Figure BDA0002568173640000024
对基础层使用l1约束使得基础层可以保留较大梯度,因此基础层是分段光滑的,第三项
Figure BDA0002568173640000025
对细节层使用l0范数约束强制细节层的小纹理梯度为零,同时保持主要结构梯度不变;
S2、构建自编码融合网络模型,如图1所示,具体为:
S11、自编码融合网络模型包括两个独立且结构相同的自编码器,分别定义为BaseNet和DetailNet,如图2所示,自编码器的编码器由4层卷积层构成,卷积核大小都为(3,3),卷积核个数都为16,第一层卷积层后添加ReLU激活层,每层卷积层都会和后面所有卷积层作级联;自编码器的解码器由4层卷积层构成,卷积核大小都为(3,3),卷积核个数依次为64、32、16和1,前三层卷积层后添加ReLU激活层;为了避免信息损失,自编码器中不包含下采样层。
S12、构建损失函数,将图像S分别送入BaseNet和DetailNet,得到对应的输出
Figure BDA0002568173640000026
Figure BDA0002568173640000027
利用步骤S11得到的B和S-B作为标签,计算网络输出与标签之间的像素损失:
Figure BDA0002568173640000028
Figure BDA0002568173640000029
Figure BDA0002568173640000031
其中
Figure BDA0002568173640000032
Figure BDA0002568173640000033
分别代表自编码器的编码器和解码器,base和detail分别表示BaseNet和DetailNet,MSE表示均方误差;通过最小化均方误差使得BaseNet和DetailNet的联合体具有层分解能力。
Figure BDA0002568173640000034
Figure BDA0002568173640000035
相加重构得到
Figure BDA0002568173640000036
并计算与源图像S之间的结构损失,从图像级别上逼近源图像:
Figure BDA0002568173640000037
Figure BDA0002568173640000038
其中SSIM表示结构相似度,它表示两图像的结构相似性。这种方式是对分层解码的一次校正,使得整体框架具有正常的解码功能;利用像素损失和结构损失构建最终损失函数:
loss=losspixel+λlossssim
其中λ为结构损失的权值参数,用以调整两项损失在训练过程中的数量级差异;
S3、采用训练数据集对构建的自编码融合网络模型进行训练,如图3所示,训练方法为通过反向传播算法最小化损失函数进行,获得训练好的自编码融合网络模型;
S4、将需要融合的红外和可见光图像送入训练好的自编码融合网络模型,即BaseNet和DetailNet编码器,编码器对图像的分解如图4所示,从左至右依次为源图像、基础层、细节层,分别对BaseNet和DetailNet提取的特征做特征融合,具体为:
S41、基础层特征融合,引入显著性检测得到红外图像的显著图SM,得到BaseNet的初步特征融合策略:
φm(x,y)=SM×φir m(x,y)+(1-SM)×φvis m(x,y)
式中vis表示可见光图像,ir表示红外图像,其中
Figure BDA0002568173640000039
即编码器输出特征图,m表示第m张特征图;该融合策略的融合效果取决于显著性检测方法是否能精准的检测出高热辐射区域,一般在同一场景中出现多个热辐射区域可能会导致部分区域热辐射信息丢失。
利用l1范数策略弥补显著性检测忽略的热辐射信息,修正BaseNet的特征融合策略;
l1范数融合策略:
Figure BDA0002568173640000041
其中
Figure BDA0002568173640000042
表示图像i的特征权值,
Figure BDA0002568173640000043
Figure BDA0002568173640000044
(r为邻域半径)分别表示为表示图像各点的l1范数和各点l1范数的邻域均值;l1范数融合策略可以自适应地调整不同位置的权值,在热辐射高的区域,红外特征图对应的权值大于可见光特征图对应的权值,在热辐射低的区域,一般可见光特征图对应的权值大于红外特征图对应的权值,所以能够融合热辐射信息和空间纹理信息,而对于基础层只关注它的热辐射信息。
修正后的融合策略:
Figure BDA0002568173640000045
S42、细节层特征融合,采用加权平均融合策略融合DetailNet特征:
Figure BDA0002568173640000046
其中
Figure BDA0002568173640000047
分别表示红外图像和可见光图像经DetailNet编码器输出的特征图,m表示第m张特征图;经过多种融合策略比较,采用简单的加权策略作用于DetailNet能够为融合图像提供更多的纹理信息。
S5、将步骤S4得到的两层网络特征融合结果经各自的解码器解码后相加得到最终融合图像:
Figure BDA0002568173640000048
本发明的有益效果是:
本发明提供的基于混合l1-l0分解模型与自编码器的红外和可见光图像融合方法,使用混合l1-l0分解模型将图像分解结果作为双层自编码网络的输出,使得双层自编码网络自备层分解能力。将图像特征分解到基础层特征和细节层特征,对不同层次定制不同的融合策略能够保有更多的纹理信息和热辐射信息。利用l1范数策略补偿显著性检测忽略的热辐射信息,提高了基础层融合的鲁棒性。网络采用端到端的方式简化训练过程,降低了模型复杂度。通过矩阵运算,降低了特征融合处理时耗,进而提升融合框架的响应速度。
附图说明
图1为本发明的双层自编码融合网络模型结构示意图;
图2为本发明的自编码器结构示意图;
图3为本发明的基于混合l1-l0分解模型的训练框架示意图;
图4为本发明的双层自编码图像分解结果示意图;
图5为本发明最终融合结果图。
具体实施方式
在发明内容部分已经对本发明的方案进行了详细描述,下面结合测试以进一步证明本发明的实用性。
采用本发明的方案,对标准红外和可见光图像做融合测试,其部分融合结果如图5所示,从左至右依次为红外图像、可见光图像、融合图像;使用本发明的融合方法以及其他6种融合算法对20对标准红外和可见光融合测试图像做融合,使用信息熵、互信息和结构相似度等指标进行量化评估,结果如表1:
表1量化评估
Figure BDA0002568173640000051
Figure BDA0002568173640000061
测试表明,得益于分层融合思想和提出的融合策略,本发明的融合方法具有更好的融合效果与量化指标。

Claims (1)

1.一种红外和可见光图像的融合方法,其特征在于,包括以下步骤:
S1、获取训练数据集:采用混合l1-l0分解模型将网络输入图像S分解为基础层B和细节层S-B,作为训练数据集:
Figure FDA0002568173630000011
其中p表示像素点,N表示像素总数,
Figure FDA0002568173630000012
表示沿i方向的偏导运算,λ1、λ2表示l1范数和l0范数的权值系数,
Figure FDA0002568173630000013
第一项(Sp-Bp)2使得基础层在像素级别上趋近于源图像,第二项
Figure FDA0002568173630000014
对基础层使用l1约束使得基础层可以保留较大梯度,因此基础层是分段光滑的,第三项
Figure FDA0002568173630000015
对细节层使用l0范数约束强制细节层的小纹理梯度为零,同时保持主要结构梯度不变;
S2、构建自编码融合网络模型,具体为:
S11、自编码融合网络模型包括两个独立且结构相同的自编码器,分别定义为BaseNet和DetailNet,自编码器的编码器由4层卷积层构成,卷积核大小都为(3,3),卷积核个数都为16,第一层卷积层后添加ReLU激活层,每层卷积层都和后面所有卷积层作级联;自编码器的解码器由4层卷积层构成,卷积核大小都为(3,3),卷积核个数依次为64、32、16和1,前三层卷积层后添加ReLU激活层;
S12、构建损失函数,将图像S分别送入BaseNet和DetailNet,得到对应的输出
Figure FDA0002568173630000016
Figure FDA0002568173630000017
利用步骤S11得到的B和S-B作为标签,计算网络输出与标签之间的像素损失:
Figure FDA0002568173630000018
Figure FDA0002568173630000019
Figure FDA00025681736300000110
其中
Figure FDA00025681736300000111
Figure FDA00025681736300000112
分别代表自编码器的编码器和解码器,base和detail分别表示BaseNet和DetailNet,MSE表示均方误差;
Figure FDA0002568173630000021
Figure FDA0002568173630000022
相加重构得到
Figure FDA0002568173630000023
并计算与源图像S之间的结构损失:
Figure FDA0002568173630000024
Figure FDA0002568173630000025
其中SSIM表示结构相似度;利用像素损失和结构损失构建最终损失函数:
loss=losspixel+λlossssim
其中λ为结构损失的权值参数;
S3、采用训练数据集对构建的自编码融合网络模型进行训练,训练方法为通过反向传播算法最小化损失函数进行,获得训练好的自编码融合网络模型;
S4、将需要融合的红外和可见光图像送入训练好的自编码融合网络模型,即BaseNet和DetailNet编码器,分别对BaseNet和DetailNet提取的特征做特征融合,具体为:
S41、基础层特征融合,引入显著性检测得到红外图像的显著图SM,得到BaseNet的初步特征融合策略:
φm(x,y)=SM×φir m(x,y)+(1-SM)×φvis m(x,y)
式中vis表示可见光图像,ir表示红外图像,其中
Figure FDA0002568173630000026
即编码器输出特征图,m表示第m张特征图;
利用l1范数策略弥补显著性检测忽略的热辐射信息,修正BaseNet的特征融合策略;
l1范数融合策略:
Figure FDA0002568173630000027
其中
Figure FDA0002568173630000028
表示图像i的特征权值,Ci(x,y)=||φi 1:M(x,y)||1
Figure FDA0002568173630000031
分别表示为表示图像各点的l1范数和各点l1范数的邻域均值,r为邻域半径;
修正后的融合策略:
Figure FDA0002568173630000032
S42、细节层特征融合,采用加权平均融合策略融合DetailNet特征:
Figure FDA0002568173630000033
其中
Figure FDA0002568173630000034
分别表示红外图像和可见光图像经DetailNet编码器输出的特征图,m表示第m张特征图;
S5、将步骤S4得到的两层网络特征融合结果经各自的解码器解码后相加得到最终融合图像:
Figure FDA0002568173630000035
CN202010629990.0A 2020-07-03 2020-07-03 一种红外和可见光图像的融合方法 Active CN111784619B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010629990.0A CN111784619B (zh) 2020-07-03 2020-07-03 一种红外和可见光图像的融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010629990.0A CN111784619B (zh) 2020-07-03 2020-07-03 一种红外和可见光图像的融合方法

Publications (2)

Publication Number Publication Date
CN111784619A CN111784619A (zh) 2020-10-16
CN111784619B true CN111784619B (zh) 2023-04-28

Family

ID=72758385

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010629990.0A Active CN111784619B (zh) 2020-07-03 2020-07-03 一种红外和可见光图像的融合方法

Country Status (1)

Country Link
CN (1) CN111784619B (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112183561B (zh) * 2020-11-09 2024-04-30 山东中医药大学 一种用于图像特征提取的联合融减自动编码器算法
CN112949579A (zh) * 2021-03-30 2021-06-11 上海交通大学 一种基于密集卷积块神经网络的目标融合检测系统及方法
CN113139585B (zh) * 2021-03-30 2022-03-29 太原科技大学 一种基于统一多尺度密集连接网络的红外与可见光图像融合方法
CN113379661B (zh) * 2021-06-15 2023-03-07 中国工程物理研究院流体物理研究所 红外与可见光图像融合的双分支卷积神经网络装置
CN113487529B (zh) * 2021-07-12 2022-07-26 吉林大学 一种基于Yolo的气象卫星云图目标检测方法
CN113592018B (zh) * 2021-08-10 2024-05-10 大连大学 基于残差密集网络和梯度损失的红外光与可见光图像融合方法
CN113706407B (zh) * 2021-08-11 2023-07-18 武汉大学 基于分离表征的红外可见光图像融合方法
CN113763367B (zh) * 2021-09-13 2023-07-28 中国空气动力研究与发展中心超高速空气动力研究所 一种大尺寸试件红外检测特征综合判读方法
CN114693578A (zh) * 2022-04-28 2022-07-01 中国人民公安大学 图像融合方法、装置、终端设备以及存储介质
CN116091372B (zh) * 2023-01-03 2023-08-15 江南大学 基于层分离和重参数的红外和可见光图像融合方法
CN117809146B (zh) * 2023-12-11 2024-07-23 江南大学 一种基于特征解纠缠表示的红外与可见光图像融合方法
CN118090743A (zh) * 2024-04-22 2024-05-28 山东浪潮数字商业科技有限公司 一种基于多模态图像识别技术的瓷质酒瓶质量检测系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106251355A (zh) * 2016-08-03 2016-12-21 江苏大学 一种融合可见光图像与对应夜视红外图像的检测方法
CN106897987A (zh) * 2017-01-18 2017-06-27 江南大学 基于平移不变剪切波和栈式自编码的图像融合方法
CN107230196A (zh) * 2017-04-17 2017-10-03 江南大学 基于非下采样轮廓波和目标可信度的红外与可见光图像融合方法
CN108874960A (zh) * 2018-06-06 2018-11-23 电子科技大学 一种在线学习中基于降噪自编码器混合模型的课程视频推荐算法
CN110084773A (zh) * 2019-03-25 2019-08-02 西北工业大学 一种基于深度卷积自编码网络的图像融合方法
CN110097617A (zh) * 2019-04-25 2019-08-06 北京理工大学 基于卷积神经网络与显著性权重的图像融合方法
CN110533620A (zh) * 2019-07-19 2019-12-03 西安电子科技大学 基于aae提取空间特征的高光谱和全色图像融合方法
CN111145131A (zh) * 2019-11-28 2020-05-12 中国矿业大学 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法
CN111275655A (zh) * 2020-01-20 2020-06-12 上海理工大学 一种多聚焦多源图像融合方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102461144B1 (ko) * 2015-10-16 2022-10-31 삼성전자주식회사 영상 연무 제거 장치

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106251355A (zh) * 2016-08-03 2016-12-21 江苏大学 一种融合可见光图像与对应夜视红外图像的检测方法
CN106897987A (zh) * 2017-01-18 2017-06-27 江南大学 基于平移不变剪切波和栈式自编码的图像融合方法
CN107230196A (zh) * 2017-04-17 2017-10-03 江南大学 基于非下采样轮廓波和目标可信度的红外与可见光图像融合方法
CN108874960A (zh) * 2018-06-06 2018-11-23 电子科技大学 一种在线学习中基于降噪自编码器混合模型的课程视频推荐算法
CN110084773A (zh) * 2019-03-25 2019-08-02 西北工业大学 一种基于深度卷积自编码网络的图像融合方法
CN110097617A (zh) * 2019-04-25 2019-08-06 北京理工大学 基于卷积神经网络与显著性权重的图像融合方法
CN110533620A (zh) * 2019-07-19 2019-12-03 西安电子科技大学 基于aae提取空间特征的高光谱和全色图像融合方法
CN111145131A (zh) * 2019-11-28 2020-05-12 中国矿业大学 一种基于多尺度生成式对抗网络的红外和可见光图像融合方法
CN111275655A (zh) * 2020-01-20 2020-06-12 上海理工大学 一种多聚焦多源图像融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
K.Vanitha 等.Multimodal Medical Image Fusion Based on Hybrid L1- L0 Layer Decomposition Method.2019 10th International Conference on Computing, Communication and Networking Technologies (ICCCNT).2019,1-5. *
张慧 等.基于方向导波增强的红外与可见光图像融合.激光与红外.2020,第50卷(第04期),507-512. *
罗晓清 等.基于全子带栈式稀疏自编码的水果图像融合.现代计算机(专业版).2017,(第14期),57-63. *

Also Published As

Publication number Publication date
CN111784619A (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
CN111784619B (zh) 一种红外和可见光图像的融合方法
CN109741256B (zh) 基于稀疏表示和深度学习的图像超分辨率重建方法
Zhang et al. Image restoration: From sparse and low-rank priors to deep priors [lecture notes]
CN109949217B (zh) 基于残差学习和隐式运动补偿的视频超分辨率重建方法
Chen et al. MICU: Image super-resolution via multi-level information compensation and U-net
CN107123089A (zh) 基于深度卷积网络的遥感图像超分辨重建方法及系统
CN106845471A (zh) 一种基于生成对抗网络的视觉显著性预测方法
CN111787187B (zh) 利用深度卷积神经网络进行视频修复的方法、系统、终端
CN113283444B (zh) 一种基于生成对抗网络的异源图像迁移方法
CN115131214B (zh) 基于自注意力的室内老人图像超分辨率重构方法及系统
CN106447632B (zh) 一种基于稀疏表示的raw图像去噪方法
CN115484410B (zh) 基于深度学习的事件相机视频重建方法
CN113762277B (zh) 一种基于Cascade-GAN的多波段红外图像融合方法
CN104408697B (zh) 基于遗传算法和正则先验模型的图像超分辨重建方法
CN116051947A (zh) 一种变压器多源异构数据多尺度特征融合方法
CN110992414A (zh) 一种基于卷积神经网络的室内单目场景深度估计的方法
CN116363034A (zh) 轻量级红外与可见光图像融合方法、系统、设备和介质
CN109615576A (zh) 基于级联回归基学习的单帧图像超分辨重建方法
CN116664435A (zh) 一种基于多尺度人脸解析图融入的人脸复原方法
CN114511484B (zh) 基于多级LatLRR的红外和彩色可见光图像快速融合方法
CN116977809A (zh) 一种基于深度学习的端到端多模态图像融合框架
CN108596831B (zh) 一种基于AdaBoost实例回归的超分辨率重建方法
CN116740515A (zh) 一种基于cnn的强度图像与偏振图像融合增强方法
CN115131205B (zh) 基于域迁移融合网络的多摄像头人脸超分辨率方法及系统
Cao et al. Super-resolution algorithm through neighbor embedding with new feature selection and example training

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant