CN109447936A - 一种红外和可见光图像融合方法 - Google Patents
一种红外和可见光图像融合方法 Download PDFInfo
- Publication number
- CN109447936A CN109447936A CN201811570632.6A CN201811570632A CN109447936A CN 109447936 A CN109447936 A CN 109447936A CN 201811570632 A CN201811570632 A CN 201811570632A CN 109447936 A CN109447936 A CN 109447936A
- Authority
- CN
- China
- Prior art keywords
- layer
- infrared
- visible light
- image
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 12
- 238000002156 mixing Methods 0.000 claims abstract description 23
- 230000006870 function Effects 0.000 claims abstract description 22
- 238000012549 training Methods 0.000 claims abstract description 14
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 13
- 238000012546 transfer Methods 0.000 claims abstract description 4
- 230000005284 excitation Effects 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 5
- 238000005267 amalgamation Methods 0.000 claims description 4
- 230000000694 effects Effects 0.000 abstract description 10
- 238000013135 deep learning Methods 0.000 abstract description 7
- 238000004422 calculation algorithm Methods 0.000 abstract description 6
- 230000008447 perception Effects 0.000 abstract description 6
- 238000011156 evaluation Methods 0.000 abstract description 5
- 238000011478 gradient descent method Methods 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 6
- 238000000354 decomposition reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012880 independent component analysis Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种红外和可见光图像融合方法,首先,构建可见光和红外图像数据库,确定卷积神经网络结构,构建卷积神经网络基本单元;其次,应用可见光和红外图像数据库通过迁移训练对GoogLeNet进行训练;然后,将融合图像分别和原图像的损失函数以及正则项相加作为目标函数,进行融合网络的训练;最后,输入待融合的可见光及红外图像得到最终的融合图像。本发明将图像融合分为融合网络和评价网络,根据感知损失函数确定目标函数,采用随机梯度下降法更新融合网络中参数,获得最优的融合图像,相比于现有的深度学习融合算法,融合效果更好。
Description
技术领域
本发明涉及图像处理领域,特别涉及到一种基于卷积神经网络和感知损失函数的红外和可见光图像融合方法。
背景技术
红外与可见光图像融合是在军事领域和安全监控领域具有广泛应用的一种图像融合方式。红外图像一般较暗、信噪比低、无彩色信息、缺少层次感,但却常有比较明显的目标信息;可见光图像光谱信息丰富,动态范围大,对比度相对较高,包含丰富的细节信息,但在黑暗背景下不易观察。通过对红外与可见光图像的融合,提高红外目标的可识别度和图像的清晰度,获得更加详细准确的信息,可以使人们能在恶劣的环境下也能准确判断热源的位置,在军事作战、电子产品检测、资源探测等众多领域中都有广泛的实用价值。
目前绝大部分的融合算法是在变换域实现的,将配准后的待融合图像在变换域进行特征提取,如小波变换、独立成分分析、Hess矩阵分解和稀疏分解等,其实质是通过某种变换将原始图像转换到变换域,对变换域上图像的系数进行合并,重建得到融合图像。这类方法在特征提取和合并过程中不能直接针对某种融合质量评价标准(如Piella指数,Petrovic指数)的提高,具有很强的盲目性,缺少理论依据,算法的有效性只能通过实验验证。因此这类算法具有较强的局限性,难以保证其对未经实验图像的有效性。
近年来,深度学习技术受到广泛关注,已经在模式识别,图像增强等许多领域取得很好的效果。也有一些研究人员将深度学习应用于图像融合进行探索性的研究。如利用深度学习模型(如卷积神经网络、自动编码)将待融合图像分解为高低频图像,再采用不同的融合规则分别融合,取得了一定的效果。但这类方法只是将深度学习获得的特征分别融合,不能保证最后的融合质量,融合图像的效果不能反馈于深度学习的训练过程,没有很好的利用深度学习算法的自适应性。因此,需要有一种新的方法通过深度学习和感知损失函数获得效果最优的融合图像。
发明内容
发明目的:本发明提出了一种融合效果更好的红外和可见光图像融合方法。
技术方案:本发明所述的一种红外和可见光图像融合方法,包括以下步骤:
(1)构建可见光和红外图像数据库,确定卷积神经网络结构,构建卷积神经网络基本单元;
(2)应用可见光和红外图像数据库通过迁移训练对GoogLeNet进行训练;
(3)将融合图像分别和原图像的损失函数以及正则项相加作为目标函数,进行融合网络的训练;
(4)输入待融合的可见光及红外图像得到最终的融合图像。
步骤(1)所述的卷积神经网络深度为10,包括输入层、基本单元、卷积层和回归层。
所述步骤(1)包括以下步骤:
(13)将带融合数据库中的红外和可见光图像滑动分块,根据融合网络深度确定图像块的大小;
(14)输入层之后是第1个卷积层,包含32个滤波器,卷积核为3×3;
(13)接下来的9层中的卷积核由维度为3×3×32的标准正态分布的随机矩阵乘以分别计算得到,偏置全部为0,卷积层后跟随一个激励层,激励层均选用漏修正线性单元函数;
(14)最后一层卷积层后使用回归层。
所述步骤(2)包括以下步骤:
(21)评价网络中应用全连接层、logistics分类层替换GoogLeNet的池化层、全连接层、softmax分类层,然后输入红外和可见光数据进行网络的微调;
(22)为防止训练中出现过拟合现象,首先将GooLeNet中的前100层冻结,学习率设为0,不进行参数的更新,其他层初始的学习率为0.01。
步骤(3)所述的目标函数为:
其中,K为所选用的卷积层总数量,k指的是第k层,Mk表示第k层滤波器个数,每个滤波器是大小的Nk的向量特征地图。
有益效果:与现有技术相比,本发明的有益效果:将图像融合分为融合网络和评价网络,利用融合网络生成融合图像,再将获得的融合图像和待融合图像输入到评价网络中,根据感知损失函数确定目标函数,采用随机梯度下降法更新融合网络中参数,获得最优的融合图像,相比于现有的深度学习融合算法,融合效果更好。
附图说明
图1为本发明的流程图;
图2为本发明中的融合网络结构框图;
图3为红外图像;
图4为可见光图像;
图5为本发明的融合图像。
具体实施方式
下面结合附图对本发明做进一步说明,图1为本发明的流程图,包括以下步骤:
1、设计融合网络结构
确定卷积神经网络结构,构建卷积神经网络基本单元,本发明的卷积神经网络深度为10,由输入层、基本单元、卷积层和回归层组成,如图2所示,其中基本单元包含卷积层和激励层。该卷积网络作为融合网络实现可见光和红外图像融合。
(1)首先将带融合数据库中的红外和可见光图像滑动分块,根据融合网络深度确定图像块的大小。为了能够更好的提取图像特征,输入层中图像块的大小应等于网络感受域的大小,若网络深度为A,则网络感受域的大小应为(2A+1)×(2A+1)。考虑到融合效果和计算速度,设定网络深度为10,则图像快大小为21×21。随机选定30000组红外和可见光图像块,并归一化。
(2)输入层之后是第1个卷积层,包含32个滤波器,卷积核为3×3。卷积计算时滑动步长为2,同时为了保持边界信息,使用zero-padding。
32个卷积核的初始值由维度为3×3×2的标准正态分布的随机矩阵乘以分别计算得到,偏置全部为0。卷积层后跟随1个激励层,为避免修正线性单元(ReLU,The Rectified Linear Unit)的死亡节点问题,激励层均选用漏修正线性单元(Leaky ReLU),函数为
(3)接下来的9层中的卷积核由维度为3×3×32的标准正态分布的随机矩阵乘以分别计算得到,偏置全部为0。卷积层后跟随一个激励层,激励层均选用LeakyReLU。
(4)最后一层卷积层后不使用Leaky ReLU,而使用回归层。
2、评价网络训练
应用可见光传感器和热像仪同时采集可见光和红外图像数据10000组,得到图像数据库。并应用该数据库通过迁移训练对GoogLeNet进行再次训练,使其具有提取可见光和红外图像特征的能力。
(1)评价网络中应用全连接层、logistics分类层替换GoogLeNet的最后三层,然后输入红外和可见光数据进行网络的微调(Fine-turning)。
(2)为防止训练中出现过拟合现象,首先将GooLeNet中的前100层冻结,学习率设为0,不进行参数的更新;其他层初始的学习率为0.01。
3、上述网络训练完成后将其作为评价网络,评价融合图像的效果,并将融合图像分别和两幅原图像的感知损失函数作为目标函数,以进行融合网络的训练。
(1)用最小化目标函数生成一个融合图像,目标函数为融合图像与红外或可见光图像感知损失函数加权和:
其中,K为所选用的卷积层总数量,k指的是第k层,Mk表示第k层滤波器个数,每个滤波器是大小的Nk的向量特征地图。
4、输入待融合的可见光及红外图像得到最终的融合图像,并利用评价网络确定融合效果。
为了能够更好的提取图像特征,令输入层中图像块的大小等于网络感受域的大小,网络深度为10,则输入图像块大小为21×21。融合网络卷积核初始化为高斯滤波器,偏置设为0。mini-batch大小决定误差收敛的稳定性,值越大稳定性越好,但占用内存较多,运算速度更长,综合考虑,mini-batch选值为32-64。学习率决定误差收敛速度,值越大收敛速度越快,但是越不稳定,取值为0.01~0.1。图3、图4为在同一环境下获得的红外图像和可见光图像,经过本发明的融合方法,呈现出最终的融合图像,如图5所示。
Claims (5)
1.一种红外和可见光图像融合方法,其特征在于,包括以下步骤:
(1)构建可见光和红外图像数据库,确定卷积神经网络结构,构建卷积神经网络基本单元;
(2)应用可见光和红外图像数据库通过迁移训练对GoogLeNet进行训练;
(3)将融合图像分别和原图像的损失函数以及正则项相加作为目标函数,进行融合网络的训练;
(4)输入待融合的可见光及红外图像得到最终的融合图像。
2.根据权利要求1所述的一种红外和可见光图像融合方法,其特征在于,步骤(1)所述的卷积神经网络深度为10,包括输入层、基本单元、卷积层和回归层。
3.根据权利要求1所述的一种红外和可见光图像融合方法,其特征在于,所述步骤(1)包括以下步骤:
(11)将带融合数据库中的红外和可见光图像滑动分块,根据融合网络深度确定图像块的大小;
(12)输入层之后是第1个卷积层,包含32个滤波器,卷积核为3×3;
(13)接下来的9层中的卷积核由维度为3×3×32的标准正态分布的随机矩阵乘以分别计算得到,偏置全部为0,卷积层后跟随一个激励层,激励层均选用漏修正线性单元函数;
(14)最后一层卷积层后使用回归层。
4.根据权利要求1所述的一种红外和可见光图像融合方法,其特征在于,所述步骤(2)包括以下步骤:
(21)评价网络中应用全连接层、logistics分类层替换GoogLeNet的池化层、全连接层、softmax分类层,然后输入红外和可见光数据进行网络的微调;
(22)为防止训练中出现过拟合现象,首先将GooLeNet中的前100层冻结,学习率设为0,不进行参数的更新,其他层初始的学习率为0.01。
5.根据权利要求1所述的一种红外和可见光图像融合方法,其特征在于,步骤(3)所述的目标函数为:
其中,K为所选用的卷积层总数量,k指的是第k层,Mk表示第k层滤波器个数,每个滤波器是大小的Nk的向量特征地图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570632.6A CN109447936A (zh) | 2018-12-21 | 2018-12-21 | 一种红外和可见光图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811570632.6A CN109447936A (zh) | 2018-12-21 | 2018-12-21 | 一种红外和可见光图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109447936A true CN109447936A (zh) | 2019-03-08 |
Family
ID=65534705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811570632.6A Pending CN109447936A (zh) | 2018-12-21 | 2018-12-21 | 一种红外和可见光图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109447936A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084288A (zh) * | 2019-04-11 | 2019-08-02 | 江南大学 | 一种基于自学习神经单元的图像融合方法 |
CN110544205A (zh) * | 2019-08-06 | 2019-12-06 | 西安电子科技大学 | 基于可见光与红外交叉输入的图像超分辨率重建方法 |
CN111161201A (zh) * | 2019-12-06 | 2020-05-15 | 北京理工大学 | 基于细节增强通道注意力的红外与可见光图像融合方法 |
CN111353966A (zh) * | 2020-03-03 | 2020-06-30 | 西华大学 | 基于全变分深度学习的图像融合方法及其应用与系统 |
CN111626940A (zh) * | 2020-06-06 | 2020-09-04 | 徐州飞梦电子科技有限公司 | 一种基于深度学习的红外和可见光图像融合方法 |
CN111681195A (zh) * | 2020-06-09 | 2020-09-18 | 中国人民解放军63811部队 | 红外图像和可见光图像的融合方法、装置及可读存储介质 |
CN111709903A (zh) * | 2020-05-26 | 2020-09-25 | 中国科学院长春光学精密机械与物理研究所 | 一种红外与可见光图像融合方法 |
CN111754418A (zh) * | 2020-05-20 | 2020-10-09 | 重庆邮电大学 | 一种基于Hess矩阵的图像增强方法 |
CN112288663A (zh) * | 2020-09-24 | 2021-01-29 | 山东师范大学 | 一种红外与可见光图像融合方法及系统 |
CN112288668A (zh) * | 2020-09-22 | 2021-01-29 | 西北工业大学 | 基于深度无监督密集卷积网络的红外和可见光图像融合方法 |
CN112364979A (zh) * | 2020-11-05 | 2021-02-12 | 哈尔滨工业大学 | 一种基于GoogLeNet的红外图像识别方法 |
CN112446828A (zh) * | 2021-01-29 | 2021-03-05 | 成都东方天呈智能科技有限公司 | 一种融合可见光图像梯度信息的热成像超分辨率重建方法 |
US11270448B2 (en) | 2019-11-26 | 2022-03-08 | Microsoft Technology Licensing, Llc | Using machine learning to selectively overlay image content |
US11321939B2 (en) | 2019-11-26 | 2022-05-03 | Microsoft Technology Licensing, Llc | Using machine learning to transform image styles |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268847A (zh) * | 2014-09-23 | 2015-01-07 | 西安电子科技大学 | 一种基于交互非局部均值滤波的红外与可见光图像融合方法 |
CN107103331A (zh) * | 2017-04-01 | 2017-08-29 | 中北大学 | 一种基于深度学习的图像融合方法 |
CN107481185A (zh) * | 2017-08-24 | 2017-12-15 | 深圳市唯特视科技有限公司 | 一种基于视频图像优化的风格转换方法 |
CN107705242A (zh) * | 2017-07-20 | 2018-02-16 | 广东工业大学 | 一种结合深度学习与深度感知的图像风格化迁移方法 |
CN108022213A (zh) * | 2017-11-29 | 2018-05-11 | 天津大学 | 基于生成对抗网络的视频超分辨率重建算法 |
CN108305236A (zh) * | 2018-01-16 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 图像增强处理方法及装置 |
CN108416752A (zh) * | 2018-03-12 | 2018-08-17 | 中山大学 | 一种基于生成式对抗网络进行图像去运动模糊的方法 |
CN108682044A (zh) * | 2018-05-21 | 2018-10-19 | 深圳市唯特视科技有限公司 | 一种基于双路径风格化网络的立体风格转移模型 |
CN108846822A (zh) * | 2018-06-01 | 2018-11-20 | 桂林电子科技大学 | 基于混合神经网络的可见光图像和红外光图像的融合方法 |
CN108875669A (zh) * | 2018-06-28 | 2018-11-23 | 武汉市哈哈便利科技有限公司 | 一种基于可见光与红外图像融合的商品识别技术 |
-
2018
- 2018-12-21 CN CN201811570632.6A patent/CN109447936A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104268847A (zh) * | 2014-09-23 | 2015-01-07 | 西安电子科技大学 | 一种基于交互非局部均值滤波的红外与可见光图像融合方法 |
CN107103331A (zh) * | 2017-04-01 | 2017-08-29 | 中北大学 | 一种基于深度学习的图像融合方法 |
CN107705242A (zh) * | 2017-07-20 | 2018-02-16 | 广东工业大学 | 一种结合深度学习与深度感知的图像风格化迁移方法 |
CN107481185A (zh) * | 2017-08-24 | 2017-12-15 | 深圳市唯特视科技有限公司 | 一种基于视频图像优化的风格转换方法 |
CN108022213A (zh) * | 2017-11-29 | 2018-05-11 | 天津大学 | 基于生成对抗网络的视频超分辨率重建算法 |
CN108305236A (zh) * | 2018-01-16 | 2018-07-20 | 腾讯科技(深圳)有限公司 | 图像增强处理方法及装置 |
CN108416752A (zh) * | 2018-03-12 | 2018-08-17 | 中山大学 | 一种基于生成式对抗网络进行图像去运动模糊的方法 |
CN108682044A (zh) * | 2018-05-21 | 2018-10-19 | 深圳市唯特视科技有限公司 | 一种基于双路径风格化网络的立体风格转移模型 |
CN108846822A (zh) * | 2018-06-01 | 2018-11-20 | 桂林电子科技大学 | 基于混合神经网络的可见光图像和红外光图像的融合方法 |
CN108875669A (zh) * | 2018-06-28 | 2018-11-23 | 武汉市哈哈便利科技有限公司 | 一种基于可见光与红外图像融合的商品识别技术 |
Non-Patent Citations (2)
Title |
---|
DONGGYU JOO等: "《Generating a Fusion Image: One’s Identity and Another’s Shape》", 《ARXIV:1804.07455V1》 * |
JIAYI MA等: "《FusionGAN: A generative adversarial network for infrared and visible image fusion》", 《INFORMATION FUSION》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110084288B (zh) * | 2019-04-11 | 2023-04-18 | 江南大学 | 一种基于自学习神经单元的图像融合方法 |
CN110084288A (zh) * | 2019-04-11 | 2019-08-02 | 江南大学 | 一种基于自学习神经单元的图像融合方法 |
CN110544205A (zh) * | 2019-08-06 | 2019-12-06 | 西安电子科技大学 | 基于可见光与红外交叉输入的图像超分辨率重建方法 |
CN110544205B (zh) * | 2019-08-06 | 2021-05-07 | 西安电子科技大学 | 基于可见光与红外交叉输入的图像超分辨率重建方法 |
US11321939B2 (en) | 2019-11-26 | 2022-05-03 | Microsoft Technology Licensing, Llc | Using machine learning to transform image styles |
US11270448B2 (en) | 2019-11-26 | 2022-03-08 | Microsoft Technology Licensing, Llc | Using machine learning to selectively overlay image content |
CN111161201A (zh) * | 2019-12-06 | 2020-05-15 | 北京理工大学 | 基于细节增强通道注意力的红外与可见光图像融合方法 |
CN111161201B (zh) * | 2019-12-06 | 2022-05-31 | 北京理工大学 | 基于细节增强通道注意力的红外与可见光图像融合方法 |
CN111353966A (zh) * | 2020-03-03 | 2020-06-30 | 西华大学 | 基于全变分深度学习的图像融合方法及其应用与系统 |
CN111353966B (zh) * | 2020-03-03 | 2024-02-09 | 南京一粹信息科技有限公司 | 基于全变分深度学习的图像融合方法及其应用与系统 |
CN111754418B (zh) * | 2020-05-20 | 2023-09-26 | 重庆邮电大学 | 一种基于Hess矩阵的图像增强方法 |
CN111754418A (zh) * | 2020-05-20 | 2020-10-09 | 重庆邮电大学 | 一种基于Hess矩阵的图像增强方法 |
CN111709903B (zh) * | 2020-05-26 | 2022-08-19 | 中国科学院长春光学精密机械与物理研究所 | 一种红外与可见光图像融合方法 |
CN111709903A (zh) * | 2020-05-26 | 2020-09-25 | 中国科学院长春光学精密机械与物理研究所 | 一种红外与可见光图像融合方法 |
CN111626940A (zh) * | 2020-06-06 | 2020-09-04 | 徐州飞梦电子科技有限公司 | 一种基于深度学习的红外和可见光图像融合方法 |
CN111681195A (zh) * | 2020-06-09 | 2020-09-18 | 中国人民解放军63811部队 | 红外图像和可见光图像的融合方法、装置及可读存储介质 |
CN112288668A (zh) * | 2020-09-22 | 2021-01-29 | 西北工业大学 | 基于深度无监督密集卷积网络的红外和可见光图像融合方法 |
CN112288668B (zh) * | 2020-09-22 | 2024-04-16 | 西北工业大学 | 基于深度无监督密集卷积网络的红外和可见光图像融合方法 |
CN112288663A (zh) * | 2020-09-24 | 2021-01-29 | 山东师范大学 | 一种红外与可见光图像融合方法及系统 |
CN112364979B (zh) * | 2020-11-05 | 2022-07-12 | 哈尔滨工业大学 | 一种基于GoogLeNet的红外图像识别方法 |
CN112364979A (zh) * | 2020-11-05 | 2021-02-12 | 哈尔滨工业大学 | 一种基于GoogLeNet的红外图像识别方法 |
CN112446828A (zh) * | 2021-01-29 | 2021-03-05 | 成都东方天呈智能科技有限公司 | 一种融合可见光图像梯度信息的热成像超分辨率重建方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109447936A (zh) | 一种红外和可见光图像融合方法 | |
CN110781830B (zh) | 基于空-时联合卷积的sar序列图像分类方法 | |
CN109086700B (zh) | 基于深度卷积神经网络的雷达一维距离像目标识别方法 | |
CN108038445B (zh) | 一种基于多视角深度学习框架的sar自动目标识别方法 | |
CN110929607B (zh) | 一种城市建筑物施工进度的遥感识别方法和系统 | |
Liu et al. | Multiscale Dense Cross‐Attention Mechanism with Covariance Pooling for Hyperspectral Image Scene Classification | |
Atkinson | Issues of uncertainty in super-resolution mapping and their implications for the design of an inter-comparison study | |
Lv et al. | Deep learning model of image classification using machine learning | |
Zhang et al. | A GANs-based deep learning framework for automatic subsurface object recognition from ground penetrating radar data | |
Yan et al. | Convolutional residual‐attention: A deep learning approach for precipitation nowcasting | |
Wang et al. | Spatiotemporal fusion of remote sensing image based on deep learning | |
Wang et al. | Distilling knowledge from an ensemble of convolutional neural networks for seismic fault detection | |
CN111639587B (zh) | 基于多尺度谱空卷积神经网络的高光谱图像分类方法 | |
CN108492298A (zh) | 基于生成对抗网络的多光谱图像变化检测方法 | |
CN111126134A (zh) | 基于非指纹信号消除器的雷达辐射源深度学习识别方法 | |
CN110766058A (zh) | 一种基于优化rpn网络的战场目标检测方法 | |
CN108960404A (zh) | 一种基于图像的人群计数方法及设备 | |
CN109034228A (zh) | 一种基于差分隐私和层级相关性传播的图像分类方法 | |
CN113420639A (zh) | 基于生成对抗网络的近地面红外目标数据集建立方法及装置 | |
CN109165658A (zh) | 一种基于Faster-RCNN的强负样本水下目标检测方法 | |
Yin et al. | Application of a radar echo extrapolation‐based deep learning method in strong convection nowcasting | |
CN107529647B (zh) | 一种基于多层无监督稀疏学习网络的云图云量计算方法 | |
Zhou et al. | MSAR‐DefogNet: Lightweight cloud removal network for high resolution remote sensing images based on multi scale convolution | |
Ye et al. | An improved efficientNetV2 model based on visual attention mechanism: application to identification of cassava disease | |
Zhang et al. | SaltISCG: Interactive salt segmentation method based on CNN and graph cut |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190308 |