CN113160286A - 一种基于卷积神经网络的近红外和可见光图像融合方法 - Google Patents
一种基于卷积神经网络的近红外和可见光图像融合方法 Download PDFInfo
- Publication number
- CN113160286A CN113160286A CN202110010639.8A CN202110010639A CN113160286A CN 113160286 A CN113160286 A CN 113160286A CN 202110010639 A CN202110010639 A CN 202110010639A CN 113160286 A CN113160286 A CN 113160286A
- Authority
- CN
- China
- Prior art keywords
- visible light
- fusion
- infrared
- light image
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 20
- 238000013527 convolutional neural network Methods 0.000 title claims abstract description 15
- 230000004927 fusion Effects 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 5
- 238000002156 mixing Methods 0.000 claims description 7
- 230000000694 effects Effects 0.000 claims description 5
- 125000001475 halogen functional group Chemical group 0.000 claims description 4
- 230000002401 inhibitory effect Effects 0.000 claims description 3
- 238000007670 refining Methods 0.000 claims description 2
- 230000009286 beneficial effect Effects 0.000 abstract description 3
- 238000007781 pre-processing Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 11
- 238000012360 testing method Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000002329 infrared spectrum Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000002441 reversible effect Effects 0.000 description 1
- 239000000779 smoke Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种基于卷积神经网络的近红外和可见光图像融合方法,首先,根据现有近红外和可见光图像数据集RGB‑NIR,得到训练集,建立融合网络框架,用于特征提取和融合图像的重建,其次,设计由像素损失、结构损失和边缘损失构成的混合损失函数,输入训练集进行融合网络的训练;最后,输入待融合的近红外和可见光图像对得到最终的融合图像。本发明的有益效果是:解决了传统方法中存在的人为设计复杂的预处理方式和融合规则带来的计算效率下降问题,本发明的融合网络是一个端到端的网络,输入源图像即可直接得到融合图片,同时相对于传统方法,本方法的融合结果包含更少的颜色失真和更多的细节信息。
Description
技术领域
本发明涉及图像处理领域,尤其涉及一种基于卷积神经网络的近红外和可见光图像融合方法。
背景技术
近红外和可见光图像融合是在安全监控和地质勘探领域具有广泛应用的一种图像融合方式。可见光和近红外光谱相差较大,两种光谱具有的物理特性(反射特性和投射特性)差异显著。可见光图像主要由目标和环境光反射成像,因此包含颜色信息,但是当遭遇一些低能见度的场景,例如大雾、烟雾以及低光照,可见光图片会表现出低对比度以及缺乏细节信息。与可见光谱不同,近红外光谱范围更高,由于近红外图片仅有目标物反射成像,因此不受环境光照的影响,近红外图片也包含更多细节信息,然而,近红外图像是灰度图,因此缺乏颜色对比度信息。因此要得到一副颜色自然且场景清晰度较高的图像,我们就要进行两者融合,充分利用两者的互补信息,使得我们可以准确地对场景进行感知。
现有的近红外和可见光图像融合方法主要包含三类:基于多尺度变换、基于正则化模型以及基于数理统计的融合方法。基于多尺度变换的方法着眼于保留源图像的细节信息,虽然融合结果呈现出较好的细节保真度,然而,由于缺乏对颜色信息的有效处理,融合结果大多存在颜色失真的问题;基于正则化模型的方法主要通过保留可见光图像的像素分布和近红外图像的梯度信息来得到目标融合图像,这类方法忽视了保留可见光图像中的细节信息,导致融合结果中会出现局部细节丢失的问题;基于数理统计的方法致力于保留源图像的局部特性,然而局部滤波器的使用会引起边缘信息的模糊,进而导致融合图片中的光晕效应。
发明内容
为了解决上述问题,本发明提供了一种基于卷积神经网络的近红外和可见光图像融合方法,主要包括以下步骤:
S1:从RGB-NIR近红外和可见光图像数据集中挑选M对预配准的图像对,然后将其裁剪为P1×P1尺寸的N1组图像对,用来作为训练集,M、P1和N1均为大于零的正整数;
S2:建立融合网络框架,用于特征提取和融合图像的重建;
S3:基于所述融合网络框架,设计一种混合损失函数,通过不断优化该损失函数,利用所述训练集训练一个适用于近红外和可见光图像融合任务的融合网络;
S4:使用训练好的融合网络,输入实际得到的近红外和可见光图像对,即可直接得到融合图像。
进一步地,M为45,P1为46,N1为27264。
进一步地,所述融合网络架构的所有卷积层中均加入批标准化操作,以便加快训练速度。
进一步地,所述融合网络架构由级联层、编码层以及解码层组成。
进一步地,所述级联层用于对源图像在通道上进行串联,作为特征图输入到编码层;所述编码层用于提取源图像中的特征信息;所述解码层用于精炼编码层得到的特征图,重构得到彩色的融合图像,所述源图像为训练集中的近红外和可见光图像对。
进一步地,所述编码层中加入了稠密连接结构。
进一步地,所述混合损失函数由像素损失、结构损失以及边缘损失共同组成。
进一步地,所述像素损失用于保留可见光图像的颜色信息,结构损失用于保留源图像中的细节信息,边缘损失则用于抑制融合图像中的光晕效应。
进一步地,所述混合损失函数如公式(1)所示:
L=Lcolor+α·LBSSIM+β·Ledge (1)
其中,L表示混合损失函数,Lcolor、LBSSIM和Ledge分别表示像素损失、结构损失和边缘损失,α和β均为超参数,用于平衡各个损失函数的影响。
本发明提供的技术方案带来的有益效果是:本发明通过一些测试图像对,与现有的几种融合算法进行对比,在主观视觉效果上都优于其他对比融合算法,本发明算法可以很好的保留源图像的细节、纹理和,具有更好的对比度这使得融合后的图像更为清晰、可靠、便于人眼直观视觉观察。
附图说明
下面将结合附图及实施例对本发明作进一步说明,附图中:
图1是本发明实施例中一种基于卷积神经网络的近红外和可见光图像融合方法的流程图;
图2是本发明实施例中融合网络的结构图;
图3是本发明实施例中实验结果的示意图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
针对现有方法中越来越复杂的认为设计的融合规则和前处理步骤,本发明的实施例提供了一种基于卷积神经网络的近红外和可见光图像融合方法,可以直接由输入图像得到融合图像,极大地简化了融合流程,而且,通过优化本发明中设计的损失函数,融合结果相比于现有方法拥有更加自然的色彩信息同时局部细节信息保留地更加完整。
请参考图1-2,图1是本发明实施例中一种基于卷积神经网络的近红外和可见光图像融合方法的流程图,图2是本发明实施例中融合网络的结构图,具体包括如下步骤:
S1:从现有的近红外和可见光图像数据集中选取45组图像对,利用数据增强的方法得到扩充后的大规模训练集。
S2:构建融合网络框架,用于特征提取和融合图像的重建。
S3:针对性地设计一种混合损失函数,通过不断优化该损失函数,训练一个适用于近红外和可见光图像融合任务的融合网络,并利用测试图像对对该融合网络进行测试,以确保得到符合预设精度的融合网络。
S4:通过符合预设精度的训练好的融合网络,输入测试图像对的融合图像。
步骤S1中,由于深度学习网络的训练需要大量的数据,现有的近红外和可见光图像数据集不具备如此大的规模,因此本发明利用剪切的数据增强方法在现有数据集的基础上构建出一个适用于深度学习网络的近红外和可见光图像数据集。通过不带重叠的剪切操作,将45组图像对扩充为27264组图像块对,足够用于训练一个性能较好的融合网络。
步骤S2中,图2为本发明中融合网络的结构图,编码层和解码层分别用以特征提取和图像重构。本方法在所有卷积层中加入了批标准化(Batch Normalization)操作,批处理化让梯度变大,避免梯度消失问题的产生,而且梯度变大意味着学习收敛速度变快,能大大加快训练速度。
在编码层中,为了避免浅层特征在前向传播中权重逐渐降低,同时也为了避免反向传播时梯度消失的问题,本发明在编码层中加入了稠密连接结构,每一层的特征图都作为后面所有层的输入,因此浅层特征得到了充分地利用。
步骤S3,为了得到一个适用于近红外和可见光图像融合任务的融合网络,本发明设计了一种针对性的混合损失函数L,定义如下:
L=Lcolor+α·LBSSIM+β·Ledge (1)
Lcolor、LBSSIM和Ledge分别代表像素损失、结构损失和边缘损失,α和β均为超参数,用于平衡各个损失函数的影响。像素损失Lcolor定义如下:
其中,A和B分别为源图像的长和宽,||.||F为Frobenious正则项,Iv、In和If分别为可见光、近红外和融合图片,i表示第i个像素,P为源图像中的像素数量,即P=A×B,由于色彩信息主要由可见光图像在RGB三个通道的像素值反映,因此可以不断最小化像素损失保留色彩信息。所述源图像为训练集中的近红外和可见光图像对。结构损失LBSSIM定义如下:
LBSSIM=1-DSSIM(Iv(l),In,If(l)) (3)
其中,Iv(l)、If(l)分别为可见光和融合图片的亮度通道,
其中,W代表图像中的第W个图像块,此处N代表源图像中图像块数量,(x|W)代表x图像的第W个图像块,ω1和ω2定义如下:
ω2=1-ω1 (6)
其中grad(.)用于计算梯度图,||.||2代表l2正则项,通过自适应地选择保留可见光或者近红外图像的局部结构信息,极大程度地保留了源图像中的局部细节信息。边缘损失Ledge定义如下:
其中,
w=1-norm(grad(In)) (8)
其中norm(.)为归一化操作,边缘损失在保留融合图像中已有细节的前提下,约束远离边缘的像素具有和可见光中背景具有类似的像素值分布,从而达到抑制融合图像中的光晕效应的目的。
本发明的实验测试图像采用已严格配准过的RGB-NIR数据集中的近红外和可见光图像对,对比算法包括基于引导滤波器的融合方法(GFF)、基于拉普拉斯高斯金字塔的融合方法(CVN)和基于交叉场的融合方法(VSM)。实验结果如图3所示,观察可知,GFF算法可以较好地保留源图像的细节信息,然而,由于其未考虑颜色信息,融合结果中呈现出颜色失真的问题;CVN算法可以较好地保留局部的颜色对比度信息,然而融合图片呈现出过高的对比度,视觉效果较差;VSM算法地融合结果可以保留源图像的色彩信息,然而融合结果中存在细节丢失的问题。相比之下,通过本发明上述方法得到的融合结果具有最为真实的色彩外观同时也保留了最多的局部细节信息。
本发明的有益效果:本发明通过一些测试图像对,与现有的几种融合算法进行对比,在主观视觉效果上都优于其他对比融合算法,本发明方法可以很好的保留源图像的细节、纹理和,具有更好的对比度这使得融合后的图像更为清晰、可靠、便于人眼直观视觉观察。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于卷积神经网络的近红外和可见光图像融合方法,其特征在于:包括以下步骤:
S1:从RGB-NIR近红外和可见光图像数据集中挑选M对预配准的图像对,然后将其裁剪为P1×P1尺寸的N1组图像对,用来作为训练集,M、P1和N1均为大于零的正整数;
S2:建立融合网络框架,用于特征提取和融合图像的重建;
S3:基于所述融合网络框架,设计一种混合损失函数,通过不断优化该损失函数,利用所述训练集训练一个适用于近红外和可见光图像融合任务的融合网络;
S4:使用训练好的融合网络,输入待融合的近红外和可见光图像对,即可直接得到融合图像。
2.如权利要求1所述的一种基于卷积神经网络的近红外和可见光图像融合方法,其特征在于:步骤S1中,M为45,P1为46,N1为27264。
3.如权利要求1所述的一种基于卷积神经网络的近红外和可见光图像融合方法,其特征在于:步骤S2中,所述融合网络架构的所有卷积层中均加入批标准化操作,以便加快训练速度。
4.如权利要求1所述的一种基于卷积神经网络的近红外和可见光图像融合方法,其特征在于:步骤S2中,所述融合网络架构由级联层、编码层以及解码层组成。
5.如权利要求4所述的一种基于卷积神经网络的近红外和可见光图像融合方法,其特征在于:所述级联层用于对源图像在通道上进行串联,作为特征图输入到编码层;所述编码层用于提取源图像中的特征信息;所述解码层用于精炼编码层得到的特征图,重构得到彩色的融合图像,所述源图像为训练集中的近红外和可见光图像对。
6.如权利要求4所述的一种基于卷积神经网络的近红外和可见光图像融合方法,其特征在于:所述编码层中加入了稠密连接结构。
7.如权利要求1所述的一种基于卷积神经网络的近红外和可见光图像融合方法,其特征在于:步骤S3中,所述混合损失函数由像素损失、结构损失以及边缘损失共同组成。
8.如权利要求7所述的一种基于卷积神经网络的近红外和可见光图像融合方法,其特征在于:所述像素损失用于保留可见光图像的颜色信息,结构损失用于保留源图像中的细节信息,边缘损失则用于抑制融合图像中的光晕效应。
9.如权利要求1所述的一种基于卷积神经网络的近红外和可见光图像融合方法,其特征在于:步骤S3中,所述混合损失函数如公式(1)所示:
L=Lcolor+α·LBSSIM+β·Ledge (1)
其中,L表示混合损失函数,Lcolor、LBSSIM和Ledge分别表示像素损失、结构损失和边缘损失,α和β均为超参数,用于平衡各个损失函数的影响。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110010639.8A CN113160286A (zh) | 2021-01-06 | 2021-01-06 | 一种基于卷积神经网络的近红外和可见光图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110010639.8A CN113160286A (zh) | 2021-01-06 | 2021-01-06 | 一种基于卷积神经网络的近红外和可见光图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113160286A true CN113160286A (zh) | 2021-07-23 |
Family
ID=76878616
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110010639.8A Pending CN113160286A (zh) | 2021-01-06 | 2021-01-06 | 一种基于卷积神经网络的近红外和可见光图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113160286A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592018A (zh) * | 2021-08-10 | 2021-11-02 | 大连大学 | 基于残差密集网络和梯度损失的红外光与可见光图像融合方法 |
CN114882444A (zh) * | 2022-07-01 | 2022-08-09 | 浙江智慧视频安防创新中心有限公司 | 一种图像融合处理方法、设备及介质 |
CN116793991A (zh) * | 2023-08-22 | 2023-09-22 | 青岛理工大学 | 一种基于近红外光谱和混合损失的谷氨酸浓度测量方法 |
CN113592018B (zh) * | 2021-08-10 | 2024-05-10 | 大连大学 | 基于残差密集网络和梯度损失的红外光与可见光图像融合方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109118467A (zh) * | 2018-08-31 | 2019-01-01 | 武汉大学 | 基于生成对抗网络的红外与可见光图像融合方法 |
CN109919887A (zh) * | 2019-02-25 | 2019-06-21 | 中国人民解放军陆军工程大学 | 一种基于深度学习的无监督图像融合方法 |
CN111161201A (zh) * | 2019-12-06 | 2020-05-15 | 北京理工大学 | 基于细节增强通道注意力的红外与可见光图像融合方法 |
CN111709902A (zh) * | 2020-05-21 | 2020-09-25 | 江南大学 | 基于自注意力机制的红外和可见光图像融合方法 |
CN111709903A (zh) * | 2020-05-26 | 2020-09-25 | 中国科学院长春光学精密机械与物理研究所 | 一种红外与可见光图像融合方法 |
-
2021
- 2021-01-06 CN CN202110010639.8A patent/CN113160286A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109118467A (zh) * | 2018-08-31 | 2019-01-01 | 武汉大学 | 基于生成对抗网络的红外与可见光图像融合方法 |
CN109919887A (zh) * | 2019-02-25 | 2019-06-21 | 中国人民解放军陆军工程大学 | 一种基于深度学习的无监督图像融合方法 |
CN111161201A (zh) * | 2019-12-06 | 2020-05-15 | 北京理工大学 | 基于细节增强通道注意力的红外与可见光图像融合方法 |
CN111709902A (zh) * | 2020-05-21 | 2020-09-25 | 江南大学 | 基于自注意力机制的红外和可见光图像融合方法 |
CN111709903A (zh) * | 2020-05-26 | 2020-09-25 | 中国科学院长春光学精密机械与物理研究所 | 一种红外与可见光图像融合方法 |
Non-Patent Citations (2)
Title |
---|
JUN CHEN ET AL.: "Multiscale Infrared and Visible Image Fusion Based on Phase Congruency and Saliency", 《IGARSS 2020 - 2020 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYMPOSIUM》, 31 December 2020 (2020-12-31), pages 224 - 227 * |
MUHAMMAD ARSALAN ET AL.: "IrisDenseNet Robust Iris Segmentation Using Densely Connected Fully Convolutional Networks in the Images by Visible Light and Near-Infrared Light Camera Sensors", 《SENSORS》, 10 May 2018 (2018-05-10), pages 1 - 30 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592018A (zh) * | 2021-08-10 | 2021-11-02 | 大连大学 | 基于残差密集网络和梯度损失的红外光与可见光图像融合方法 |
CN113592018B (zh) * | 2021-08-10 | 2024-05-10 | 大连大学 | 基于残差密集网络和梯度损失的红外光与可见光图像融合方法 |
CN114882444A (zh) * | 2022-07-01 | 2022-08-09 | 浙江智慧视频安防创新中心有限公司 | 一种图像融合处理方法、设备及介质 |
CN114882444B (zh) * | 2022-07-01 | 2022-12-02 | 浙江智慧视频安防创新中心有限公司 | 一种图像融合处理方法、设备及介质 |
CN116793991A (zh) * | 2023-08-22 | 2023-09-22 | 青岛理工大学 | 一种基于近红外光谱和混合损失的谷氨酸浓度测量方法 |
CN116793991B (zh) * | 2023-08-22 | 2023-11-10 | 青岛理工大学 | 一种基于近红外光谱和混合损失的谷氨酸浓度测量方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112288658B (zh) | 一种基于多残差联合学习的水下图像增强方法 | |
CN112233038B (zh) | 基于多尺度融合及边缘增强的真实图像去噪方法 | |
CN108986050B (zh) | 一种基于多分支卷积神经网络的图像和视频增强方法 | |
Golts et al. | Unsupervised single image dehazing using dark channel prior loss | |
JP7379787B2 (ja) | フィーチャーピラミッドを融合した敵対的生成ネットワークによる画像ヘイズ除去方法 | |
CN110097519B (zh) | 基于深度学习的双监督图像去雾方法、系统、介质和设备 | |
CN109685072B (zh) | 一种基于生成对抗网络的复合降质图像高质量重建方法 | |
CN108921799B (zh) | 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法 | |
CN110288550B (zh) | 基于先验知识引导条件生成对抗网络的单张图像去雾方法 | |
CN110349087B (zh) | 基于适应性卷积的rgb-d图像高质量网格生成方法 | |
CN112150379A (zh) | 基于感知判别增强生成对抗网络的图像去雾方法及装置 | |
CN111179196B (zh) | 一种基于分而治之的多分辨率深度网络图像去高光方法 | |
Feng et al. | URNet: A U-Net based residual network for image dehazing | |
CN113160286A (zh) | 一种基于卷积神经网络的近红外和可见光图像融合方法 | |
CN115063318A (zh) | 自适应频率分解的低光照图像增强方法与相关设备 | |
CN113870124A (zh) | 基于弱监督的双网络互激励学习阴影去除方法 | |
CN112419163B (zh) | 一种基于先验知识和深度学习的单张图像弱监督去雾方法 | |
CN113256538B (zh) | 一种基于深度学习的无监督去雨方法 | |
Abo El Rejal | An end-to-end CNN approach for enhancing underwater images using spatial and frequency domain techniques | |
CN112907461B (zh) | 一种红外雾天降质图像去雾增强方法 | |
CN111553856B (zh) | 基于深度估计辅助的图像去雾方法 | |
CN117197627A (zh) | 一种基于高阶退化模型的多模态图像融合方法 | |
CN117333359A (zh) | 基于可分离卷积网络的山水画图像超分辨率重建方法 | |
Goncalves et al. | Guidednet: Single image dehazing using an end-to-end convolutional neural network | |
CN116433525A (zh) | 一种基于边缘检测函数变分模型的水下图像去雾方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210723 |
|
RJ01 | Rejection of invention patent application after publication |