CN112488970A - 基于耦合生成对抗网络的红外和可见光图像融合方法 - Google Patents
基于耦合生成对抗网络的红外和可见光图像融合方法 Download PDFInfo
- Publication number
- CN112488970A CN112488970A CN201910861991.5A CN201910861991A CN112488970A CN 112488970 A CN112488970 A CN 112488970A CN 201910861991 A CN201910861991 A CN 201910861991A CN 112488970 A CN112488970 A CN 112488970A
- Authority
- CN
- China
- Prior art keywords
- image
- infrared
- visible light
- generator
- generated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000008878 coupling Effects 0.000 title claims abstract description 20
- 238000010168 coupling process Methods 0.000 title claims abstract description 20
- 238000005859 coupling reaction Methods 0.000 title claims abstract description 20
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 12
- 230000005855 radiation Effects 0.000 claims abstract description 9
- 230000002708 enhancing effect Effects 0.000 claims abstract description 3
- 230000004927 fusion Effects 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims 1
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 2
- 238000003331 infrared imaging Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于耦合生成对抗网络的红外和可见光图像融合方法,包括以下步骤:(1)分别读取红外图像和可见光图像,在颜色通道上连接后馈入并联耦合的生成器。(2)第一个生成器尝试基于预融合图像生成具有红外图像结构信息的图像,判别器测量所生成图像与可见光图像的相对偏移。(3)第二个生成器专用于增强预融合图像上的可见光图像的梯度信息,其判别器专用于测量第二个生成图像相对于红外图像的偏移。(4)对两个生成的图像进行平均以获得最终的融合图像。通过本发明进行红外图像和可见光图像融合,能够有效地保持红外图像的热辐射信息和可见光图像的纹理信息。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于耦合生成对抗网络的红外和可见光图像融合方法。
背景技术
许多相机都配备了可见光成像传感器和红外成像传感器,这两种类型传感器可以分别捕获可见光图像和红外图像。可见光图像包含丰富的纹理信息,但是可见光成像传感器易受环境影响。例如在可见光图像中,一些重要的目标在黑暗或浓雾的情况下可能是不可见的。相反地,红外成像传感器根据热辐射捕获红外图像,因此可以在所有条件下稳定地工作。然而,红外图像通常缺乏纹理信息。为了充分利用互补信息,红外和可见光图像融合技术旨在将红外图像和可见光图像整合为具有丰富的纹理和热辐射分布的一幅图像。
通常来说,现有的红外和可见光图像融合方法可以大致分为两类:传统的融合方法和基于深度学习的融合方法。传统的融合方法在空间域或变换域中处理源图像。对于空间域方法,通过分析红外图像和可见光图像之间的空间关系来获得融合图像。例如,将源图像分解为两个尺度,并计算两个尺度的权重图,可以通过权重图重建两个尺度来获得融合图像。这是一种代表性的空间域融合方法,它推动了其他融合方法的发展。对于变换域方法,源图像通常通过一些数学方法转换为系数,接下来是测量活动水平并融合变换系数的过程。最后,通过相应的逆变换来获得融合图像。在这方面,一些典型的变换方法,如拉普拉斯金字塔(LP),离散小波变换(DWT),非下采样小波变换(NSCT),稀疏表示(SR)得到了广泛的应用。然而,上述传统的融合方法可能需要很长时间来进行分解,并且这些传统方法需要复杂的手工设计融合规则。因此,这些方法难以在实际应用中使用。
发明内容
本发明的目的在于解决上述提出的问题,提供一种基于耦合生成对抗网络的红外和可见光图像融合方法。
本发明通过以下技术方案来实现上述目的:
1、本发明包括以下步骤:
(1)分别读取红外图像和可见光图像,在颜色通道上连接后馈入并联耦合的生成器。
(2)第一个生成器尝试基于预融合图像生成具有红外图像结构信息的图像,判别器测量所生成图像与可见光图像的相对偏移。
(3)第二个生成器专用于增强预融合图像上的可见光图像的梯度信息,其判别器专用于测量第二个生成图像相对于红外图像的偏移。
(4)对两个生成的图像进行平均以获得最终的融合图像。
上述方法的基本原理如下:
为了解决上述问题,本文提出了一种用于红外和可见光图像融合的相对耦合对抗生成网络,其被简称为“RCGAN”。我们使用耦合对抗生成网络来进行两队比赛,每个队伍包含一个生成器和一个判别器。对于生成器,红外和可见光图像在第一层共享相同的高级概念,并利用不同的低级细节来融合最后一层的有意义信息。然后将由生成器获得的一对融合图像馈送到相应的判别器中以区分它们之间的高级表示。为了解决先前工作中存在的“无向”问题,采用预融合图像作为生成器的指导。我们使用相对判别器来测量融合图像和红外/可见光图像之间的相对差异。与传统的融合方法相比,我们的方法成功地避免了复杂的手工设计融合规则,并且能够以端到端的方式融合源图像。同时,提出的RCGAN需要更少的计算量和存储资源,采用耦合对抗生成网络以不同的方式处理多域图像。通过使用预融合图像,我们的网络能够有目的地合成准确可靠的融合结果。
具体地,在所述步骤(2)中,第一个生成器G1基于预融合图像学习红外图像的热辐射信息。所以损失函数设置为
其中Φ(G1)和Lcontent1表示第一个生成器的对抗生成网络损失和内容损失,可以表示为
其中DRa1(Ireal,Ifake)是表示第一个相对判别器的函数,其中Ireal趋于真实的数据被标记为a。相应地,Ifake是数据趋于假,Ig1代表G1获得的第一个生成图像,Lcontent1表示第一个生成器的内容损失。α和β是控制内容和红外图像Iir的比例的两个因素。借助于该损失函数,第一个生成图像Ig1可以同时保持来自预融合图像Ipf的细节并且学习红外图像Iir的热辐射信息。
耦合相对判别器的作用是计算生成的图像如何相对接近另一图像。这样,通过反向传播,生成的图像可以同时包含相应的相反图像的信息。详细地,对于第一个生成器,红外图像用作损失函数的一部分以优化结果,因此在相应的第一个判别器中,我们计算第一个生成图像与可见光图像的接近程度。因此,第一个相对判别器DRa1的损失函数被设置为
LRa1=DRa1(Ivis,Ig1)
具体地,在所述步骤(3)中,基于预融合图像Ipf将可见光图像Ivis的梯度信息注入到第二个生成图像中。因此,第二个生成器的损失函数被设置为
其中Φ(G2)和Lcontent2表示为
第二个相对判别器DRa2旨在测量第二个生成图像Ig2如何相对接近红外图像。因此,其损失函数可以表示为
LRa2=DRa2(Iir,Ig2)
具体地,在所述步骤(4)中,耦合的相对判别器允许单个生成的图像具有相反图像的信息。但是得到的图像仍然存在一定程度的偏差,因此对两个生成的图像进行平均以获得最终的融合结果F
F=0.5×(Ig1+Ig2)
本发明的有益效果在于:
1)开创了用于多域图像融合的耦合对抗生成网络。从源图像共享共同场景的几个生成器和判别器用于以不同方式处理红外图像中的突出显示的目标和可见图像中的丰富纹理。
2)创造性地使用预融合图像作为训练阶段中耦合生成器的指导。通过这样做,生成器的目标是优化预融合图像,而不是凭空产生。换句话说,它使融合图像从“存在”变为“优秀”。
3)引入相对判别器来评估融合图像和红外/可见光图像之间的相对差异。通过使用相对判别器,收敛过程在训练期间可以更加稳定,融合结果可以更加准确可靠。
附图说明
图1本发明基于耦合生成对抗网络的红外和可见光图像融合方法框图;
图2是本发明耦合生成器的网络结构图;
图3是本发明耦合相对判别器的网络结构图;
图4是本发明源图像,预融合图像,生成器生成的图像和融合结果图。
具体实施方式
下面结合具体实施例和附图对本发明作进一步说明:
图1示出了一种基于耦合生成对抗网络的红外和可见光图像融合方法,图2是本发明耦合生成器的网络结构图,图3是本发明耦合相对判别器的网络结构图,图4是本发明源图像,预融合图像,生成器生成的图像和融合结果图,图4(a)为可见光图像,图4(b)为红外图像,图4(c)为预融合图像,图4(d)为第一个生成器生成的图像,图4(e)为第二个生成器生成的图像,图4(f)为融合结果图,结合附图对本发明具体实施方式作进一步详细说明,包括以下主要步骤:
1)读取对应的红外图像Iir与可见光图像Ivis,将两者在颜色通道上连接;
Iinput=concat(Iir,Ivis)
2)输入的图像送入耦合对抗生成网络,第一个生成器G1使得输入的图像学习预融合图像Ipf的纹理细节,同时保持红外图像的热辐射信息,它的损失函数设置如下
Φ(G1)是第一个生成器的对抗生成网络损失:
DRa1(Ireal,Ifake)是表示第一个相对判别器的函数,Ireal是真实的数据,它的标签标记为a,Ifake则是趋于假的数据。
Lcontent1是第一个生成器的内容损失:
经过第一个生成器可以得到生成的图像,记为Ig1;
3)经过与第一个生成器并联的第二个生成器G2,输入的图像基于预融合图像学习可见光图像的梯度信息,它的损失函数如下:
它的对抗生成网络损失:
它的内容损失:
经过第二个生成器可以得到另一个生成的图像,记为Ig2;
4)两个生成的图像经过加权平均得到最后的融合图像
F=0.5×(Ig1+Ig2)
源图像以及最终的融合图像在图4中展示,生成的图像具有可见光图像的丰富纹理细节,并保持了红外图像的热辐射信息。
上述实施例只是本发明的较佳实施例,并不是对本发明技术方案的限制,只要是不经过创造性劳动即可在上述实施例的基础上实现的技术方案,均应视为落入本发明专利的权利保护范围内。
Claims (2)
1.基于耦合生成对抗网络的红外和可见光图像融合方法,其特征在于:包括以下步骤:
(1)分别读取红外图像和可见光图像,在颜色通道上连接后馈入并联耦合的生成器;
(2)第一个生成器尝试基于预融合图像生成具有红外图像结构信息的图像,其判别器计量所生成图像与可见光图像的相对偏移;
(3)第二个生成器专用于增强预融合图像上的可见光图像的梯度信息,其判别器专用于计量第二个生成图像相对于红外图像的偏移;
(4)对两个生成的图像进行平均以获得最终的融合图像。
2.根据权利要求1所述的基于耦合生成对抗网络的红外和可见光图像融合方法,其特征在于:
采用了耦合对抗生成网络,由耦合生成器和耦合判别器组成;将耦合生成对抗网络用于图像融合,可以充分利用红外图像和可见光图像中的表示信息;
所述步骤(2)中,第一个生成器G1基于预融合图像学习红外图像的热辐射信息,所以损失函数设置为
其中Φ(G1)和Lcontent1表示第一个生成器的生成对抗网络损失和内容损失,可以表示为
其中DRa1(Ireal,Ifake)是第一个相对判别器的函数,其中Ireal趋于真实的数据被标记为a;相应地,Ifake是数据趋于假,Ig1代表G1获得的第一个生成图像,Lcontent1表示第一个生成器的内容损失;α和β是控制内容和红外图像Iir的比例的两个因素;借助于该损失函数,第一个生成图像Ig1可以同时保持来自预融合图像Ipf的细节并且学习红外图像Iir的辐射信息;
采用了相对判别器而不是绝对判别器,是因为使用相对判别器的RCGAN的损失可以稳定地减少,有利于训练进度,此外,相对判别器有助于网络更快地收敛;
耦合相对判别器的作用是计算生成的图像如何相对接近另一图像;这样,通过反向传播,生成的图像可以同时包含相应的相反图像的信息;详细地,对于第一个生成器,红外图像用作损失函数的一部分以优化结果,因此在相应的第一个判别器中,我们计算第一个生成图像与可见光图像的接近程度,因此第一个相对判别器DRa1的损失函数被设置为
LRa1=DRa1(Ivis,Ig1)
所述步骤(3)中,基于预融合图像Ipf将可见光图像Ivis的梯度信息注入到第二个生成图像中,因此第二个生成器的损失函数被设置为
其中Φ(G2)和Lcontent2表示为
第二个相对判别器DRa2旨在计量第二个生成图像Ig2如何相对接近红外图像,因此其损失函数可以表示为
LRa2=DRa2(Iir,Ig2)
所述步骤(4)中,耦合的相对判别器允许单个生成的图像具有相反图像的信息;但是得到的图像仍然存在一定程度的偏差,因此对两个生成的图像进行平均以获得最终的融合结果F表示为
F=0.5×(Ig1+Ig2)
Ig1是第一个生成器生成的图像,Ig2是第二个生成器的生成图像,F即为最终的融合结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910861991.5A CN112488970A (zh) | 2019-09-12 | 2019-09-12 | 基于耦合生成对抗网络的红外和可见光图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910861991.5A CN112488970A (zh) | 2019-09-12 | 2019-09-12 | 基于耦合生成对抗网络的红外和可见光图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112488970A true CN112488970A (zh) | 2021-03-12 |
Family
ID=74920532
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910861991.5A Pending CN112488970A (zh) | 2019-09-12 | 2019-09-12 | 基于耦合生成对抗网络的红外和可见光图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112488970A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113222879A (zh) * | 2021-07-08 | 2021-08-06 | 中国工程物理研究院流体物理研究所 | 一种用于红外与可见光图像融合的生成对抗网络 |
CN113379661A (zh) * | 2021-06-15 | 2021-09-10 | 中国工程物理研究院流体物理研究所 | 红外与可见光图像融合的双分支卷积神经网络及融合方法 |
CN113781377A (zh) * | 2021-11-03 | 2021-12-10 | 南京理工大学 | 基于对抗性语义引导与感知的红外和可见光图像融合方法 |
CN116109539A (zh) * | 2023-03-21 | 2023-05-12 | 智洋创新科技股份有限公司 | 基于生成对抗网络的红外图像纹理信息增强方法和系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180227509A1 (en) * | 2015-08-05 | 2018-08-09 | Wuhan Guide Infrared Co., Ltd. | Visible light image and infrared image fusion processing system and fusion method |
CN109118467A (zh) * | 2018-08-31 | 2019-01-01 | 武汉大学 | 基于生成对抗网络的红外与可见光图像融合方法 |
CN109614996A (zh) * | 2018-11-28 | 2019-04-12 | 桂林电子科技大学 | 基于生成对抗网络的弱可见光与红外图像融合的识别方法 |
-
2019
- 2019-09-12 CN CN201910861991.5A patent/CN112488970A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180227509A1 (en) * | 2015-08-05 | 2018-08-09 | Wuhan Guide Infrared Co., Ltd. | Visible light image and infrared image fusion processing system and fusion method |
CN109118467A (zh) * | 2018-08-31 | 2019-01-01 | 武汉大学 | 基于生成对抗网络的红外与可见光图像融合方法 |
CN109614996A (zh) * | 2018-11-28 | 2019-04-12 | 桂林电子科技大学 | 基于生成对抗网络的弱可见光与红外图像融合的识别方法 |
Non-Patent Citations (1)
Title |
---|
QILEI LI 等: "Coupled GAN With Relativistic Discriminators for Infrared and Visible Images Fusion" * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113379661A (zh) * | 2021-06-15 | 2021-09-10 | 中国工程物理研究院流体物理研究所 | 红外与可见光图像融合的双分支卷积神经网络及融合方法 |
CN113379661B (zh) * | 2021-06-15 | 2023-03-07 | 中国工程物理研究院流体物理研究所 | 红外与可见光图像融合的双分支卷积神经网络装置 |
CN113222879A (zh) * | 2021-07-08 | 2021-08-06 | 中国工程物理研究院流体物理研究所 | 一种用于红外与可见光图像融合的生成对抗网络 |
CN113222879B (zh) * | 2021-07-08 | 2021-09-21 | 中国工程物理研究院流体物理研究所 | 一种用于红外与可见光图像融合的生成对抗网络 |
CN113781377A (zh) * | 2021-11-03 | 2021-12-10 | 南京理工大学 | 基于对抗性语义引导与感知的红外和可见光图像融合方法 |
CN116109539A (zh) * | 2023-03-21 | 2023-05-12 | 智洋创新科技股份有限公司 | 基于生成对抗网络的红外图像纹理信息增强方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112488970A (zh) | 基于耦合生成对抗网络的红外和可见光图像融合方法 | |
Ye et al. | Deep joint depth estimation and color correction from monocular underwater images based on unsupervised adaptation networks | |
Tian et al. | Depth estimation using a self-supervised network based on cross-layer feature fusion and the quadtree constraint | |
CN110246181B (zh) | 基于锚点的姿态估计模型训练方法、姿态估计方法和系统 | |
Zhao et al. | Unsupervised monocular depth estimation in highly complex environments | |
CN102859535A (zh) | 从预先计算的尺度空间产生Daisy描述符 | |
CN105651263A (zh) | 浅海水深多源遥感融合反演方法 | |
Li et al. | Bifnet: Bidirectional fusion network for road segmentation | |
Liao et al. | A deep ordinal distortion estimation approach for distortion rectification | |
Xie et al. | Semantics lead all: Towards unified image registration and fusion from a semantic perspective | |
CN107589093A (zh) | 一种基于回归分析的煤质在线检测分析方法 | |
Song et al. | Self-supervised depth completion from direct visual-lidar odometry in autonomous driving | |
Su et al. | EpNet: Power lines foreign object detection with Edge Proposal Network and data composition | |
CN110706253B (zh) | 基于表观特征和深度特征的目标跟踪方法、系统、装置 | |
Zhang et al. | DuGAN: An effective framework for underwater image enhancement | |
Yang et al. | Underwater self-supervised depth estimation | |
Lan et al. | An optimized GAN method based on the Que-Attn and contrastive learning for underwater image enhancement | |
Hu et al. | Multi-modal unsupervised domain adaptation for semantic image segmentation | |
Li et al. | Multiscale cross-modal homogeneity enhancement and confidence-aware fusion for multispectral pedestrian detection | |
Wofk et al. | Monocular Visual-Inertial Depth Estimation | |
Alzohairy et al. | Image mosaicing based on neural networks | |
CN106683064A (zh) | 一种基于二维耦合卷积的多聚焦图像融合方法 | |
Li et al. | Learning scribbles for dense depth: Weakly-supervised single underwater image depth estimation boosted by multi-task learning | |
Wang et al. | [Retracted] Generating 3D Virtual Human Animation Based on Facial Expression and Human Posture Captured by Dual Cameras | |
Shen et al. | Optical Prior‐Based Underwater Object Detection with Active Imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20210312 |