CN116051444A - 一种有效的红外与可见光图像自适应融合方法 - Google Patents
一种有效的红外与可见光图像自适应融合方法 Download PDFInfo
- Publication number
- CN116051444A CN116051444A CN202310134030.0A CN202310134030A CN116051444A CN 116051444 A CN116051444 A CN 116051444A CN 202310134030 A CN202310134030 A CN 202310134030A CN 116051444 A CN116051444 A CN 116051444A
- Authority
- CN
- China
- Prior art keywords
- image
- matrix
- fusion
- representing
- infrared
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20048—Transform domain processing
- G06T2207/20056—Discrete and fast Fourier transform, [DFT, FFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20192—Edge enhancement; Edge preservation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种有效的红外与可见光图像自适应融合方法,属于红外与可见光图像处理技术领域。利用正则化模型将源图像分解为近似层和细节层图像,在近似层图像中,利用的像素强度和平均值生成对比度显著图,构造权重矩阵,进行加权平均融合,得到近似层融合图像,在细节层图像中,采用窗口滑动的方式对图像进行分块处理,构造权重矩阵,对细节层图像进行加权平均融合,得到细节层融合图像,利用逆变换重构近似层融合图像和细节层融合图像,得到最后的融合图像。本发明提升红外与可见光图像的融合精度和效率,避免出现低对比度和边缘模糊现象,保留整体亮度和边缘梯度,更好地满足高级视觉任务的工程应用需求。
Description
技术领域
本发明涉及红外与可见光图像处理技术领域,具体涉及一种有效的红外与可见光图像自适应融合方法。
背景技术
由于传感器带宽的限制,单类型传感器只能捕获到场景的单方面信息,而不同类型传感器获得的信息具有一定的互补性和冗余性,多传感器图像融合技术能够将多幅不同类型图像合并成一幅去除冗余、保留互补信息的图像,该技术已广泛应用于数字摄影、物体检测、跟踪、遥感、农业、医学、生物识别等领域。
红外与可见光图像融合是多传感器图像融合领域的一个研究热点,红外传感器捕捉物体的温度特性,能够不受天气和光照条件的影响而连续工作,红外图像具有突出目标和对比度高等特点,但其空间分辨率和温度分辨率低,容易产生噪声和粗糙纹理;可见光传感器捕捉场景的表面反射信息,图像具有分辨率高、噪声低和纹理信息细致丰富等特点,但可见光图像易受环境因素的影响,例如恶劣的天气条件、低照度和遮挡等,所以应用红外与可见光图像融合技术可以获得互补的场景信息,扩大装备的时间和空间条件。
现有的红外与可见光图像融合方法主要包括传统融合方法和基于深度学习融合方法,应用最广泛的传统融合方法主要有基于多尺度变换和基于稀疏表示两类,基于多尺度变换融合方法包括图像分解、系数合并和图像重构三部分,首先利用相关滤波器提取图像的多尺度频域系数,然后利用融合规则对系数进行合并,最后通过逆变换重构得到融合图像,该类方法中空频域之间的转换增加了算法的复杂度和降低了图像表示的准确性,造成融合图像边缘模糊和细节丢失等问题,当针对不同类型图像时,很难选择一个合适的变换方法和变换尺度;基于稀疏表示的融合方法主要包括图像分块、字典学习和图像重构三部分。首先将待融合图像滑动分块形成新的像素矩阵,采用字典学习算法得到过完备字典,在稀疏表示模型下,利用交替方向乘子法求出图像的稀疏系数矩阵,然后利用预先设计的融合规则合并系数,最后使用过完备字典和融合系数矩阵重构出融合图像,该类方法对图像的失配情形过于敏感和细节保留能力较差,融合图像容易出现伪影和整体亮度偏低现象;基于深度学习的融合算法主要包括特征提取、特征融合和图像重建三部分,首先利用预训练的卷积神经网络/编码器提取待融合图像的特征,然后根据设计的融合规则对特征系数进行合并,最后利用预训练的反卷积神经网络/解码器重建图像,得到最后的融合图像。由于卷积神经网络/编码器能够深度提取图像的多维特征,具有强大的表达能力,在融合性能方面,基于深度学习的融合方法要优于传统融合方法,但深度学习网络结构复杂,需要大量的数据集训练参数,这在实际应用中很难得到,且一种网络只能解决一类图像融合任务,不利于建立统一的融合框架。因此本领域迫切需要一种能克服上述缺陷的红外与可见光图像融合方法。
发明内容
本发明提供一种有效的红外与可见光图像自适应融合方法,针对现有红外与可见光图像融合方法不足的问题,解决现有融合技术中基于多尺度变换的融合方法中容易图像边缘模糊和细节丢失的问题,基于稀疏表示的融合方法中容易出现伪影和整体亮度偏低的问题,基于深度学习的融合方法存在网络结构复杂和融合框架通用性差的问题,提供一种能够避免出现目标边缘模糊和细节丢失现象,同时具有结构简单和执行效率高的红外与可见光图像自适应融合方法。
本发明采取的技术方案是,一种有效的红外与可见光图像自适应融合方法,包括下列步骤:
步骤D:在细节层图像中,采用窗口滑动方式进行分块处理,图像块大小为5×5,滑动步长为1,计算图像块的水平边缘强度与垂直边缘强度和,生成边缘强度显著图构造权重矩阵然后对细节层图像进行加权平均融合,得到细节层融合图像
本发明所述步骤A包括:
对红外与可见光源图像进行归一化预处理,归一化计算公式为:
式中,X∈{R,V}为红外与可见光图像索引,R为红外图像索引,V为可见光图像索引,表示归一化处理后的红外图像和可见光图像,称为归一化源图像,SXmin表示源图像SX中像素的最小值,SXmax表示源图像SX中像素的最大值。
本发明所述步骤B包括:
Tikhonov正则化模型为:
模型由两项组成:第一项为保真项,要求源图像和近似层图像差值不要过大;第二项为Tikhonov正则项,对近似层图像本身的性质做出限制,希望近似层图像各个部分的变化不要过于剧烈,即水平和垂直方向上差分的平方和不要过大,使近似层图像有比较好的光滑性,正则化参数λ用于平衡近似层图像的灰度变化与高频分量的损失;
本发明所述步骤C包括:
近似层图像的权重矩阵可由下式获得:
近似层融合图像可由下式获得:
本发明所述步骤D包括:
在细节图像中,采用窗口滑动方式进行分块处理,图像块大小为5×5,滑动步长为1,计算图像块水平和垂直方向上的协方差无偏估计值,设中心点为(m,n)的第r个图像块,将其行视为观察值,列视为随机向量,则图像块矩阵可以表示成:
类似,将上述中心点为(m,n)的第r个图像块的列视为观察值,行视为随机向量,图像块矩阵可以表示成 表示列为观察值,行为随机向量的第r个图像块矩阵,表示图像块矩阵中第k个行向量,k∈{1,2,3,4,5}为图像块矩阵中行向量索引,垂直方向协方差矩阵可由下式得到:
细节层融合图像可由下式得到:
本发明所述步骤E包括:
本发明提供了一种有效的红外与可见光图像自适应融合方法,其核心思想为,首先其利用Tikhonov正则化模型将源图像分解为近似层图像和细节层图像,在近似层图像中,利用像素强度与平均值的差值生成对比度显著图,构造权重矩阵进行加权平均,得到近似层融合图像;在细节层图像中,采用图像块协方差矩阵的特征值生成边缘强度显著图,构造权重矩阵进行加权平均,得到细节层融合图像,利用逆变换重构近似层融合图像和细节层融合图像,得到最后的融合图像。该方法的图像分解方法和融合规则简单易执行,计算效率高,自适应性强,能够对红外与可见光图像进行有效融合,提升图像融合精度,有利于建立统一的融合框架,增强红外与可见光图像融合的实用性。
本发明的有益效果:
(1)利用Tikhonov正则化模型将源图像分解为近似层图像和细节层图像,近似层图像集中了图像的主要能量和灰度分布信息,细节层图像中保留了边缘、轮廓等梯度信息,实现了图像显著特征的分离,降低图像变换的复杂度和信息损失,便于提升红外与可见光图像融合精度和效率。
(2)利用对比度显著图构造权重矩阵对近似层图像进行加权平均融合,采用图像块协方差矩阵的特征值生成边缘强度显著图,构造出权重矩阵对细节层图像进行加权平均融合,能够有效保留图像的对比度、边缘结构信息和突出目标的显著性,有利于提高执行效率,便于工程应用。
附图说明
图1是本发明实施例的测试红外与可见光图像,其中图1(a)为红外图像,图1(b)为可见光图像;
图2是本发明实施例的对比方法和本发明方法对图1所示的红外与可见光图像的融合结果,其中图2(a)为对比方法一的融合结果图像;图2(b)为对比方法二的融合结果图像;图2(c)为对比方法三的融合结果图像;图2(d)为本发明方法的融合结果图像;
图3是本发明实施例的一种有效的红外与可见光图像自适应融合方法的流程图;
图4是本发明实施例的一种有效的红外与可见光图像自适应融合方法的整体框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
图3和图4分别为本发明实施例的一种有效的红外与可见光图像自适应融合方法的流程图和总体框图,参照图3和图4,该方法包括:
步骤D:在细节层图像中,采用窗口滑动方式进行分块处理,图像块大小为5×5,滑动步长为1,计算图像块的水平边缘强度与垂直边缘强度和,生成边缘强度显著图构造权重矩阵然后对细节层图像进行加权平均融合,得到细节层融合图像
本发明所述步骤A包括:
对红外与可见光源图像进行归一化预处理,归一化计算公式为
式中,X∈{R,V}为红外与可见光图像索引,R为红外图像索引,V为可见光图像索引,表示归一化处理后的红外图像和可见光图像,称为归一化源图像,SXmin表示源图像SX中像素的最小值,SXmax表示源图像SX中像素的最大值。
本发明所述步骤B包括:
Tikhonov正则化模型为:
模型由两项组成:第一项为保真项,要求源图像和近似层图像差值不要过大;第二项为Tikhonov正则项,对近似层图像本身的性质做出限制,希望近似层图像各个部分的变化不要过于剧烈,即水平和垂直方向上差分的平方和不要过大,使近似层图像有比较好的光滑性,正则化参数λ用于平衡近似层图像的灰度变化与高频分量的损失;
本发明所述步骤C包括:
近似层图像的权重矩阵可由下式获得:
近似层融合图像可由下式获得:
本发明所述步骤D包括:
在细节图像中,采用窗口滑动方式进行分块处理,图像块大小为5×5,滑动步长为1,计算图像块水平和垂直方向上的协方差无偏估计值,设中心点为(m,n)的第r个图像块,将其行视为观察值,列视为随机向量,则图像块矩阵可以表示成: 表示行为观察值,列为随机向量的第r个图像块矩阵,r为图像块矩阵索引,表示图像块矩阵中第i个列向量,i∈{1,2,3,4,5}为图像块矩阵中列向量索引,水平方向协方差矩阵可由下式得到:
类似,将上述中心点为(m,n)的第r个图像块的列视为观察值,行视为随机向量,图像块矩阵可以表示成 表示列为观察值,行为随机向量的第r个图像块矩阵,表示图像块矩阵中第k个行向量,k∈{1,2,3,4,5}为图像块矩阵中行向量索引,垂直方向协方差矩阵可由下式得到:
细节层融合图像可由下式得到:
本发明所述步骤E包括:
以下进一步说明本发明的应用实例:为了验证本发明提出的红外与可见光图像融合方法的有效性,在多个真实测试数据集上对本发明方案进行了测试。这里选取一组图1(a)所示的红外图像和图1(b)所示的可见光图像进行融合实验,图像大小为620×450。另外,将本发明方法与现有的典型基于多尺度分解融合方法、基于稀疏表示融合方法和基于深度学习融合方法进行对比实验测试,相应的测试结果如图2(a)(b)(c)(d)所示。
对比方法一为基于多尺度分解融合方法(Zhou Z,Bo W,Sun L,et al.Perceptualfusion of infrared and visible images through a hybrid multi-scaledecomposition with Gaussian and bilateral filters[J].Information Fusion,2016,30:15-26),利用高斯滤波器和双边滤波器将源图像分解为小尺度层图像、大尺度层图像和基层图像,小尺度层图像采用系数绝对值取大融合规则,大尺度层图像和基层图像采用不同的加权平均融合规则,然后利用逆变换重构各层融合图像,得到最终融合图像。
对比方法二为基于稀疏表示融合方法(Yu Liu,Zengfu Wang.Simultaneousimage fusion and denoising with adaptive sparse representation[J].IET ImageProcessing,2015,9(5):347-357.),利用预先根据梯度信息进行分类的图像块进行学习,得到一组紧凑的子字典,然后自适用地选择子字典建立稀疏表示模型,采用选择性融合规则对稀疏系数进行合并,最后利用子字典和融合系数重构得到最终的融合图像。
对比方法三为基于深度学习融合方法(Hao Zhang,Jiayi Ma.SDNet:A VersatileSqueeze-and-Decomposition Network for Real-Time Image Fusion[J].InternationalJournal of Computer Vision,2021,129(10):2761-2785.),利用不同尺寸的卷积核构造挤压网络和分解网络,将融合问题转化为梯度和强度信息的提取和重构,损失函数包括由强度项和梯度项组成的挤压融合损失函数和融合图像的分解一致性损失函数。
图2(a)(b)(c)(d)分别为对比方法一、对比方法二、对比方法三和本发明方法对图1(a)(b)所表示的红外与可见光图像的融合结果;在图2所示的融合结果中,对比方法一的融合图像中部分目标边缘出现模糊现象,如树的周围,部分区域亮度过高,视觉感受较差,如房屋和地面部分;对比方法二的融合图像中亮度较低,能量丢失较严重,可见光图像信息融入过多,目标不突出;对比方法三的融合图像中几乎没有融入可见光图像信息,导致背景信息缺失,不利于视觉观察;本发明方法的融合图像中结构和亮度信息保留较好,图像整体较清晰,很好地保留了红外与可见光图像的目标信息和背景信息。
为了更好地评价融合方法的性能,除了上述主观评价外,对不同融合方法的融合结果采用客观评价指标进行客观分析。本发明中所用的客观评价指标包括信息熵EN、互信息MI、差分相关系数和SCD、结构信息相似度SSIM和边缘信息传递量QAB/F,上述评价指标值越大表明融合方法的性能越好,反之越差。客观评价指标数据如表1所示,
表1是图2所示的红外与可见光图像融合结果的客观评价指标数据
从表1中的客观评价数据可以看出,本发明融合方法得到结果图像在各客观指标评价方面均优于对比方法一、对比方法二和对比方法三,与上述主观评价结果一致,这说明本发明方法能够稳定地得到高质量的融合结果。
至此,已经结合附图对本发明实施例进行了详细描述。依据以上描述,本领域技术人员应当对本发明的一种有效的红外与可见光图像自适应融合方法有了清楚的认识。本发明的一种有效的红外与可见光图像自适应融合方法,其利用Tikhonov正则化模型将源图像分解为近似层图像和细节层图像,在近似层图像中,利用像素强度和平均值生成对比度显著图,构建权重矩阵,对近似层图像进行加权平均,得到近似层融合图像;在细节层图像中,采用图像块的水平与垂直边缘强度和生成边缘强度显著图,构建权重矩阵,对细节层图像进行加权平均,得到细节层融合图像,利用逆变换重构近似层融合图像和细节层融合图像,得到最后的融合图像。该融合方法简单易执行,无需考虑源图像的分解尺度、稀疏表示模型、训练数据集和学习网络模型,能够根据源图像的特征自适应地构造近似层和细节层图像的权重矩阵,有效地提升图像融合精度和效率,便于满足高级视觉任务的工程应用需求。
Claims (6)
1.一种有效的红外与可见光图像自适应融合方法,其特征在于,包括下列步骤:
步骤D:在细节层图像中,采用窗口滑动方式进行分块处理,图像块大小为5×5,滑动步长为1,计算图像块的水平边缘强度与垂直边缘强度和,生成边缘强度显著图构造权重矩阵然后对细节层图像进行加权平均融合,得到细节层融合图像
3.根据权利要求1所述的一种有效的红外与可见光图像自适应融合方法,其特征在于,所述步骤B包括:
Tikhonov正则化模型为:
模型由两项组成:第一项为保真项,要求源图像和近似层图像差值不要过大;第二项为Tikhonov正则项,对近似层图像本身的性质做出限制,希望近似层图像各个部分的变化不要过于剧烈,即水平和垂直方向上差分的平方和不要过大,使近似层图像有比较好的光滑性,正则化参数λ用于平衡近似层图像的灰度变化与高频分量的损失;
4.根据权利要求1所述的一种有效的红外与可见光图像自适应融合方法,其特征在于,所述步骤C包括:
近似层图像的权重矩阵可由下式获得:
近似层融合图像可由下式获得:
5.根据权利要求1所述的一种有效的红外与可见光图像自适应融合方法,其特征在于,所述步骤D包括:
在细节图像中,采用窗口滑动方式进行分块处理,图像块大小为5×5,滑动步长为1,计算图像块水平和垂直方向上的协方差无偏估计值,设中心点为(m,n)的第r个图像块,将其行视为观察值,列视为随机向量,则图像块矩阵可以表示成:
类似,将上述中心点为(m,n)的第r个图像块的列视为观察值,行视为随机向量,图像块矩阵可以表示成 表示列为观察值,行为随机向量的第r个图像块矩阵,表示图像块矩阵中第k个行向量,k∈{1,2,3,4,5}为图像块矩阵中行向量索引,垂直方向协方差矩阵可由下式得到:
细节层融合图像可由下式得到:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310134030.0A CN116051444A (zh) | 2023-02-20 | 2023-02-20 | 一种有效的红外与可见光图像自适应融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310134030.0A CN116051444A (zh) | 2023-02-20 | 2023-02-20 | 一种有效的红外与可见光图像自适应融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116051444A true CN116051444A (zh) | 2023-05-02 |
Family
ID=86125525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310134030.0A Pending CN116051444A (zh) | 2023-02-20 | 2023-02-20 | 一种有效的红外与可见光图像自适应融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116051444A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117237779A (zh) * | 2023-11-15 | 2023-12-15 | 江西联创特种微电子有限公司 | 可见光图像和红外图像结合分析的图像识别方法及系统 |
-
2023
- 2023-02-20 CN CN202310134030.0A patent/CN116051444A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117237779A (zh) * | 2023-11-15 | 2023-12-15 | 江西联创特种微电子有限公司 | 可见光图像和红外图像结合分析的图像识别方法及系统 |
CN117237779B (zh) * | 2023-11-15 | 2024-02-09 | 江西联创特种微电子有限公司 | 可见光图像和红外图像结合分析的图像识别方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112233026A (zh) | 一种基于多尺度残差注意力网络的sar图像去噪方法 | |
CN111709902A (zh) | 基于自注意力机制的红外和可见光图像融合方法 | |
CN110097617B (zh) | 基于卷积神经网络与显著性权重的图像融合方法 | |
CN113837974B (zh) | 一种基于改进beeps滤波算法的nsst域电力设备红外图像增强方法 | |
Gao et al. | Improving the performance of infrared and visible image fusion based on latent low-rank representation nested with rolling guided image filtering | |
CN112669249A (zh) | 结合改进nsct变换和深度学习的红外与可见光图像融合方法 | |
Pu et al. | Removing rain based on a cycle generative adversarial network | |
Li et al. | Infrared-visible image fusion method based on sparse and prior joint saliency detection and LatLRR-FPDE | |
Pan et al. | DenseNetFuse: A study of deep unsupervised DenseNet to infrared and visual image fusion | |
CN116051444A (zh) | 一种有效的红外与可见光图像自适应融合方法 | |
CN109064402A (zh) | 基于增强非局部总变分模型先验的单幅图像超分辨率重建方法 | |
CN110135435B (zh) | 一种基于广度学习系统的显著性检测方法及装置 | |
Guo et al. | Multifeature extracting CNN with concatenation for image denoising | |
CN113421198B (zh) | 一种基于子空间的非局部低秩张量分解的高光谱图像去噪方法 | |
Wang et al. | A new method of denoising crop image based on improved SVD in wavelet domain | |
CN109285148B (zh) | 基于重加权低秩和增强稀疏的红外弱小目标检测方法 | |
CN111461999A (zh) | 一种基于超像素相似性测量的sar图像相干斑抑制方法 | |
Zhang et al. | A generative adversarial network with dual discriminators for infrared and visible image fusion based on saliency detection | |
Yang et al. | Detail-aware near infrared and visible fusion with multi-order hyper-Laplacian priors | |
Yufeng et al. | Research on SAR image change detection algorithm based on hybrid genetic FCM and image registration | |
Luo et al. | Infrared and visible image fusion based on VPDE model and VGG network | |
CN116310452A (zh) | 一种多视图聚类方法及系统 | |
Cheng et al. | Infrared image denoising based on convolutional neural network | |
Zhang et al. | Multisensor Infrared and Visible Image Fusion via Double Joint Edge Preservation Filter and Nonglobally Saliency Gradient Operator | |
Liu et al. | SI-SA GAN: A generative adversarial network combined with spatial information and self-attention for removing thin cloud in optical remote sensing images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |