CN114648508A - 一种基于多维协同细化网络的多曝光图像融合方法 - Google Patents

一种基于多维协同细化网络的多曝光图像融合方法 Download PDF

Info

Publication number
CN114648508A
CN114648508A CN202210300386.2A CN202210300386A CN114648508A CN 114648508 A CN114648508 A CN 114648508A CN 202210300386 A CN202210300386 A CN 202210300386A CN 114648508 A CN114648508 A CN 114648508A
Authority
CN
China
Prior art keywords
image
attention
feature
collaborative
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210300386.2A
Other languages
English (en)
Inventor
周士华
李嘉伟
胡轶男
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian University
Original Assignee
Dalian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian University filed Critical Dalian University
Priority to CN202210300386.2A priority Critical patent/CN114648508A/zh
Publication of CN114648508A publication Critical patent/CN114648508A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

本发明公开了一种基于多维协同细化网络的多曝光图像融合方法,包括:构建协同提取模块CEM,以获取图像的浅层特征和深层特征;通过自注意力模块SAM得到注意特征图;利用边缘修正模块ERM对提取的图像特征边缘纹理进行修正;采用两种损失函数组合训练图像融合网络,所述图像融合网络包括协同提取模块CEM、自注意力模块SAM和边缘修正模块ERM。本申请为了提高融合图像的质量,避免出现伪影,设计了协同提取模块对图像特征进行提取和优化。在自注意力模块的配合下,多曝光融合图像的纹理、亮度和颜色更加突出;边缘修正模块对CEM和SAM起到了补充作用,它可以减小不同尺度下噪声对特征的影响,增强特征映射的纹理细节,保证融合结果的边缘效果。

Description

一种基于多维协同细化网络的多曝光图像融合方法
技术领域
本发明涉及图像融合技术领域,具体涉及一种基于多维协同细化网络的多曝光图像融合方法。
背景技术
在日常拍摄的场景中,如何通过修改曝光时间和光圈大小来获得一张具有良好曝光效果的照片是一件棘手的事情。这类照片被称作低动态范围(Low Dynamic Range,LDR)图像,通常他们的视觉表现力较差,核心内容显示不完整。具体来说,LDR图像会经常出现不均匀的曝光范围,特别是在过曝光和欠曝光的区域。因此,观察者们无法清晰地看到生动的细节和颜色。
研究人员试图开发多种硬件设备来获取HDR图像。然而,由于这些设备的成本过高,不能在日常生活中广泛使用。因此,多曝光图像融合(Multi-exposure Image Fusion,MEF)作为一种经济有效的解决方案,已成为生成HDR图像的主流方法。MEF的目标是将不同曝光度的LDR图像序列进行融合,提取这些序列的特征,并将其融合成生动的HDR图像。
在过去的几十年中,大量的MEF方法被提出并得到了很好的应用。这些方法大致分为基于传统框架的方法和基于深度学习框架的方法。在传统的融合方法中,空间域和变换域的特征变换是常用融合策略。然而,这些方法通常依赖于手工设计复杂的架构来完成融合过程,这降低了时间效率,增加了开发成本。为了克服传统方法的缺点,研究人员利用深度学习方法中的卷积神经网络(Convolutional Neural Network,CNN)去实现MEF任务。基于CNN的方法具有很好的非线性拟合能力和特征提取能力。然而,这种方法仍然存在一些局限性,如(1)通常采用简单的加法、乘法和加权平均等融合规则,因此融合结果在某些区域容易出现失真的情况。(2)在提取特征的过程中,可能会遗忘已经提取到的特征信息,导致融合图像的纹理细节不完整。(3)很少关注局部细节,融合结果可能会产生一些边缘伪影。
发明内容
本发明的目的在于,提供一种基于多维协同学习的端到端多曝光图像融合方法,其设计了三个不同的模块来协同提取特征并指导整个融合过程,融合后的图像显示了生动的纹理细节且有吸引力的视觉感知。
为实现上述目的,本申请提出一种基于多维协同细化网络的多曝光图像融合方法,包括:
构建协同提取模块CEM,以获取图像的浅层特征和深层特征;
通过自注意力模块SAM得到注意特征图;
利用边缘修正模块ERM对提取的图像特征边缘纹理进行修正;
采用两种损失函数组合训练图像融合网络,所述图像融合网络包括协同提取模块CEM、自注意力模块SAM和边缘修正模块ERM。
进一步的,所述协同提取模块CEM提取图像特征的过程用以下公式量化表示:
Figure BDA0003565422410000031
其中i表示曝光过度或过低的源图像,
Figure BDA0003565422410000032
表示经过3×3卷积层的特征映射;P(·)代表多维池化特征提取器,C(·)代表协调注意块CA生成的内容。
进一步的,在所述协同提取模块中,首先通过两个3×3和一个1×1的卷积层对输入图像进行浅层特征提取;在特征提取器上增加三个协调注意块CA,并将其连接起来,通过所述协调注意块CA引导特征学习;同时采取Maxpooling和Avgpooling操作对深度特征图进行压缩,然后将两个池化层生成的不同特征序列串联起来,并放大各特征细节,在重复一次相同的池化操作后,提取的深层特征经过3×3和1×1卷积层进行上采样;最后通过元素加法和连接操作,将浅层特征与深层特征结合起来。
进一步的,所述自注意力模块SAM通过前两个3×3卷积层得到原始注意特征Fo后,使用1×1卷积层分别在第一分支、第二分支得到对应的特征空间fa和fb;对所述特征空间fa和fb进行扁平化运算,并对特征空间fa做转置运算得到特征权重图Wa和Wb;通过引入矩阵乘法和softmax函数归一化运算来获取注意图A1,公式为:
Figure BDA0003565422410000033
其中k表示特征权重图中的像素总数;通过上述类似地方法,在第三分支上得到注意图A2
A2=softmax(A1×fc)
其中,fc为在第三分支上的特征空间。
进一步的,对原始注意特征Fo进行上采样操作,对所述注意图A1和注意图A2做矩阵乘法运算,得到最终的注意特征图,其量化为:
Figure BDA0003565422410000041
更进一步的,在每个1×1卷积层、3×3卷积层后面添加BN层,并使用LeakyReLU作为激活函数。
更进一步的,所述边缘修正模块ERM利用空间梯度滤波器FG对图像边缘纹理细节进行优化,其方式如下:
Figure BDA0003565422410000042
Figure BDA0003565422410000043
放入两个3×3卷积层中完成边缘的细化;其中M和N分别表示[1,m]和[1,n]的范围;i是特征图的水平像素,j是特征图的垂直像素;
Figure BDA0003565422410000045
表示大小为m×n的边缘梯度图E,用公式表示为:
Figure BDA0003565422410000044
其中,pl(t)、pb(t)分别是pt左侧和下方的像素。
更进一步的,采用两种损失函数组合训练图像融合网络,具体为:先设计出总损失函数,如下:
Ltotal=αLSSIM+βLMSE
其中,LMSE代表MSE损失函数,α和β是调整Ltotal值的两个超参数,LSSIM的获取公式为:
Figure BDA0003565422410000046
其中,IO和IU表示曝光过度和曝光不足的图像,IF表示融合结果;
SSIM的定义如下:
Figure BDA0003565422410000051
其中,μ和σ是平均值和标准差;参数C1、C2和C3能够保持损失函数数值上的稳定;
MSE损失函数是用于获取源图像与融合图像结果间的均方误差,其定义为:
Figure BDA0003565422410000052
其中,
Figure BDA0003565422410000053
CF、HF和WF分别是融合图像的通道、高度和宽度;p代表一幅图像中的像素数量。
更进一步的,所述图像融合网络生成RGB融合图像的具体过程为:将过曝光和低曝光源图像从RGB三通道转换为YcbCr三通道;分解后的Y通道代表源图像的亮度通道,用来融合真实信息;Cb和Cr通道代表输入图像的色度信息,下面公式能够赋予低饱和度颜色分量有更多的权重,赋予高饱和度色彩分量有更少的权重,其定义为:
Figure BDA0003565422410000054
其中,Cf是Cb和Cr上的加权和结果;Cbi和Cri分别是源图像中不同通道的色度值;τ作为一个超参数;最后,通过逆变换将融合后的YcbCr结果转换为RGB结果。
本发明采用的以上技术方案,与现有技术相比,具有的优点是:本申请为了提高融合图像的质量,避免出现伪影,设计了协同提取模块(Collaborative Extraction Module,CEM)对图像特征进行提取和优化。在自注意力模块(Self-attention Module,SAM)的配合下,多曝光融合图像的纹理、亮度和颜色更加突出;边缘修正模块(Edge Revision Module,ERM)对CEM和SAM起到了补充作用,它可以减小不同尺度下噪声对特征的影响,增强特征映射的纹理细节,保证融合结果的边缘效果。通过三个不同的模块来协同提取特征并指导整个融合过程,融合后的图像失真小、效果好,显示了生动的纹理细节且有吸引力的视觉感知。
附图说明
图1为本发明多曝光图像融合方法流程图;
图2为协同提取模块CEM结构示意图;
图3为自注意力模块SAM结构示意图;
图4为边缘修正模块ERM结构示意图;
图5为图像融合网络生成RGB融合图像的具体过程图;
图6为在SICE数据集上本发明和其他先进的融合方法间定性比较图;
图7为在SICE数据集上本发明和其他先进的融合方法间定量比较图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请,即所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。
实施例1
如图1所示,本发明提供一种基于多维协同细化网络的多曝光图像融合方法,具体包括:
步骤一:构建协同提取模块CEM,以获取图像的浅层特征和深层特征;
具体的,协同提取模块CEM如图2所示。构建了一个多维池化特征提取器,并由协调注意块(Coordinate Attention,CA)来引导特征学习。在CA块的指导下,CEM可以从源图像中获得最显著的特征图。LeakyReLU和Sigmoid被用作模块中的激活函数。CEM提取特征的过程可以用以下公式量化表示:
Figure BDA0003565422410000071
其中i表示曝光过度或过低的源图像,
Figure BDA0003565422410000072
表示经过3×3卷积层的特征映射;P(·)代表多维池化特征提取器,C(·)代表CA块生成的内容。
需要说明的是,在协同提取模块CEM中,首先通过两个3×3和一个1×1的卷积层对输入图像进行浅层特征提取。把CA块看作是一个计算单元,在特征提取器上同时增加三个这样的块,并将它们连接起来,以确保网络能够突出融合结果的理想细节。为了从不同曝光图像中准确提取复杂的表示图,同时采取Maxpooling和Avgpooling对深度特征图进行压缩。然后,将两个池化层生成的不同特征序列串联起来,并放大各种特征细节。在重复一次相同的池化层操作后,提取的特征经过3×3和1×1卷积层进行上采样操作。为了补偿上采样后提取特征的退化,本发明将浅层卷积与上采样后卷积层直接连接;最后通过元素加法和连接操作,将浅层特征与深层特征结合起来。
步骤二:通过自注意力模块SAM得到注意特征图;
具体的,在MEF中,由于拍摄场景的变化,过曝光和低曝光的图像无法显示完整的细节,在这种情况下,设计了自注意力机制进行特征恒提取与融合,通过绘制全局关系将融合结果与源图像中相同位置的小块关联起来,从而有效的解决了普通卷积层中核大小受限的问题。
本发明根据MEF的特点重新设计了自注意力模块SAM,其结构如图3所示。通过前两个3×3卷积层得到原始注意特征Fo后,使用1×1卷积分别在第一分支和第二分支得到对应的特征空间fa和fb。为了方便计算,对特征空间fa和fb进行了扁平化运算,并对特征空间fa做转置运算得到特征权重图Wa和Wb。引入矩阵乘法和softmax函数归一化运算来获取注意图A1,其公式为:
Figure BDA0003565422410000081
其中k表示特征权重图中的像素总数。类似地,A2可以在第三分支上通过上面相同的方法得到。最后,对原始注意特征Fo进行上采样操作,对A1和A2做矩阵乘法运算,得到最后的注意特征图,可以量化为:
Figure BDA0003565422410000082
此外,为了提高SAM的计算效率,引入了最大池化层。在所有卷积层后添加BN层,以防止训练时梯度爆炸或者消失,并使用LeakyReLU作为激活函数。
步骤三:利用边缘修正模块ERM对提取的图像特征边缘纹理进行修正;
具体的,在输出融合图像之前,将提取的特征放入边缘修正模块ERM中对边缘纹理进行修正,以保证融合结果的质量。如图4所示,在连接CEM和SAM的特征图后,本发明使用ERM来细化这些特征图的边缘细节。具体来说,利用空间梯度滤波器FG对边缘纹理细节进行优化,其方式如下:
Figure BDA0003565422410000091
其中M和N分别表示[1,m]和[1,n]的范围。i是特征图的水平像素,j是特征图的垂直像素。
Figure BDA0003565422410000092
表示大小为m×n的边缘梯度图E,可以用公式表示为:
Figure BDA0003565422410000093
其中,pl(t)、pb(t)是pt左侧和下方的像素;FG对图像中的边缘特征非常敏感,并帮助卷积层细化融合结果的边缘细节。最后,将
Figure BDA0003565422410000094
放入两个3×3卷积层中完成边缘的细化。
步骤四:采用两种损失函数组合训练图像融合网络,所述图像融合网络包括协同提取模块CEM、自注意力模块SAM和边缘修正模块ERM;
具体的,本发明设计了两种损失函数来组合训练提出的网络结构。总损失函数如下:
Ltotal=αLSSIM+βLMSE
其中,LMSE代表MSE损失函数,α和β是调整Ltotal值的两个超参数,可以都被设置为0.5。LSSIM的获取公式为:
Figure BDA0003565422410000101
其中,IO和IU表示曝光过度和曝光不足的图像,IF表示融合结果。ω1和ω2可以被设置为0.5,SSIM的定义如下:
Figure BDA0003565422410000102
其中,μ和σ是平均值和标准差。参数C1、C2和C3可以保持损失函数数值上的稳定。特别的,输入和输出的结构相似性可以通过SSIM进行测量,它对亮度、对比度失真和相关性损失非常敏感。
MSE损失函数是用于获取源图像与融合图像结果间的均方误差,其定义为:
Figure BDA0003565422410000103
其中,
Figure BDA0003565422410000104
CF、HF和WF分别是融合图像的通道、高度和宽度;p代表一幅图像中的像素数量。
所述图像融合网络生成RGB融合图像的具体过程为:如图5所示,RDB图像的融合关键是融合不同通道上的特定信息。将过曝光和低曝光源图像从RGB三通道转换为YcbCr三通道。分解后的Y通道代表源图像的亮度通道,通常可以反映出图像的内容细节和纹理。因此,在本发明中,Y通道被用来融合真实信息。换句话说,在Y通道上执行图像融合类似于在单通道上融合灰度图像。
Cb和Cr通道代表输入图像的色度信息。可以通过传统的加权和公式获得图像的色度,该公式可以赋予低饱和度颜色分量有更多的权重,而赋予高饱和度色彩分量有更少的权重,其定义为:
Figure BDA0003565422410000111
其中,Cf是Cb和Cr上的加权和结果。Cbi和Cri分别是源图像中不同通道的色度值。τ作为一个超参数,可以被设置为128。最后,通过逆变换将融合后的YcbCr结果转换为RGB结果。
本发明在SICE数据集上选取了测试图像序列与九种最先进的多曝光图像融合方法进行比较,在图6中分别展现了整体效果和局部特征细节。第一组图像序列中,DSIFT、DEM、MESPD和MEF-Net显示的天空有明显的局部暗影。此外,GBM和IFCNN在融合过程中出现过曝光的情况。U2Fusion和PMGI在色彩性能上仍有缺陷,虽然MEF-GAN的整体视觉效果是高质量的,但是细节存在模糊现象。相比之下,本发明提出的方法在细节和颜色上都能产生生动的融合结果。
除了主观定性分析外,本发明还用客观定量质变MEF-SSIM和PSNR来评估融合结果的性能。同时,还引入CC和MI来反映定量比较的全面性。本发明在100对数据集中抽取了29对测试图像序列进行计算,所有定量结果如图7所示。显然,本发明得到的结果在四个评价指标中达到了最高的水平。从折线图的分布可以看出,测试结果的大多数指标都高于其他方法。MEF-SSIM的值越高,表明本发明能够提供更好的视觉效果并与源图像相似。PSNR的数值代表了本发明可以融合出精确的纹理细节。此外,CC和MI的高水平表现代表了本发明可以实现更好的线性相关性和更多的信息传递。因此,本发明生成的融合图像失真更小,效果更好。
本发明提出的方法通过构建协同提取模块、自注意力模块和边缘修正模块来实现多曝光图像融合。每个模块都对融合结果的性能做出了突出的贡献,显示了生动的纹理细节和有吸引力的视觉感知。与其他九种最先进的方法在SICE数据集中进行比较;结果表明,本发明无论从定性还是定量上都优于其他方法。因此,本发明促进了多曝光图像融合的发展。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。

Claims (9)

1.一种基于多维协同细化网络的多曝光图像融合方法,其特征在于,包括:
构建协同提取模块CEM,以获取图像的浅层特征和深层特征;
通过自注意力模块SAM得到注意特征图;
利用边缘修正模块ERM对提取的图像特征边缘纹理进行修正;
采用两种损失函数组合训练图像融合网络,所述图像融合网络包括协同提取模块CEM、自注意力模块SAM和边缘修正模块ERM。
2.根据权利要求1所述一种基于多维协同细化网络的多曝光图像融合方法,其特征在于,所述协同提取模块CEM提取图像特征的过程用以下公式量化表示:
Figure FDA0003565422400000011
其中i表示曝光过度或过低的源图像,
Figure FDA0003565422400000012
表示经过3×3卷积层的特征映射;P(·)代表多维池化特征提取器,C(·)代表协调注意块CA生成的内容。
3.根据权利要求1或2所述一种基于多维协同细化网络的多曝光图像融合方法,其特征在于,在所述协同提取模块中,首先通过两个3×3和一个1×1的卷积层对输入图像进行浅层特征提取;在特征提取器上增加三个协调注意块CA,并将其连接起来,通过所述协调注意块CA引导特征学习;同时采取Maxpooling和Avgpooling操作对深度特征图进行压缩,然后将两个池化层生成的不同特征序列串联起来,并放大各特征细节,在重复一次相同的池化操作后,提取的深层特征经过3×3和1×1卷积层进行上采样;最后通过元素加法和连接操作,将浅层特征与深层特征结合起来。
4.根据权利要求1所述一种基于多维协同细化网络的多曝光图像融合方法,其特征在于,所述自注意力模块SAM通过前两个3×3卷积层得到原始注意特征Fo后,使用1×1卷积层分别在第一分支、第二分支得到对应的特征空间fa和fb;对所述特征空间fa和fb进行扁平化运算,并对特征空间fa做转置运算得到特征权重图Wa和Wb;通过引入矩阵乘法和softmax函数归一化运算来获取注意图A1,公式为:
Figure FDA0003565422400000021
其中k表示特征权重图中的像素总数;通过上述类似地方法,在第三分支上得到注意图A2
A2=softmax(A1×fc)
其中,fc为在第三分支上的特征空间。
5.根据权利要求4所述一种基于多维协同细化网络的多曝光图像融合方法,其特征在于,对原始注意特征Fo进行上采样操作,对所述注意图A1和注意图A2做矩阵乘法运算,得到最终的注意特征图,其量化为:
Figure FDA0003565422400000022
6.根据权利要求4所述一种基于多维协同细化网络的多曝光图像融合方法,其特征在于,在每个1×1卷积层、3×3卷积层后面添加BN层,并使用LeakyReLU作为激活函数。
7.根据权利要求1所述一种基于多维协同细化网络的多曝光图像融合方法,其特征在于,所述边缘修正模块ERM利用空间梯度滤波器FG对图像边缘纹理细节进行优化,其方式如下:
Figure FDA0003565422400000031
Figure FDA0003565422400000032
放入两个3×3卷积层中完成边缘的细化;其中M和N分别表示[1,m]和[1,n]的范围;i是特征图的水平像素,j是特征图的垂直像素;
Figure FDA0003565422400000033
表示大小为m×n的边缘梯度图E,用公式表示为:
Figure FDA0003565422400000034
其中,pl(t)、pb(t)分别是pt左侧和下方的像素。
8.根据权利要求1所述一种基于多维协同细化网络的多曝光图像融合方法,其特征在于,采用两种损失函数组合训练图像融合网络,具体为:先设计出总损失函数,如下:
Ltotal=αLSSIM+βLMSE
其中,LMSE代表MSE损失函数,α和β是调整Ltotal值的两个超参数,LSSIM的获取公式为:
Figure FDA0003565422400000035
其中,IO和IU表示曝光过度和曝光不足的图像,IF表示融合结果;
SSIM的定义如下:
Figure FDA0003565422400000036
其中,μ和σ是平均值和标准差;参数C1、C2和C3能够保持损失函数数值上的稳定;
MSE损失函数是用于获取源图像与融合图像结果间的均方误差,其定义为:
Figure FDA0003565422400000041
其中,
Figure FDA0003565422400000042
CF、HF和WF分别是融合图像的通道、高度和宽度;p代表一幅图像中的像素数量。
9.根据权利要求1所述一种基于多维协同细化网络的多曝光图像融合方法,其特征在于,所述图像融合网络生成RGB融合图像的具体过程为:将过曝光和低曝光源图像从RGB三通道转换为YcbCr三通道;分解后的Y通道代表源图像的亮度通道,用来融合真实信息;Cb和Cr通道代表输入图像的色度信息,下面公式能够赋予低饱和度颜色分量有更多的权重,赋予高饱和度色彩分量有更少的权重,其定义为:
Figure FDA0003565422400000043
其中,Cf是Cb和Cr上的加权和结果;Cbi和Cri分别是源图像中不同通道的色度值;τ作为一个超参数;最后,通过逆变换将融合后的YcbCr结果转换为RGB结果。
CN202210300386.2A 2022-03-25 2022-03-25 一种基于多维协同细化网络的多曝光图像融合方法 Pending CN114648508A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210300386.2A CN114648508A (zh) 2022-03-25 2022-03-25 一种基于多维协同细化网络的多曝光图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210300386.2A CN114648508A (zh) 2022-03-25 2022-03-25 一种基于多维协同细化网络的多曝光图像融合方法

Publications (1)

Publication Number Publication Date
CN114648508A true CN114648508A (zh) 2022-06-21

Family

ID=81995689

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210300386.2A Pending CN114648508A (zh) 2022-03-25 2022-03-25 一种基于多维协同细化网络的多曝光图像融合方法

Country Status (1)

Country Link
CN (1) CN114648508A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100043A (zh) * 2022-08-25 2022-09-23 天津大学 一种基于深度学习的hdr图像重建方法
CN115393227A (zh) * 2022-09-23 2022-11-25 南京大学 基于深度学习的微光全彩视频图像自适应增强方法及系统
CN116363031A (zh) * 2023-02-28 2023-06-30 锋睿领创(珠海)科技有限公司 基于多维光学信息融合的成像方法、装置、设备及介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115100043A (zh) * 2022-08-25 2022-09-23 天津大学 一种基于深度学习的hdr图像重建方法
CN115393227A (zh) * 2022-09-23 2022-11-25 南京大学 基于深度学习的微光全彩视频图像自适应增强方法及系统
CN116363031A (zh) * 2023-02-28 2023-06-30 锋睿领创(珠海)科技有限公司 基于多维光学信息融合的成像方法、装置、设备及介质
CN116363031B (zh) * 2023-02-28 2023-11-17 锋睿领创(珠海)科技有限公司 基于多维光学信息融合的成像方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
Ying et al. A bio-inspired multi-exposure fusion framework for low-light image enhancement
Liang et al. Cameranet: A two-stage framework for effective camera isp learning
CN114648508A (zh) 一种基于多维协同细化网络的多曝光图像融合方法
CN110046673B (zh) 基于多特征融合的无参考色调映射图像质量评价方法
CN107123089B (zh) 基于深度卷积网络的遥感图像超分辨重建方法及系统
CN112819737B (zh) 基于3d卷积的多尺度注意力深度卷积网络的遥感图像融合方法
CN112801904B (zh) 一种基于卷积神经网络的混合退化图像增强方法
CN106447632B (zh) 一种基于稀疏表示的raw图像去噪方法
CN111429433A (zh) 一种基于注意力生成对抗网络的多曝光图像融合方法
CN110335221B (zh) 一种基于无监督学习的多曝光图像融合方法
CN111986084A (zh) 一种基于多任务融合的多相机低光照图像质量增强方法
CN113284061B (zh) 一种基于梯度网络的水下图像增强方法
CN112508812A (zh) 图像色偏校正方法、模型训练方法、装置及设备
Zhang et al. Deep tone mapping network in HSV color space
Zhang et al. A real-time semi-supervised deep tone mapping network
CN115393227A (zh) 基于深度学习的微光全彩视频图像自适应增强方法及系统
CN109102457B (zh) 一种基于卷积神经网络的智能化变色系统及方法
CN113935917A (zh) 一种基于云图运算和多尺度生成对抗网络的光学遥感影像薄云去除方法
Panetta et al. Novel multi-color transfer algorithms and quality measure
CN115661012A (zh) 一种基于全局-局部聚合学习的多曝光图像融合系统
Siddiqui et al. Hierarchical color correction for camera cell phone images
CN111968039A (zh) 基于硅传感器相机的昼夜通用图像处理方法、装置及设备
CN115841523A (zh) 一种基于Raw域的双支路HDR视频重建算法
CN112016456B (zh) 基于自适应反向投影深度学习的视频超分辨率方法及系统
CN113706400A (zh) 图像矫正方法、装置、显微镜图像的矫正方法及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination