CN116797491A - 基于任务解耦的暗光模糊图像增强方法 - Google Patents

基于任务解耦的暗光模糊图像增强方法 Download PDF

Info

Publication number
CN116797491A
CN116797491A CN202310853029.3A CN202310853029A CN116797491A CN 116797491 A CN116797491 A CN 116797491A CN 202310853029 A CN202310853029 A CN 202310853029A CN 116797491 A CN116797491 A CN 116797491A
Authority
CN
China
Prior art keywords
convolution
network
size
conv
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310853029.3A
Other languages
English (en)
Other versions
CN116797491B (zh
Inventor
牛玉贞
李悦洲
许瑞
林晓锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202310853029.3A priority Critical patent/CN116797491B/zh
Publication of CN116797491A publication Critical patent/CN116797491A/zh
Application granted granted Critical
Publication of CN116797491B publication Critical patent/CN116797491B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Processing (AREA)

Abstract

本发明涉及基于任务解耦的暗光模糊图像增强方法。包括以下步骤:步骤S1、构建用于训练的数据集,对暗光模糊图像的每幅图像进行预处理,得到训练数据集;步骤S2、设计任务解耦的暗光模糊图像增强网络,该网络由颜色变换分支、融合增强分支和高频信息重建分支组成;步骤S3、设计用于训练步骤S2所设计网络的损失函数;步骤S4、使用训练数据集训练基于任务解耦的暗光模糊图像增强网络;步骤S5、将待测暗光模糊图像输入到所设计的网络中,利用训练好的网络预测生成具有更好视觉感知的最终结果。

Description

基于任务解耦的暗光模糊图像增强方法
技术领域
本发明涉及图像处理以及计算机视觉技术领域,特别是基于任务解耦的暗光模糊图像增强方法。
背景技术
近些年来,科学技术的进步和发展显著推动了社会与人民生活的改善。随着图像采集设备体积的微小化和采集能力的高效化,图像和图像系统与人们的日常生活以及生产发展息息相关。基于图像的处理系统在生活场景中有着广泛用途,图像系统可方便使用者直观的进行记录和实时观察,具有很高的便捷性。但受限于采集设备所处环境和使用状态,所获得的图像欠缺理想的可观察性,这体现在图像的运动模糊、照度不佳等现象。尤其是在光照条件较差时,照度不佳的情况很常见,此时所拍摄的图像往往存在多个暗色区域,同时物体运动和相机抖动可能会造成图像模糊,这对于人眼阅读或机器视觉处理都带来困难。因此,设计暗光模糊图像的增强方法具备重要的理论和应用意义。
暗光图像可由于曝光不足或环境条件因素产生,暗光图像中通常包含可视度较差的区域;模糊图像可由于图像拍摄时物体或摄影器材发生运动产生,是图像采集中常见的问题。暗光图像和模糊图像均会造成人眼的感知困难,同时也使得这些图像难以被应用于计算机的高级视觉任务中。暗光模糊图像中的物体和场景信息被极大掩盖,具体来说,暗光模糊图像中的像素分布差异较小,像素值趋近于0,颜色和纹理信息难以察觉。同时模糊因素也会对纹理结构和轮廓造成极大破坏,特别是对于细节信息的影响很严重。
对于暗光模糊图像中单一问题的解决已有部分研究,例如研究暗光图像增强,或者是图像去模糊问题,单一问题的场景中颜色与细节轮廓的丢失局限于某个特性,例如暗光图像若不存在模糊问题,则仅需要对于像素值进行相应改变,无需修复图像的结构和细节信息;同理,若模糊图像不存在暗光问题,则仅需要对于纹理和细节进行增强和复原,这个过程中图像整体色调、亮度等均不会发生大的改变。但是当暗光与模糊问题同时发生,尚需要有效的方法同时解决这些问题。
发明内容
有鉴于此,本发明的目的在于提供一种基于任务解耦的暗光模糊图像增强方法,能提升暗光模糊图像的感知和可视度。
为实现上述目的,本发明采用如下技术方案:基于任务解耦的暗光模糊图像增强方法,包括以下步骤:
步骤S1、构建用于训练的数据集,对暗光模糊图像的每幅图像进行预处理,得到训练数据集;
步骤S2、设计任务解耦的暗光模糊图像增强网络,该任务解耦的暗光模糊图像增强网络由颜色变换分支、融合增强分支和高频信息重建分支组成;
步骤S3、设计用于训练步骤S2所设计网络的损失函数;
步骤S4、使用训练数据集训练基于任务解耦的暗光模糊图像增强网络;
步骤S5、将待测暗光模糊图像输入到所设计的网络中,利用训练好的网络预测生成具有更好视觉感知的最终结果。
在一较佳的实施例中,所述步骤S1包括以下步骤:
步骤S11、将数据集中的每张图像缩放为尺寸为H×W的大小相同的图像;
步骤S12、将训练图像进行归一化处理;给定图像Itrain,计算归一化后的图像的公式如下:
其中,Itrain是具有8位色彩深度的H×W大小的图像,Ibit_max是H×W大小且像素值均为255的图像。
在一较佳的实施例中,所述步骤S2包括以下步骤:
步骤S21、设计颜色变换分支,颜色变换分支由颜色变换预处理网络、颜色变换主干网络、和颜色变换头部网络组成;颜色变换分支接受归一化的大小为H×W的暗光模糊图像X作为输入,最终输出大小为的颜色变换结果/>
步骤S22、设计融合增强分支,融合增强分支由融合增强预处理网络、融合增强主干网络、和融合增强头部网络组成;融合增强分支的输入为:归一化的大小为H×W的暗光模糊图像X,颜色变换分支的输出特征,和高频信息重建分支的输出特征,最终输出大小为H×W的融合增强结果
步骤S23、设计高频信息重建分支,高频信息重建分支由高频信息重建预处理网络、高频信息重建主干网络、和高频信息重建头部网络组成;高频信息重建分支接受归一化的大小为H×W的暗光模糊图像X作为输入,最终输出大小为H×W的高频信息重建结果
在一较佳的实施例中,所述步骤S21具体包括以下步骤:
步骤S211、设计颜色变换预处理网络,颜色变换预处理网络包含1个PixelUnShuffle层和1个卷积层;其中PixelUnShuffle层对的暗光模糊图像X进行像素重组,将输入的暗光模糊图像X的大小变换为通道数量即变换为原通道数的16倍,卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;颜色变换预处理网络的输出记为F0 col
步骤S212、设计颜色变换主干网络,颜色变换主干网络包含若干个结构相同的颜色变换模块,以第i个模块为例,i≥1,对于输入颜色变换模块的特征Fi-1 col,首先由特征蒸馏与通道调制单元FDCMU预测颜色变换的权重,输出的结果记为Ki,类似地,颜色变换的偏置也由FDCMU得到,记为bi;同时基于Fi-1 col预测通道映射,Fi-1 col以此经过FDCMU、全局平均池化GAP运算和多层感知机MLP,最终得到与Fi-1 col通道维数相同的向量记为gi;颜色变换模块的输出Fi col由如下变换得到:
Fi col=(Fi-1 col*Ki+bi)exp(gi).
其中*为矩阵的元素乘法,+为矩阵的元素加法,exp(·)为带有广播机制的指数运算;
步骤S213、设计特征蒸馏与通道调制单元FDCMU;对于给定输入特征fD,由FDCMU得到输出特征fD out的过程描述为:
fD 1a=PReLU(Conv1×1(DWConv5×5(fD))).
fD 1b=DWConv3×3(Conv1×1(fD)).
fD 2=PReLU(Conv3×3(PReLU(fD 1b))).
fD 2b=PReLU(Conv1×1(fD 1b)).
fD 3=Conv1×1(Concatenate(fD 1a,fD 1b,fD 2,fD 2b)).
fD out=Conv1×1(fD 3⊙wc⊕bc).
其中,Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积,DWConv3×3是卷积核大小为3×3、步长为1、填充为1的通道可分离卷积,DWConv5×5为是卷积核大小为5×5、步长为1、填充为2的通道可分离卷积,PReLU(·)是激活函数;Concatenate(·)是沿通道的特征拼接;wc与bc是可学习的参数向量,⊙与⊕是带有广播机制的元素乘法与元素加法;
步骤S214、设计颜色变换头部网络;颜色变换头部网络接受来自颜色变换主干网络的输出作为其输入,并最终输出大小为的颜色变换结果/>颜色变换头部网络由卷积层、ReLU激活函数和卷积层依次堆叠而成,其中卷积层是卷积核大小为3×3、步长为1、填充为1的卷积。
在一较佳的实施例中,所述步骤S22包括以下步骤:
步骤S221、设计融合增强预处理网络,融合增强预处理网络由1个卷积层组成,卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;输出特征记为F0 fuse
步骤S222、设计融合增强主干网络,融合增强主干网络包含若干个结构相同的融合增强模块,以第i个模块为例,i≥1,融合增强模块接受的输入为:来自上一个融合增强模块的特征Fi-1 fuse,当i=1时,该输入为融合增强预处理网络的输出、来自颜色变换模块的特征Fi col、来自高频信息重建模块的特征Fi high;首先,来自颜色变换模块的特征Fi col经过通道扩充与上采样模块CEUM变换输出特征Fi col';而后,特征Fi-1 fuse由多尺度特征融合单元MFFU提取并且融合多尺度特征,而后与特征Fi high和Fi col'分别逐元素相加,经过两个卷积层处理后得到Fi fuse;卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;
步骤S223、设计通道扩充与上采样模块CEUM;对于给定输入特征fE,由CEUM得到输出特征fE out的过程描述为:
fE 1=Conv1×1(fE).
fE 2a=FDCMU(fE 1).
fE 2b=FDCMU(fE 1).
fE 3=Conv3×3(Conv1×1(Concatenate(fE 2a,fE 2b))).
fE out=Conv1×1(Conv3×3(PixelShuffle(fE 3))).
其中Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积,FDCMU是步骤S213所述特征蒸馏与通道调制单元;Concatenate(·)是沿通道的特征拼接;PixelShuffle(·)为PixelShuffle层,其功能是通过像素重排将输入的大小为的特征变换为H×W,通道数量即变换为原通道数的1/16倍;
步骤S224、设计多尺度特征融合单元MFFU;对于给定输入特征fM,由CEUM得到输出特征fM out的过程描述为:
fM 1=Conv3×3(fM).
fM 2=ResBlocks(fM 1).
fM 2a=Up×2(ResBlocks(Down×2(fM 1))).
fM 2b=Up×4(ResBlocks(Down×4(fM 1))).
fM out=Conv3×3(Conv1×1(Concatenate(fM 1,fM 2,fM 2a,fM 2b))).
其中Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积;Down×4(·)是由双线性插值方法进行的空间4倍下采样,Up×4(·)是由双线性插值方法进行的空间4倍上采样;Down×2(·)是由双线性插值方法进行的空间2倍下采样,Up×2(·)是由双线性插值方法进行的空间2倍上采样;ResBlocks是由若干残差块(ResBlock)构成,在本实施例中,残差块的个数为15;残差块由卷积层、PReLU激活函数和卷积层堆叠,并且输入与输出进行跳跃相加,其中卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;
步骤S225、设计融合增强头部网络;融合增强头部网络接受来自融合增强主干网络的输出作为其输入,并最终输出大小为H×W的融合增强结果融合增强头部网络由卷积层、ReLU激活函数和卷积层依次堆叠而成,其中卷积层是是卷积核大小为3×3、步长为1、填充为1的卷积。
在一较佳的实施例中,所述步骤S23具体包括以下步骤:
步骤S231、设计高频信息重建预处理网络,高频信息重建预处理网络预处理网络由1个卷积层组成,卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;输出特征记为F0 high
步骤S232、设计高频信息重建主干网络,高频信息重建主干网络包含若干个结构相同的高频信息重建模块,以第i个模块为例,i≥1,对于输入高频信息重建模块的特征Fi -1 high,由步骤S224所述多尺度特征融合单元(MFFU)和门控傅里叶变换单元GFU依次处理特征;高频信息重建模块的输出记为Fi high
步骤S224、设计门控傅里叶变换单元GFU;对于给定输入特征fG,由GFU得到输出特征fG out的过程描述为:
fG 1a=Conv3×3(PReLU(Conv3×3(fG))+fG.
fG 1b=PReLU(Conv1×1(fG)).
fG 2=IFFT(PReLU(Conv1×1(FFT(fG 1b))))+fG 1b.
fG out=Conv1×1(Sigmoid(fG 1b)*fG 2).
其中,Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积,PReLU(·)是激活函数;FFT(·)为取实部的傅里叶变换,IFFT(·)为取实部的傅里叶逆变换,Sigmoid(·)是激活函数;*为矩阵的元素乘法;
步骤S225、设计高频信息重建头部网络;高频信息重建头部网络接受来自高频信息重建主干网络的输出作为其输入,并输出大小为H×W的高频信息重建结果
在一较佳的实施例中,所述步骤S3中,设计用于训练步骤S2所设计网络的损失函数;包括以下步骤:
步骤S31、设计整个网络的总优化目标;优化目标为最小化总损失函数
其中,表示颜色变换损失函数,λcol表示颜色变换损失函数的权重;/>表示语义感知损失函数,λsem表示语义感知损失函数的权重;/>表示像素损失函数,λpix表示像素损失函数的权重;/>表示高频信息重建损失函数,λhigh表示高频信息重建损失函数的权重;
步骤S32、设计颜色变换损失函数;的计算公式如下:
其中,是颜色变换分支的输出结果,大小为/>Y↓4是参考图像经过双线性插值运算缩小为/>的结果,AvgPool(·)为核大小为4的均值池化运算,||·||1是取绝对值操作;
步骤S33、设计语义感知损失函数;的计算公式如下:
其中为颜色变换分支输出的颜色变换结果,Y↓4为参考图像经过双线性插值缩小4倍的图像,/>为融合增强分支的输出结果,Y为参考图像;Φ(·)代表使用在ImageNet预训练的VGG-16模型提取Conv2-2、Conv3-2、Conv4-2层特征的操作;||·||1是取绝对值操作;
步骤S34、设计光像素损失函数;的计算公式如下:
其中,为融合增强分支的输出结果,Y为参考图像;||·||1是取绝对值操作;
步骤S35、设计高频信息重建损失函数;的计算公式如下:
其中,为高频信息重建分支的输出结果,Y为参考图像,HighFreq(·)为取得高频信息部分的运算,高频信息部分由离散余弦变换(DCT)将原图变换至频域,取得高频后再进行逆变换取得;||·||1是取绝对值操作。
在一较佳的实施例中,所述步骤S4包括以下步骤:
步骤S41、在经过步骤S1构建的数据集中,选取随机的训练图像X;
步骤S42、训练图像编码与增强;输入图像X,经过任务解耦的暗光模糊图像增强网络,计输出颜色变换结果融合增强结果/>和高频信息重建结果/>计算步骤S31中的总损失函数损失/>
步骤S43、使用反向传播方法计算任务解耦的暗光模糊图像增强网络中各参数的梯度,并利用Adam优化方法更新参数;
步骤S44、以上步骤为训练过程的一次迭代,整个训练过程需要105次迭代,且每次迭代过程中,随机采样多个图像对作为一个批次进行训练。
在一较佳的实施例中,所述步骤S5中,将待测暗光模糊图像输入到所设计的网络中,利用训练好的网络输出结果,其中融合增强结果即为最终结果。
与现有技术相比,本发明具有以下有益效果:本发明的针对现有的暗光图像增强方法或图像去模糊方法均不能有效解决暗光模糊图像的增强。本发明提出了基于任务解耦的暗光模糊图像增强方法,通过设计并行的网络将暗光模糊图像增强解耦为颜色变换和高频信息重建,并且设计了对应的监督学习任务;设计的网络能够有效地提升输入图像的亮度,并且消除模糊效应,输出高质量的正常照度的清晰图像。
附图说明
图1为本发明实施例的方法流程图。
图2为本发明实施例的基于任务解耦的暗光模糊图像增强网络。
图3为本发明实施例的特征蒸馏与通道调制单元(FDCMU)。
图4为本发明实施例的通道扩充与上采样模块(CEUM)。
图5为本发明实施例的多尺度特征融合单元(MFFU)。
图6为本发明实施例的门控傅里叶变换单元(GFU)。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式;如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
本发明提供基于任务解耦的暗光模糊图像增强方法,如图1-6所示,包括以下步骤:
步骤S1、构建用于训练的数据集,对暗光模糊图像的每幅图像进行预处理,得到训练数据集;
步骤S2、设计任务解耦的暗光模糊图像增强网络,该网络由颜色变换分支、融合增强分支和高频信息重建分支组成;
步骤S3、设计用于训练步骤S2所设计网络的损失函数;
步骤S4、使用训练数据集训练基于任务解耦的暗光模糊图像增强网络;
步骤S5、将待测暗光模糊图像输入到所设计的网络中,利用训练好的网络预测生成具有更好视觉感知的最终结果。
进一步地,步骤S1包括以下步骤:
步骤S11、将数据集中的每张图像缩放为尺寸为H×W的大小相同的图像。
步骤S12、将训练图像进行归一化处理。给定图像Itrain,计算归一化后的图像的公式如下:
其中,Itrain是具有8位色彩深度的H×W大小的图像,Ibit_max是H×W大小且像素值均为255的图像。
进一步地,步骤S2包括以下步骤,如图2所示:
步骤S21、设计颜色变换分支,颜色变换分支由颜色变换预处理网络、颜色变换主干网络、和颜色变换头部网络组成。颜色变换分支接受归一化的大小为H×W的暗光模糊图像X作为输入,最终输出大小为的颜色变换结果/>
步骤S22、设计融合增强分支,融合增强分支由融合增强预处理网络、融合增强主干网络、和融合增强头部网络组成。融合增强分支的输入为:归一化的大小为H×W的暗光模糊图像X,颜色变换分支的输出特征,和高频信息重建分支的输出特征,最终输出大小为H×W的融合增强结果
步骤S23、设计高频信息重建分支,高频信息重建分支由高频信息重建预处理网络、高频信息重建主干网络、和高频信息重建头部网络组成。高频信息重建分支接受归一化的大小为H×W的暗光模糊图像X作为输入,最终输出大小为H×W的高频信息重建结果
进一步地,步骤S21包括以下步骤:
步骤S211、设计颜色变换预处理网络,颜色变换预处理网络包含1个PixelUnShuffle层和1个卷积层。其中PixelUnShuffle层对的暗光模糊图像X进行像素重组,将输入的暗光模糊图像X的大小变换为通道数量即变换为原通道数的16倍,卷积层是卷积核大小为3×3、步长为1、填充为1的卷积。颜色变换预处理网络的输出记为F0 col
步骤S212、设计颜色变换主干网络,颜色变换主干网络包含若干个结构相同的颜色变换模块,以第i(i≥1)个模块为例,对于输入颜色变换模块的特征Fi-1 col,首先由特征蒸馏与通道调制单元(Feature Distillation and Channel Modulation Unit(FDCMU))预测颜色变换的权重,输出的结果记为Ki,类似地,颜色变换的偏置也由FDCMU得到,记为bi。同时基于Fi-1 col预测通道映射,Fi-1 col以此经过FDCMU、全局平均池化(GAP)运算和多层感知机(MLP),最终得到与Fi-1 col通道维数相同的向量记为gi。颜色变换模块的输出Fi col由如下变换得到:
Fi col=(Fi-1 col*Ki+bi)exp(gi).
其中*为矩阵的元素乘法,+为矩阵的元素加法,exp(·)为带有广播机制的指数运算。
步骤S213、设计特征蒸馏与通道调制单元(FDCMU),如图3所示。对于给定输入特征fD,由FDCMU得到输出特征fD out的过程可以描述为:
fD 1a=PReLU(Conv1×1(DWConv5×5(fD))).
fD 1b=DWConv3×3(Conv1×1(fD)).
fD 2=PReLU(Conv3×3(PReLU(fD 1b))).
fD 2b=PReLU(Conv1×1(fD 1b)).
fD 3=Conv1×1(Concatenate(fD 1a,fD 1b,fD 2,fD 2b)).
fD out=Conv1×1(fD 3⊙wc⊕bc).
其中,Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积,DWConv3×3是卷积核大小为3×3、步长为1、填充为1的通道可分离卷积,DWConv5×5为是卷积核大小为5×5、步长为1、填充为2的通道可分离卷积,PReLU(·)是激活函数。Concatenate(·)是沿通道的特征拼接。wc与bc是可学习的参数向量,⊙与⊕是带有广播机制的元素乘法与元素加法。
步骤S214、设计颜色变换头部网络。颜色变换头部网络接受来自颜色变换主干网络的输出作为其输入,并最终输出大小为的颜色变换结果/>颜色变换头部网络由卷积层、ReLU激活函数和卷积层依次堆叠而成,其中卷积层是卷积核大小为3×3、步长为1、填充为1的卷积。
进一步地,步骤S22包括以下步骤:
步骤S221、设计融合增强预处理网络,融合增强预处理网络由1个卷积层组成,卷积层是卷积核大小为3×3、步长为1、填充为1的卷积。输出特征记为F0 fuse
步骤S222、设计融合增强主干网络,融合增强主干网络包含若干个结构相同的融合增强模块,以第i(i≥1)个模块为例,融合增强模块接受的输入为:来自上一个融合增强模块的特征Fi-1 fuse(当i=1时,该输入为融合增强预处理网络的输出)、来自颜色变换模块的特征Fi col、来自高频信息重建模块的特征Fi high。首先,来自颜色变换模块的特征Fi col经过通道扩充与上采样模块(Channel Expansion and Upsampling Module(CEUM))变换输出特征Fi col'。而后,特征Fi-1 fuse由多尺度特征融合单元(Multi-scale Feature Fusion Unit(MFFU))提取并且融合多尺度特征,而后与特征Fi high和Fi col'分别逐元素相加,经过两个卷积层处理后得到Fi fuse。卷积层是卷积核大小为3×3、步长为1、填充为1的卷积。
步骤S223、设计通道扩充与上采样模块(CEUM),如图4所示。对于给定输入特征fE,由CEUM得到输出特征fE out的过程可以描述为:
fE 1=Conv1×1(fE).
fE 2a=FDCMU(fE 1).
fE 2b=FDCMU(fE 1).
fE 3=Conv3×3(Conv1×1(Concatenate(fE 2a,fE 2b))).
fE out=Conv1×1(Conv3×3(PixelShuffle(fE 3))).
其中Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积,FDCMU是步骤S213所述特征蒸馏与通道调制单元。Concatenate(·)是沿通道的特征拼接。PixelShuffle(·)为PixelShuffle层,其功能是通过像素重排将输入的大小为的特征变换为H×W,通道数量即变换为原通道数的1/16倍。
步骤S224、设计多尺度特征融合单元(MFFU),如图5所示。对于给定输入特征fM,由CEUM得到输出特征fM out的过程可以描述为:
fM 1=Conv3×3(fM).
fM 2=ResBlocks(fM 1).
fM 2a=Up×2(ResBlocks(Down×2(fM 1))).
fM 2b=Up×4(ResBlocks(Down×4(fM 1))).
fM out=Conv3×3(Conv1×1(Concatenate(fM 1,fM 2,fM 2a,fM 2b))).
其中Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积。Down×4(·)是由双线性插值方法进行的空间4倍下采样,Up×4(·)是由双线性插值方法进行的空间4倍上采样;Down×2(·)是由双线性插值方法进行的空间2倍下采样,Up×2(·)是由双线性插值方法进行的空间2倍上采样。ResBlocks是由若干残差块(ResBlock)构成,在本实施例中,残差块的个数为15。残差块由卷积层、PReLU激活函数和卷积层堆叠,并且输入与输出进行跳跃相加,其中卷积层是卷积核大小为3×3、步长为1、填充为1的卷积。
步骤S225、设计融合增强头部网络。融合增强头部网络接受来自融合增强主干网络的输出作为其输入,并最终输出大小为H×W的融合增强结果融合增强头部网络由卷积层、ReLU激活函数和卷积层依次堆叠而成,其中卷积层是是卷积核大小为3×3、步长为1、填充为1的卷积。
进一步地,步骤S23包括以下步骤:
步骤S231、设计高频信息重建预处理网络,高频信息重建预处理网络预处理网络由1个卷积层组成,卷积层是卷积核大小为3×3、步长为1、填充为1的卷积。输出特征记为F0 high
步骤S232、设计高频信息重建主干网络,高频信息重建主干网络包含若干个结构相同的高频信息重建模块,以第i(i≥1)个模块为例,对于输入高频信息重建模块的特征Fi -1 high,由步骤S224所述多尺度特征融合单元(MFFU)和门控傅里叶变换单元(Gated FFTUnit(GFU))依次处理特征。高频信息重建模块的输出记为Fi high
步骤S224、设计门控傅里叶变换单元(GFU),如图6所示。对于给定输入特征fG,由GFU得到输出特征fG out的过程可以描述为:
fG 1a=Conv3×3(PReLU(Conv3×3(fG))+fG.
fG 1b=PReLU(Conv1×1(fG)).
fG 2=IFFT(PReLU(Conv1×1(FFT(fG 1b))))+fG 1b.
fG out=Conv1×1(Sigmoid(fG 1b)*fG 2).
其中,Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积,PReLU(·)是激活函数。FFT(·)为取实部的傅里叶变换,IFFT(·)为取实部的傅里叶逆变换,Sigmoid(·)是激活函数。*为矩阵的元素乘法。
步骤S225、设计高频信息重建头部网络。高频信息重建头部网络接受来自高频信息重建主干网络的输出作为其输入,并输出大小为H×W的高频信息重建结果
进一步地,步骤S3包括以下步骤:
步骤S31、设计整个网络的总优化目标。优化目标为最小化总损失函数
其中,表示颜色变换损失函数,λcol表示颜色变换损失函数的权重;/>表示语义感知损失函数,λsem表示语义感知损失函数的权重;/>表示像素损失函数,λpix表示像素损失函数的权重;/>表示高频信息重建损失函数,λhigh表示高频信息重建损失函数的权重。
步骤S32、设计颜色变换损失函数。的计算公式如下:
其中,是颜色变换分支的输出结果,大小为/>Y↓4是参考图像经过双线性插值运算缩小为/>的结果,AvgPool为核大小为4的均值池化运算,||·||1是取绝对值操作。
步骤S33、设计语义感知损失函数。的计算公式如下:
其中为颜色变换分支输出的颜色变换结果,Y↓4为参考图像经过双线性插值缩小4倍的图像,/>为融合增强分支的输出结果,Y为参考图像。Φ(·)代表使用在ImageNet预训练的VGG-16模型提取Conv2-2、Conv3-2、Conv4-2层特征的操作。||·||1是取绝对值操作。
步骤S34、设计光像素损失函数。的计算公式如下:
其中,为融合增强分支的输出结果,Y为参考图像。||·||1是取绝对值操作。
步骤S35、设计高频信息重建损失函数。的计算公式如下:
其中,为高频信息重建分支的输出结果,Y为参考图像,HighFreq(·)为取得高频信息部分的运算,高频信息部分由离散余弦变换(DCT)将原图变换至频域,取得高频后再进行逆变换取得。||·||1是取绝对值操作。
进一步地,步骤S4包括以下步骤:
步骤S41、在经过步骤S1构建的数据集中,选取随机的训练图像X。
步骤S42、训练图像编码与增强。输入图像X,经过任务解耦的暗光模糊图像增强网络,计输出颜色变换结果融合增强结果/>和高频信息重建结果/>计算步骤S31中的总损失函数损失/>
步骤S43、使用反向传播方法计算任务解耦的暗光模糊图像增强网络中各参数的梯度,并利用Adam优化方法更新参数。
步骤S44、以上步骤为训练过程的一次迭代,整个训练过程需要105次迭代,且每次迭代过程中,随机采样多个图像对作为一个批次进行训练。
进一步地,步骤S5包括以下步骤:
步骤S5、将待测暗光模糊图像输入到所设计的网络中,利用训练好的网络输出结果,其中融合增强结果即为最终结果。
本发明提出了基于任务解耦的暗光模糊图像增强方法。该方法基于图像暗光与模糊问题的独立特性,创造性地将暗光模糊图像问题解耦为颜色变换与高频信息复原,同时设计了对应的任务,即对于颜色变换任务与高频信息复原任务均由相应的参考图像进行监督。所设计的网络采用并行结构,以下采样的小图像学习颜色变换,能够削弱噪声和模糊带来的影响,同时高频信息复原任务可使得网络学习与颜色变换无关的细节复原,有利于对暗光和去模糊双充问题的解决。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (9)

1.基于任务解耦的暗光模糊图像增强方法,其特征在于,包括以下步骤:
步骤S1、构建用于训练的数据集,对暗光模糊图像的每幅图像进行预处理,得到训练数据集;
步骤S2、设计任务解耦的暗光模糊图像增强网络,该任务解耦的暗光模糊图像增强网络由颜色变换分支、融合增强分支和高频信息重建分支组成;
步骤S3、设计用于训练步骤S2所设计网络的损失函数;
步骤S4、使用训练数据集训练基于任务解耦的暗光模糊图像增强网络;
步骤S5、将待测暗光模糊图像输入到所设计的网络中,利用训练好的网络预测生成具有更好视觉感知的最终结果。
2.根据权利要求1所述的基于任务解耦的暗光模糊图像增强方法,其特征在于,所述步骤S1包括以下步骤:
步骤S11、将数据集中的每张图像缩放为尺寸为H×W的大小相同的图像;
步骤S12、将训练图像进行归一化处理;给定图像Itrain,计算归一化后的图像的公式如下:
其中,Itrain是具有8位色彩深度的H×W大小的图像,Ibit_max是H×W大小且像素值均为255的图像。
3.根据权利要求1所述的基于任务解耦的暗光模糊图像增强方法,其特征在于,所述步骤S2包括以下步骤:
步骤S21、设计颜色变换分支,颜色变换分支由颜色变换预处理网络、颜色变换主干网络、和颜色变换头部网络组成;颜色变换分支接受归一化的大小为H×W的暗光模糊图像X作为输入,最终输出大小为的颜色变换结果/>
步骤S22、设计融合增强分支,融合增强分支由融合增强预处理网络、融合增强主干网络、和融合增强头部网络组成;融合增强分支的输入为:归一化的大小为H×W的暗光模糊图像X,颜色变换分支的输出特征,和高频信息重建分支的输出特征,最终输出大小为H×W的融合增强结果
步骤S23、设计高频信息重建分支,高频信息重建分支由高频信息重建预处理网络、高频信息重建主干网络、和高频信息重建头部网络组成;高频信息重建分支接受归一化的大小为H×W的暗光模糊图像X作为输入,最终输出大小为H×W的高频信息重建结果
4.根据权利要求3所述的基于任务解耦的暗光模糊图像增强方法,其特征在于,所述步骤S21具体包括以下步骤:
步骤S211、设计颜色变换预处理网络,颜色变换预处理网络包含1个PixelUnShuffle层和1个卷积层;其中PixelUnShuffle层对的暗光模糊图像X进行像素重组,将输入的暗光模糊图像X的大小变换为通道数量即变换为原通道数的16倍,卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;颜色变换预处理网络的输出记为F0 col
步骤S212、设计颜色变换主干网络,颜色变换主干网络包含若干个结构相同的颜色变换模块,以第i个模块为例,i≥1,对于输入颜色变换模块的特征Fi-1 col,首先由特征蒸馏与通道调制单元FDCMU预测颜色变换的权重,输出的结果记为Ki,类似地,颜色变换的偏置也由FDCMU得到,记为bi;同时基于Fi-1 col预测通道映射,Fi-1 col以此经过FDCMU、全局平均池化GAP运算和多层感知机MLP,最终得到与Fi-1 col通道维数相同的向量记为gi;颜色变换模块的输出Fi col由如下变换得到:
Fi col=(Fi-1 col*Ki+bi)exp(gi).
其中*为矩阵的元素乘法,+为矩阵的元素加法,exp(·)为带有广播机制的指数运算;
步骤S213、设计特征蒸馏与通道调制单元FDCMU;对于给定输入特征fD,由FDCMU得到输出特征fD out的过程描述为:
fD 1a=PReLU(Conv1×1(DWConv5×5(fD))).
fD 1b=DWConv3×3(Conv1×1(fD)).
fD 2=PReLU(Conv3×3(PReLU(fD 1b))).
fD 2b=PReLU(Conv1×1(fD 1b)).
fD 3=Conv1×1(Concatenate(fD 1a,fD 1b,fD 2,fD 2b)).
fD out=Conv1×1(fD 3⊙wc⊕bc).
其中,Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积,DWConv3×3是卷积核大小为3×3、步长为1、填充为1的通道可分离卷积,DWConv5×5为是卷积核大小为5×5、步长为1、填充为2的通道可分离卷积,PReLU(·)是激活函数;Concatenate(·)是沿通道的特征拼接;wc与bc是可学习的参数向量,⊙与⊕是带有广播机制的元素乘法与元素加法;
步骤S214、设计颜色变换头部网络;颜色变换头部网络接受来自颜色变换主干网络的输出作为其输入,并最终输出大小为的颜色变换结果/>颜色变换头部网络由卷积层、ReLU激活函数和卷积层依次堆叠而成,其中卷积层是卷积核大小为3×3、步长为1、填充为1的卷积。
5.根据权利要求3所述的基于任务解耦的暗光模糊图像增强方法,其特征在于,所述步骤S22包括以下步骤:
步骤S221、设计融合增强预处理网络,融合增强预处理网络由1个卷积层组成,卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;输出特征记为F0 fuse
步骤S222、设计融合增强主干网络,融合增强主干网络包含若干个结构相同的融合增强模块,以第i个模块为例,i≥1,融合增强模块接受的输入为:来自上一个融合增强模块的特征Fi-1 fuse,当i=1时,该输入为融合增强预处理网络的输出、来自颜色变换模块的特征Fi col、来自高频信息重建模块的特征Fi high;首先,来自颜色变换模块的特征Fi col经过通道扩充与上采样模块CEUM变换输出特征Fi col';而后,特征Fi-1 fuse由多尺度特征融合单元MFFU提取并且融合多尺度特征,而后与特征Fi high和Fi col'分别逐元素相加,经过两个卷积层处理后得到Fi fuse;卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;
步骤S223、设计通道扩充与上采样模块CEUM;对于给定输入特征fE,由CEUM得到输出特征fE out的过程描述为:
fE 1=Conv1×1(fE).
fE 2a=FDCMU(fE 1).
fE 2b=FDCMU(fE 1).
fE 3=Conv3×3(Conv1×1(Concatenate(fE 2a,fE 2b))).
fE out=Conv1×1(Conv3×3(PixelShuffle(fE 3))).
其中Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积,FDCMU是步骤S213所述特征蒸馏与通道调制单元;Concatenate(·)是沿通道的特征拼接;PixelShuffle(·)为PixelShuffle层,其功能是通过像素重排将输入的大小为的特征变换为H×W,通道数量即变换为原通道数的1/16倍;
步骤S224、设计多尺度特征融合单元MFFU;对于给定输入特征fM,由CEUM得到输出特征fM out的过程描述为:
fM 1=Conv3×3(fM).
fM 2=ResBlocks(fM 1).
fM 2a=Up×2(ResBlocks(Down×2(fM 1))).
fM 2b=Up×4(ResBlocks(Down×4(fM 1))).
fM out=Conv3×3(Conv1×1(Concatenate(fM 1,fM 2,fM 2a,fM 2b))).
其中Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积;Down×4(·)是由双线性插值方法进行的空间4倍下采样,Up×4(·)是由双线性插值方法进行的空间4倍上采样;Down×2(·)是由双线性插值方法进行的空间2倍下采样,Up×2(·)是由双线性插值方法进行的空间2倍上采样;ResBlocks是由若干残差块(ResBlock)构成,在本实施例中,残差块的个数为15;残差块由卷积层、PReLU激活函数和卷积层堆叠,并且输入与输出进行跳跃相加,其中卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;
步骤S225、设计融合增强头部网络;融合增强头部网络接受来自融合增强主干网络的输出作为其输入,并最终输出大小为H×W的融合增强结果融合增强头部网络由卷积层、ReLU激活函数和卷积层依次堆叠而成,其中卷积层是是卷积核大小为3×3、步长为1、填充为1的卷积。
6.根据权利要求3所述的基于任务解耦的暗光模糊图像增强方法,其特征在于,所述步骤S23具体包括以下步骤:
步骤S231、设计高频信息重建预处理网络,高频信息重建预处理网络预处理网络由1个卷积层组成,卷积层是卷积核大小为3×3、步长为1、填充为1的卷积;输出特征记为F0 high
步骤S232、设计高频信息重建主干网络,高频信息重建主干网络包含若干个结构相同的高频信息重建模块,以第i个模块为例,i≥1,对于输入高频信息重建模块的特征Fi-1 high,由步骤S224所述多尺度特征融合单元(MFFU)和门控傅里叶变换单元GFU依次处理特征;高频信息重建模块的输出记为Fi high
步骤S224、设计门控傅里叶变换单元GFU;对于给定输入特征fG,由GFU得到输出特征fG out的过程描述为:
fG 1a=Conv3×3(PReLU(Conv3×3(fG))+fG.
fG 1b=PReLU(Conv1×1(fG)).
fG 2=IFFT(PReLU(Conv1×1(FFT(fG 1b))))+fG 1b.
fG out=Conv1×1(Sigmoid(fG 1b)*fG 2).
其中,Conv1×1为是卷积核大小为1×1、步长为1、填充为0的卷积,Conv3×3为是卷积核大小为3×3、步长为1、填充为1的卷积,PReLU(·)是激活函数;FFT(·)为取实部的傅里叶变换,IFFT(·)为取实部的傅里叶逆变换,Sigmoid(·)是激活函数;*为矩阵的元素乘法;
步骤S225、设计高频信息重建头部网络;高频信息重建头部网络接受来自高频信息重建主干网络的输出作为其输入,并输出大小为H×W的高频信息重建结果
7.根据权利要求1所述的基于任务解耦的暗光模糊图像增强方法,其特征在于,所述步骤S3中,设计用于训练步骤S2所设计网络的损失函数;包括以下步骤:
步骤S31、设计整个网络的总优化目标;优化目标为最小化总损失函数
其中,表示颜色变换损失函数,λcol表示颜色变换损失函数的权重;/>表示语义感知损失函数,λsem表示语义感知损失函数的权重;/>表示像素损失函数,λpix表示像素损失函数的权重;/>表示高频信息重建损失函数,λhigh表示高频信息重建损失函数的权重;
步骤S32、设计颜色变换损失函数;的计算公式如下:
其中,是颜色变换分支的输出结果,大小为/>Y↓4是参考图像经过双线性插值运算缩小为/>的结果,AvgPool(·)为核大小为4的均值池化运算,||·||1是取绝对值操作;
步骤S33、设计语义感知损失函数;的计算公式如下:
其中为颜色变换分支输出的颜色变换结果,Y↓4为参考图像经过双线性插值缩小4倍的图像,/>为融合增强分支的输出结果,Y为参考图像;Φ(·)代表使用在ImageNet预训练的VGG-16模型提取Conv2-2、Conv3-2、Conv4-2层特征的操作;||·||1是取绝对值操作;
步骤S34、设计光像素损失函数;的计算公式如下:
其中,为融合增强分支的输出结果,Y为参考图像;||·||1是取绝对值操作;
步骤S35、设计高频信息重建损失函数;的计算公式如下:
其中,为高频信息重建分支的输出结果,Y为参考图像,HighFreq(·)为取得高频信息部分的运算,高频信息部分由离散余弦变换(DCT)将原图变换至频域,取得高频后再进行逆变换取得;||·||1是取绝对值操作。
8.根据权利要求1所述基于任务解耦的暗光模糊图像增强方法,其特征在于,所述步骤S4包括以下步骤:
步骤S41、在经过步骤S1构建的数据集中,选取随机的训练图像X;
步骤S42、训练图像编码与增强;输入图像X,经过任务解耦的暗光模糊图像增强网络,计输出颜色变换结果融合增强结果/>和高频信息重建结果/>计算步骤S31中的总损失函数损失/>
步骤S43、使用反向传播方法计算任务解耦的暗光模糊图像增强网络中各参数的梯度,并利用Adam优化方法更新参数;
步骤S44、以上步骤为训练过程的一次迭代,整个训练过程需要105次迭代,且每次迭代过程中,随机采样多个图像对作为一个批次进行训练。
9.根据权利要求1所述的基于任务解耦的暗光模糊图像增强方法,其特征在于,所述步骤S5中,将待测暗光模糊图像输入到所设计的网络中,利用训练好的网络输出结果,其中融合增强结果即为最终结果。
CN202310853029.3A 2023-07-12 2023-07-12 基于任务解耦的暗光模糊图像增强方法 Active CN116797491B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310853029.3A CN116797491B (zh) 2023-07-12 2023-07-12 基于任务解耦的暗光模糊图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310853029.3A CN116797491B (zh) 2023-07-12 2023-07-12 基于任务解耦的暗光模糊图像增强方法

Publications (2)

Publication Number Publication Date
CN116797491A true CN116797491A (zh) 2023-09-22
CN116797491B CN116797491B (zh) 2025-05-30

Family

ID=88036420

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310853029.3A Active CN116797491B (zh) 2023-07-12 2023-07-12 基于任务解耦的暗光模糊图像增强方法

Country Status (1)

Country Link
CN (1) CN116797491B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117575943A (zh) * 2023-12-13 2024-02-20 四川新视创伟超高清科技有限公司 一种对比度增强与降噪相结合的4k暗光图像增强方法
CN119782821A (zh) * 2025-03-06 2025-04-08 国网安徽省电力有限公司电力科学研究院 Co2浓度检测模型训练方法、装置及火电碳排放监测系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108389163A (zh) * 2018-01-22 2018-08-10 西安工程大学 一种基于暗光彩色图像的自适应增强方法
CN109087269A (zh) * 2018-08-21 2018-12-25 厦门美图之家科技有限公司 弱光图像增强方法及装置
WO2022242029A1 (zh) * 2021-05-18 2022-11-24 广东奥普特科技股份有限公司 视觉分辨率增强的生成方法、系统、装置及存储介质
CN116385298A (zh) * 2023-04-06 2023-07-04 福州大学 一种用于无人机夜间采集图像的无参考增强方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108389163A (zh) * 2018-01-22 2018-08-10 西安工程大学 一种基于暗光彩色图像的自适应增强方法
CN109087269A (zh) * 2018-08-21 2018-12-25 厦门美图之家科技有限公司 弱光图像增强方法及装置
WO2022242029A1 (zh) * 2021-05-18 2022-11-24 广东奥普特科技股份有限公司 视觉分辨率增强的生成方法、系统、装置及存储介质
CN116385298A (zh) * 2023-04-06 2023-07-04 福州大学 一种用于无人机夜间采集图像的无参考增强方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
林森;刘世本;唐延东;: "多输入融合对抗网络的水下图像增强", 红外与激光工程, no. 05, 25 May 2020 (2020-05-25) *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117575943A (zh) * 2023-12-13 2024-02-20 四川新视创伟超高清科技有限公司 一种对比度增强与降噪相结合的4k暗光图像增强方法
CN119782821A (zh) * 2025-03-06 2025-04-08 国网安徽省电力有限公司电力科学研究院 Co2浓度检测模型训练方法、装置及火电碳排放监测系统

Also Published As

Publication number Publication date
CN116797491B (zh) 2025-05-30

Similar Documents

Publication Publication Date Title
Zhang et al. Multi-branch and progressive network for low-light image enhancement
CN116797491B (zh) 基于任务解耦的暗光模糊图像增强方法
CN111861894B (zh) 基于生成式对抗网络的图像去运动模糊方法
Liu et al. BE-CALF: Bit-depth enhancement by concatenating all level features of DNN
US11915383B2 (en) Methods and systems for high definition image manipulation with neural networks
CN114170088A (zh) 一种基于图结构数据的关系型强化学习系统及方法
Yu et al. Luminance attentive networks for HDR image and panorama reconstruction
CN114782864B (zh) 一种信息处理方法、装置、计算机设备及存储介质
CN114821404B (zh) 一种信息处理方法、装置、计算机设备及存储介质
CN112001843A (zh) 一种基于深度学习的红外图像超分辨率重建方法
CN110796622A (zh) 一种基于串联神经网络多层特征的图像比特增强方法
Zhu et al. PNEN: Pyramid non-local enhanced networks
WO2023193474A1 (zh) 信息处理方法、装置、计算机设备及存储介质
CN115496663A (zh) 基于d3d卷积组内融合网络的视频超分辨率重建方法
CN120092246A (zh) 神经网络训练方法及装置、图像处理方法及装置
CN118887114A (zh) 交叉注意力融合的弱光图像增强方法
CN113344807A (zh) 图像修复方法及装置、电子设备及存储介质
CN115035011B (zh) 一种融合策略下自适应RetinexNet的低照度图像增强方法
Wang et al. RGNAM: recurrent grid network with an attention mechanism for single-image dehazing
Ji et al. CFENet: Cost-effective underwater image enhancement network via cascaded feature extraction
CN117934330A (zh) 基于自适应亮度提升与细节复原的暗光模糊图像增强方法
Song et al. MBD-GAN: Model-based image deblurring with a generative adversarial network
CN116188346B (zh) 内窥镜图像的画质增强方法及装置
CN114862699B (zh) 基于生成对抗网络的人脸修复方法、装置及存储介质
CN114612300B (zh) 基于无监督退化特征学习的图像网络系统及其超分算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant