CN114972107A - 基于多尺度堆叠式注意力网络的低照度图像增强方法 - Google Patents

基于多尺度堆叠式注意力网络的低照度图像增强方法 Download PDF

Info

Publication number
CN114972107A
CN114972107A CN202210663857.6A CN202210663857A CN114972107A CN 114972107 A CN114972107 A CN 114972107A CN 202210663857 A CN202210663857 A CN 202210663857A CN 114972107 A CN114972107 A CN 114972107A
Authority
CN
China
Prior art keywords
conv
layer
attention
image
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210663857.6A
Other languages
English (en)
Inventor
牛玉贞
陈铭铭
李悦洲
林晓锋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN202210663857.6A priority Critical patent/CN114972107A/zh
Publication of CN114972107A publication Critical patent/CN114972107A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/92Dynamic range modification of images or parts thereof based on global image properties
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种基于多尺度堆叠式注意力网络的低照度图像增强方法,包括以下步骤:步骤A:对原始低照度图像和正常照度图像的训练图像对进行预处理,得到原始低照度图像和正常照度图像组成的训练图像对;步骤B:设计多尺度自适应融合堆叠式注意力网络作为低照度图像增强网络,该网络包含多尺度自适应特征融合模块,堆叠式注意力残差模块和傅里叶重建模块;步骤C:设计低照度图像增强网络的目标损失函数,训练网络至收敛到阈值或迭代次数达到阈值;步骤D:将待测图像输入到所设计的低照度图像增强网络中,利用训练好的网络预测生成正常照度图像。本发明能实现低照度图像增强,生成正常照度下的高质量图像。

Description

基于多尺度堆叠式注意力网络的低照度图像增强方法
技术领域
本发明属于视频处理、计算机视觉技术领域,尤其涉及一种基于多尺度堆叠式注意力网络的低照度图像增强方法。
背景技术
随着计算机视觉技术的飞速发展,数字图像处理系统在工业生产、视频监控、智能交通、遥感监控等领域得到了广泛的应用,在日常生活、军事应用等方面发挥了重要作用。然而,在图像采集过程中往往存在一些不可控的因素,导致图像质量下降。尤其是在室内、夜间或阴天等照明条件较差的情况下,由于从物体表面反射的光可能很弱,往往会产生大量噪声和颜色失真,使得低照度图像的质量严重下降,影响后续应用。
在光线相对较弱的环境中拍摄的图像被认为是低照度图像。这些图像表现出诸如低亮度、低对比度、窄灰度范围和颜色失真以及有相当大的噪声等特征。由于缺乏光照,这些图像的像素值主要集中在较低的范围内,彩色图像各通道之间对应像素的灰度差异有限。图像的最大灰度级和最小灰度级之间只有很小的差距。整个颜色层存在偏差,边缘信息较弱,很难区分图像的细节。这些特性降低了图像的可用性,严重降低了它们的主观视觉效果,并且极大地限制了各种视觉系统的功能。
低照度图像增强的主要目的是提高图像的整体和局部对比度,改善视觉效果,并将图像转换成更适合人类观察或计算机处理的形式,同时避免噪声放大,获得良好的实时性。为此,必须提高在低照度下捕获的数据的有效性和可用性,以获得清晰的图像或视频。低照度图像增强不仅可以使图像更符合个人的主观视觉感受,提高室外视觉系统的可靠性和鲁棒性,而且可以更方便地利用计算机视觉设备对图像进行分析和处理,对于推动图像信息挖掘的发展具有重要意义。相关研究成果可广泛应用于城市交通监测、户外视频采集、卫星遥感、军事航空调查等领域,对水下图像分析、雾霾图像清晰度等课题的研究具有一定的参考价值。
传统低照度增强方法大多使用直方图增强或基于Retinex方法,前者往往忽略相邻像素间的依赖关系而导致局部增强,后者在复杂光源场景的应用差强人意,容易导致伪影,且设计的算法通常可学习参数量较少,缺乏对图像结构信息的建模。现有基于深度学习的方法由数据驱动,能够较好地学习图像特征,然而仍然存在噪声伴随亮度放大、亮度增强后细节纹理丢失、边缘模糊等现象,对同一场景下不同大小物体的细节重建难以同时得到较好的效果,恢复的图像颜色退化较为严重。
发明内容
为了弥补现有技术的空白和不足,本发明提出一种基于多尺度堆叠式注意力网络的低照度图像增强方法,以充分学习图像多尺度信息,通过堆叠式注意力深度提取图像空间和通道上的特征,利用残差结构聚合信息,显著提升低照度图像质量,较好恢复了细节信息和边缘纹理特征。
包括以下步骤:
步骤A:对原始低照度图像和正常照度图像的训练图像对进行预处理,得到原始低照度图像和正常照度图像组成的训练图像对;步骤B:设计多尺度自适应融合堆叠式注意力网络作为低照度图像增强网络,该网络包含多尺度自适应特征融合模块,堆叠式注意力残差模块和傅里叶重建模块;步骤C:设计低照度图像增强网络的目标损失函数,训练网络至收敛到阈值或迭代次数达到阈值;步骤D:将待测图像输入到所设计的低照度图像增强网络中,利用训练好的网络预测生成正常照度图像。本发明能实现低照度图像增强,生成正常照度下的高质量图像。
本发明具体采用以下技术方案:
一种基于多尺度堆叠式注意力网络的低照度图像增强方法,其特征在于,包括以下步骤:
步骤A:对原始低照度图像和正常照度图像的训练图像对进行预处理,得到原始低照度图像和正常照度图像组成的训练图像对;
步骤B:设计多尺度堆叠式注意力网络作为低照度图像增强网络,包括:
多尺度自适应特征融合模块,用于提取不同场景下不同尺度的复杂光照以及不同尺度的物体特征;
堆叠式注意力残差模块,用于提取场景中的细节纹理及边缘信息;
傅里叶重建模块,用于有效捕获长期和短期交互,同时集成低频和高频残差信息;
步骤C:设计低照度图像增强网络的目标损失函数,训练网络至收敛到阈值或迭代次数达到阈值;
步骤D:将待测图像输入到所设计的低照度图像增强网络中,利用训练好的网络预测生成正常照度图像。
进一步地,步骤A的具体实现步骤如下:
步骤A1:随机指定每张图像的切块位置,处理原始低照度图像及其配对的正常照度图像,得到尺寸为H×W的配对图像块,其中低照度图像为输入,正常照度图像为参考图像;
步骤A2:对所有待训练图像对进行相同的随机翻转旋转操作,增强数据。
进一步地,所述多尺度堆叠式注意力网络的工作过程具体包括以下步骤:
步骤B11:输入大小为H×W×3的低照度图像,首先经过卷积核为3×3的卷积层进行浅层特征提取后得到大小为H×W×C的特征图in;
步骤B12:将步骤B11得到的特征图in依次经过多尺度自适应特征融合模块MSAFF,堆叠式注意力残差模块SARM,傅里叶重建模块ResFFT,得到特征图Zout,具体按照如下公式计算:
Zout=Concat(ResFFT(SARM((MSAFF(in)))),in)
其中,Concat(·)为通道上的拼接操作
步骤B13:在将步骤B12得到的特征图Zout经过多尺度卷积层和激活函数层后,得到最终的预测图像output,即增强后的低照度图像,具体计算公式如下:
output=Sigmoid(Conv3×3(Pyconv2(Concat(Zout,in))))
其中,Sigmoid(·)表示Sigmoid激活函数层,Pyconv2(·)表示多尺度卷积层,含有两种不同尺寸的卷积核,按照如下公式计算:
Pyconv2(x)=Concat(Conv3×3(x),Conv5×5(x))
其中,x为输入多尺度卷积层的特征,维度为H×W×C,Convk×k(·)表示卷积核大小为k×k的卷积层,输出通道数为
Figure BDA0003692226890000031
Conv3×3(·)和Conv5×5(·)所提取的特征在通道维度上进行拼接操作后得到大小为H×W×C的特征图。
进一步地,所述多尺度自适应特征融合模块的工作过程具体包括以下步骤:
步骤B21:输入为步骤B11中得到的特征图in,将殴特征图in分别送入三个不同大小的卷积核中,得到大小皆为H×W×C的输出,按照如下公式计算:
F1=Conv3×3(in)
F2=Conv5×5(in)
F3=Conv7×7(in)
其中,Conv3×3(·)、Conv5×5(·)、Conv7×7(·)分别表示卷积核大小为3×3、5×5、7×7的卷积层;
步骤B22:将步骤B21得到的三个特征F1、F2、F3进行逐元素求和运算,得到大小为H×W×C的特征图F4,再依次送入自适应全局平均池化层、卷积核大小为1×1的卷积层,其后经过PReLU激活函数层,具体计算公式如下:
F4=F1+F2+F3
F5=σ(Conv1×1(AvgPool(F4)))
其中AvgPool(·)表示自适应全局平均池化层,AvgPool(F4)表示将F4在空间维度上做自适应全局平均池化,得到大小为1×1×C的特征向量,C为F4的通道数;Conv1×1(·)表示卷积核大小为1×1的卷积层,用以通道降维,生成紧凑的特征表示,F5的大小为
Figure BDA0003692226890000041
Figure BDA0003692226890000042
σ(·)表示PReLU激活函数,对通道i的PReLU激活函数定义如下:
Figure BDA0003692226890000043
其中,xi表示通道i上的特征,ai表示通道i上需要学习的参数,
将F5分别送入三个平行的卷积分支用于提升通道维度,再分别与F1、F2、F3相乘后逐元素相加,得到自适应特征选择模块的输出,按如下公式计算:
Figure BDA0003692226890000044
F6=l1F1+l2F2+l3F3
其中,
Figure BDA0003692226890000045
表示第i个用于提升通道维度的1×1卷积层,Softmax(·)表示Softmax激活函数,输出li大小为1×1×C,F6大小为H×W×C;
步骤B23:将步骤B21提取的浅层特征图in和步骤B22得到的特征图F6做逐元素求和运算,计算公式如下:
MSAFFout=in+F6
进一步地,所述堆叠式注意力残差模块的工作过程具体包括以下步骤:
步骤B31:将来自多尺度自适应特征融合模块的输出作为堆叠式注意力残差模块的输入,即,将维度为H×W×C的图像特征MASFFout送入堆叠式注意力残差模块中;所述堆叠式注意力残差模块包含两个注意力块AB,每个注意力块使用一个多尺度卷积层提取不同感受野的特征,再由半双重注意力单元分别从空间和通道维度上获取信息,最后经过实例归一化层得到该块输出,两个块之间由激活函数层连接,具体公式如下所示:
S0=AB(ξ(AB(MSAFFout)))
其中,ξ(·)表示ReLU激活函数层,按如下公式定义:
Figure BDA0003692226890000051
所述注意力块AB,按照如下公式计算:
AB(x)=INor(HDAU(Pyconv2(x)))
其中,x表示输入注意力块AB的特征图,INor表示Instance Normalization,即实例归一化,用以保持每个图像实例之间的独立,HDAU表示半双重注意力单元,设输入HDAU的特征图为S1,其大小为H×W×C,则HDAU(S1)首先对输入的特征图S1从通道维度上划分为两块S2和S3,大小皆为
Figure BDA0003692226890000052
其中S2首先经过两个3×3卷积层提取浅层特征,再通道上采样后得到大小为H×W×C的特征,再分别经过空间注意力层和通道注意力层提取空间和通道上的特征信息,得到空间加强特征图和通道加强特征图;
将得到的空间加强特征图和通道加强特征图在通道维度上进行拼接,然后再通过一个1×1卷积层,使通道数从2C降采样至
Figure BDA0003692226890000053
以便与S2做逐元素相加运算,得到S2”;而S3上的另一半通道保留上下文信息,与S2”在通道维度上拼接后,经过一个3×3卷积层、一个PReLU激活函数层,最后与经过1×1卷积层的S1逐元素相加得到S4,具体按照如下公式计算:
S′2=Conv3×3(PReLU(Conv3×3(S2)))
S″2=Conv1×1(Concat(CA(S′2),SA(S′2)))+S2
S4=Conv1×1(S1)+PReLU(Conv3×3(Concat(S″2,S3)))
其中,S2和S3分别为半双重注意力单元的输入特征S1在通道维度上切分操作的结果,Concat(·)表示通道上的拼接操作,PReLU(·)表示PReLU激活函数层,CA(·)和SA(·)分别表示通道注意力层和空间注意力层,Convk×k(·)表示卷积核大小为k×k的卷积层;
步骤B32:将步骤B31得到的输出S0与输入MSAFFout按逐元素相加后,经过ReLU激活函数层,得到堆叠式注意力残差块的输出Z,按如下公式计算:
Z=ReLU((S0+MSAFFout))。
进一步地,所述傅里叶重建模块的工作过程具体包括以下步骤:
步骤B41:傅里叶重建模块的输入为堆叠式注意力残差块的输出Z,经过二维快速傅里叶分解得到实部R和虚部I,维度都是
Figure BDA0003692226890000061
从通道维度上拼接得到特征图Z1,维度为
Figure BDA0003692226890000062
随后经过两个多尺度卷积层和一个激活函数层,得到频域的特征图Z2,其大小为
Figure BDA0003692226890000063
具体计算公式如下:
R,I=rfft(Z)
Z1=Concat(R,I)
Z2=Pyconv2(ReLU(Pyconv2(Z1)))
其中,rfft(·)表示二维快速傅里叶分解运算,得到的实部和虚部分别为R和I,Concat(·)表示通道维度上的拼接操作,ReLU(·)表示ReLU激活函数,Pyconv2(·)表示多尺度卷积层,含有两种不同尺寸的卷积核,按照如下公式计算:
Pyconv2(x)=Concat(Conv3×3(x),Conv5×5(x))
其中,x为输入多尺度卷积层的特征,维度为H×W×C,Convk×k(·)表示卷积核大小为k×k的卷积层,输出通道数为
Figure BDA0003692226890000064
Conv3×3(·)和Conv5×5(·)所提取的特征在通道维度上进行拼接操作后得到大小为H×W×C的特征图;
步骤B42:对步骤B41得到的频域特征图Z2从通道维度上切分,进行复数运算后,使用傅里叶逆变换回到空间域,得到特征Zfft,与Z经过浅卷积提取的特征Zres以及Z本身进行逐元素相加,得到傅里叶重建模块的输出Zout,具体计算公式如下:
R',I'=chunk2(Z2)
Zfft=ifft(R'+I'i)
Zres=Conv3×3(ReLU(Conv3×3(Z)))
Zout=Zfft+Zres+Z
其中,chunk2(·)是通道维度上的切分操作,R'和I'分别表示由特征Z2切分得到的新的实部和虚部,i表示虚数单位,ifft(·)表示二维傅里叶逆变换运算,Conv3×3(·)表示卷积核大小为3×3的卷积层,ReLU(·)表示激活函数层。
进一步地,在步骤C当中:
所设计的总目标损失函数如下:
Figure BDA0003692226890000065
其中,
Figure BDA0003692226890000068
表示总损失函数,
Figure BDA0003692226890000066
Figure BDA0003692226890000067
分别表示结构损失函数和感知损失函数,λ1和λ2分别是结构损失函数和感知损失函数的系数,·为实数的点乘操作,具体各项损失函数计算公式如下:
Figure BDA0003692226890000071
Figure BDA0003692226890000072
其中,Ioutput为低照度图像增强网络的最终预测结果,Ihigh为对应的正常照度图像,F(·)表示使用VGG16提取的第31个特征图,该特征图的大小为H'×W'×C';
训练过程具体为:
将待训练图像对随机划分为若干个批次,每个批次包含相同数目的配对图像,训练优化网络,直至计算得到的总损失
Figure BDA0003692226890000073
收敛到阈值或迭代次数达到阈值,则停止训练并保存训练好的模型。
一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如上所述的基于多尺度堆叠式注意力网络的低照度图像增强方法。
一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如上所述的基于多尺度堆叠式注意力网络的低照度图像增强方法。
与现有技术相比,本发明及其优选方案能够充分学习图像多尺度信息,通过堆叠式注意力深度提取图像空间和通道上的特征,利用残差结构聚合信息,显著提升低照度图像质量,较好恢复了细节信息和边缘纹理特征。
附图说明
图1是本发明实施例方法的实现流程图。
图2是本发明实施例中网络模型结构图。
图3是本发明实施例中多尺度自适应特征融合结构图。
图4是本发明实施例中堆叠式注意力残差模块结构图。
图5是本发明实施例中半双重注意力单元结构图。
具体实施方式
为让本专利的特征和优点能更明显易懂,下文特举实施例,作详细说明如下:
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本说明书使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
本发明提供的基于多尺度堆叠式注意力网络的低照度图像增强方法,如图1-图5所示,包括以下步骤:
步骤A:对原始低照度图像和正常照度图像的训练图像对进行预处理,得到原始低照度图像和正常照度图像组成的训练图像对;
步骤B:设计多尺度堆叠式注意力网络作为低照度图像增强网络,该网络包含多尺度自适应特征融合模块,堆叠式注意力残差模块和傅里叶重建模块;
步骤C:设计低照度图像增强网络的目标损失函数,训练网络至收敛到阈值或迭代次数达到阈值;
步骤D:将待测图像输入到所设计的低照度图像增强网络中,利用训练好的网络预测生成正常照度图像。
进一步地,步骤A包括以下步骤:
A1:随机指定每张图像的切块位置,按照一致的方式处理原始低照度图像及其配对的正常照度图像,得到尺寸为H×W的配对图像块,其中低照度图像为输入,正常照度图像为参考图像;
A2:对所有待训练图像对进行相同的随机翻转旋转操作,以增强数据。
进一步地,步骤B包括以下步骤:
步骤B1:设计一种基于多尺度堆叠式注意力的网络,主要包含多尺度自适应特征融合模块,堆叠式注意力残差模块和傅里叶重建模块,能在提升图像亮度的同时尽可能多地保留内容信息;
步骤B2:设计多尺度自适应特征融合模块,能更好地能提取不同场景下不同尺度的复杂光照以及不同尺度的物体特征;
步骤B3:设计堆叠式注意力残差模块,用于提取场景中的细节纹理及边缘信息,从而得到更清晰的增强图像;
步骤B4:设计傅里叶重建模块,有效捕获长期和短期交互,同时集成低频和高频残差信息。
进一步地,步骤B1包括以下步骤:
步骤B11:输入是大小为H×W×3的低照度图像,首先经过卷积核为3×3的卷积层进行浅层特征提取后得到大小为H×W×C的特征图in。
步骤B12:将步骤B11得到的特征图in依次经过多尺度自适应特征融合模块MSAFF,堆叠式注意力残差模块SARM,傅里叶重建模块ResFFT,得到特征图Zout,具体按照如下公式计算:
Zout=Concat(ResFFT(SARM((MSAFF(in)))),in)
其中,Concat(·)为通道上的拼接操作。
步骤B13:步骤B12得到的特征图Zout经过多尺度卷积层和激活函数层后,得到最终的预测图像output,即增强后的低照度图像,具体计算公式如下:
output=Sigmoid(Conv3×3(Pyconv2(Concat(Zout,in))))
其中,Sigmoid(·)表示Sigmoid激活函数层,Pyconv2(·)表示多尺度卷积层,含有两种不同尺寸的卷积核,按照如下公式计算:
Pyconv2(x)=Concat(Conv3×3(x),Conv5×5(x))
其中,x为输入多尺度卷积层的特征,维度为H×W×C,Convk×k(·)表示卷积核大小为k×k的卷积层,输出通道数为
Figure BDA0003692226890000091
Conv3×3(·)和Conv5×5(·)所提取的特征在通道维度上进行拼接操作后得到大小为H×W×C的特征图。
进一步地,步骤B2包括以下步骤:
步骤B21:在多尺度自适应特征融合模块中,输入为步骤B11中得到的特征图in,将特征图in分别送入三个不同大小的卷积核中,得到大小皆为H×W×C的输出,按照如下公式计算:
F1=Conv3×3(in)
F2=Conv5×5(in)
F3=Conv7×7(in)
其中,Conv3×3(·)、Conv5×5(·)、Conv7×7(·)分别表示卷积核大小为3×3、5×5、7×7的卷积层,不同的卷积核能够捕获不同尺度感受野的信息,有效聚合空间信息,更好地表示复杂场景下的特征;
步骤B22:将步骤B21得到的三个特征F1、F2、F3送入多尺度自适应特征融合模块MSAFF,首先将三个特征进行逐元素求和运算,得到大小为H×W×C的特征图F4,再依次送入自适应全局平均池化层、卷积核大小为1×1的卷积层,其后经过PReLU激活函数层,具体计算公式如下:
F4=F1+F2+F3
F5=σ(Conv1×1(AvgPool(F4)))
其中AvgPool(·)表示自适应全局平均池化层,AvgPool(F4)表示将F4在空间维度上做自适应全局平均池化,得到大小为1×1×C的特征向量,C为F4的通道数;Conv1×1(·)表示卷积核大小为1×1的卷积层,用以通道降维生成紧凑的特征表示,F5的大小为
Figure BDA0003692226890000101
Figure BDA0003692226890000102
σ(·)表示PReLU激活函数,对通道i的PReLU激活函数定义如下:
Figure BDA0003692226890000103
其中,xi表示通道i上的特征,ai表示通道i上需要学习的参数,
将F5分别送入三个平行的卷积分支用于提升通道维度,再分别与F1、F2、F3相乘后逐元素相加,得到自适应特征选择模块的输出,按如下公式计算:
Figure BDA0003692226890000104
F6=l1F1+l2F2+l3F3
其中,
Figure BDA0003692226890000105
表示第i个用于提升通道维度的1×1卷积层,Softmax(·)表示Softmax激活函数,输出li大小为1×1×C,F6大小为H×W×C。
步骤B23:将步骤B21提取的浅层特征图in和步骤B22得到的特征图F6做逐元素求和运算,计算公式如下:
MSAFFout=in+F6
进一步地,步骤B3包括以下步骤:
步骤B31:将来自多尺度自适应特征融合模块的输出作为堆叠式注意力残差模块的输入,即将维度为H×W×C的图像特征MASFFout送入堆叠式注意力残差模块中,堆叠式注意力残差模块包含两个注意力块AB,每个块使用一个多尺度卷积层提取不同感受野的特征,再由半双重注意力单元分别从空间和通道维度上获取信息,最后经过实例归一化层得到该块输出,两个块之间由激活函数层连接,具体公式如下所示:
S0=AB(ξ(AB(MSAFFout)))
其中,ξ(·)表示ReLU激活函数层,按如下公式定义:
Figure BDA0003692226890000111
其中,x表示输入ReLU函数的值。
设计步骤B31中的注意力块AB,按照如下公式计算:
AB(x)=INor(HDAU(Pyconv2(x)))
其中,x表示输入注意力块AB的特征图,INor表示Instance Normalization,即实例归一化,用以保持每个图像实例之间的独立,HDAU表示半双重注意力单元,假设输入HDAU的特征图为S1,其大小为H×W×C,则HDAU(S1)首先对输入的特征图S1从通道维度上划分为两块S2和S3,大小皆为
Figure BDA0003692226890000112
其中S2首先经过两个3×3卷积层提取浅层特征,再通道上采样后得到大小为H×W×C的特征,再分别经过空间注意力层和通道注意力层提取空间和通道上的特征信息,得到空间加强特征图和通道加强特征图,将得到的空间加强特征图和通道加强特征图在通道维度上进行拼接,然后再通过一个1×1卷积层,使通道数从2C降采样至
Figure BDA0003692226890000113
以便与S2做逐元素相加运算,得到S2”。而S3上的另一半通道保留上下文信息,与S2”在通道维度上拼接后,经过一个3×3卷积层、一个PReLU激活函数层,最后与经过1×1卷积层的S1逐元素相加得到S4,具体按照如下公式计算:
S′2=Conv3×3(PReLU(Conv3×3(S2)))
S″2=Conv1×1(Concat(CA(S′2),SA(S′2)))+S2
S4=Conb1×1(S1)+PReLU(Conv3×3(Concat(S″2,S3)))
其中,S2和S3分别为半双重注意力单元的输入特征S1在通道维度上切分操作的结果,Concat(·)表示通道上的拼接操作,PReLU(·)表示PReLU激活函数层,CA(·)和SA(·)分别表示通道注意力层和空间注意力层,Convk×k(·)表示卷积核大小为k×k的卷积层。
步骤B32:将步骤B31得到的输出S0与输入,SAFFout按逐元素相加后,经过ReLU激活函数层,得到堆叠式注意力残差块的输出Z,按如下公式计算:
Z=ReLU((S0+MSAFFout))。
进一步地,步骤B4包括以下步骤:
步骤B41:傅里叶重建模块的输入为前序模块的输出Z,经过二维快速傅里叶分解得到实部R和虚部I,维度都是
Figure BDA0003692226890000121
从通道维度上拼接得到特征图Z1,维度为
Figure BDA0003692226890000122
Figure BDA0003692226890000123
随后经过两个多尺度卷积层和一个激活函数层,得到频域的特征图Z2,其大小为
Figure BDA0003692226890000124
Figure BDA0003692226890000125
具体计算公式如下:
R,I=rfft(Z)
Z1=Concat(R,I)
Z2=Pyconv2(ReLU(Pyconv2(Z1)))
其中,rfft(·)表示二维快速傅里叶分解运算,得到的实部和虚部分别为R和I,Concat(·)表示通道维度上的拼接操作,ReLU(·)表示ReLU激活函数,Pyconv2表示与步骤B13中相同的含有两种不同尺寸卷积核的卷积层。
步骤B42:对步骤B41得到的频域特征图Z2从通道维度上切分,进行复数运算后,使用傅里叶逆变换回到空间域,得到特征Zfft,与Z经过浅卷积提取的特征Zres以及残差傅里叶模块输入Z进行逐元素相加,得到该模块的输出Zout,具体计算公式如下:
R',I'=chunk2(Z2)
Zfft=ifft(R'+I'i)
Zres=Conv3×3(ReLU(Conv3×3(Z)))
Zout=Zfft+Zres+Z
其中,chunk2(·)是通道维度上的切分操作,R'和I'分别表示由特征Z2切分得到的新的实部和虚部,i表示虚数单位,ifft(·)表示二维傅里叶逆变换运算,Conv3×3(·)表示卷积核大小为3×3的卷积层,ReLU(·)表示激活函数层。
进一步地,步骤C包括以下步骤:
步骤C1:设计网络目标损失函数,总目标损失函数如下:
Figure BDA0003692226890000127
其中,
Figure BDA0003692226890000128
表示总损失函数,
Figure BDA0003692226890000129
Figure BDA00036922268900001210
分别表示结构损失函数和感知损失函数,λ1和λ2分别是其系数,·为实数的点乘操作,具体各项损失函数计算公式如下:
Figure BDA0003692226890000126
Figure BDA0003692226890000131
其中,Ioutput为低照度图像增强网络的最终预测结果,Ihigh为对应的正常照度图像,F(·)表示使用VGG16提取的第31个特征图,该特征图的大小为H'×W'×C′。
步骤C2:将待训练图像对随机划分为若干个批次,每个批次包含相同数目的配对图像,训练优化网络,直至步骤C1中计算得到的总损失
Figure BDA0003692226890000132
收敛到阈值或迭代次数达到阈值,并保存训练好的模型。
本领域内的技术人员应明白,本发明的实施例可提供为方法、装置、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(装置)、和计算机程序产品的流程图来描述的。应理解可由计算机程序指令实现流程图中的每一流程、以及流程图中的流程结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程图中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程中指定的功能的步骤。
以上所述,仅是本发明的较佳实施例而已,并非是对本发明作其它形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例。但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
本专利不局限于上述最佳实施方式,任何人在本专利的启示下都可以得出其它各种形式的基于多尺度堆叠式注意力网络的低照度图像增强方法,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本专利的涵盖范围。

Claims (9)

1.一种基于多尺度堆叠式注意力网络的低照度图像增强方法,其特征在于,包括以下步骤:
步骤A:对原始低照度图像和正常照度图像的训练图像对进行预处理,得到原始低照度图像和正常照度图像组成的训练图像对;
步骤B:设计多尺度堆叠式注意力网络作为低照度图像增强网络,包括:
多尺度自适应特征融合模块,用于提取不同场景下不同尺度的复杂光照以及不同尺度的物体特征;
堆叠式注意力残差模块,用于提取场景中的细节纹理及边缘信息;
傅里叶重建模块,用于有效捕获长期和短期交互,同时集成低频和高频残差信息;
步骤C:设计低照度图像增强网络的目标损失函数,训练网络至收敛到阈值或迭代次数达到阈值;
步骤D:将待测图像输入到所设计的低照度图像增强网络中,利用训练好的网络预测生成正常照度图像。
2.根据权利要求1所述的基于多尺度堆叠式注意力网络的低照度图像增强方法,其特征在于:
步骤A的具体实现步骤如下:
步骤A1:随机指定每张图像的切块位置,处理原始低照度图像及其配对的正常照度图像,得到尺寸为H×W的配对图像块,其中低照度图像为输入,正常照度图像为参考图像;
步骤A2:对所有待训练图像对进行相同的随机翻转旋转操作,增强数据。
3.根据权利要求1所述的基于多尺度堆叠式注意力网络的低照度图像增强方法,其特征在于:所述多尺度堆叠式注意力网络的工作过程具体包括以下步骤:
步骤B11:输入大小为H×W×3的低照度图像,首先经过卷积核为3×3的卷积层进行浅层特征提取后得到大小为H×W×C的特征图in;
步骤B12:将步骤B11得到的特征图in依次经过多尺度自适应特征融合模块MSAFF,堆叠式注意力残差模块SARM,傅里叶重建模块ResFFT,得到特征图Zout,具体按照如下公式计算:
Zout=Concat(ResFFT(SARM((MSAFF(in)))),in)
其中,Concat(·)为通道上的拼接操作
步骤B13:在将步骤B12得到的特征图Zout经过多尺度卷积层和激活函数层后,得到最终的预测图像output,即增强后的低照度图像,具体计算公式如下:
output=Sigmoid(Conv3×3(Pyconv2(Concat(Zout,in))))
其中,Sigmoid(·)表示Sigmoid激活函数层,Pyconv2(·)表示多尺度卷积层,含有两种不同尺寸的卷积核,按照如下公式计算:
Pyconv2(x)=Concat(Conv3×3(x),Conv5×5(x))
其中,x为输入多尺度卷积层的特征,维度为H×W×C,Convk×k(·)表示卷积核大小为k×k的卷积层,输出通道数为
Figure FDA0003692226880000021
Conv3×3(·)和Conv5×5(·)所提取的特征在通道维度上进行拼接操作后得到大小为H×W×C的特征图。
4.根据权利要求3所述的基于多尺度堆叠式注意力网络的低照度图像增强方法,其特征在于:所述多尺度自适应特征融合模块的工作过程具体包括以下步骤:
步骤B21:输入为步骤B11中得到的特征图in,将殴特征图in分别送入三个不同大小的卷积核中,得到大小皆为H×W×C的输出,按照如下公式计算:
F1=Conv3×3(in)
F2=Conv5×5(in)
F3=Conv7×7(in)
其中,Conv3×3(·)、Conv5×5(·)、Conv7×7(·)分别表示卷积核大小为3×3、5×5、7×7的卷积层;
步骤B22:将步骤B21得到的三个特征F1、F2、F3进行逐元素求和运算,得到大小为H×W×C的特征图F4,再依次送入自适应全局平均池化层、卷积核大小为1×1的卷积层,其后经过PReLU激活函数层,具体计算公式如下:
F4=F1+F2+F3
F5=σ(Conv1×1(AvgPool(F4)))
其中AvgPool(·)表示自适应全局平均池化层,AvgPool(F4)表示将F4在空间维度上做自适应全局平均池化,得到大小为1×1×C的特征向量,C为F4的通道数;Conv1×1(·)表示卷积核大小为1×1的卷积层,用以通道降维,生成紧凑的特征表示,F5的大小为
Figure FDA0003692226880000022
Figure FDA0003692226880000023
σ(·)表示PReLU激活函数,对通道i的PReLU激活函数定义如下:
Figure FDA0003692226880000031
其中,xi表示通道i上的特征,ai表示通道i上需要学习的参数,
将F5分别送入三个平行的卷积分支用于提升通道维度,再分别与F1、F2、F3相乘后逐元素相加,得到自适应特征选择模块的输出,按如下公式计算:
Figure FDA0003692226880000032
F6=l1F1+l2F2+l3F3
其中,
Figure FDA0003692226880000033
表示第i个用于提升通道维度的1×1卷积层,Softmax(·)表示Softmax激活函数,输出li大小为1×1×C,F6大小为H×W×C;
步骤B23:将步骤B21提取的浅层特征图in和步骤B22得到的特征图F6做逐元素求和运算,计算公式如下:
MSAFFout=in+F6
5.根据权利要求4所述的基于多尺度堆叠式注意力网络的低照度图像增强方法,其特征在于:所述堆叠式注意力残差模块的工作过程具体包括以下步骤:
步骤B31:将来自多尺度自适应特征融合模块的输出作为堆叠式注意力残差模块的输入,即,将维度为H×W×C的图像特征MASFFout送入堆叠式注意力残差模块中;所述堆叠式注意力残差模块包含两个注意力块AB,每个注意力块使用一个多尺度卷积层提取不同感受野的特征,再由半双重注意力单元分别从空间和通道维度上获取信息,最后经过实例归一化层得到该块输出,两个块之间由激活函数层连接,具体公式如下所示:
S0=AB(ξ(AB(MSAFFout)))
其中,ξ(·)表示ReLU激活函数层,按如下公式定义:
Figure FDA0003692226880000034
所述注意力块AB,按照如下公式计算:
AB(x)=INor(HDAU(Pyconv2(x)))
其中,x表示输入注意力块AB的特征图,INor表示Instance Normalization,即实例归一化,用以保持每个图像实例之间的独立,HDAU表示半双重注意力单元,设输入HDAU的特征图为S1,其大小为H×W×C,则HDAU(S1)首先对输入的特征图S1从通道维度上划分为两块S2和S3,大小皆为
Figure FDA0003692226880000035
其中S2首先经过两个3×3卷积层提取浅层特征,再通道上采样后得到大小为H×W×C的特征,再分别经过空间注意力层和通道注意力层提取空间和通道上的特征信息,得到空间加强特征图和通道加强特征图;
将得到的空间加强特征图和通道加强特征图在通道维度上进行拼接,然后再通过一个1×1卷积层,使通道数从2C降采样至
Figure FDA0003692226880000041
以便与S2做逐元素相加运算,得到S2”;而S3上的另一半通道保留上下文信息,与S2”在通道维度上拼接后,经过一个3×3卷积层、一个PReLU激活函数层,最后与经过1×1卷积层的S1逐元素相加得到S4,具体按照如下公式计算:
S′2=Conv3×3(PReLU(Conv3×3(S2)))
S″2=Conv1×1(Concat(CA(S′2),SA(S′2)))+S2
S4=Conv1×1(S1)+PReLU(Conv3×3(Concat(S″2,S3)))
其中,S2和S3分别为半双重注意力单元的输入特征S1在通道维度上切分操作的结果,Concat(·)表示通道上的拼接操作,PReLU(·)表示PReLU激活函数层,CA(·)和SA(·)分别表示通道注意力层和空间注意力层,Convk×k(·)表示卷积核大小为k×k的卷积层;
步骤B32:将步骤B31得到的输出S0与输入MSAFFout按逐元素相加后,经过ReLU激活函数层,得到堆叠式注意力残差块的输出Z,按如下公式计算:
Z=ReLU((S0+MSAFFout))。
6.根据权利要求5所述的基于多尺度堆叠式注意力网络的低照度图像增强方法,其特征在于:所述傅里叶重建模块的工作过程具体包括以下步骤:
步骤B41:傅里叶重建模块的输入为堆叠式注意力残差块的输出Z,经过二维快速傅里叶分解得到实部R和虚部I,维度都是
Figure FDA0003692226880000042
从通道维度上拼接得到特征图Z1,维度为
Figure FDA0003692226880000043
随后经过两个多尺度卷积层和一个激活函数层,得到频域的特征图Z2,其大小为
Figure FDA0003692226880000044
具体计算公式如下:
R,I=rfft(Z)
Z1=Concat(R,I)
Z2=Pyconv2(ReLU(Pyconv2(Z1)))
其中,rfft(·)表示二维快速傅里叶分解运算,得到的实部和虚部分别为R和I,Concat(·)表示通道维度上的拼接操作,ReLU(·)表示ReLU激活函数,Pyconv2(·)表示多尺度卷积层,含有两种不同尺寸的卷积核,按照如下公式计算:
Pyconv2(x)=Concat(Conv3×3(x),Conv5×5(x))
其中,x为输入多尺度卷积层的特征,维度为H×W×C,Convk×k(·)表示卷积核大小为k×k的卷积层,输出通道数为
Figure FDA0003692226880000051
Conv3×3(·)和Conv5×5(·)所提取的特征在通道维度上进行拼接操作后得到大小为H×W×C的特征图;
步骤B42:对步骤B41得到的频域特征图Z2从通道维度上切分,进行复数运算后,使用傅里叶逆变换回到空间域,得到特征Zfft,与Z经过浅卷积提取的特征Zres以及Z本身进行逐元素相加,得到傅里叶重建模块的输出Zout,具体计算公式如下:
R',I'=chunk2(Z2)
Zfft=ifft(R'+I'i)
Zres=Conv3×3(ReLU(Conv3×3(Z)))
Zout=Zfft+Zres+Z
其中,chunk2(·)是通道维度上的切分操作,R'和I'分别表示由特征Z2切分得到的新的实部和虚部,i表示虚数单位,ifft(·)表示二维傅里叶逆变换运算,Conv3×3(·)表示卷积核大小为3×3的卷积层,ReLU(·)表示激活函数层。
7.根据权利要求6所述的基于多尺度堆叠式注意力网络的低照度图像增强方法,其特征在于:在步骤C当中:
所设计的总目标损失函数如下:
l=λ1·lrec2·lpec
其中,l表示总损失函数,lrec和lpec分别表示结构损失函数和感知损失函数,λ1和λ2分别是结构损失函数和感知损失函数的系数,·为实数的点乘操作,具体各项损失函数计算公式如下:
Figure FDA0003692226880000052
Figure FDA0003692226880000053
其中,Ioutput为低照度图像增强网络的最终预测结果,Ihigh为对应的正常照度图像,F(·)表示使用VGG16提取的第31个特征图,该特征图的大小为H'×W'×C';
训练过程具体为:
将待训练图像对随机划分为若干个批次,每个批次包含相同数目的配对图像,训练优化网络,直至计算得到的总损失l收敛到阈值或迭代次数达到阈值,则停止训练并保存训练好的模型。
8.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7其中任一所述的基于多尺度堆叠式注意力网络的低照度图像增强方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7其中任一所述的基于多尺度堆叠式注意力网络的低照度图像增强方法。
CN202210663857.6A 2022-06-14 2022-06-14 基于多尺度堆叠式注意力网络的低照度图像增强方法 Pending CN114972107A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210663857.6A CN114972107A (zh) 2022-06-14 2022-06-14 基于多尺度堆叠式注意力网络的低照度图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210663857.6A CN114972107A (zh) 2022-06-14 2022-06-14 基于多尺度堆叠式注意力网络的低照度图像增强方法

Publications (1)

Publication Number Publication Date
CN114972107A true CN114972107A (zh) 2022-08-30

Family

ID=82961358

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210663857.6A Pending CN114972107A (zh) 2022-06-14 2022-06-14 基于多尺度堆叠式注意力网络的低照度图像增强方法

Country Status (1)

Country Link
CN (1) CN114972107A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115238833A (zh) * 2022-09-22 2022-10-25 中国民航大学 一种空气涡轮起动机轴承性能退化特征提取方法
CN116137023A (zh) * 2023-04-20 2023-05-19 中国民用航空飞行学院 基于背景建模和细节增强的低照度图像增强方法
CN116503260A (zh) * 2023-06-29 2023-07-28 北京建筑大学 一种图像超分辨率重建方法、装置和设备
CN116579918A (zh) * 2023-05-19 2023-08-11 哈尔滨工程大学 基于风格无关判别器的注意力机制多尺度图像转换方法
CN117036613A (zh) * 2023-08-18 2023-11-10 武汉大学 一种基于多重感受野交融网络的偏振三维重建方法和系统
CN117808721A (zh) * 2024-02-28 2024-04-02 深圳市瓴鹰智能科技有限公司 基于深度学习的低照度图像增强方法、装置、设备及介质

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115238833A (zh) * 2022-09-22 2022-10-25 中国民航大学 一种空气涡轮起动机轴承性能退化特征提取方法
CN115238833B (zh) * 2022-09-22 2022-11-25 中国民航大学 一种空气涡轮起动机轴承性能退化特征提取方法
CN116137023A (zh) * 2023-04-20 2023-05-19 中国民用航空飞行学院 基于背景建模和细节增强的低照度图像增强方法
CN116137023B (zh) * 2023-04-20 2023-06-20 中国民用航空飞行学院 基于背景建模和细节增强的低照度图像增强方法
CN116579918A (zh) * 2023-05-19 2023-08-11 哈尔滨工程大学 基于风格无关判别器的注意力机制多尺度图像转换方法
CN116579918B (zh) * 2023-05-19 2023-12-26 哈尔滨工程大学 基于风格无关判别器的注意力机制多尺度图像转换方法
CN116503260A (zh) * 2023-06-29 2023-07-28 北京建筑大学 一种图像超分辨率重建方法、装置和设备
CN116503260B (zh) * 2023-06-29 2023-09-19 北京建筑大学 一种图像超分辨率重建方法、装置和设备
CN117036613A (zh) * 2023-08-18 2023-11-10 武汉大学 一种基于多重感受野交融网络的偏振三维重建方法和系统
CN117036613B (zh) * 2023-08-18 2024-04-02 武汉大学 一种基于多重感受野交融网络的偏振三维重建方法和系统
CN117808721A (zh) * 2024-02-28 2024-04-02 深圳市瓴鹰智能科技有限公司 基于深度学习的低照度图像增强方法、装置、设备及介质
CN117808721B (zh) * 2024-02-28 2024-05-03 深圳市瓴鹰智能科技有限公司 基于深度学习的低照度图像增强方法、装置、设备及介质

Similar Documents

Publication Publication Date Title
CN114972107A (zh) 基于多尺度堆叠式注意力网络的低照度图像增强方法
Yeh et al. Lightweight deep neural network for joint learning of underwater object detection and color conversion
Yeh et al. Multi-scale deep residual learning-based single image haze removal via image decomposition
Xu et al. A systematic review and analysis of deep learning-based underwater object detection
CN112614136B (zh) 一种红外小目标实时实例分割方法及装置
CN112257766B (zh) 一种基于频域滤波处理的自然场景下阴影识别检测方法
CN110148088B (zh) 图像处理方法、图像去雨方法、装置、终端及介质
CN112465727A (zh) 基于HSV色彩空间和Retinex理论的无正常光照参考的低照度图像增强方法
CN113538457B (zh) 利用多频动态空洞卷积的视频语义分割方法
Yan et al. Method to Enhance Degraded Image in Dust Environment.
CN114723630A (zh) 基于空洞双残差多尺度深度网络的图像去模糊方法及系统
Kaur A review on image enhancement with deep learning approach
CN114581318B (zh) 一种低照明度图像增强方法及系统
Saleem et al. A non-reference evaluation of underwater image enhancement methods using a new underwater image dataset
CN111539434B (zh) 基于相似度的红外弱小目标检测方法
CN115965844B (zh) 基于视觉显著性先验知识的多聚焦图像融合方法
CN114926348B (zh) 一种去除低照度视频噪声的装置和方法
CN116824317A (zh) 一种基于多尺度特征自适应融合的水上红外目标检测方法
CN114022371B (zh) 基于空间和通道注意力残差网络的去雾装置及其去雾方法
CN115953312A (zh) 一种基于单幅图像的联合去雾检测方法、装置及存储介质
CN115187855A (zh) 一种海底底质声呐图像分类方法
Niu et al. Underwater Waste Recognition and Localization Based on Improved YOLOv5.
Rani et al. ELM-Based Shape Adaptive DCT Compression technique for underwater image compression
Wang et al. Multi-patch and feature fusion network for single image Dehazing
El Rejal et al. Tiny machine learning for underwater image enhancement: pruning and quantization approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination