CN114529713A - 一种基于深度学习的水下图像增强方法 - Google Patents

一种基于深度学习的水下图像增强方法 Download PDF

Info

Publication number
CN114529713A
CN114529713A CN202210040116.2A CN202210040116A CN114529713A CN 114529713 A CN114529713 A CN 114529713A CN 202210040116 A CN202210040116 A CN 202210040116A CN 114529713 A CN114529713 A CN 114529713A
Authority
CN
China
Prior art keywords
image
channel
underwater
feature
similarity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210040116.2A
Other languages
English (en)
Inventor
左琳
徐冯杰
张昌华
刘宇
杨兴
刘斌
胡建
罗茂林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN202210040116.2A priority Critical patent/CN114529713A/zh
Publication of CN114529713A publication Critical patent/CN114529713A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/77Retouching; Inpainting; Scratch removal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A90/00Technologies having an indirect contribution to adaptation to climate change
    • Y02A90/30Assessment of water resources

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度学习的水下图像增强方法,属于深度学习和计算机视觉领域。本发明所属方法将输入的水下图像拆分为R、G、B三个颜色通道,再使用多尺度融合注意力模块分别学习不同颜色通道的衰减特征图,然后将不同颜色通道的衰减特征图进行通道堆叠,紧接着使用通道注意力机制提取感兴趣的衰减特征,最后利用1×1的卷积减少特征图输出维度并与输入图像融合,增强输入的水下图像。本发明所属方法可以有效提升水下图像的整体视觉质量,对在衰减光照条件下拍摄的各类场景的水下图像具有很好的鲁棒性,解决了传统水下图像增强方法得到的图像存在颜色校正色差大、图像照度低、噪声高且图像雾化较为严重等图像视觉质量提升不明显问题。

Description

一种基于深度学习的水下图像增强方法
技术领域
本发明属于深度学习和计算机视觉领域,具体涉及一种基于计算机视觉的水下图像增强方法。
背景技术
高质量的水下图像是理解水下信息的前提,对实际的海底探测、水下生物多样性研究、水下环境保护等工程项目和科学研究有着十分重要的影响。然而,受水中杂质、气泡等物理环境的影响,水下图像的质量往往会出现一定的退化。水对光的散射作用导致获取到的水下图像纹理模糊,并存在一定的雾化现象。水对光的吸收作用导致水下图像颜色失真,波长越长的光被吸收的越明显,导致水下图像基本呈现出蓝、绿色调。因此,为了解决上述问题,国内外的研究学者利用计算机视觉技术,对水下图像质量的恢复展开了深入研究。
现有的方法主要是分为两类,一类是基于水下光学成像模型的水下图像增强方法,另一类是通过直接调整图像像素分布的非物理模型图像增强方法。然而,基于物理模型的水下图像增强方法过度依赖于人工设置参数,不具备普适性和泛化性。另一方面,基于非物理模型的水下图像增强方法一般没有考虑到图像的R、G、B通道在水中传输过程中的衰减程度不同,无法很好地应对水下场景复杂、光照强度不均匀和噪声干扰明显的情况。
因此,迫切需要一种既能够改善由于水下场景复杂、光照强度不均匀、噪声干扰严重等因素造成的水下图像质量提升不明显,也能避免水下成像模型的人工参数设置复杂的水下图像增强方法。
发明内容
本发明提供了一种基于深度学习的水下图像增强方法,目的是改善现有技术得到的水下图像照度低、噪声高、分辨率低、雾化严重、对比度不明显和颜色失真等图像整体视觉质量退化问题,避免进一步影响目标物体的识别、追踪和检测。本发明通过深度卷积网络学习水下图像退化的底层特征,使网络模型能够适应复杂的水下场景和光照变化,并减少了增强过程中人工操作的干预。
本发明所提出的技术问题是这样解决的:
一种基于深度学习的水下图像增强方法,包括以下步骤:
步骤1,通道拆分:将输入的原始图像拆分为R、G、B三个通道矩阵,并分别将三个通道矩阵的像素值归一化到相同的数据分布;
步骤2,多尺度退化特征提取:将步骤1得到的三个通道分别输入到三个多尺度融合注意力模块中提取不同通道下的水下衰减特征,得到不同通道的特征矩阵WR、WG、WB,且每个特征矩阵的维度均为T;
步骤3,通道堆叠:将步骤2输出的不同通道的特征矩阵WR、WG、WB使用通道堆叠的方式融合为3×T维度的特征图,即在同一个像素坐标(Xi,Yj),i=1,2,3,...,p,j=1,2,3,...,q上进行堆叠,p和q分别表示特征矩阵的行和列的大小,一般情况下p和q的值相等;
步骤4,感兴趣特征区域提取:依据步骤3得到多通道特征图,运用通道注意力(Channel-wise Attention,CA)机制关注目标中感兴趣的区域像素,且不改变特征图的维度;
步骤5,1×1的卷积运算:利用1×1的卷积运算,将步骤4处理后的多通道特征图的维度从3×T压缩到与原始输入图像相同的通道维度,得到新的特征图R(x,y),x=1,2,3,...,m,y=1,2,3,...,n,m和n分别表示特征图的长和宽;
步骤6,特征融合:运用跳层连接的思想,将步骤5得到的新的特征图R(x,y)与原始输入图像O(x,y),x=1,2,3,...,m,y=1,2,3,...,n在相对应的像素坐标位置上直接相加并更新R(x,y),即R(x,y)+O(x,y)→R(x,y);
步骤7,将步骤的6得到特征融合结果R(x,y)和步骤1中的原始图像O(x,y)进行通道堆叠得到Rt(x,y)并输入到步骤1中,利用步骤5的方法降低Rt(x,y)的特征维度得到R1(x,y)并重复步骤1-6得到特征图R2(x,y),再将R2(x,y)与R1(x,y)进行通道堆叠后重复n次上述的过程;
步骤8,将步骤7输出的结果经过卷积核大小为3×3的卷积运算得到特征图像Rn(x,y),将Rn(x,y)与O(x,y)直接相加得到增强的图像Rf(x,y),即Rn(x,y)+O(x,y)→Rf(x,y);
步骤9,使用均方差损失函数LMSE、图像质量损失函数LSSIM与改进的颜色损失函数LCL和反向误差传播算法对上述步骤1-8进行训练,训练完成后保存水下图像增强网络模型和权重;
步骤10,使用步骤9已训练好的网络模型和权重,增强输入的水下测试图像。
本发明步骤2包括:
步骤2-1,将步骤1得到的单通道图Or、Og、Ob分为两条支线,分别与3×3和5×5大小的卷积核做运算,并将运算的结果直接相加得到特征图F'r、F'g、F'b
F'r=Conv3×3(Or)+Conv5×5(Or)
F'g=Conv3×3(Og)+Conv5×5(Og)
F'b=Conv3×3(Ob)+Conv5×5(Ob)
其中,Conv3×3(·)和Conv5×5(·)分别表示卷积核大小为3×3和5×5的卷积运算;
步骤2-2,将步骤2-1得到的F'r、F'g、F'b分别与再与3×3和5×5大小的卷积核做运算,并将运算的结果进行通道堆叠,然后通过卷积核大小为1×1的卷积运算将堆叠的通道维度压缩到三通道得到特征图F”r、F”g、F”b
F”r=Conv1×1(Γ(Conv3×3(F'r),Conv5×5(F'r)))
F”g=Conv1×1(Γ(Conv3×3(F'g),Conv5×5(F'g)))
F”b=Conv1×1(Γ(Conv3×3(F'b),Conv5×5(F'b)))
其中,Γ(·)表示相同大小矩阵的通道堆叠,详见步骤3,Conv1×1(·)表示卷积核大小为1×1的卷积运算;
步骤2-3,将步骤2-2得到的F”r、F”g、F”b分别输入到空间注意力(SpatialAttention,SA)模块,即对输入的F”r、F”g、F”b分别进行通道维度的平均池化和最大池化得到中间结果γ,然后通过一个卷积层和激活函数得到三个空间注意力矩阵,最后通过三个空间注意力矩阵与F”r、F”g、F”b点乘,提取空间感兴趣特征得到注意力图F”'r、F”'g、F”'b
γ=Γ(P(F”c),A(F”c)),c∈{r,g,b}
Figure BDA0003469847560000031
F”'s=F”c·ψ(Conv3×3(γ)),c∈{r,g,b},s∈{r,g,b}
其中,P(·)和A(·)分别表示最大池化和平均池化,ψ表示sigmoid激活函数。
本发明步骤9包括:
步骤9-1,将步骤步骤8得到的Rf(x,y)与T(x,y)使用改进的颜色损失函数LCL来描述它们之间的颜色空间向量的方向一致性,首先求出两张图像的余弦相似度similarity和两张图像在红色通道上的余弦相似度similarityr
Figure BDA0003469847560000041
Figure BDA0003469847560000042
其中,Tr(x,y)表示T(x,y)的红色通道图,Rf r(x,y)表示Rf(x,y)的红色通道图,ω和ζ的值均为0-1之间;
步骤9-2,将步骤9-1得到similarity和similarityr分别计算反三角函数值再相加得到LCL:
LCL=fc(similarity)+λ·fc(similarityr)
其中,f(·)表示反余弦三角函数,λ的值为0-1之间。
本发明提出了一种基于深度学习的水下图像增强方法,有益效果在于:
本发明利用深度学习的方法实现了水下图像的整体上视觉质量提升,能够有效地应用于场景复杂、光照不均匀、图像雾化严重和较高噪声的水下图像;本发明通过对水下图像的通道进行拆分,关注不同通道的衰减程度,能够有效地校正水下图像颜色失真;本发明利用注意力机制提取感兴趣区域的退化特征,消除了光照不均匀和噪声的干扰;本发明通过跳层连接、特征合并和多层神经网络避免了人工参数的选择,同时也可以解决水下场景复杂和图像雾化严重的的问题,提升了方法的泛化性和鲁棒性。
附图说明
图1为本发明实施例的水下图像增强方法的总流程图;
图2为本发明实施例的神经网络训练及应用流程图;
图3为本发明实施例的多尺度退化特征提取流程图;
图4为本发明实施例的原始水下图像之一;
图5为本发明实施例的R通道矩阵图;
图6为本发明实施例的G通道矩阵图;
图7为本发明实施例的B通道矩阵图;
图8为本发明实施例的网络特征提取图;
图9为本发明实施例的网络增强后的水下图像;
图10为本发明实施例的参考的水下图像;
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
本发明方法所总体流程如图1所示,其中包括神经网络的训练流程如图2所示,多尺度退化特征提取的流程如图3所示。本发明实施例中的水下图像增强的具体构建步骤如下:
步骤1,通道拆分:将输入的原始图像(如图4所示)拆分为R、G、B三个通道矩阵,如图5、图6和图7所示,并分别将三个通道矩阵的像素值归一化到0-1之间;
步骤2,多尺度退化特征提取:将步骤1得到的三个通道分别输入到三个多尺度融合注意力模块中提取不同通道下的水下衰减特征,得到不同通道的特征矩阵WR、WG、WB,且每个特征矩阵的维度均为T;
步骤3,通道堆叠:将步骤2输出的不同通道的特征矩阵WR、WG、WB使用通道堆叠的方式融合为3×T维度的特征图,即在同一个像素坐标(Xi,Yj),i=1,2,3,...,p,j=1,2,3,...,q上进行堆叠,p和q分别表示特征矩阵的行和列的大小,一般情况下p和q的值相等;
步骤4,感兴趣特征区域提取:依据步骤3得到多通道特征图,运用通道注意力(Channel-wise Attention,CA)机制关注目标中感兴趣的区域像素,且不改变特征图的维度;
步骤5,1×1的卷积运算:利用1×1的卷积运算,将步骤4处理后的多通道特征图的维度从3×T压缩到与原始输入图像相同的通道维度,得到新的特征图R(x,y),x=1,2,3,...,m,y=1,2,3,...,n,如图8所示,m和n分别表示特征图的长和宽;
步骤6,特征融合:运用跳层连接的思想,将步骤5得到的新的特征图R(x,y)与原始输入图像O(x,y),x=1,2,3,...,m,y=1,2,3,...,n在相对应的像素坐标位置上直接相加并更新R(x,y),即R(x,y)+O(x,y)→R(x,y);
步骤7,将步骤的6得到特征融合结果R(x,y)和步骤1中的原始图像O(x,y)进行通道堆叠得到Rt(x,y)并输入到步骤1中,利用步骤5的方法降低Rt(x,y)的特征维度得到R1(x,y)并重复步骤1-6得到特征图R2(x,y),再将R2(x,y)与R1(x,y)进行通道堆叠后重复n次上述的过程;
步骤8,将步骤7输出的结果经过卷积核大小为3×3的卷积运算得到特征图像Rn(x,y),将Rn(x,y)与O(x,y)直接相加得到增强的图像Rf(x,y),即Rn(x,y)+O(x,y)→Rf(x,y),Rf(x,y)如图9所示;
步骤9,使用均方差损失函数LMSE、图像质量损失函数LSSIM与改进的颜色损失函数LCL和反向误差传播算法对上述步骤1-8进行训练,训练完成后保存水下图像增强网络模型和权重;
步骤10,使用步骤9已训练好的网络模型和权重,增强输入的水下测试图像。
本发明步骤2包括:
步骤2-1,将步骤1得到的单通道图Or、Og、Ob分为两条支线,分别与3×3和5×5大小的卷积核做运算,并将运算的结果直接相加得到特征图F'r、F'g、F'b
F'r=Conv3×3(Or)+Conv5×5(Or)
F'g=Conv3×3(Og)+Conv5×5(Og)
F'b=Conv3×3(Ob)+Conv5×5(Ob)
其中,Conv3×3(·)和Conv5×5(·)分别表示卷积核大小为3×3和5×5的卷积运算;
步骤2-2,将步骤2-1得到的F'r、F'g、F'b分别与再与3×3和5×5大小的卷积核做运算,并将运算的结果进行通道堆叠提取水下图像的多尺度退化特征(如图3所示),然后通过卷积核大小为1×1的卷积运算将堆叠的通道维度压缩到三通道得到特征图F”r、F”g、F”b
F”r=Conv1×1(Γ(Conv3×3(F'r),Conv5×5(F'r)))
F”g=Conv1×1(Γ(Conv3×3(F'g),Conv5×5(F'g)))
F”b=Conv1×1(Γ(Conv3×3(F'b),Conv5×5(F'b)))
其中,Γ(·)表示相同大小矩阵的通道堆叠,详见步骤3,Conv1×1(·)表示卷积核大小为1×1的卷积运算;
步骤2-3,将步骤2-2得到的F”r、F”g、F”b分别输入到空间注意力(SpatialAttention,SA)模块,即对输入的F”r、F”g、F”b分别进行通道维度的平均池化和最大池化得到中间结果γ,然后通过一个卷积核大小为3×3的卷积层和sigmoid激活函数得到三个空间注意力矩阵,最后通过三个空间注意力矩阵与F”r、F”g、F”b点乘,提取空间感兴趣特征得到注意力图F”'r、F”'g、F”'b
γ=Γ(P(F”c),A(F”c)),c∈{r,g,b}
Figure BDA0003469847560000061
F”'s=F”c·ψ(Conv3×3(γ)),c∈{r,g,b},s∈{r,g,b}
其中,P(·)和A(·)分别表示最大池化和平均池化,ψ表示sigmoid激活函数。
本发明步骤9包括:
步骤9-1,将步骤8得到的Rf(x,y)与参考图像T(x,y)(如图10所示)使用均方误差函数LMSE来描述它们之间的相似性:
Figure BDA0003469847560000071
其中,H、W、C分别表示图像的高度、宽带和通道数;
步骤9-2,将步骤8得到的Rf(x,y)与T(x,y)使用结构相似函数LSSIM表示它们之间的结构相似度:
Figure BDA0003469847560000072
其中,αT(x,y)
Figure BDA0003469847560000073
分别表示T(x,y)的均值和方差,βT(x,y)
Figure BDA0003469847560000074
分别表示Rf(x,y)的均值和方差,C1和C2是保持等式稳定的常数;
步骤9-3,将步骤步骤8得到的Rf(x,y)与T(x,y)使用改进的颜色损失函数LCL来描述它们之间的颜色空间向量的方向一致性,首先求出两张图像的余弦相似度similarity和两张图像在红色通道上的余弦相似度similarityr
Figure BDA0003469847560000075
Figure BDA0003469847560000076
其中,Tr(x,y)表示T(x,y)的红色通道图,Rf r(x,y)表示Rf(x,y)的红色通道图,ω和ζ的值均为1×10-6
步骤9-4,将步骤9-3得到similarity和similarityr分别计算反三角函数值再相加得到LCL:
LCL=fc(similarity)+λ·fc(similarityr)
其中,f(·)表示反余弦三角函数,λ的值为0.1;
步骤9-5,将步骤9-1至9-4中提到的三个损失函数LMSE、LSSIM、LCL做一个线性的组合,得到总的损失函数LALL:
LALL=LMSE+β·LSSIM+γ·LCL
其中,β、γ的值分别是0.3和1。
本发明利用深度学习的方法实现了水下图像的整体上视觉质量的提升,能够有效地应用于场景复杂、光照不均匀、图像雾化严重和较高噪声的水下图像;本发明通过对水下图像的通道进行拆分,关注不同通道的衰减程度,能够有效地校正水下图像颜色失真;本发明利用注意力机制提取感兴趣区域的退化特征,消除了光照不均匀和噪声的干扰;本发明通过跳层连接、特征合并和多层神经网络避免人工参数的选择,同时可以解决水下场景复杂和图像雾化严重的的问题,并提升方法的泛化性和鲁棒性。
本发明提供了一种基于深度学习的水下图像增强方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人人员还可以做出不脱离本发明原理的改进和变形,这些改进和变形仍属于本发明的保护范围。

Claims (1)

1.一种基于深度学习的水下图像增强方法,其特征在于,包括以下步骤:
步骤1,通道拆分:将输入的原始图像拆分为三个单通道矩阵;
步骤2,多尺度退化特征提取:将步骤1得到的三个单通道矩阵分别输入到三个多尺度融合注意力模块中提取不同通道下的水下衰减特征,得到三个不同通道的特征矩阵;
步骤3,通道堆叠:将步骤2输出的不同通道的特征矩阵使用通道堆叠的方式融合为高维度的特征图;
步骤4,感兴趣特征区域提取:依据步骤3得到多通道特征图,运用通道注意力(Channel-wise Attention,CA)机制关注目标中感兴趣的区域像素,且不改变特征图的维度;
步骤5,1×1的卷积运算:利用1×1的卷积运算,将步骤4处理后的多通道特征图的维度压缩到与原始输入图像相同的通道维度,得到新的特征图;
步骤6,特征融合:运用跳层连接的思想,将步骤5得到的新的特征图与原始输入图像在相对应的像素坐标位置上直接相加并更新步骤5得到的特征图;
步骤7,将步骤的6得到特征融合结果和步骤1中的原始图像进行通道堆叠后再利用步骤5的方法降低特征图维度,重复多次步骤1-6;
步骤8,将步骤7输出的结果利用卷积运算得到增强的特征图像,并与原始图像直接相加得到水下增强图像;
步骤9,使用均方差损失函数、图像质量损失函数与改进的颜色损失函数以及反向误差传播算法对上述步骤1-8进行训练,训练完成后保存水下图像增强网络模型和权重;其中,该步骤可以分为如下2个步骤:
步骤9-1,将步骤步骤8得到的水下增强图像Rf(x,y)与参考图像T(x,y)使用改进的颜色损失函数来描述它们之间的颜色空间向量的方向一致性,首先求出两张图像的余弦相似度similarity和两张图像在红色通道上的余弦相似度similarityr
Figure FDA0003469847550000011
Figure FDA0003469847550000012
其中,Tr(x,y)表示T(x,y)的红色通道图,Rf r(x,y)表示Rf(x,y)的红色通道图,ω和ζ的均为常数;
步骤9-2,将步骤9-1得到similarity和similarityr分别计算反余弦三角函数再相加得到改进的颜色损失函数LCL:
LCL=fc(similarity)+λ·fc(similarityr)
其中,f(·)表示反余弦三角函数,λ为一个常数;
步骤10,使用步骤9已训练好的网络模型和权重,增强输入的水下测试图像。
CN202210040116.2A 2022-01-14 2022-01-14 一种基于深度学习的水下图像增强方法 Pending CN114529713A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210040116.2A CN114529713A (zh) 2022-01-14 2022-01-14 一种基于深度学习的水下图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210040116.2A CN114529713A (zh) 2022-01-14 2022-01-14 一种基于深度学习的水下图像增强方法

Publications (1)

Publication Number Publication Date
CN114529713A true CN114529713A (zh) 2022-05-24

Family

ID=81620558

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210040116.2A Pending CN114529713A (zh) 2022-01-14 2022-01-14 一种基于深度学习的水下图像增强方法

Country Status (1)

Country Link
CN (1) CN114529713A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116664454A (zh) * 2023-08-01 2023-08-29 中国海洋大学 一种基于多尺度颜色迁移参数预测的水下图像增强方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111598190A (zh) * 2020-07-21 2020-08-28 腾讯科技(深圳)有限公司 图像目标识别模型的训练方法、图像识别方法及装置
US20210035331A1 (en) * 2019-07-31 2021-02-04 Hewlett Packard Enterprise Development Lp Deep neural network color space optimization
CN112766399A (zh) * 2021-01-28 2021-05-07 电子科技大学 一种面向图像识别的自适应神经网络训练方法
CN113095470A (zh) * 2020-01-08 2021-07-09 字节跳动有限公司 神经网络的训练方法、图像处理方法及装置、存储介质
CN113284064A (zh) * 2021-05-24 2021-08-20 西安理工大学 一种基于注意力机制跨尺度上下文低照度图像增强方法
CN113313644A (zh) * 2021-05-26 2021-08-27 西安理工大学 一种基于残差双注意力网络的水下图像增强方法
CN113362096A (zh) * 2020-03-04 2021-09-07 驰众信息技术(上海)有限公司 一种基于深度学习的框架广告图像匹配方法
CN113628152A (zh) * 2021-09-15 2021-11-09 南京天巡遥感技术研究院有限公司 一种基于多尺度特征选择性融合的暗光图像增强方法
CN113642590A (zh) * 2020-04-27 2021-11-12 同方威视科技江苏有限公司 货物图像处理方法、装置、设备及存储介质
CN113781333A (zh) * 2021-08-26 2021-12-10 宁波大学 一种基于引导滤波的gan网络对水下图像进行处理的方法
WO2021249255A1 (zh) * 2020-06-12 2021-12-16 青岛理工大学 一种基于RP-ResNet网络的抓取检测方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210035331A1 (en) * 2019-07-31 2021-02-04 Hewlett Packard Enterprise Development Lp Deep neural network color space optimization
CN113095470A (zh) * 2020-01-08 2021-07-09 字节跳动有限公司 神经网络的训练方法、图像处理方法及装置、存储介质
CN113362096A (zh) * 2020-03-04 2021-09-07 驰众信息技术(上海)有限公司 一种基于深度学习的框架广告图像匹配方法
CN113642590A (zh) * 2020-04-27 2021-11-12 同方威视科技江苏有限公司 货物图像处理方法、装置、设备及存储介质
WO2021249255A1 (zh) * 2020-06-12 2021-12-16 青岛理工大学 一种基于RP-ResNet网络的抓取检测方法
CN111598190A (zh) * 2020-07-21 2020-08-28 腾讯科技(深圳)有限公司 图像目标识别模型的训练方法、图像识别方法及装置
CN112766399A (zh) * 2021-01-28 2021-05-07 电子科技大学 一种面向图像识别的自适应神经网络训练方法
CN113284064A (zh) * 2021-05-24 2021-08-20 西安理工大学 一种基于注意力机制跨尺度上下文低照度图像增强方法
CN113313644A (zh) * 2021-05-26 2021-08-27 西安理工大学 一种基于残差双注意力网络的水下图像增强方法
CN113781333A (zh) * 2021-08-26 2021-12-10 宁波大学 一种基于引导滤波的gan网络对水下图像进行处理的方法
CN113628152A (zh) * 2021-09-15 2021-11-09 南京天巡遥感技术研究院有限公司 一种基于多尺度特征选择性融合的暗光图像增强方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
FENGJIE XU等: ""CMRD-Net:An Improved Method for Underwater Image Enhancement"" *
杨英杰等: ""基于注意力和反馈机制的HDR视频重建"" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116664454A (zh) * 2023-08-01 2023-08-29 中国海洋大学 一种基于多尺度颜色迁移参数预测的水下图像增强方法
CN116664454B (zh) * 2023-08-01 2023-11-03 中国海洋大学 一种基于多尺度颜色迁移参数预测的水下图像增强方法

Similar Documents

Publication Publication Date Title
Li et al. A fusion adversarial underwater image enhancement network with a public test dataset
CN112288658B (zh) 一种基于多残差联合学习的水下图像增强方法
CN111127336B (zh) 一种基于自适应选择模块的图像信号处理方法
Syu et al. Learning deep convolutional networks for demosaicing
EP4109392A1 (en) Image processing method and image processing device
CN111754438B (zh) 基于多分支门控融合的水下图像复原模型及其复原方法
CN116797488A (zh) 一种基于特征融合与注意力嵌入的低照度图像增强方法
CN112465727A (zh) 基于HSV色彩空间和Retinex理论的无正常光照参考的低照度图像增强方法
CN113822830B (zh) 基于深度感知增强的多曝光图像融合方法
CN111476744B (zh) 一种基于分类及大气成像模型的水下图像增强方法
CN116188325A (zh) 一种基于深度学习和图像颜色空间特性的图像去噪方法
CN114596233A (zh) 基于注意引导和多尺度特征融合的低照度图像增强方法
JP7463186B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN113284061A (zh) 一种基于梯度网络的水下图像增强方法
CN112102186A (zh) 一种水下视频图像实时增强方法
CN103996179B (zh) 一种基于单尺度Retinex的快速实时图像增强方法
CN116843559A (zh) 一种基于图像处理与深度学习的水下图像增强方法
CN116385298A (zh) 一种用于无人机夜间采集图像的无参考增强方法
CN114529713A (zh) 一种基于深度学习的水下图像增强方法
CN115272072A (zh) 一种基于多特征图像融合的水下图像超分辨率方法
CN114757863A (zh) 融合深度学习和传统图像增强技术的水下图像增强方法
CN106296749A (zh) 基于l1范数约束的rgb‑d图像本征分解方法
CN117974459A (zh) 一种融合物理模型和先验的低照度图像增强方法
CN117115058A (zh) 基于轻量特征提取和颜色恢复的弱光图像融合方法
CN117078556A (zh) 一种水域自适应水下图像增强方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20220524