CN114758030B - 融合物理模型和深度学习的水下偏振成像方法 - Google Patents
融合物理模型和深度学习的水下偏振成像方法 Download PDFInfo
- Publication number
- CN114758030B CN114758030B CN202210467967.5A CN202210467967A CN114758030B CN 114758030 B CN114758030 B CN 114758030B CN 202210467967 A CN202210467967 A CN 202210467967A CN 114758030 B CN114758030 B CN 114758030B
- Authority
- CN
- China
- Prior art keywords
- polarization
- image
- underwater
- model
- dense
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010287 polarization Effects 0.000 title claims abstract description 122
- 238000003384 imaging method Methods 0.000 title claims abstract description 40
- 238000013135 deep learning Methods 0.000 title claims abstract description 17
- 230000006870 function Effects 0.000 claims abstract description 35
- 238000000034 method Methods 0.000 claims abstract description 33
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims abstract description 30
- 230000008447 perception Effects 0.000 claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 21
- 238000012937 correction Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims abstract description 10
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 238000000790 scattering method Methods 0.000 claims abstract description 5
- 230000004927 fusion Effects 0.000 claims description 13
- 241001274197 Scatophagus argus Species 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 7
- 238000004422 calculation algorithm Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 238000012795 verification Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 8
- 230000000694 effects Effects 0.000 description 7
- 230000005540 biological transmission Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000031700 light absorption Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 238000005293 physical law Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/003—Reconstruction from projections, e.g. tomography
- G06T11/005—Specific pre-processing for tomographic reconstruction, e.g. calibration, source positioning, rebinning, scatter correction, retrospective gating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种融合物理模型和深度学习的水下偏振图像去散射方法,包括构建浑浊水下的偏振图像数据集;进行原始偏振图像数据预处理;结合水下偏振成像模型构建特征提取的核心网络,得到输出的偏振调制参量和水下成像偏振去散射校正模型;并基于该偏振调制参量和水下成像偏振去散射校正模型计算得到复原的清晰图像;使用偏振感知损失函数对网络进行优化,利用预测图像与清晰偏振图像的深层特征更好地进行图像复原。本发明将水下偏振成像的物理模型融入深度神经网络中,通过物理模型更好地约束神经网络的训练,实现训练过程与物理规律的统一,并用偏振感知损失函数对模型加以约束,实现水体散射环境下成像对比度和成像距离的提升,尤其适用于高浑浊度水下环境的图像复原。
Description
技术领域
本发明涉及偏振成像技术领域,特别涉及一种融合物理模型和深度学习的水下偏振成像方法。
背景技术
在水下成像的过程,介质中的微粒对光的散射和吸收会造成成像质量下降。为描述这一过程,根据大气散射模型提出了水下成像模型,将传感器接收的光信号分成两部分,即反射项和散射项。目前的图像去散射技术大多基于此模型,例如暗通道先验方法。但这些技术对环境光和传输系数的非真实估计,导致最终的图像复原效果并不理想。此外,环境光和传输系数的非真实估计还会引起图像对比度低、色彩失真等问题。将偏振成像技术与水下成像模型结合的水下成像偏振去散射模型对目标和背景的偏振信息的利用能够有效提高图像复原质量,但效果提升仍然有限。目前深度学习已经成功应用于多种图像复原任务,而且效果大都强于传统方法,但是他们大多是端到端网络,复原过程不完全遵循物理规律,可解释性较差,而且这些方法使用的数据集多为数值模型计算生成的虚拟图像,因此这些网络的泛化能力较差,对于真实环境的图像并不适用。此外,这些方法的使用场景多为低浑浊度散射环境,而真实的大气或水体环境往往浑浊度较高,也导致这些算法的效果不够理想。
发明内容
本发明旨在解决浑浊水下的图像难以复原的问题,而提出与了一种融合物理模型和深度学习的水下偏振成像方法,实现了将浑浊水下拍摄的低对比度图像复原为高对比度的清晰图像,尤其适用于高浑浊度的水体环境。
本发明采用以下技术方案实现:
一种融合物理模型和深度学习的水下偏振图像去散射方法,该方法包括以下步骤:
步骤1,构建浑浊水下的偏振图像数据集,调节偏振相机合适的曝光时间,分别对同一目标在相应浓度下连续采集多张不同偏振方向的偏振图像,计算其同一偏振方向光强的平均值作为浑浊水体下的图像,在清水下连续采集相同数量的对应偏振方向的清晰偏振图像,计算其同一偏振方向光强平均值作为标签,形成浑浊水体下图像和清晰图像对,保存为图像数据集;
步骤2,进行原始偏振图像数据预处理:
步骤2.1,将多个偏振方向的单通道偏振图像沿通道方向合并成单幅三通道图像,为学习目标的偏振特征,用任意三个及以上不同偏振方向的单通道图像沿通道方向合并为多通道图像;
步骤2.2,将浑浊水体下图像和清晰图像都裁剪为子图像;
步骤2.3,最后将数据集按比例随机拆分为训练集、验证集和测试集;
步骤3,结合水下偏振成像模型构建特征提取的残差-密集神经网络,由所述残差-密集神经网络得到输出的偏振调制参量和水下成像偏振去散射校正模型:
步骤3.1,配置浅层特征提取模块,该模块包括两个卷积层,第一3×3卷积层的卷积核数量为64,第二3×3卷积层卷积核数量为32;
步骤3.2,配置残差-密集模组,该模组配置了16个残差-密集模块,所述残差-密集模块由卷积层、作为激活函数的线性修正单元ReLU函数和局部特征融合模块组成,每个残差-密集连接块中各层之间采用密集连接的方式进行特征组合,每个残差-密集模块都包含了6个卷积层及其对应的ReLU函数;
步骤3.3,配置局部特征融合模块,该模块包括Concat层和3×3卷积层,Concat层将残差-密集模块中输出的所有特征进行融合,3×3卷积层进一步对融合之后的结果进行特征提取,并将输出的结果与输入进行残差运算;
步骤3.4,配置全局特征融合模块,该模块包括一个Concat层,两个3×3卷积层和一个作为激活函数的ReLU层,通过该模块对残差-密集模块提取的不同层次的特征进行全局融合;
步骤3.5,建立水下偏振图像去散射模型如公式(1)所示:
其中,I(x,y)表示位于(x,y)处的像素的光强,ΔI(x,y)为I(x,y)的水平分量I||(x,y)和垂直分量I⊥(x,y)的差分结果,Pscat为后向散射光的线偏振度,A∞为环境光,L(x,y)
为去散射图像,
偏振调制参量H(x,y)利用Pscat和A∞对光强I(x,y)进行调制,将该参量作为水下偏振图像复原模型的残差-密集神经网络的输出,通过公式(2)进行约束,获得复原的清晰图像;
步骤4,通过偏振感知损失函数,计算复原图像与标签图像的偏振感知特征之间的均方误差,获得偏振感知损失,并利用该损失引导神经网络的训练过程,实现图像去散射。
在所述步骤3中:
优化后的水下成像偏振去散射校正模型如公式(2)所示:
L(x,y)=H(x,y)·I(x,y)-H(x,y)+b (2)
其中,b为偏置参量,·表示逐像素的乘法运算,H(x,y)为偏振调制参量,如公式(3)所示:
所述步骤4中还包括:
设计增强偏振信息的偏振感知损失函数,所述偏振感知损失函数如公式(4)所示:
其中,C为图像的通道数,m和n分别为图像尺寸,为由网络输出的中间校正参量H(x,y)通过水下成像偏振去散射校正模型(公式(2))计算得到的预测清晰图像,表示清水下获取的高对比度清晰偏振图像,θ表示0°、45°和90°三个偏振方向,φ(·)为偏振特征感知函数,由预训练VGG网络的部分网络组成,用于提取输入图像的偏振特征。
该方法进一步包括以下步骤:
步骤5,根据去散射质量的要求调整水下成像偏振去散射模型的参数,包括初始学习率、批处理大小、损失函数约束项、残差-密集模块的数量以及卷积核数对基于偏振调制参量的水下偏振图像复原模型的残差-密集神经网络进行训练,在训练过程中对输入图像进行翻转和旋转实现数据扩充;具体设置为:最小批处理样本数为28,学习率初始化为0.0001,使用阶梯衰减学习率方法,设置衰减率为0.6,衰减步长为10,训练周期为90,使用Adam算法优化损失函数。
与现有技术相比,本发明公开了一种融合物理模型和深度学习的水下偏振成像方法,所能达成的有益效果及优点在于:
1)主要采用结合基于偏振调制参量的水下偏振图像复原模型的残差-密集结构进行网络搭建,偏振调制参量将水下偏振成像去散射模型中的传输系数和背向散射光的偏振度等参量对光强进行调制,减少待确定参量个数,结合了该模型的网络实现图像去散射的过程更符合物理规律,可解释性更强,实现的图像去散射效果也更好;
2)用于神经网络的基于预训练VGG网络的偏振感知损失函数,主要采用偏振特征的均方误差作为像素损失,可以有效的利用偏振图像中的偏振特征,从而更好实现高浑浊度水体下的偏振图像的复原;
3)可应用于水下光学成像,实现成像清晰度和成像距离的提升。
附图说明
图1为本发明的融合物理模型和深度学习的水下偏振图像去散射方法整体流程图;
图2为本发明的融合物理模型和深度学习的水下偏振图像去散射方法实施例流程图;
图3为本发明实施例的构建深度神经网络的结构示意图;
图4为本发明实施例的浑浊水下偏振图像的去散射效果示意图。
具体实施方式
下面将结合附图对本发明的具体实施方式做详细说明。
图1是本发明提供的一种融合物理模型和深度学习的水下偏振图像去散射方法的流程图,该流程具体包括以下步骤:
步骤1,构建浑浊水下的偏振图像数据集:向清水中加入不同量的浑浊介质模拟浑浊水体环境;调节偏振相机合适的曝光时间,对目标在相应浓度下连续采集多张不同偏振方向的偏振图像,计算其同一偏振方向光强平均值作为浑浊水体下的图像;对同一目标在清水下连续采集相同数量的对应偏振方向的清晰偏振图像,计算其同一偏振方向光强平均值作为标签;
采集浑浊水体下图像和清晰图像对的时候需要同时调节曝光时间让浑浊水体下的图像和清晰图像的光强值基本保持一致;
步骤2,进行原始偏振图像数据预处理:
步骤2.1,将多个偏振方向如0°、45°和90°三个方向的单通道偏振图像沿通道方向合并成单幅三通道图像,由于任意三个偏振方向的光强图均可解算出线斯托克斯矢量,为学习目标的偏振特征,用任意三个及以上不同偏振方向的单通道图像沿通道方向合并为多通道图像,本发明的一个实施例中以0°、45°和90°三个方向的单通道偏振图像沿通道方向合并成单幅三通道图像为例;
步骤2.2,将浑浊水体下图像和清晰图像都裁剪为适当尺寸(如64×64)的子图像;
步骤2.3,最后将数据集按照一定比例(如8:1:1),随机拆分为训练集、验证集和测试集;
步骤3,结合水下偏振成像模型(如公式(4)所示)构建特征提取的残差-密集神经网络,由所述残差-密集神经网络得到输出的偏振调制参量和水下成像偏振去散射校正模型,如图3A所示,为本发明实施例的构建深度神经网络的结构示意图。该深度神经网络由多个如图3B所示的残差-密集模块组成,并结合了基于偏振调制参量的水下偏振图像复原模型;
步骤3.1,配置浅层特征提取模块100,该模块包括两个卷积层,第一3×3卷积层的卷积核数量为64,第二3×3卷积层卷积核数量为32;
步骤3.2,配置残差-密集模组200,该模块配置了16个残差-密集模块。具体地,所述残差-密集模块由卷积层、作为激活函数的线性修正单元ReLU函数和局部特征融合模块组成,每个残差-密集模块模块中各层之间采用密集连接的方式进行特征组合。在本实施例中,每个残差-密集模块都包含了6个卷积层及其对应的ReLU函数;
步骤3.3,配置局部特征融合模块300:该模块包括Concat层(即1×1卷积层)和3×3卷积层,Concat层将残差-密集模块中输出的所有特征进行融合,3×3卷积层进一步对融合之后的结果进行特征提取,并将输出的结果与输入进行残差运算;
步骤3.4,配置全局特征融合模块。具体地,所述全局特征融合模块包括一个Concat层(即1×1卷积层),两个3×3卷积层和一个作为激活函数的ReLU层,通过该模块对残差-密集模块提取的不同层次的特征进行全局融合;
步骤3.5,水下偏振图像去散射模型如公式(1)所示:
其中,I(x,y)表示位于(x,y)处像素的光强,ΔI(x,y)为I(x,y)的水平分量I||(x,y)和垂直分量I⊥(x,y)的差分结果,Pscat为后向散射光的线偏振度,A∞为环境光,L(x,y)为去散射图像;
进一步地,利用偏振图像由水下成像偏振去散射模型进行图像复原,需要明确Pscat和A∞两个参量,而真实环境下标签图像的Pscat和A∞难以计算。为减少参量数量,简化计算,优化后的水下成像偏振去散射校正模型如公式(2)所示:
L(x,y)=H(x,y)·I(x,y)-H(x,y)+b (2)
其中,b为偏置参量(设置为1),·表示逐像素的乘法运算,H(x,y)为偏振调制参量,如公式(3)所示:
偏振调制参量H(x,y)利用Pscat和A∞对光强I(x,y)进行调制,将该参量作为水下偏振图像复原模型的残差-密集神经网络的输出,通过公式(2)进行约束,获得复原的清晰图像;
步骤4,设计增强偏振信息的偏振感知损失函数,所述偏振感知损失函数如公式(4)所示:
其中,C为图像的通道数,m和n分别为图像尺寸,为由网络输出的中间校正参量H(x,y)通过水下成像偏振去散射校正模型(公式(2))计算得到的预测清晰图像,表示清水下获取的高对比度清晰偏振图像,θ表示0°、45°和90°三个偏振方向,φ(·)为偏振特征感知函数,由预训练VGG网络的部分网络组成,用于提取输入图像的偏振特征。本发明实施例中,使用预训练VGG-16的第二个激活函数ReLU层之前的部分;
通过偏振感知损失函数,计算复原图像与标签图像的偏振感知特征之间的均方误差,获得偏振感知损失,并利用该损失引导神经网络的训练过程,实现图像去散射;
步骤5,根据去散射质量的要求调整水下成像偏振去散射模型的参数,包括初始学习率、批处理大小、损失函数约束项、残差-密集模块的数量以及卷积核数对基于偏振调制参量的水下偏振图像复原模型的残差-密集神经网络进行训练,在训练过程中对输入图像进行翻转和旋转实现数据扩充;具体地,在本实施例中最小批处理样本数为28,学习率初始化为0.0001,使用阶梯衰减学习率方法,设置衰减率为0.6,衰减步长为10,训练周期为90,使用Adam算法优化损失函数。
在本发明的实施例中,利用基于偏振调制参量的水下偏振图像复原模型的残差-密集网络计算偏振调制参量,之后得到经优化后的水下成像偏振去散射校正模型复原的光强图,如图4所示,为本发明实施例的浑浊水下偏振图像的去散射效果示意图。其中,4A为浑浊水体下的光强图,4B为使用本发明实施例去散射后重建的光强图,4C为清水下的高对比度光强图。从图可以看出本发明提出的融合无力模型和深度学习的水下偏振图像去散射方法能够有效对浑浊水体下的图像进行去散射。
综上所述,本发明的一种融合物理模型和深度学习的水下偏振图像去散射方法,包括制备浑浊水下的偏振图像数据集;对原始偏振图像数据预处理,利用卷积神经网络融合偏振信息;通过残差-密集模块结合水下偏振成像模型构建特征提取的核心网络,通过对该核心网络的训练得到输出的偏振调制参量,并基于该偏振调制参量和水下偏振程模型计算得到复原的清晰图像;使用偏振感知损失函数对网络进行优化,网络可以利用预测图像与清晰偏振图像的深层特征更好地进行图像复原。
以上所述仅为本申请的实施例,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。本领域技术人员可以在不脱离本发明的精神和范围的情况下做出各种任何修改、等同替换或变型等,凡在本申请的精神和原理之内所作的修改、等同替换或变型等均落入由所附权利要求所限定的本发明的保护范围之内。
Claims (2)
1.一种融合物理模型和深度学习的水下偏振图像去散射方法,其特征在于,该方法包括以下步骤:
步骤1,构建浑浊水下的偏振图像数据集,调节偏振相机合适的曝光时间,分别对同一目标在相应浓度下连续采集多张不同偏振方向的偏振图像,计算其同一偏振方向光强的平均值作为浑浊水体下的图像,在清水下连续采集相同数量的对应偏振方向的清晰偏振图像,计算其同一偏振方向光强平均值作为标签,形成浑浊水体下图像和清晰图像对,保存为图像数据集;
步骤2,进行原始偏振图像数据预处理:
步骤2.1,将多个偏振方向的单通道偏振图像沿通道方向合并成单幅三通道图像,为学习目标的偏振特征,用任意三个及以上不同偏振方向的单通道图像沿通道方向合并为多通道图像;
步骤2.2,将浑浊水体下图像和清晰图像都裁剪为子图像;
步骤2.3,最后将数据集按比例随机拆分为训练集、验证集和测试集;
步骤3,结合水下偏振成像模型构建特征提取的残差-密集神经网络,由所述残差-密集神经网络得到输出的偏振调制参量和水下成像偏振去散射校正模型:
步骤3.1,配置浅层特征提取模块,该模块包括两个卷积层,第一3×3卷积层的卷积核数量为64,第二3×3卷积层卷积核数量为32;
步骤3.2,配置残差-密集模组,该模组配置了16个残差-密集模块,所述残差-密集模块由卷积层、作为激活函数的线性修正单元ReLU函数和局部特征融合模块组成,每个残差-密集连接块中各层之间采用密集连接的方式进行特征组合,每个残差-密集模块都包含了6个卷积层及其对应的ReLU函数;
步骤3.3,配置局部特征融合模块,该模块包括Concat层和3×3卷积层,Concat层将残差-密集模块中输出的所有特征进行融合,3×3卷积层进一步对融合之后的结果进行特征提取,并将输出的结果与输入进行残差运算;
步骤3.4,配置全局特征融合模块,该模块包括一个Concat层,两个3×3卷积层和一个作为激活函数的ReLU层,通过该模块对残差-密集模块提取的不同层次的特征进行全局融合;
步骤3.5,建立水下偏振图像去散射模型如公式(1)所示:
其中,I(x,y)表示位于(x,y)处的像素的光强,ΔI(x,y)为I(x,y)的水平分量IP(x,y)和垂直分量I⊥(x,y)的差分结果,Pscat为后向散射光的线偏振度,A∞为环境光,L(x,y)为去散射图像,
偏振调制参量H(x,y)利用Pscat和A∞对光强I(x,y)进行调制,将该参量作为水下偏振图像复原模型的残差-密集神经网络的输出,通过公式(2)进行约束,获得复原的清晰图像;优化后的水下成像偏振去散射校正模型如公式(2)所示:
L(x,y)=H(x,y)·I(x,y)-H(x,y)+b (2)
其中,b为偏置参量,·表示逐像素的乘法运算,H(x,y)为偏振调制参量,如公式(3)所示:
步骤4,通过偏振感知损失函数,计算复原图像与标签图像的偏振感知特征之间的均方误差,获得偏振感知损失,并利用该损失引导神经网络的训练过程,实现图像去散射;设计增强偏振信息的偏振感知损失函数,所述偏振感知损失函数如公式(4)所示:
其中,C为图像的通道数,m和n分别为图像尺寸,为由网络输出的中间校正参量H(x,y)通过水下成像偏振去散射校正模型即公式(2)计算得到的预测清晰图像,表示清水下获取的高对比度清晰偏振图像,θ表示0°、45°和90°三个偏振方向,φ(·)为偏振特征感知函数,由预训练VGG网络的部分网络组成,用于提取输入图像的偏振特征。
2.如权利要求1所述的一种融合物理模型和深度学习的水下偏振图像去散射方法,其特征在于,该方法进一步包括以下步骤:
步骤5,根据去散射质量的要求调整水下成像偏振去散射模型的参数,包括初始学习率、批处理大小、损失函数约束项、残差-密集模块的数量以及卷积核数对基于偏振调制参量的水下偏振图像复原模型的残差-密集神经网络进行训练,在训练过程中对输入图像进行翻转和旋转实现数据扩充;具体设置为:最小批处理样本数为28,学习率初始化为0.0001,使用阶梯衰减学习率方法,设置衰减率为0.6,衰减步长为10,训练周期为90,使用Adam算法优化损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210467967.5A CN114758030B (zh) | 2022-04-29 | 2022-04-29 | 融合物理模型和深度学习的水下偏振成像方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210467967.5A CN114758030B (zh) | 2022-04-29 | 2022-04-29 | 融合物理模型和深度学习的水下偏振成像方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114758030A CN114758030A (zh) | 2022-07-15 |
CN114758030B true CN114758030B (zh) | 2024-09-06 |
Family
ID=82333182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210467967.5A Active CN114758030B (zh) | 2022-04-29 | 2022-04-29 | 融合物理模型和深度学习的水下偏振成像方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114758030B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115147394A (zh) * | 2022-07-21 | 2022-10-04 | 重庆西山科技股份有限公司 | 模型训练方法、图像处理方法、内窥镜装置和存储介质 |
CN118396049B (zh) * | 2024-07-01 | 2024-08-20 | 长春理工大学 | 一种偏振误差去除模型的确定方法、应用方法及相关装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108444447A (zh) * | 2018-02-28 | 2018-08-24 | 哈尔滨工程大学 | 一种用于水下避障系统中的渔网实时自主检测方法 |
CN110570371A (zh) * | 2019-08-28 | 2019-12-13 | 天津大学 | 一种基于多尺度残差学习的图像去雾方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111429378A (zh) * | 2020-04-01 | 2020-07-17 | 天津大学前沿技术研究院有限公司 | 基于深度神经网络和偏振成像的浑浊水下灰度图像复原方法 |
WO2022077417A1 (zh) * | 2020-10-16 | 2022-04-21 | 京东方科技集团股份有限公司 | 图像处理方法、图像处理设备和可读存储介质 |
-
2022
- 2022-04-29 CN CN202210467967.5A patent/CN114758030B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108444447A (zh) * | 2018-02-28 | 2018-08-24 | 哈尔滨工程大学 | 一种用于水下避障系统中的渔网实时自主检测方法 |
CN110570371A (zh) * | 2019-08-28 | 2019-12-13 | 天津大学 | 一种基于多尺度残差学习的图像去雾方法 |
Also Published As
Publication number | Publication date |
---|---|
CN114758030A (zh) | 2022-07-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112233038B (zh) | 基于多尺度融合及边缘增强的真实图像去噪方法 | |
Ullah et al. | Light-DehazeNet: a novel lightweight CNN architecture for single image dehazing | |
CN108921799B (zh) | 基于多尺度协同学习卷积神经网络的遥感图像薄云去除方法 | |
Shin et al. | Estimation of ambient light and transmission map with common convolutional architecture | |
Raihan A et al. | Review of underwater image restoration algorithms | |
CN114758030B (zh) | 融合物理模型和深度学习的水下偏振成像方法 | |
CN111062880A (zh) | 一种基于条件生成对抗网络的水下图像实时增强方法 | |
Zhang et al. | ReX-Net: A reflectance-guided underwater image enhancement network for extreme scenarios | |
Ju et al. | BDPK: Bayesian dehazing using prior knowledge | |
CN114746895A (zh) | 用于图像去噪的噪声重构 | |
Fayaz et al. | Underwater image restoration: A state‐of‐the‐art review | |
CN116596792B (zh) | 一种面向智能船舶的内河雾天场景恢复方法、系统及设备 | |
Mehra et al. | TheiaNet: Towards fast and inexpensive CNN design choices for image dehazing | |
Han et al. | UIEGAN: Adversarial learning-based photorealistic image enhancement for intelligent underwater environment perception | |
Gangisetty et al. | FloodNet: Underwater image restoration based on residual dense learning | |
Fu et al. | An anisotropic Gaussian filtering model for image de-hazing | |
Saleem et al. | A non-reference evaluation of underwater image enhancement methods using a new underwater image dataset | |
Babu et al. | An efficient image dahazing using Googlenet based convolution neural networks | |
Shen et al. | Pseudo-retinex decomposition-based unsupervised underwater image enhancement and beyond | |
CN116452469B (zh) | 一种基于深度学习的图像去雾处理方法及装置 | |
WO2022207110A1 (en) | Noise reconstruction for image denoising | |
Du et al. | Dehazing Network: Asymmetric Unet Based on Physical Model | |
Gao et al. | Self-attention underwater image enhancement by data augmentation | |
Li et al. | Multi-scale fusion framework via retinex and transmittance optimization for underwater image enhancement | |
Roy et al. | Modeling of Haze image as Ill-posed inverse problem & its solution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |