CN113256520A - 一种域自适应的水下图像增强方法 - Google Patents
一种域自适应的水下图像增强方法 Download PDFInfo
- Publication number
- CN113256520A CN113256520A CN202110555993.9A CN202110555993A CN113256520A CN 113256520 A CN113256520 A CN 113256520A CN 202110555993 A CN202110555993 A CN 202110555993A CN 113256520 A CN113256520 A CN 113256520A
- Authority
- CN
- China
- Prior art keywords
- image
- underwater
- model
- training
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000012549 training Methods 0.000 claims abstract description 42
- 230000003044 adaptive effect Effects 0.000 claims abstract description 9
- 238000012360 testing method Methods 0.000 claims abstract description 7
- 238000013508 migration Methods 0.000 claims description 31
- 230000005012 migration Effects 0.000 claims description 31
- 230000000694 effects Effects 0.000 claims description 26
- 230000006870 function Effects 0.000 claims description 20
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 12
- 230000008569 process Effects 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 8
- 238000013519 translation Methods 0.000 claims description 6
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 238000012546 transfer Methods 0.000 claims description 4
- 238000007781 pre-processing Methods 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 15
- 238000013507 mapping Methods 0.000 description 18
- 239000013598 vector Substances 0.000 description 11
- 239000002131 composite material Substances 0.000 description 6
- 238000009826 distribution Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000012937 correction Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 230000002457 bidirectional effect Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012827 research and development Methods 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000001994 activation Methods 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 235000019646 color tone Nutrition 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 239000003643 water by type Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Processing (AREA)
Abstract
本发明公开了属于图像处理技术领域,特别涉及一种域自适应的水下图像增强方法,具体涉及一种基于双注意域自适应的水下图像增强方法。主要包括结合现有的水下图像数据集进行数据处理、输入合成的水下图像数据和真实的水下数据进行,域自适应学习训练、使用训练好的模型对测试数据集测试输出;应用先验信息提高生成图像的结构特征和纹理特性,进而解决现有水下生成图片模型所具有的细节信息丢失的问题。
Description
技术领域
本发明涉属于图像处理技术领域,特别涉及一种域自适应的水下图像增强方法,具体涉及一种基于双注意域自适应的水下图像增强方法。
背景技术
水下图像增强是近年来的一个研究热点,其目的是获得清晰、高质量的水下图像。水下图像增强是水下图像处理如目标检测,场景感知的重要过程。这项技术在水下研究的许多领域都有应用,如水下机器人、救援任务、生态监测、海洋生物跟踪、水下机器人控制、海洋生物学研究和考古学。发展水下图像增强方法是完成水下视觉质量和高水平水下视觉任务的必要条件。
与普通图像不同的是,复杂的水下环境和光在不同的水体中所呈现的特殊物理及化学特性,会导致水下图像出现退化的现象。受水体深度光波衰减及颗粒悬浮的影响,水下图像呈现较多的蓝绿色调及雾状效应。图像的颜色信息作为反应物体特性的重要信息,对水下目标识别及分类有着极为重要的作用,但水下光收到水体特征的影响会发生衰减和散射效应导致水体图像呈现对比度,散射模糊及颜色失真的现象,极大的降低了水下图像的质量,限制了水下图像处理相关技术的发展。
虽然现阶段水下领域不乏大型图像数据集,但依旧很难找到具有真实水下图像标签且水下数据分布符合真实水下的数据集合;缺乏较为公开的水下数据集对以数据驱动的深度学习增强方法带来极大的瓶颈,从而进一步的制约了水下图像增强算法的深入研究及应用拓展。
尽管该领域已有大量的研究工作,如针对水下数据进行处理和模拟,或针对硬件设施进行研究开发的,但缺少从水下图像的颜色纹理及全局结构角度,致使训练出来的水下增强方法缺少鲁棒性和较好的迁移性。相关的现有技术如下:
1CycleGAN
CycleGAN[1]是一种无监督生成对抗网络,它的主要思想是训练两对生成器将模型从一个领域转换成另一个领域。通过循环一致性损失函数确保不同数据域间的生成图像具有一致性和相似性。该模型包含两个映射函数G:X→Y和F:Y→X,以及相关的对抗鉴别器D_Y和D_X,D_Y鼓励G将X翻译成Y风格的图像。反之亦然。两个映射分别通过循环协调损失函数,确保图像迁移的风格可以回到处理之前的状态。
2 DSG模块
DSG(Dual attention spatial feature group)[2],采用双注意力空间特征提取模块保留图像的结构特征和纹理特征,抑制不相关的噪声信息,提高生成图像的颜色特征及结构纹理特征。通过DSG模块通过引导之前的特征先进行模糊处理去掉一些噪声。颜色修正分支来获得颜色的Attention信息。其中该模块所设计的高斯模糊只是让图片的颜色信息流特征进入特征提取模块。
3 SFT
SFT(Spatial feature transform)[3]学习匹配图像的先验条件信息,将空间特征映射到每个中间特征应用仿射层,通过转换、缩放以及移动对应层的特征图来自适应,通过融合水下图像的深度信息来提高水下图像风格转换的效果,生成图像的细节纹理特征。
4 UNet
UNet[4]采用的编码器(下采样)-解码器(上采样)结构和跳跃连接是一种非常经典的设计方法,属于FCN的一种变体,UNet借助拼接将完全不同的特征融合在一起,在不同channel维度拼接在一起,形成更厚的特征。而FCN融合时使用的对应点相加,并不形成更厚的特征。网络中添加的上采样阶段,允许了更多的原图像纹理的信息在高分辨率的layers中进行传播。
5全局特征映射层
结合全局特征进行全联接映射[5],全局特征向量用作正则化器,以惩罚可能导致伪影的低分辨率特征中的任何错误处理。此外,使用平均池来提取全局特征向量需要的参数比完全连通层少得多。除了全局特征向量,范围缩放层还支持像素强度的逐像素缩放。由于简单的局部变换集合足以逼近任何复杂的图像处理管道。所以它比传统的残差学习网络具有更高的学习能力,能够学习从低质量图像到高质量图像的细微而复杂的映射。在增强图像中加入全局特征向量可以显著地减少水下图像视觉伪影;引入全联接层提高模型特征映射到效果。
针对上述现有技术,我们引入域自适应的生成对抗网络来缓解合成数据和真实数据集的域间差异,引入改进的全局特征映射来提高水下增强的效果,最后构建半监督的水下图像增强框架提高模型的可适性和鲁棒性。该方法基于双注意力机制、空间转换模块、CycleGAN和UNet,提出一种基于DSG_CycleGAN框架的双注意力水下图像风格迁移模型,一种基于全局特征映射的UNet水下增强模型。在训练的过程中引入域自适应机制进行全局调优,提高整体框架方法的迁移效果,框架可以结合输入图像的风格类型,纹理及颜色特征,进行自适应学习减少不同域环境间水下图像风格差异,增强过程引入图像特征的全局映射较少水下图像增强后的图像伪影。实验结果表明,我们的方法具有更好的效果,相比现阶段的水下图像增强方法我们的方法具有更好的应用效果,在不同的水下数据集下我们的方法具有更好的纹理细节特征和更好的增强效果。可以较好的模拟仿真水下图像数据。
为了验证我们的方法在真实图像上的鲁棒性,我们比较不同方法在水下图像增强后的效果,合成数据集合[6]和真实的公开数据集合Sea-Thru数据集[7],通过水下的可视化效果和量化比较,验证我们方法的效果。
本发明为了缓解以数据驱动的水下模型的数据量不足的问题,提出了一种双向风格迁移水下图像颜色校正方法,结合域自适应,注意力特征提取和空间转化提高水下生成图像的风格感知效果,应用先验信息提高生成图像的结构特征和纹理特性,进而解决现有水下生成图片模型所具有的细节信息丢失的问题。
本方法涉及两个图像迁移模块,DSG可以较好的提高CycleGAN在Xs向Xr进行转化时的图像对深度先验信息的利用,使生产的图片更为细致逼真。由于本方法主要针对图像的颜色、风格及纹理特征,可以较好的提高生成图片的质量,为下一步进行水下图像的各种任务提供丰富的数据集,较好的满足数据驱动模型的研究和发展。其次,改进传统的UNet模型引入全局特征映射层,提高图像在增强过程中所产生的伪影,借助全连接层提高还原过程对全局图像特征的描述和还原。结合给定简单局部变换的集合,该模型就足以近似复杂图像的原理。经过改进的算子通过拟合局部曲线来学习微妙而复杂的功能,具有更高的能力,这些局部曲线可以将低质量的图像映射到高质量的图像,进而提高水下图像还原的效果。
发明内容
本发明的目的是提出一种域自适应的水下图像增强方法;其特征在于,包括如下步骤:
1)结合现有的水下图像数据集,选择已有的合成的水下及现实水下数据构建输入数据集合;
2)将训练图像随机裁剪到256*256,并将像素值归一化到[-1,1],进行图像预处理;
3)运行引入双注意力空间迁移DSG训练CycleGAN模型,进行不同域间的图像风格迁移,分别输入合成的水下图像数据和真实的水下数据进行,域自适应学习训练;
4)使用ADAM优化器,及所涉及的优化损失函数进行图像风格迁移的模型训练,并保留最后训练的模型权重及结果;
5)使用已训练好的DSG_CycleGAN模型权重,在生成的真数据集和真实水下数据集下训练FR图像增强模型,并保存训练结果数据集中训练集进行训练;
6)合成数据水下图像增强模型FS,使用同样的方式,分别在生成的合成数据集合和合成数据进行训练,并保留训练的权重及结果;
7)全局模型优化调参过程,分别将已有的风格迁移网络和增强网络进行训练优化,以达到最后的全局最优过程,保留最后的三个调优网络的权重和结果;
8)使用训练好的模型对测试数据集测试输出。
所述步骤1)选取从10种合成的水下图像数据集NYU-v2RGB-D生成的水下图像数据集;这个数据集使用衰减系数来构建海洋和沿海类的十种不同的水类型。
所述步骤2)的训练的真实数据集是从Sea-thru中选择的550个(如图2所示),该数据集包括从两个光学不同的水体在自然光下拍摄的分辨率为7360*4912,共计1100幅图像,
所述步骤3)运行引入双注意力空间迁移DSG训练CycleGAN模型,进行不同域间的图像风格迁移,采用了改进的具有双注意空间特征组(DSG_CycleGAN)的循环GAN,该图像转换模型旨在迁移优化水下生成图像的效果;DSG_CycleGAN分支不需要包括散射系数、背向散射和宽带(RGB)衰减的任何水下数据参数。
所述图像转换模块包括两个转换器:合成到真实的水下网络Gs2r和真实到合成的网络Gr2s。给定输入的RGB图像和深度图像Ds到网络Gs2r,然后生成具有与真实水下图像相似样式的转换图像Gs2r(xs,ds);另一个翻译器Gr2s反向执行图像翻译。
所述DSG块通过使用空间特征变换层,通道注意和空间注意来执行特征重新校准;DSG的方程为:
Td=M(RRG5(...(RRG1(Tin))))
本发明的有益效果是本发明提出的双向风格迁移水下图像颜色校正方法,结合域自适应,注意力特征提取和空间转化提高水下生成图像的风格感知效果,应用先验信息提高生成图像的结构特征和纹理特性,进而解决现有水下生成图片模型所具有的细节信息丢失的问题。经过改进的算子通过拟合局部曲线来学习微妙而复杂的功能,具有更高的能力,这些局部曲线可以将低质量的图像映射到高质量的图像,进而提高水下图像还原的效果。本发明具有的特点如下:
1.在构建CycleGAN风格迁移模型时,引入DSG模块来提高水下图像深度先验信息的特征,提高风格迁移的效果,从而为以后的水下图像增强提供有价值的数据集合。
2.训练整个模型过程引入全局特征向量映射改进UNet网络进行水下图像增强,减少水下增强图像的伪影和生成的图像效果。并借助有监督损失函数和无监督损失函数均衡协调,提高整个水下图像增强训练模型的效果。
3.本发明自适应机制的端到端水下图像风格迁移颜色校对采用CycleGAN为风格迁移基本框架,结合不同域间的水下图像数据集进行水下图像增强还引入自适应机制进行全局图像优化改进。
附图说明
图1为合成水下图像处理效果图。
图2为不同方法在真实数据的效果图。
图3为图像翻译DSG模块。
图4为在两张合成水下图像上的翻译结果。
图5为引入全局特征向量映射的UNet。
图6为自适应水下图像增强框架整体框架图。
图7为合成水下图像处理步骤流程图。
具体实施方式
本发明提出一种域自适应的水下图像增强方法;下面结合附图对本发明予以进一步说明。
如图7所示的合成水下图像处理步骤流程。主要包括结合现有的水下图像数据集进行数据处理、输入合成的水下图像数据和真实的水下数据进行,域自适应学习训练、使用训练好的模型对测试数据集测试输出;具体包括如下步骤:
1)结合现有的水下图像数据集,选择已有的合成的水下及现实水下数据构建输入数据集合;
2)将训练图像随机裁剪到256*256,并将像素值归一化到[-1,1],进行图像预处理;
3)运行引入双注意力空间迁移DSG训练CycleGAN模型,进行不同域间的图像风格迁移,分别输入合成的水下图像数据和真实的水下数据进行,域自适应学习训练;
4)使用ADAM优化器,及所涉及的优化损失函数进行图像风格迁移的模型训练,并保留最后训练的模型权重及结果;
5)使用已训练好的DSG_CycleGAN模型权重,在生成的真数据集和真实水下数据集下训练FR图像增强模型,并保存训练结果数据集中训练集进行训练;
6)合成数据水下图像增强模型FS,使用同样的方式,分别在生成的合成数据集合和合成数据进行训练,并保留训练的权重及结果;
7)全局模型优化调参过程,分别将已有的风格迁移网络和增强网络进行训练优化,以达到最后的全局最优过程,保留最后的三个调优网络的权重和结果;
8)使用训练好的模型对测试数据集测试输出。
所述结合现有的水下图像数据集进行数据处理包括步骤1)和步骤2);如图1、图2所示,图1中,选取从10种合成的水下图像数据集NYU-v2RGB-D生成的水下图像数据集;这个数据集使用衰减系数来构建海洋和沿海类的十种不同的水类型;它包含1449种水类型与相应的图像深度对大小620*460;选择5000张人工合成水下图像进行训练,2500张来自公海水域(即I型、IA型、IB型、II型和III型),2500张来自沿海类别(即1型、3型和5型)。训练的真实数据集是从Sea-thru中选择的550个(如图2所示),该数据集包括从两个光学不同的水体在自然光下拍摄的1100幅图像,分辨率约为7360*4912,场景深度图像的范围图是利用结构运动(SFM)对空间变化光源的估计得到的。
所述步骤3)运行引入双注意力空间迁移DSG训练CycleGAN模型,进行不同域间的图像风格迁移,采用了改进的具有双注意空间特征组(DSG_CycleGAN)的循环GAN,该图像转换模型旨在迁移优化水下生成图像的效果;DSG_CycleGAN分支不需要包括散射系数、背向散射和宽带(RGB)衰减的任何水下数据参数,
所述图像转换模块包括两个转换器:合成到真实的水下网络Gs2r和真实到合成的网络Gr2s。给定输入的RGB图像和深度图像Ds到网络Gs2r,然后生成具有与真实水下图像相似样式的转换图像Gs2r(xs,ds);另一个翻译器Gr2s反向执行图像翻译(如图3所示)。
本方法基于双注意和条件域对抗网络的启发,采用双重注意模块和空间特征变换层将深度信息纳入水下图像风格迁移网络。优化改进的DSG模块的目标是抑制噪音点信息,仅允许通过更多有助于合成优化水下风格和纹理的信息通过,它还可以有效地融合深度图和合成图像中的功能。DSG块通过使用空间特征变换层,通道注意和空间注意来执行特征重新校准。
DSG的方程为:
Td=M(RRG5(...(RRG1(Tin))))
在生成器Gs2r中,将深度图为引导生成器的先验信息,使用SFT层来变换倒数第二卷积层的特征;通道注意力被设计为利用卷积特征的通道间依赖性,而空间注意力分支则利用特征的空间间关系并计算空间注意力图,然后将其用于重新缩放传入特征U,
TDAB=Tin+Mc[CA(U),SA(U)]
其中,表示通过在DAB的开始处在输入张量上应用两个卷积获得的特征图,并且Mc是最后一个卷积层,其滤波器大小为1*1。在翻译图像模型之后,合成图像相对更接近真实水下图像(如图4所示在两张合成水下图像上的翻译结果)
在张量上引入全局特征向量从平均池中提取;然后,对输入图像的全局特征进行编码,实验证明对本方法对水下图像的复原有着十分重要的作用,可以较好的提高高水平任务,如边缘检测和目标检测。本方法同时也引入全连接层来提高对特征向量的处理能力;通过全连接学习的全局特征向量可以有效地减少增强后的水下图像中的视觉伪影,对可能导致伪影的低分辨率特征进行正则化。此外,与普通中的完全连通层相比,使用平均池来提取全局特征向量所需的参数要少得多。改进后的算子具有更高的能力,能够通过拟合局部曲线来学习图像的细微和复杂,从而实现从低质量图像到高质量图像的映射。
如图5所示引入全局特征向量映射的UNet在水下增强阶段,训练GUNet在针对水下图像数据集合的相关参数设置,70个epoch使用预训练GUNet模型。优化器采用ADAM分别动量设为β1=0.95,β2=0.999,批尺寸大小为4,学习率为0.0001。在模型域自适应训练阶段,我们使用上述预训练模型对整个网络进行30个阶段的微调;在计算DC loss时,我们将patch设置为13*13。
图6所示为自适应水下图像增强框架整体框架图。利用损失函数来提高模型的训练的效果;主要涉及损失函数,MSE损失、VGG损失、GAN损失、TV损失、周期一致性损失、身份映射损失和知觉损失,定义如下:
所述双向水下图像风格迁移损失,这里迁移模块模型学习目标将生成器Gs2r和Gr2s分别生成相应领域的图像,减少合成水下图像源XS与实际水下图像目标XR之间的差异。我们采用GAN的对抗性损失,生成器初始化为将合成图像转换为真实的水下图像。
为了获得逼真的水下图像,通过结合基于鉴别器的特征匹配损失来改善对抗损失。然后,我们采用图像级鉴别器和特征级鉴别器通过对抗性学习方式进行min-max游戏。的目的是对齐xr和Gs2r(xs,ds)之间的内容特征分布。鉴别器有助于对齐和风格特征图xr和Gs2r(xs,ds)之间的分布。对抗损失定义为:
与Gs2r相似,生成器Gr2s还有另一个图像级别的对抗损失和特征级别的对抗损失,分别表示为和XS为仿真数据集的数据分布,DS仿真数据集深度图特征分布,真实图像层次判别网络,XR为真实图像,数据分布的期望函数,Gs2r仿真域转换真实域生成器,真实特征层次判别器。
为了确保输入和输出图像以有意义的方式配对,我们利用循环一致性损失,当将图像xs依次传递给Gs2r和Gr2s时,我们期望输出应该具有相似的分布并且与xr相同。即Gr2s(Gs2r(xs,ds))≈xs和Gs2r(Gr2s(xr),dr)≈xr。循环一致性损失可以表示为:
我们利用身份映射损失函数来约束生成器在合成域和真实域之间保留图片风格信息和内容信息的映射。它还将鼓励映射以保留合成色和实色之间的颜色组成:
双向图像转换模型的完整目标函数如下:
利用感知损失和保真度损失来增强图像的精细特征,保留原始颜色信息。对于监督分支,采用感知损失和保真度损失来保证图像的增强接近于清晰的图像X.感知损失将衡量合成图像和对应的清晰图像之间的高层次差异。φi(x)被视为知觉特征,提取VGGNet第i层的activations。知觉损失函数如下
此外,我们采用以下暗通道(DC)损失,以确保预测图像的暗通道与干净图像的暗通道一致:
Claims (6)
1.一种域自适应的水下图像增强方法;其特征在于,包括如下步骤:
1)结合现有的水下图像数据集,选择已有的合成的水下及现实水下数据构建输入数据集合;
2)将训练图像随机裁剪到256*256,并将像素值归一化到[-1,1],进行图像预处理;
3)运行引入双注意力空间迁移DSG训练CycleGAN模型,进行不同域间的图像风格迁移,分别输入合成的水下图像数据和真实的水下数据进行,域自适应学习训练;
4)使用ADAM优化器,及所涉及的优化损失函数进行图像风格迁移的模型训练,并保留最后训练的模型权重及结果;
5)使用已训练好的DSG_CycleGAN模型权重,在生成的真数据集和真实水下数据集下训练FR图像增强模型,并保存训练结果数据集中训练集进行训练;
6)合成数据水下图像增强模型FS,使用同样的方式,分别在生成的合成数据集合和合成数据进行训练,并保留训练的权重及结果;
7)全局模型优化调参过程,分别将已有的风格迁移网络和增强网络进行训练优化,以达到最后的全局最优过程,保留最后的三个调优网络的权重和结果;
8)使用训练好的模型对测试数据集测试输出。
2.根据权利要求1所述的域自适应的水下图像增强方法;其特征在于,所述步骤1)选取从10种合成的水下图像数据集NYU-v2RGB-D生成的水下图像数据集;这个数据集使用衰减系数来构建海洋和沿海类的十种不同的水类型。
3.根据权利要求1所述的域自适应的水下图像增强方法;其特征在于,所述步骤2)的训练的真实数据集是从Sea-thru中选择的550个(如图2所示),该数据集包括从两个光学不同的水体在自然光下拍摄的分辨率为7360*4912,共计1100幅图像。
4.根据权利要求1所述的域自适应的水下图像增强方法;其特征在于,所述步骤3)运行引入双注意力空间迁移DSG训练CycleGAN模型,进行不同域间的图像风格迁移,采用了改进的具有双注意空间特征组(DSG_CycleGAN)的循环GAN,该图像转换模型旨在迁移优化水下生成图像的效果;DSG_CycleGAN分支不需要包括散射系数、背向散射和宽带(RGB)衰减的任何水下数据参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110555993.9A CN113256520B (zh) | 2021-05-21 | 2021-05-21 | 一种域自适应的水下图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110555993.9A CN113256520B (zh) | 2021-05-21 | 2021-05-21 | 一种域自适应的水下图像增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113256520A true CN113256520A (zh) | 2021-08-13 |
CN113256520B CN113256520B (zh) | 2023-12-19 |
Family
ID=77183505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110555993.9A Active CN113256520B (zh) | 2021-05-21 | 2021-05-21 | 一种域自适应的水下图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113256520B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592745A (zh) * | 2021-09-08 | 2021-11-02 | 辽宁师范大学 | 一种基于对抗性域自适应的无监督mri图像复原方法 |
CN113890799A (zh) * | 2021-10-28 | 2022-01-04 | 华南理工大学 | 一种基于域对抗网络的水声通信信道估计与信号检测方法 |
CN113962890A (zh) * | 2021-10-22 | 2022-01-21 | 大连海事大学 | 一种基于仿射变换的水下色偏图像清晰化方法 |
CN114387190A (zh) * | 2022-03-23 | 2022-04-22 | 山东省计算中心(国家超级计算济南中心) | 一种基于复杂环境下的自适应图像增强方法及系统 |
CN115170424A (zh) * | 2022-07-07 | 2022-10-11 | 北京安德医智科技有限公司 | 一种心脏超声影像伪影去除方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180373999A1 (en) * | 2017-06-26 | 2018-12-27 | Konica Minolta Laboratory U.S.A., Inc. | Targeted data augmentation using neural style transfer |
CN109214319A (zh) * | 2018-08-23 | 2019-01-15 | 中国农业大学 | 一种水下图像目标检测方法及系统 |
CN111062880A (zh) * | 2019-11-15 | 2020-04-24 | 南京工程学院 | 一种基于条件生成对抗网络的水下图像实时增强方法 |
CN111161191A (zh) * | 2019-12-31 | 2020-05-15 | 华南理工大学 | 一种图像增强方法 |
CN112541865A (zh) * | 2020-10-15 | 2021-03-23 | 天津大学 | 基于生成对抗网络的水下图像增强方法 |
-
2021
- 2021-05-21 CN CN202110555993.9A patent/CN113256520B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180373999A1 (en) * | 2017-06-26 | 2018-12-27 | Konica Minolta Laboratory U.S.A., Inc. | Targeted data augmentation using neural style transfer |
CN109214319A (zh) * | 2018-08-23 | 2019-01-15 | 中国农业大学 | 一种水下图像目标检测方法及系统 |
CN111062880A (zh) * | 2019-11-15 | 2020-04-24 | 南京工程学院 | 一种基于条件生成对抗网络的水下图像实时增强方法 |
CN111161191A (zh) * | 2019-12-31 | 2020-05-15 | 华南理工大学 | 一种图像增强方法 |
CN112541865A (zh) * | 2020-10-15 | 2021-03-23 | 天津大学 | 基于生成对抗网络的水下图像增强方法 |
Non-Patent Citations (1)
Title |
---|
姚哲维;杨丰;黄靖;刘娅琴;: "改进型循环生成对抗网络的血管内超声图像增强", 计算机科学, no. 05, pages 221 - 227 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113592745A (zh) * | 2021-09-08 | 2021-11-02 | 辽宁师范大学 | 一种基于对抗性域自适应的无监督mri图像复原方法 |
CN113592745B (zh) * | 2021-09-08 | 2023-11-28 | 辽宁师范大学 | 一种基于对抗性域自适应的无监督mri图像复原方法 |
CN113962890A (zh) * | 2021-10-22 | 2022-01-21 | 大连海事大学 | 一种基于仿射变换的水下色偏图像清晰化方法 |
CN113962890B (zh) * | 2021-10-22 | 2024-05-10 | 大连海事大学 | 一种基于仿射变换的水下色偏图像清晰化方法 |
CN113890799A (zh) * | 2021-10-28 | 2022-01-04 | 华南理工大学 | 一种基于域对抗网络的水声通信信道估计与信号检测方法 |
CN113890799B (zh) * | 2021-10-28 | 2022-10-25 | 华南理工大学 | 一种基于域对抗网络的水声通信信道估计与信号检测方法 |
CN114387190A (zh) * | 2022-03-23 | 2022-04-22 | 山东省计算中心(国家超级计算济南中心) | 一种基于复杂环境下的自适应图像增强方法及系统 |
CN115170424A (zh) * | 2022-07-07 | 2022-10-11 | 北京安德医智科技有限公司 | 一种心脏超声影像伪影去除方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN113256520B (zh) | 2023-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113256520B (zh) | 一种域自适应的水下图像增强方法 | |
CN111275647B (zh) | 一种基于循环生成对抗网络的水下图像复原方法 | |
CN111292264B (zh) | 一种基于深度学习的图像高动态范围重建方法 | |
CN108648197B (zh) | 一种基于图像背景掩膜的目标候选区域提取方法 | |
CN110335193B (zh) | 一种基于生成对抗网络的目标域导向的无监督图像转换方法 | |
CN111028163A (zh) | 一种基于卷积神经网络的联合图像去噪与弱光增强方法 | |
CN111062880A (zh) | 一种基于条件生成对抗网络的水下图像实时增强方法 | |
CN111260584A (zh) | 基于gan网络的水下退化图像增强的方法 | |
Wang et al. | Domain adaptation for underwater image enhancement | |
CN112348743B (zh) | 一种融合判别式网络和生成式网络的图像超分辨率方法 | |
CN113379601B (zh) | 基于降质变分自编码器的真实世界图像超分辨方法及系统 | |
CN109255758A (zh) | 基于全1*1卷积神经网络的图像增强方法 | |
CN111598842A (zh) | 一种绝缘子缺陷样本生成模型的方法、系统及存储介质 | |
CN112163998A (zh) | 一种匹配自然降质条件的单图像超分辨率分析方法 | |
CN117351542A (zh) | 一种面部表情识别方法及系统 | |
CN116957931A (zh) | 一种基于神经辐射场的相机图像画质提升方法 | |
CN117635771A (zh) | 一种基于半监督对比学习的场景文本编辑方法和装置 | |
CN116935043A (zh) | 一种基于多任务生成对抗网络的典型地物遥感图像生成方法 | |
CN115546338A (zh) | 基于Transformer与生成对抗网络的图像着色方法 | |
CN116863320A (zh) | 基于物理模型的水下图像增强方法及系统 | |
CN113379606B (zh) | 一种基于预训练生成模型的人脸超分辨方法 | |
CN114494387A (zh) | 一种生成数据集网络模型及雾图生成方法 | |
CN117689592A (zh) | 一种基于级联自适应网络的水下图像增强方法 | |
CN117495718A (zh) | 一种多尺度自适应的遥感图像去雾方法 | |
Guan et al. | DiffWater: Underwater image enhancement based on conditional denoising diffusion probabilistic model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |