CN113537401B - 一种基于改进的生成对抗网络的水下图像翻译方法 - Google Patents

一种基于改进的生成对抗网络的水下图像翻译方法 Download PDF

Info

Publication number
CN113537401B
CN113537401B CN202110930109.5A CN202110930109A CN113537401B CN 113537401 B CN113537401 B CN 113537401B CN 202110930109 A CN202110930109 A CN 202110930109A CN 113537401 B CN113537401 B CN 113537401B
Authority
CN
China
Prior art keywords
underwater
content
loss
air
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110930109.5A
Other languages
English (en)
Other versions
CN113537401A (zh
Inventor
孙玉山
周天
张国成
王旭
张家利
张力文
刘继骁
祁彧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Engineering University
Original Assignee
Harbin Engineering University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Engineering University filed Critical Harbin Engineering University
Priority to CN202110930109.5A priority Critical patent/CN113537401B/zh
Publication of CN113537401A publication Critical patent/CN113537401A/zh
Application granted granted Critical
Publication of CN113537401B publication Critical patent/CN113537401B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于改进的生成对抗网络的水下图像翻译方法,包括以下步骤:步骤S1:针对具体的检测任务,制作目标模型,将其放在空气中进行空气中目标数据集的采取,得到空气中数据集;步骤S2:在已公开的各个水下数据集中制作不同水域的水下数据集;步骤S3:根据空气中数据集以及不同水域的水下数据集构建改进的DRIT生成对抗网络;步骤S4:训练对抗网络参数;步骤S5:将空气目标图片与水下风格图片放进对抗网络,得到具有水下风格的目标图片;本发明将空气中的目标图像翻译成水下风格的图像,以此来节省时间与经济制作水下数据集。

Description

一种基于改进的生成对抗网络的水下图像翻译方法
技术领域
本发明涉及水下图像翻译领域,特别是一种基于改进的生成对抗网络的水下图像翻译方法。
背景技术
随着深度学习在水下领域的应用,水下数据集的需求越来越大,但由于水下设备的有限性以及经济因素(水下摄像头要搭载水下机器人等设备来进行图片采集),水下数据集的获取及扩展显得尤为迫切。
近些年,图像翻译技术风靡于各领域(例如,灰度到颜色,图像到语义标签,边缘地图到照片,陆地风格图像到水下风格图像),将图像翻译技术应用于水下数据集拓展是一个可行的方法,对于图像翻译,目前,有两大主流的研究方向:
1.在成对数据的监督环境下的图像翻译技术(Image-to-Image Translationwith Conditional Adversarial Networks(pix2pix));
2.非成对数据的无监督图像翻译(Unpaired Image-to-Image Translationusing Cycle-Consistent Adversarial Networks(CycleGAN),Unsupervised Image-to-Image Translation Networks(UNIT),Diverse Image-to-Image Translation viaDisentangled Representations(DRIT)),在水下领域,获得与空气中相匹配的数据集是不现实的,另外,水下环境是多种多样的,对于不同的水下数据集,输入图像需要输出不同的输出图像。
发明内容
为解决现有技术中存在的问题,本发明提供了一种基于改进的生成对抗网络的水下图像翻译方法,本发明将空气中的目标图像翻译成水下风格的图像,以此来节省时间与经济制作水下数据集。
一种基于改进的生成对抗网络的水下图像翻译方法,包括以下步骤:
步骤S1:针对具体的检测任务,制作目标模型,将其放在空气中进行空气中目标数据集的采取,得到空气中数据集;
步骤S2:在已公开的各个水下数据集中制作不同水域的水下数据集;
步骤S3:根据空气中数据集以及不同水域的水下数据集构建改进的DRIT生成对抗网络;
步骤S4:训练对抗网络参数;
步骤S5:将空气目标图片与水下风格图片放进对抗网络,得到具有水下风格的目标图片。
优选地,S3包括以下子步骤:
子步骤S31:该网络训练模型是在没有成对训练数据的情况下,学习两个域X和Y之间的映射;
子步骤S32:框架包括两个内容编码器
Figure GDA0003695383500000021
子步骤S33:属性编码器
Figure GDA0003695383500000022
两个生成器Gx,Gy,域判别器Dx,Dy,一个属性判别器Da,一个内容判别器Dc
子步骤S34:内容编码器一将图像映射到内容空间
Figure GDA0003695383500000023
属性编码器一将图像映射到的属性空间
Figure GDA0003695383500000024
子步骤S35:生成器Gx将内容空间与属性空间结合生成新的图片(Gx:{C,A}→X)。
优选地,本方法涉及到的多域问题体现在不同水域的数据集中,当把空气目标图片与不同水域图片放进训练好的网络中,会得到不同水下风格的目标图片,在这里,实现的方法是将不同水下风格与空气看作不同分类,将水下生物与空气目标视为不同分类,除了属性判别器与内容判别器的损失函数外,添加两个分类损失函数来优化翻译图像域转化问题。
优选地,两个分类损失函数来优化翻译图像域转化问题包括以下步骤:
S6:在
Figure GDA0003695383500000031
的最后一层与Gx,Gy的第一层之间共享权重;
S7:通过权重共享,强制将内容表示映射到相同的空间;
S8:将对抗性损失的内容表述为图像的自我重建损失要求将内容和风格的重组成翻译后的图像,其损失函数为
Figure GDA0003695383500000032
S9:当缺少成对训练样本进行监督学习时,针对对抗损失进行训练生成器,并不能保证翻译后的图像保留给定图像的内容,而只改变风格,为了缓解这个问题,对每个生成器应用循环一致性损失;
S10:共同训练风格和内容编码器和生成器对,独立训练鉴别器,最终目标函数为:
Figure GDA0003695383500000033
Figure GDA0003695383500000034
其中,LG为最终生成损失,LD为最终对抗损失;
S11:训练好参数后,将空气目标数据集传入内容编码网络,得到内容特征图,将水下数据传入属性编码网络,得到属性特征图,将内容特征图与属性特征图传入生成器二,就可以得到水下风格的目标图片,以此来达到拓展水下目标数据集的目的。
本发明基于改进的生成对抗网络的水下图像翻译方法的有益效果如下:
1.本发明采用一种基于改进的DRIT方法,实现空气图像到水下图像的翻译以及水下数据集的拓展。
2.本发明将空气中的目标图像翻译成水下风格的图像,以此来节省时间与经济制作水下数据集。
附图说明
图1为本发明的流程图。
图2为本发明的训练过程图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
随着水下视觉的发展,水下目标检测,水下图形分割等技术越发成熟,但在水下环境下缺少全面可靠的样本数据,另外根据检测任务不同,自行制作的大数量,多覆盖的目标数据样本往往存在制作周期长,采集困难大等问题。所以本文提出一种基于改进的生成对抗网络的水下图像翻译方法,将空气中的目标图像翻译成水下风格的图像,以此来节省时间与经济制作水下数据集。具体方案如下:
步骤一:针对具体的检测任务,制作目标模型,将其放在空气中进行空气中目标数据集的采取,得到空气中数据集,
步骤二:在已公开的各个水下数据集中制作不同水域的水下数据集
步骤三:构建改进的DRIT生成对抗网络
步骤四:训练网络参数
步骤五:将空气目标图片与水下风格图片放进网络,得到具有水下风格的目标图片。
如图1所示,该网络训练模型是在没有成对训练数据的情况下,学习两个域X和Y之间的映射。如图2所示,该框架包括两个内容编码器
Figure GDA0003695383500000041
(例如,空气目标数据集中的目标特征或水下数据集中的生物特征),属性编码器
Figure GDA0003695383500000042
(例如,空气目标数据集中的环境特征或水下数据集中的环境特征),两个生成器Gx,Gy,域判别器Dx,Dy,一个属性判别器Da,一个内容判别器Dc。以域X为例,内容编码器一将图像映射到内容空间
Figure GDA0003695383500000043
属性编码器一将图像映射到的属性空间
Figure GDA0003695383500000044
生成器一Gx将内容空间与属性空间结合生成新的图片(Gx:{C,A}→X)。判别器旨在区分真实图像和翻译图像。
对于输入图片,我们将其变换为256*256*3大小,我们采用下采样网络对其进行编码,即内容编码与属性编码,编码网络的第一层首先使用大小为3的ReflectionPad2d函数对其进行扩边,随后使用通道数为64,卷积核大小为7,步长为1的卷积操作对其进行卷积,然后对其进行归一化以及RELU激活处理,得到大小为(256*256*64)的特征层一,第二层使用通道数为128,卷积核大小为3,步长为2的卷积操作对其进行卷积,然后对其进行归一化以及RELU激活处理,得到大小为(128*128*128)的特征层二,第三层使用通道数为256,卷积核大小为3,步长为2的卷积操作对其进行卷积,然后对其进行归一化以及RELU激活处理,得到大小为(64*64*256)的特征层三,除此之外,加入了9层残差模块,增加网络深度,同时解决网络退化问题,最终得到内容特征图或属性特征图(64*64*256)。
对于生成器网络,采用上采样网络对其进行解码部分,由于生成图片是要由内容特征图或属性特征图一起生成,所以输入网络的特征图大小为(64*64*512),生成网络的第一层使用通道数为256,卷积核大小为3,步长为2的逆卷积操作对其进行逆卷积,然后对其进行归一化以及RELU激活处理,得到大小为(128*128*256),第二层使用通道数为128,卷积核大小为3,步长为1的卷积操作对其进行卷积,然后对其进行归一化以及RELU激活处理,得到大小为(128*128*128),第3层使用通道数为64,卷积核大小为3,步长为2的逆卷积操作对其进行逆卷积,然后对其进行归一化以及RELU激活处理,得到大小为(128*128*64),第四层,首先使用大小为3的ReflectionPad2d函数对其进行扩边,随后使用通道数为3,卷积核大小为7,步长为1的卷积操作对其进行卷积,然后对其进行Tanh激活处理,得到大小为(256*256*3)的生成图像。
对于判别器网络,结构比生成器更加简单,输入的为编码器生成的大小为(64*64*256)的特征层,首先第一层使用通道数为512,卷积核大小为4,步长为2的卷积操作对其进行卷积,然后对其进行归一化以及LeakyRELU激活处理,其中LeakyRELU激活函数的斜率为0.2,第二层使用通道数为512,卷积核大小为4,步长为2的卷积操作对其进行卷积,然后对其进行归一化以及LeakyRELU激活处理,其中LeakyRELU激活函数的斜率为0.2,对于正常的过程,我们使用通道数为1,卷积核大小为4,步长为1的卷积操作对其进行卷积,得到大小为(15*15*1),最后进行池化平均处理,尺寸也缩减为1x1,判别结果。除此之外,我们另加了一个分类网络,来对属性及内容进行分类,在第二层之后,对特征层进行Dropout处理,来缓解过拟合的问题,最后对应两个全连接层,第一个全连接层的输出通道数为1024,然后对其进行RELU激活处理以及Dropout处理,第二个全连接层的输出通道数为数据集属性数量或者内容数量,得到输出结果。
经过5层卷积,通道数缩减为1,最后池化平均,尺寸也缩减为1x1,除了一个二分类的损失之外,另外加一个分类损失。
本发明中损失函数:
本方法涉及到的多域问题体现在不同水域的数据集中,当把空气目标图片与不同水域图片放进训练好的网络中,会得到不同水下风格的目标图片,在这里,实现的方法是将不同水下风格与空气看作不同分类,将水下生物与空气目标视为不同分类,除了属性判别器与内容判别器的损失函数外,添加两个分类损失函数来优化翻译图像域转化问题,另外,在
Figure GDA0003695383500000061
的最后一层与Gx,Gy的第一层之间共享权重。通过权重共享,强制将内容表示映射到相同的空间。
Figure GDA0003695383500000062
表示内容对抗损失,
Figure GDA0003695383500000063
表示属性对抗损失,
Figure GDA0003695383500000064
表示属性分类损失、
Figure GDA0003695383500000065
表示内容分类损失
Figure GDA0003695383500000066
Figure GDA0003695383500000067
Figure GDA0003695383500000071
Figure GDA0003695383500000072
Figure GDA0003695383500000073
我们将对抗性损失的内容表述为图像的自我重建损失要求将内容和风格的重组成翻译后的图像,其损失函数为
Figure GDA0003695383500000074
Figure GDA0003695383500000075
当缺少成对训练样本进行监督学习时,针对对抗损失进行训练生成器,并不能保证翻译后的图像保留给定图像的内容,而只改变风格。为了缓解这个问题,我们对每个生成器应用循环一致性损失:
Figure GDA0003695383500000076
最终,共同训练风格和内容编码器和生成器对,独立训练鉴别器,最终目标函数为:
Figure GDA0003695383500000077
Figure GDA0003695383500000078
LG为最终生成损失,LD为最终对抗损失
λcc
Figure GDA0003695383500000079
是一组超参数,旨在控制各个损失在总损失中的重要程度。
训练好参数后,将空气目标数据集传入内容编码网络,得到内容特征图,将水下数据传入属性编码网络,得到属性特征图,将内容特征图与属性特征图传入生成器二,就可以得到水下风格的目标图片,以此来达到拓展水下目标数据集的目的。

Claims (2)

1.一种基于改进的生成对抗网络的水下图像翻译方法,其特征在于,包括以下步骤:
步骤S1:针对具体的检测任务,制作目标模型,将其放在空气中进行空气中目标数据集的采取,得到空气中数据集;
步骤S2:在已公开的各个水下数据集中制作不同水域的水下数据集;
步骤S3:根据空气中数据集以及不同水域的水下数据集构建改进的DRIT生成对抗网络;
步骤S4:训练对抗网络参数;
步骤S5:将空气目标图片与水下风格图片放进对抗网络,得到具有水下风格的目标图片;
所述S3包括以下子步骤:
子步骤S31:网络训练模型是在没有成对训练数据的情况下,学习两个域X和Y之间的映射;
子步骤S32:框架包括两个内容编码器
Figure FDA0003695383490000011
子步骤S33:属性编码器
Figure FDA0003695383490000012
两个生成器Gx,Gy,域判别器Dx,Dy,一个属性判别器Da,一个内容判别器Dc
子步骤S34:内容编码器一将图像映射到内容空间
Figure FDA0003695383490000013
属性编码器一将图像映射到的属性空间
Figure FDA0003695383490000014
子步骤S35:生成器Gx将内容空间与属性空间结合生成新的图片(Gx:{C,A}→X);
除了属性判别器与内容判别器的损失函数外,添加两个分类损失函数来优化翻译图像域转化问题;
两个分类损失函数来优化翻译图像域转化问题包括以下步骤:
S6:在
Figure FDA0003695383490000015
的最后一层与Gx,Gy的第一层之间共享权重;
S7:通过权重共享,强制将内容表示映射到相同的空间;
S8:将对抗性损失的内容表述为图像的自我重建损失要求将内容和风格的重组成翻译后的图像,其损失函数为
Figure FDA0003695383490000021
S9:当缺少成对训练样本进行监督学习时,针对对抗损失进行训练生成器,并不能保证翻译后的图像保留给定图像的内容,而只改变风格,为了缓解这个问题,对每个生成器应用循环一致性损失;
S10:共同训练风格和内容编码器和生成器对,独立训练鉴别器,最终目标函数为:
Figure FDA0003695383490000022
Figure FDA0003695383490000023
其中,LG为最终生成损失,LD为最终对抗损失,Lcc为循环一致性损失,
Figure FDA0003695383490000024
为自我重建损失,
Figure FDA0003695383490000025
表示内容对抗损失;
Figure FDA0003695383490000026
表示属性对抗损失;
Figure FDA0003695383490000027
表示内容分类损失;
Figure FDA0003695383490000028
表示属性分类损失;λcc
Figure FDA0003695383490000029
是一组超参数,旨在控制各个损失在总损失中的重要程度;
S11:训练好参数后,将空气目标数据集传入内容编码网络,得到内容特征图,将水下数据传入属性编码网络,得到属性特征图,将内容特征图与属性特征图传入生成器二,就可以得到水下风格的目标图片,以此来达到拓展水下目标数据集的目的。
2.根据权利要求1所述的基于改进的生成对抗网络的水下图像翻译方法,其特征在于,本方法涉及到的多域问题体现在不同水域的数据集中,当把空气目标图片与不同水域图片放进训练好的网络中,会得到不同水下风格的目标图片,在这里,实现的方法是将不同水下风格与空气看作不同分类,将水下生物与空气目标视为不同分类。
CN202110930109.5A 2021-08-13 2021-08-13 一种基于改进的生成对抗网络的水下图像翻译方法 Active CN113537401B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110930109.5A CN113537401B (zh) 2021-08-13 2021-08-13 一种基于改进的生成对抗网络的水下图像翻译方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110930109.5A CN113537401B (zh) 2021-08-13 2021-08-13 一种基于改进的生成对抗网络的水下图像翻译方法

Publications (2)

Publication Number Publication Date
CN113537401A CN113537401A (zh) 2021-10-22
CN113537401B true CN113537401B (zh) 2022-08-02

Family

ID=78091066

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110930109.5A Active CN113537401B (zh) 2021-08-13 2021-08-13 一种基于改进的生成对抗网络的水下图像翻译方法

Country Status (1)

Country Link
CN (1) CN113537401B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3612260A1 (de) * 1986-04-11 1987-11-19 Hydroacoustic Inc Seismische quelle zur verwendung unter wasser
CN109993710A (zh) * 2019-03-20 2019-07-09 西北工业大学 一种基于生成对抗网络的水下图像去噪方法
CN110189268A (zh) * 2019-05-23 2019-08-30 西安电子科技大学 基于gan网络的水下图像色彩校正方法
CN110211148A (zh) * 2019-06-04 2019-09-06 哈尔滨工程大学 一种基于目标状态预估的水下图像预分割方法
CN110310221A (zh) * 2019-06-14 2019-10-08 大连理工大学 一种基于生成对抗网络的多域图像风格迁移方法
CN111275691A (zh) * 2020-01-22 2020-06-12 北京邮电大学 一种基于深度学习的小样本肿瘤坏死率分类预测装置
CN111461997A (zh) * 2020-03-09 2020-07-28 厦门大学 水下图像增强生成对抗网络的训练方法、介质及装置
CN112766079A (zh) * 2020-12-31 2021-05-07 北京航空航天大学 一种基于内容风格分离的无监督图像到图像翻译方法
CN112819687A (zh) * 2021-01-21 2021-05-18 浙江大学 基于无监督神经网络的跨域图像转换方法、装置、计算机设备和存储介质
CN113205468A (zh) * 2021-06-01 2021-08-03 桂林电子科技大学 一种基于自注意力机制和gan的水下图像实时复原模型

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110852970A (zh) * 2019-11-08 2020-02-28 南京工程学院 基于深度卷积生成对抗网络的水下机器人图像增强方法
CN113191962A (zh) * 2021-03-30 2021-07-30 大连智慧渔业科技有限公司 基于环境背景光的水下图像颜色恢复方法、装置及存储介质

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3612260A1 (de) * 1986-04-11 1987-11-19 Hydroacoustic Inc Seismische quelle zur verwendung unter wasser
CN109993710A (zh) * 2019-03-20 2019-07-09 西北工业大学 一种基于生成对抗网络的水下图像去噪方法
CN110189268A (zh) * 2019-05-23 2019-08-30 西安电子科技大学 基于gan网络的水下图像色彩校正方法
CN110211148A (zh) * 2019-06-04 2019-09-06 哈尔滨工程大学 一种基于目标状态预估的水下图像预分割方法
CN110310221A (zh) * 2019-06-14 2019-10-08 大连理工大学 一种基于生成对抗网络的多域图像风格迁移方法
CN111275691A (zh) * 2020-01-22 2020-06-12 北京邮电大学 一种基于深度学习的小样本肿瘤坏死率分类预测装置
CN111461997A (zh) * 2020-03-09 2020-07-28 厦门大学 水下图像增强生成对抗网络的训练方法、介质及装置
CN112766079A (zh) * 2020-12-31 2021-05-07 北京航空航天大学 一种基于内容风格分离的无监督图像到图像翻译方法
CN112819687A (zh) * 2021-01-21 2021-05-18 浙江大学 基于无监督神经网络的跨域图像转换方法、装置、计算机设备和存储介质
CN113205468A (zh) * 2021-06-01 2021-08-03 桂林电子科技大学 一种基于自注意力机制和gan的水下图像实时复原模型

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
Diverse Image-to-Image Translation via Disentangled Representations;Hsin-Ying Lee等;《European Conference on Computer Vision》;SpringerLink;20190717;第36–52页 *
Fine-grained facial image-to-image translation with an attention based pipeline generative adversarial framework;Yan Zhao等;《Multimedia Tools and Applications 》;SpringerLink;20200109;第79卷;第14981–15000页 *
不平衡数据集下的水下目标快速识别方法;刘有用等;《计算机工程与应用》;20190719(第17期);第236-242页 *
基于Retinex和生成对抗网络的水下图像增强算法的研究与应用;张婷婷;《中国优秀硕士学位论文全文数据库 信息科技辑》;20210415(第4期);I138-411 *
深度学习驱动的水下图像增强与复原研究进展;丛润民等;《信号处理》;20200915(第09期);第1377-1389页 *

Also Published As

Publication number Publication date
CN113537401A (zh) 2021-10-22

Similar Documents

Publication Publication Date Title
CN108875935B (zh) 基于生成对抗网络的自然图像目标材质视觉特征映射方法
CN109410307B (zh) 一种场景点云语义分割方法
CN110503680A (zh) 一种基于非监督的卷积神经网络单目场景深度估计方法
CN112967178B (zh) 一种图像转换方法、装置、设备及存储介质
CN112085836A (zh) 一种基于图卷积神经网络的三维人脸重建方法
CN110910486A (zh) 室内场景光照估计模型、方法、装置、存储介质以及渲染方法
CN111242844B (zh) 图像处理方法、装置、服务器和存储介质
CN111950649A (zh) 基于注意力机制与胶囊网络的低照度图像分类方法
CN113313644B (zh) 一种基于残差双注意力网络的水下图像增强方法
CN113344806A (zh) 一种基于全局特征融合注意力网络的图像去雾方法与系统
CN108647560A (zh) 一种基于cnn的保持表情信息的人脸转移方法
CN113362250B (zh) 一种基于双树四元小波与深度学习的图像去噪方法及系统
CN112837210B (zh) 一种基于特征图分块的多形变风格人脸漫画自动生成方法
CN111598968A (zh) 一种图像处理方法、装置、存储介质和电子设备
CN111833360B (zh) 一种图像处理方法、装置、设备以及计算机可读存储介质
CN104408697B (zh) 基于遗传算法和正则先验模型的图像超分辨重建方法
CN112560624B (zh) 基于模型深度集成的高分遥感影像语义分割方法
Sun et al. Underwater image enhancement with reinforcement learning
CN113077554A (zh) 一种基于任意视角图片的三维结构化模型重建的方法
CN109711411B (zh) 一种基于胶囊神经元的图像分割识别方法
CN111462324A (zh) 一种在线时空语义融合方法和系统
CN112257727B (zh) 一种基于深度学习自适应可变形卷积的特征图像提取方法
CN113361387A (zh) 人脸图像融合方法及装置、存储介质及电子设备
CN113724134A (zh) 一种基于残差蒸馏网络的航拍图像盲超分辨率重建方法
CN116385667B (zh) 三维模型的重建方法、纹理重构模型的训练方法以及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant