CN117408893A - 一种基于浅层神经网络的水下图像增强方法 - Google Patents
一种基于浅层神经网络的水下图像增强方法 Download PDFInfo
- Publication number
- CN117408893A CN117408893A CN202311723930.5A CN202311723930A CN117408893A CN 117408893 A CN117408893 A CN 117408893A CN 202311723930 A CN202311723930 A CN 202311723930A CN 117408893 A CN117408893 A CN 117408893A
- Authority
- CN
- China
- Prior art keywords
- image
- data set
- generator
- underwater
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 11
- 238000005070 sampling Methods 0.000 claims abstract description 5
- 238000011176 pooling Methods 0.000 claims abstract description 3
- 238000000605 extraction Methods 0.000 claims description 21
- 238000012549 training Methods 0.000 claims description 11
- 230000004913 activation Effects 0.000 claims description 10
- 230000008485 antagonism Effects 0.000 claims description 6
- 125000004122 cyclic group Chemical group 0.000 claims description 6
- 238000004519 manufacturing process Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 claims description 3
- 230000006835 compression Effects 0.000 claims description 2
- 238000007906 compression Methods 0.000 claims description 2
- 230000002708 enhancing effect Effects 0.000 claims 4
- 230000003042 antagnostic effect Effects 0.000 abstract description 6
- 238000012545 processing Methods 0.000 abstract description 4
- 238000005516 engineering process Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 10
- 238000013135 deep learning Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000013508 migration Methods 0.000 description 2
- 230000005012 migration Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001427 coherent effect Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000001303 quality assessment method Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/094—Adversarial learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Image Processing (AREA)
Abstract
本申请属于图像处理技术,具体涉及一种基于浅层神经网络的水下图像增强方法,本发明对原浅层水下网络模型(ShallowUWnet)进行改进:增加向上采样和最大池化操作、完善其卷积模块;在网络模型中结合了多尺度密集块(MSDB);添加了循环一致性的对抗性网络(CycleGAN)部分,来获得更好质量的图像。
Description
技术领域
本申请属于图像处理技术,具体涉及一种基于浅层神经网络的水下图像增强方法。
背景技术
由于光在水中传播的衰减和散射,造成水下图像具有低对比度、模糊和颜色失真等特点。目前,水下图像增强方法大致可分为以下三类:基于传统图像处理的方法、基于物理模型的方法和基于深度学习的方法。传统方法大多是针对水上图像增强所提出来的,但其中的部分方法可以应用到水下图像领域,例如,自动白平衡、直方图均衡化以及Retinex图像增强算法及其改进算法等;基于物理模型的方法需要对水下图像的退化过程进行建模,然后对模型中的参数进行估计,最后获得增强后的图像;近年来,基于深度学习的方法在低级视觉任务上取得了极具竞争力的结果,在图像去雾、图像去噪和图像去模糊等领域提出了许多方法,并且达到了先进的性能,其中,循环一致对抗性网络CycleGAN克服了数据集配对的限制,使其更容易应用于实际问题中。但是上述算法要么专注于颜色校正或者逼真的细节刻画,要么主攻水下图片的对比度增强,造成了无法处理水下图像多样性的结果,如果遇到高浊度和低照度的水体特征图片,将不能获得令人满意的结果,并且上述的方法没有兼顾网络结构的改善和对生成图片的后续增强。
发明内容
本方法将改进了的浅层水下网络模型ISUWNet与网络模型CycleGAN相结合的水下图像增强方法,其技术方案为:
一种基于浅层神经网络的水下图像增强方法,利用改进的浅层神经网络ISUWNet模型进行图像特征提取,改进的浅层神经网络模型是在原浅层水下图像网络ShallowUWNet的基础上使用上采样或最大池进行特征压缩,通过激活函数LeakyReLU,将卷积块ConvBlock和多尺度特征提取模块MSDB组成一个集合训练模块,然后再将集合训练模块依次首尾相连,进行逐层叠加求和,以实现图像特征提取。
优选的,从模型ISUWNet获得的图像以及清晰的水下真实图像/>分别作为循环一致对抗性网络CycleGAN的数据集/>和数据集/>;数据集/>通过生成器G生成风格是/>的、内容是/>的图片M1;数据集/>通过生成器F生成风格是/>的、内容是/>的图片M2;通过两个判别器/>和/>对生成器G、生成器F生成的图片进行判断,经过n迭代,直到生成器G输出的风格接近水下真实图像/>、生成器F输出的内容接近模型ISUWNet给出的图像/>为止。
优选的,模型ISUWNet包括多个卷积块ConvBlocks,每个所述的卷积块后面连接一个多尺度特征提取模块MSDB;每个所述的卷积块包括两组卷积层,每个卷积层后面都有一个Dropout层和激活函数ReLU,然后再将输出结果通过一组Conv-ReLU对,进行合残差连接。
优选的,多尺度特征提取模块实现三种不同大小的卷积核来进行卷积操作。
优选的,模型ISUWNet的损失函数为:
;
其中,称为曼哈顿距离,表示残差的绝对值之和;/>损失根据两幅图像的亮度、对比度和结构相似性计算两幅图像之间的相似程度。
优选的,循环一致对抗性网络CycleGAN实现两种不同的网络结构相结合,具体步骤如下:
将从模型ISUWNet得到的输出图像作为模块CycleGAN的数据集/>,将清晰的水下图像/>作为数据集/>,数据集/>的内容和数据集Y的内容是不相关的;
生成器G利用从ISUWNet得到的输出图像生成风格类似/>的图像/>,并且图像/>属于数据集/>;即/>, />;
生成器F利用清晰的水下真实图像生成风格类似/>的图像/>,并且图像/>属于数据集/>,即/>,/> ;
如果生成器G产生的图片与数据集/>里的图片/>内容差距大,或者图片边缘模糊,那么此时判别器/>输出低分;反之如果图片/>与数据集/>里的图片/>相比内容相似、图片清晰,那么此时判别器/>输出高分;经过n次训练,将会得到风格无限接近真实图像的数据集/>、内容无限接近模型ISUWNet输出的数据集/>的图片。
优选的,循环一致对抗性网络CycleGAN损失函数为:Loss=LossGAN+LossCycle,其中LossGAN保证生成器G和生成器F、判别器、判别器/>能够相互进化,而LossCycle保证只改变风格不改变内容。
与现有技术相比,本申请存在以下有益效果:
①提出了改进的浅层水下图像网络(ISUWNet)模型,原模型(ShallowUWnet)是由一个完全连接的卷积网络组成的,该网络的主体部分是串联的三个密集连接的卷积块,然后使用残差连连接(Skip Connections)将输入图像连接到每个卷积块的输出,通过对与输入图像相关联的通道施加更大的权重,来更好地结合原始图像的基本特征。在此基础上添加了向上采样和最大池化操作,可以减少运算参数、减轻运算压力;卷积块(ConvBlocks)由两组卷积层组成,每个卷积层后面都有一个Dropout和ReLU激活函数,然后再将结果通过一组Conv-ReLU对,利于结合残差连接,可以提高该网络对不同风格进行图像增强时的泛化能力和鲁棒性。
②在ISUWNet中结合而了多尺度特征提取模块(MSDB)来提高网络的特征提取能力。通过将其添加到卷积块之后,可以改善单尺度卷积难以完全提取图像特征的问题,达到了对不同尺度特征采用不同关注度的目的,一定程度上解决了网络特征提取不充分的问题。
③添加了循环一致性的对抗性网络(CycleGAN)部分,把从改进的浅层水下图像网络(ISUWNet)模型中获得的图像作为CycleGAN的数据集/>,再把清晰的水下图像(/>)作为数据集Y,通过CycleGAN的图像风格迁移训练得到内容为/>、风格为/>的清晰图像结果,其具有更好的感知质量、更高的图像信息熵和更少的噪声。
附图说明
图1为本申请方法流程图。
图2为卷积块ConvBlocks示意图。
图3为多尺度特征提取模块MSDB示意图。
图4循环一致对抗性网络CycleGAN示意图。
具体实施方式
以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。
网络架构图如图1所示。该模型由两个主要部分组成:ISUWNet和CycleGAN。ISUWNet在原浅层水下图像网络(ShallowUWnet)的基础上使用上采样或最大池进行特征压缩,通过LeakyReLU激活函数,使用卷积块(ConvBlocks)和多尺度特征提取模块(MSDB)依次相连进行逐层叠加求和,以实现更详细的特征提取。此外,将得到的图片输入到循环一致对抗性网络当中,通过将其与不成对的清晰水下图像进行风格迁移训练,来减少噪声的影响,同时保留图像中的重要细节,甚至增强其局部信息,使得更容易辨认。
ISUWNet损失函数为:;其中,/>称为曼哈顿距离,表示残差的绝对值之和;/>损失根据两幅图像的亮度、对比度和结构相似性计算两幅图像之间的相似程度。
卷积块由两组卷积层组成,每个卷积层后面都有一个Dropout和ReLU激活函数。再将结果输入到另一组Conv-ReLU对,提高来自跳跃连接原始图像的联系。该卷积块和跳跃连接起到了阻止网络在给定训练数据上过度拟合的作用,从而支持网络的泛化,结构如图2所示。
为了提高网络的特征提取能力,在充分考虑卷积尺度对特征提取所产生的影响的基础上,构建了多尺度特征提取模块(MSDB),弥补了单尺度卷积难以完全提取图像特征的问题,如图3所示。多尺度特征提取模块(MSDB)对输入图像进行多尺度的特征提取。图中是使用3×3、5×5和7×7卷积和激活函数实现的。首先,将3×3、5×5所得到的卷积特征进行信道合并,合并后的特征随后进行卷积和激活操作。然后,将其结果与7×7所得到的卷积特征进行通道合并。最后,应用1×1卷积和激活层来输出特征。这便于特征融合,并且能够提高计算效率。
为了获得具有更好的感知质量、更高的图像信息熵和更少的噪声的图像,可以通过将循环一致对抗性网络(CycleGAN)与ISUWNet相结合来获得更清晰的图像。图4展示了整个过程,它由两个生成器和两个判别器组成。
循环一致对抗性网络的主要目的是实现风格迁移(Domain Adaptation),将经过ISUWNet处理过的图像作为数据集/>,将清晰的水下图像作为数据集/>。生成器G可以生成风格是/>的、内容是/>的图片,即/>, />;同样的,生成器F可以生成风格是/>的、内容是/>的照片,即/>, />。为了达到这个目的,需要训练两个判别器/>和,分别判断两个生成器生成图片的好坏:如果生成器产生的图片/>与数据集/>里的图片/>不相像,此时判别器/>应给它低分(最低分为0分),反之如果图片/>与数据集/>里的图片/>相像,则此时判别器/>应给他高分(规定最高分为1)。此外,判别器/>应给真实图片/>高分。对于判别器/>也是同理。经过训练,得到风格是清晰的、内容是给定的图片。
循环一致对抗性网络CycleGAN损失函数为:Loss=LossGAN+LossCycle,其中LossGAN保证生成器G和生成器F、判别器、判别器/>能够相互进化,而LossCycle保证只改变风格不改变内容。
为了验证所提出的水下图像增强方法的有效性,在Windows系统上使用Python3.7和PyTorch 1.12.1深度学习框架进行了一系列实验。网络模型是使用Adam优化器进行训练而建立的。所有实验,包括训练和测试,都是在具有NVIDIA GeForce GTX3090和24GBGPU内存的服务器上进行的。将学习率设置为0.0002,批次数为16,并对网络进行200次迭代训练。
定量比较:
本文提出的方法在数据集UIEB和数据集EUVP上进行了测试,如表1所示。所有配对测试集的比较结果,如表2所示,提供了三个参考指标(峰值信噪比PSNR、结构相似性SSIM、水下图像质量评价指标UIQM)的平均分数。并且分别使用了基于直方图均衡算法(CLAHE)的方法 、基于快速水下图像增强网络(FUnIE-GAN)的方法以及基于浅层水下图像网络(Shallow-UWnet)的方法对水下图像进行处理,结果表明,本文提出的方法在数据集UIEB和数据集EUVP上的三种参考指标得分最高。如表2所示,基于深度学习和融合的技术比传统算法获得了更高的性能,因为深度学习网络通过拟合各种类型的场景信息具有更强的算法自适应性。因此,基于深度学习的图像增强算法更适用于机器人的检测需求。此外,比较每个深度学习图像增强网络的PSNR、SSIM和UIQM之间的差异很小。这表明,本研究中的算法生成的增强图像总体上更好,内容细节更丰富,更适合用来生成画面清晰的水下图像。
表 1 不同水下数据集的划分
表 2 不同方法的客观结果比较
总之,与上述方法相比,本模型提高了图片结果的亮度和对比度,不仅可以恢复和增强水下图像普遍存在的偏色、低对比度等问题,还可以在很大程度上保留图像的特征信息。此外,实验中还发现该方法可以在深海环境和弱光环境中获得更好的图片效果,颜色平衡更好、图像细节更清晰。
Claims (7)
1.一种基于浅层神经网络的水下图像增强方法,其特征在于,利用改进的浅层神经网络模型ISUWNet进行图像特征提取,改进的浅层神经网络模型是在原浅层水下网络模型ShallowUWNet的基础上使用上采样或最大池化进行特征压缩,通过激活函数LeakyReLU,使用卷积块ConvBlock和多尺度特征提取模块MSDB组成一个集合训练模块,然后再将集合训练模块依次首尾相连,进行逐层叠加求和,以实现图像特征提取。
2.根据权利要求1所述的一种基于浅层神经网络的水下图像增强方法,其特征在于,从ISUWNet模型获得的图像以及清晰的水下真实图像/>分别作为循环一致对抗性网络CycleGAN的数据集/>和数据集/>;数据集/>通过生成器G生成风格是/>的、内容是/>的图片M1;数据集/>通过生成器F生成风格是/>的、内容是/>的图片M2;通过两个判别器/>和对生成器G、生成器F生成的图片进行判断,经过n迭代,直到生成器G输出的风格接近水下真实图像/>、生成器F输出的内容接近ISUWNet模型给出的图像/>为止。
3.根据权利要求1所述的一种基于浅层神经网络的水下图像增强方法,其特征在于,ISUWNet模型包括多个卷积块ConvBlocks,每个所述的卷积块后面连接一个多尺度特征提取模块MSDB;每个所述的卷积块包括两组卷积层,每个卷积层后面都有一个Dropout层和激活函数ReLU,然后再将输出结果通过一组Conv-ReLU对,进行合残差连接。
4.根据权利要求3所述的一种基于浅层神经网络的水下图像增强方法,其特征在于,多尺度特征提取模块实现三种不同大小的卷积核来进行卷积操作。
5.根据权利要求3所述的一种基于浅层神经网络的水下图像增强方法,其特征在于,网络模型ISUWNet的损失函数为:
;
其中,称为曼哈顿距离,表示残差的绝对值之和;/>损失根据两幅图像的亮度、对比度和结构相似性计算两幅图像之间的相似程度。
6.根据权利要求2所述的一种基于浅层神经网络的水下图像增强方法,其特征在于,循环一致对抗性网络CycleGAN实现两种不同的网络结构相结合,具体步骤如下:
将从ISUWNet模型得到的输出图像作为CycleGAN的数据集/>,将清晰的水下图像/>作为数据集/>,数据集/>的内容和数据集/>的内容是不相关的;
生成器G利用从ISUWNet得到的输出图像生成风格类似/>的图像/>,并且图像/>属于数据集/>;即/>, />;
生成器F利用清晰的水下真实图像生成风格类似/>的图像/>,并且图像/>属于数据集Y,即/>, />;
如果生成器G产生的图片与数据集/>里的图片/>,内容差距大,或者图片边缘模糊,那么此时判别器/>输出低分;反之如果图片/>与数据集/>里的图片/>内容相似、图片清晰,那么此时判别器/>输出高分;
经过n次训练,将会得到风格无限接近真实图像的数据集、内容无限接近ISUWNet模型输出的数据集/>的图片。
7.根据权利要求2所述的一种基于浅层神经网络的水下图像增强方法,其特征在于,循环一致对抗性网络CycleGAN损失函数为:
Loss=LossGAN+LossCycle,其中LossGAN保证生成器G和生成器F、判别器、判别器能够相互进化,而LossCycle保证只改变风格不改变内容。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311723930.5A CN117408893B (zh) | 2023-12-15 | 2023-12-15 | 一种基于浅层神经网络的水下图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311723930.5A CN117408893B (zh) | 2023-12-15 | 2023-12-15 | 一种基于浅层神经网络的水下图像增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117408893A true CN117408893A (zh) | 2024-01-16 |
CN117408893B CN117408893B (zh) | 2024-04-05 |
Family
ID=89494818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311723930.5A Active CN117408893B (zh) | 2023-12-15 | 2023-12-15 | 一种基于浅层神经网络的水下图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117408893B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299341A (zh) * | 2018-10-29 | 2019-02-01 | 山东师范大学 | 一种基于字典学习的对抗跨模态检索方法和系统 |
CN111127374A (zh) * | 2019-11-22 | 2020-05-08 | 西北大学 | 一种基于多尺度密集网络的Pan-sharpening方法 |
CN113408423A (zh) * | 2021-06-21 | 2021-09-17 | 西安工业大学 | 适用于tx2嵌入式平台的水产品目标实时检测方法 |
CN114648724A (zh) * | 2022-05-18 | 2022-06-21 | 成都航空职业技术学院 | 一种基于生成对抗网络的轻量化高效目标分割与计数方法 |
CN114663297A (zh) * | 2022-02-21 | 2022-06-24 | 南京信息工程大学 | 一种基于多尺度密集生成对抗网络的水下图像增强方法及网络模型的训练方法 |
CN115034982A (zh) * | 2022-05-27 | 2022-09-09 | 大连海事大学 | 一种基于多尺度注意机制融合的水下图像增强方法 |
CN115223004A (zh) * | 2022-06-17 | 2022-10-21 | 长安大学 | 基于改进的多尺度融合生成对抗网络图像增强方法 |
WO2022267641A1 (zh) * | 2021-06-25 | 2022-12-29 | 南京邮电大学 | 一种基于循环生成对抗网络的图像去雾方法及系统 |
CN115861094A (zh) * | 2022-11-22 | 2023-03-28 | 大连大学 | 一种融合注意力机制的轻量级gan水下图像增强模型 |
CN116012255A (zh) * | 2023-02-08 | 2023-04-25 | 河海大学 | 一种基于循环一致性生成对抗网络的低光图像增强方法 |
CN116309221A (zh) * | 2023-03-10 | 2023-06-23 | 深圳供电局有限公司 | 一种多光谱图像融合模型的构建方法 |
CN116503723A (zh) * | 2023-04-28 | 2023-07-28 | 佛山科学技术学院 | 一种低能见度环境下密集多尺度目标检测方法 |
-
2023
- 2023-12-15 CN CN202311723930.5A patent/CN117408893B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299341A (zh) * | 2018-10-29 | 2019-02-01 | 山东师范大学 | 一种基于字典学习的对抗跨模态检索方法和系统 |
CN111127374A (zh) * | 2019-11-22 | 2020-05-08 | 西北大学 | 一种基于多尺度密集网络的Pan-sharpening方法 |
CN113408423A (zh) * | 2021-06-21 | 2021-09-17 | 西安工业大学 | 适用于tx2嵌入式平台的水产品目标实时检测方法 |
WO2022267641A1 (zh) * | 2021-06-25 | 2022-12-29 | 南京邮电大学 | 一种基于循环生成对抗网络的图像去雾方法及系统 |
CN114663297A (zh) * | 2022-02-21 | 2022-06-24 | 南京信息工程大学 | 一种基于多尺度密集生成对抗网络的水下图像增强方法及网络模型的训练方法 |
CN114648724A (zh) * | 2022-05-18 | 2022-06-21 | 成都航空职业技术学院 | 一种基于生成对抗网络的轻量化高效目标分割与计数方法 |
CN115034982A (zh) * | 2022-05-27 | 2022-09-09 | 大连海事大学 | 一种基于多尺度注意机制融合的水下图像增强方法 |
CN115223004A (zh) * | 2022-06-17 | 2022-10-21 | 长安大学 | 基于改进的多尺度融合生成对抗网络图像增强方法 |
CN115861094A (zh) * | 2022-11-22 | 2023-03-28 | 大连大学 | 一种融合注意力机制的轻量级gan水下图像增强模型 |
CN116012255A (zh) * | 2023-02-08 | 2023-04-25 | 河海大学 | 一种基于循环一致性生成对抗网络的低光图像增强方法 |
CN116309221A (zh) * | 2023-03-10 | 2023-06-23 | 深圳供电局有限公司 | 一种多光谱图像融合模型的构建方法 |
CN116503723A (zh) * | 2023-04-28 | 2023-07-28 | 佛山科学技术学院 | 一种低能见度环境下密集多尺度目标检测方法 |
Non-Patent Citations (3)
Title |
---|
ANKITA NAIK;APURVA SWARNAKAR;KARTIK MITTAL: "Shallow-UWnet : Compressed Model for Underwater Image Enhancement", ARXIV, 6 January 2021 (2021-01-06), pages 2 - 3 * |
李梓玄, 齐亚莉: "一种改进的CycleGAN图像风格迁移算法", 北京印刷学院学报, vol. 31, no. 9, 30 September 2023 (2023-09-30), pages 1 - 6 * |
林森;刘世本;唐延东: "多输入融合对抗网络的水下图像增强", 红外与激光工程, no. 05, 25 May 2020 (2020-05-25), pages 217 - 225 * |
Also Published As
Publication number | Publication date |
---|---|
CN117408893B (zh) | 2024-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110599409B (zh) | 基于多尺度卷积组与并行的卷积神经网络图像去噪方法 | |
Tian et al. | Deep learning on image denoising: An overview | |
Ye et al. | Perceiving and modeling density for image dehazing | |
CN112288658B (zh) | 一种基于多残差联合学习的水下图像增强方法 | |
CN109815893B (zh) | 基于循环生成对抗网络的彩色人脸图像光照域归一化的方法 | |
CN111598761B (zh) | 一种基于图像降噪的抗打印拍摄图像数字水印方法 | |
Do et al. | Forensics face detection from GANs using convolutional neural network | |
CN110458765B (zh) | 基于感知保持卷积网络的图像质量增强方法 | |
CN111275637A (zh) | 一种基于注意力模型的非均匀运动模糊图像自适应复原方法 | |
Zhao et al. | Invertible image decolorization | |
CN110570363A (zh) | 基于带有金字塔池化与多尺度鉴别器的Cycle-GAN的图像去雾方法 | |
CN110363068B (zh) | 一种基于多尺度循环生成式对抗网络的高分辨行人图像生成方法 | |
CN111047543A (zh) | 图像增强方法、装置和存储介质 | |
CN112651917A (zh) | 一种基于生成对抗网络的空间卫星低照度图像增强方法 | |
CN113284061B (zh) | 一种基于梯度网络的水下图像增强方法 | |
CN113392711A (zh) | 一种基于高层语义与噪声抑制的烟雾语义分割方法及系统 | |
CN115063318A (zh) | 自适应频率分解的低光照图像增强方法与相关设备 | |
Zhao et al. | A simple and robust deep convolutional approach to blind image denoising | |
Zheng et al. | T-net: Deep stacked scale-iteration network for image dehazing | |
Liu et al. | Facial image inpainting using multi-level generative network | |
CN113628143A (zh) | 一种基于多尺度卷积的加权融合图像去雾方法及装置 | |
CN117152019A (zh) | 一种基于双分支特征处理的低照度图像增强方法和系统 | |
CN116977651A (zh) | 一种基于双分支和多尺度特征提取的图像去噪方法 | |
CN109887023B (zh) | 一种基于加权梯度幅度的双目融合立体图像质量评价方法 | |
CN116844008A (zh) | 一种注意力机制引导的内容感知无参考图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |