CN111161191A - 一种图像增强方法 - Google Patents

一种图像增强方法 Download PDF

Info

Publication number
CN111161191A
CN111161191A CN201911409675.0A CN201911409675A CN111161191A CN 111161191 A CN111161191 A CN 111161191A CN 201911409675 A CN201911409675 A CN 201911409675A CN 111161191 A CN111161191 A CN 111161191A
Authority
CN
China
Prior art keywords
image
enhancement
sample
generator
enhanced
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911409675.0A
Other languages
English (en)
Other versions
CN111161191B (zh
Inventor
游文婧
张浪文
谢巍
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN201911409675.0A priority Critical patent/CN111161191B/zh
Publication of CN111161191A publication Critical patent/CN111161191A/zh
Application granted granted Critical
Publication of CN111161191B publication Critical patent/CN111161191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种图像增强方法,该方法包括采集拍摄图像,归一化所述拍摄图像为一特定尺寸,将归一化后的所述拍摄图像输入循环对抗生成cycleGAN网络模型,得到仿增强图像,所述cycleGAN网络模型根据样本拍摄图像和样本增强图像训练生成。该图像增强方法基于循环对抗生成cycleGAN网络模型,利用无监督学习,最终使用从源域到目标域映射的生成器得到了图像增强结果,该方法在保持输入图像内容不变的条件下使之融合HDR图片的特点,将输入的普通拍摄图片转换为高质量的增强图片,达到了色彩明艳,整体细节清晰,高对比度,高饱和度,较广亮度的效果,提高了图片的视觉体验,更好的满足了用户的需求。

Description

一种图像增强方法
技术领域
本发明涉及图像处理领域,具体涉及一种图像增强方法。
背景技术
手机拍摄的原图通常噪音大,颜色不完整,分辨率和动态范围有限。相机传感器对入射光具有线性响应,而人的感知则执行更为复杂的非线性映射。因此,用户可能会因为照片不符合他们的期望和视觉体验,而对他们拍摄的照片感到失望。图像增强方法试图解决色彩再现和图像清晰度方面的问题。为此,有交互式工具和半自动方法。大多数交互式软件提供诸如直方图均衡、锐化、对比度调整和颜色映射等基本工具以及一些高级功能,如局部和自适应调整。但是结果的质量很大程度上取决于用户的技术和审美判断。此外,通常需要花费大量的时间才能达到令人满意的修饰效果。半自动方法通过仅需要调整少数几个参数来简化该过程。但是,结果可能对参数非常敏感。另外,这些方法通常基于一些关于人类感知的启发式规则,例如增强细节或拉伸对比度。因此,它们可能脆弱并导致不好的结果。
生成式对抗网络GAN(Generative Adversarial Networks)是Goodfellow等在2014年提出的一种生成式模型。GAN在结构上受博弈论中的二人零和博弈(即二人的利益之和为零,一方的所得正是另一方的所失)的启发,系统由一个生成器和一个判别器构成。生成器捕捉真实数据样本的潜在分布,并生成新的数据样本;判别器是一个二分类器,判别输入是真实数据还是生成的样本。在当前的人工智能热潮下,GAN的提出满足了许多领域的研究和应用需求,同时为这些领域注入了新的发展动力。但是目前的GAN模型在用于图像领域时,获得的图像在色彩明艳,整体细节清晰以及高对比度方面依然有待提高。
发明内容
针对现有技术中存在的技术问题,本发明的首要目的是提供一种图像增强训练方法,所述方法包括:
基于循环对抗生成cycleGAN网络模型,将拍摄图像转化为仿增强图像;
所述循环对抗生成cycleGAN网络模型包括:
第一生成器和第二生成器,所述第一生成器用于接收所述样本拍摄图像或仿真实图像,并生成仿增强图像,所述第二生成器用于接收样本增强图像或仿增强图像,并生成仿真实图像;
第一判别器和第二判别器,所述第一判别器用于判别样本增强图像与仿增强图像,所述第二判别器用于判别样本拍摄图像与仿真实图像。
进一步的,基于循环对抗生成cycleGAN网络模型,将拍摄图像转化为仿增强图像之前,还包括:根据样本拍摄图像和样本增强图像训练所述cycleGAN网络模型。
进一步的,所述第一生成器和所述第二生成器采用Unet网络,所述Unet网络包括前期压缩路径和后期扩展路径,共14个层级结构,其中前4层级中的每一级均采用下卷积层、激活层以及BN层,第5层采用下卷积层、激活层以及全连接层。
进一步的,所述Unet网络中的激活层使用LReLU激活函数:
Figure BDA0002349628040000021
其中,x为上层卷积的输出。
进一步的,所述第一判别器和所述第二判别器采用cnn网络模型,所述cnn网络模型采用7个层级结构,每个层级均包括卷积层、Irelu激活以及BN层。
进一步的,所述第一生成器以及所述第二生成器设置身份映射损失、循环一致性损失以及对抗损失;所述第一判别器以及所述第二判别器设置有对抗损失。
进一步的,所述第一生成器以及所述第二生成器还设置有梯度损失函数;所述第一判别器以及所述第二判别器还设置有梯度惩罚。
一种图像增强方法,所述方法包括:采集拍摄图像,归一化所述拍摄图像为一特定尺寸,将归一化后的所述拍摄图像输入循环对抗生成cycleGAN网络模型,得到仿增强图像,所述cycleGAN网络模型根据样本拍摄图像和样本增强图像训练生成。
一种图像增强装置,其包括:
采集模块,用于采集拍摄图像;
图像预处理模块,用于归一化所述拍摄图像为一特定尺寸;
仿增强图像生成模块,用于根据采集模块采集的所述拍摄图像输出仿增强图像,所述仿增强图像基于循环对抗生成cycleGAN网络模型生成,所述循环对抗生成cycleGAN网络模型根据样本拍摄图像和样本增强图像训练生成。
一种存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集被处理器执行时,实现上述图像增强训练方法,或实现上述图像增强方法。
与现有技术相比,本发明至少具有如下有益效果:
(1)本发明基于循环对抗生成cycleGAN网络模型,利用无监督学习,最终使用从源域到目标域映射的生成器得到了图像增强结果,该方法在保持输入图像内容不变的条件下使之融合HDR图片的特点,将输入的普通拍摄图片转换为高质量的增强图片,达到了色彩明艳,整体细节清晰,高对比度,高饱和度,较广亮度的效果,提高了图片的视觉体验,更好的满足了用户的需求。
(2)本发明cycleGAN网络模型中的生成器采用Unet网络,通过对该Unet网络中层级结构的设置将局部特征与整体特征融合,扩大了整体风格对局部的影响。另外通过对生成器和判别器加入身份映射损失及循环一致性损失,在此基础上融合了缓解图像噪声的梯度损失,对图像进行微小的平滑同时有效的去除椒盐噪声,达到较优的增强并保留原图内容的效果。
附图说明
图1是本发明所采用的MIT5K以及HDR效果对比图。
图2是本发明图像增强方法的总体流程图。
图3是本发明cycleGAN网络模型中生成器Unet网络框架示意图。
图4是本发明cycleGAN网络模型中判别器cnn网络框架示意图。
图5是本发明cycleGAN网络模型的框架示意图。
具体实施方式
接下来将结合本发明的附图对本发明实施例中的技术方案进行清楚、完整地描述,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的其它实施例,均属于本发明保护的范围。下面来对本发明做进一步详细的说明。
本发明的训练图片采用开源数据集MIT5K的原图集以及开源的HDR(High-DynamicRange)图库中筛选收集的图集。MIT5K的原图集作为样本拍摄图像,HDR的图集为样本增强图像,MIT5K图集与HDR图集无需是一一对应的图像对。HDR图集的内容构成为1/8食物、1/8动物、1/4人像、1/2风景,共871张。其中851张用于训练,20张用于同步测试。MIT5K的原图集为用户手机拍摄的原始图片集,所对应的图像域为原始域X;HDR的图集为高动态光照渲染数据集,所对应的图像域为增强域Y。本发明通过基于循环对抗生成cycleGAN的图像增强方法在保持输入图像内容不变的条件下使之融合HDR图片的特点,达到色彩明艳,整体细节清晰,高对比度,高饱和度,较广亮度的效果,本发明采用的MIT5K和HDR的效果图如图1所示。
如图2所示,本发明的图像增强方法包括:采集拍摄图像,归一化该拍摄图像的尺寸为一特定尺寸,之后将归一化的拍摄图像输入循环对抗生成cycleGAN网络模型,该cycleGAN网络模型输出仿增强图像,恢复该仿增强图像的尺寸为原图像尺寸。其中cycleGAN网络模型根据样本拍摄图像和样本增强图像训练生成。
在本发明的一实施例中,采用手机拍摄图像,对拍摄的图像进行归一化处理,使该图像的尺寸为一特定尺寸,例如为512像素*512像素。
本发明的循环对抗生成cycleGAN网络模型包括生成器和判别器,生成器用于增强图片的生成,将两个域中的图像风格进行转换。判别器用于图片域的判别,判别生成图片与真实图片。经过生成器与判别器两者对抗式训练,判别器达到较高的判别真实与生成图片的水平,生成器生成图片达到欺骗判别器的水平。
本发明使用Unet网络作为cycleGAN网络的生成器,该Unet使用14个层级结构,由前期的压缩路径和后期的扩展路径两个部分组成。其中,前4层级结构中的每一层级均采用5*5下卷积层、lrelu激活层及BN层(Batch Normalization)。第5层采用上卷积层、lrelu激活层以及全连接层。使用卷积进行深度特征提取全局特征,使特征图缩小为1*1*128,之后经过lrelu激活,全连接层处理。将提取的1*1*128的全局特征复制为32*32*128大小的特征图并与之前第四层所得低级特征进行串联,从而得到32*32*256特征图。此结构将局部特征与整体特征融合,扩大整体风格对局部的影响,在局部特征中加入全局的场景、照明条件、主题等的影响。之后在融合的特征图上执行Unet的扩展路径,即不断进行上采样并将每一层级得到的上采样特征图融合对应的压缩路径层级的特征图,最终得到与原图同样大小的增强图片。生成器Unet采用残差学习,仅学习输入图像与样本增强图像之间的差异。图3是生成器Unet的网络框架示意图。该生成器Unet中lrelu激活层使用的激活函数的公式如下:
Figure BDA0002349628040000061
其中,x为上层卷积的输出。
相较与传统的unet网络,本发明采用的Unet网络采用改进的lrelu激活函数及全连接层,更能保留图像整体的信息,在每一层级的结构上即保留了原始图像的信息又融入了迁移的特征,扩大整体风格对局部的影响,使得增强图片效果更优。
生成器Unet的第6-14层级结构中的每一层均采用上卷积层、lrelu激活层及BN层。
判别器使用cnn网络,cnn网络框架如图4所示。该判别器cnn网络通过7个层级结构完成对生成图片质量的打分。每个层级结构包括卷积层、lrelu激活层及BN层,cnn网络最后输出一个打分值表明输入图片的真实程度。通过使用生成器生成的仿增强图像及收集的样本拍摄图像对判别器进行训练,使之学会给样本拍摄图像打高分,给生成的仿增强图像打低分,以此指标来优化生成器的生成效果。
本发明使用无监督学习,将cycleGAN网络模型应用于图像增强。图5是本发明的循环对抗生成cycleGAN网络模型的框架示意图。如图5所示,该cycleGAN网络模型构建有第一生成器Gx和G’x以及第二生成器Gy和G’y,将样本拍摄图像X送入第一生成器Gx,第一生成器Gx生成仿增强图像Y’,将仿增强图像Y’输入第二生成器G’y,第二生成器G’y生成仿真实图像X”。另一组中,将样本增强图像Y送入第二生成器Gy,第二生成器Gy生成仿真实图像X’,将仿真实图像X’送入第一生成器G’x,第一生成器G’x生成仿增强图像Y”。由循环对称的cycleGAN网络结构保证输入图像与生成图像内容的相关性及一致性。对于第一生成器或第二生成器的输入数据,因生成区域与真实区域的图片可能具有不同的分布特征,为了使参数调整更为便捷,对输入数据进行单独的批处理规范化,更好地适应其自身输入数据分布。
该cycleGAN网络模型还构建有第一判别器Dy与第二判别器Dx,第一判别器接收样本增强图像与仿增强图像,并判别样本增强图像与仿增强图像。第二判别器Dx接收样本拍摄图像与仿真实图像,并判别样本拍摄图像与仿真实图像。传统的GAN网络存在训练不稳定,梯度消失等问题,本发明使用WGAN-GP网络的技巧,将传统的交叉熵损失变为实际距离损失,通过训练不断减小数据分布与模型分布之间的距离。根据整体的网络框架,两个生成器与两个判别器之间不断进行对抗式训练,最终使第一生成器生成出融合样本增强图像特征并包含样本拍摄图像内容的图像。
该cycleGAN网络模型涉及的对抗式训练的步骤如下:
首先,固定第一及第二生成器,更新第一及第二判别器,利用两个生成器生成的图像及收集的样本拍摄图像和样本增强图像训练两个判别器,使得两个判别器学习给样本拍摄图像和样本增强图像分配较高分数而给生成的仿真实图像和仿增强图像分配较低分数。
其次,固定第一以及第二判别器,更新第一和第二生成器,使得生成器生成高质量的图片欺骗判别器。
最后,不断进行上述两个步骤,最终使模型不断强化达到最优。
除了GAN网络本身的判别器损失外,cycleGAN网络模型对于生成器还加入了身份映射损失及循环一致性损失。本发明在此基础上,融合了图像的梯度损失,对图像进行微小的平滑同时有效的去除椒盐噪声。遵循以上原则及改进,cycleGAN网络模型的生成器的损失函数由身份映射损失、循环一致性损失、对抗损失以及梯度损失函数组成,判别器的损失函数由对抗损失以及梯度惩罚决定。
其中身份映射损失为:
I=Ex,y′[MSE(x,y′)]+Ey,x′[MSE(y,x′)]
其中
Figure BDA0002349628040000081
Ex,y′[MSE(x,y′)]为取MSE同一批次的均值。
循环一致性损失为:
C=Ex,x″[MSE(x,x″)]+Ey,y″[MSE(y,y″)]
其中,其中
Figure BDA0002349628040000082
Ex,y′[MSE(x,y′)]为取MSE同一批次的均值。
判别器的对抗损失AD与生成器的对抗损失AG如下:
AD=Ex[DX(x)]-Ex′[DX(x′)]+Ey[DY(y)]-Ey′[DY(y′)]
AG=Ex′[DX(x′)]+Ey′[DY(y′)]
其中DX(x)为将图像x放入判别器中的输出值。
使用WGAN-GP的技巧,训练判别器时加入梯度惩罚P:
Figure BDA0002349628040000083
及生成器加入的梯度损失L为:
Figure BDA0002349628040000084
其中C,H,W为增强图的通道数、高度、宽度大小;
Figure BDA0002349628040000085
为取图像在纵向和横向两个方向上的梯度,y′为生成的图像。
综合上述定义,判别器的损失函数为:
Figure BDA0002349628040000091
其中,
Figure BDA0002349628040000092
为动态调整的平衡系数。
生成器的损失函数为:
argminG[-AG+αI+αL+10αC]
α为平衡系数,α取0.05时结果最优,平衡对抗误差与循环一致性误差、身份映射误差及梯度误差的权重,达到较优的增强并保留原图内容的效果。
在本发明的一个实施例中,提供一种图像增强装置,该装置包括采集模块,用于采集拍摄图像,如用户的手机。
图像预处理模块,用于归一化该拍摄图像为一特定尺寸。
仿增强图像生成模块,用于根据采集模块采集的所述拍摄图像输出仿增强图像,所述仿增强图像基于循环对抗生成cycleGAN网络模型生成,所述循环对抗生成cycleGAN网络模型根据样本拍摄图像和样本增强图像训练生成。
在本发的一个实施例中,上述实施例的图像增强训练方法或图像增强方法的全部或部分步骤可以通过程序来指令相关的硬件来完成,相应的指令、程序、代码集或指令集存储于一计算机可读取存储介质中,以实现本申请中提供的图像增强方法。可选的,该计算机可读取存储介质包括只读存储器(ROM)、随机存取记忆体(RAM)、固态硬盘(SSD)或光盘等。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种图像增强训练方法,其特征在于,所述方法包括:
基于循环对抗生成cycleGAN网络模型,将拍摄图像转化为仿增强图像;
所述循环对抗生成cycleGAN网络模型包括:
第一生成器和第二生成器,所述第一生成器用于接收所述样本拍摄图像或仿真实图像,并生成仿增强图像,所述第二生成器用于接收样本增强图像或仿增强图像,并生成仿真实图像;
第一判别器和第二判别器,所述第一判别器用于判别样本增强图像与仿增强图像,所述第二判别器用于判别样本拍摄图像与仿真实图像。
2.根据权利要求1的所述图像增强训练方法,其特征在于,基于循环对抗生成cycleGAN网络模型,将拍摄图像转化为仿增强图像之前,还包括:根据样本拍摄图像和样本增强图像训练所述cycleGAN网络模型。
3.根据权利要求1或2的所述图像增强训练方法,其特征在于,所述第一生成器和所述第二生成器采用Unet网络,所述Unet网络包括前期压缩路径和后期扩展路径,共14个层级结构,其中前4层级中的每一级均采用下卷积层、激活层以及BN层,第5层采用下卷积层、激活层以及全连接层。
4.根据权利要求3的所述图像增强训练方法,其特征在于,所述Unet网络中的激活层使用LReLU激活函数:
Figure FDA0002349628030000011
其中,x为上层卷积的输出。
5.根据权利要求3的所述图像增强训练方法,其特征在于,所述第一判别器和所述第二判别器采用cnn网络模型,所述cnn网络模型采用7个层级结构,每个层级均包括卷积层、Irelu激活以及BN层。
6.根据权利要求2、4或5的所述图像增强训练方法,其特征在于,所述第一生成器以及所述第二生成器设置身份映射损失、循环一致性损失以及对抗损失;所述第一判别器以及所述第二判别器设置有对抗损失。
7.根据权利要求6的所述图像增强训练方法,其特征在于,所述第一生成器以及所述第二生成器还设置有梯度损失函数;所述第一判别器以及所述第二判别器还设置有梯度惩罚。
8.一种图像增强方法,其特征在于,所述方法包括:采集拍摄图像,归一化所述拍摄图像为一特定尺寸,将归一化后的所述拍摄图像输入循环对抗生成cycleGAN网络模型,得到仿增强图像,所述cycleGAN网络模型根据样本拍摄图像和样本增强图像训练生成。
9.一种图像增强装置,其特征在于,其包括:
采集模块,用于采集拍摄图像;
图像预处理模块,用于归一化所述拍摄图像为一特定尺寸;
仿增强图像生成模块,用于根据采集模块采集的所述拍摄图像输出仿增强图像,所述仿增强图像基于循环对抗生成cycleGAN网络模型生成,所述循环对抗生成cycleGAN网络模型根据样本拍摄图像和样本增强图像训练生成。
10.一种存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集被处理器执行时,实现权利要求1-7任一的所述图像增强训练方法,或实现权利要求8的所述图像增强方法。
CN201911409675.0A 2019-12-31 2019-12-31 一种图像增强方法 Active CN111161191B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911409675.0A CN111161191B (zh) 2019-12-31 2019-12-31 一种图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911409675.0A CN111161191B (zh) 2019-12-31 2019-12-31 一种图像增强方法

Publications (2)

Publication Number Publication Date
CN111161191A true CN111161191A (zh) 2020-05-15
CN111161191B CN111161191B (zh) 2023-06-20

Family

ID=70559951

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911409675.0A Active CN111161191B (zh) 2019-12-31 2019-12-31 一种图像增强方法

Country Status (1)

Country Link
CN (1) CN111161191B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882055A (zh) * 2020-06-15 2020-11-03 电子科技大学 一种基于CycleGAN与伪标签的目标检测自适应模型的构建方法
CN112258428A (zh) * 2020-12-21 2021-01-22 四川圣点世纪科技有限公司 一种基于CycleGAN的指静脉增强方法及装置
CN113256520A (zh) * 2021-05-21 2021-08-13 中国农业大学 一种域自适应的水下图像增强方法
CN113538304A (zh) * 2020-12-14 2021-10-22 腾讯科技(深圳)有限公司 图像增强模型的训练方法及装置、图像增强方法及装置
CN114529469A (zh) * 2022-02-18 2022-05-24 广州市乐无边教育科技有限公司 图像增强模型的训练和图像增强方法、装置、设备及介质
CN115205738A (zh) * 2022-07-05 2022-10-18 广州和达水务科技股份有限公司 应用于城市内涝的应急排水方法和系统
CN115879516A (zh) * 2023-03-02 2023-03-31 南昌大学 一种数据取证方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109636754A (zh) * 2018-12-11 2019-04-16 山西大学 基于生成对抗网络的极低照度图像增强方法
CN110223259A (zh) * 2019-06-14 2019-09-10 华北电力大学(保定) 一种基于生成式对抗网络的道路交通模糊图像增强方法
CN110287800A (zh) * 2019-05-29 2019-09-27 河海大学 一种基于sgse-gan的遥感图像场景分类方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109636754A (zh) * 2018-12-11 2019-04-16 山西大学 基于生成对抗网络的极低照度图像增强方法
CN110287800A (zh) * 2019-05-29 2019-09-27 河海大学 一种基于sgse-gan的遥感图像场景分类方法
CN110223259A (zh) * 2019-06-14 2019-09-10 华北电力大学(保定) 一种基于生成式对抗网络的道路交通模糊图像增强方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882055A (zh) * 2020-06-15 2020-11-03 电子科技大学 一种基于CycleGAN与伪标签的目标检测自适应模型的构建方法
CN111882055B (zh) * 2020-06-15 2022-08-05 电子科技大学 一种基于CycleGAN与伪标签的目标检测自适应模型的构建方法
CN113538304A (zh) * 2020-12-14 2021-10-22 腾讯科技(深圳)有限公司 图像增强模型的训练方法及装置、图像增强方法及装置
CN113538304B (zh) * 2020-12-14 2023-08-18 腾讯科技(深圳)有限公司 图像增强模型的训练方法及装置、图像增强方法及装置
CN112258428A (zh) * 2020-12-21 2021-01-22 四川圣点世纪科技有限公司 一种基于CycleGAN的指静脉增强方法及装置
CN113256520A (zh) * 2021-05-21 2021-08-13 中国农业大学 一种域自适应的水下图像增强方法
CN113256520B (zh) * 2021-05-21 2023-12-19 中国农业大学 一种域自适应的水下图像增强方法
CN114529469A (zh) * 2022-02-18 2022-05-24 广州市乐无边教育科技有限公司 图像增强模型的训练和图像增强方法、装置、设备及介质
CN115205738A (zh) * 2022-07-05 2022-10-18 广州和达水务科技股份有限公司 应用于城市内涝的应急排水方法和系统
CN115205738B (zh) * 2022-07-05 2023-08-01 广州和达水务科技股份有限公司 应用于城市内涝的应急排水方法和系统
CN115879516A (zh) * 2023-03-02 2023-03-31 南昌大学 一种数据取证方法

Also Published As

Publication number Publication date
CN111161191B (zh) 2023-06-20

Similar Documents

Publication Publication Date Title
CN111161191B (zh) 一种图像增强方法
CN109815893B (zh) 基于循环生成对抗网络的彩色人脸图像光照域归一化的方法
CN111402135B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
KR102134405B1 (ko) 적대적 생성망을 이용한 저조도 영상 개선을 위한 장치 및 방법
CN110443763A (zh) 一种基于卷积神经网络的图像阴影去除方法
CN110322416A (zh) 图像数据处理方法、装置以及计算机可读存储介质
CN114399431B (zh) 一种基于注意力机制的暗光图像增强方法
CN112614077A (zh) 一种基于生成对抗网络的非监督低照度图像增强方法
CN107509031A (zh) 图像处理方法、装置、移动终端及计算机可读存储介质
CN109829868B (zh) 一种轻量级深度学习模型图像去雾方法、电子设备及介质
CN115223004A (zh) 基于改进的多尺度融合生成对抗网络图像增强方法
CN111161137A (zh) 一种基于神经网络的多风格国画花生成方法
CN109086723A (zh) 一种基于迁移学习的人脸检测的方法、装置以及设备
CN111047543A (zh) 图像增强方法、装置和存储介质
Guo et al. Optimization of visual information presentation for visual prosthesis
CN104036481B (zh) 一种基于深度信息提取的多聚焦图像融合方法
CN111652817B (zh) 一种基于人眼视觉感知机理的水下图像清晰化方法
Moriwaki et al. Hybrid loss for learning single-image-based HDR reconstruction
CN109544694A (zh) 一种基于深度学习的增强现实系统虚实混合建模方法
CN110070574A (zh) 一种基于改进PSMNet的双目视觉立体匹配算法
CN116664782B (zh) 一种基于融合体素的神经辐射场三维重建方法
CN106709504A (zh) 细节保持的高保真色调映射方法
Li et al. An adaptive enhancement method for low illumination color images
CN109271941A (zh) 一种基于防屏摄攻击的活体检测方法
CN114266933A (zh) 一种基于深度学习改进的gan图像去雾算法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant