CN114549283A - 图像生成模型的训练方法及图像生成方法 - Google Patents
图像生成模型的训练方法及图像生成方法 Download PDFInfo
- Publication number
- CN114549283A CN114549283A CN202210042902.6A CN202210042902A CN114549283A CN 114549283 A CN114549283 A CN 114549283A CN 202210042902 A CN202210042902 A CN 202210042902A CN 114549283 A CN114549283 A CN 114549283A
- Authority
- CN
- China
- Prior art keywords
- image generation
- training
- generation model
- image
- sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 67
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000013528 artificial neural network Methods 0.000 claims abstract description 27
- 238000000605 extraction Methods 0.000 claims abstract description 15
- 238000012545 processing Methods 0.000 claims abstract description 10
- 230000008569 process Effects 0.000 claims description 15
- 239000011159 matrix material Substances 0.000 claims description 14
- 238000013256 Gubra-Amylin NASH model Methods 0.000 claims description 8
- 230000008859 change Effects 0.000 claims description 4
- 238000013135 deep learning Methods 0.000 abstract description 5
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 13
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 8
- 238000005070 sampling Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 241000764238 Isis Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000009870 specific binding Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G06T3/04—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/60—Rotation of a whole image or part thereof
Abstract
本发明公开了一种图像生成模型的训练方法及图像生成方法,通过对一张样本图像进行数据增强处理,获取一系列增强后的数据样本,应用风格提取模块对增强后的数据样本提取风格信息;将随机噪声和提取的风格信息作为初始图像生成模型的输入信号,对初始图像生成模型进行训练,获取最终的图像生成模型。依靠神经网络实现了基于单张样本的高质量多样性生成任务,可以保证生成样本与训练样本相比,具有足够多的外观多样性和合理且稳定的语义结构。能够有效地降低深度学习图像生成模型的使用门槛与使用成本,极大程度上提升了图像生成模型的易用性与泛用性。
Description
技术领域
本发明属于图像处理领域,具体涉及一种图像生成模型的训练方法及图像生成方法。
背景技术
如今,随着人工智能(Artificial Intelligence,AI)技术的飞速发展,利用AI技术进行图像生成已经受到人们的广泛关注。通过基于AI的图像生成技术,用户可以获得符合需求的任意数量高质量图像样本。
然而,相关技术往往需要采用一个非常大体量的训练数据集作为支撑,才能够获得高质量的输出样本;对于只依赖少量样本(如单张图像)的相关技术,其输出样本的质量往往无法满足用户的实际使用需求。
目前的相似技术主要分为两部分:基于专业硬件、不可适应的图像生成和基于软件(AI)技术的可适应图像生成。
对于第一类技术,如专利《201980025186.7》、《201880029332.9》,其针对的使用场景往往具有特异性,生成数据本身具有专用性,对特定的专业硬件有强依赖性,对不同图像的特性无法进行适应性的调整。
对于第二类技术,如专利《202110118319.4》、《202011353479.9》,一方面,其技术需要使用一个较大体量、较高质量的训练数据集对人工智能模型进行训练,才能获得较高质量的生成样本,如果使用的样本数量较少,则无法获得满足日常使用需求的输出数据。另一方面,其技术采用将图像映射为图像的设计思路,即根据用户提供的图像进行生成,因此一张输入图像往往只能对应一张输出。综合来看,上述技术泛用性较差、使用成本较高。
发明内容
本发明所要解决的技术问题是:提供一种图像生成模型的训练方法及图像生成方法,解决了现有技术中相关领域图像处理泛用性差、需要大体量数据占用资源大的问题。
本发明为解决上述技术问题采用以下技术方案:
一种图像生成模型的训练方法,通过对一张样本图像进行数据增强处理,获取一系列增强后的数据样本,应用风格提取模块对增强后的数据样本提取风格信息;将随机噪声和提取的风格信息作为初始图像生成模型的输入信号,对初始图像生成模型进行训练,获取最终的图像生成模型。
所述数据增强处理包括但不限于随机旋转图像样本、随机翻转图像样本、随机放缩图像样本中的一种或几种的组合。
所述风格信息包括放缩系数和偏置,风格信息的数据形式为与原始训练样本尺寸一致的特征矩阵。
对初始图像生成模型进行训练的过程中,除了第一层和最后一层神经网络之外,生成模型中的每一层神经网络的输入和输出都是特征矩阵;生成模型的第一层神经网络的输入是随机噪声,输出是特征矩阵;生成模型的最后一层神经网络的输出是图像,输入是特征矩阵;除生成模型的最后一层神经网络之外,其余每一层神经网络的输出特征矩阵在输入下一层神经网络之前,都需要先乘上所述风格信息的放缩系数部分,再加上偏置部分。
所述随机噪声的尺寸大小与原始训练样本一致。
对初始图像生成模型进行训练过程中,结合原始训练样本计算损失值,根据损失值对风格提取模块和图像生成模型进行训练。
所述计算损失值的方式为传统GAN模型的对抗损失和余弦损失的线性叠加。
一种图像生成方法,包括如下步骤:
步骤1、获取一张样本图像;
步骤2、应用所述的图像生成模型的训练方法,将步骤1中获取的一张样本图像作为输入量,训练图像生成模型;
步骤3、将任意数量的随机噪声和风格信息输入至训练好的图像生成模型,得到与随机噪声对等数量的输出图像。
所述步骤3中输出的图像与步骤1中的图像样本内容的主体一致。
根据随机噪声的变化,所述步骤3中输出图像的几何外观也产生相应的变化。
与现有技术相比,本发明具有以下有益效果:
1、本发明使用深度学习的方法,依靠神经网络实现了基于单张样本的高质量多样性生成任务,可以保证生成样本与训练样本相比,具有足够多的外观多样性和合理且稳定的语义结构。
2、提出的图像生成模型的训练方法、图像生成方法,能够有效地降低深度学习图像生成模型的使用门槛与使用成本,解决如今图像生成模型低训练成本和高生成质量不可兼得的普遍问题,极大程度上提升了图像生成模型的易用性与泛用性。
3、采用一张原始图像样本作为训练样本,有效降低了样本的体量,提高了数据处理速度,节约资源。
具体实施方式
下面对本发明的结构及工作过程作进一步说明。
一种图像生成模型的训练方法,通过对一张样本图像进行数据增强处理,获取一系列增强后的数据样本,应用风格提取模块对增强后的数据样本提取风格信息;将随机噪声和提取的风格信息作为初始图像生成模型的输入信号,对初始图像生成模型进行训练,获取最终的图像生成模型。
所述数据增强处理包括但不限于随机旋转图像样本、随机翻转图像样本、随机放缩图像样本中的一种或几种的组合。
所述风格信息包括放缩系数和偏置,风格信息的数据形式为与原始训练样本尺寸一致的特征矩阵。
对初始图像生成模型进行训练的过程中,除了第一层和最后一层神经网络之外,生成模型中的每一层神经网络的输入和输出都是特征矩阵;生成模型的第一层神经网络的输入是随机噪声,输出是特征矩阵;生成模型的最后一层神经网络的输出是图像,输入是特征矩阵;除生成模型的最后一层神经网络之外,其余每一层神经网络的输出特征矩阵在输入下一层神经网络之前,都需要先乘上所述风格信息的放缩系数部分,再加上偏置部分。
所述随机噪声的尺寸大小与原始训练样本一致。
对初始图像生成模型进行训练过程中,结合原始训练样本计算损失值,根据损失值对风格提取模块和图像生成模型进行训练。
所述计算损失值的方式为传统GAN模型的对抗损失和余弦损失的线性叠加。
具体实施例一,
一种图像生成模型的训练方法,包括以下步骤:
步骤一:获得一张样本图像。图像获取方式包括但不限于专业的拍摄工具、软件截图等。获得的样本图像的质量应尽量高,否则容易连带降低最终产生的生成图像的质量。样本图像的数量仅需要一张。将上述可用的单张训练图像记为I。
步骤二:对已获得的单张样本图像进行数据增强操作,获得一系列增强后的数据样本。可以采用的数据增强方法包括但不限于下列方法中的某一种或某几种的组合:随机旋转图像样本、随机翻转图像样本、随机放缩图像样本等。随机旋转的角度范围建议选取为0度-180度,建议顺时针方向、逆时针方向都选取;随机翻转图像样本的方向建议水平翻转和垂直翻转都选取;随机放缩图像样本的比例建议选取0.7倍-1.3倍。不建议使用随机进行色彩扰动等在图像颜色通道上进行增强的数据增强方法。建议使用上述数据增强方法产生不少于2000张的增强数据样本。将上述选定的数据增强方法统一记作
步骤三:将增强后的数据样本输入风格提取模块,获得风格信息。风格提取模块应为双分支的全卷积神经网络模型,其每一分支深度应不少于4层,每层卷积核大小建议为3,边缘扩充方式(padding)建议为补0式(zero-padding),边缘扩充大小建议为1,卷积核步长建议为1,这样可以保证输出的特征矩阵的尺寸与输入一致。模块内部的两个分支分别负责计算风格信息的放缩系数和偏置。将风格模块记作Ω,风格信息中的放缩系数记作ω,风格信息中的偏置记作b。则上述过程可以表示为:
步骤四:将随机噪声和提取得到的风格信息输入图像生成模型,获得生成的样本。此处可以采用能够完成单张样本多样性生成的人工智能模型,如:SinGAN。以SinGAN的结构为例进行说明:
SinGAN包含一个GAN模型金字塔{GAN0,GAN1,...,GANN},N为模型金字塔的总层级数,建议取不小于5的正整数,其中,第n个(n为正整数,0≤n≤N)子GAN负责学习In,第n个子GAN记为GANn。每一个子GAN都是一个常规的经典GAN结构,具体而言:GANn中含有两部分,分别是生成器Gn和判别器Dn。对应的,可以通过降采样的方法获取一系列的基于I的图像金字塔I0,I1,...,IN,其中In是将I经过第n次降采样后得到的结果。降采样方法建议采用双线性二次插值法。将每一次降采样采用的因子记为r,则第n次降采样的降采样因子应记为rn,rn可以如下计算:
rn=rn (2)
其中r为正数,0<r<1,建议取0.65-0.75之间的正数。进而,I经过第n次降采样后得到的结果In可以如下表示:
In=I*r2n (3)
即I经过第n次降采样后得到的结果In的长和宽均为原始样本I的rn倍。不难发现IN应是图像金字塔中尺度最小的样本。
GAN模型金字塔的训练过程是渐进式的、由小尺度逐步转移至大尺度的。具体来说,最先得到训练的是负责最小尺度的子GAN,其训练样本是IN。对于GANN,其生成器GN的输入是随机噪声ZN,输出是一张假样本即:
其中噪声ZN采样自一个高斯分布。GANN和经典的GAN模型相同,即生成器GN将输入噪声ZN映射成一张图像样本同时试图以这张生成的假样本蒙骗判别器DN。而判别器DN则需要鉴别生成的图像样本和真实样本IN之间的真伪。
当最粗糙尺度的GANN的训练完成时,GANN的权重即被冻结,且此后不再接受梯度进行更新。接着,倒数第二层级的子GAN的训练过程即启动,其对应的训练样本是IN-1。GANN-1的训练过程与GANN略有差异:在生成器GANN-1进行生成任务时,其接收的输入除了一个随机采样的噪声ZN-1之外,还有来自上一级的生成样本的上采样结果简记为上采样方法建议采用双线性二次插值法。整体的过程可以用下式表示:
即随机噪声ZN-1和上采样版本的上一层生成结果在输入生成器GN-1之前会先线性叠加一次,然后再输入生成器GN-1。生成器GN-1的直接输出结果会再和线性叠加一次,才会构成最后的实际输出对于判别器DN-1而言,其训练过程与DN没有差别。
同样的,当GANN-1训练完成后,其权重也会被冻结,然后GANN-2的训练开启,其过程、输入的设计与GANN-1相同。在这种渐进式的模式下,每一个子GAN训练完成后都不再参与梯度更新,只会由子GAN中的生成器通过生成样本的方式参与下一级的训练过程。总的来说,GAN模型金字塔的每一个子GAN中生成器的输入方式可以用下式表示:
在每个子GAN的G的内部,学习到的风格信息将被施加到G的数据流上。由于每一个子GAN输入输出的特征矩阵尺寸不同,因此在风格信息作用之前,也需要对风格信息的尺寸进行对应的调整。调整尺寸的方法建议使用双线性二次插值。为了将不同尺寸的风格信息和对应层级的子GAN联系到一起,可将(1)式改为:
风格信息具体的作用方式是对Gn内部的数据流进行仿射变换,即将学习到的ωn乘以Gn的原始数据流,再加上学习到的bn。具体作用点位在Gn的每一层卷积层之后。在Gn的每一次前向过程中,使用的风格信息为同一组;不同次前向过程使用的风格信息是不同组。
步骤五:结合原始训练样本和生成模型的生成结果,计算损失值,并依据损失值对生成模型和风格提取模块进行训练。损失值计算方式为传统GAN模型的对抗损失和余弦损失的线性叠加。
本发明的优点在于:提出的图像生成模型的训练方法、图像生成方法,能够有效地降低深度学习图像生成模型的使用门槛与使用成本,解决如今图像生成模型低训练成本和高生成质量不可兼得的普遍问题,极大程度上提升了图像生成模型的易用性与泛用性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
一种图像生成方法,包括如下步骤:
步骤1、获取一张样本图像;
步骤2、应用上述图像生成模型的训练方法,将步骤1中获取的一张样本图像作为输入量,训练图像生成模型;
步骤3、将任意数量的随机噪声和风格信息输入至训练好的图像生成模型,得到与随机噪声对等数量的输出图像。
所述步骤3中输出的图像与步骤1中的图像样本主体一致。
根据随机噪声的变化,所述步骤3中输出图像的几何外观相应的变化。
具体实施例二,
一种图像生成方法,首先收集一张图像样本,并对样本进行可选的预处理。然后基于该张样本,通过选定的数据增强方法获得一系列增强样本。将增强样本输入风格提取模块,获得一系列风格信息。再将风格信息和随机噪声一起输入图像生成模型,得到输出的图像。利用输出图像与输入图像,计算损失值并更新风格提取模块与图像生成模型,最终得到一个训练好的风格提取模块和图像生成模型。将增强数据输入训练好的风格提取模块,获取一系列风格信息;采集任意数量的随机噪声,并结合风格信息输入训练好的图像生成模型,最终获得一系列具有多样性变化的新样本,完成图像生成任务。
本方案使用深度学习的方法,依靠神经网络实现了基于单张样本的高质量多样性生成任务,可以保证生成样本与训练样本相比,具有足够多的外观多样性和合理且稳定的语义结构。
由技术常识可知,本发明可以通过其它的不脱离其精神实质或必要特征的实施方案来实现。因此,上述公开的实施方案,就各方面而言,都只是举例说明,并不是仅有的。所有在本发明范围内或在等同于本发明的范围内的改变均被本发明包含。
Claims (10)
1.一种图像生成模型的训练方法,其特征在于:通过对一张样本图像进行数据增强处理,获取一系列增强后的数据样本,应用风格提取模块对增强后的数据样本提取风格信息;将随机噪声和提取的风格信息作为初始图像生成模型的输入信号,对初始图像生成模型进行训练,获取最终的图像生成模型。
2.根据权利要求1所述的图像生成模型的训练方法,其特征在于:所述数据增强处理包括但不限于随机旋转图像样本、随机翻转图像样本、随机放缩图像样本中的一种或几种的组合。
3.根据权利要求1所述的图像生成模型的训练方法,其特征在于:所述风格信息包括放缩系数和偏置,风格信息的数据形式为与原始训练样本尺寸一致的特征矩阵。
4.根据权利要求3所述的图像生成模型的训练方法,其特征在于:对初始图像生成模型进行训练的过程中,除了第一层和最后一层神经网络之外,生成模型中的每一层神经网络的输入和输出都是特征矩阵;生成模型的第一层神经网络的输入是随机噪声,输出是特征矩阵;生成模型的最后一层神经网络的输出是图像,输入是特征矩阵;除生成模型的最后一层神经网络之外,其余每一层神经网络的输出特征矩阵在输入下一层神经网络之前,都需要先乘上所述风格信息的放缩系数部分,再加上偏置部分。
5.根据权利要求4所述的图像生成模型的训练方法,其特征在于:所述随机噪声的尺寸大小与原始训练样本一致。
6.根据权利要求1所述的图像生成模型的训练方法,其特征在于:对初始图像生成模型进行训练过程中,结合原始训练样本计算损失值,根据损失值对风格提取模块和图像生成模型进行训练。
7.根据权利要求6所述的图像生成模型的训练方法,其特征在于:所述计算损失值的方式为传统GAN模型的对抗损失和余弦损失的线性叠加。
8.一种图像生成方法,其特征在于:包括如下步骤:
步骤1、获取一张样本图像;
步骤2、应用权利要求1至7中任一项所述的图像生成模型的训练方法,将步骤1中获取的一张样本图像作为输入量,训练图像生成模型;
步骤3、将任意数量的随机噪声和风格信息输入至训练好的图像生成模型,得到与随机噪声对等数量的输出图像。
9.根据权利要求8所述的图像生成方法,其特征在于:所述步骤3中输出的图像与步骤1中的图像样本内容的主体一致。
10.根据权利要求8所述的图像生成方法,其特征在于:根据随机噪声的变化,所述步骤3中输出图像的几何外观也产生相应的变化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210042902.6A CN114549283A (zh) | 2022-01-14 | 2022-01-14 | 图像生成模型的训练方法及图像生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210042902.6A CN114549283A (zh) | 2022-01-14 | 2022-01-14 | 图像生成模型的训练方法及图像生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114549283A true CN114549283A (zh) | 2022-05-27 |
Family
ID=81671974
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210042902.6A Pending CN114549283A (zh) | 2022-01-14 | 2022-01-14 | 图像生成模型的训练方法及图像生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114549283A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108460720A (zh) * | 2018-02-01 | 2018-08-28 | 华南理工大学 | 一种基于生成对抗网络模型改变图像风格的方法 |
CN108921123A (zh) * | 2018-07-17 | 2018-11-30 | 重庆科技学院 | 一种基于双重数据增强的人脸识别方法 |
US20180373999A1 (en) * | 2017-06-26 | 2018-12-27 | Konica Minolta Laboratory U.S.A., Inc. | Targeted data augmentation using neural style transfer |
CN110427799A (zh) * | 2019-06-12 | 2019-11-08 | 中国地质大学(武汉) | 基于生成对抗网络的人手深度图像数据增强方法 |
CN112164008A (zh) * | 2020-09-29 | 2021-01-01 | 中国科学院深圳先进技术研究院 | 图像数据增强网络的训练方法及其训练装置、介质和设备 |
CN112560758A (zh) * | 2020-12-24 | 2021-03-26 | 百果园技术(新加坡)有限公司 | 一种人脸属性编辑方法、系统、电子设备及存储介质 |
-
2022
- 2022-01-14 CN CN202210042902.6A patent/CN114549283A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180373999A1 (en) * | 2017-06-26 | 2018-12-27 | Konica Minolta Laboratory U.S.A., Inc. | Targeted data augmentation using neural style transfer |
CN108460720A (zh) * | 2018-02-01 | 2018-08-28 | 华南理工大学 | 一种基于生成对抗网络模型改变图像风格的方法 |
CN108921123A (zh) * | 2018-07-17 | 2018-11-30 | 重庆科技学院 | 一种基于双重数据增强的人脸识别方法 |
CN110427799A (zh) * | 2019-06-12 | 2019-11-08 | 中国地质大学(武汉) | 基于生成对抗网络的人手深度图像数据增强方法 |
CN112164008A (zh) * | 2020-09-29 | 2021-01-01 | 中国科学院深圳先进技术研究院 | 图像数据增强网络的训练方法及其训练装置、介质和设备 |
CN112560758A (zh) * | 2020-12-24 | 2021-03-26 | 百果园技术(新加坡)有限公司 | 一种人脸属性编辑方法、系统、电子设备及存储介质 |
Non-Patent Citations (2)
Title |
---|
TAMAR ROTT SHAHAM 等: "SinGAN: Learning a Generative Model from a Single Natural Image", ARXIV.ORG * |
TERO KARRAS 等: "A Style-Based Generator Architecture for Generative Adversarial Networks", 2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106204468B (zh) | 一种基于ReLU卷积神经网络的图像去噪方法 | |
CN101950365B (zh) | 基于ksvd字典学习的多任务超分辨率图像重构方法 | |
CN113837946B (zh) | 一种基于递进蒸馏网络的轻量化图像超分辨率重建方法 | |
CN110060286B (zh) | 一种单目深度估计方法 | |
CN111768340B (zh) | 一种基于密集多路径网络的超分辨图像重构方法和系统 | |
CN112381716B (zh) | 一种基于生成式对抗网络的图像增强方法 | |
CN111932461A (zh) | 一种基于卷积神经网络的自学习图像超分辨率重建方法及系统 | |
CN113538246B (zh) | 基于无监督多阶段融合网络的遥感图像超分辨率重建方法 | |
Gendy et al. | Lightweight image super-resolution based on deep learning: State-of-the-art and future directions | |
CN116797461A (zh) | 基于多级强化注意力机制的双目图像超分辨率重建方法 | |
CN112184552B (zh) | 一种基于高频特征学习的子像素卷积图像超分辨方法 | |
CN114549283A (zh) | 图像生成模型的训练方法及图像生成方法 | |
CN116188273A (zh) | 一种基于不确定性导向的双模态可分离图像超分辨率方法 | |
CN115797176A (zh) | 一种图像超分辨率重建方法 | |
CN104867107B (zh) | 一种图像超分辨方法 | |
CN114494387A (zh) | 一种生成数据集网络模型及雾图生成方法 | |
CN113160198A (zh) | 一种基于通道注意力机制的图像质量增强方法 | |
CN113947512A (zh) | 一种大容量可控无载体图像隐写方法 | |
CN113160055A (zh) | 一种基于深度学习的图像超分辨率重建方法 | |
Deng et al. | D-SRCAGAN: DEM Super-resolution Generative Adversarial Network | |
Zhu et al. | MRDA-Net: Multiscale Residual Dense Attention Network for Image Denoising | |
CN114022360B (zh) | 基于深度学习的渲染图像超分辨系统 | |
CN113792862B (zh) | 基于级联注意力机制的改正单图生成对抗网络的设计方法 | |
CN116342392A (zh) | 一种基于深度学习的单遥感影像超分辨率方法 | |
CN111161152B (zh) | 基于自适应卷积神经网络的图像超分辨方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20220527 |