CN109544442A - 基于双重对抗的生成式对抗网络的图像局部风格迁移方法 - Google Patents
基于双重对抗的生成式对抗网络的图像局部风格迁移方法 Download PDFInfo
- Publication number
- CN109544442A CN109544442A CN201811337511.7A CN201811337511A CN109544442A CN 109544442 A CN109544442 A CN 109544442A CN 201811337511 A CN201811337511 A CN 201811337511A CN 109544442 A CN109544442 A CN 109544442A
- Authority
- CN
- China
- Prior art keywords
- images
- image
- generator
- class
- dual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 22
- 230000009977 dual effect Effects 0.000 title claims abstract description 17
- 238000006243 chemical reaction Methods 0.000 claims abstract description 12
- 230000007246 mechanism Effects 0.000 claims abstract description 7
- 238000005259 measurement Methods 0.000 claims abstract description 4
- 238000013508 migration Methods 0.000 claims description 16
- 230000005012 migration Effects 0.000 claims description 16
- 238000012549 training Methods 0.000 claims description 16
- 125000004122 cyclic group Chemical group 0.000 claims description 10
- 238000007781 pre-processing Methods 0.000 claims description 5
- 238000012216 screening Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 230000003042 antagnostic effect Effects 0.000 description 2
- 241000283070 Equus zebra Species 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002860 competitive effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- G06T3/18—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明揭示了一种基于双重对抗的生成式对抗网络的图像局部风格迁移方法,包括如下步骤:S1、采集两类图像;S2、对所采集的两类图像进行预处理;S3、构建带有自注意力机制的双重对抗网络,将经过预处理的两类图像分别输入双重对抗网络的最小化的损失函数中,对双重对抗网络进行训练;S4、将经过训练的双重对抗网络中的生成器作为两类图像局部风格迁移的工具,并应用于实测。本发明的技术方案基于双重对抗的自注意力生成式对抗网络,能够使得局部特征的图到图转换更加聚焦于局部特征,方法使用效果优异。
Description
技术领域
本发明涉及一种图像局部风格的迁移方法,尤其涉及一种基于双重对抗的生成式对抗网络的图像局部风格迁移方法,属于计算机视觉中的图像处理技术。
背景技术
近年来,随着人工智能技术的高速发展,深度学习成为了时下热门的研究领域。蒙特利尔大学的Ian Goodfellow等学者曾在2014年提出了生成式对抗网络的概念,这一概念的提出进一步加快了深度学习的研究进程。近年来,生成式对抗网络已经逐渐成为深度学习中的研究热点之一。
生成式对抗网络是一种生成模型,它的结构受启发于二人零和博弈。生成式对抗网络包含了一个生成器和一个判别器。生成器能够通过真实数据的潜在分布进行学习,随后生成假的数据分布来拟合逼近真实数据。判别器是一个分类器,能够判断数据分布是否为真。通过两个网络的不断竞争学习,生成器能够生成越来越逼真的假的数据分布,最终达到以假乱真的效果。
循环生成式对抗网络则是将生成式对抗网络与图到图转换的结合,循环生成式对抗网络本质上是两个镜像对称的生成式对抗网络,构成了一个环形网络。两个生成式对抗网络共享两个生成器和两个判别器,即共有两个判别器和两个生成器。循环生成式对抗网络适合处理图像风格迁移,但是应用于两类图像的局部特征迁移的过程中时,却很容易出现图像整体颜色的改变,即图像之前的转换不能较好的聚焦于操作者所期望的区域中、且图像也有可能会出现的条纹状噪声。
综上所述,如何在现有技术的基础上提出一种图像局部风格迁移方法,以解决现有技术中所存在的诸多问题,也就成为了业内技术人员新的研究方向。
发明内容
鉴于现有技术存在上述缺陷,本发明提出了一种基于双重对抗的生成式对抗网络的图像局部风格迁移方法,包括如下步骤:
S1、采集两类图像;
S2、对所采集的两类图像进行预处理;
S3、构建带有自注意力机制的双重对抗网络,将经过预处理的两类图像分别输入双重对抗网络的最小化的损失函数中,对双重对抗网络进行训练;
S4、将经过训练的双重对抗网络中的生成器作为两类图像局部风格迁移的工具,并应用于实测。
优选地,S1中所述两类图像包括真实第一类图像与真实第二类图像,所述真实第一类图像与真实第二类图像二者无需一一配对,所述真实第一类图像与真实第二类图像二者间的风格不同、且二者间具有相似性。
优选地,S1所述采集两类图像,具体包括如下步骤:利用爬虫技术,从图片网站上爬取清晰的两类图像各两千张。
优选地,S2中所述对所采集的两类图像进行预处理,具体包括如下步骤:对所述真实第一类图像与真实第二类图像进行筛选,去除两类图像中的模糊图像,将所有图像均设置为同一尺寸,随后将两类图像各自保存为训练样本。
优选地,S3中所述双重对抗网络包括生成器、判别器及抑制器,所述生成器、判别器与所述生成器、抑制器同时进行对抗训练,所述生成器包括第一生成器及第二生成器,所述判别器包括第一判别器及第二判别器。
优选地,在所述生成器和判别器的网络结构中均包括自注意力机制模块。
优选地,S3中所述对双重对抗网络进行训练,具体包括如下步骤:
S31、将所述真实第一类图像输入第一判别器中进行判别,同时将所述真实第一类图像输入第一生成器中、得到生成第二类图片,随后将生成第二类图片通过抑制器送入第二判别器中进行判别,同时将经过所述抑制器优化后的生成第二类图片通过第二生成器得到生成第一类图片;
S32、将所述真实第二类图像输入第二判别器中进行判别,同时将所述真实第二类图像输入第二生成器中、得到生成第一类图片,随后将生成第一类图片通过抑制器送入第一判别器中进行判别,同时将经过所述抑制器优化后的生成第一类图片通过第一生成器得到生成第二类图片;
S33、对所述第一生成器和第二生成器、所述第一判别器和第二
判别器进行调整,以使得损失函数最小化。
优选地,S3中所述损失函数的表达式为:
L(G,F,DX,DY)=LGAN(G,S,DY,X,Y)+LGAN(F,S,DX,Y,X)+λLcyc(G,S,F)+βLsup(G,S,F),
其中,
上述各式中,G是第一生成器,F是第二生成器,S是抑制器,x是训练样本中的真实第一类图像,y是训练样本中的真实第二类图像,DX是第一判别器,DY是第二判别器,λ、β为可设定参数,LGAN是判别器损失,Lcyc是循环损失,Lsup是转换损失。
与现有技术相比,本发明的优点主要体现在以下几个方面:
本发明的技术方案基于双重对抗的自注意力生成式对抗网络,能够使得局部特征的图到图转换更加聚焦于局部特征,从而确保了方案的使用效果。经过本发明处理后,图片纹理更加清晰、网络的鲁棒性更好。
此外,本发明也为同领域内的其他相关问题提供了参考,可以以此为依据进行拓展延伸,运用于同领域内其他图像风格迁移的技术方案中,具有十分广阔的应用前景。
以下便结合实施例附图,对本发明的具体实施方式作进一步的详述,以使本发明技术方案更易于理解、掌握。
附图说明
图1是本发明一具体实施例的实现流程图;
图2是本发明的基于双重对抗的自注意力生成式对抗网络的结构示意图;
图3是本发明的基于双重对抗的自注意力生成式对抗网络中生成器的结构示意图;
图4是本发明的基于双重对抗的自注意力生成式对抗网络中判别器的结构示意图;
图5是本发明的基于双重对抗的自注意力生成式对抗网络中自注意力模块的结构示意图。
具体实施方式
如图1~图5所示,本发明揭示了一种基于双重对抗的生成式对抗网络的图像局部风格迁移方法,包括如下步骤:
S1、采集两类图像。
所述两类图像包括真实第一类图像与真实第二类图像,所述真实第一类图像与真实第二类图像二者无需一一配对,所述真实第一类图像与真实第二类图像二者间的风格不同、且二者间具有相似性。在本实施例中,所述两类图像为斑马图像与马图像。
两类图像的采集过程具体包括从图片网站上下载两类图像,要求图像清晰。在本实施例中,我们利用爬虫技术,从图片网站上爬取清晰的两类图像各两千张。
S2、对所采集的两类图像进行预处理。
预处理具体包括:对所述真实第一类图像与真实第二类图像进行筛选,去除两类图像中的模糊图像,将所有图像均设置为同一尺寸,在本实施例中,统一裁剪为128*128尺寸,随后将两类图像各自保存为训练样本。
S3、构建带有自注意力机制的双重对抗网络,将经过预处理的两类图像分别输入双重对抗网络的最小化的损失函数中,对双重对抗网络进行训练。
所述双重对抗网络包括生成器、判别器及抑制器,所述生成器、判别器与所述生成器、抑制器同时进行对抗训练,所述生成器包括第一生成器及第二生成器,所述判别器包括第一判别器及第二判别器。在所述生成器和判别器的网络结构中均包括自注意力机制模块。
具体而言,所述生成器的网络结构如图3所示。生成器由四个部分组成:编码器、转换器、解码器和自注意力模块。编码器中的Conv Layer为卷积层,目的通过卷积操作提取图像的特征信息。转换器中的Resnet Block是残差网络,目的是为了将底层特征传递进入高层,并且抑制梯度消失的情况。解码器包含的DeConv Layer是反卷积层,解码过程与编码方式完全相反,从特征向量中还原出低级特征,这是利用反卷积层来完成的。自注意力模块包含数层组合卷积,目的是为了加权特征,增强重要的特征。生成器的输入是一类图像,输出是转换之后的另一类图像。
所述判别器的网络结构如图4所示。相对于生成器判别器的网络结构较为简单,包含数层Conv Layer。判别器接受一张图片,返回一个在0带1范围之内的数来表示这张图片是否为真。其中0代表图像为假,即图片是生成器生成的。1代表图片为真,即图片是真实图片。
所述抑制器同生成器是一致的网络结构,输入的是生成器生成的图片,输出抑制器生成的图片。
所述损失函数是由判别器损失函数、循环损失函数和抑制损失函数组合成的。判别器期望能够准确的判断图片是否为真实的图片,生成器则期望生成的图像能够欺骗判别器,即期望判别器判断生成的图像为真实图像,这两者组合为判别器损失函数。循环损失函数则是期望图像经过两个生成器G,F和一个抑制器能够回到本身,构成一个循环,即两个类别间的循环生成。抑制器损失函数是期望图像通过生成器和抑制器从一个类别转向另一个类别之后原始图片和生成的图片的差异较小,即图片转换聚焦于局部特征。
所述损失函数的表达式为:
L(G,F,DX,DY)=LGAN(G,S,DY,X,Y)+LGAN(F,S,DX,Y,X)+λLcyc(G,S,F)+βLsup(G,S,F),
其中,
上述各式中,G是第一生成器,F是第二生成器,S是抑制器,x是训练样本中的真实第一类图像,y是训练样本中的真实第二类图像,DX是第一判别器,DY是第二判别器,λ、β为可设定参数,LGAN是判别器损失,Lcyc是循环损失,Lsup是转换损失。
S3中所述对双重对抗网络进行训练,具体包括如下步骤:
S31、将所述真实第一类图像输入第一判别器中进行判别,同时将所述真实第一类图像输入第一生成器中、得到生成第二类图片,随后将生成第二类图片通过抑制器送入第二判别器中进行判别,同时将经过所述抑制器优化后的生成第二类图片通过第二生成器得到生成第一类图片;
S32、将所述真实第二类图像输入第二判别器中进行判别,同时将所述真实第二类图像输入第二生成器中、得到生成第一类图片,随后将生成第一类图片通过抑制器送入第一判别器中进行判别,同时将经过所述抑制器优化后的生成第一类图片通过第一生成器得到生成第二类图片;
S33、对所述第一生成器和第二生成器、所述第一判别器和第二判别器进行调整,以使得损失函数最小化。
S4、将经过训练的双重对抗网络中的生成器作为两类图像局部风格迁移的工具,并应用于实测。
综上,本发明通过将两类图片输入到双重对抗的自注意力生成式对抗网络中,训练模型,得到训练完善的生成器,此时第一生成器可以将第一类图片生成第二类图片,第二生成器可以将第二类图片生成第一类图片。将双重对抗的自注意力生成式对抗网络在图像局部特征转换应用中,做到了图像局部特征的良好转换,解决了循环生成对抗网络中的转化效果差和容易过拟合的问题。
本发明的技术方案基于双重对抗的自注意力生成式对抗网络,能够使得局部特征的图到图转换更加聚焦于局部特征,从而确保了方案的使用效果。经过本发明处理后,图片纹理更加清晰、网络的鲁棒性更好。
此外,本发明也为同领域内的其他相关问题提供了参考,可以以此为依据进行拓展延伸,运用于同领域内其他图像风格迁移的技术方案中,具有十分广阔的应用前景。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神和基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内,不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
此外,应当理解,虽然本说明书按照实施方式加以描述,但并非每个实施方式仅包含一个独立的技术方案,说明书的这种叙述方式仅仅是为清楚起见,本领域技术人员应当将说明书作为一个整体,各实施例中的技术方案也可以经适当组合,形成本领域技术人员可以理解的其他实施方式。
Claims (8)
1.一种基于双重对抗的生成式对抗网络的图像局部风格迁移方法,其特征在于,包括如下步骤:
S1、采集两类图像;
S2、对所采集的两类图像进行预处理;
S3、构建带有自注意力机制的双重对抗网络,将经过预处理的两类图像分别输入双重对抗网络的最小化的损失函数中,对双重对抗网络进行训练;
S4、将经过训练的双重对抗网络中的生成器作为两类图像局部风格迁移的工具,并应用于实测。
2.根据权利要求1所述的基于双重对抗的生成式对抗网络的图像局部风格迁移方法,其特征在于:S1中所述两类图像包括真实第一类图像与真实第二类图像,所述真实第一类图像与真实第二类图像二者无需一一配对,所述真实第一类图像与真实第二类图像二者间的风格不同、且二者间具有相似性。
3.根据权利要求1所述的基于双重对抗的生成式对抗网络的图像局部风格迁移方法,其特征在于,S1所述采集两类图像,具体包括如下步骤:利用爬虫技术,从图片网站上爬取清晰的两类图像各两千张。
4.根据权利要求2所述的基于双重对抗的生成式对抗网络的图像局部风格迁移方法,其特征在于,S2中所述对所采集的两类图像进行预处理,具体包括如下步骤:对所述真实第一类图像与真实第二类图像进行筛选,去除两类图像中的模糊图像,将所有图像均设置为同一尺寸,随后将两类图像各自保存为训练样本。
5.根据权利要求4所述的基于双重对抗的生成式对抗网络的图像局部风格迁移方法,其特征在于,S3中所述双重对抗网络包括生成器、判别器及抑制器,所述生成器、判别器与所述生成器、抑制器同时进行对抗训练,所述生成器包括第一生成器及第二生成器,所述判别器包括第一判别器及第二判别器。
6.根据权利要求5所述的基于双重对抗的生成式对抗网络的图像局部风格迁移方法,其特征在于:在所述生成器和判别器的网络结构中均包括自注意力机制模块。
7.根据权利要求5所述的基于双重对抗的生成式对抗网络的图像局部风格迁移方法,其特征在于,S3中所述对双重对抗网络进行训练,具体包括如下步骤:
S31、将所述真实第一类图像输入第一判别器中进行判别,同时将所述真实第一类图像输入第一生成器中、得到生成第二类图片,随后将生成第二类图片通过抑制器送入第二判别器中进行判别,同时将经过所述抑制器优化后的生成第二类图片通过第二生成器得到生成第一类图片;
S32、将所述真实第二类图像输入第二判别器中进行判别,同时将所述真实第二类图像输入第二生成器中、得到生成第一类图片,随后将生成第一类图片通过抑制器送入第一判别器中进行判别,同时将经过所述抑制器优化后的生成第一类图片通过第一生成器得到生成第二类图片;
S33、对所述第一生成器和第二生成器、所述第一判别器和第二判别器进行调整,以使得损失函数最小化。
8.根据权利要求5所述的基于双重对抗的生成式对抗网络的图像局部风格迁移方法,其特征在于,S3中所述损失函数的表达式为:
L(G,F,DX,DY)=LGAN(G,S,DY,X,Y)+LGAN(F,S,DX,Y,X)+λLcyc(G,S,F)+βLsup(G,S,F),
其中,
上述各式中,G是第一生成器,F是第二生成器,S是抑制器,x是训练样本中的真实第一类图像,y是训练样本中的真实第二类图像,DX是第一判别器,DY是第二判别器,λ、β为可设定参数,LGAN是判别器损失,Lcyc是循环损失,Lsup是转换损失。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811337511.7A CN109544442B (zh) | 2018-11-12 | 2018-11-12 | 基于双重对抗的生成式对抗网络的图像局部风格迁移方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811337511.7A CN109544442B (zh) | 2018-11-12 | 2018-11-12 | 基于双重对抗的生成式对抗网络的图像局部风格迁移方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109544442A true CN109544442A (zh) | 2019-03-29 |
CN109544442B CN109544442B (zh) | 2023-05-23 |
Family
ID=65846794
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811337511.7A Active CN109544442B (zh) | 2018-11-12 | 2018-11-12 | 基于双重对抗的生成式对抗网络的图像局部风格迁移方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109544442B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978165A (zh) * | 2019-04-04 | 2019-07-05 | 重庆大学 | 一种融合自注意力机制的生成对抗网络方法 |
CN110210549A (zh) * | 2019-05-28 | 2019-09-06 | 北方民族大学 | 一种跨域变分对抗自编码方法 |
CN110232652A (zh) * | 2019-05-27 | 2019-09-13 | 珠海格力电器股份有限公司 | 图像处理引擎处理方法、用于终端的图像处理方法、终端 |
CN110288535A (zh) * | 2019-05-14 | 2019-09-27 | 北京邮电大学 | 一种图像去雨方法和装置 |
CN110443758A (zh) * | 2019-07-05 | 2019-11-12 | 广东省人民医院(广东省医学科学院) | 一种医疗影像去噪方法及装置 |
CN110619315A (zh) * | 2019-09-24 | 2019-12-27 | 重庆紫光华山智安科技有限公司 | 人脸识别模型的训练方法、装置及电子设备 |
CN110766638A (zh) * | 2019-10-31 | 2020-02-07 | 北京影谱科技股份有限公司 | 一种对图像中物体背景风格进行转换方法和装置 |
CN110992252A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学合肥创新研究院 | 一种基于潜变量特征生成的图像多风格转化方法 |
CN111161137A (zh) * | 2019-12-31 | 2020-05-15 | 四川大学 | 一种基于神经网络的多风格国画花生成方法 |
CN111950619A (zh) * | 2020-08-05 | 2020-11-17 | 东北林业大学 | 一种基于双重生成对抗网络的主动学习方法 |
CN112257787A (zh) * | 2020-10-23 | 2021-01-22 | 天津大学 | 基于生成式双重条件对抗网络结构的图像半监督分类方法 |
CN112418310A (zh) * | 2020-11-20 | 2021-02-26 | 第四范式(北京)技术有限公司 | 文本风格迁移模型训练方法和系统及图像生成方法和系统 |
CN113344772A (zh) * | 2021-05-21 | 2021-09-03 | 武汉大学 | 一种用于地图艺术化的迁移模型的训练方法和计算机设备 |
CN113822895A (zh) * | 2021-08-29 | 2021-12-21 | 陕西师范大学 | 一种基于自注意力机制和CycleGAN的ScanSAR图像扇贝效应抑制方法 |
CN115063859A (zh) * | 2022-06-23 | 2022-09-16 | 山东大学 | 基于生成对抗网络的人脸图像转换成素描的方法及系统 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464210A (zh) * | 2017-07-06 | 2017-12-12 | 浙江工业大学 | 一种基于生成式对抗网络的图像风格迁移方法 |
CN108182657A (zh) * | 2018-01-26 | 2018-06-19 | 深圳市唯特视科技有限公司 | 一种基于循环生成对抗网络的面部图像转换方法 |
CN108460720A (zh) * | 2018-02-01 | 2018-08-28 | 华南理工大学 | 一种基于生成对抗网络模型改变图像风格的方法 |
-
2018
- 2018-11-12 CN CN201811337511.7A patent/CN109544442B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107464210A (zh) * | 2017-07-06 | 2017-12-12 | 浙江工业大学 | 一种基于生成式对抗网络的图像风格迁移方法 |
CN108182657A (zh) * | 2018-01-26 | 2018-06-19 | 深圳市唯特视科技有限公司 | 一种基于循环生成对抗网络的面部图像转换方法 |
CN108460720A (zh) * | 2018-02-01 | 2018-08-28 | 华南理工大学 | 一种基于生成对抗网络模型改变图像风格的方法 |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978165A (zh) * | 2019-04-04 | 2019-07-05 | 重庆大学 | 一种融合自注意力机制的生成对抗网络方法 |
CN110288535A (zh) * | 2019-05-14 | 2019-09-27 | 北京邮电大学 | 一种图像去雨方法和装置 |
CN110232652A (zh) * | 2019-05-27 | 2019-09-13 | 珠海格力电器股份有限公司 | 图像处理引擎处理方法、用于终端的图像处理方法、终端 |
CN110210549B (zh) * | 2019-05-28 | 2022-03-29 | 北方民族大学 | 一种跨域变分对抗自编码方法 |
CN110210549A (zh) * | 2019-05-28 | 2019-09-06 | 北方民族大学 | 一种跨域变分对抗自编码方法 |
CN110443758A (zh) * | 2019-07-05 | 2019-11-12 | 广东省人民医院(广东省医学科学院) | 一种医疗影像去噪方法及装置 |
CN110443758B (zh) * | 2019-07-05 | 2023-08-25 | 广东省人民医院(广东省医学科学院) | 一种医疗影像去噪方法及装置 |
CN110619315A (zh) * | 2019-09-24 | 2019-12-27 | 重庆紫光华山智安科技有限公司 | 人脸识别模型的训练方法、装置及电子设备 |
CN110766638A (zh) * | 2019-10-31 | 2020-02-07 | 北京影谱科技股份有限公司 | 一种对图像中物体背景风格进行转换方法和装置 |
CN110992252A (zh) * | 2019-11-29 | 2020-04-10 | 北京航空航天大学合肥创新研究院 | 一种基于潜变量特征生成的图像多风格转化方法 |
CN110992252B (zh) * | 2019-11-29 | 2023-05-12 | 北京航空航天大学合肥创新研究院 | 一种基于潜变量特征生成的图像多风格转化方法 |
CN111161137A (zh) * | 2019-12-31 | 2020-05-15 | 四川大学 | 一种基于神经网络的多风格国画花生成方法 |
CN111950619A (zh) * | 2020-08-05 | 2020-11-17 | 东北林业大学 | 一种基于双重生成对抗网络的主动学习方法 |
CN112257787A (zh) * | 2020-10-23 | 2021-01-22 | 天津大学 | 基于生成式双重条件对抗网络结构的图像半监督分类方法 |
CN112418310A (zh) * | 2020-11-20 | 2021-02-26 | 第四范式(北京)技术有限公司 | 文本风格迁移模型训练方法和系统及图像生成方法和系统 |
CN113344772A (zh) * | 2021-05-21 | 2021-09-03 | 武汉大学 | 一种用于地图艺术化的迁移模型的训练方法和计算机设备 |
CN113822895A (zh) * | 2021-08-29 | 2021-12-21 | 陕西师范大学 | 一种基于自注意力机制和CycleGAN的ScanSAR图像扇贝效应抑制方法 |
CN115063859A (zh) * | 2022-06-23 | 2022-09-16 | 山东大学 | 基于生成对抗网络的人脸图像转换成素描的方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109544442B (zh) | 2023-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109544442A (zh) | 基于双重对抗的生成式对抗网络的图像局部风格迁移方法 | |
Xu et al. | Learning deep structured multi-scale features using attention-gated crfs for contour prediction | |
CN109584337B (zh) | 一种基于条件胶囊生成对抗网络的图像生成方法 | |
Wang et al. | Discriminative region proposal adversarial networks for high-quality image-to-image translation | |
CN107833183B (zh) | 一种基于多任务深度神经网络的卫星图像同时超分辨和着色的方法 | |
CN109558942B (zh) | 一种基于浅度学习的神经网络迁移方法 | |
CN109614921B (zh) | 一种基于对抗生成网络的半监督学习的细胞分割方法 | |
CN111476805A (zh) | 一种基于多重约束的跨源无监督域适应分割模型 | |
CN110580500A (zh) | 一种面向人物交互的网络权重生成少样本图像分类方法 | |
CN109766465A (zh) | 一种基于机器学习的图文融合图书推荐方法 | |
CN109359527B (zh) | 基于神经网络的头发区域提取方法及系统 | |
CN111143617A (zh) | 一种图片或视频文本描述自动生成方法及系统 | |
CN111583201A (zh) | 一种用于构建超分辨率病理显微镜的迁移学习方法 | |
CN110852199A (zh) | 一种基于双帧编码解码模型的前景提取方法 | |
CN110889335B (zh) | 基于多通道时空融合网络人体骨架双人交互行为识别方法 | |
Machidon et al. | Deep learning for compressive sensing: a ubiquitous systems perspective | |
Bushra et al. | Crime Investigation using DCGAN by Forensic Sketch-to-Face Transformation (STF)-A Review | |
CN112561782B (zh) | 一种提高海上场景仿真图片真实度的方法 | |
Vanaja et al. | Hand Gesture Recognition for Deaf and Dumb Using CNN Technique | |
CN113705301A (zh) | 图像处理方法及装置 | |
Sun et al. | ESinGAN: Enhanced single-image GAN using pixel attention mechanism for image super-resolution | |
CN112233017A (zh) | 一种基于生成对抗网络的病态人脸数据增强方法 | |
CN116912727A (zh) | 一种基于时空特征增强网络的视频人体行为识别方法 | |
CN115115847B (zh) | 三维稀疏重建方法、装置及电子装置 | |
CN111489405A (zh) | 基于条件增强生成对抗网络的人脸草图合成系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |