CN110163796B - 一种无监督多模态对抗自编码的图像生成方法及框架 - Google Patents
一种无监督多模态对抗自编码的图像生成方法及框架 Download PDFInfo
- Publication number
- CN110163796B CN110163796B CN201910454914.8A CN201910454914A CN110163796B CN 110163796 B CN110163796 B CN 110163796B CN 201910454914 A CN201910454914 A CN 201910454914A CN 110163796 B CN110163796 B CN 110163796B
- Authority
- CN
- China
- Prior art keywords
- attribute
- data
- convolution
- distribution
- variable
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 11
- 238000005070 sampling Methods 0.000 claims abstract description 20
- 230000009466 transformation Effects 0.000 claims abstract description 20
- 238000013519 translation Methods 0.000 claims abstract description 12
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 18
- 230000004927 fusion Effects 0.000 claims description 15
- 238000013461 design Methods 0.000 claims description 13
- 238000011176 pooling Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000005286 illumination Methods 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 5
- 238000013507 mapping Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- HPTJABJPZMULFH-UHFFFAOYSA-N 12-[(Cyclohexylcarbamoyl)amino]dodecanoic acid Chemical compound OC(=O)CCCCCCCCCCCNC(=O)NC1CCCCC1 HPTJABJPZMULFH-UHFFFAOYSA-N 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 108010047303 von Willebrand Factor Proteins 0.000 description 1
- 230000037303 wrinkles Effects 0.000 description 1
Images
Classifications
-
- G06T3/04—
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种无监督多模态对抗自编码的图像生成方法及框架,包括步骤:S1、输入一组共n个同域的图像数据,它们来自于相同的数据分布,彼此共享部分公有属性,且各自拥有一些差异属性;S2、将输入的图像数据分别传入到可变属性编码器和固有属性编码器中,解耦出数据的固有属性编码和可变属性编码;S3、在无监督条件下,将可变属性编码及其相应的对抗网络进行对抗学习,以求解出可变属性编码的先验分布空间;S4、在无监督条件下,随机从可变属性编码的先验分布空间中采样,并联合固有属性编码通过解码器,完成单一域数据的多模态翻译,实现多属性的变换并生成对应的图像。本发明可有效解耦域内数据的公共属性和可变属性,并生成其多模态变换。
Description
技术领域
本发明涉及计算机视觉、计算机图形学与机器学习的技术领域,尤其是指一种无监督多模态对抗自编码的图像生成方法及框架。
背景技术
随着深度学习技术和图像生成技术的不断发展,图像翻译领域涌现出大量优秀工作,应用于图像着色、超分辨率生成、风格转换等各个方面。当前来看,现有的图像翻译工作都建立在跨域数据的基础之上,需要明确给定两个或多个不同的图像域,而在工业设计领域,可能需要根据一个已有设计自动变换其色彩、光照等属性;在虚拟家居等领域也可能需要依据一定角度摆放不同类型的椅子、沙发等。在这些应用中,并无明显可定义的跨域数据,变换数据间具有既定的公共属性,又同时具备需要变换的差异性属性,现有的跨域数据翻译无法满足这些需求。
发明内容
本发明的目的在于克服现有技术的缺点与不足,针对单一域数据的一对多图像翻译需求,提出了一种无监督多模态对抗自编码的图像生成方法及框架,可有效解耦域内数据的公共属性和可变属性,并生成其多模态变换。在无监督数据的前提下,解码这些数据的共有属性,并识别差异性属性,实现输入图像的多模态生成,即保留共有属性的同时完成差异性属性的多样化变换。
为实现上述目的,本发明所提供的技术方案如下:
一种无监督多模态对抗自编码的图像生成方法,包括以下步骤:
S1、输入一组共n个同域的图像数据,它们来自于相同的数据分布,彼此共享部分公有属性,且各自拥有一些差异属性;
S2、将输入的图像数据分别传入到可变属性编码器和固有属性编码器中,解耦出数据的固有属性编码和可变属性编码;
S3、在无监督条件下,将可变属性编码及其相应的对抗网络进行对抗学习,以求解出可变属性编码的先验分布空间;
S4、在无监督条件下,随机从可变属性编码的先验分布空间中采样,并联合固有属性编码通过解码器,完成单一域数据的多模态翻译,实现多属性的变换并生成对应的图像。
在步骤S1中,相同的数据分布指的是数据的来源具有一致性;差异属性指的是在图像中,同一个物体在不同季节、不同光照、不同时间和不同角度下产生的变化。
在步骤S2中,可变属性编码器将数据间的差异属性作为可变属性,采用卷积、全局池化、再卷积的设计模式,提取图像特征并编码,记为可变属性编码EV;其中,所述卷积共包含五个卷积层,第一个为7*7卷积层,旨在进行浅层特征的初步提取,第二至第五个是4个连续的4*4卷积层,旨在同时实现图像的下采样和特征的进一步抽象;紧随其后的是全局池化层和1*1再卷积层,都旨在提取图像的高度抽象特征。
在步骤S2中,固有属性编码器将数据间的公有属性作为固有属性,采用卷积、下采样、残差块的设计模式,提取图像特征并编码,记为固有属性编码EI;其中,所述卷积共包含五个卷积层,第一个为7*7卷积层,旨在进行浅层特征的初步提取,第二至第五个是4个连续的4*4卷积层,旨在同时实现图像的下采样和特征的进一步抽象;所述下采样的作用是降低特征维度,减少冗余信息;而最后的残差块设计为一种实例正则化密集残差块,目的是确保语义特征不变的前提下保留更加丰富的细节特征。
在步骤S3中,对抗网络由(256,64,16,1)连续四个全连接层组成,将来自可变属性编码器中解耦出的可变属性编码所对应的分布作为先验分布,从正态分布中随机采样的噪声数据所对应的分布为后验分布,从先验分布和后验分布中随机采样相同维度的数据送入对抗网络中,最后输出为0或1的二分类结果;后验分布是已经知道的正态分布,通过对抗网络,当先验分布和后验分布的对抗学习达到平衡后,先验分布能够近似等价为后验分布。
在步骤S4中,解码器以可变属性编码器提取的可变属性编码EV为输入,先后通过1*1*8、1*1*256和1*1*256的3个多层感知机MLP,将可变属性编码映射为256维特征,并连同固有属性编码共同输入自适应正则化AdaIn层;设可变属性特征为xv,固有属性特征为xI,通过MLP得到的参数为δ(*)和μ(*),则AdaIn层通过下面公式完成两种属性的融合:
然后,利用最近邻插值算法实现融合特征的上采样,并送入5*5卷积层完成最终解码,输出生成图像。
一种无监督多模态对抗自编码的图像生成框架,包括固有属性编码器、可变属性编码器、解码器和对抗网络,其中:
所述固有属性编码器用于在无监督多模态对抗自编码中,以同域内的一组数据为输入,将数据间的公有属性作为固有属性,提取图像特征并编码,记为固有属性编码EI;所述固有属性编码器采用卷积、下采样、残差块的设计模式,所述卷积共包含五个卷积层,第一个为7*7卷积层,旨在进行浅层特征的初步提取,第二至第五个是4个连续的4*4卷积层,旨在同时实现图像的下采样和特征的进一步抽象;所述下采样的作用是降低特征维度,减少冗余信息;而最后的残差块设计为一种实例正则化密集残差块,目的是确保语义特征不变的前提下保留更加丰富的细节特征;
所述可变属性编码器以同域内的一组数据为输入,将数据间的差异属性作为可变属性,提取图像特征并编码,记为可变属性编码EV;所述可变属性编码器采用卷积、全局池化、卷积的设计模式,卷积共包含五个卷积层,第一个为7*7卷积层,旨在进行浅层特征的初步提取,第二至第五个是4个连续的4*4卷积层,旨在同时实现图像的下采样和特征的进一步抽象;紧随其后的是全局池化层和1*1再卷积层,都旨在提取图像的高度抽象特征;
所述对抗网络由(256,64,16,1)连续四个全连接层组成,将来自可变属性编码器中解耦出的可变属性编码所对应的分布作为先验分布,从正态分布中随机采样的噪声数据所对应的分布为后验分布,从先验分布和后验分布中均随机采样相同维度的数据送入对抗网络中,最后输出为0或1的二分类结果,后验分布是已经知道的正态分布,通过对抗网络,当先验分布和后验分布的对抗学习达到平衡后,先验分布能够近似等价为后验分布;
所述解码器以可变属性编码EV为输入,先后通过1*1*8、1*1*256和1*1*256的3个多层感知机MLP,将可变属性编码映射为256维特征,并连同固有属性编码共同输入自适应正则化AdaIn层;设可变属性特征为xv,固有属性特征为xI,通过MLP得到的参数为δ(*)和μ(*),则AdaIn层通过下面公式完成两种属性的融合:
然后,利用最近邻插值算法实现融合特征的上采样,并送入5*5卷积层完成最终解码,输出生成图像。
本发明与现有技术相比,具有如下优点与有益效果:
1、提出了一种无监督多模态对抗自编码的图像生成方法及框架,实现了单一域数据的多模态图像翻译。
2、提出了可变属性编码器和固有属性编码器,通过提供不同类型的单域数据,可自动捕捉其公共属性和差异性属性,灵活支持色彩、光照、图像内容等各种属性的多模态变换。
3、提出了一种实例正则化密集残差块,在确保语义特征不变的前提下,可使生成图像保留更加丰富的细节特征。
4、同样支持有监督数据的多模态变换,且可生成语义标签一致、固有属性和可变属性联合变换的多样化图像。
附图说明
图1为本发明的整体架构图;图中,Variable Attribute Encoder为可变属性编码器,Inherent Attribute Encoder为固有属性编码器。
图2为本发明的固有属性编码器、可变属性编码器架构图;图中,Conv为卷积,Relu为非线性激活函数,Pooling为池化,IN-RDB为实例正则化密集残差块。
图3为实例正则化密集残差块架构图。
图4为本发明的解码器架构图。
图5为实施例中对抗网络(Adversarial Network)架构图。
图6为无监督数据下可变属性多模态变换图。
图7为handbag数据集多模态变换结果。
图8为winter数据集多模态变换结果。
图9为horse数据集多模态变换结果。
图10为chair数据集多模态变换结果。
具体实施方式
下面结合具体实施例对本发明作进一步说明。
本实施例所提供的无监督多模态对抗自编码的图像生成方法,实现了单一域数据的多模态图像翻译。如图1所示,展示了我们的整体网络框架,编码器将样本分解成可变属性编码EV和固有属性编码EI。将可变属性编码进行对抗训练。随机从可变属性编码的先验分布空间中采样,并联合固有属性编码通过解码器,完成单一域数据的多模态翻译,实现多属性的变换并生成对应的图像。其包括以下步骤:
1)输入一组共n个同域的图像数据,它们来自于相同的数据分布,彼此共享部分公有属性,且各自拥有一些差异属性;
2)将输入的图像数据分别传入到可变属性编码器和固有属性编码器中,解耦出数据的固有属性编码和可变属性编码;
对输入数据的差异性属性编码,引入可变属性编码器(VAE),产生可变属性编码EV以及可变属性空间分布p(v)。对输入数据的固有属性编码,引入固有属性编码器(IAE),产生固有属性编码EI以及固有属性空间分布q(i)。
固有属性编码器架构和可变属性编码器架构如图2所示。固有属性编码器数据间的公有属性作为固有属性,采用卷积、下采样、残差块的设计模式,提取图像特征并编码,记为固有属性编码EI;其中,所述卷积共包含五个卷积层,第一个为7*7卷积层,第二至第五个是4个连续的4*4卷积层;而最后的残差块设计为一种实例正则化密集残差块,其结构如图3所示。可变属性编码器将数据间的差异属性作为可变属性,采用卷积、全局池化、再卷积的设计模式,提取图像特征并编码,记为可变属性编码EV;其中,所述卷积共包含五个卷积层,第一个为7*7卷积层,第二至第五个是4个连续的4*4卷积层;紧随其后的是全局池化层和1*1再卷积层。可变属性编码器与固有属性编码器不同的是,为充分捕捉数据的可变属性,可变属性编码器的每个卷积之后不再保留实例正则层。
3)在无监督条件下,将可变属性编码及其相应的对抗网络进行对抗学习,以求解出可变属性编码的先验分布空间;
将可变属性编码器产生的编码送入至对抗网络进行对抗学习。如图5所示,对抗网络由(256,64,16,1)连续四个全连接层组成,将来自可变属性编码器中解耦出的可变属性编码所对应的分布作为先验分布,从正态分布中随机采样的噪声数据所对应的分布为后验分布,从先验分布和后验分布中均随机采样相同维度的数据送入对抗网络中,最后输出为0或1的二分类结果。后验分布是已经知道的正态分布,通过对抗网络,当先验分布和后验分布的对抗学习达到平衡后,先验分布可近似等价为后验分布。
4)在无监督条件下,随机从可变属性编码的先验分布空间中采样,并联合固有属性编码通过解码器,完成单一域数据的多模态翻译,实现多属性的变换并生成对应的图像;
可变属性编码通过对抗网络产生的先验分布和固有属性编码通过解码器产生多模态的变换,多模态变换过程如图6所示。解码器架构如图4所示,解码器由以可变属性编码EV为输入,先后通过1*1*8、1*1*256和1*1*256的3个多层感知机(MLP,MultilayerPerceptron),将可变属性编码映射为256维特征,并连同固有属性编码共同输入自适应正则化AdaIn层(Adaptive Instance Normalization);AdaIn层完成两种属性的融合。然后,利用最近邻插值算法实现融合特征的上采样,并送入5*5卷积层完成最终解码,输出生成图像。
在步骤2)中,通过由固有属性编码器和可变属性编码器构成的自动编码器,将输入图像解耦出固有属性编码和可变属性编码。输入域X内的一幅图像x,将其解耦并编码为固有属性编码EI和可变属性EV,由于要求重构图像和输入图像一致,故其重构损失通过如下公式求解。
式中D(*1,*2)表示对固有属性和可变属性二元组(*1,*2)解码后的输出图像,||*||1表示L1正则化范数。
步骤3)中,将可变属性编码器产生的可变属性编码传入对抗网络中,对抗网络需要做到能够区分输入编码来自于真实数据分布q(v)还是空间采样p(v),则针对可变属性编码对抗损失和可变属性的重构损失/>可由如下公式求解。
式中式中D(*1,*2)表示对固有属性和可变属性二元组(*1,*2)解码后的输出图像,||*||1表示L1正则化范数。
步骤4)中,随机从可变属性编码经过对抗网络得到的先验分布空间中采样,并联合固有属性编码通过解码器进行解码,完成单一域数据的多模态翻译,综合图像重构损失可变属性对抗损失/>可变属性的重构损失/>可得到无监督多属性变换的整体网络损失/>可由如下公式求解。
式中,λ1,λ2和λ3为超参数,表示各个损失在整体损失中所占比重。
实验配置:本文实验的硬件环境为Intel Core i7 2600k+GTX 1070 8G+8G RAM,软件环境为windows 7 x64+CUDA 8.0+cuDNN 5.1+TensorFlow+Python。
数据集:本文选择了4种不同类型、不同分辨率的数据集作为测试数据。
handbag数据集:来自于Isola等人提供的数据集,共包含17个不同款式的包,本文选用9款包型作为训练集,8款包型作为测试集。数据集内所有图像为256*256的彩色图像。实验结果如图7所示,包的整体变换结果自然真实,第一行中所输入的包具有镂空设计,而输出结果在凹凸特征间的颜色过渡非常自然;对于第二行和第三行输入的包,输出结果在不同的纹理特征和细节图案上做到了颜色的合理变换;针对最后一行输入的包,输出结果在颜色变换中充分保留了包的褶皱效果。
winter数据集:来自于Yosemite summer&winter数据集中的winter数据,共包含1200张图像,本文选用962张作为训练集,238张作为测试集。数据集内所有图像为256*256的彩色图像。实验结果如图8所示,针对第一行的树林景色,输出结果在冬天背景和树叶颜色上均实现了良好的过渡;对于第二行的山水景色,输出结果中不仅天空有了很明显的变化,高山和湖面也发生了相应的改变;对于第三行的房屋,墙面和光照有很明显的变化;对于第四行的山景,云雾以及山上的灯光都有相应的自然变化。
horse数据集:来自于horse-zebra数据集中的horse部分,共包含1187张图像,本文选用1067张作为训练集,120张作为测试集。数据集内所有图像为256*256的彩色图像。实验结果如图9所示,除了马本身的颜色有所变化,其所处的环境,包括天空、白云、草地、树木、山体均发生了相适应的变化,整体效果自然真实。
chair数据集:来自于三维模型数据集ModelNet中的chair类,共包含29个三维模型。针对每个三维模型,本文采用冯氏光照模型和高洛德着色方案进行视图渲染,每隔30°构建一张视图,共得到348张64*64的彩色图像。实验中,选用264张图像作为训练集,84张图像作为测试集。实验结果如图10所示,非监督的情况下,可生成旋转角度完全一致不同类型的椅子视图。这一实验也再次说明了本文算法在非监督的情况下,可灵活定义固有属性和可变属性,生成一系列所需图像。
以上所述实施例只为本发明之较佳实施例,并非以此限制本发明的实施范围,故凡依本发明之形状、原理所作的变化,均应涵盖在本发明的保护范围内。
Claims (2)
1.一种无监督多模态对抗自编码的图像生成方法,其特征在于,包括以下步骤:
S1、输入一组共n个同域的图像数据,它们来自于相同的数据分布,彼此共享部分公有属性,且各自拥有一些差异属性;相同的数据分布指的是数据的来源具有一致性;差异属性指的是在图像中,同一个物体在不同季节、不同光照、不同时间和不同角度下产生的变化;
S2、将输入的图像数据分别传入到可变属性编码器和固有属性编码器中,解耦出数据的固有属性编码和可变属性编码;
可变属性编码器将数据间的差异属性作为可变属性,采用卷积、全局池化、再卷积的设计模式,提取图像特征并编码,记为可变属性编码EV;其中,所述卷积共包含五个卷积层,第一个为7*7卷积层,旨在进行浅层特征的初步提取,第二至第五个是4个连续的4*4卷积层,旨在同时实现图像的下采样和特征的进一步抽象;紧随其后的是全局池化层和1*1再卷积层,都旨在提取图像的高度抽象特征;
固有属性编码器将数据间的公有属性作为固有属性,采用卷积、下采样、残差块的设计模式,提取图像特征并编码,记为固有属性编码EI;其中,所述卷积共包含五个卷积层,第一个为7*7卷积层,旨在进行浅层特征的初步提取,第二至第五个是4个连续的4*4卷积层,旨在同时实现图像的下采样和特征的进一步抽象;所述下采样的作用是降低特征维度,减少冗余信息;而最后的残差块设计为一种实例正则化密集残差块,目的是确保语义特征不变的前提下保留更加丰富的细节特征;
S3、在无监督条件下,将可变属性编码及其相应的对抗网络进行对抗学习,以求解出可变属性编码的先验分布空间;
对抗网络由(256,64,16,1)连续四个全连接层组成,将来自可变属性编码器中解耦出的可变属性编码所对应的分布作为先验分布,从正态分布中随机采样的噪声数据所对应的分布为后验分布,从先验分布和后验分布中随机采样相同维度的数据送入对抗网络中,最后输出为0或1的二分类结果;后验分布是已经知道的正态分布,通过对抗网络,当先验分布和后验分布的对抗学习达到平衡后,先验分布能够近似等价为后验分布;
S4、在无监督条件下,随机从可变属性编码的先验分布空间中采样,并联合固有属性编码通过解码器,完成单一域数据的多模态翻译,实现多属性的变换并生成对应的图像;
解码器以可变属性编码器提取的可变属性编码EV为输入,先后通过1*1*8、1*1*256和1*1*256的3个多层感知机MLP,将可变属性编码映射为256维特征,并连同固有属性编码共同输入自适应正则化AdaIn层;设可变属性特征为xv,固有属性特征为xI,通过MLP得到的参数为δ(*)和μ(*),则AdaIn层通过下面公式完成两种属性的融合:
然后,利用最近邻插值算法实现融合特征的上采样,并送入5*5卷积层完成最终解码,输出生成图像。
2.一种无监督多模态对抗自编码的图像生成框架,其特征在于:包括固有属性编码器、可变属性编码器、解码器和对抗网络,其中:
所述固有属性编码器用于在无监督多模态对抗自编码中,以同域内的一组数据为输入,将数据间的公有属性作为固有属性,提取图像特征并编码,记为固有属性编码EI;所述固有属性编码器采用卷积、下采样、残差块的设计模式,所述卷积共包含五个卷积层,第一个为7*7卷积层,旨在进行浅层特征的初步提取,第二至第五个是4个连续的4*4卷积层,旨在同时实现图像的下采样和特征的进一步抽象;所述下采样的作用是降低特征维度,减少冗余信息;而最后的残差块设计为一种实例正则化密集残差块,目的是确保语义特征不变的前提下保留更加丰富的细节特征;
所述可变属性编码器以同域内的一组数据为输入,将数据间的差异属性作为可变属性,提取图像特征并编码,记为可变属性编码EV;所述可变属性编码器采用卷积、全局池化、卷积的设计模式,卷积共包含五个卷积层,第一个为7*7卷积层,旨在进行浅层特征的初步提取,第二至第五个是4个连续的4*4卷积层,旨在同时实现图像的下采样和特征的进一步抽象;紧随其后的是全局池化层和1*1再卷积层,都旨在提取图像的高度抽象特征;
所述对抗网络由(256,64,16,1)连续四个全连接层组成,将来自可变属性编码器中解耦出的可变属性编码所对应的分布作为先验分布,从正态分布中随机采样的噪声数据所对应的分布为后验分布,从先验分布和后验分布中均随机采样相同维度的数据送入对抗网络中,最后输出为0或1的二分类结果,后验分布是已经知道的正态分布,通过对抗网络,当先验分布和后验分布的对抗学习达到平衡后,先验分布能够近似等价为后验分布;
所述解码器以可变属性编码EV为输入,先后通过1*1*8、1*1*256和1*1*256的3个多层感知机MLP,将可变属性编码映射为256维特征,并连同固有属性编码共同输入自适应正则化AdaIn层;设可变属性特征为xv,固有属性特征为xI,通过MLP得到的参数为δ(*)和μ(*),则AdaIn层通过下面公式完成两种属性的融合:
然后,利用最近邻插值算法实现融合特征的上采样,并送入5*5卷积层完成最终解码,输出生成图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910454914.8A CN110163796B (zh) | 2019-05-29 | 2019-05-29 | 一种无监督多模态对抗自编码的图像生成方法及框架 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910454914.8A CN110163796B (zh) | 2019-05-29 | 2019-05-29 | 一种无监督多模态对抗自编码的图像生成方法及框架 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110163796A CN110163796A (zh) | 2019-08-23 |
CN110163796B true CN110163796B (zh) | 2023-03-24 |
Family
ID=67629643
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910454914.8A Active CN110163796B (zh) | 2019-05-29 | 2019-05-29 | 一种无监督多模态对抗自编码的图像生成方法及框架 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110163796B (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110598719A (zh) * | 2019-09-11 | 2019-12-20 | 南京师范大学 | 一种依据视觉属性描述自动生成人脸图像的方法 |
US11301724B2 (en) * | 2020-04-30 | 2022-04-12 | Robert Bosch Gmbh | Semantic adversarial generation based function testing method in autonomous driving |
CN112148997B (zh) * | 2020-08-07 | 2023-11-28 | 江汉大学 | 一种用于灾害事件检测的多模态对抗模型的训练方法和装置 |
CN112529772A (zh) * | 2020-12-18 | 2021-03-19 | 深圳龙岗智能视听研究院 | 一种零样本设置下的无监督图像转换方法 |
CN114791958B (zh) * | 2022-04-28 | 2023-04-07 | 电子科技大学 | 一种基于变分自编码器的零样本跨模态检索方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10043261B2 (en) * | 2016-01-11 | 2018-08-07 | Kla-Tencor Corp. | Generating simulated output for a specimen |
US11113599B2 (en) * | 2017-06-22 | 2021-09-07 | Adobe Inc. | Image captioning utilizing semantic text modeling and adversarial learning |
US10753997B2 (en) * | 2017-08-10 | 2020-08-25 | Siemens Healthcare Gmbh | Image standardization using generative adversarial networks |
CN109543745B (zh) * | 2018-11-20 | 2021-08-24 | 江南大学 | 基于条件对抗自编码网络的特征学习方法及图像识别方法 |
CN109815928B (zh) * | 2019-01-31 | 2021-05-11 | 中国电子进出口有限公司 | 一种基于对抗学习的人脸图像合成方法和装置 |
-
2019
- 2019-05-29 CN CN201910454914.8A patent/CN110163796B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN110163796A (zh) | 2019-08-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110163796B (zh) | 一种无监督多模态对抗自编码的图像生成方法及框架 | |
CN110310221B (zh) | 一种基于生成对抗网络的多域图像风格迁移方法 | |
CN109815928B (zh) | 一种基于对抗学习的人脸图像合成方法和装置 | |
CN110335193B (zh) | 一种基于生成对抗网络的目标域导向的无监督图像转换方法 | |
CN109389671A (zh) | 一种基于多阶段神经网络的单图像三维重建方法 | |
CN110610464A (zh) | 一种基于稠密残差神经网络的人脸图像超分辨率方法 | |
CN112967178B (zh) | 一种图像转换方法、装置、设备及存储介质 | |
CN108647560A (zh) | 一种基于cnn的保持表情信息的人脸转移方法 | |
CN110660020B (zh) | 一种基于融合互信息的对抗生成网络的图像超分辨率方法 | |
CN113051420B (zh) | 一种基于文本生成视频机器人视觉人机交互方法及系统 | |
CN112598775B (zh) | 一种基于对比学习的多视图生成方法 | |
CN112288627A (zh) | 一种面向识别的低分辨率人脸图像超分辨率方法 | |
Berrahal et al. | Optimal text-to-image synthesis model for generating portrait images using generative adversarial network techniques | |
WO2023151529A1 (zh) | 人脸图像的处理方法及相关设备 | |
CN111080521A (zh) | 一种基于结构先验的人脸图像超分辨率方法 | |
CN112766217B (zh) | 基于解纠缠和特征级差异学习的跨模态行人重识别方法 | |
CN114841859A (zh) | 基于轻量神经网络和Transformer的单图像超分辨率重建方法 | |
CN114783017A (zh) | 基于逆映射的生成对抗网络优化方法及装置 | |
CN112837210A (zh) | 一种基于特征图分块的多形变风格人脸漫画自动生成方法 | |
CN111222515A (zh) | 一种基于上下文感知注意力的图像翻译方法 | |
CN115546338A (zh) | 基于Transformer与生成对抗网络的图像着色方法 | |
Bai et al. | Itstyler: Image-optimized text-based style transfer | |
CN114494387A (zh) | 一种生成数据集网络模型及雾图生成方法 | |
CN113436094A (zh) | 一种基于多视角注意力机制的灰度图像自动上色方法 | |
Kim et al. | Infrared image colorization network using variational autoencoder |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |