CN109829537B - 基于深度学习gan网络童装服装的风格转移方法及设备 - Google Patents
基于深度学习gan网络童装服装的风格转移方法及设备 Download PDFInfo
- Publication number
- CN109829537B CN109829537B CN201910089034.5A CN201910089034A CN109829537B CN 109829537 B CN109829537 B CN 109829537B CN 201910089034 A CN201910089034 A CN 201910089034A CN 109829537 B CN109829537 B CN 109829537B
- Authority
- CN
- China
- Prior art keywords
- child
- style
- generator
- style image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 33
- 238000012546 transfer Methods 0.000 title claims abstract description 23
- 238000013135 deep learning Methods 0.000 title claims abstract description 14
- 239000013598 vector Substances 0.000 claims abstract description 123
- 238000012549 training Methods 0.000 claims description 36
- 238000004364 calculation method Methods 0.000 claims description 34
- 210000002569 neuron Anatomy 0.000 claims description 29
- 238000010606 normalization Methods 0.000 claims description 26
- 238000013528 artificial neural network Methods 0.000 claims description 19
- 238000013527 convolutional neural network Methods 0.000 claims description 17
- 230000008569 process Effects 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 9
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000013523 data management Methods 0.000 claims description 7
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 8
- 230000004913 activation Effects 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 208000009119 Giant Axonal Neuropathy Diseases 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 201000003382 giant axonal neuropathy 1 Diseases 0.000 description 2
- 238000007619 statistical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Abstract
本发明提供一种基于深度学习GAN网络童装服装的风格转移方法,1、选取童装款式图像A,判断是否为真,是则进入2;否则结束;2、输入图像A,通过第一编码器进行编码,提取特征向量a1并压缩成特征向量a2;3、将不同特征向量a2进行组合,通过第一转换器将DA域转换为DB域;4、通过第一解码器将特征向量a2还原,生成童装款式图像B;5、判断图像B是否为真,是则进入6;否则进入2;6、输入图像B,通过第二编码器进行编码,提取特征向量b1压缩成特征向量b2;7、组合不同特征向量b2,通过第二转换器将DB域转换为DA域;8、通过第二解码器将特征向量a2还原,生成图像A。本发明提供一种计算机设备,减少人工成本。
Description
技术领域
本发明涉及深度学习领域,特别是涉及一种基于深度学习GAN网络童装服装的风格转移方法,是大数据下生成式对抗网络对童装服装的风格转移应用。
背景技术
服装业是传统工业大分工、大流水、大批量生产的典型代表。每个服装企业只能生产一种或几种服装品类,这决定了纸样技术只能沿用本企业所涉及的服装品类进行技术积累。新的消费追求时尚化、个性化、品牌化、定制化,使消费行为和习惯多元而分散。
利用hadoop技术对童装海量纸样进行分布式处理,并对数据进行可视化分析,得到各种款式风格的童装纸样库,利用生成对抗网络(GAN)产生一种新的童装服装纸样风格,目前,深度学习领域的图像生成,风格迁移,图像变换,图像描述,无监督学习,甚至强化学习领域都能看到GAN的身影。GAN主要针对的是一种生成类问题。目前深度学习领域可以分为两大类,其中一个是检测识别,比如图像分类,目标识别等,此类模型主要是VGG,GoogLenet,residual net等,目前几乎所有的网络都是基于识别的;另一种是图像生成,即解决如何从一些数据里生成出图像的问题。
发明内容
本发明要解决的技术问题之一,在于提供一种基于深度学习GAN网络童装服装的风格转移方法,解决了服装业有品质无时尚、有时尚无品质、产生大量积压的困境;为改变常规涉及理念,在大数据时代下对海量童装纸样数据的处理,采用图像分割技术对童装纸样风格和部位进行区域分割,同时采用生成对抗网络模型的生成模型(Generative Model)和判别模型(Discriminative Model)的相互博弈学习产生相当好的新的童装风格纸样的输出。
本发明的问题之一,是这样实现的:
一种基于深度学习GAN网络童装服装的风格转移方法,该风格转移方法需提供一个CycleGAN网络,CycleGAN网络包括第一GAN网络和第二GAN网络,所述第一GAN网络包括第一生成器和第一判别器,所述第二GAN网络包括第二生成器和第二判别器,所述第一生成器包括第一编码器、第一转换器及第一解码器,所述第二生成器包括第二编码器、第二转换器及第二解码器;所述风格转移方法包括如下步骤:
步骤S1、选取童装款式图像A作为第一判别器的输入,通过第一判别器将该童装款式图像A与真实的童装款式图像A’进行对比,判断该童装款式图像A是否为真,若是,则进入步骤S2;若否,则结束流程;
步骤S2、将该童装款式图像A输入到第一生成器中,通过第一编码器对童装款式图像A进行编码,利用卷积神经网络从中提取出具有原格式的特征向量a1,并将该特征向量a1压缩成复数个设定格式的特征向量a2;
步骤S3、将不同的特征向量a2进行组合,采用5层DenseNet模块,并通过第一转换器将童装款式图像A在DA域中的特征向量a2转换为DB域中的特征向量a2;
步骤S4、利用反卷积神经网络,并通过第一解码器将DB域中设定格式的特征向量a2还原成原格式,生成童装款式图像B;
步骤S5、将童装款式图像B作为第二判别器的输入,通过第二判别器将生成的童装款式图像B与真实的童装款式图像B’进行对比,判断该童装款式图像B是否为真,若是,则进入步骤S6;若否,则进入步骤S2;
步骤S6、将该童装款式图像B输入到第二生成器中,通过第二编码器对童装款式图像B进行编码,利用卷积神经网络从中提取出具有原格式的特征向量b1,并将该特征向量b1压缩成复数个设定格式的特征向量b2;
步骤S7、将不同的特征向量b2进行组合,采用5层DenseNet模块,并通过第二转换器将童装款式图像B在DB域中的特征向量b2转换为DA域中的特征向量b2;
步骤S8、利用反卷积神经网络,并通过第二解码器将DA域中设定格式的特征向量a2还原成原格式,生成童装款式图像A。
进一步地,所述步骤S1之前还包括图像预处理步骤:采用Hadoop和Mahout的大数据管理分析系统,从各类大量的童装纸样图像中提取风格特征和部件特征,根据风格特征和部件特征建立相应的风格库和部件库,将所有童装纸样图像统一处理为256*256的原格式,并采用Hive数据仓库工具将采集到的所有童装纸样图像存储于对应种类的风格库和部件库中。
进一步地,所述步骤S2和步骤S5中:利用卷积神经网络从中提取出具有原格式的特征向量,并将该特征向量压缩成复数个设定格式的特征向量,具体为:
所述第一编码器和第二编码器均采用5个连续的卷积核大小为3、步长为2、填充大小为1的卷积层,每个卷积层之后还设有1个批处理归一化层;所述第一生成器输入的童装款式图像A依次通过5个卷积层,对童装款式图像A进行5次连续的卷积运算,每次卷积运算之后进行批处理归一化,该批处理归一化的计算公式为:
其中,训练过程采用一批随机梯度下降,于是E[x(k)]代表一批训练数据时各神经元输入值的平均值;代表一批训练数据时各神经元输入值的标准差,x(k)代表k神经元的输入值,/>代表k神经元输入值的估计值。
进一步地,所述步骤S4和步骤S8中:
所述第一解码器和第二解码器均采用具有ReLu操作的5个反卷积层,每两次反卷积运算后向上采样特征图;其中,ReLu操作的计算公式为:
进一步地,计算出所述第一生成器和第二生成器的重建loss,其计算公式为:
L(GAB,GBA,A,B)=Ea~A[||GBA(GAB(a))-a||1] (3)
其中,GAB和GBA分别为第一生成器和第二生成器,分别把DA域和DB域的童装款式图像进行互相转换;A表示童装款式图像A,B表示童装款式图像B,a为原图,GAB(a)为童装款式图像A经过第一生成器GAB处理后的图片,GBA(GAB(a))为第一生成器GAB处理后的图片经过第二生成器GBA后的重建图片,L(GAB,GBA,A,B)表示为第一生成器GAB和第二生成器GBA的损失,Ea~A[||GBA(GAB(a))-a||1]表示为童装款式图像A重建的损失;
计算出所述第一判别器和第二判别器的损失loss,其计算公式为:
LGAN(GAB,DB,A,B)=Eb~B[logDB(b)]+Ea~A[log(1-DB(GAB(a))] (4)
其中,GAB为第一生成器,DB为第二判别器,A表示童装款式图像A,B表示童装款式图像B,DB(b)为判断输入的图片b是否是真实的DB域的图片,LGAN(GAB,DB,A,B)表示为一个GAN的损失,Eb~B[logDB(b)]为原始真图片B的判别loss,Ea~A[log(1-DB(GAB(a))]为生成的假图片GAB(a)的判别loss。
本发明要解决的技术问题之一,在于提供一种计算机设备。
本发明的问题之二,是这样实现的:
一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
步骤S1、选取童装款式图像A作为第一判别器的输入,通过第一判别器将该童装款式图像A与真实的童装款式图像A’进行对比,判断该童装款式图像A是否为真,若是,则进入步骤S2;若否,则结束流程;
步骤S2、将该童装款式图像A输入到第一生成器中,通过第一编码器对童装款式图像A进行编码,利用卷积神经网络从中提取出具有原格式的特征向量a1,并将该特征向量a1压缩成复数个设定格式的特征向量a2;
步骤S3、将不同的特征向量a2进行组合,采用5层DenseNet模块,并通过第一转换器将童装款式图像A在DA域中的特征向量a2转换为DB域中的特征向量a2;
步骤S4、利用反卷积神经网络,并通过第一解码器将DB域中设定格式的特征向量a2还原成原格式,生成童装款式图像B;
步骤S5、将童装款式图像B作为第二判别器的输入,通过第二判别器将生成的童装款式图像B与真实的童装款式图像B’进行对比,判断该童装款式图像B是否为真,若是,则进入步骤S6;若否,则进入步骤S2;
步骤S6、将该童装款式图像B输入到第二生成器中,通过第二编码器对童装款式图像B进行编码,利用卷积神经网络从中提取出具有原格式的特征向量b1,并将该特征向量b1压缩成复数个设定格式的特征向量b2;
步骤S7、将不同的特征向量b2进行组合,采用5层DenseNet模块,并通过第二转换器将童装款式图像B在DB域中的特征向量b2转换为DA域中的特征向量b2;
步骤S8、利用反卷积神经网络,并通过第二解码器将DA域中设定格式的特征向量a2还原成原格式,生成童装款式图像A。
进一步地,所述步骤S1之前还包括图像预处理步骤:采用Hadoop和Mahout的大数据管理分析系统,从各类大量的童装纸样图像中提取风格特征和部件特征,根据风格特征和部件特征建立相应的风格库和部件库,将所有童装纸样图像统一处理为256*256的原格式,并采用Hive数据仓库工具将采集到的所有童装纸样图像存储于对应种类的风格库和部件库中。
进一步地,所述步骤S2和步骤S5中:利用卷积神经网络从中提取出具有原格式的特征向量,并将该特征向量压缩成复数个设定格式的特征向量,具体为:
所述第一编码器和第二编码器均采用5个连续的卷积核大小为3、步长为2、填充大小为1的卷积层,每个卷积层之后还设有1个批处理归一化层;所述第一生成器输入的童装款式图像A依次通过5个卷积层,对童装款式图像A进行5次连续的卷积运算,每次卷积运算之后进行批处理归一化,该批处理归一化的计算公式为:
其中,训练过程采用一批随机梯度下降,于是E[x(k)]代表一批训练数据时各神经元输入值的平均值;代表一批训练数据时各神经元输入值的标准差,x(k)代表k神经元的输入值,/>代表k神经元输入值的估计值。
进一步地,所述步骤S4和步骤S8中:
所述第一解码器和第二解码器均采用具有ReLu操作的5个反卷积层,每两次反卷积运算后向上采样特征图;其中,ReLu操作的计算公式为:
进一步地,计算出所述第一生成器和第二生成器的重建loss,其计算公式为:
L(GAB,GBA,A,B)=Ea~A[||GBA(GAB(a))-a||1] (3)
其中,GAB和GBA分别为第一生成器和第二生成器,分别把DA域和DB域的童装款式图像进行互相转换;A表示童装款式图像A,B表示童装款式图像B,a为原图,GAB(a)为童装款式图像A经过第一生成器GAB处理后的图片,GBA(GAB(a))为第一生成器GAB处理后的图片经过第二生成器GBA后的重建图片,L(GAB,GBA,A,B)表示为第一生成器GAB和第二生成器GBA的损失,
Ea~A[||GBA(GAB(a))-a||1]表示为童装款式图像A重建的损失;
计算出所述第一判别器和第二判别器的损失loss,其计算公式为:
LGAN(GAB,DB,A,B)=Eb~B[logDB(b)]+Ea~A[log(1-DB(GAB(a))] (4)
其中,GAB为第一生成器,DB为第二判别器,A表示童装款式图像A,B表示童装款式图像B,DB(b)为判断输入的图片b是否是真实的DB域的图片,LGAN(GAB,DB,A,B)表示为一个GAN的损失,Eb~B[logDB(b)]为原始真图片B的判别loss,Ea~A[log(1-DB(GAB(a))]为生成的假图片GAB(a)的判别loss。
本发明的优点在于:本发明提出采用Hadoop进行对童装大数据进行处理,建立童装款式部件库和风格库等,将原始域图像,通过生成器5个连续的卷积运算,在每个卷积运算之后进行批处理归层(BN)后,通过转换器的6层DenseNet,将图像的特征向量从DA域转换为DB域的特征向量,然后在解码过程中通过ReLu操作的5个反卷积,进行每两次向上采样特征图,生成童装新款式,即目标域风格,接着将这张新转换的图像作为输入,重新转成原始域风格,经过鉴别器尝试预测其为原始图像或是生成器的输出的图像,经过多次训练得到的差异越小,神经网络学到的童装风格的特征关联就越多,转换效果就越好。实验结果证明,本发明的一种基于深度学习GAN网络童装服装的风格转移方法,可得到符合人们审美观的新童装风格款式,改变传统的服装设计师设计童装款式方式,减少人工成本和等待时间。
附图说明
下面参照附图结合实施例对本发明作进一步的说明。
图1为本发明一种基于深度学习GAN网络童装服装的风格转移方法的执行流程图。
图2为本发明的CycleGAN网络的结构示意图。
图3为本发明的GAN网络的生成器的结构示意图。
图4为本发明的GAN网络的判别器的结构示意图。
图5为本发明的Densenet Block的结构示意图。
图6为本发明的CycleGAN训练过程图之一。
图7为本发明的CycleGAN训练过程图之二。
图8为本发明的CycleGAN网络男童整体风格转移示意图。
图9为本发明的CycleGAN网络领口风格转移示意图。
具体实施方式
为使得本发明更明显易懂,现以一优选实施例,并配合附图作详细说明如下。
如图1所示,本发明的一种基于深度学习GAN网络童装服装的风格转移方法,该风格转移方法需提供一个CycleGAN网络,CycleGAN网络包括第一GAN网络和第二GAN网络,所述第一GAN网络包括第一生成器和第一判别器,所述第二GAN网络包括第二生成器和第二判别器,所述第一生成器包括第一编码器、第一转换器及第一解码器,所述第二生成器包括第二编码器、第二转换器及第二解码器;所述方法包括如下步骤:
步骤S0、对于大量的童装服装款式数据,利用Hadoop大数据处理软件,采用Hadoop和Mahout的大数据管理分析系统,从各类大量的童装纸样图像中提取风格特征和部件特征,根据风格特征和部件特征建立相应的风格库和部件库,将所有童装纸样图像统一处理为256*256的原格式,并采用Hive数据仓库工具将采集到的所有童装纸样图像存储于对应种类的风格库和部件库中;Hive数据仓库工具的作用是存储采集到的所有样本数据,Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能,本质是将SQL转换为MapReduce程序,适合用来做批量数据统计分析;
步骤S1、选取童装款式图像A作为第一判别器的输入,通过第一判别器将该童装款式图像A与真实的童装款式图像A’进行对比,第一判别器努力的把伪造数据和真实数据分开,判断该童装款式图像A是否为真,若是,则进入步骤S2;若否,则结束流程;
步骤S2、将该童装款式图像A输入到第一生成器中,通过第一编码器对童装款式图像A进行编码,利用卷积神经网络从中提取出具有原格式的特征向量a1,并将该特征向量a1压缩成复数个设定格式的特征向量a2,如:将1个256*256的特征向量压缩成256个64*64的特征向量;所述第一编码器采用5个连续的卷积核大小为3、步长为2、填充大小为1的卷积层,每个卷积层之后还设有1个批处理归一化层(BN层);所述第一生成器输入的童装款式图像A依次通过5个卷积层,对童装款式图像A进行5次连续的卷积运算,每次卷积运算之后进行批处理归一化,该批处理归一化的计算公式为:
其中,训练过程采用一批随机梯度下降,于是E[x(k)]代表一批训练数据时各神经元输入值的平均值;代表一批训练数据时各神经元输入值的标准差,x(k)代表k神经元的输入值,/>代表k神经元输入值的估计值;
步骤S3、将不同的特征向量a2进行组合,采用5层DenseNet模块,每个DenseNet模块是一个由两个卷积层构成的神经网络层,能够达到在转换时同时保留原始图像特征的目标,比以往的6层ResNet模块更少的参数和计算,本发明采用的是改进后的CycleGAN网络,是将原CycleGAN网络转换器的6层ResNet模块,改为5层DenseNet模块,DenseNet模块基本思路与ResNet模块基本一致,但是它建立的是前面所有层与后面层的密集连接,并且能通过特征在channel上的连接来实现特征重用,这些特点让DenseNet在参数和计算成本更少的情形下实现比ResNet更优的性能;并通过第一转换器将童装款式图像A在DA域中的特征向量a2转换为DB域中的特征向量a2;
步骤S4、利用反卷积神经网络(反卷积层(decovolution)),并通过第一解码器将DB域中设定格式的特征向量a2还原成原格式,如:将64*64格式还原成256*256格式,完成解码,最后将DA域中的数据拿过拼命的模仿成DB域数据并把它们藏在DB域数据中得到生成童装款式图像B;所述第一解码器采用具有ReLu操作的5个反卷积层,每两次反卷积运算后向上采样特征图,采用这种跳跃式传递被用于从步骤S3主干网传递信息到步骤S4反卷积特征图,从而获得更有效的特征集;其中,线性整流函数(Rectified Linear Unit,ReLU),又称修正线性单元,是一种人工神经网络中常用的激活函数(activation function),通常指代以斜坡函数及其变种为代表的非线性函数。ReLu操作的计算公式为:
步骤S5、将童装款式图像B作为第二判别器的输入,通过第二判别器将生成的童装款式图像B与真实的童装款式图像B’进行对比,第二判别器努力的把伪造数据和真实数据分开,即预测其为原始图像或是生成器的输出图像,判断该童装款式图像B是否为真,若是,则进入步骤S6;若否,则进入步骤S2;
步骤S6、将该童装款式图像B输入到第二生成器中,通过第二编码器对童装款式图像B进行编码,利用卷积神经网络从中提取出具有原格式的特征向量b1,并将该特征向量b1压缩成复数个设定格式的特征向量b2,如:将1个256*256的特征向量压缩成256个64*64的特征向量;所述第二编码器采用5个连续的卷积核大小为3、步长为2、填充大小为1的卷积层,每个卷积层之后还设有1个批处理归一化层(BN层);所述第一生成器输入的童装款式图像A依次通过5个卷积层,对童装款式图像A进行5次连续的卷积运算,每次卷积运算之后进行批处理归一化,该批处理归一化的计算公式为:
其中,训练过程采用一批随机梯度下降,于是E[x(k)]代表一批训练数据时各神经元输入值的平均值;代表一批训练数据时各神经元输入值的标准差,x(k)代表k神经元的输入值,/>代表k神经元输入值的估计值;
步骤S7、将不同的特征向量b2进行组合,采用5层DenseNet模块,每个DenseNet模块是一个由两个卷积层构成的神经网络层,能够达到在转换时同时保留原始图像特征的目标,比以往的6层ResNet模块更少的参数和计算;并通过第二转换器将童装款式图像B在DB域中的特征向量b2转换为DA域中的特征向量b2;
步骤S8、利用反卷积神经网络(反卷积层(decovolution)),并通过第二解码器将DA域中设定格式的特征向量a2还原成原格式,如:将64*64格式还原成256*256格式,完成解码,最后将DA域中的数据拿过拼命的模仿成DB域数据并把它们藏在DB域数据中得到生成童装款式图像A;所述第二解码器采用具有ReLu操作的5个反卷积层,每两次反卷积运算后向上采样特征图,采用这种跳跃式传递被用于从步骤S3主干网传递信息到步骤S4反卷积特征图,从而获得更有效的特征集;其中,线性整流函数(Rectified Linear Unit,ReLU),又称修正线性单元,是一种人工神经网络中常用的激活函数(activation function),通常指代以斜坡函数及其变种为代表的非线性函数。ReLu操作的计算公式为:
优选地,所述CycleGan网络含有两个GAN共享两个生成器,并各自带一个判别器,即共有两个判别器和两个生成器。一个单向GAN有两个loss,分别是生成器的重建loss和判别器的判别loss,两个GAN即共四个loss。
重建Loss希望生成的图片GBA(GAB(a))与原图a尽可能的相似,计算出所述第一生成器和第二生成器的重建loss,其计算公式为:
L(GAB,GBA,A,B)=Ea~A[||GBA(GAB(a))-a||1] (3)
其中,GAB和GBA分别为第一生成器和第二生成器,分别把DA域和DB域的童装款式图像进行互相转换;A表示童装款式图像A,B表示童装款式图像B,a为原图,GAB(a)为童装款式图像A经过第一生成器GAB处理后的图片,GBA(GAB(a))为第一生成器GAB处理后的图片经过第二生成器GBA后的重建图片,L(GAB,GBA,A,B)表示为第一生成器GAB和第二生成器GBA的损失,Ea~A[||GBA(GAB(a))-a||1]表示为童装款式图像A重建的损失;
计算出所述第一判别器和第二判别器的损失loss,其计算公式为:
LGAN(GAB,DB,A,B)=Eb~B[logDB(b)]+Ea~A[log(1-DB(GAB(a))] (4)
其中,GAB为第一生成器,DB为第二判别器,A表示童装款式图像A,B表示童装款式图像B,DB(b)为判断输入的图片b是否是真实的DB域的图片,LGAN(GAB,DB,A,B)表示为一个GAN的损失,Eb~B[logDB(b)]为原始真图片B的判别loss,Ea~A[log(1-DB(GAB(a))]为生成的假图片GAB(a)的判别loss。
优选地,当重复步骤S1至步骤S8进行200次迭代,改进的CycleGAN网络稳定后,直接生成器生成童装新款式图像。
如图1所示,本发明的一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现以下步骤:
步骤S0、对于大量的童装服装款式数据,利用Hadoop大数据处理软件,采用Hadoop和Mahout的大数据管理分析系统,从各类大量的童装纸样图像中提取风格特征和部件特征,根据风格特征和部件特征建立相应的风格库和部件库,将所有童装纸样图像统一处理为256*256的原格式,并采用Hive数据仓库工具将采集到的所有童装纸样图像存储于对应种类的风格库和部件库中;Hive数据仓库工具的作用是存储采集到的所有样本数据,Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能,本质是将SQL转换为MapReduce程序,适合用来做批量数据统计分析;
步骤S1、选取童装款式图像A作为第一判别器的输入,通过第一判别器将该童装款式图像A与真实的童装款式图像A’进行对比,第一判别器努力的把伪造数据和真实数据分开,判断该童装款式图像A是否为真,若是,则进入步骤S2;若否,则结束流程;
步骤S2、将该童装款式图像A输入到第一生成器中,通过第一编码器对童装款式图像A进行编码,利用卷积神经网络从中提取出具有原格式的特征向量a1,并将该特征向量a1压缩成复数个设定格式的特征向量a2,如:将1个256*256的特征向量压缩成256个64*64的特征向量;所述第一编码器采用5个连续的卷积核大小为3、步长为2、填充大小为1的卷积层,每个卷积层之后还设有1个批处理归一化层(BN层);所述第一生成器输入的童装款式图像A依次通过5个卷积层,对童装款式图像A进行5次连续的卷积运算,每次卷积运算之后进行批处理归一化,该批处理归一化的计算公式为:
其中,训练过程采用一批随机梯度下降,于是E[x(k)]代表一批训练数据时各神经元输入值的平均值;代表一批训练数据时各神经元输入值的标准差,x(k)代表k神经元的输入值,/>代表k神经元输入值的估计值;
步骤S3、将不同的特征向量a2进行组合,采用5层DenseNet模块,每个DenseNet模块是一个由两个卷积层构成的神经网络层,能够达到在转换时同时保留原始图像特征的目标,比以往的6层ResNet模块更少的参数和计算,本发明采用的是改进后的CycleGAN网络,是将原CycleGAN网络转换器的6层ResNet模块,改为5层DenseNet模块,DenseNet模块基本思路与ResNet模块基本一致,但是它建立的是前面所有层与后面层的密集连接,并且能通过特征在channel上的连接来实现特征重用,这些特点让DenseNet在参数和计算成本更少的情形下实现比ResNet更优的性能;并通过第一转换器将童装款式图像A在DA域中的特征向量a2转换为DB域中的特征向量a2;
步骤S4、利用反卷积神经网络(反卷积层(decovolution)),并通过第一解码器将DB域中设定格式的特征向量a2还原成原格式,如:将64*64格式还原成256*256格式,完成解码,最后将DA域中的数据拿过拼命的模仿成DB域数据并把它们藏在DB域数据中得到生成童装款式图像B;所述第一解码器采用具有ReLu操作的5个反卷积层,每两次反卷积运算后向上采样特征图,采用这种跳跃式传递被用于从步骤S3主干网传递信息到步骤S4反卷积特征图,从而获得更有效的特征集;其中,ReLu操作的计算公式为:
步骤S5、将童装款式图像B作为第二判别器的输入,通过第二判别器将生成的童装款式图像B与真实的童装款式图像B’进行对比,第二判别器努力的把伪造数据和真实数据分开,即预测其为原始图像或是生成器的输出图像,判断该童装款式图像B是否为真,若是,则进入步骤S6;若否,则进入步骤S2;
步骤S6、将该童装款式图像B输入到第二生成器中,通过第二编码器对童装款式图像B进行编码,利用卷积神经网络从中提取出具有原格式的特征向量b1,并将该特征向量b1压缩成复数个设定格式的特征向量b2,如:将1个256*256的特征向量压缩成256个64*64的特征向量;所述第二编码器采用5个连续的卷积核大小为3、步长为2、填充大小为1的卷积层,每个卷积层之后还设有1个批处理归一化层(BN层);所述第一生成器输入的童装款式图像A依次通过5个卷积层,对童装款式图像A进行5次连续的卷积运算,每次卷积运算之后进行批处理归一化,该批处理归一化的计算公式为:
其中,训练过程采用一批随机梯度下降,于是E[x(k)]代表一批训练数据时各神经元输入值的平均值;代表一批训练数据时各神经元输入值的标准差,x(k)代表k神经元的输入值,/>代表k神经元输入值的估计值;
步骤S7、将不同的特征向量b2进行组合,采用5层DenseNet模块,每个DenseNet模块是一个由两个卷积层构成的神经网络层,能够达到在转换时同时保留原始图像特征的目标,比以往的6层ResNet模块更少的参数和计算;并通过第二转换器将童装款式图像B在DB域中的特征向量b2转换为DA域中的特征向量b2;
步骤S8、利用反卷积神经网络(反卷积层(decovolution)),并通过第二解码器将DA域中设定格式的特征向量a2还原成原格式,如:将64*64格式还原成256*256格式,完成解码,最后将DA域中的数据拿过拼命的模仿成DB域数据并把它们藏在DB域数据中得到生成童装款式图像A;所述第二解码器采用具有ReLu操作的5个反卷积层,每两次反卷积运算后向上采样特征图,采用这种跳跃式传递被用于从步骤S3主干网传递信息到步骤S4反卷积特征图,从而获得更有效的特征集;其中,ReLu操作的计算公式为:
优选地,所述CycleGan网络含有两个GAN共享两个生成器,并各自带一个判别器,即共有两个判别器和两个生成器。一个单向GAN有两个loss,分别是生成器的重建loss和判别器的判别loss,两个GAN即共四个loss。
重建Loss希望生成的图片GBA(GAB(a))与原图a尽可能的相似,计算出所述第一生成器和第二生成器的重建loss,其计算公式为:
L(GAB,GBA,A,B)=Ea~A[||GBA(GAB(a))-a||1] (3)
其中,GAB和GBA分别为第一生成器和第二生成器,分别把DA域和DB域的童装款式图像进行互相转换;A表示童装款式图像A,B表示童装款式图像B,a为原图,GAB(a)为童装款式图像A经过第一生成器GAB处理后的图片,GBA(GAB(a))为第一生成器GAB处理后的图片经过第二生成器GBA后的重建图片,L(GAB,GBA,A,B)表示为第一生成器GAB和第二生成器GBA的损失,Ea~A[||GBA(GAB(a))-a||1]表示为童装款式图像A重建的损失;
计算出所述第一判别器和第二判别器的损失loss,其计算公式为:
LGAN(GAB,DB,A,B)=Eb~B[logDB(b)]+Ea~A[log(1-DB(GAB(a))] (4)
其中,GAB为第一生成器,DB为第二判别器,A表示童装款式图像A,B表示童装款式图像B,DB(b)为判断输入的图片b是否是真实的DB域的图片,LGAN(GAB,DB,A,B)表示为一个GAN的损失,Eb~B[logDB(b)]为原始真图片B的判别loss,Ea~A[log(1-DB(GAB(a))]为生成的假图片GAB(a)的判别loss。
优选地,当重复步骤S1至步骤S8进行200次迭代,改进的CycleGAN网络稳定后,直接生成器生成童装新款式图像。
如图2至图5所示,本实施例的CycleGan网络含有两个GAN共享两个生成器,并各自带一个判别器,即共有两个判别器和两个生成器,每个生成器包括一个编码器、一个转换器和一个解码器,编码器采用多个卷积层构成的卷积网络,转换器采用5个Densenet模块,解码器采用多个反卷积层构成的反卷积网络,图3至图5中:Conv Layer:代表卷积层,DensenetBlock代表密集型网络模块,DeConvLayer代表反卷积层。本实施例采用的硬件实施为:转换器选用Intel(R)Core(TM)i7-4770KCPU3.40 GHz,显卡NVIDIA GeForce GTX1050Ti,显存容量为4GB,Windows 764位操作系统,Tensorflow1.5.0开源框架,Pycharm2017.3编码器,Python3.5解码器。基于CycleGan网络实现的童装服装的风格转移过程如图6和图7所示,其效果如图8和图9所示。
本实施例提供一种基于深度学习GAN网络童装服装的风格转移方法,具体包括以下步骤:
1、童装款式的大数据处理
从天猫、实体店、工厂款式等收集童装款式的图像,采用Hadoop和Mahout的大数据管理分析系统的结构,从各类大量的纸样中提取风格和部件的特征,并对其建立相应的风格库、部件库等。
2、生成器生成童装新款式图像
本案例选用CycleGAN网络,改进的CycleGAN网络训练过程如图6和图7所示,每个CycleGAN网络包括两个GAN网络进行童装新款式的生成,每个生成器包括编码器、转换器和解码器三部分,童装真实款式图像经过生成器得到童装新款式图像,得到的童装新款式图像再经过生成器得到生成童装真实款式图像,生成器生成童装新款式图像过程如下:
(1)对童装款式图像编码,利用卷积神经网络从中提取特征,将图像压缩成256个64*64的特征向量;
(2)组合图像的不相近特征,将图像在DA域中的特征向量转换为DB域中的特征向量,采用5层DenseNet模块,每个DenseNet模块是一个由两个卷积层构成的神经网络层,能够达到在转换时同时保留原始图像特征的目标;
(3)利用反卷积层完成从特征向量中还原出低级特征的工作,完成解码最后得到生成童装新款式图像;
3、判别器判别真伪
判别器将一张图像作为输入,并尝试预测其为原始图像或是生成器的输出图像。
判别器必须允许所有相应类别的原始图像,即对应输出置1;判别器必须拒绝所有想要愚弄过关的生成图像,即对应输出置0;生成器必须使判别器允许通过所有的生成图像,来实现愚弄操作;所生成的图像必须保留有原始图像的特性,所以如果我们使用生成器GeneratorA→B生成一张假图像,那么要能够使用另一个生成器GeneratorB→A来努力恢复成原始图像。此过程必须满足循环一致性。
4、代码具体操作如下
生成器的程序代码如下:
判别器的程序代码如下:
首先,建立一个train.py文件,在文件里建立一个名为Train的类,在类的初始化函数里进行一些初始化。
Self.build_model()函数用来存放构建流图部分的代码,下面会介绍,其他初始化的都是一些简单的参数。
下面先介绍生成器和判别器的网络,如图2所示。
生成器传进去三个参数,分别是名字,输入数据,和一个bool型状态变量reuse,用来表示生成器是否复用,reuse=True代表网络复用,False代表不复用。
生成器一共包括1个全连接层和4个转置卷积层,每一层后面都跟一个BN层,激活函数都选择ReLu。其中fc(),deconv2d()函数和bn()函数都是我们封装好的函数,代表全连接层,转置卷积层,和归一化层,其形式如图3所示。
全连接层fc的输入参数value指输入向量,output_shape指经过全连接层后输出的向量维度,比如我们生成器这里噪声向量维度是128,我们输出的是4*4*8*64维。
目前已经介绍了生成器的结构和一些基本函数,下面来介绍一下判别器,如图4所示。
与生成器不同的是,我们使用leakrelu作为激活函数。
已经介绍完了所有的初始化过程,接下来就是训练数据的提取和网络的训练部分了,训练数据我们使用和企业合作采集的数据集,一共1万张图像左右,数据集里的图像size并不是很一致,我们可以使用一小段代码把图像的童装部位截取下来,并resize到256*256大小。
下面就是训练部分了,首先是读取数据,load_data()函数每次会读取一个batch_size的数据作为网络的输入,在训练过程中,我们选择训练一次D训练两次G,而不是训练多次D之后训练一次G,不然容易发生训练不稳定的问题,因为D总是学的太好,很容易就判别出真假,所以导致G不论怎么改进都没有用,有些太打击G的造假积极性了。
Plot()函数会每训练100步后绘出网络loss的变化图像,是另外封装的函数
同时我们选择每训练400步生成一张图像,看一下生成器的效果。
load_data()函数我们并没有使用队列或者转化为record文件读取,这样的方式肯定会快一些,读取图像我们使用scipy.misc来读取,
具体是import scipy.misc as scm。
可以看到,我们首先对所有的图像做一个排序,返回一个列表,列表里存放的是每个图像的位置索引,这样做就是每次将一个batch_size的数据读到了内存里,读取的数据做了一个归一化操作,我们选择归一化到[-0.5,+0.5]。
在图8和图9中可以看出,利用CycleGAN能够训练出新的风格的童装,并取得了不错的效果。
虽然以上描述了本发明的具体实施方式,但是熟悉本技术领域的技术人员应当理解,我们所描述的具体的实施例只是说明性的,而不是用于对本发明的范围的限定,熟悉本领域的技术人员在依照本发明的精神所作的等效的修饰以及变化,都应当涵盖在本发明的权利要求所保护的范围内。
Claims (4)
1.一种基于深度学习GAN网络童装服装的风格转移方法,其特征在于:该风格转移方法需提供一个CycleGAN网络,CycleGAN网络包括第一GAN网络和第二GAN网络,所述第一GAN网络包括第一生成器和第一判别器,所述第二GAN网络包括第二生成器和第二判别器,所述第一生成器包括第一编码器、第一转换器及第一解码器,所述第二生成器包括第二编码器、第二转换器及第二解码器;所述风格转移方法包括如下步骤:
步骤S1、选取童装款式图像A作为第一判别器的输入,通过第一判别器将该童装款式图像A与真实的童装款式图像A’进行对比,判断该童装款式图像A是否为真,若是,则进入步骤S2;若否,则结束流程;
步骤S2、将该童装款式图像A输入到第一生成器中,通过第一编码器对童装款式图像A进行编码,利用卷积神经网络从中提取出具有原格式的特征向量a1,并将该特征向量a1压缩成复数个设定格式的特征向量a2;
步骤S3、将不同的特征向量a2进行组合,采用5层DenseNet模块,并通过第一转换器将童装款式图像A在DA域中的特征向量a2转换为DB域中的特征向量a2;
步骤S4、利用反卷积神经网络,并通过第一解码器将DB域中设定格式的特征向量a2还原成原格式,生成童装款式图像B;
步骤S5、将童装款式图像B作为第二判别器的输入,通过第二判别器将生成的童装款式图像B与真实的童装款式图像B’进行对比,判断该童装款式图像B是否为真,若是,则进入步骤S6;若否,则进入步骤S2;
步骤S6、将该童装款式图像B输入到第二生成器中,通过第二编码器对童装款式图像B进行编码,利用卷积神经网络从中提取出具有原格式的特征向量b1,并将该特征向量b1压缩成复数个设定格式的特征向量b2;
步骤S7、将不同的特征向量b2进行组合,采用5层DenseNet模块,并通过第二转换器将童装款式图像B在DB域中的特征向量b2转换为DA域中的特征向量b2;
步骤S8、利用反卷积神经网络,并通过第二解码器将DA域中设定格式的特征向量a2还原成原格式,生成童装款式图像A;
所述步骤S2和步骤S6中:利用卷积神经网络从中提取出具有原格式的特征向量,并将该特征向量压缩成复数个设定格式的特征向量,具体为:
所述第一编码器和第二编码器均采用5个连续的卷积核大小为3、步长为2、填充大小为1的卷积层,每个卷积层之后还设有1个批处理归一化层;所述第一生成器输入的童装款式图像A依次通过5个卷积层,对童装款式图像A进行5次连续的卷积运算,每次卷积运算之后进行批处理归一化,该批处理归一化的计算公式为:
其中,训练过程采用一批随机梯度下降,于是E[x(k)]代表一批训练数据时各神经元输入值的平均值;代表一批训练数据时各神经元输入值的标准差,x(k)代表k神经元的输入值,/>代表k神经元输入值的估计值;
所述步骤S4和步骤S8中:
所述第一解码器和第二解码器均采用具有ReLu操作的5个反卷积层,每两次反卷积运算后向上采样特征图;其中,ReLu操作的计算公式为:
计算出所述第一生成器和第二生成器的重建loss,其计算公式为:
L(GAB,GBA,A,B)=Ea~A[||GBA(GAB(a))-a||1] (3)
其中,GAB和GBA分别为第一生成器和第二生成器,分别把DA域和DB域的童装款式图像进行互相转换;A表示童装款式图像A,B表示童装款式图像B,a为原图,GAB(a)为童装款式图像A经过第一生成器GAB处理后的图片,GBA(GAB(a))为第一生成器GAB处理后的图片经过第二生成器GBA后的重建图片,L(GAB,GBA,A,B)表示为第一生成器GAB和第二生成器GBA的损失,Ea~A[||GBA(GAB(a))-a||1]表示为童装款式图像A重建的损失;
计算出所述第一判别器和第二判别器的损失loss,其计算公式为:
LGAN(GAB,DB,A,B)=Eb~B[logDB(b)]+Ea~A[log(1-DB(GAB(a)))](4)
其中,GAB为第一生成器,DB为第二判别器,A表示童装款式图像A,B表示童装款式图像B,DB(b)为判断输入的图片b是否是真实的DB域的图片,LGAN(GAB,DB,A,B)表示为一个GAN的损失,Eb~B[logDB(b)]为原始真图片B的判别loss,Ea~A[log(1-DB(GAB(a)))]为生成的假图片GAB(a)的判别loss。
2.如权利要求1所述的一种基于深度学习GAN网络童装服装的风格转移方法,其特征在于:所述步骤S1之前还包括图像预处理步骤:采用Hadoop和Mahout的大数据管理分析系统,从各类大量的童装纸样图像中提取风格特征和部件特征,根据风格特征和部件特征建立相应的风格库和部件库,将所有童装纸样图像统一处理为256*256的原格式,并采用Hive数据仓库工具将采集到的所有童装纸样图像存储于对应种类的风格库和部件库中。
3.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于:所述处理器执行所述程序时实现以下步骤:
步骤S1、选取童装款式图像A作为第一判别器的输入,通过第一判别器将该童装款式图像A与真实的童装款式图像A’进行对比,判断该童装款式图像A是否为真,若是,则进入步骤S2;若否,则结束流程;
步骤S2、将该童装款式图像A输入到第一生成器中,通过第一编码器对童装款式图像A进行编码,利用卷积神经网络从中提取出具有原格式的特征向量a1,并将该特征向量a1压缩成复数个设定格式的特征向量a2;
步骤S3、将不同的特征向量a2进行组合,采用5层DenseNet模块,并通过第一转换器将童装款式图像A在DA域中的特征向量a2转换为DB域中的特征向量a2;
步骤S4、利用反卷积神经网络,并通过第一解码器将DB域中设定格式的特征向量a2还原成原格式,生成童装款式图像B;
步骤S5、将童装款式图像B作为第二判别器的输入,通过第二判别器将生成的童装款式图像B与真实的童装款式图像B’进行对比,判断该童装款式图像B是否为真,若是,则进入步骤S6;若否,则进入步骤S2;
步骤S6、将该童装款式图像B输入到第二生成器中,通过第二编码器对童装款式图像B进行编码,利用卷积神经网络从中提取出具有原格式的特征向量b1,并将该特征向量b1压缩成复数个设定格式的特征向量b2;
步骤S7、将不同的特征向量b2进行组合,采用5层DenseNet模块,并通过第二转换器将童装款式图像B在DB域中的特征向量b2转换为DA域中的特征向量b2;
步骤S8、利用反卷积神经网络,并通过第二解码器将DA域中设定格式的特征向量a2还原成原格式,生成童装款式图像A;
所述步骤S2和步骤S6中:利用卷积神经网络从中提取出具有原格式的特征向量,并将该特征向量压缩成复数个设定格式的特征向量,具体为:
所述第一编码器和第二编码器均采用5个连续的卷积核大小为3、步长为2、填充大小为1的卷积层,每个卷积层之后还设有1个批处理归一化层;所述第一生成器输入的童装款式图像A依次通过5个卷积层,对童装款式图像A进行5次连续的卷积运算,每次卷积运算之后进行批处理归一化,该批处理归一化的计算公式为:
其中,训练过程采用一批随机梯度下降,于是E[x(k)]代表一批训练数据时各神经元输入值的平均值;代表一批训练数据时各神经元输入值的标准差,x(k)代表k神经元的输入值,/>代表k神经元输入值的估计值;
所述步骤S4和步骤S8中:
所述第一解码器和第二解码器均采用具有ReLu操作的5个反卷积层,每两次反卷积运算后向上采样特征图;其中,ReLu操作的计算公式为:
计算出所述第一生成器和第二生成器的重建loss,其计算公式为:
L(GAB,GBA,A,B)=Ea~A[||GBA(GAB(a))-a||1] (3)
其中,GAB和GBA分别为第一生成器和第二生成器,分别把DA域和DB域的童装款式图像进行互相转换;A表示童装款式图像A,B表示童装款式图像B,a为原图,GAB(a)为童装款式图像A经过第一生成器GAB处理后的图片,GBA(GAB(a))为第一生成器GAB处理后的图片经过第二生成器GBA后的重建图片,L(GAB,GBA,A,B)表示为第一生成器GAB和第二生成器GBA的损失,Ea~A[||GBA(GAB(a))-a||1]表示为童装款式图像A重建的损失;
计算出所述第一判别器和第二判别器的损失loss,其计算公式为:
LGAN(GAB,DB,A,B)=Eb~B[logDB(b)]+Ea~A[log(1-DB(GAB(a)))] (4)
其中,GAB为第一生成器,DB为第二判别器,A表示童装款式图像A,B表示童装款式图像B,DB(b)为判断输入的图片b是否是真实的DB域的图片,LGAN(GAB,DB,A,B)表示为一个GAN的损失,Eb~B[logDB(b)]为原始真图片B的判别loss,Ea~A[log(1-DB(GAB(a)))]为生成的假图片GAB(a)的判别loss。
4.如权利要求3所述的一种计算机设备,其特征在于:所述步骤S1之前还包括图像预处理步骤:采用Hadoop和Mahout的大数据管理分析系统,从各类大量的童装纸样图像中提取风格特征和部件特征,根据风格特征和部件特征建立相应的风格库和部件库,将所有童装纸样图像统一处理为256*256的原格式,并采用Hive数据仓库工具将采集到的所有童装纸样图像存储于对应种类的风格库和部件库中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910089034.5A CN109829537B (zh) | 2019-01-30 | 2019-01-30 | 基于深度学习gan网络童装服装的风格转移方法及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910089034.5A CN109829537B (zh) | 2019-01-30 | 2019-01-30 | 基于深度学习gan网络童装服装的风格转移方法及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109829537A CN109829537A (zh) | 2019-05-31 |
CN109829537B true CN109829537B (zh) | 2023-10-24 |
Family
ID=66862884
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910089034.5A Active CN109829537B (zh) | 2019-01-30 | 2019-01-30 | 基于深度学习gan网络童装服装的风格转移方法及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109829537B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110363122B (zh) * | 2019-07-03 | 2022-10-11 | 昆明理工大学 | 一种基于多层特征对齐的跨域目标检测方法 |
CN110619315B (zh) * | 2019-09-24 | 2020-10-30 | 重庆紫光华山智安科技有限公司 | 人脸识别模型的训练方法、装置及电子设备 |
CN111161239B (zh) * | 2019-12-27 | 2024-02-27 | 上海联影智能医疗科技有限公司 | 医学图像分析方法、装置、存储介质及计算机设备 |
CN111724299B (zh) * | 2020-05-21 | 2023-08-08 | 同济大学 | 一种基于深度学习的超现实主义绘画图像风格迁移方法 |
CN111768335B (zh) * | 2020-07-02 | 2023-08-04 | 北京工商大学 | 一种基于cnn的用户交互式图像局部服饰风格迁移方法 |
CN112418310A (zh) * | 2020-11-20 | 2021-02-26 | 第四范式(北京)技术有限公司 | 文本风格迁移模型训练方法和系统及图像生成方法和系统 |
CN112669202B (zh) * | 2020-12-25 | 2023-08-08 | 北京达佳互联信息技术有限公司 | 图像处理方法、装置、电子设备和计算机可读存储介质 |
CN112991480A (zh) * | 2021-03-19 | 2021-06-18 | 杭州知衣科技有限公司 | 基于深度学习的服装自动设计方法、系统及计算机设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017203262A2 (en) * | 2016-05-25 | 2017-11-30 | Metail Limited | Method and system for predicting garment attributes using deep learning |
CN107862696A (zh) * | 2017-10-26 | 2018-03-30 | 武汉大学 | 基于时尚图迁移的特定行人衣物解析方法及系统 |
WO2018165239A1 (en) * | 2017-03-07 | 2018-09-13 | Original, Inc. | Methods and systems for customized garment and outfit design generation |
CN108829855A (zh) * | 2018-06-21 | 2018-11-16 | 山东大学 | 基于条件生成对抗网络的衣着穿搭推荐方法、系统及介质 |
CN109033095A (zh) * | 2018-08-01 | 2018-12-18 | 苏州科技大学 | 基于注意力机制的目标变换方法 |
CN109255831A (zh) * | 2018-09-21 | 2019-01-22 | 南京大学 | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 |
-
2019
- 2019-01-30 CN CN201910089034.5A patent/CN109829537B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017203262A2 (en) * | 2016-05-25 | 2017-11-30 | Metail Limited | Method and system for predicting garment attributes using deep learning |
WO2018165239A1 (en) * | 2017-03-07 | 2018-09-13 | Original, Inc. | Methods and systems for customized garment and outfit design generation |
CN107862696A (zh) * | 2017-10-26 | 2018-03-30 | 武汉大学 | 基于时尚图迁移的特定行人衣物解析方法及系统 |
CN108829855A (zh) * | 2018-06-21 | 2018-11-16 | 山东大学 | 基于条件生成对抗网络的衣着穿搭推荐方法、系统及介质 |
CN109033095A (zh) * | 2018-08-01 | 2018-12-18 | 苏州科技大学 | 基于注意力机制的目标变换方法 |
CN109255831A (zh) * | 2018-09-21 | 2019-01-22 | 南京大学 | 基于多任务学习的单视图人脸三维重建及纹理生成的方法 |
Non-Patent Citations (4)
Title |
---|
基于改进的CycleGAN模型非配对的图像到图像转换;何剑华 等;《玉林师范学院学报》;20180430;第39卷(第02期);正文第121-126页 * |
基于机器学习的童装服装智能设计方法研究;邱德府;《中国优秀硕士学位论文全文数据库 工程科技Ⅰ辑》;20210115(第01期);正文第1-70页 * |
基于生成对抗网络的HDR图像风格迁移技术;谢志峰 等;《上海大学学报(自然科学版)》;20180831;第24卷(第04期);第524-534页 * |
生成对抗网络理论框架、衍生模型与应用最新进展;赵增顺 等;《小型微型计算机系统》;20181231;第39卷(第12期);第2602-2606页 * |
Also Published As
Publication number | Publication date |
---|---|
CN109829537A (zh) | 2019-05-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109829537B (zh) | 基于深度学习gan网络童装服装的风格转移方法及设备 | |
CN108108751B (zh) | 一种基于卷积多特征和深度随机森林的场景识别方法 | |
Sun et al. | Convolution neural networks with two pathways for image style recognition | |
CN110210485A (zh) | 基于注意力机制指导特征融合的图像语义分割方法 | |
CN110428428A (zh) | 一种图像语义分割方法、电子设备和可读存储介质 | |
CN110781893B (zh) | 特征图的处理方法、图像处理方法、装置以及存储介质 | |
Loghmani et al. | Recurrent convolutional fusion for RGB-D object recognition | |
CN103942571B (zh) | 一种基于遗传规划算法的图形图像分类方法 | |
Zhou et al. | Attention-guided RGBD saliency detection using appearance information | |
CN112989085B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
Verma et al. | Residual squeeze CNDS deep learning CNN model for very large scale places image recognition | |
CN111862294A (zh) | 基于ArcGAN网络的手绘3D建筑自动上色网络结构及方法 | |
CN112037228A (zh) | 一种基于双倍注意力的激光雷达点云目标分割方法 | |
CN111833360B (zh) | 一种图像处理方法、装置、设备以及计算机可读存储介质 | |
CN115457568B (zh) | 一种基于生成对抗网络的历史文档图像降噪方法及系统 | |
CN113159067A (zh) | 一种基于多粒度局部特征软关联聚合的细粒度图像辨识方法及装置 | |
CN113961736A (zh) | 文本生成图像的方法、装置、计算机设备和存储介质 | |
Bhalerao et al. | Optimization of loss function on human faces using generative adversarial networks | |
CN113657272B (zh) | 一种基于缺失数据补全的微视频分类方法及系统 | |
CN112836755B (zh) | 基于深度学习的样本图像生成方法及其系统 | |
Liu et al. | Lightweight ViT model for micro-expression recognition enhanced by transfer learning | |
CN110110120B (zh) | 一种基于深度学习的图像检索方法和装置 | |
CN108446605A (zh) | 复杂背景下双人交互行为识别方法 | |
Liang et al. | A novel deep network and aggregation model for saliency detection | |
Zeng et al. | Flower image classification based on an improved lightweight neural network with multi-scale feature fusion and attention mechanism |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |