CN112100908A - 一种基于多条件深度卷积生成对抗网络的服装设计方法 - Google Patents
一种基于多条件深度卷积生成对抗网络的服装设计方法 Download PDFInfo
- Publication number
- CN112100908A CN112100908A CN202010895295.9A CN202010895295A CN112100908A CN 112100908 A CN112100908 A CN 112100908A CN 202010895295 A CN202010895295 A CN 202010895295A CN 112100908 A CN112100908 A CN 112100908A
- Authority
- CN
- China
- Prior art keywords
- clothing
- network
- image data
- clothing image
- generating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000013461 design Methods 0.000 title claims abstract description 29
- 238000012549 training Methods 0.000 claims abstract description 15
- 238000002372 labelling Methods 0.000 claims abstract description 11
- 238000013528 artificial neural network Methods 0.000 claims abstract description 6
- 238000013527 convolutional neural network Methods 0.000 claims description 12
- 238000009826 distribution Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 238000003709 image segmentation Methods 0.000 claims description 3
- 238000012706 support-vector machine Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 26
- 230000004913 activation Effects 0.000 description 10
- 239000003086 colorant Substances 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 241000282414 Homo sapiens Species 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/30—Computing systems specially adapted for manufacturing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多条件深度卷积生成对抗网络的服装设计方法,包括:获取服装图像数据集,提取服装图像数据集中每个服装图像的特征;对服装图像数据集中服装图像的特征进行统一分类,得到不同种类的服装图像数据子集,并对每类服装图像数据子集标注类别标签;建立生成网络与判别网络的多层深度卷积神经网络;将多个服装图像数据子集依次输入多层深度卷积神经网络进行训练,得到每个服装图像数据子集对应的服装网络模型;向服装网络模型中输入需求信息,提取服装图像数据子集对应的服装网络模型,在服装网络模型的生成网络中生成服装图像。
Description
技术领域
本发明属于服装设计方法技术领域,涉及一种基于多条件深度卷积生成对抗网络的服装设计方法。
背景技术
伴随着互联网服装市场的迅猛发展,人们的购物方式发生了巨大改变,消费者对于服装样式和品质的需求相比以往也有了很大的提升。想要在各式各样的服装中选择一个符合自己品味、适合要出席的场合、适合自己性格、甚至符合自己当时心情的服装,并不是一件轻而易举的事,往往需要花费大量的时间成本。因此在这个追求高品质的社会中,高效率地设计符合满足消费者需求的服装样式显得愈发重要。
传统的服装设计方法主要依靠3D人体扫描技术,通过物理建模得到3D服装原型,设计生成数字服装的算法,最后基于几何重建生成服装样本,但这些方法成本高、开发周期长,而且在测试时都需要明确的人为干预,在实际环境中并不适用。
最近几年,伴随着人工智能、机器学习等领域的快速发展,深度学习技术也成为了研究领域的一个热点话题,并且也取得了许多突破性的进展。利用深度学习技术解决人们生活中的实际问题也引起了众多学者的关注。可以说,深度学习的发展大大地减轻了人们的工作量,为人类的生活带来了便捷。但在服装设计和量身定制方面,深度学习还没有得到广泛的研究和应用。
大多数人都遇到过逛遍周围大小商场、街道店铺都找不到自己心仪衣服的情况,在网上进行服装遴选与购买虽然方便快捷,但却不像实体店那样可以当面检查和试穿。如何让消费者和设计者从传统的挑选衣服和设计服装的流程中走出来,让消费者能像玩换装小游戏一样按自己的心意装扮自己,而不局限于商场里的某些款式与颜色是一项极具应用价值的课题。
生成式对抗网络(GAN)是当前深度学习研究领域中的热点话题。它是一种双神经网络模型,由生成器和判别器组成。前者用于学习生成新的符合要求的样本结果,后者用于学习区别已知样本与生成样本,并将计算结果反馈给生成网络。如此,两个网络相互博弈,通过训练,得到满足需求的生成式模型。这种方法可广泛适用图像、样本、音频等领域,因此近些年受到人们广泛关注,并将其应用到图像风格迁移、图像超分辨、文本解析、音频合成等研究中。然而,当GAN应用于图像领域时,会导致生成器结果无法满足需求或偏离误差过大的现象。这是由于GAN是一种无监督学习的网络模型,生成器因此无法识别使用者需求。
发明内容
本发明的目的是提供一种基于多条件深度卷积生成对抗网络的服装设计方法,解决了现有技术中存在设计效率低的问题。
本发明所采用的技术方案是,一种基于多条件深度卷积生成对抗网络的服装设计方法,包括以下步骤:
步骤1、获取服装图像数据集,提取服装图像数据集中每个服装图像的服装部分;
步骤2、对服装部分的特征进行统一分类,得到不同种类的服装图像数据子集,并对每类服装图像数据子集标注类别标签;
步骤3、建立生成网络与判别网络的多层深度卷积神经网络,多层深度卷积神经网络包括多条件输入网络、生成网络及判别网络;
步骤4、将多个服装图像数据子集依次输入多层深度卷积神经网络进行训练,得到每个服装图像数据子集对应的服装网络模型;
步骤5、向服装网络模型中输入需求信息,提取服装图像数据子集对应的服装网络模型,在服装网络模型的生成网络中生成服装图像。
本发明的特点还在于:
步骤1具体包括:
步骤1.1、获取服装图像数据集;
步骤1.2、通过卷积神经网络提取服装图像数据集中服装图像的特征向量,将服装特征向量作为支持向量机的输入信息,进行图像分割,得到每个服装图像的服装部分;
步骤2中类别标签包括性别、身高、体型、服装色彩、服装风格。
步骤4具体包括:
步骤4.1、将经过标注的服装数据集输入多层深度卷积神经网络,通过图像增强、图像归一化处理后,得到标准化服装图像样本;
步骤4.2、将随机噪声和类别标签输入生成网络中,输出服装图像生成样本;将服装图像生成样本与标准化服装图像样本放入判别网络中,判别网络通过计算得到判别网络损失函数,通过判别网络损失函数计算的到生成网络损失函数,并对判别网络损失函数、生成网络损失函数及网络参数进行调整,得到服装网络模型。
服装网络模型的目标函数为:
上式中,pdata(x)为标准化服装图像样本的分布,pz(z)为随机噪声z的先验分布,即z服从[-1,1]的均匀分布,D(·)表示判别网络D判断图片是否为真实的概率;
服装网络模型中损失函数为Sigmoid交叉熵损失函数:
loss=-[y·ln a+(1-y)·ln(1-a)]
上式中,y表示类别标签,标签为1时表示是正类,标签为0时表示是负类,a表示样本预测为正的概率。
本发明的有益效果是:
本发明一种基于多条件深度卷积生成对抗网络的服装设计方法,可以根据不同用户的不同需求特征定向地设计符合其特征信息的服装样本,有效地解决了传统服装设计耗时长、设计效率低的问题,同时也给了设计师更多的服装设计灵感;通过对CGAN中的条件进行多样化、DCGAN中生成器和判别器参数的优化调整,构建出C-DCGAN网络模型,并结合分类后的服装图像数据子集训练网络模型,输入用户的类别标签,比如性别、身高、体型、服装色彩、服装风格等信息,即可生成适合用户且具有个人特色的服装图像,可极大程度地识别并满足使用者需求,节省选购服装的时间成本;采用C-DCGAN网络结构,将用户的特征作为条件信息,同时利用卷积神经网络强大的特征提取能力,使得最终输出的服装样本图像融合了用户特征的同时还具有多样性与真实性;将服装特征作为类别标签对服装数据集进行分类,训练每个类别的服装网络模型,能提高设计效率、缩短设计时间及人工成本。
附图说明
图1是本发明一种基于多条件深度卷积生成对抗网络的服装设计方法的流程示意图;
图2是本发明一种基于多条件深度卷积生成对抗网络的服装设计方法的生成网络结构示意图;
图3是本发明一种基于多条件深度卷积生成对抗网络的服装设计方法的判别网络结构示意图;
图4是本发明一种基于多条件深度卷积生成对抗网络的服装设计方法的训练过程中生成网络损失值变化趋势图;
图5是本发明一种基于多条件深度卷积生成对抗网络的服装设计方法的训练过程中判别网络损失值变化趋势图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
一种基于多条件深度卷积生成对抗网络的服装设计方法,如图1所示,包括以下步骤:
步骤1、获取服装图像数据集,提取服装图像数据集中每个服装图像的特征,服装图像数据集包括训练图像集和待识别图像集;
步骤1.1、获取服装图像数据集;
步骤1.2、通过卷积神经网络提取服装图像数据集中服装图像的特征向量,将特征向量作为支持向量机的输入信息,进行图像分割,得到每个服装图像的服装部分;
步骤2、通过人工观察对服装部分的特征进行统一分类,得到不同种类特征的服装图像数据子集,并对每类服装图像数据子集标注类别标签;
类别标签包括性别、身高、体型、服装色彩、服装风格。具体的,根据性别可包括男士、女士两个服装图像数据子集。对于男士服装,按照身高可分为165cm-190cm,每隔2cm做一次分类,最终得到13个分好类的男士不同身高所对应的服装图像数据子集;并将13个服装图像数据子集标注其类别标签分别为1.1.1~1.1.13;按体型特征将服装分为瘦、匀称、胖三类,最终得到3个分好类的男士不同体型所对应的服装图像数据子集;并将3个服装图像数据子集标注其类别标签分别为1.2.1~1.2.3。按服装色彩将服装分为黑、灰、白、蓝、绿、红六类,得到6个分好类的不同服装颜色所对应的服装图像数据子集,并将6个服装图像数据子集标注其类别标签分别为1.3.1~1.3.6;按服装风格将服装分为男士牛仔裤、男士夹克、男士长裤、男士Polo衫、男士短裤、男士西装、男士卫衣、男士运动衫、男士T恤九类,得到9个分好类的不同服装风格所对应的服装图像数据子集;并将9个服装图像数据子集标注其类别标签分别为1.4.1~1.4.9。
对于女士服装,同样按不同类别标签对其进行手动分类:按身高特征对服装进行分类,在155cm-180cm的范围内,每隔2cm做一次分类,最终得到13个分好类的女士不同身高所对应的服装图像数据子集;并将13个服装图像数据子集标注其类别标签分别为2.1.1~2.1.13。按体型特征将服装分为瘦、匀称、胖三类,最终得到3个分好类的女士不同体型所对应的服装图像数据子集;并将3个服装图像数据子集标注其类别标签分别为2.2.1~2.2.3。按服装色彩将服装分为黑、灰、白、蓝、绿、红、粉七类,得到7个分好类的不同服装颜色所对应的服装图像数据子集;并将7个服装图像数据子集标注其类别标签分别为2.3.1~2.3.7。按服装风格将服装分为女士衬衫、女士开襟羊毛衫、女士牛仔裤、女士连衣裙、女士带图案T恤、女士夹克外套、女士紧身裤、女士长裤、女士连身裤、女士短裤、女士半身裙、女士卫衣、女士运动衫、女士T恤十四类,得到14个分好类的不同服装风格所对应的服装图像数据子集,并将14个服装图像数据子集标注其类别标签分别为2.4.1~2.4.14。
由于每个服装图像包括性别、身高、体型、服装色彩、服装风格的五种特征,所以任意一个服装图像根据其特征可能会被归入多个服装图像数据子集中。比如一个服装图像的服装部分的特征包括女式、匀称、红色、连衣裙、162,该服装图像就会被同时归入类别标签为2.1.4、2.2.2、2.3.6、2.4.4四个服装图像数据子集中。
步骤3、建立生成网络与判别网络的C-DCGAN网络模型(多层深度卷积神经网络模型),多层深度卷积神经网络结构包括多条件输入网络、生成网络及判别网络;
多条件输入网络:将经过标注的服装数据集输入多条件输入网络,通过图像增强、图像归一化处理后,得到标准化服装图像样本;
如图2所示,生成网络:包括5层网络结构,第一层为全连接层,使用ReLU激活函数,输出三通道图像大小为4×4×1024;第二层为反卷积层,卷积核大小为5×5,步长为2,使用ReLU激活函数,输出三通道图像大小为8×8×512;第三层为反卷积层,卷积核大小为5×5,步长为2,使用ReLU激活函数,输出三通道图像大小为16×16×256;第四层为反卷积层,卷积核大小为5×5,步长为2,使用ReLU激活函数,输出三通道图像大小为32×32×128;最后一层为反卷积层,卷积核大小为5×5,步长为2,使用Tanh激活函数,输出三通道图像大小为64×64×3;
如图3所示,判别网络:包括5层网络结构,第一层为卷积层,卷积核大小为5×5,步长为2,使用LeakyReLU激活函数,输出三通道图像大小为32×32×128;第二层为卷积层,卷积核大小为5×5,步长为2,使用LeakyReLU激活函数,输出三通道图像大小为16×16×256;第三层为卷积层,卷积核大小为5×5,步长为2,使用LeakyReLU激活函数,输出三通道图像大小为8×8×512;第四层为卷积层,卷积核大小为5×5,步长为2,使用LeakyReLU激活函数,输出三通道图像大小为4×4×1024;最后一层为全连接层,使用Sigmoid激活函数,最后输出单通道结果。
步骤4、将多个服装图像数据子集依次输入多层深度卷积神经网络进行训练,得到每个服装图像数据子集对应的服装网络模型;依次训练每个服装图像数据子集,每次得到一个网络模型,通过多次训练得到多个网络模型。
步骤4.1、将每个经过标注的服装图像数据子集输入多层深度卷积神经网络,通过图像增强、图像归一化处理后,得到标准化服装图像样本;
步骤4.2、将100维服从均匀分布的随机噪声z和该服装图像数据子集对应的类别标签y输入生成网络中,输出服装图像生成样本;
步骤4.3、将服装图像生成样本与该类别对应的标准化服装图像样本放入判别网络中,判别网络通过计算得到判别网络损失函数,通过判别网络损失函数计算的到生成网络损失函数,采用的Adam优化方法对生成网络损失函数、判别网络损失函数及网络参数进行调整,迭代训练,调整迭代次数为500、批处理大小为64;在迭代训练过程中,利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率,使得参数变化比较平稳,最终得到每个服装图像数据子集对应的服装网络模型。
如图4、图5所示,整个判别器的损失值d_loss在逐渐减小,生成器的损失值g_loss在逐渐变大,可见在训练的过程中,生成器稍微劣势于判别器。
当判别网络D中输入标准化服装图像样本时,期待输出高概率(接近于1);向判别网络D输入服装图像生成样本时,对D来说期望输出低概率(接近于0)。生成网络G期望输出与标准化服装图像样本中风格与款式相类似的服装样本图像,其中z的维度与生成图像的样式有关,y的维度与要控制的条件个数有关。对于G来说要尽可能欺骗D,并期望判别网络输出高概率,从而使双方形成竞争与对抗。当网络训练成熟时,G可以生成足以“以假乱真”的服装图片G(z);而对于D来说,它难以判断G生成的服装图片是否为真实,因此D(G(z))=0.5。此时,我们实现了目的,得到了一个生成网络G,一个可以用来生成具有个人特色的服装的网络。
服装网络模型的目标函数为:
上式中,pdata(x)为标准化服装图像样本的分布,pz(z)为随机噪声z的先验分布,即z服从[-1,1]的均匀分布,D(·)表示判别网络D判断图片是否为真实的概率。
对于判别网络D,要最大化D(x),此时V(D,G)则会最大。对于生成网络G,要最大化D(G(z)),此时V(D,G)则会最小。
服装网络模型中损失函数为Sigmoid交叉熵损失函数:
loss=-[y·ln a+(1-y)·ln(1-a)]
其中y表示类别标签,类别标签为1时表示是正类,类别标签为0时表示是负类,a表示样本预测为正的概率。
步骤5、向服装网络模型中输入需求信息,根据需求信息提取服装图像数据子集对应的服装网络模型,在该服装网络模型的生成网络中生成符合需要信息的服装图像。
通过以上方式,本发明一种基于多条件深度卷积生成对抗网络的服装设计方法,输入用户的类别标签,比如性别、身高、体型、服装色彩、服装风格等信息,即可生成适合用户且具有个人特色的服装图像,可极大程度地方便用户选择个人喜爱的服装,节省选购服装的时间成本;将服装特征作为类别标签对服装数据集进行分类,训练每个类别的服装网络模型,能缩短设计时间及人工成本。
Claims (5)
1.一种基于多条件深度卷积生成对抗网络的服装设计方法,其特征在于,包括以下步骤:
步骤1、获取服装图像数据集,提取所述服装图像数据集中每个服装图像的服装部分;
步骤2、对所述服装部分的特征进行统一分类,得到不同种类的服装图像数据子集,并对每类所述服装图像数据子集标注类别标签;
步骤3、建立生成网络与判别网络的多层深度卷积神经网络,所述多层深度卷积神经网络包括多条件输入网络、生成网络及判别网络;
步骤4、将多个服装图像数据子集依次输入多层深度卷积神经网络进行训练,得到每个服装图像数据子集对应的服装网络模型;
步骤5、向服装网络模型中输入需求信息,提取服装图像数据子集对应的服装网络模型,在所述服装网络模型的生成网络中生成服装图像。
2.根据权利要求1所述的一种基于多条件深度卷积生成对抗网络的服装设计方法,其特征在于,步骤1具体包括:
步骤1.1、获取服装图像数据集;
步骤1.2、通过卷积神经网络提取所述服装图像数据集中服装图像的特征向量,将所述特征向量作为支持向量机的输入信息,进行图像分割,得到每个服装图像的服装部分。
3.根据权利要求1所述的一种基于多条件深度卷积生成对抗网络的服装设计方法,其特征在于,步骤2中所述类别标签包括性别、身高、体型、服装色彩、服装风格。
4.根据权利要求1所述的一种基于多条件深度卷积生成对抗网络的服装设计方法,其特征在于,步骤4具体包括:
步骤4.1、将经过标注的服装数据集输入多层深度卷积神经网络,通过图像增强、图像归一化处理后,得到标准化服装图像样本;
步骤4.2、将随机噪声和所述类别标签输入生成网络中,输出服装图像生成样本;将所述服装图像生成样本与标准化服装图像样本放入判别网络中,判别网络通过计算得到判别网络损失函数,通过所述判别网络损失函数计算的到生成网络损失函数,并对判别网络损失函数、生成网络损失函数及网络参数进行调整,得到服装网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010895295.9A CN112100908B (zh) | 2020-08-31 | 2020-08-31 | 一种基于多条件深度卷积生成对抗网络的服装设计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010895295.9A CN112100908B (zh) | 2020-08-31 | 2020-08-31 | 一种基于多条件深度卷积生成对抗网络的服装设计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112100908A true CN112100908A (zh) | 2020-12-18 |
CN112100908B CN112100908B (zh) | 2024-03-22 |
Family
ID=73756827
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010895295.9A Active CN112100908B (zh) | 2020-08-31 | 2020-08-31 | 一种基于多条件深度卷积生成对抗网络的服装设计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112100908B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112598806A (zh) * | 2020-12-28 | 2021-04-02 | 深延科技(北京)有限公司 | 基于人工智能的虚拟试穿方法、装置、计算机设备及介质 |
CN113033595A (zh) * | 2020-12-24 | 2021-06-25 | 重庆大学 | 基于生成对抗网络的多标签汽车造型生成方法 |
CN113052230A (zh) * | 2021-03-22 | 2021-06-29 | 浙江大学 | 一种基于解纠缠网络的服装图像生成系统和方法 |
CN113706470A (zh) * | 2021-07-29 | 2021-11-26 | 天津中科智能识别产业技术研究院有限公司 | 一种虹膜图像分割方法、装置、电子设备及存储介质 |
CN113722783A (zh) * | 2021-07-08 | 2021-11-30 | 浙江海阔人工智能科技有限公司 | 基于深度学习模型的面向用户的服装智能设计系统及方法 |
CN114694012A (zh) * | 2022-04-07 | 2022-07-01 | 哈尔滨理工大学 | 一种基于卷积神经网络的服装识别方法 |
Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220600A (zh) * | 2017-05-17 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于深度学习的图片生成方法及生成对抗网络 |
CN107945204A (zh) * | 2017-10-27 | 2018-04-20 | 西安电子科技大学 | 一种基于生成对抗网络的像素级人像抠图方法 |
CN108564109A (zh) * | 2018-03-21 | 2018-09-21 | 天津大学 | 一种基于深度学习的遥感图像目标检测方法 |
CN108830334A (zh) * | 2018-06-25 | 2018-11-16 | 江西师范大学 | 一种基于对抗式迁移学习的细粒度目标判别方法 |
CN108829855A (zh) * | 2018-06-21 | 2018-11-16 | 山东大学 | 基于条件生成对抗网络的衣着穿搭推荐方法、系统及介质 |
CN108875935A (zh) * | 2018-06-11 | 2018-11-23 | 兰州理工大学 | 基于生成对抗网络的自然图像目标材质视觉特征映射方法 |
CN108897740A (zh) * | 2018-05-07 | 2018-11-27 | 内蒙古工业大学 | 一种基于对抗神经网络的蒙汉机器翻译方法 |
US20180374249A1 (en) * | 2017-06-27 | 2018-12-27 | Mad Street Den, Inc. | Synthesizing Images of Clothing on Models |
CN109190665A (zh) * | 2018-07-30 | 2019-01-11 | 国网上海市电力公司 | 一种基于半监督生成对抗网络的通用图像分类方法和装置 |
US20190057519A1 (en) * | 2017-08-18 | 2019-02-21 | Synapse Technology Corporation | Generating Synthetic Image Data |
CN109996073A (zh) * | 2019-02-26 | 2019-07-09 | 山东师范大学 | 一种图像压缩方法、系统、可读存储介质及计算机设备 |
CN110097103A (zh) * | 2019-04-22 | 2019-08-06 | 西安电子科技大学 | 基于生成对抗网络的半监督图像分类方法 |
CN110516561A (zh) * | 2019-08-05 | 2019-11-29 | 西安电子科技大学 | 基于dcgan和cnn的sar图像目标识别方法 |
CN110659958A (zh) * | 2019-09-06 | 2020-01-07 | 电子科技大学 | 基于生成对抗网络的服饰搭配生成方法 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
CN110909754A (zh) * | 2018-09-14 | 2020-03-24 | 哈尔滨工业大学(深圳) | 一种属性生成对抗网络及基于该网络的搭配服饰生成方法 |
CN111027439A (zh) * | 2019-12-03 | 2020-04-17 | 西北工业大学 | 基于辅助分类生成对抗网络的sar目标识别方法 |
CN111145106A (zh) * | 2019-12-06 | 2020-05-12 | 深圳市雄帝科技股份有限公司 | 一种图像增强方法、装置、介质及设备 |
CN111242216A (zh) * | 2020-01-13 | 2020-06-05 | 北京工业大学 | 基于条件生成对抗卷积神经网络的图像生成方法 |
-
2020
- 2020-08-31 CN CN202010895295.9A patent/CN112100908B/zh active Active
Patent Citations (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220600A (zh) * | 2017-05-17 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于深度学习的图片生成方法及生成对抗网络 |
US20180374249A1 (en) * | 2017-06-27 | 2018-12-27 | Mad Street Den, Inc. | Synthesizing Images of Clothing on Models |
US20190057519A1 (en) * | 2017-08-18 | 2019-02-21 | Synapse Technology Corporation | Generating Synthetic Image Data |
CN107945204A (zh) * | 2017-10-27 | 2018-04-20 | 西安电子科技大学 | 一种基于生成对抗网络的像素级人像抠图方法 |
CN108564109A (zh) * | 2018-03-21 | 2018-09-21 | 天津大学 | 一种基于深度学习的遥感图像目标检测方法 |
CN108897740A (zh) * | 2018-05-07 | 2018-11-27 | 内蒙古工业大学 | 一种基于对抗神经网络的蒙汉机器翻译方法 |
CN108875935A (zh) * | 2018-06-11 | 2018-11-23 | 兰州理工大学 | 基于生成对抗网络的自然图像目标材质视觉特征映射方法 |
CN108829855A (zh) * | 2018-06-21 | 2018-11-16 | 山东大学 | 基于条件生成对抗网络的衣着穿搭推荐方法、系统及介质 |
CN108830334A (zh) * | 2018-06-25 | 2018-11-16 | 江西师范大学 | 一种基于对抗式迁移学习的细粒度目标判别方法 |
CN109190665A (zh) * | 2018-07-30 | 2019-01-11 | 国网上海市电力公司 | 一种基于半监督生成对抗网络的通用图像分类方法和装置 |
CN110909754A (zh) * | 2018-09-14 | 2020-03-24 | 哈尔滨工业大学(深圳) | 一种属性生成对抗网络及基于该网络的搭配服饰生成方法 |
CN109996073A (zh) * | 2019-02-26 | 2019-07-09 | 山东师范大学 | 一种图像压缩方法、系统、可读存储介质及计算机设备 |
CN110097103A (zh) * | 2019-04-22 | 2019-08-06 | 西安电子科技大学 | 基于生成对抗网络的半监督图像分类方法 |
CN110516561A (zh) * | 2019-08-05 | 2019-11-29 | 西安电子科技大学 | 基于dcgan和cnn的sar图像目标识别方法 |
CN110659958A (zh) * | 2019-09-06 | 2020-01-07 | 电子科技大学 | 基于生成对抗网络的服饰搭配生成方法 |
CN110868598A (zh) * | 2019-10-17 | 2020-03-06 | 上海交通大学 | 基于对抗生成网络的视频内容替换方法及系统 |
CN111027439A (zh) * | 2019-12-03 | 2020-04-17 | 西北工业大学 | 基于辅助分类生成对抗网络的sar目标识别方法 |
CN111145106A (zh) * | 2019-12-06 | 2020-05-12 | 深圳市雄帝科技股份有限公司 | 一种图像增强方法、装置、介质及设备 |
CN111242216A (zh) * | 2020-01-13 | 2020-06-05 | 北京工业大学 | 基于条件生成对抗卷积神经网络的图像生成方法 |
Non-Patent Citations (1)
Title |
---|
王弘轩: "基于深度学习的肺部CT图像分析", 中国优秀硕士学位论文全文数据库医药卫生科技辑, no. 7, pages 076 - 1 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113033595A (zh) * | 2020-12-24 | 2021-06-25 | 重庆大学 | 基于生成对抗网络的多标签汽车造型生成方法 |
CN112598806A (zh) * | 2020-12-28 | 2021-04-02 | 深延科技(北京)有限公司 | 基于人工智能的虚拟试穿方法、装置、计算机设备及介质 |
CN113052230A (zh) * | 2021-03-22 | 2021-06-29 | 浙江大学 | 一种基于解纠缠网络的服装图像生成系统和方法 |
CN113722783A (zh) * | 2021-07-08 | 2021-11-30 | 浙江海阔人工智能科技有限公司 | 基于深度学习模型的面向用户的服装智能设计系统及方法 |
CN113706470A (zh) * | 2021-07-29 | 2021-11-26 | 天津中科智能识别产业技术研究院有限公司 | 一种虹膜图像分割方法、装置、电子设备及存储介质 |
CN113706470B (zh) * | 2021-07-29 | 2023-12-15 | 天津中科智能识别产业技术研究院有限公司 | 一种虹膜图像分割方法、装置、电子设备及存储介质 |
CN114694012A (zh) * | 2022-04-07 | 2022-07-01 | 哈尔滨理工大学 | 一种基于卷积神经网络的服装识别方法 |
CN114694012B (zh) * | 2022-04-07 | 2023-10-20 | 哈尔滨理工大学 | 一种基于卷积神经网络的服装识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112100908B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112100908B (zh) | 一种基于多条件深度卷积生成对抗网络的服装设计方法 | |
Barbosa et al. | Looking beyond appearances: Synthetic training data for deep cnns in re-identification | |
CN107273876B (zh) | 一种基于深度学习的‘宏to微转换模型’的微表情自动识别方法 | |
CN110659958B (zh) | 基于生成对抗网络的服饰搭配生成方法 | |
CN108921123A (zh) | 一种基于双重数据增强的人脸识别方法 | |
CN108615010A (zh) | 基于平行卷积神经网络特征图融合的人脸表情识别方法 | |
CN108460407A (zh) | 一种基于深度学习的行人属性精细化识别方法 | |
Cychnerski et al. | Clothes detection and classification using convolutional neural networks | |
Souza et al. | Efficient neural architecture for text-to-image synthesis | |
Yildirim et al. | Disentangling multiple conditional inputs in GANs | |
CN111476241B (zh) | 一种人物服饰转换方法及系统 | |
CN110276360A (zh) | 生成服饰搭配方案的计算机装置、设备、存储介质及方法 | |
Ren et al. | A deep and structured metric learning method for robust person re-identification | |
Zhai et al. | Asian female facial beauty prediction using deep neural networks via transfer learning and multi-channel feature fusion | |
CN111400525A (zh) | 基于视觉组合关系学习的时尚服装智能搭配与推荐方法 | |
Cheng et al. | An intelligent clothes search system based on fashion styles | |
Weng et al. | Data augmentation computing model based on generative adversarial network | |
CN112016608A (zh) | 基于卷积神经网络的服装感性意图分类方法、分类模型及其构建方法 | |
CN114821202B (zh) | 一种基于用户偏好的服装推荐方法 | |
Sanyal et al. | SCULPT: Shape-Conditioned Unpaired Learning of Pose-dependent Clothed and Textured Human Meshes | |
Podlasov et al. | Japanese street fashion for young people: A multimodal digital humanities approach for identifying sociocultural patterns and trends | |
Jia et al. | Coloration parsing and transfer design of han folk costumes | |
Fan et al. | Image Classification Using Fusion of Multiple Neural Networks | |
Shimizu et al. | Partial visual-semantic embedding: Fine-grained outfit image representation with massive volumes of tags via angular-based contrastive learning | |
Hou et al. | Climaxing vr character with scene-aware aesthetic dress synthesis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |