CN113033595A - 基于生成对抗网络的多标签汽车造型生成方法 - Google Patents
基于生成对抗网络的多标签汽车造型生成方法 Download PDFInfo
- Publication number
- CN113033595A CN113033595A CN202011548196.XA CN202011548196A CN113033595A CN 113033595 A CN113033595 A CN 113033595A CN 202011548196 A CN202011548196 A CN 202011548196A CN 113033595 A CN113033595 A CN 113033595A
- Authority
- CN
- China
- Prior art keywords
- automobile
- picture
- generation
- layer
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 18
- 230000004913 activation Effects 0.000 claims description 26
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 239000000463 material Substances 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 3
- 238000012549 training Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 3
- 230000006870 function Effects 0.000 description 26
- 238000013461 design Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 2
- 229910000861 Mg alloy Inorganic materials 0.000 description 1
- 229910000831 Steel Inorganic materials 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- SNAAJJQQZSMGQD-UHFFFAOYSA-N aluminum magnesium Chemical compound [Mg].[Al] SNAAJJQQZSMGQD-UHFFFAOYSA-N 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000011664 nicotinic acid Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 239000011226 reinforced ceramic Substances 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 239000010959 steel Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于生成对抗技术来根据指定标签生成汽车图片的方法,步骤为:1)获取真实汽车图片,并打上标签Fi;2)建立汽车图片对抗生成网络。3)得到汽车生成图片。4)计算汽车生成图片和真实图片中Fi标签数据组合损失;5)更新汽车图片判别器Di权重;6)更新汽车图片生成器G的权重;7)完成汽车图片对抗生成网络的训练;8)在汽车图片对抗生成网络中输入指定的h种标签,输出对应的汽车生成图片。本发明能够根据指定的条件标签,生成对应的汽车图片,丰富了生成图片的多方约束,使得结果更加精准、满足用户需求。
Description
技术领域
本发明属于生成模型以及汽车图片领域,具体是涉及一种基于生成对抗网络的多标签汽车造型生成方法。
背景技术
汽车已经是当代人群不可或缺的生活用品,汽车行业在汽车造型的设计中,由于设计师短期内能够设计的汽车造型有限,且从设计草图到比较完善的效果展示图需要较长的设计周期,同时设计期间会有各种不同需求从而产生不同修改,这都使得汽车的设计过程繁琐冗长。
除此之外,购车用户面对众多琳琅满目的汽车商品,也难以快速描述出自己想要的汽车样品。用户的目标车辆样式无法得到直观表达,经销商也因此不能明确用户需求,这都使得用户购车过程增加了复杂度。
而现有的汽车图片以及对应的标签数据,已经大量地散布在网络上,通过人工智能技术,利用其对大规模数据的处理、训练、记忆能力,可以使模型在多种内容范围内快速生成出大量的目标数据,这恰恰满足了汽车设计师以及购车用户对迅速得到目标车辆样式图片这一要求。GAN(Generative Adversarial Networks,生成对抗网络)是2014年提出的新兴概念,本身只是一个框架,可以灵活搭配各种损失函数以及生成器判别器进行设计。作为一个生成模型,可以用于对真实数据分布的建模和生成,最典型的就是图像领域。由于其内部训练对抗的机制,可以解决一些传统的机器学习中面临的数据不足的问题,也可以拓展在半监督学习、无监督学习、多任务学习等等领域中。
目前常用的条件对抗生成网络及其相关变种往往只能针对于某一维度上的条件,限定某一特征来生成对应图像,在汽车生成方面表现出来的结果,体现在生成出的图像内容单一,且约束针对性不足,不能满足人们在对多维度共同限定条件下得到目标汽车图像的要求。
发明内容
本发明的目的是解决现有技术中存在的问题。
本发明提出基于生成对抗网络的多标签汽车造型生成方法,主要包括以下步骤:
1)获取真实汽车图片,并打上标签Fi。i=1,2,…,n。n为标签类别总数。
所述标签类别包括汽车颜色F1、汽车车头方向F2、汽车品牌F3、汽车车型F4、汽车型号F5、汽车占真实汽车图片的比例F6、车身材质F7。
2)建立汽车图片对抗生成网络,包括汽车图片生成器G和汽车图片判别器D=[D1,D2,…,Dn]。
所述汽车图片生成器G包括噪声条件合成模块和生成模块。生成模块包括一个批标准化层、若干上采样块和一个输出块。每个上采样块包括上采样层、3*3卷积层、批标准化层、ReLU激活函数层。输出块包括卷积层和Tanh激活函数层。所述生成模块输出汽车生成图片。
所述噪声条件合成模块将高斯噪声与指定的所有i种标签数据进行点乘,从而得到融合条件信息的点乘结果。所述噪声条件合成模块将点乘结果输入至生成模块。
汽车图片判别器D包括卷积层、LeakyReLU激活函数层、判别块。所述判别块包括卷积层、批标准化层,LeakyReLU激活函数层、输出块。所述输出块包括卷积层、ReLU激活函数层、全连接层、输出层。其中,ReLU激活函数层的输出传输至全连接层,得到输出值r1。ReLU激活函数层的输出与Fi标签的one-hot编码进行点乘,,得到点乘结果r2。输出层输出结果R=r2+r1。
汽车图片判别器Di的Fi标签组合损失Li如下所示:
式中,Ri是汽车图片判别器Di中输出块全连接层输出结果。c为Fi的种类数目。yj为Fi标签的one-hot编码形式。pj为上一层网络的输出概率分布。
汽车图片判别器D的总损失函数LD如下所示:
LD=λ1L1+λ2L2+...+λiLi。 (2)
式中,λ1、λ2、...、λi为用于平衡Fi标签组合损失的超参数。
3)将高斯噪声和所有i种标签数据输入到汽车图片生成器G中,得到汽车生成图片。
4)分别利用汽车图片判别器Di和Fi标签,计算汽车生成图片和真实图片中Fi标签数据组合损失。i初始值为1。
5)将汽车生成图片和真实图片中Fi标签数据组合损失反馈给汽车图片判别器Di,更新汽车图片判别器Di权重。
6)判断i≤n是否成立,若是,则进入步骤6),否则,令i=i+1,并返回步骤4),
7)将汽车生成图片所有标签数据组合损失反馈给汽车图片生成器G,更新汽车图片生成器G的权重。
8)重复步骤3)至步骤7),直至汽车图片判别器D的总损失函数LD低于设定值。
9)在汽车图片对抗生成网络中输入指定的h种标签,输出对应的汽车生成图片。h≤n。
本发明的有益成果是:通过提出一种汽车图片生成对抗网络,能够根据指定的多个维度的条件标签,生成对应的汽车图片,丰富了生成图片的多方约束,使得结果更加精准、满足用户需求。具体来说,设计了多个判别器+单个生成器的网络结构,生成器根据给定的标签条件和噪声,生成指定图片,两个判别器分别在不同标签的角度判定当前图片的组合损失。这样一来,训练的最终结果,判别器将不仅能判断生成图片的真假,还能在多个条件标签维度对其进行判断,这使得生成器能够得到更多的约束条件,生成的条件更加细化具体,在汽车设计以及汽车描述筛选方面具有巨大的潜力。本发明提供的用于产生汽车图片的生成对抗网络,可以为汽车设计师,汽车购买人员快速生成符合指定多种标签的汽车图片,为下一步行动提供参考依据,在汽车设计,汽车购买领域有着巨大的应用空间。
附图说明
图1是本发明的生成对抗网络模型框架图;
具体实施方式
下面结合实施例对本发明作进一步说明,但不应该理解为本发明上述主题范围仅限于下述实施例。在不脱离本发明上述技术思想的情况下,根据本领域普通技术知识和惯用手段,做出各种替换和变更,均应包括在本发明的保护范围内。
实施例1:
参见图1,基于生成对抗网络的多标签汽车造型生成方法,主要包括以下步骤:
1)获取真实汽车图片,并打上标签Fi。i=1,2,…,n。n为标签类别总数。
所述标签类别包括汽车颜色F1、汽车车头方向F2、汽车品牌F3、汽车车型F4、汽车型号F5、汽车占真实汽车图片的比例F6、车身材质F7、风格F8。车身材质F7根据汽车品牌F3、汽车车型F4、汽车型号F5确定,包括钢铁、铝镁合金、纤维增强陶瓷等。风格F8为设计美学风格,如极简主义风格、仿生风格、雕刻风格、高科技风格。
2)建立汽车图片对抗生成网络,包括汽车图片生成器G和汽车图片判别器D=[D1,D2,…,Dn]。
所述汽车图片生成器G包括噪声条件合成模块和生成模块。生成模块包括一个批标准化层、若干上采样块和一个输出块。每个上采样块包括上采样层、3*3卷积层、批标准化层、ReLU激活函数层。输出块包括卷积层和Tanh激活函数层。所述生成模块输出汽车生成图片。
所述噪声条件合成模块将高斯噪声与指定的所有i种标签数据进行点乘,从而得到融合条件信息的点乘结果。所述噪声条件合成模块将点乘结果输入至生成模块。
汽车图片判别器D包括卷积层、LeakyReLU激活函数层、判别块。所述判别块包括卷积层、批标准化层,LeakyReLU激活函数层、输出块。所述输出块包括卷积层、ReLU激活函数层、全连接层、输出层。其中,ReLU激活函数层的输出传输至全连接层,得到输出值r1。ReLU激活函数层的输出与Fi标签的one-hot编码进行点乘,,得到点乘结果r2。输出层输出结果R=r2+r1。
汽车图片判别器Di的Fi标签组合损失Li如下所示:
式中,Ri是汽车图片判别器Di中输出块全连接层输出结果。c为Fi的种类数目。yj为Fi标签的one-hot编码形式。pj为上一层网络的输出概率分布。
汽车图片判别器D的总损失函数LD如下所示:
LD=λ1L1+λ2L2+...+λiLi。 (2)
式中,λ1、λ2、...、λi为用于平衡Fi标签组合损失的超参数。
3)将高斯噪声和所有i种标签数据输入到汽车图片生成器G中,得到汽车生成图片。
4)分别利用汽车图片判别器Di和Fi标签,计算汽车生成图片和真实图片中Fi标签数据组合损失。i初始值为1。
5)将汽车生成图片和真实图片中Fi标签数据组合损失反馈给汽车图片判别器Di,更新汽车图片判别器Di权重。
6)判断i≤n是否成立,若是,则进入步骤6),否则,令i=i+1,并返回步骤4),
7)将汽车生成图片所有标签数据组合损失反馈给汽车图片生成器G,更新汽车图片生成器G的权重。
8)重复步骤3)-7),直至汽车图片判别器D的总损失函数LD低于设定阈值。
9)在汽车图片对抗生成网络中输入指定的h种标签,输出对应的汽车生成图片。h≤n。
实施例2:
一种基于生成对抗网络的多标签汽车造型生成方法,具体包括以下步骤:
1)构建真实汽车图片与其对应颜色、方向、品牌、车型、型号、材质、比例、风格在内的8个维度的标签组成的数据对,下文中这8种特征分别以Fi表示,i∈[1,8],i∈N。本发明中汽车图片使用爬虫从网络爬取,通过人工与分类模型配合,为其加上i种标签。其中,风格表示
2)利用生成器模型,根据指定的任意所有i种标签,生成图片。
所述生成器模型分为噪声条件合成部分和生成部分。噪声条件合成部分,会将高斯噪声与指定的所有i种标签进行点乘,从而融合条件信息。再将点乘结果输入到生成部分进行图片的生成。
生成部分包括一个批标准化层,三个上采样块,一个输出块。每个上采样块结构按顺序为2倍上采样层、3*3卷积层、批标准化层、ReLU激活函数层。输出块结构按顺序为一个3*3卷积层、一个Tanh激活函数层。
其中批标准化层批标准化每批次的输入数据使其服从均值为0,、方差为1的正态分布。
3)利用判别器模型Di,分别对生成图片、标签数据对,和真实图片、标签数据对针对i个维度,进行迭代训练,
所述判别器模型Di用于计算Fi组合损失。
判别器模型结构由神经网络组成,对于接收的三通道64*64大小图片,先通过4*4卷积层,再接LeakyReLU激活函数层,随后通过两个判别块,判别块结构按顺序为:4*4卷积层,批标准化层,LeakyReLU激活函数层。再通过输出块,输出块结构按顺序为:4*4卷积层,ReLU激活函数层,对该激活函数层的结果,有两个分支,一个分支通过全连接层(线性回归层),输出一个值r1;一个分支将该结果与条件(颜色或方向)标签的one-hot编码形式进行点乘,将点乘结果r2与r1相加,作为判别器最终的输出结果R。
其中LeakyRELU的Negative_slope设置为0.2。
判别器模型的组合损失为输出结果R与条件标签的CrossEntropy函数损失之和。
判别器模型Di的Fi组合损失Li为:
其中,Ri是判别器模型Di中输出块全连接层输出结果,c为Fi的种类数目,y为Fi标签的one-hot编码形式,p为上一层网络的输出概率分布。
判别器的总损失函数由各Fi组合损失加权所得,表达式为:
LD=λ1L1+λ2L2+...+λiLi; (2)
其中λ1λ2...λi,为平衡各Fi组合损失的超参数,这里各取0.125。
4)通过损失数值与迭代训练不断通过梯度回馈来更新判别器模型和生成器模型的数值。
5)对于训练好的生成器模型,指定颜色、方向标签,即可根据噪声产生对应标签的汽车图片。
Claims (7)
1.基于生成对抗网络的多标签汽车造型生成方法,其特征在于,主要包括以下步骤:
1)获取所述真实汽车图片,并打上标签Fi;i=1,2,…,n;n为标签类别总数。
2)建立汽车图片对抗生成网络,包括汽车图片生成器G和汽车图片判别器D=[D1,D2,…,Dn];
3)将高斯噪声和所有i种标签数据输入到汽车图片生成器G中,得到汽车生成图片。
4)分别利用汽车图片判别器Di和Fi标签,计算汽车生成图片和真实图片中Fi标签数据组合损失;i初始值为1;
5)将汽车生成图片和真实图片中Fi标签数据组合损失反馈给汽车图片判别器Di,更新汽车图片判别器Di权重;
6)判断i≤n是否成立,若是,则进入步骤6),否则,令i=i+1,并返回步骤4),
7)将汽车生成图片所有标签数据组合损失反馈给汽车图片生成器G,更新汽车图片生成器G的权重;
8)重复步骤3)至步骤7),直至汽车图片判别器D的总损失函数LD低于设定值;
9)在汽车图片对抗生成网络中输入指定的h种标签,输出对应的汽车生成图片;h≤n。
2.根据权利要求1所述的基于生成对抗网络的多标签汽车造型生成方法,其特征在于:所述标签类别包括汽车颜色F1、汽车车头方向F2、汽车品牌F3、汽车车型F4、汽车型号F5、汽车占真实汽车图片的比例F6、车身材质F7。
3.根据权利要求1所述的基于生成对抗网络的多标签汽车造型生成方法,其特征在于:所述汽车图片生成器G包括噪声条件合成模块和生成模块;生成模块包括一个批标准化层、若干上采样块和一个输出块;每个上采样块包括上采样层、3*3卷积层、批标准化层、ReLU激活函数层;输出块包括卷积层和Tanh激活函数层;所述生成模块输出汽车生成图片。
4.根据权利要求1所述的基于生成对抗网络的多标签汽车造型生成方法,其特征在于:所述噪声条件合成模块将高斯噪声与指定的所有i种标签数据进行点乘,从而得到融合条件信息的点乘结果;所述噪声条件合成模块将点乘结果输入至生成模块。
5.根据权利要求1所述的基于生成对抗网络的多标签汽车造型生成方法,其特征在于,汽车图片判别器D包括卷积层、LeakyReLU激活函数层、判别块;所述判别块包括卷积层、批标准化层,LeakyReLU激活函数层、输出块;所述输出块包括卷积层、ReLU激活函数层、全连接层、输出层;其中,ReLU激活函数层的输出传输至全连接层,得到输出值r1;ReLU激活函数层的输出与Fi标签的one-hot编码进行点乘,,得到点乘结果r2;输出层输出结果R=r2+r1。
7.根据权利要求1所述的基于生成对抗网络的多标签汽车造型生成方法,其特征在于:汽车图片判别器D的总损失函数LD如下所示:
LD=λ1L1+λ2L2+...+λiLi; (2)
式中,λ1、λ2、...、λi为用于平衡Fi标签组合损失的超参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011548196.XA CN113033595A (zh) | 2020-12-24 | 2020-12-24 | 基于生成对抗网络的多标签汽车造型生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011548196.XA CN113033595A (zh) | 2020-12-24 | 2020-12-24 | 基于生成对抗网络的多标签汽车造型生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113033595A true CN113033595A (zh) | 2021-06-25 |
Family
ID=76459051
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011548196.XA Pending CN113033595A (zh) | 2020-12-24 | 2020-12-24 | 基于生成对抗网络的多标签汽车造型生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113033595A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220600A (zh) * | 2017-05-17 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于深度学习的图片生成方法及生成对抗网络 |
CN108829855A (zh) * | 2018-06-21 | 2018-11-16 | 山东大学 | 基于条件生成对抗网络的衣着穿搭推荐方法、系统及介质 |
US20190295302A1 (en) * | 2018-03-22 | 2019-09-26 | Northeastern University | Segmentation Guided Image Generation With Adversarial Networks |
CN110321957A (zh) * | 2019-07-05 | 2019-10-11 | 重庆大学 | 融合三元组损失和生成对抗网络的多标签图像检索方法 |
CN110503598A (zh) * | 2019-07-30 | 2019-11-26 | 西安理工大学 | 基于条件循环一致性生成对抗网络的字体风格迁移方法 |
CN111932645A (zh) * | 2020-06-12 | 2020-11-13 | 重庆大学 | 基于生成对抗网络gan自动生成水墨画的方法 |
WO2020233207A1 (zh) * | 2019-05-20 | 2020-11-26 | 广东省智能制造研究所 | 一种基于半监督学习策略的高光谱数据分析方法 |
CN112100908A (zh) * | 2020-08-31 | 2020-12-18 | 西安工程大学 | 一种基于多条件深度卷积生成对抗网络的服装设计方法 |
-
2020
- 2020-12-24 CN CN202011548196.XA patent/CN113033595A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107220600A (zh) * | 2017-05-17 | 2017-09-29 | 清华大学深圳研究生院 | 一种基于深度学习的图片生成方法及生成对抗网络 |
US20190295302A1 (en) * | 2018-03-22 | 2019-09-26 | Northeastern University | Segmentation Guided Image Generation With Adversarial Networks |
CN108829855A (zh) * | 2018-06-21 | 2018-11-16 | 山东大学 | 基于条件生成对抗网络的衣着穿搭推荐方法、系统及介质 |
WO2020233207A1 (zh) * | 2019-05-20 | 2020-11-26 | 广东省智能制造研究所 | 一种基于半监督学习策略的高光谱数据分析方法 |
CN110321957A (zh) * | 2019-07-05 | 2019-10-11 | 重庆大学 | 融合三元组损失和生成对抗网络的多标签图像检索方法 |
CN110503598A (zh) * | 2019-07-30 | 2019-11-26 | 西安理工大学 | 基于条件循环一致性生成对抗网络的字体风格迁移方法 |
CN111932645A (zh) * | 2020-06-12 | 2020-11-13 | 重庆大学 | 基于生成对抗网络gan自动生成水墨画的方法 |
CN112100908A (zh) * | 2020-08-31 | 2020-12-18 | 西安工程大学 | 一种基于多条件深度卷积生成对抗网络的服装设计方法 |
Non-Patent Citations (5)
Title |
---|
TING YE 等: "Discovering biomedical causality by a generative Bayesian causal network under uncertainty", 2020 IJCNN, 28 September 2020 (2020-09-28) * |
WENBIN ZHANG 等: "CMGAN: A generative adversarial network embedded with causal matrix", APPLIED INTELLIGENCE (2022) 52, 22 March 2022 (2022-03-22), pages 16233 * |
侯玉兵;: "图像风格迁移方法研究", 中国新通信, no. 17, 5 September 2020 (2020-09-05), pages 138 - 139 * |
刘恒;吴德鑫;徐剑;: "基于生成式对抗网络的通用性对抗扰动生成方法", 信息网络安全, no. 05, 10 May 2020 (2020-05-10), pages 63 - 70 * |
张文彬: "基于结构因果模型的图像可控生成方法研究", 万方数据知识服务平台, 1 November 2023 (2023-11-01) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111798369B (zh) | 一种基于循环条件生成对抗网络的人脸衰老图像合成方法 | |
CN110378985A (zh) | 一种基于gan的动漫绘画辅助创作方法 | |
CN111291212A (zh) | 基于图卷积神经网络的零样本草图图像检索方法和系统 | |
Kim et al. | Pixel-wise wasserstein autoencoder for highly generative dehazing | |
CN110209789A (zh) | 一种用户注意力引导的多模态对话系统及方法 | |
Liu et al. | Name your style: An arbitrary artist-aware image style transfer | |
CN113379655A (zh) | 一种基于动态自注意力生成对抗网络的图像合成方法 | |
CN111462274A (zh) | 一种基于smpl模型的人体图像合成方法及系统 | |
CN110097615B (zh) | 一种联合风格化和去风格化的艺术字编辑方法和系统 | |
CN113989405B (zh) | 一种基于小样本持续学习的图像生成方法 | |
Surya et al. | ReStGAN: A step towards visually guided shopper experience via text-to-image synthesis | |
CN114170659A (zh) | 一种基于注意力机制的面部情感识别方法 | |
Galatolo et al. | TeTIm-Eval: a novel curated evaluation data set for comparing text-to-image models | |
Zamyatin et al. | Learning to generate chairs with generative adversarial nets | |
CN113033595A (zh) | 基于生成对抗网络的多标签汽车造型生成方法 | |
US20230262293A1 (en) | Video synthesis via multimodal conditioning | |
WO2023154192A1 (en) | Video synthesis via multimodal conditioning | |
Zhu et al. | TT2INet: Text to photo-realistic image synthesis with transformer as text encoder | |
Ren et al. | SAFont: Automatic Font Synthesis using Self-Attention Mechanisms. | |
Sathya et al. | Adversarially Trained Variational Auto-Encoders With Maximum Mean Discrepancy based Regularization | |
Guo | Design and development of an intelligent rendering system for new year's paintings color based on b/s architecture | |
CN117994447B (zh) | 面向型片的车型设计3d图像辅助生成方法和系统 | |
CN116805046B (zh) | 一种基于文本标签生成3d人体动作的方法 | |
CN117252892B (zh) | 基于轻量化视觉自注意力网络的双分支人像自动抠图装置 | |
CN114693940B (zh) | 基于深度学习的特征混合可分解性增强的图像描述方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |