CN113781294A - 一种改进的循环生成对抗网络实现皮影戏风格迁移的方法 - Google Patents
一种改进的循环生成对抗网络实现皮影戏风格迁移的方法 Download PDFInfo
- Publication number
- CN113781294A CN113781294A CN202111071376.8A CN202111071376A CN113781294A CN 113781294 A CN113781294 A CN 113781294A CN 202111071376 A CN202111071376 A CN 202111071376A CN 113781294 A CN113781294 A CN 113781294A
- Authority
- CN
- China
- Prior art keywords
- character
- shadow play
- network
- picture
- cartoon
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013508 migration Methods 0.000 title claims abstract description 41
- 230000005012 migration Effects 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 40
- 125000004122 cyclic group Chemical group 0.000 title claims description 8
- 238000012549 training Methods 0.000 claims abstract description 19
- 230000008569 process Effects 0.000 claims description 8
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000012216 screening Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- 238000009826 distribution Methods 0.000 claims description 2
- 238000013507 mapping Methods 0.000 claims 4
- 230000008901 benefit Effects 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 4
- 230000000694 effects Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000004519 manufacturing process Methods 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000014759 maintenance of location Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000010428 oil painting Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003042 antagnostic effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000013078 crystal Substances 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/80—2D [Two Dimensional] animation, e.g. using sprites
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
Abstract
本发明涉及一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,包括以下步骤:获取皮影戏人物图片数据集与动漫人物图片数据集;基于所述皮影戏人物图片数据集和动漫人物图片数据集训练获得一个动漫人物‑皮影戏人物转换器;所述动漫人物‑皮影戏人物转换器采用本发明提出的一种改进的循环生成对抗网络实现;所述动漫人物‑皮影戏人物转换器输入一张动漫人物图片,输出一张对应的皮影戏人物图片。与现有的图片风格迁移技术相比,本发明生成的皮影戏人物图片具有人物轮廓更清晰、背景更干净的优点。
Description
技术领域
本发明涉及图像风格迁移领域,具体是指一种改进的循环生成对抗网络实现皮影戏风格迁移的方法。
背景技术
图像风格迁移的目标是将一张图片在不破坏其原始内容的基础上转换成另一种艺术风格的图片。例如将随手拍下的一张风景图转化为一张抽象派油画图片。最初的图像风格迁移需要经过复杂的建模让计算机理解图像的风格特点,再对原始图片进行迁移变化使其像素分布能符合围绕风格图片建立的模型。这种方法能够满足一些简单的图像风格迁移要求,比如头像风格迁移,但这类方法效率过低且在很多情况下难以取得令人满意的效果,风格迁移始终未能具有生产意义。直到2015年Gatys等人首先将深度学习与图像风格迁移结合起来。他们利用预训练过的卷积神经网络提取风格图片特征,利用神经网络自动完成对风格图片的纹理建模;同时利用预训练过的卷积神经网络提取内容图片的内容特征,并将获取的纹理特征看作图像风格特征;他们将内容特征与图像风格特征融合起来得到了风格化图片。
皮影戏是一种优秀的传统艺术形式,具有悠久的历史。皮影戏作为一种古老的艺术形式,使用兽皮或纸板做成的人物剪影利用光影变换的效果演出戏剧。皮影戏是古人的智慧结晶,其利用有限的条件进行了精彩的艺术表演。但随着影视作品对皮影戏地位的冲击,越来越多皮影戏从业者不得不放弃这项工作,其中主要原因便是皮影戏人物制作需要耗费大量精力以及皮影戏表演依赖场地,这些限制因素导致皮影戏从业者花费大量精力却无法从中获取足够利益。虽然传统文化都受到了一定程度上的保护,但这些措施只是减缓这些传统文化的消亡。而将深度学习用于皮影戏人物形象制作可以有效提升皮影戏制作速度,相比皮影戏较为单调的人物形象还可以制作更多不同形象的皮影戏人物,这样可以有效降低皮影戏制作成本,既能保护传统文化也能创造经济价值。
从技术的角度来看:虽然图像风格迁移技术快速发展,但大多数图像风格迁移技术都是针对纹理特征鲜明、色彩明艳的油画风格或者特征明显的漫画。皮影戏这类具有独特艺术形象的风格特征却少人涉及。传统的基于卷积神经网络的风格迁移大多是通过提取图像纹理特征并将其与内容图片融合,但皮影戏很难只用纹理特征来表现其风格特点,因此Gatys等人提出的基于卷积神经网络的图像风格迁移并不适合皮影戏。循环生成对抗网络作为一种经典的无监督图像风格迁移模型,无需配对数据集,且有着较为优秀的图像风格迁移能力,比较适合实现皮影戏风格迁移。但原始循环生成对抗网络生成的迁移图像分辨率较低,无法满足皮影戏的质量要求。
综上所述,针对皮影戏风格迁移,现有的方法均存在一些问题。
发明内容
本发明提供了一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,能够将动漫人物图片风格迁移至皮影戏人物图片,且迁移效果好,有助于提高皮影戏制作速度,具有其现实意义。
为解决上述技术问题,本发明提供的技术方案为:一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,包括:
获取皮影戏人物图片数据集与动漫人物图片数据集;
基于所述皮影戏人物图片数据集和动漫人物图片数据集训练获得一个动漫人物-皮影戏人物转换器,所述动漫人物-皮影戏人物转换器采用本发明提出的一种改进的循环生成对抗网络实现;
所述动漫人物-皮影戏人物转换器输入一张动漫人物图片,输出一张对应的皮影戏人物图片。
进一步的,所述获取皮影戏人物图片数据集与动漫人物图片数据集方式为:
利用爬虫从百度图片根据关键词——皮影戏人物批量获取图片。然后以人物形象完整度,图片清晰度,背景整洁情况作为筛选标准进行筛选,并采取数据增强手段进行数据集扩充。对于动漫人物图片数据收集采用与皮影戏图片相同的收集方法。
所述基于皮影戏人物图片数据集和动漫人物图片数据集训练获得一个动漫人物-皮影戏人物转换器的方式为:
将动漫人物数据集和皮影戏人物数据集图片分辨率全部处理为256×256;
使用Adam优化算法,设置所需的超参数进行模型训练,训练过程中保存对应的模型参数。
所述的一种改进的循环生成对抗网络,具体来说:
a)改进原始循环生成对抗网络模型的生成网络;
进一步的,所述一种改进的循环生成对抗网络在原始循环生成对抗网络模型基础之上,将U-NET作为循环生成对抗模型中的生成网络,采用跳层连接结构将编码器与解码器直接连接。
将残差结构应用于U-NET网络改进编码器与解码器结构,原始U-NET编码器模块结构为无填充卷积连接线性整流函数(ReLU),最后连接大小为2×2的最大池化层,现在改进后的编码器将无填充卷积层替换为残差块,并添加数据归一化处理加快网络收敛速度。U-NET解码器模块改进与编码器类似。原始U-NET解码器模块结构为无填充卷积连接ReLU函数,最后连接反卷积,现在改进后的解码器将无填充卷积层替换为残差块,并添加数据归一化处理。
b)使用马尔可夫判别器作为循环生成对抗网络模型的判别网络;
进一步的,选择补丁(Patch)大小为70×70的马尔可夫判别器作为判别网络,该判别器会对输入图像上每个70×70大小的补丁进行判断,并输出对应0-1矩阵,然后对最后的结果取均值。
c)选用公开的WGAN-GP作为生成对抗网络,将生成网络与判别网络连接起来,并根据选用的WGAN-GP确定损失函数;
进一步的,选用的损失函数表示为:
LGAN(G,F,Dx,Dy)=LGAN(G,DY,X,Y)+LGAN(F,Dx,Y,X)+LGAN(G,F)·λ
其中,循环生成对抗网络可以看作包含了两个生成对抗网络,存在两个映射G和F;两个数据域分别为X和Y,判断数据域X图片真假的判别器为DX,判断数据域Y图片真假的判别器为DY;映射G会优化自身生成与数据域Y具有相似数据分布的图片,而判别器DY也会优化自身判别能力,两个映射之间存在着对抗关系;映射F与判别器DX也有着和前者类似的关系;λ为控制参数,设置为10。
所述改进的循环生成对抗网络实现皮影戏风格迁移的方法,生成皮影戏风格人物图片,具体来说:
加载训练过程中保存的模型;
输入一张尺寸为256×256的动漫人物图片,使用加载的模型做预测,得到输出为输入的动漫图片风格迁移后的皮影戏人物图片,输出图片尺寸为256×256。
与现有技术相比,本发明具有如下有益效果:
本发明将U-NET应用于循环生成对抗模型之中,并使用残差结构改进了U-NET网络模型,相比于原有循环生成对抗模型,改进后的算法生成的皮影戏风格图片精细程度更高,人物形象保留度更高、轮廓更清晰,无用背景信息去除效果更好等优点。
本发明与现有技术相比的优点在于:本发明将U-NET应用于循环生成对抗模型之中,并使用残差结构改进了U-NET网络模型,相比于原有循环生成对抗模型,改进后的算法生成的皮影戏风格图片精细程度更高,人物形象保留度更高、轮廓更清晰,无用背景信息去除效果更好等优点。
附图说明
图1为本发明使用数据集示例图。
图2为本发明U-NET网络结构图。
图3为本发明改进后的U-NET编码器模块结构图。
图4为本发明生成皮影戏风格图片流程示意图。
图5为本发明改进模型实现的皮影戏风格迁移效果图。
图6为本发明皮影戏风格迁移效果对比图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。本实施例以本发明技术方案为前提进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
本发明提供了一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,包括以下内容:
a)获取皮影戏人物图片数据集与动漫人物图片数据集;
b)基于所述皮影戏人物图片数据集和动漫人物图片数据集训练获得一个动漫人物-皮影戏人物转换器,所述动漫人物-皮影戏人物转换器采用本发明提出的一种改进的循环生成对抗网络实现;
c)所述动漫人物-皮影戏人物转换器输入一张动漫人物图片,输出一张对应的皮影戏人物图片。
皮影戏人物图片数据集与动漫人物图片数据集获取方式为:
利用爬虫从百度图片根据关键词——皮影戏人物批量获取图片。然后以人物形象完整度,图片清晰度,背景整洁情况作为标准进行筛选,从中挑选了约300张。考虑到数据较少,采取了水平翻转、随机裁剪等数据增强技术将数据集扩张至1200张图片。动漫人物图片收集方法采用与皮影戏图片相同的收集方法,以人物形象完整度作为判别标准。经过数据增强后,动漫人物图片集规模也靠近1200张。图1中,(a)为部分皮影戏数据集,(b)为部分动漫人物数据集。
基于皮影戏人物图片数据集和动漫人物图片数据集训练获得一个动漫人物-皮影戏人物转换器的方式为:
将动漫人物数据集和皮影戏人物数据集图片分辨率全部处理为256×256;
将batch_size大小设为4,实验模型训练200个周期后停止训练,前100个周期训练率稳定为0.0002,后100个周期训练率线性衰减至0。使用了学习率为0.001的Adam优化算法。训练过程中设置检查点,同时每个周期都会保存对应的模型参数,最多可同时保存最新的10个周期对应的模型参数。训练过程中每训练1000次迭代会保存一次图片,可以使用TensorBoard直接观察生成的图片,以观察图片风格迁移的效果。本发明在单个GeForceRTX 2080 Ti GPU上约训练15小时,共计迭代约120000次。
所述动漫人物-皮影戏人物转换器采用本发明提出的一种改进的循环生成对抗网络实现,循环生成对抗网络改进方法,包括以下内容:
a)改进原始循环生成对抗网络模型的生成网络;
原始的循环生成对抗网络模型中的生成网络采用编码器-转换器-解码器结构,编码器只由三层卷积层组成,这种网络层数较少的结构不利于生成高质量图片。同时,相同层次的编码器和解码器没有连接,无法同时利用底层特征与高层特征,不利于保留更多信息。
U-NET利用跳层连接结构将编码器与解码器直接连接起来,同时利用底层特征与高层特征,保留更多细节信息。U-NET网络基本结构如图2所示。
因此,所述一种改进的循环生成对抗网络在原始循环生成对抗网络模型基础之上,将U-NET作为循环生成对抗模型中的生成网络,采用跳层连接结构将编码器与解码器直接连接。
将残差结构应用于U-NET网络改进编码器与解码器结构,原始U-NET编码器模块结构为无填充卷积连接线性整流函数(ReLU),最后连接大小为2×2的最大池化层,现在改进后的编码器将无填充卷积层替换为残差块,并添加数据归一化处理加快网络收敛速度,改进后的编码器模块结构如图3所示。U-NET解码器模块改进与编码器类似。原始U-NET解码器模块结构为无填充卷积连接ReLU函数,最后连接反卷积,现在改进后的解码器将无填充卷积层替换为残差块,并添加数据归一化处理加快网络收敛速度。
b)使用马尔可夫判别器作为循环生成对抗网络模型的判别网络;
选择补丁(Patch)大小为70×70的马尔可夫判别器作为判别网络,该判别器会对输入图像上每个70×70大小的补丁进行判断,并输出对应0-1矩阵,矩阵中每一个元素代表一个判别器对一个补丁真假的判断,然后对最后的结果取均值。
c)选用公开的WGAN-GP作为生成对抗网络,将生成网络与判别网络连接起来,并根据选用的WGAN-GP确定损失函数。
选用的损失函数表示为:
LGAN(G,F,Dx,Dy)=LGAN(G,DY,X,Y)+LGAN(F,Dx,Y,X)+LGAN(G,F)·λ
其中,循环生成对抗网络可以看作包含了两个生成对抗网络,存在两个映射G和F;两个数据域分别为X和Y,判断数据域X图片真假的判别器为DX,判断数据域Y图片真假的判别器为DY;映射G会优化自身生成与数据域Y具有相似数据分布的图片,而判别器DY也会优化自身判别能力,两个映射之间存在着对抗关系;映射F与判别器DX也有着和前者类似的关系;λ为控制参数,设置为10。
所述动漫人物-皮影戏人物转换器输入一张动漫人物图片,输出一张对应的皮影戏人物图片。如图4所示,本发明提供了一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,使用训练好的模型将动漫图片转化为对应皮影戏风格图片输出保存。例如使用如图5(左)所示的动漫人物图片进行风格迁移,将其输入至训练好的生成器模型,得到如图5(右)所示的皮影戏风格人物图片输出。
为说明本发明与同类方法相比的先进性,使用相同测试样例对不同方法进行测试。图6中为皮影戏风格迁移效果对比图。其中图(a)为原图(动漫人物图片),图(b)为应用Gatys等人提出的基于卷积神经网络的纹理建模方法进行风格迁移后的效果图,图(c)为原始循环生成对抗网络模型训练完成后对测试图片风格化结果,图(d)为本发明提出的改进模型训练完成后针对测试图片风格化结果。
从测试图片风格迁移后的输出结果来看,Gatys等人的方法在皮影戏风格迁移上的表现极差。原始循环生成对抗网络模型和本发明提出的改进模型图片风格迁移效果总体上差距不大。但从人物形象保留度、背景信息去除情况来看,改进模型在对于人物轮廓的保留更为清晰,背景也更为干净。
本领域的普通技术人员无需创造性劳动就可以根据本发明的构思做出诸多修改和变化。因此,凡本技术领域中技术人员依本发明的构思在现有技术的基础上通过逻辑分析、推理或者有限的实验可以得到技术方案,皆应在由本发明所确定的保护范围内。
Claims (8)
1.一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,其特征在于,包括以下步骤:
获取皮影戏人物图片数据集与动漫人物图片数据集;基于皮影戏人物图片数据集和动漫人物图片数据集训练获得一个动漫人物-皮影戏人物转换器,动漫人物-皮影戏人物转换器采用本发明提出的一种改进的循环生成对抗网络实现;动漫人物-皮影戏人物转换器输入一张动漫人物图片,输出一张对应的皮影戏人物图片。
2.根据权利要求1所述的一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,其特征在于,所述皮影戏人物图片数据集与动漫人物图片数据集获取方式为:利用爬虫从百度图片根据关键词—皮影戏人物批量获取图片,然后以人物形象完整度,图片清晰度,背景整洁情况作为标准进行筛选,并采取数据增强手段进行数据集扩充;对于动漫人物图片数据收集采用与皮影戏图片相同的收集方法。
3.根据权利要求1所述的一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,其特征在于,基于皮影戏人物图片数据集和动漫人物图片数据集训练获得一个动漫人物-皮影戏人物转换器的方式为:将动漫人物数据集和皮影戏人物数据集图片分辨率全部处理为256×256;使用Adam优化算法,设置所需的超参数进行模型训练,训练过程中保存对应的模型参数。
4.根据权利要求1所述的一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,其特征在于,改进原始循环生成对抗网络模型的生成网络;使用马尔可夫判别器作为循环生成对抗网络模型的判别网络;选用公开的WGAN-GP作为生成对抗网络,将生成网络与判别网络连接起来,并根据选用的WGAN-GP确定损失函数。
5.根据权利要求4所述的一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,其特征在于,所述一种改进的循环生成对抗网络在原始循环生成对抗网络模型基础之上,将U-NET作为循环生成对抗模型中的生成网络,采用跳层连接结构将编码器与解码器直接连接;将残差结构应用于U-NET网络改进编码器与解码器结构,原始U-NET编码器模块结构为无填充卷积连接线性整流函数(ReLU),最后连接大小为2×2的最大池化层,现在改进后的编码器将无填充卷积层替换为残差块,并添加数据归一化处理加快网络收敛速度;U-NET解码器模块改进与编码器类似;原始U-NET解码器模块结构为无填充卷积连接ReLU函数,最后连接反卷积,现在改进后的解码器将无填充卷积层替换为残差块,并添加数据归一化处理加快网络收敛速度。
6.根据权利要求4所述的一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,其特征在于,使用马尔可夫判别器作为循环生成对抗网络模型的判别网络,选择补丁(Patch)大小为70×70的马尔可夫判别器作为判别网络,该判别器会对输入图像上每个70×70大小的补丁进行判断,并输出对应0-1矩阵,然后对最后的结果取均值。
7.根据权利要求4所述的的一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,其特征在于:选用公开的WGAN-GP作为生成对抗网络,并根据选用的WGAN-GP确定损失函数,选用的损失函数表示为:
LGAN(G,F,Dx,Dy)=LGAN(G,DY,X,Y)+LGAN(F,Dx,Y,X)+LGAN(G,F)·λ
其中,循环生成对抗网络可以看作包含了两个生成对抗网络,存在两个映射G和F;两个数据域分别为X和Y,判断数据域X图片真假的判别器为DX,判断数据域Y图片真假的判别器为DY;映射G会优化自身生成与数据域Y具有相似数据分布的图片,而判别器DY也会优化自身判别能力,两个映射之间存在着对抗关系;映射F与判别器DX也有着和前者类似的关系;λ为控制参数,设置为10。
8.根据权利要求1所述的一种改进的循环生成对抗网络实现皮影戏风格迁移的方法,其特征在于,动漫人物-皮影戏人物转换器输入一张动漫人物图片,输出一张对应的皮影戏人物图片实现方式为:加载如权利要求3所述的训练过程中保存的模型;输入一张尺寸为256×256的动漫人物图片,使用加载的模型做预测,得到的输出为输入动漫图片风格迁移后的皮影戏人物图片,输出图片尺寸为256×256。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111071376.8A CN113781294A (zh) | 2021-09-14 | 2021-09-14 | 一种改进的循环生成对抗网络实现皮影戏风格迁移的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111071376.8A CN113781294A (zh) | 2021-09-14 | 2021-09-14 | 一种改进的循环生成对抗网络实现皮影戏风格迁移的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113781294A true CN113781294A (zh) | 2021-12-10 |
Family
ID=78843213
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111071376.8A Pending CN113781294A (zh) | 2021-09-14 | 2021-09-14 | 一种改进的循环生成对抗网络实现皮影戏风格迁移的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113781294A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116798092A (zh) * | 2023-05-24 | 2023-09-22 | 哈尔滨工业大学 | 构建个性化皮影头茬属性编辑生成器的方法 |
CN116843805A (zh) * | 2023-06-19 | 2023-10-03 | 上海奥玩士信息技术有限公司 | 一种包含行为的虚拟形象生成方法、装置、设备及介质 |
-
2021
- 2021-09-14 CN CN202111071376.8A patent/CN113781294A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116798092A (zh) * | 2023-05-24 | 2023-09-22 | 哈尔滨工业大学 | 构建个性化皮影头茬属性编辑生成器的方法 |
CN116843805A (zh) * | 2023-06-19 | 2023-10-03 | 上海奥玩士信息技术有限公司 | 一种包含行为的虚拟形象生成方法、装置、设备及介质 |
CN116843805B (zh) * | 2023-06-19 | 2024-03-19 | 上海奥玩士信息技术有限公司 | 一种包含行为的虚拟形象生成方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113781294A (zh) | 一种改进的循环生成对抗网络实现皮影戏风格迁移的方法 | |
CN111861906B (zh) | 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法 | |
CN111862294A (zh) | 基于ArcGAN网络的手绘3D建筑自动上色网络结构及方法 | |
CN114757864B (zh) | 一种基于多尺度特征解耦的多层级细粒度图像生成方法 | |
CN112489164A (zh) | 基于改进深度可分离卷积神经网络的图像着色方法 | |
CN110351561B (zh) | 一种用于视频编码优化的高效强化学习训练方法 | |
CN112884758A (zh) | 一种基于风格迁移方法的缺陷绝缘子样本生成方法及系统 | |
CN114581552A (zh) | 一种基于生成对抗网络的灰度图像彩色化方法 | |
CN115294550A (zh) | 一种基于多任务学习的自动驾驶汽车道路场景理解方法 | |
CN111414988B (zh) | 基于多尺度特征自适应融合网络的遥感影像超分辨率方法 | |
CN117451716A (zh) | 一种工业产品表面缺陷检测方法 | |
CN115908602A (zh) | 一种将风景照片转换为中国山水画的风格迁移方法 | |
CN117034100A (zh) | 基于分层池化架构自适应图分类方法、系统、设备和介质 | |
CN114882278A (zh) | 一种基于注意力机制和迁移学习的轮胎花纹分类方法和装置 | |
Li et al. | Tinypillarnet: Tiny pillar-based network for 3d point cloud object detection at edge | |
Hu et al. | Image style transfer based on generative adversarial network | |
Zhang et al. | New image processing: VGG image style transfer with gram matrix style features | |
CN117557708A (zh) | 图像生成方法、装置、存储介质及计算机设备 | |
Liu et al. | Real-time object detection in UAV vision based on neural processing units | |
CN114565806A (zh) | 一种基于表征增强的特征域优化小样本图像转换方法 | |
CN114332491A (zh) | 一种基于特征重构的显著性目标检测算法 | |
CN114092827A (zh) | 一种图像数据集生成方法 | |
Sheng | Asymmetric CycleGAN for unpaired image-to-image translation based on dual attention module | |
CN112329799A (zh) | 一种点云彩色化算法 | |
Yu et al. | GAN-Based Day and Night Image Cross-Domain Conversion Research and Application |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |