CN114663275B - 一种基于风格对抗生成网络stylegan2的脸谱图像生成方法 - Google Patents
一种基于风格对抗生成网络stylegan2的脸谱图像生成方法 Download PDFInfo
- Publication number
- CN114663275B CN114663275B CN202210338393.1A CN202210338393A CN114663275B CN 114663275 B CN114663275 B CN 114663275B CN 202210338393 A CN202210338393 A CN 202210338393A CN 114663275 B CN114663275 B CN 114663275B
- Authority
- CN
- China
- Prior art keywords
- style
- network
- facial makeup
- image
- stylegan2
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000001815 facial effect Effects 0.000 title claims abstract description 72
- 238000000034 method Methods 0.000 title claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 40
- 238000007781 pre-processing Methods 0.000 claims abstract description 5
- 239000013598 vector Substances 0.000 claims description 35
- 230000009466 transformation Effects 0.000 claims description 26
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 13
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 10
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000003786 synthesis reaction Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 238000010606 normalization Methods 0.000 claims description 7
- 238000005070 sampling Methods 0.000 claims description 4
- 210000000697 sensory organ Anatomy 0.000 claims description 4
- 238000011426 transformation method Methods 0.000 claims description 3
- 230000007423 decrease Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 230000006641 stabilisation Effects 0.000 claims description 2
- 238000011105 stabilization Methods 0.000 claims description 2
- 230000006870 function Effects 0.000 description 8
- 238000009826 distribution Methods 0.000 description 6
- 238000011160 research Methods 0.000 description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 210000004709 eyebrow Anatomy 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000012466 permeate Substances 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于风格对抗生成网络stylegan2的脸谱图像生成方法,包括如下步骤:步骤1,对脸谱图像数据集进行预处理;步骤2,改进风格对抗生成网络stylegan2;步骤3,向改进后的风格对抗生成网络stylegan2导入数据集;步骤4,训练改进后的风格对抗生成网络stylegan2得到新脸谱:通过操作镜像模块不断微调每次迭代后的生成脸谱图像参数,在网络过拟合前不断观察,随着FID值不断下降并稳定下来,最后停止训练并挑出图像质量较好的阶段的参数,输入生成器进行图像生成,得到最终的新脸谱。本方法实现了基于风格对抗生成网络stylegan2的脸谱图像生成,操作方便,提高了脸谱图像生成的质量和精度。
Description
技术领域
本发明涉及计算机图像处理技术,具体涉及一种基于风格对抗生成网络stylegan2的脸谱图像生成方法。
背景技术
秦腔脸谱,是中国秦腔戏曲艺术的重要构成部分,多年来一直形成并保持了自身的一套完整体系。秦腔古装戏中的“花脸”脸谱有不同的类型,在色彩与构象上有独特的讲究,并且异彩纷呈,风格各异,构想奇特,是非常宝贵的非物质文化遗产。秦腔脸谱是舞台化妆的特殊手段,它能标注出戏曲舞台人物的面貌、性格、身份和年龄等,并具有辅助表演、夸张人物的功效,可以分善恶、辩忠奸,美化舞台人物,增强观众的审美观。每一个脸谱渗透着西北乃至中国民众生活中的忠孝礼仪,喜怒哀乐,以及忠奸英烈的文化内涵,表达了不同的性格特点。国内目前的研究主要集中戏曲的新形态演绎、全息展示、人机互动等方面,在京剧脸谱人文分析研究也有,但鲜有针对脸谱识别和生成相关工作,尚处于起步阶段。现有在脸谱生成技术中,存在生成脸谱不美观、脸谱纹路线条不流畅、不像脸谱、特征不明显、轮廓不整齐的问题。亟需针对大量脸谱图像的智能分析方法研究,以支撑对戏曲文化传承保护和戏曲文化艺术风格的研究。建立自成体系、具有自主产权、符合中国传统文化特色的戏曲脸谱保护技术和系统,对促进非物质文化遗产数字化保护,以及我国的文物事业、文化产业和精神文明的发展都显得十分重要。
现有的秦腔脸谱数量有限,而脸谱文化意义重大。目前使用生成对抗网络(Generative Adversarial Networks,GAN)生成或合成人脸是热门研究领域,因此本申请利用其思想进行文化创新—新脸谱生成。脸谱生成可以用已有脸谱生成新的脸谱,并可用于真实人脸的戏曲角色生成,也可以用于卡通角色生成,具有极其重要的理论意义和现实意义。
发明内容
针对现有技术存在的不足,本发明的目的在于提供一种基于风格对抗生成网络stylegan2的脸谱图像生成方法,以解决现有技术中脸谱生成图像线条不流畅不美观、不像脸谱的问题。
为了实现上述目的,本发明采用以下技术方案予以实现:
一种基于风格对抗生成网络stylegan2的脸谱图像生成方法,包括如下步骤:
步骤1,对脸谱图像数据集进行预处理:统一图片格式和分辨率,然后对齐五官图层和图样层使其眼距、眼鼻距和鼻嘴距尺寸统一,去除背景噪声并全部换为白色背景;
步骤2,改进风格对抗生成网络stylegan2:将生成器和判别器的学习率修改为1e-3,R1正则化的gamma值改为12,启用网络中的ada选项来对原始训练集做数据增强,以及使用bcR模块来防止生成器学到数据增强后的特征并保证之后的训练集潜向量不被干扰;最后在生成器中的合成网络结构加入镜像层;
步骤3,向改进后的风格对抗生成网络stylegan2导入数据集:首先将脸谱图像数据集转换成stylegan2可用的数据集格式,并将其作为训练集导入改进后的风格对抗生成网络stylegan2,并对训练集进行数据增强;
步骤4,训练改进后的风格对抗生成网络stylegan2得到新脸谱:通过操作镜像模块不断微调每次迭代后的生成脸谱图像参数,在网络过拟合前不断观察,随着FID值不断下降并稳定下来,最后停止训练并挑出图像质量较好的阶段的参数,输入生成器进行图像生成,得到最终的新脸谱。
进一步地,所述步骤1中脸谱图像数据集为512*512的长宽相等的图像。
进一步地,经所述步骤2改进后的风格对抗生成网络stylegan2的工作原理为:图像数据集的潜向量z经过归一化后进入由8个全连接层构成的映射网络进行非线性变换,用来解开特征向量z的特征纠缠,使得可以空间映射到表达更深层图像特征的潜向量空间W上;合成网络中初始为一个4*4*512的常量矩阵,通过图片上采样和卷积核操作逐步提高分辨率,最终达到3*1024*1024的值;每次上采样之前利用风格隐向量对每个归一化空间特征图执行缩放操作和偏置操作;之后计算每一层的风格值对(y(s,i),y(b,i))作为ω的缩放值和偏置值,从而能将风格特征表现在空间特征图中。
进一步地,所述步骤4训练改进后的风格对抗生成网络stylegan2得到新脸谱的具体过程为:图像训练集首先进入映射网络,映射网络由8个全连接层构成,通过一系列仿射变换,由隐向量z变为隐向量ω,ω转换为风格y,
y=(y(s,i),y(b.i))
其中,y(s,i)和y(b,i)是隐向量ω经过仿射变换得到的每一层归一化所需要的scale和shift,两者对应的个数和每一层feature map的channel数相同;i为训练数据的标识数;
结合AdaIN风格变换方法:
这里y(s,i)和y(b,i)分别表示风格图特征的标准差和均值;μ(xi)和δ(xi)分别表示内容图特征的均值和标准差;
然后训练集进入合成网络,给每一层子网络都输入由ω转换得到的仿射变换和转换后的随机噪声,卷积层根据输入的ω转换得到的仿射变换来调整风格,设置一次迭代判别器学习的生成样本数量,每次迭代后使生成样本进入镜像层进行线性变换,公式为:
设表示特定对称轴的向量,则a为(x,y)T,通过上式求线性变换φ对应的矩阵为:
根据A计算特征多项式fλ=λ2-Tr(A)λ+det(A),由和得aT为(v,-u)或(u,v);
则A的特征向量为注意到/>故/>又det(A)=-1,则从而/>是以/>为对称轴的对称变换;若以/>为另一组正交基,则/>的矩阵为然后图像进行上采样;随着FID值不断下降并稳定下来,在网络过拟合前停止训练并挑出图像质量较好阶段的参数,输入生成器进行图像生成;
其中,Tr表示矩阵对角线上元素的总和,μ为均值,σ为协方差,x表示真实的图片,g是生成的图片,FID代表两个图片相近程度。
本发明与现有技术相比,具有如下技术效果:
本发明首先对脸谱图像数据集进行预处理,统一图片格式和分辨率,然后对齐五官图层和图样层使其眼距,眼鼻距等尺寸统一,将背景的噪声去除且全部换为白色背景。之后将脸谱数据集转换成stylegan2可用的数据集格式,作为训练集导入改进后的stylegan2网络中进行训练。调整训练相关的参数,以及生成器和判别器的参数,并对训练集进行数据增强。经过两部分结构,第一部分是映射网络,首先进行数据增强,且将图像的特征隐向量z生成中间隐藏向量ω,然后进入合成网络,融合样本的风格和内容,镜像操作不断微调每次迭代后的生成样本,当FID(Frechet Inception Distance score,计算真实图像和生成图像的特征向量之间距离的一种度量)足够小时,即网络开始过拟合前,停止训练并取出置信度评分较高的图像模型参数,输入生成器进行图像生成。本方法实现了基于风格对抗生成网络(stylegan2)的脸谱图像生成,操作方便,提高了脸谱图像生成的质量和精度。
附图说明
图1为本发明实施例中改进后的风格对抗生成网络stylegan2得结构示意图;
图2为统一分辨率和尺寸后的70张脸谱图片;
图3为改进前的风格对抗生成网络stylegan2生成的部分脸谱效果图;
图4为本发明实施例最终生成的部分脸谱效果图;
图5为与最终生成图像特征相似的原数据集脸谱图。
具体实施方式
以下结合实施例对本发明的具体内容做进一步详细解释说明。
参照图1-5,本实施例提供一种基于风格对抗生成网络stylegan2的脸谱图像生成方法,包括如下步骤:
步骤1,对脸谱图像数据集进行预处理:统一图片格式和分辨率,固定为长宽相等(512*512),然后对齐五官图层和图样层使其眼距、眼鼻距等尺寸统一,将背景的噪声去除且全部换为白色背景;预处理之后的图像参见图2;
步骤2,改进风格对抗生成网络stylegan2;如图1所示,具体为:
1)微调生成器和判别器的网络结构参数,由于训练集较小,将生成器和判别器的学习率修改为1e-3来减缓过拟合的速度,R1正则化的gamma值改为12,从而提高对真实样本的梯度惩罚;启用网络中的ada(自适应数据增强)选项来对原始训练集做数据增强(xflip=1,rotate90=1,xint=1,scale=1,rotate=1,aniso=1,xfrac=1,brightness=1,contrast=1,lumaflip=1,hue=1,saturation=1)以及bcR模块来防止生成器学到数据增强后的特征并保证之后的训练集潜向量不被干扰;
2)在生成器中的合成网络(synthesis network)结构加入镜像层,在每次图像上采样之前进行镜像操作;公式为:
改进后的对抗生成网络结构依次包括输入编码器、归一化层、全连接感知层、噪声输入、第一卷积层、风格隐向量输入、第一AdaIN层、噪声输入、第二卷积层、风格隐向量输入、第二AdaIN层、镜像层和上采样层。
生成器和判别器最终的损失函数分别为:
Loss_G=log(exp(-D(G(z)))+1)
Loss_D=log(exp(D(G(z)))+1)+log(exp(-D(x))+1)+Fpenalty
其中,Loss_G和Loss_D分别为生成器和判别器的损失函数,z是样本空间Z的隐向量特征值,D(G(z))是来自生成样本的判别器输出;D(x)是来自真实样本的判别器输出,penalty函数为判别器的梯度惩罚项,
其中,r1_gamma为对真实样本的梯度惩罚参数,r2_gamma为对生成样本的梯度惩罚参数,和/>为惩罚区样本的梯度。
本发明采用bCR算法(balanced consistency regularization,平衡一致性正则化)来解决由于数据量不足导致的判别器过拟合问题。算法步骤为:
步骤1):从正态分布p(z)和p_data(x)取样本z~p(z),x~pdata(x),对原始样本x做数据增强得到一个变形后的分布T(x);
步骤2):计算判别器学习后的真实样本和加强的真实样本之间的差异,即通过公式(1)计算损失函数Lreal;
Lreal=||D(x)-D(T(x))||2 (1)
其中,T(x)为数据增强后的样本分布,计算两者之间的l2范式可得到这两种分布之间的差异。
然后,通过公式(2)构造判别器的损失函数
LD=D(G(z))-D(x) (2)
其中D(G(z))和D(x)分别为生成样本和真实样本通过判别器的惩罚值,两者差值为判别器损失函数,使其尽可能地不区分源数据和加强后的数据。
步骤3):每当结束一个batch_size次数的训练时,对公式(1)和(2)损失函数进行更新,用Adam优化器更新判别器的参数,公式为:
其中θD是判别器的参数,λ是一致性正则化系数,α,β1,β2为Adam优化器超参数,M为batch size。
步骤4):当判别器完成所有batch的处理,生成器结束一次迭代时,取使用Adam优化器更新生成器的参数,公式为:
其中θG是生成器的参数,α,β1,β2为Adam优化器超参数,M为batch size;以上为算法一次总迭代的方法。
步骤3,向改进后的风格对抗生成网络stylegan2导入数据集:将脸谱图像数据集转换成stylegan2可用的数据集格式(TFRecords),作为训练集导入网络中;输入训练相关的参数,输入训练的参数batch_size=8,snap=10,并对训练集进行数据增强;
输入图像的潜向量z经过归一化后进入由8个全连接层构成的映射网络进行非线性变换,即映射网络通过一系列仿射变换(线性变换+平移),使得可以空间映射到表达更深层图像特征的中间隐藏变量ω上,然后ω转换为风格y,
y=(y(s,i),y(b.i))
其中,y(s,i)和y(b,i)是隐向量ω经过仿射变换得到的每一层归一化所需要的scale和shift,两者对应的个数和每一层feature map的channel数相同;i为训练数据的标识数;
然后结合AdaIN(adaptive instance normalization)风格变换方法
这里y(s,i)和y(b,i)分别表示风格图特征的标准差和均值,μ(xi)和δ(xi)分别表示内容图特征的均值和标准差。
然后进入合成网络(synthesis network),初始为一个4*4*512的常量矩阵,给每一层子网络输入由ω转换得到的仿射变换和转换后的随机噪声,由ω转换得到的仿射变换用于控制生成图像的风格和全局属性;转换后的随机噪声用于丰富生成图像的细节和控制一些相对次要的随机向量。卷积层根据输入的ω转换得到的仿射变换来调整风格。设置一次迭代判别器学习的生成样本数量,每次迭代后使生成样本进入镜像层进行线性变换,公式为:
设表示特定对称轴的向量,则a为(x,y)T,通过上式求线性变换φ对应的矩阵为
根据A计算其特征多项式fλ=λ2-Tr(A)λ+det(A),由和得aT为(v,-u)或(u,v);则A的特征向量为/>注意到/>故/>又det(A)=-1,则/>从而/>是以/>为对称轴的对称变换。若以为另一组正交基,则/>的矩阵为/>然后通过图片上采样和卷积核操作逐步提高分辨率,最终达到3*1024*1024的值。每次上采样之前利用风格隐向量对每个归一化空间特征图执行缩放操作和偏置操作。之后计算每一层的风格值对(y(s,i),y(b,i))作为ω的缩放值和偏置值,从而能将风格特征表现在空间特征图中。
步骤4,在网络过拟合前不断观察,随着FID值不断下降并稳定下来(代表生成图像和原图像的特征分布越来越相似),停止训练并挑出图像质量较好的阶段的参数,输入生成器进行图像生成,得到最终的新脸谱,参见图4。
图3为原始styleGAN2网络训练生成出来的脸谱图像,可以看到生成的脸谱图像在分辨率和对称特征上都不尽如人意。
如图4所示,通过改进后的styleGAN2网络,最终生成的脸谱图像取得了较好的结果,在分辨率提升和对称特征上有了不错的进步。为了确认生成的新脸谱确实是在原数据上进行的创新,我们选取了原数据集中和生成脸谱中特征尽可能相似的图像来进行对比,如图5所示,可以看到,图4第一张学习到了图5第一张的基本纹路和第二张的眉形,并在眉形的颜色上进行了创新等。
综上所述,本实施例对所述发明进行了详细说明,在保证脸谱特征信息的完整下,进行了提取特征和生成合并的操作。有效地解决了脸谱图像生成清晰度不高等问题,传承、发扬并创新了秦腔脸谱传统文化。
Claims (4)
1.一种基于风格对抗生成网络stylegan2的脸谱图像生成方法,其特征在于,包括如下步骤:
步骤1,对脸谱图像数据集进行预处理:统一图片格式和分辨率,然后对齐五官图层和图样层使其眼距、眼鼻距和鼻嘴距尺寸统一,去除背景噪声并全部换为白色背景;
步骤2,改进风格对抗生成网络stylegan2:将生成器和判别器的学习率修改为1e-3,R1正则化的gamma值改为12,启用网络中的ada选项来对原始训练集做数据增强,以及使用bcR模块来防止生成器学到数据增强后的特征并保证之后的训练集潜向量不被干扰;最后在生成器中的合成网络结构加入镜像层;
步骤3,向改进后的风格对抗生成网络stylegan2导入数据集:首先将脸谱图像数据集转换成stylegan2可用的数据集格式,并将其作为训练集导入改进后的风格对抗生成网络stylegan2,并对训练集进行数据增强;
步骤4,训练改进后的风格对抗生成网络stylegan2得到新脸谱:通过操作镜像模块不断微调每次迭代后的生成脸谱图像参数,在网络过拟合前不断观察,随着FID值不断下降并稳定下来,最后停止训练并挑出图像质量较好的阶段的参数,输入生成器进行图像生成,得到最终的新脸谱。
2.如权利要求1所述的基于风格对抗生成网络stylegan2的脸谱图像生成方法,其特征在于,所述步骤1中脸谱图像数据集为512*512的长宽相等的图像。
3.如权利要求1所述的基于风格对抗生成网络stylegan2的脸谱图像生成方法,其特征在于,经所述步骤2改进后的风格对抗生成网络stylegan2的工作过程为:图像数据集的潜向量z经过归一化后进入由8个全连接层构成的映射网络进行非线性变换,用来解开特征向量z的特征纠缠,使得可以空间映射到表达更深层图像特征的潜向量空间W上;合成网络中初始为一个4*4*512的常量矩阵,通过图片上采样和卷积核操作逐步提高分辨率,最终达到3*1024*1024的值;每次上采样之前利用风格隐向量对每个归一化空间特征图执行缩放操作和偏置操作;之后计算每一层的风格值对(y(s,i),y(b,i))作为ω的缩放值和偏置值,从而能将风格特征表现在空间特征图中。
4.如权利要求1所述的基于风格对抗生成网络stylegan2的脸谱图像生成方法,其特征在于,所述步骤4训练改进后的风格对抗生成网络stylegan2得到新脸谱的具体过程为:图像训练集首先进入映射网络,映射网络由8个全连接层构成,通过一系列仿射变换,由隐向量z变为隐向量ω,ω转换为风格y,
y=(y(s,i),y(b.i))
其中,y(s,i)和y(b,i)是隐向量ω经过仿射变换得到的每一层归一化所需要的scale和shift,两者对应的个数和每一层feature map的channel数相同;i为训练数据的标识数;
结合AdaIN风格变换方法:
这里y(s,i)和y(b,i)分别表示风格图特征的标准差和均值;μ(xi)和δ(xi)分别表示内容图特征的均值和标准差;
然后训练集进入合成网络,给每一层子网络都输入由ω转换得到的仿射变换和转换后的随机噪声,卷积层根据输入的ω转换得到的仿射变换来调整风格,设置一次迭代判别器学习的生成样本数量,每次迭代后使生成样本进入镜像层进行线性变换,公式为:
设表示特定对称轴的向量,则a为(x,y)T,通过上式求线性变换φ对应的矩阵为:
根据A计算特征多项式fλ=λ2-Tr(A)λ+det(A),由和得aT为(v,-u)或(u,v);
则A的特征向量为注意到/>故/>又det(A)=-1,则从而/>是以/>为对称轴的对称变换;若以/>为另一组正交基,则/>的矩阵为然后图像进行上采样;随着FID值不断下降并稳定下来,在网络过拟合前停止训练并挑出图像质量较好阶段的参数,输入生成器进行图像生成;
其中,Tr表示矩阵对角线上元素的总和,μ为均值,σ为协方差,x表示真实的图片,g是生成的图片,FID代表两个图片相近程度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210338393.1A CN114663275B (zh) | 2022-04-01 | 2022-04-01 | 一种基于风格对抗生成网络stylegan2的脸谱图像生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210338393.1A CN114663275B (zh) | 2022-04-01 | 2022-04-01 | 一种基于风格对抗生成网络stylegan2的脸谱图像生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114663275A CN114663275A (zh) | 2022-06-24 |
CN114663275B true CN114663275B (zh) | 2024-03-15 |
Family
ID=82033305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210338393.1A Active CN114663275B (zh) | 2022-04-01 | 2022-04-01 | 一种基于风格对抗生成网络stylegan2的脸谱图像生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114663275B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427799A (zh) * | 2019-06-12 | 2019-11-08 | 中国地质大学(武汉) | 基于生成对抗网络的人手深度图像数据增强方法 |
CN112614047A (zh) * | 2020-12-18 | 2021-04-06 | 西北大学 | 一种基于TuiGAN改进的脸谱图像风格迁移的方法 |
WO2021114832A1 (zh) * | 2020-05-28 | 2021-06-17 | 平安科技(深圳)有限公司 | 样本图像数据增强方法、装置、电子设备及存储介质 |
CN113888399A (zh) * | 2021-10-25 | 2022-01-04 | 河北工业大学 | 一种基于风格融合与域选结构的人脸年龄合成方法 |
-
2022
- 2022-04-01 CN CN202210338393.1A patent/CN114663275B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110427799A (zh) * | 2019-06-12 | 2019-11-08 | 中国地质大学(武汉) | 基于生成对抗网络的人手深度图像数据增强方法 |
WO2021114832A1 (zh) * | 2020-05-28 | 2021-06-17 | 平安科技(深圳)有限公司 | 样本图像数据增强方法、装置、电子设备及存储介质 |
CN112614047A (zh) * | 2020-12-18 | 2021-04-06 | 西北大学 | 一种基于TuiGAN改进的脸谱图像风格迁移的方法 |
CN113888399A (zh) * | 2021-10-25 | 2022-01-04 | 河北工业大学 | 一种基于风格融合与域选结构的人脸年龄合成方法 |
Non-Patent Citations (2)
Title |
---|
基于生成对抗网络的HDR图像风格迁移技术;谢志峰;叶冠桦;闫淑萁;何绍荣;丁友东;;上海大学学报(自然科学版);20180831(04);全文 * |
基于生成对抗网络的风格化书法图像生成;王晓红;卢辉;麻祥才;;包装工程;20200610(11);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114663275A (zh) | 2022-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yang et al. | Semantic parametric reshaping of human body models | |
Cheng et al. | Adaptively-realistic image generation from stroke and sketch with diffusion model | |
US20240037852A1 (en) | Method and device for reconstructing three-dimensional faces and storage medium | |
CN106780367B (zh) | 基于字典学习的hdr照片风格转移方法 | |
Li et al. | Focaldreamer: Text-driven 3d editing via focal-fusion assembly | |
CN111950430A (zh) | 基于颜色纹理的多尺度妆容风格差异度量及迁移方法、系统 | |
Mordvintsev et al. | $\mu $ NCA: Texture Generation with Ultra-Compact Neural Cellular Automata | |
Yang et al. | Makeup Extraction of 3D Representation via Illumination‐Aware Image Decomposition | |
CN114663275B (zh) | 一种基于风格对抗生成网络stylegan2的脸谱图像生成方法 | |
Liu et al. | Translate the facial regions you like using self-adaptive region translation | |
CN114742693A (zh) | 基于自适应实例归一化的妆容迁移方法 | |
Peng et al. | ISFB-GAN: Interpretable semantic face beautification with generative adversarial network | |
Huang et al. | Caripainter: Sketch guided interactive caricature generation | |
CN116823596A (zh) | 一种驾驶状态图像数据集的增广方法、增广装置 | |
Guo et al. | A robust deep style transfer for headshot portraits | |
Chen et al. | Animating lip-sync characters with dominated animeme models | |
Xu et al. | DreamAnime: Learning Style-Identity Textual Disentanglement for Anime and Beyond | |
Chen et al. | Makeup transfer based on Laplacian pyramid network | |
Li et al. | Disentangled Lifespan Synthesis via Transformer‐Based Nonlinear Regression | |
Chen et al. | Disentangled Lifespan Synthesis via Transformer-Based Nonlinear Regression | |
Chen et al. | Neural 3D face rendering conditioned on 2D appearance via GAN disentanglement method | |
Cao et al. | LisaCLIP: Locally Incremental Semantics Adaptation towards Zero-shot Text-driven Image Synthesis | |
CN118608660B (zh) | 一种基于扩散模型的图像动态编辑方法 | |
Şahin et al. | Automatic Mustache Pattern Production on Denim Fabric with Generative Adversarial Networks | |
Kicanaoglu et al. | Unsupervised Facial Performance Editing via Vector-Quantized StyleGAN Representations |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |