CN115311720A - 一种基于Transformer的deepfake生成方法 - Google Patents
一种基于Transformer的deepfake生成方法 Download PDFInfo
- Publication number
- CN115311720A CN115311720A CN202210964397.0A CN202210964397A CN115311720A CN 115311720 A CN115311720 A CN 115311720A CN 202210964397 A CN202210964397 A CN 202210964397A CN 115311720 A CN115311720 A CN 115311720A
- Authority
- CN
- China
- Prior art keywords
- vector
- module
- input
- swin
- branch
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Processing (AREA)
Abstract
一种基于Transformer的deepfake生成方法,通过将预处理得到的源身份人脸和目标身份人脸图片,放入基于Swin Transformer为主干网络的编码器,得到图片中的人脸整体编码特征,再将编码特征进行特征向量嵌入得到最终编码向量,再放入基于注意力的解码器生成特定的身份图片之前,将编码向量进行嵌出。之后嵌出向量通过基于注意力的解码器即可生成特定身份的高分辨图片。之后为了提升图片生成质量,使用图片块判别器进行更加大的区域感知。最后再利用人脸转化中的人脸扭曲和插值模块、肤色校正模块和人脸融合拼接模块生成最终的人脸交换结果。本专利不仅加强了编码和解码过程中人脸表情和身份信息的控制而且最终得到高分辨图片人脸交换的结果。
Description
技术领域
本发明涉及视频或图片中人脸交换领域,具体涉及一种基于Transformer的deepfake生成方法。
背景技术
随着深度学习技术的发展、自媒体的兴起而产生的大量人脸数据,deepfake技术随之产生。Deepfake生成是指给定任意两个人脸图片,选定一个为源身份人脸图片,另一个则为目标身份人脸图片。具体来说,是通过二者最终生成的人脸,应当包含源身份人脸的身份信息,同时保证与目标身份人脸的属性信息(表情、姿势和光照等等)保持一致。
之前的这些deepfake生成方法,都是基于卷积神经网络为主要框架的。人们设计了各种各样的卷积神经网络模块来满足换脸需求。从最开始的上采样、下采样模块到之后的身份信息模块、人脸属性分离模块以及其它模块,这些功能模块在提高deepfake生成效率上发挥了一定的作用,但是也存在一定的问题。首先,由于卷积神经网络自身的局限性,存在归纳偏置的问题,无法对图片的长距离关系进行把握。因此使用卷积神经网络设计的编码模块不可避免地导致编码向量缺乏人脸表情和身份的丰富特征信息。其次,现有绝大部分的生成方法无法在高分辨率图片做到清晰的生成。
发明内容
本发明为了克服以上技术的不足,提供了一种使用Swin Transformer作为编码器以及包含注意力的解码器,来加强编码和解码过程中人脸表情和身份信息的控制的基于Transformer的deepfake生成方法。
本发明克服其技术问题所采用的技术方案是:
一种基于Transformer的deepfake生成方法,包括:
a)对包含源身份人脸的源视频Vs进行人脸识别及人脸对齐操作,得到源身份人脸图片Ps,对包含目标身份人脸的目标视频Vt进行人脸识别及人脸对齐操作,得到目标身份人脸图片Pt;
b)建立网络模型,该网络模型由Swin Transformer编码器E、向量嵌入单元Vin、源身份的向量嵌出单元Vouts、目标身份的向量嵌出单元Voutt、源身份的基于注意力的解码器Gs、目标身份的基于注意力的解码器Gt、源身份图片的判别器Ds以及目标身份图片的判别器Dt构成;
e)将源身份人脸图片的编码向量输入到源身份的向量嵌出单元Vouts中,输出得到源身份人脸图片的解码向量Vs,将目标身份人脸图片的编码向量输入到目标身份的向量嵌出单元Voutt中,输出得到目标身份人脸图片的解码向量Vt;
f)将源身份人脸图片的解码向量Vs输入到源身份的基于注意力的解码器Gs中,输出得到源身份人脸图片的重建高分辨率图片Rs,将目标身份人脸图片的解码向量Vt输入到目标身份的基于注意力的解码器Gt中,输出得到目标身份人脸图片的重建高分辨率图片Rt;
g)将高分辨率图片Rs输入到源身份图片的判别器Ds中,采用PatchGAN判别器对高分辨率图片Rs进行判别,得到判别结果将高分辨率图片Rt输入到目标身份图片的判别器Dt中,采用PatchGAN判别器对高分辨率图片Rt进行判别,得到判别结果完成模型建立;
h)通过损失函数lall利用Adam优化器迭代步骤c)至g)中模型的参数,得到优化后的模型;
i)将目标身份人脸图片Pt输入到步骤h)中优化后的模型内,依次经过优化后的模型的SwinTransformer编码器E、向量嵌入单元Vin、源身份的向量嵌出单元Vouts、源身份的基于注意力的解码器Gs后输出得到高分辨率图片解码结果Rt2s,利用dlib库对目标身份人脸图片Pt检测分别得到目标身份人脸的人脸特征点fk、目标人脸图片及目标人脸背景图片
进一步的,步骤a)中使用InsightFace工具对包含源身份人脸的源视频Vs以及包含目标身份人脸的目标视频Vt进行人脸识别及人脸对齐操作。
优选的,步骤a)中源身份人脸图片Ps及目标身份人脸图片Pt的大小均设置为224*224。
进一步的,步骤c)包括如下步骤:
c-1)Swin Transformer编码器E依次由patch Partition模块、第一处理模块、第二处理模块、第三处理模块及第四处理模块构成;
c-2)所述patch Partition模块由一个卷积核为4*4、步长为4的卷积层构成,将源身份人脸图片Ps和目标身份人脸图片Pt分别输入到patch Partition模块中,输出得到不重叠的源身份人脸图片的图片块及目标身份人脸图片的图片块将图片块及图片块加上绝对位置编码,分别得到编码向量和编码向量
c-3)所述第一处理模块依次由Linear Embeding层、第一Swin Transformerblock、第二Swin Transformer block构成,Linear Embeding层由一个卷积核为1*1、输出特征通道数为33的卷积层构成,第一Swin Transformer block与第二Swin Transformerblock均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一SwinTransformer block与第二Swin Transformer block的多头个数设置为3,将编码向量和编码向量输入到第一处理模块后,分别输出得到编码向量和编码向量
c-4)所述第二处理模块依次由Swin Transformer网络中的patch merging层、第一Swin Transformer block、第二Swin Transformer block构成,第一Swin Transformerblock与第二Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一Swin Transformer block与第二Swin Transformer block的多头个数设置为6,将编码向量和编码向量输入到第二处理模块后,分别输出得到编码向量和编码向量
c-5)所述第三处理模块依次由Swin Transformer网络中的patch merging层、第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformerblock、第四Swin Transformer block、第五Swin Transformer block、第六SwinTransformer block构成,第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformerblock、第六Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformer block的多头个数设置为12,将编码向量和编码向量输入到第三处理模块后,分别输出得到编码向量和编码向量
c-6)所述第四处理模块依次由Swin Transformer网络中的patch merging层、第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformerblock、第四Swin Transformer block、第五Swin Transformer block、第六SwinTransformer block构成,第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformerblock、第六Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformer block的多头个数设置为12,将编码向量和编码向量输入到第四处理模块后,分别输出得到编码向量和编码向量
优选的,步骤d)中向量嵌入单元Vin由一个卷积核为1*1、输出特征通道数为256的卷积层构成;步骤e)中源身份的向量嵌出单元Vouts及目标身份的向量嵌出单元Voutt均依次由两个卷积核为1*1、输出特征通道数为256的卷积层构成。
进一步的,步骤f)包括如下步骤:
f-1)源身份的基于注意力的解码器Gs和目标身份的基于注意力的解码器Gt均依次由3*3卷积核的第一卷积层、第一残差模块、第二残差模块、第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元、第三残差模块、第四残差模块、第五残差模块、第一自注意力模块、第二自注意力模块、第三自注意力模块、第一上采样模块、第二上采样模块、第三上采样模块、第二卷积层构成;
f-2)第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元均依次由残差模块和上采样模块构成,所述第一残差模块、第二残差模块、第三残差模块、第四残差模块、第五残差模块以及第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元中的残差模块均由第一分支和第二分支构成,所述第一分支依次由第一批标准化层、第一ReLU函数层、卷积核为3*3的第一卷积层、卷积核为2*2最大池化层、第二批标准化层、第二ReLU函数层及卷积核为3*3第二卷积层构成,所述第二分支依次由第三批标准化层、ReLU函数层及卷积核为3*3的第三卷积层构成,第一自注意力模块、第二自注意力模块、第三自注意力模块均由第一分支、第二分支构成,所述第一分支由归一化层、第一卷积层、第二卷积层、第三卷积层、第一乘法模块、Softmax函数层、第二乘法模块及第四卷积层构成;
f-3)将源身份人脸图片的解码向量Vs输入到源身份的基于注意力的解码器Gs中,经第一卷积层卷积后,输出得到向量将向量输入到第一残差模块中的第一分支后输出得到向量将向量输入到第一残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第二残差模块中的第一分支后输出得到向量将向量输入到第二残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的残差模块第一个分支后输出得到向量将向量输入到第一上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的上采样模块中,输出得到向量将向量输入到第二上采样单元的残差模块第一个分支后输出得到向量将向量输入到第二上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第二上采样单元的上采样模块中,输出得到向量将向量输入到第三上采样单元的残差模块第一个分支后输出得到向量将向量输入到第三上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第三上采样单元的上采样模块中,输出得到向量将向量输入到第四上采样单元的残差模块第一个分支后输出得到向量将向量输入到第四上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第四上采样单元的上采样模块中,输出得到向量将向量输入到第三残差模块的第一分支后,输出得到向量将向量输入到第三残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第四残差模块的第一分支后,输出得到向量将向量输入到第四残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第五残差模块的第一分支后,输出得到向量将向量输入到第五残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第一自注意力模块的第一分支的归一化层归一化处理后得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中softmax(·)为Softmax激活函数,T为转置,dks1为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第一自注意力模块的第二分支输入的向量相加得到向量将向量输入到第二自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dks2为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第二自注意力模块的第二分支输入的向量相加得到向量将向量输入到第三自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dks3为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第三自注意力模块的第二分支输入的向量相加得到向量将向量依次输入到源身份的基于注意力的解码器Gs的第一上采样模块、第二上采样模块、第三上采样模块、第二卷积层后输出得到高分辨图片Rs。
f-4)将目标身份人脸图片的解码向量Vt输入到目标身份的基于注意力的解码器Gt中,经第一卷积层卷积后,输出得到向量将向量输入到第一残差模块中的第一分支后输出得到向量将向量输入到第一残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第二残差模块中的第一分支后输出得到向量将向量输入到第二残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的残差模块第一个分支后输出得到向量将向量输入到第一上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的上采样模块中,输出得到向量将向量输入到第二上采样单元的残差模块第一个分支后输出得到向量将向量输入到第二上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第二上采样单元的上采样模块中,输出得到向量将向量输入到第三上采样单元的残差模块第一个分支后输出得到向量将向量输入到第三上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第三上采样单元的上采样模块中,输出得到向量将向量输入到第四上采样单元的残差模块第一个分支后输出得到向量将向量输入到第四上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第四上采样单元的上采样模块中,输出得到向量将向量输入到第三残差模块的第一分支后,输出得到向量将向量输入到第三残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第四残差模块的第一分支后,输出得到向量将向量输入到第四残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第五残差模块的第一分支后,输出得到向量将向量输入到第五残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第一自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dkt1为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第一自注意力模块的第二分支输入的向量相加得到向量将向量输入到第二自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dkt2为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第二自注意力模块的第二分支输入的向量相加得到向量将向量输入到第三自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dkt3为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第三自注意力模块的第二分支输入的向量相加得到向量将向量依次输入到目标身份的基于注意力的解码器Gt的第一上采样模块、第二上采样模块、第三上采样模块、第二卷积层后输出得到高分辨图片Rt。
进一步的,步骤c-2)中通过随机生成一组相同的维度的可学习参数得到绝对位置编码。优选的,步骤f-1)中第二卷积层的卷积核为3*3、步长为1、填充为1及输出特征通道数为3,第一上采样模块、第二上采样模块、第三上采样模块均依次由最近邻插值算法单元及一个卷积核为3*3、步长为1、填充为1的卷积层构成,步骤f-2)中第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元中的上采样模块依次由最近邻插值算法单元及一个卷积核为3*3、步长为1、填充为1的卷积层构成,步骤f-2)中第一自注意力模块、第二自注意力模块、第三自注意力模块中的第一卷积层、第二卷积层、第三卷积层的卷积核大小为3*3、步长为1,第四卷积层的卷积核大小为1*1、步长为1。
进一步的,步骤h)中通过公式lall=lrec+ld+llpips计算得到损失函数lall,式中lrec为重建图片损失,ld为判别损失,llpips为感知相似性损失,lrec=||Rs-P|||2+||Rt-Pt||2,式中Ds(Ps)为将源身份人脸图片Ps输入到源身份图片的判别器Ds中,采用PatchGAN判别器对源身份人脸图片Ps进行判别后的判别结果,Dt(Pt)为将目标身份人脸图片Pt输入到目标身份图片的判别器中,采用PatchGAN判别器对目标身份人脸图片Pt进行判别后的判别结果,中Ci为VGG网络第i层的特征通道数,Hi为VGG网络第i层的特征长度,Wi为VGG网络第i层的特征宽度,i∈{1,...,n},n为VGG网络的总层数,VGGi(Rs)为将高分辨率图片Rs输入到VGG网络第i层后得到的输出结果,VGGi(Ps)为将源身份人脸图片Ps输入到VGG网络第i层后得到的输出结果,VGGi(Rt)为将高分辨率图片Rt输入到VGG网络第i层后得到的输出结果,VGGi(Pt)为将目标身份人脸图片Pt输入到VGG网络第i层后得到的输出结果。
进一步的,步骤j)包括如下步骤:
本发明的有益效果是:通过将预处理得到的源身份人脸和目标身份人脸图片,放入基于Swin Transformer为主干网络的编码器,得到图片中的人脸整体编码特征(包含眼睛、鼻子、嘴巴、肤色、背景等等特征),再将编码特征进行特征向量嵌入得到最终编码向量,再放入基于注意力的解码器生成特定的身份图片之前,将编码向量进行嵌出。之后嵌出向量通过基于注意力的解码器即可生成特定身份的高分辨图片,同时该图片保留目标身份的表情、姿势、光照等等特征。最后为了提升图片生成质量,使用图片块判别器进行更加大的区域感知,提升对图片细节的把控,来使得生成图片的细节更加清晰、内容更加完整。该方法模型不仅加强了编码和解码过程中人脸表情和身份信息的控制而且最终得到高分辨图片人脸交换的结果。
附图说明
图1为本发明的网络模型结构图;
图2为本发明的Swin Transformer编码器模型图;
图3为本发明的基于注意力的解码器模型图;
图4为本发明的残差模块网络模型图;
图5为本发明的自注意力模块网络模型图;
图6为本发明的人脸转化过程图。
具体实施方式
下面结合附图1至附图6对本发明做进一步说明。
如附图6所示,一种基于Transformer的deepfake生成方法,包括:
a)对包含源身份人脸的源视频Vs进行人脸识别及人脸对齐操作,得到源身份人脸图片Ps,对包含目标身份人脸的目标视频Vt进行人脸识别及人脸对齐操作,得到目标身份人脸图片Pt。
b)如附图1所示,建立网络模型,该网络模型由Swin Transformer编码器E、向量嵌入单元Vin、源身份的向量嵌出单元Vouts、目标身份的向量嵌出单元Voutt、源身份的基于注意力的解码器Gs、目标身份的基于注意力的解码器Gt、源身份图片的判别器Ds以及目标身份图片的判别器Dt构成。
e)将源身份人脸图片的编码向量输入到源身份的向量嵌出单元Vouts中,输出得到源身份人脸图片的解码向量Vs,将目标身份人脸图片的编码向量输入到目标身份的向量嵌出单元Voutt中,输出得到目标身份人脸图片的解码向量Vt。
f)将源身份人脸图片的解码向量Vs输入到源身份的基于注意力的解码器Gs中,输出得到源身份人脸图片的重建高分辨率图片Rs,将目标身份人脸图片的解码向量Vt输入到目标身份的基于注意力的解码器Gt中,输出得到目标身份人脸图片的重建高分辨率图片Rt。
g)将高分辨率图片Rs输入到源身份图片的判别器Ds中,采用PatchGAN判别器对高分辨率图片Rs进行判别,得到判别结果将高分辨率图片Rt输入到目标身份图片的判别器Dt中,采用PatchGAN判别器对高分辨率图片Rt进行判别,得到判别结果完成模型建立。
h)通过损失函数lall利用Adam优化器迭代步骤c)至g)中模型的参数,得到优化后的模型。
i)将目标身份人脸图片Pt输入到步骤h)中优化后的模型内,依次经过优化后的模型的Swin Transformer编码器E、向量嵌入单元Vin、源身份的向量嵌出单元Vouts、源身份的基于注意力的解码器Gs后输出得到高分辨率图片解码结果Rt2s,利用dlib库对目标身份人脸图片Pt检测分别得到目标身份人脸的人脸特征点fk、目标人脸图片及目标人脸背景图片
利用Swin Transformer编码器的层级式架构来学习到人脸图片多尺度的丰富特征。为了便于对特征的学习,进一步对编码器提取的特征压缩并且在生成特定身份图片之前对特征进行嵌出。然后为了生成特定目标身份的高分辨图片,本发明使用基于注意力的解码器来完成高分辨图片的重建。基于注意力的解码器中利用Transformer来补充卷积神经网络的不足,使得解码器可以进行长距离把控,加强了编码和解码过程中人脸表情和身份信息的控制。最终再利用人脸转化中的人脸扭曲和插值模块、肤色校正模块和人脸融合拼接模块生成最终的人脸交换结果。解决了人脸交换领域目前存在的两个问题:(1)生成的人脸交换结果对身份信息和表情信息控制得不够细致。(2)绝大部分方法无法在高分辨率的图片上进行清晰的生成。
实施例1:
步骤a)中使用InsightFace工具对包含源身份人脸的源视频Vs以及包含目标身份人脸的目标视频Vt进行人脸识别及人脸对齐操作。
实施例2:
步骤a)中源身份人脸图片Ps及目标身份人脸图片Pt的大小均设置为224*224。
实施例3:
如附图2所示,步骤c)包括如下步骤:
c-1)Swin Transformer编码器E依次由patch Partition模块、第一处理模块、第二处理模块、第三处理模块及第四处理模块构成。
c-2)所述patch Partition模块由一个卷积核为4*4、步长为4的卷积层构成,将源身份人脸图片Ps和目标身份人脸图片Pt分别输入到patch Partition模块中,输出得到不重叠的源身份人脸图片的图片块及目标身份人脸图片的图片块将图片块及图片块加上绝对位置编码,分别得到编码向量和编码向量
c-3)所述第一处理模块依次由Linear Embeding层、第一Swin Transformerblock、第二Swin Transformer block构成,Linear Embeding层由一个卷积核为1*1、输出特征通道数为33的卷积层构成,第一Swin Transformer block与第二Swin Transformerblock均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一SwinTransformer block与第二Swin Transformer block的多头个数设置为3,将编码向量和编码向量输入到第一处理模块后,分别输出得到编码向量和编码向量
c-4)所述第二处理模块依次由Swin Transformer网络中的patch merging层、第一Swin Transformer block、第二Swin Transformer block构成,第一Swin Transformerblock与第二Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一Swin Transformer block与第二Swin Transformer block的多头个数设置为6,将编码向量和编码向量输入到第二处理模块后,分别输出得到编码向量和编码向量
c-5)所述第三处理模块依次由Swin Transformer网络中的patch merging层、第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformerblock、第四Swin Transformer block、第五Swin Transformer block、第六SwinTransformer block构成,第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformerblock、第六Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformer block的多头个数设置为12,将编码向量和编码向量输入到第三处理模块后,分别输出得到编码向量和编码向量
c-6)所述第四处理模块依次由Swin Transformer网络中的patch merging层、第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformerblock、第四Swin Transformer block、第五Swin Transformer block、第六SwinTransformer block构成,第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformerblock、第六Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformer block的多头个数设置为12,将编码向量和编码向量输入到第四处理模块后,分别输出得到编码向量和编码向量
实施例4:
步骤d)中向量嵌入单元Vin由一个卷积核为1*1、输出特征通道数为256的卷积层构成;步骤e)中源身份的向量嵌出单元Vouts及目标身份的向量嵌出单元Voutt均依次由两个卷积核为1*1、输出特征通道数为256的卷积层构成。
实施例5:
如附图3所示,步骤f)包括如下步骤:
f-1)源身份的基于注意力的解码器Gs和目标身份的基于注意力的解码器Gt均依次由3*3卷积核的第一卷积层、第一残差模块、第二残差模块、第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元、第三残差模块、第四残差模块、第五残差模块、第一自注意力模块、第二自注意力模块、第三自注意力模块、第一上采样模块、第二上采样模块、第三上采样模块、第二卷积层构成。
f-2)如附图4所示,第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元均依次由残差模块和上采样模块构成,所述第一残差模块、第二残差模块、第三残差模块、第四残差模块、第五残差模块以及第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元中的残差模块均由第一分支和第二分支构成,所述第一分支依次由第一批标准化层(Batch Normalization)、第一ReLU函数层、卷积核为3*3的第一卷积层、卷积核为2*2最大池化层、第二批标准化层(Batch Normalization)、第二ReLU函数层及卷积核为3*3第二卷积层构成,所述第二分支依次由第三批标准化层(Batch Normalization)、ReLU函数层及卷积核为3*3的第三卷积层构成,如附图5所示,第一自注意力模块、第二自注意力模块、第三自注意力模块均由第一分支、第二分支构成,所述第一分支由归一化层、第一卷积层、第二卷积层、第三卷积层、第一乘法模块、Softmax函数层、第二乘法模块及第四卷积层构成。
f-3)将源身份人脸图片的解码向量Vs输入到源身份的基于注意力的解码器Gs中,经第一卷积层卷积后,输出得到向量将向量输入到第一残差模块中的第一分支后输出得到向量将向量输入到第一残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第二残差模块中的第一分支后输出得到向量将向量输入到第二残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的残差模块第一个分支后输出得到向量将向量输入到第一上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的上采样模块中,输出得到向量将向量输入到第二上采样单元的残差模块第一个分支后输出得到向量将向量输入到第二上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第二上采样单元的上采样模块中,输出得到向量将向量输入到第三上采样单元的残差模块第一个分支后输出得到向量将向量输入到第三上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第三上采样单元的上采样模块中,输出得到向量将向量输入到第四上采样单元的残差模块第一个分支后输出得到向量将向量输入到第四上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第四上采样单元的上采样模块中,输出得到向量将向量输入到第三残差模块的第一分支后,输出得到向量将向量输入到第三残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第四残差模块的第一分支后,输出得到向量将向量输入到第四残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第五残差模块的第一分支后,输出得到向量将向量输入到第五残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第一自注意力模块的第一分支的归一化层归一化处理后得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中softmax(·)为Softmax激活函数,T为转置,dks1为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第一自注意力模块的第二分支输入的向量相加得到向量将向量输入到第二自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dks2为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第二自注意力模块的第二分支输入的向量相加得到向量将向量输入到第三自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dks3为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第三自注意力模块的第二分支输入的向量相加得到向量将向量依次输入到源身份的基于注意力的解码器Gs的第一上采样模块、第二上采样模块、第三上采样模块、第二卷积层后输出得到高分辨图片Rs。
f-4)将目标身份人脸图片的解码向量Vt输入到目标身份的基于注意力的解码器Gt中,经第一卷积层卷积后,输出得到向量将向量输入到第一残差模块中的第一分支后输出得到向量将向量输入到第一残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第二残差模块中的第一分支后输出得到向量将向量输入到第二残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的残差模块第一个分支后输出得到向量将向量输入到第一上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的上采样模块中,输出得到向量将向量输入到第二上采样单元的残差模块第一个分支后输出得到向量将向量输入到第二上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第二上采样单元的上采样模块中,输出得到向量将向量输入到第三上采样单元的残差模块第一个分支后输出得到向量将向量输入到第三上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第三上采样单元的上采样模块中,输出得到向量将向量输入到第四上采样单元的残差模块第一个分支后输出得到向量将向量输入到第四上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第四上采样单元的上采样模块中,输出得到向量将向量输入到第三残差模块的第一分支后,输出得到向量将向量输入到第三残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第四残差模块的第一分支后,输出得到向量将向量输入到第四残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第五残差模块的第一分支后,输出得到向量将向量输入到第五残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第一自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dkt1为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第一自注意力模块的第二分支输入的向量相加得到向量将向量输入到第二自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dkt2为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第二自注意力模块的第二分支输入的向量相加得到向量将向量输入到第三自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dkt3为空间向量的维度,将激活函数值及空间向量一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第三自注意力模块的第二分支输入的向量相加得到向量将向量依次输入到目标身份的基于注意力的解码器Gt的第一上采样模块、第二上采样模块、第三上采样模块、第二卷积层后输出得到高分辨图片Rt。
实施例6:
步骤c-2)中通过随机生成一组相同的维度的可学习参数得到绝对位置编码。
实施例7:
步骤f-1)中第二卷积层的卷积核为3*3、步长为1、填充为1及输出特征通道数为3,第一上采样模块、第二上采样模块、第三上采样模块均依次由最近邻插值算法单元及一个卷积核为3*3、步长为1、填充为1的卷积层构成,步骤f-2)中第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元中的上采样模块依次由最近邻插值算法单元及一个卷积核为3*3、步长为1、填充为1的卷积层构成,步骤f-2)中第一自注意力模块、第二自注意力模块、第三自注意力模块中的第一卷积层、第二卷积层、第三卷积层的卷积核大小为3*3、步长为1,第四卷积层的卷积核大小为1*1、步长为1。
实施例8:
为了提升重建图像真实性,计算重建高分辨率图片Rs、重建高分辨率图片Rt和源身份人脸图片Ps、目标身份人脸图片Pt之间的重建图片损失lrec,计算判别结果判别结果和源身份人脸图片Ps、目标身份人脸图片Pt之间的判别损失ld,计算重建高分辨率图片Rs、重建高分辨率图片Rt和源身份人脸图片Ps、目标身份人脸图片Pt之间的感知相似性损失llpips。具体的,步骤h)中通过公式lall=lrec+ld+llpips计算得到损失函数lall,lrec=||Rs-P|||2+||Rt-Pt||2,式中Ds(Ps)为将源身份人脸图片Ps输入到源身份图片的判别器Ds中,采用PatchGAN判别器对源身份人脸图片Ps进行判别后的判别结果,Dt(Pt)为将目标身份人脸图片Pt输入到目标身份图片的判别器中,采用PatchGAN判别器对目标身份人脸图片Pt进行判别后的判别结果,式中Ci为VGG网络第i层的特征通道数,Hi为VGG网络第i层的特征长度,Wi为VGG网络第i层的特征宽度,i∈{1,...,n},n为VGG网络的总层数,VGGi(Rs)为将高分辨率图片Rs输入到VGG网络第i层后得到的输出结果,VGGi(Ps)为将源身份人脸图片Ps输入到VGG网络第i层后得到的输出结果,VGGi(Rt)为将高分辨率图片Rt输入到VGG网络第i层后得到的输出结果,VGGi(Pt)为将目标身份人脸图片Pt输入到VGG网络第i层后得到的输出结果。
实施例9:
步骤j)包括如下步骤:
j-7)通过公式计算得到人脸融合结果式中⊙为同或逻辑运算。由于目标人脸图片与肤色转化结果Rc存在不同的光照条件,因为同时使用泊松融合来优化人脸融合结果的像素值,具体的,通过公式来优化人脸融合结果的像素值式中||·||2为L2范数,▽为梯度算子,f为目标人脸图片与肤色转化结果Rc连接边缘区域。
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于Transformer的deepfake生成方法,其特征在于,包括:
a)对包含源身份人脸的源视频Vs进行人脸识别及人脸对齐操作,得到源身份人脸图片Ps,对包含目标身份人脸的目标视频Vt进行人脸识别及人脸对齐操作,得到目标身份人脸图片Pt;
b)建立网络模型,该网络模型由Swin Transformer编码器E、向量嵌入单元Vin、源身份的向量嵌出单元Vouts、目标身份的向量嵌出单元Voutt、源身份的基于注意力的解码器Gs、目标身份的基于注意力的解码器Gt、源身份图片的判别器Ds以及目标身份图片的判别器Dt构成;
e)将源身份人脸图片的编码向量输入到源身份的向量嵌出单元Vouts中,输出得到源身份人脸图片的解码向量Vs,将目标身份人脸图片的编码向量输入到目标身份的向量嵌出单元Voutt中,输出得到目标身份人脸图片的解码向量Vt;
f)将源身份人脸图片的解码向量Vs输入到源身份的基于注意力的解码器Gs中,输出得到源身份人脸图片的重建高分辨率图片Rs,将目标身份人脸图片的解码向量Vt输入到目标身份的基于注意力的解码器Gt中,输出得到目标身份人脸图片的重建高分辨率图片Rt;
g)将高分辨率图片Rs输入到源身份图片的判别器Ds中,采用PatchGAN判别器对高分辨率图片Rs进行判别,得到判别结果将高分辨率图片Rt输入到目标身份图片的判别器Dt中,采用PatchGAN判别器对高分辨率图片Rt进行判别,得到判别结果完成模型建立;
h)通过损失函数lall利用Adam优化器迭代步骤c)至g)中模型的参数,得到优化后的模型;
i)将目标身份人脸图片Pt输入到步骤h)中优化后的模型内,依次经过优化后的模型的Swin Transformer编码器E、向量嵌入单元Vin、源身份的向量嵌出单元Vouts、源身份的基于注意力的解码器Gs后输出得到高分辨率图片解码结果Rt2s,利用dlib库对目标身份人脸图片Pt检测分别得到目标身份人脸的人脸特征点fk、目标人脸图片Pt p及目标人脸背景图片Pt c;
j)根据高分辨率图片解码结果Rt2s、目标身份人脸的人脸特征点fk、目标人脸图片Pt p及目标人脸背景图片Pt c得到最终换脸结果Routput。
2.根据权利要求1所述的基于Transformer的deepfake生成方法,其特征在于:步骤a)中使用InsightFace工具对包含源身份人脸的源视频Vs以及包含目标身份人脸的目标视频Vt进行人脸识别及人脸对齐操作。
3.根据权利要求1所述的基于Transformer的deepfake生成方法,其特征在于:步骤a)中源身份人脸图片Ps及目标身份人脸图片Pt的大小均设置为224*224。
4.根据权利要求1所述的基于Transformer的deepfake生成方法,其特征在于,步骤c)包括如下步骤:
c-1)Swin Transformer编码器E依次由patch Partition模块、第一处理模块、第二处理模块、第三处理模块及第四处理模块构成;
c-2)所述patch Partition模块由一个卷积核为4*4、步长为4的卷积层构成,将源身份人脸图片Ps和目标身份人脸图片Pt分别输入到patch Partition模块中,输出得到不重叠的源身份人脸图片的图片块Ps patch及目标身份人脸图片的图片块Pt patch,将图片块Ps patch及图片块Pt patch加上绝对位置编码,分别得到编码向量Ps e和编码向量Pt e;
c-3)所述第一处理模块依次由Linear Embeding层、第一Swin Transformer block、第二Swin Transformer block构成,Linear Embeding层由一个卷积核为1*1、输出特征通道数为33的卷积层构成,第一Swin Transformer block与第二Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一SwinTransformer block与第二Swin Transformer block的多头个数设置为3,将编码向量Ps e和编码向量Pt e输入到第一处理模块后,分别输出得到编码向量和编码向量
c-4)所述第二处理模块依次由Swin Transformer网络中的patch merging层、第一Swin Transformer block、第二Swin Transformer block构成,第一Swin Transformerblock与第二Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一Swin Transformer block与第二Swin Transformer block的多头个数设置为6,将编码向量和编码向量输入到第二处理模块后,分别输出得到编码向量和编码向量
c-5)所述第三处理模块依次由Swin Transformer网络中的patch merging层、第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformerblock构成,第一Swin Transformer block、第二Swin Transformer block、第三SwinTransformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一Swin Transformer block、第二Swin Transformer block、第三SwinTransformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformer block的多头个数设置为12,将编码向量和编码向量输入到第三处理模块后,分别输出得到编码向量和编码向量
c-6)所述第四处理模块依次由Swin Transformer网络中的patch merging层、第一Swin Transformer block、第二Swin Transformer block、第三Swin Transformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformerblock构成,第一Swin Transformer block、第二Swin Transformer block、第三SwinTransformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformer block均由Swin Transformer网络中以移动窗口所构成的注意力计算单元构成,第一Swin Transformer block、第二Swin Transformer block、第三SwinTransformer block、第四Swin Transformer block、第五Swin Transformer block、第六Swin Transformer block的多头个数设置为12,将编码向量和编码向量输入到第四处理模块后,分别输出得到编码向量和编码向量
5.根据权利要求1所述的基于Transformer的deepfake生成方法,其特征在于:步骤d)中向量嵌入单元Vin由一个卷积核为1*1、输出特征通道数为256的卷积层构成;步骤e)中源身份的向量嵌出单元Vouts及目标身份的向量嵌出单元Voutt均依次由两个卷积核为1*1、输出特征通道数为256的卷积层构成。
6.根据权利要求1所述的基于Transformer的deepfake生成方法,其特征在于,步骤f)包括如下步骤:
f-1)源身份的基于注意力的解码器Gs和目标身份的基于注意力的解码器Gt均依次由3*3卷积核的第一卷积层、第一残差模块、第二残差模块、第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元、第三残差模块、第四残差模块、第五残差模块、第一自注意力模块、第二自注意力模块、第三自注意力模块、第一上采样模块、第二上采样模块、第三上采样模块、第二卷积层构成;
f-2)第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元均依次由残差模块和上采样模块构成,所述第一残差模块、第二残差模块、第三残差模块、第四残差模块、第五残差模块以及第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元中的残差模块均由第一分支和第二分支构成,所述第一分支依次由第一批标准化层、第一ReLU函数层、卷积核为3*3的第一卷积层、卷积核为2*2最大池化层、第二批标准化层、第二ReLU函数层及卷积核为3*3第二卷积层构成,所述第二分支依次由第三批标准化层、ReLU函数层及卷积核为3*3的第三卷积层构成,第一自注意力模块、第二自注意力模块、第三自注意力模块均由第一分支、第二分支构成,所述第一分支由归一化层、第一卷积层、第二卷积层、第三卷积层、第一乘法模块、Softmax函数层、第二乘法模块及第四卷积层构成;
f-3)将源身份人脸图片的解码向量Vs输入到源身份的基于注意力的解码器Gs中,经第一卷积层卷积后,输出得到向量将向量输入到第一残差模块中的第一分支后输出得到向量将向量输入到第一残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第二残差模块中的第一分支后输出得到向量将向量输入到第二残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的残差模块第一个分支后输出得到向量将向量输入到第一上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的上采样模块中,输出得到向量将向量输入到第二上采样单元的残差模块第一个分支后输出得到向量将向量输入到第二上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第二上采样单元的上采样模块中,输出得到向量将向量输入到第三上采样单元的残差模块第一个分支后输出得到向量将向量输入到第三上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第三上采样单元的上采样模块中,输出得到向量将向量输入到第四上采样单元的残差模块第一个分支后输出得到向量将向量输入到第四上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第四上采样单元的上采样模块中,输出得到向量将向量输入到第三残差模块的第一分支后,输出得到向量将向量输入到第三残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第四残差模块的第一分支后,输出得到向量将向量输入到第四残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第五残差模块的第一分支后,输出得到向量将向量输入到第五残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第一自注意力模块的第一分支的归一化层归一化处理后得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量Vs 1,将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中softmax(·)为Softmax激活函数,T为转置,dks1为空间向量的维度,将激活函数值及空间向量Vs 1一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第一自注意力模块的第二分支输入的向量相加得到向量将向量输入到第二自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量Vs 2,将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dks2为空间向量的维度,将激活函数值及空间向量Vs 2一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第二自注意力模块的第二分支输入的向量相加得到向量将向量输入到第三自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量Vs 3,将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dks3为空间向量的维度,将激活函数值及空间向量Vs 3一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第三自注意力模块的第二分支输入的向量相加得到向量将向量依次输入到源身份的基于注意力的解码器Gs的第一上采样模块、第二上采样模块、第三上采样模块、第二卷积层后输出得到高分辨图片Rs;
f-4)将目标身份人脸图片的解码向量Vt输入到目标身份的基于注意力的解码器Gt中,经第一卷积层卷积后,输出得到向量将向量输入到第一残差模块中的第一分支后输出得到向量将向量输入到第一残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第二残差模块中的第一分支后输出得到向量将向量输入到第二残差模块中的第二分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的残差模块第一个分支后输出得到向量将向量输入到第一上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第一上采样单元的上采样模块中,输出得到向量将向量输入到第二上采样单元的残差模块第一个分支后输出得到向量将向量输入到第二上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第二上采样单元的上采样模块中,输出得到向量将向量输入到第三上采样单元的残差模块第一个分支后输出得到向量将向量输入到第三上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第三上采样单元的上采样模块中,输出得到向量将向量输入到第四上采样单元的残差模块第一个分支后输出得到向量将向量输入到第四上采样单元的残差模块第二个分支后输出得到向量将向量与向量相加得到向量将向量输入到第四上采样单元的上采样模块中,输出得到向量将向量输入到第三残差模块的第一分支后,输出得到向量将向量输入到第三残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第四残差模块的第一分支后,输出得到向量将向量输入到第四残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第五残差模块的第一分支后,输出得到向量将向量输入到第五残差模块的第二分支后,输出得到向量将向量与向量相加得到向量将向量输入到第一自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量Vt 1,将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dkt1为空间向量的维度,将激活函数值及空间向量Vt 1一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第一自注意力模块的第二分支输入的向量相加得到向量将向量输入到第二自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量Vt 2,将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dkt2为空间向量的维度,将激活函数值及空间向量Vt 2一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第二自注意力模块的第二分支输入的向量相加得到向量将向量输入到第三自注意力模块的第一分支的归一化层归一化处理后,得到向量将向量分别输入到第一卷积层、第二卷积层、第三卷积层中,分别输出得到特征映射空间向量Vt 3,将征映射及输入到第一乘法模块中进行相乘计算,得到空间向量将空间向量输入到Softmax函数层中,得到激活函数值式中dkt3为空间向量的维度,将激活函数值及空间向量Vt 3一同输入到第二乘法模块中进行相乘计算,通过公式计算得到注意力将注意力输入到第四卷积层中,输出得到向量将向量与第三自注意力模块的第二分支输入的向量相加得到向量将向量依次输入到目标身份的基于注意力的解码器Gt的第一上采样模块、第二上采样模块、第三上采样模块、第二卷积层后输出得到高分辨图片Rt。
7.根据权利要求4所述的基于Transformer的deepfake生成方法,其特征在于:步骤c-2)中通过随机生成一组相同的维度的可学习参数得到绝对位置编码。
8.根据权利要求6所述的基于Transformer的deepfake生成方法,其特征在于:步骤f-1)中第二卷积层的卷积核为3*3、步长为1、填充为1及输出特征通道数为3,第一上采样模块、第二上采样模块、第三上采样模块均依次由最近邻插值算法单元及一个卷积核为3*3、步长为1、填充为1的卷积层构成,步骤f-2)中第一上采样单元、第二上采样单元、第三上采样单元、第四上采样单元中的上采样模块依次由最近邻插值算法单元及一个卷积核为3*3、步长为1、填充为1的卷积层构成,步骤f-2)中第一自注意力模块、第二自注意力模块、第三自注意力模块中的第一卷积层、第二卷积层、第三卷积层的卷积核大小为3*3、步长为1,第四卷积层的卷积核大小为1*1、步长为1。
9.根据权利要求1所述的基于Transformer的deepfake生成方法,其特征在于:步骤h)中通过公式lall=lrec+ld+llpips计算得到损失函数lall,式中lrec为重建图片损失,ld为判别损失,llpips为感知相似性损失,lrec=||Rs-Ps||2+||Rt-Pt||2,式中Ds(Ps)为将源身份人脸图片Ps输入到源身份图片的判别器Ds中,采用PatchGAN判别器对源身份人脸图片Ps进行判别后的判别结果,Dt(Pt)为将目标身份人脸图片Pt输入到目标身份图片的判别器中,采用PatchGAN判别器对目标身份人脸图片Pt进行判别后的判别结果,,式中Ci为VGG网络第i层的特征通道数,Hi为VGG网络第i层的特征长度,Wi为VGG网络第i层的特征宽度,i∈{1,...,n},n为VGG网络的总层数,VGGi(Rs)为将高分辨率图片Rs输入到VGG网络第i层后得到的输出结果,VGGi(Ps)为将源身份人脸图片Ps输入到VGG网络第i层后得到的输出结果,VGGi(Rt)为将高分辨率图片Rt输入到VGG网络第i层后得到的输出结果,VGGi(Pt)为将目标身份人脸图片Pt输入到VGG网络第i层后得到的输出结果。
10.根据权利要求1所述的基于Transformer的deepfake生成方法,其特征在于,步骤j)包括如下步骤:
j-1)将目标身份人脸图片Pt根据Delaunay三角剖分算法和人脸特征点fk计算得到图片Pt d;
j-2)将高分辨率图片解码结果Rt2s根据图片Pt d中的人脸特征点使用双线性插值和仿射变换得到人脸插值结果RV;
j-3)将图片Pt d利用凸包算法和目标身份人脸的人脸特征点fk计算得到相应的目标人脸掩膜Mt;
j-4)将图片Pt d通过剪裁操作后得到背景为黑色的图片Pt f;
j-7)通过公式计算得到人脸融合结果式中⊙为同或逻辑运算,通过公式来优化人脸融合结果的像素值P(Mt,Rc,Pt p),式中||·||2为L2范数,▽为梯度算子,f为目标人脸图片Pt p与肤色转化结果Rc连接边缘区域;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210964397.0A CN115311720B (zh) | 2022-08-11 | 2022-08-11 | 一种基于Transformer的deepfake生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210964397.0A CN115311720B (zh) | 2022-08-11 | 2022-08-11 | 一种基于Transformer的deepfake生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115311720A true CN115311720A (zh) | 2022-11-08 |
CN115311720B CN115311720B (zh) | 2023-06-06 |
Family
ID=83861757
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210964397.0A Active CN115311720B (zh) | 2022-08-11 | 2022-08-11 | 一种基于Transformer的deepfake生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115311720B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115713680A (zh) * | 2022-11-18 | 2023-02-24 | 山东省人工智能研究院 | 一种基于语义引导的人脸图像身份合成方法 |
CN116152887A (zh) * | 2022-12-08 | 2023-05-23 | 山东省人工智能研究院 | 一种基于ds证据理论的动态人脸表情识别方法 |
CN116524563A (zh) * | 2023-04-28 | 2023-08-01 | 山东省人工智能研究院 | 一种基于transformer与不确定性的动态人脸表情识别方法 |
CN116524408A (zh) * | 2023-05-09 | 2023-08-01 | 山东省人工智能研究院 | 基于面部特征增强以及光流评估的虚假视频检测方法 |
CN116612211A (zh) * | 2023-05-08 | 2023-08-18 | 山东省人工智能研究院 | 一种基于gan和3d系数重建的人脸图像身份合成方法 |
Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112733625A (zh) * | 2020-12-28 | 2021-04-30 | 华南理工大学 | 基于时域自注意力机制的假脸视频篡改检测方法及系统 |
CN112766160A (zh) * | 2021-01-20 | 2021-05-07 | 西安电子科技大学 | 基于多级属性编码器和注意力机制的人脸替换方法 |
CN113379606A (zh) * | 2021-08-16 | 2021-09-10 | 之江实验室 | 一种基于预训练生成模型的人脸超分辨方法 |
CN113536990A (zh) * | 2021-06-29 | 2021-10-22 | 复旦大学 | 深度伪造人脸数据鉴别方法 |
CN113887573A (zh) * | 2021-09-10 | 2022-01-04 | 合肥高维数据技术有限公司 | 基于视觉转换器的人脸伪造检测方法 |
CN113903073A (zh) * | 2021-11-23 | 2022-01-07 | 山东省人工智能研究院 | 一种基于局部增强transformer的假视频检测方法 |
CN114155139A (zh) * | 2021-11-23 | 2022-03-08 | 山东省人工智能研究院 | 一种基于向量离散化表示的deepfake生成方法 |
RU2768797C1 (ru) * | 2021-10-19 | 2022-03-24 | Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) | Способ и система для определения синтетически измененных изображений лиц на видео |
CN114387641A (zh) * | 2021-12-21 | 2022-04-22 | 中山大学 | 基于多尺度卷积网络和ViT的虚假视频检测方法及系统 |
CN114445889A (zh) * | 2022-01-26 | 2022-05-06 | 武汉理工大学 | 基于双重注意力机制的轻量级人脸老化方法 |
WO2022129610A1 (en) * | 2020-12-17 | 2022-06-23 | UMNAI Limited | Explainable transducer transformers |
CN114743148A (zh) * | 2022-04-27 | 2022-07-12 | 中国刑事警察学院 | 多尺度特征融合篡改视频检测方法、系统、介质和设备 |
CN114758272A (zh) * | 2022-03-31 | 2022-07-15 | 中国人民解放军战略支援部队信息工程大学 | 基于频域自注意力的伪造视频检测方法 |
CN114757832A (zh) * | 2022-06-14 | 2022-07-15 | 之江实验室 | 基于交叉卷积注意力对抗学习的人脸超分辨方法和装置 |
CN114842524A (zh) * | 2022-03-16 | 2022-08-02 | 电子科技大学 | 一种基于不规则显著性像素簇的人脸鉴伪方法 |
CN114842034A (zh) * | 2022-04-19 | 2022-08-02 | 山东省人工智能研究院 | 一种基于放大模糊操作痕迹的图片真假检测方法 |
-
2022
- 2022-08-11 CN CN202210964397.0A patent/CN115311720B/zh active Active
Patent Citations (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022129610A1 (en) * | 2020-12-17 | 2022-06-23 | UMNAI Limited | Explainable transducer transformers |
CN112733625A (zh) * | 2020-12-28 | 2021-04-30 | 华南理工大学 | 基于时域自注意力机制的假脸视频篡改检测方法及系统 |
CN112766160A (zh) * | 2021-01-20 | 2021-05-07 | 西安电子科技大学 | 基于多级属性编码器和注意力机制的人脸替换方法 |
CN113536990A (zh) * | 2021-06-29 | 2021-10-22 | 复旦大学 | 深度伪造人脸数据鉴别方法 |
CN113379606A (zh) * | 2021-08-16 | 2021-09-10 | 之江实验室 | 一种基于预训练生成模型的人脸超分辨方法 |
CN113887573A (zh) * | 2021-09-10 | 2022-01-04 | 合肥高维数据技术有限公司 | 基于视觉转换器的人脸伪造检测方法 |
RU2768797C1 (ru) * | 2021-10-19 | 2022-03-24 | Публичное Акционерное Общество "Сбербанк России" (Пао Сбербанк) | Способ и система для определения синтетически измененных изображений лиц на видео |
CN113903073A (zh) * | 2021-11-23 | 2022-01-07 | 山东省人工智能研究院 | 一种基于局部增强transformer的假视频检测方法 |
CN114155139A (zh) * | 2021-11-23 | 2022-03-08 | 山东省人工智能研究院 | 一种基于向量离散化表示的deepfake生成方法 |
CN114387641A (zh) * | 2021-12-21 | 2022-04-22 | 中山大学 | 基于多尺度卷积网络和ViT的虚假视频检测方法及系统 |
CN114445889A (zh) * | 2022-01-26 | 2022-05-06 | 武汉理工大学 | 基于双重注意力机制的轻量级人脸老化方法 |
CN114842524A (zh) * | 2022-03-16 | 2022-08-02 | 电子科技大学 | 一种基于不规则显著性像素簇的人脸鉴伪方法 |
CN114758272A (zh) * | 2022-03-31 | 2022-07-15 | 中国人民解放军战略支援部队信息工程大学 | 基于频域自注意力的伪造视频检测方法 |
CN114842034A (zh) * | 2022-04-19 | 2022-08-02 | 山东省人工智能研究院 | 一种基于放大模糊操作痕迹的图片真假检测方法 |
CN114743148A (zh) * | 2022-04-27 | 2022-07-12 | 中国刑事警察学院 | 多尺度特征融合篡改视频检测方法、系统、介质和设备 |
CN114757832A (zh) * | 2022-06-14 | 2022-07-15 | 之江实验室 | 基于交叉卷积注意力对抗学习的人脸超分辨方法和装置 |
Non-Patent Citations (3)
Title |
---|
BACHIR KADDAR: ""HCIT:deepfake video detection using a hybrid model of cnn features and vision transformer"", 《2021 INTERNATIONAL CONFERENCE ON VISUAL COMMUNICATIONS AND IMAGE PROCESSING》 * |
JUNKE WANG: ""M2TR:multi-model multi-scale Transformers for deepfake detection"", 《ARXIV》 * |
朱振: ""基于深度学习的深度伪造检测方法"", 《基于深度学习的深度伪造检测方法》, vol. 35, no. 6 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115713680A (zh) * | 2022-11-18 | 2023-02-24 | 山东省人工智能研究院 | 一种基于语义引导的人脸图像身份合成方法 |
CN116152887A (zh) * | 2022-12-08 | 2023-05-23 | 山东省人工智能研究院 | 一种基于ds证据理论的动态人脸表情识别方法 |
CN116152887B (zh) * | 2022-12-08 | 2023-09-26 | 山东省人工智能研究院 | 一种基于ds证据理论的动态人脸表情识别方法 |
CN116524563A (zh) * | 2023-04-28 | 2023-08-01 | 山东省人工智能研究院 | 一种基于transformer与不确定性的动态人脸表情识别方法 |
CN116524563B (zh) * | 2023-04-28 | 2024-01-19 | 山东省人工智能研究院 | 一种基于transformer与不确定性的动态人脸表情识别方法 |
CN116612211A (zh) * | 2023-05-08 | 2023-08-18 | 山东省人工智能研究院 | 一种基于gan和3d系数重建的人脸图像身份合成方法 |
CN116612211B (zh) * | 2023-05-08 | 2024-02-02 | 山东省人工智能研究院 | 一种基于gan和3d系数重建的人脸图像身份合成方法 |
CN116524408A (zh) * | 2023-05-09 | 2023-08-01 | 山东省人工智能研究院 | 基于面部特征增强以及光流评估的虚假视频检测方法 |
CN116524408B (zh) * | 2023-05-09 | 2024-02-02 | 山东省人工智能研究院 | 基于面部特征增强以及光流评估的虚假视频检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115311720B (zh) | 2023-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115311720A (zh) | 一种基于Transformer的deepfake生成方法 | |
WO2022267641A1 (zh) | 一种基于循环生成对抗网络的图像去雾方法及系统 | |
US11610435B2 (en) | Generative adversarial neural network assisted video compression and broadcast | |
CN113901894A (zh) | 一种视频生成方法、装置、服务器及存储介质 | |
CN113642604A (zh) | 一种基于云边协同的音视频辅助触觉信号重建方法 | |
CN109996073B (zh) | 一种图像压缩方法、系统、可读存储介质及计算机设备 | |
CN114723760B (zh) | 人像分割模型的训练方法、装置及人像分割方法、装置 | |
CN113378973B (zh) | 一种基于自注意力机制的图像分类方法 | |
CN115908205B (zh) | 图像修复方法、装置、电子设备和存储介质 | |
CN115082774A (zh) | 基于双流自注意力神经网络的图像篡改定位方法及系统 | |
Li et al. | Efficient region-aware neural radiance fields for high-fidelity talking portrait synthesis | |
CN114387641A (zh) | 基于多尺度卷积网络和ViT的虚假视频检测方法及系统 | |
CN114155139B (zh) | 一种基于向量离散化表示的deepfake生成方法 | |
CN115829876A (zh) | 一种基于交叉注意力机制的真实退化图像盲修复方法 | |
CN116434252A (zh) | 图像识别模型的训练及图像识别方法、装置、介质、设备 | |
CN115497139A (zh) | 一种融合注意力机制的口罩遮挡人脸检测与识别方法 | |
CN113379606B (zh) | 一种基于预训练生成模型的人脸超分辨方法 | |
CN117689592A (zh) | 一种基于级联自适应网络的水下图像增强方法 | |
CN113781376B (zh) | 一种基于分治融合的高清人脸属性编辑方法 | |
CN116703719A (zh) | 一种基于人脸3d先验信息的人脸超分辨率重建装置及方法 | |
CN115131414A (zh) | 基于深度学习的无人机图像对齐方法、电子设备和存储介质 | |
WO2020207186A1 (zh) | 生成基于视频文件格式的形状识别列表的方法 | |
CN113780209A (zh) | 一种基于注意力机制的人脸属性编辑方法 | |
Huo et al. | Blind Face Restoration via Multi-head Cross-attention and Generative Priors | |
CN117609962B (zh) | 一种基于特征点生成的图像式超链接生成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |