CN111259745A - 一种基于分布独立性的3d人脸解耦表示学习方法 - Google Patents
一种基于分布独立性的3d人脸解耦表示学习方法 Download PDFInfo
- Publication number
- CN111259745A CN111259745A CN202010023676.8A CN202010023676A CN111259745A CN 111259745 A CN111259745 A CN 111259745A CN 202010023676 A CN202010023676 A CN 202010023676A CN 111259745 A CN111259745 A CN 111259745A
- Authority
- CN
- China
- Prior art keywords
- face
- expression
- identity
- representation
- exp
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/29—Graphical models, e.g. Bayesian networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于分布独立性的3D人脸解耦表示学习方法,收集3D人脸数据集,将数据集分为训练集和测试集;根据训练目标对数据集全体数据进行预处理及配准;构造用于解耦表示学习的图卷积神经网络模型;使用训练集训练用于解耦表示学习的图卷积神经网络模型;训练完成后,用于解耦表示学习的图卷积神经网络模型将输入的3D人脸解耦为身份和表情两个部分。与基于3DMM的3D人脸解耦方法相比,本发明采用非线性表示,具有更强的3D人脸表示能力。与借助2D几何图像的3D人脸解耦方法相比,本发明直接作用于3D人脸网格,避免了将3D映射成2D图像造成的信息损失。
Description
技术领域
本发明涉及一种学习方法,具体涉及一种基于分布独立性的3D人脸解耦表示学习方法。
背景技术
人脸的形状主要由身份及表情决定,由于人脸的表情丰富并且多变,易造成复杂的非线性形变,因此建立鲁棒的3D人脸模型是一项具有挑战性的任务。而学习身份、表情解耦的3D人脸模型对于人脸属性迁移、人脸重建、识别以及人脸动画等具有重要意义。
目前3D人脸解耦表示学习的方法主要分为两类:3D人脸的线性解耦表示;3D人脸的非线性解耦表示。3D人脸线性解耦表示方法一般基于3D可形变模型(3DMM),其通过主成分分析(PCA)分别学习一组3D人脸身份基底和表情基底后,可以优化3DMM参数以拟合任意3D人脸的形状。然而,这类方法局限于其线性性,PCA学习的基底表示能力有限,难以表达3D人脸细节以及夸张的表情。
现有的3D人脸非线性解耦表示方法多采用现将3D人脸映射成2D几何图像,再使用深度卷积神经网络实现解耦表示学习,而将3D人脸映射成2D图像的过程势必会造成信息损失。
发明内容
针对现有3D人脸解耦表示方法的不足,本发明的目的在于提供一种基于分布独立性的3D人脸解耦表示学习方法。
为实现上述目的,本发明采用如下的技术方案:
一种基于分布独立性的3D人脸解耦表示学习方法,包括以下步骤:
步骤1:收集3D人脸数据集,将数据集分为训练集和测试集;
步骤2:根据训练目标对数据集全体数据进行预处理及配准;
步骤3:构造用于解耦表示学习的图卷积神经网络模型;
步骤4:使用训练集训练用于解耦表示学习的图卷积神经网络模型;
步骤5:训练完成后,用于解耦表示学习的图卷积神经网络模型将输入的3D人脸解耦为身份和表情两个部分。
本发明进一步的改进在于,步骤2中,配准后,每个3D人脸样本用若干节点和边构成的网格M={V,A}表示;|V|=n代表3D欧氏空间中的n个节点,V∈Rn×3;稀疏邻接矩阵A∈{0,1}n×n表示节点之间的连接关系,Aij=0表示节点vi和vj之间没有连接,反之,Aij=1表示节点vi和vj之间有连接。
本发明进一步的改进在于,步骤3中,用于解耦表示学习的图卷积神经网络模型包括三个部分,分别为编码器、解码器和判别器;编码器输入3D人脸网格,输出对应的身份表示和表情表示,解码器的输入层为编码器的输出层的结果,解码器将身份表示和表情表示重建出3D人脸,判别器的输入层也连接编码器的输出层,用于判别身份表示与表情表示是否分布独立。
本发明进一步的改进在于,根据需求分析,编码器将3D人脸编码为身份表示以及表情表示,编码器结构为6层图卷积神经网络及全连接层组合而成,第一个卷积层为GCN(3,16),输入3通道的3D人脸网格,输出为16通道,第二个卷积层为GCN(16,64),输入16通道,输出64通道,第三、四、五个卷积层均为GCN(64,64),输入与输出都是64通道,第6个卷积层为GCN(64,32),输入64通道,输出32通道,最后一个卷积层同时连接两个各有4个神经元的全连接层FC(4),分别输出3D人脸的身份和表情在特征空间分布的均值μid,μexp和方差σid,σexp,从身份分布中采样得到zid=uid×ε+σid作为3D人脸的身份表示,从表情分布采样得到zexp=uexp×ε+σexp作为表情表示,ε~N(0,1)。
本发明进一步的改进在于,解码器分为身份解码器Did和表情解码器Dexp,各包含两个全连接层,第一个全连接层有512个神经元,第二个全连接层有n×3个神经元,n为输出的3D人脸的节点个数,与输入的3D人脸节点个数一致;身份解码器Did和表情解码器Dexp分别从3D人脸的身份表示、表情表示重建出3D人脸的身份和表情,将身份解码器Did和表情解码器Dexp重建的结果逐点相加作为最终重建的3D人脸。
本发明进一步的改进在于,判别器由两个全接连层构成,每个全连接层有64个神经元,判别器输入来自编码器编码的3D人脸身份表示和表情表示,输出[0,1]之间的数表明身份表示与表情表示是否分布独立,梯度反向层用于连接编码器和判别器,将来自判别器的损失函数梯度乘以-λ传递给编码器,梯度反向层与判别器组成分布独立模块。
本发明进一步的改进在于,步骤4中,输入3D人脸若干节点和边构成的网格M,经过编码器编码为身份表示zid及表情表示zexp,将身份、表情表示传递给解码器Did与Dexp,解码器重建的3D人脸与原始输入相似:
Lrec=||Did(zid)+Dexp(zexp)-M||1
其中,Lrec为重建损失,Did为身份解码器,zid为身份表示,Dexp为表情解码器,zexp为表情表示;
分别约束表情重建与身份重建的结果:
其中,Mid为M的中性表情,Mexp为带有与M相同的表情的模板脸,Mid和Mexp分别表示M的身份和表情,为身份重建损失,Did(zid)为身份解码器重建的3D人脸身份,为表情重建损失,Dexp(zexp)为表情解码器重建的3D人脸表情;
同时约束3D人脸的身份、表情在特征空间的分布为标准正态分布N(0,1):
判别器损失为交叉熵损失:
其中,zj和分别表示从联合分布q(zid,zexp)和乘积分布q(zid)q(zexp)采样的样本,m为批数量,D(zj)表示判别器判别zj采自身份与表情分布独立的分布的概率,表示判别器判别采自身份与表情分布独立的分布的概率;
训练过程的总损失为:
其中,α1,α2,β为超参数,Ltotal为总损失函数。
与现有技术相比,本发明具有如下有益效果:
(1)与基于3DMM的3D人脸解耦方法相比,本发明采用非线性表示,具有更强的3D人脸表示能力。
(2)与借助2D几何图像的3D人脸解耦方法相比,本发明直接作用于3D人脸网格,避免了将3D映射成2D图像造成的信息损失。
(3)本发明使用公平、合理的评价的标准验证了所提方法的有效性,能够取得更好的3D人脸重建与解耦效果,可用于学习身份、表情解耦的3D人脸表示。
进一步的,使用判别器判别身份、表情分布独立的方式简单、易实现。
附图说明
图1为本发明中基于分布独立的3D人脸解耦表示学习方法的示意图。
图2为本发明中3D人脸身份、表情解耦的效果展示。
具体实施方式
为使本发明实例的技术方案和优点更加清楚,下面将结合本发明的附图,对本发明的技术方案进行详细、完整的描述。
本发明采用图卷积神经网络学习非线性人脸解耦表示,以获得更好的人脸细节表示,并且直接对3D人脸网格进行操作,避免转换为2D图像过程的信息损失。多个数据集的实验测试表明本发明的有效性,不仅能够将身份与表情充分解耦,而且可以从身份、表情的表示精确重建出原始3D人脸。本发明设计了一种简单而有效的基于分布独立学习3D人脸解耦表示的方法,能够在特征空间分解人脸的身份及表情,并且能够从解耦的表示重建出的对应的3D人脸。
本发明具体是通过以下步骤实现的:
步骤1:收集3D人脸数据集,将数据集分为训练集和测试集。
步骤2:根据训练目标对数据集全体数据进行预处理及配准,配准后,每个3D人脸样本用若干节点和边构成的网格M={V,A}表示。|V|=n代表3D欧氏空间中的n个节点,V∈Rn×3。稀疏邻接矩阵A∈{0,1}n×n表示节点之间的连接关系,Aij=0表示节点vi和vj之间没有连接,反之,Aij=1表示节点vi和vj之间有连接。
步骤3:构造用于解耦表示学习的图卷积神经网络模型,如图1所示,该模型包括三个部分,分别为编码器、解码器和判别器。编码器输入3D人脸网格,输出对应的身份表示和表情表示,解码器的输入层为编码器的输出层的结果,解码器将身份表示和表情表示重建出3D人脸,判别器的输入层也连接编码器的输出层,用于判别身份表示与表情表示是否分布独立。图中GCN表示图卷积层,对输入x进行图卷积操作后输出其中,θ是可学习的网络参数,A是步骤2中介绍的稀疏邻接矩阵,D是对角矩阵,满足Dii=∑jAij.FC表示全连接层。
编码器、解码器、判别器具体如下。
(1)编码器
根据需求分析,编码器将3D人脸编码为身份表示以及表情表示。其结构为6层图卷积神经网络及全连接层组合而成,具体为第一个卷积层为GCN(3,16),输入3通道的3D人脸网格,输出为16通道,第二个卷积层为GCN(16,64),输入16通道,输出64通道,第三、四、五个卷积层均为GCN(64,64),输入与输出都是64通道,第6个卷积层为GCN(64,32),输入64通道,输出32通道,最后一个卷积层同时连接两个各有4个神经元的全连接层FC(4),分别输出3D人脸的身份和表情在特征空间分布的均值μid,μexp和方差σid,σexp,从身份分布中采样得到zid=uid×ε+σid作为3D人脸的身份表示,类似的,从表情分布采样得到zexp=uexp×ε+σexp作为表情表示,ε~N(0,1)。
(2)解码器
解码器分为身份解码器Did和表情解码器Dexp,各包含两个全连接层,第一个全连接层有512个神经元,第二个全连接层有n×3个神经元,n为输出的3D人脸的节点个数,与输入的3D人脸节点个数一致。身份、表情解码器分别从3D人脸的身份表示、表情表示重建出3D人脸的身份和表情,将两个解码器重建的结果逐点相加作为最终重建的3D人脸。
(3)判别器
判别器由两个全接连层构成,每个全连接层有64个神经元,判别器输入来自编码器编码的3D人脸身份表示和表情表示,输出[0,1]之间的数表明身份表示与表情表示是否分布独立。梯度反向层(GRL layer)用于连接编码器和判别器,将来自判别器的损失函数梯度乘以-λ传递给编码器,以便可以同时优化编码器、解码器与判别器。梯度反向层(GRLlayer)与判别器组成图1中的分布独立模块(DI Module)。
步骤4:使用训练集训练用于解耦表示学习的图卷积神经网络模型。输入3D人脸若干节点和边构成的网格M,经过编码器编码为身份表示zid及表情表示zexp,将身份、表情表示传递给解码器Did与Dexp,解码器重建的3D人脸应当与原始输入相似:
Lrec=||Did(zid)+Dexp(zexp)-M||1
其中,Lrec为重建损失,Did为身份解码器,zid为身份表示,Dexp为表情解码器,zexp为表情表示;
并分别约束表情重建与身份重建的结果:
其中,Mid为M的中性表情,Mexp为带有与M相同的表情的模板脸,Mid和Mexp分别表示M的身份和表情。为身份重建损失,Did(zid)为身份解码器重建的3D人脸身份,为表情重建损失,Dexp(zexp)为表情解码器重建的3D人脸表情。
同时约束3D人脸的身份、表情在特征空间的分布为标准正态分布N(0,1):
判别器损失为交叉熵损失:
其中,zj和分别表示从联合分布q(zid,zexp)和乘积分布q(zid)q(zexp)采样的样本,m为批数量,D(zj)输出一个概率,表示判别器判别zj采自身份与表情分布独立的分布的概率,输出一个概率,表示判别器判别采自身份与表情分布独立的分布的概率。
训练过程的总损失为:
其中,α1,α2,β为超参数,Ltotal为总损失函数。
步骤5:训练完成后,该模型可以将输入的3D人脸解耦为身份和表情两个部分。
本发明在测试集定性、定量评价模型的解耦效果以及重建效果,图2展示了部分3D人脸身份、表情解耦效果。
Claims (7)
1.一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,包括以下步骤:
步骤1:收集3D人脸数据集,将数据集分为训练集和测试集;
步骤2:根据训练目标对数据集全体数据进行预处理及配准;
步骤3:构造用于解耦表示学习的图卷积神经网络模型;
步骤4:使用训练集训练用于解耦表示学习的图卷积神经网络模型;
步骤5:训练完成后,用于解耦表示学习的图卷积神经网络模型将输入的3D人脸解耦为身份和表情两个部分。
2.根据权利要求1所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,步骤2中,配准后,每个3D人脸样本用若干节点和边构成的网格M={V,A}表示;|V|=n代表3D欧氏空间中的n个节点,V∈Rn×3;稀疏邻接矩阵A∈{0,1}n×n表示节点之间的连接关系,Aij=0表示节点vi和vj之间没有连接,反之,Aij=1表示节点vi和vj之间有连接。
3.根据权利要求1所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,步骤3中,用于解耦表示学习的图卷积神经网络模型包括三个部分,分别为编码器、解码器和判别器;编码器输入3D人脸网格,输出对应的身份表示和表情表示,解码器的输入层为编码器的输出层的结果,解码器将身份表示和表情表示重建出3D人脸,判别器的输入层也连接编码器的输出层,用于判别身份表示与表情表示是否分布独立。
4.根据权利要求3所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,根据需求分析,编码器将3D人脸编码为身份表示以及表情表示,编码器结构为6层图卷积神经网络及全连接层组合而成,第一个卷积层为GCN(3,16),输入3通道的3D人脸网格,输出为16通道,第二个卷积层为GCN(16,64),输入16通道,输出64通道,第三、四、五个卷积层均为GCN(64,64),输入与输出都是64通道,第6个卷积层为GCN(64,32),输入64通道,输出32通道,最后一个卷积层同时连接两个各有4个神经元的全连接层FC(4),分别输出3D人脸的身份和表情在特征空间分布的均值μid,μexp和方差σid,σexp,从身份分布中采样得到zid=uid×ε+σid作为3D人脸的身份表示,从表情分布采样得到zexp=uexp×ε+σexp作为表情表示,ε~N(0,1)。
5.根据权利要求3所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,解码器分为身份解码器Did和表情解码器Dexp,各包含两个全连接层,第一个全连接层有512个神经元,第二个全连接层有n×3个神经元,n为输出的3D人脸的节点个数,与输入的3D人脸节点个数一致;身份解码器Did和表情解码器Dexp分别从3D人脸的身份表示、表情表示重建出3D人脸的身份和表情,将身份解码器Did和表情解码器Dexp重建的结果逐点相加作为最终重建的3D人脸。
6.根据权利要求3所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,判别器由两个全接连层构成,每个全连接层有64个神经元,判别器输入来自编码器编码的3D人脸身份表示和表情表示,输出[0,1]之间的数表明身份表示与表情表示是否分布独立,梯度反向层用于连接编码器和判别器,将来自判别器的损失函数梯度乘以-λ传递给编码器,梯度反向层与判别器组成分布独立模块。
7.根据权利要求1所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,步骤4中,输入3D人脸若干节点和边构成的网格M,经过编码器编码为身份表示zid及表情表示zexp,将身份、表情表示传递给解码器Did与Dexp,解码器重建的3D人脸与原始输入相似:
Lrec=||Did(zid)+Dexp(zexp)-M||1
其中,Lrec为重建损失,Did为身份解码器,zid为身份表示,Dexp为表情解码器,zexp为表情表示;
分别约束表情重建与身份重建的结果:
其中,Mid为M的中性表情,Mexp为带有与M相同的表情的模板脸,Mid和Mexp分别表示M的身份和表情,为身份重建损失,Did(zid)为身份解码器重建的3D人脸身份,为表情重建损失,Dexp(zexp)为表情解码器重建的3D人脸表情;
同时约束3D人脸的身份、表情在特征空间的分布为标准正态分布N(0,1):
判别器损失为交叉熵损失:
其中,zj和分别表示从联合分布q(zid,zexp)和乘积分布q(zid)q(zexp)采样的样本,m为批数量,D(zj)表示判别器判别zj采自身份与表情分布独立的分布的概率,表示判别器判别采自身份与表情分布独立的分布的概率;
训练过程的总损失为:
其中,α1,α2,β为超参数,Ltotal为总损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010023676.8A CN111259745B (zh) | 2020-01-09 | 2020-01-09 | 一种基于分布独立性的3d人脸解耦表示学习方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010023676.8A CN111259745B (zh) | 2020-01-09 | 2020-01-09 | 一种基于分布独立性的3d人脸解耦表示学习方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111259745A true CN111259745A (zh) | 2020-06-09 |
CN111259745B CN111259745B (zh) | 2022-07-12 |
Family
ID=70945063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010023676.8A Active CN111259745B (zh) | 2020-01-09 | 2020-01-09 | 一种基于分布独立性的3d人脸解耦表示学习方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111259745B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112801006A (zh) * | 2021-02-05 | 2021-05-14 | 网易(杭州)网络有限公司 | 表情表征模型的训练方法、面部的表情表征方法及装置 |
CN112967373A (zh) * | 2021-02-03 | 2021-06-15 | 重庆邮电大学 | 一种基于非线性3dmm的人脸图像特征编码方法 |
CN115050087A (zh) * | 2022-08-16 | 2022-09-13 | 之江实验室 | 一种人脸关键点身份和表情解耦方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718889A (zh) * | 2016-01-21 | 2016-06-29 | 江南大学 | 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法 |
CN106991364A (zh) * | 2016-01-21 | 2017-07-28 | 阿里巴巴集团控股有限公司 | 人脸识别处理方法、装置以及移动终端 |
CN109523012A (zh) * | 2018-10-11 | 2019-03-26 | 上海交通大学 | 基于变分解耦合方式对符号有向网络的表达学习方法 |
CN110288697A (zh) * | 2019-06-24 | 2019-09-27 | 天津大学 | 基于多尺度图卷积神经网络的3d人脸表示与重建方法 |
-
2020
- 2020-01-09 CN CN202010023676.8A patent/CN111259745B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105718889A (zh) * | 2016-01-21 | 2016-06-29 | 江南大学 | 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法 |
CN106991364A (zh) * | 2016-01-21 | 2017-07-28 | 阿里巴巴集团控股有限公司 | 人脸识别处理方法、装置以及移动终端 |
CN109523012A (zh) * | 2018-10-11 | 2019-03-26 | 上海交通大学 | 基于变分解耦合方式对符号有向网络的表达学习方法 |
CN110288697A (zh) * | 2019-06-24 | 2019-09-27 | 天津大学 | 基于多尺度图卷积神经网络的3d人脸表示与重建方法 |
Non-Patent Citations (2)
Title |
---|
ZI-HANG JIANG 等: "Disentangled Representation Learning for 3D Face Shape", 《ARXIV》 * |
段仲静 等: "深度学习目标检测方法及主流框架综述", 《HTTP://KNS.CNKI.NET/KCMS/DETAIL/31.1690.TN.20191210.1209.022.HTML》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112967373A (zh) * | 2021-02-03 | 2021-06-15 | 重庆邮电大学 | 一种基于非线性3dmm的人脸图像特征编码方法 |
CN112967373B (zh) * | 2021-02-03 | 2022-07-22 | 重庆邮电大学 | 一种基于非线性3dmm的人脸图像特征编码方法 |
CN112801006A (zh) * | 2021-02-05 | 2021-05-14 | 网易(杭州)网络有限公司 | 表情表征模型的训练方法、面部的表情表征方法及装置 |
CN112801006B (zh) * | 2021-02-05 | 2023-09-05 | 网易(杭州)网络有限公司 | 表情表征模型的训练方法、面部的表情表征方法及装置 |
CN115050087A (zh) * | 2022-08-16 | 2022-09-13 | 之江实验室 | 一种人脸关键点身份和表情解耦方法及装置 |
CN115050087B (zh) * | 2022-08-16 | 2022-11-18 | 之江实验室 | 一种人脸关键点身份和表情解耦方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN111259745B (zh) | 2022-07-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259745B (zh) | 一种基于分布独立性的3d人脸解耦表示学习方法 | |
CN115049936B (zh) | 一种面向高分遥感影像的边界增强型语义分割方法 | |
CN109801230B (zh) | 一种基于编码器结构的图像修复方法 | |
CN113962893A (zh) | 基于多尺度局部自注意力生成对抗网络的人脸图像修复方法 | |
CN111210382A (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN110930378B (zh) | 基于低数据需求的肺气肿影像处理方法及系统 | |
CN113379601A (zh) | 基于降质变分自编码器的真实世界图像超分辨方法及系统 | |
CN112560966B (zh) | 基于散射图卷积网络的极化sar图像分类方法、介质及设备 | |
CN110533591B (zh) | 基于编解码器结构的超分辨图像重建方法 | |
CN114093013B (zh) | 一种深度伪造人脸逆向溯源方法及系统 | |
CN115484410B (zh) | 基于深度学习的事件相机视频重建方法 | |
CN109800677B (zh) | 一种跨平台掌纹识别方法 | |
CN104036242B (zh) | 基于Centering Trick卷积限制玻尔兹曼机的物体识别方法 | |
CN109062811B (zh) | 一种基于神经风格迁移的测试用例生成方法 | |
CN112651360A (zh) | 一种小样本下骨架动作识别方法 | |
CN113435321A (zh) | 一种主轴轴承状态评估方法、系统、设备及可读存储介质 | |
CN112288626A (zh) | 一种基于双路径深度融合的人脸幻构方法及系统 | |
CN116309228A (zh) | 基于生成对抗网络的可见光图像转换红外图像方法 | |
CN115054270A (zh) | 基于gcn提取睡眠频谱图特征的睡眠分期方法及系统 | |
CN117974693A (zh) | 图像分割方法、装置、计算机设备和存储介质 | |
CN115861762B (zh) | 一种即插即用无限形变融合特征提取的方法及其应用 | |
CN118015332A (zh) | 一种遥感影像显著性目标检测方法 | |
CN111505706B (zh) | 基于深度T-Net网络的微地震P波初至拾取方法及装置 | |
CN113269702A (zh) | 基于跨尺度特征融合的低曝光静脉图像增强方法 | |
CN112508121A (zh) | 一种工业机器人感知外界的方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |