CN111259745A - 一种基于分布独立性的3d人脸解耦表示学习方法 - Google Patents

一种基于分布独立性的3d人脸解耦表示学习方法 Download PDF

Info

Publication number
CN111259745A
CN111259745A CN202010023676.8A CN202010023676A CN111259745A CN 111259745 A CN111259745 A CN 111259745A CN 202010023676 A CN202010023676 A CN 202010023676A CN 111259745 A CN111259745 A CN 111259745A
Authority
CN
China
Prior art keywords
face
expression
identity
representation
exp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010023676.8A
Other languages
English (en)
Other versions
CN111259745B (zh
Inventor
余璀璨
张子辉
李慧斌
孙剑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Jiaotong University
Original Assignee
Xian Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Jiaotong University filed Critical Xian Jiaotong University
Priority to CN202010023676.8A priority Critical patent/CN111259745B/zh
Publication of CN111259745A publication Critical patent/CN111259745A/zh
Application granted granted Critical
Publication of CN111259745B publication Critical patent/CN111259745B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

一种基于分布独立性的3D人脸解耦表示学习方法,收集3D人脸数据集,将数据集分为训练集和测试集;根据训练目标对数据集全体数据进行预处理及配准;构造用于解耦表示学习的图卷积神经网络模型;使用训练集训练用于解耦表示学习的图卷积神经网络模型;训练完成后,用于解耦表示学习的图卷积神经网络模型将输入的3D人脸解耦为身份和表情两个部分。与基于3DMM的3D人脸解耦方法相比,本发明采用非线性表示,具有更强的3D人脸表示能力。与借助2D几何图像的3D人脸解耦方法相比,本发明直接作用于3D人脸网格,避免了将3D映射成2D图像造成的信息损失。

Description

一种基于分布独立性的3D人脸解耦表示学习方法
技术领域
本发明涉及一种学习方法,具体涉及一种基于分布独立性的3D人脸解耦表示学习方法。
背景技术
人脸的形状主要由身份及表情决定,由于人脸的表情丰富并且多变,易造成复杂的非线性形变,因此建立鲁棒的3D人脸模型是一项具有挑战性的任务。而学习身份、表情解耦的3D人脸模型对于人脸属性迁移、人脸重建、识别以及人脸动画等具有重要意义。
目前3D人脸解耦表示学习的方法主要分为两类:3D人脸的线性解耦表示;3D人脸的非线性解耦表示。3D人脸线性解耦表示方法一般基于3D可形变模型(3DMM),其通过主成分分析(PCA)分别学习一组3D人脸身份基底和表情基底后,可以优化3DMM参数以拟合任意3D人脸的形状。然而,这类方法局限于其线性性,PCA学习的基底表示能力有限,难以表达3D人脸细节以及夸张的表情。
现有的3D人脸非线性解耦表示方法多采用现将3D人脸映射成2D几何图像,再使用深度卷积神经网络实现解耦表示学习,而将3D人脸映射成2D图像的过程势必会造成信息损失。
发明内容
针对现有3D人脸解耦表示方法的不足,本发明的目的在于提供一种基于分布独立性的3D人脸解耦表示学习方法。
为实现上述目的,本发明采用如下的技术方案:
一种基于分布独立性的3D人脸解耦表示学习方法,包括以下步骤:
步骤1:收集3D人脸数据集,将数据集分为训练集和测试集;
步骤2:根据训练目标对数据集全体数据进行预处理及配准;
步骤3:构造用于解耦表示学习的图卷积神经网络模型;
步骤4:使用训练集训练用于解耦表示学习的图卷积神经网络模型;
步骤5:训练完成后,用于解耦表示学习的图卷积神经网络模型将输入的3D人脸解耦为身份和表情两个部分。
本发明进一步的改进在于,步骤2中,配准后,每个3D人脸样本用若干节点和边构成的网格M={V,A}表示;|V|=n代表3D欧氏空间中的n个节点,V∈Rn×3;稀疏邻接矩阵A∈{0,1}n×n表示节点之间的连接关系,Aij=0表示节点vi和vj之间没有连接,反之,Aij=1表示节点vi和vj之间有连接。
本发明进一步的改进在于,步骤3中,用于解耦表示学习的图卷积神经网络模型包括三个部分,分别为编码器、解码器和判别器;编码器输入3D人脸网格,输出对应的身份表示和表情表示,解码器的输入层为编码器的输出层的结果,解码器将身份表示和表情表示重建出3D人脸,判别器的输入层也连接编码器的输出层,用于判别身份表示与表情表示是否分布独立。
本发明进一步的改进在于,根据需求分析,编码器将3D人脸编码为身份表示以及表情表示,编码器结构为6层图卷积神经网络及全连接层组合而成,第一个卷积层为GCN(3,16),输入3通道的3D人脸网格,输出为16通道,第二个卷积层为GCN(16,64),输入16通道,输出64通道,第三、四、五个卷积层均为GCN(64,64),输入与输出都是64通道,第6个卷积层为GCN(64,32),输入64通道,输出32通道,最后一个卷积层同时连接两个各有4个神经元的全连接层FC(4),分别输出3D人脸的身份和表情在特征空间分布的均值μid,μexp和方差σid,σexp,从身份分布中采样得到zid=uid×ε+σid作为3D人脸的身份表示,从表情分布采样得到zexp=uexp×ε+σexp作为表情表示,ε~N(0,1)。
本发明进一步的改进在于,解码器分为身份解码器Did和表情解码器Dexp,各包含两个全连接层,第一个全连接层有512个神经元,第二个全连接层有n×3个神经元,n为输出的3D人脸的节点个数,与输入的3D人脸节点个数一致;身份解码器Did和表情解码器Dexp分别从3D人脸的身份表示、表情表示重建出3D人脸的身份和表情,将身份解码器Did和表情解码器Dexp重建的结果逐点相加作为最终重建的3D人脸。
本发明进一步的改进在于,判别器由两个全接连层构成,每个全连接层有64个神经元,判别器输入来自编码器编码的3D人脸身份表示和表情表示,输出[0,1]之间的数表明身份表示与表情表示是否分布独立,梯度反向层用于连接编码器和判别器,将来自判别器的损失函数梯度乘以-λ传递给编码器,梯度反向层与判别器组成分布独立模块。
本发明进一步的改进在于,步骤4中,输入3D人脸若干节点和边构成的网格M,经过编码器编码为身份表示zid及表情表示zexp,将身份、表情表示传递给解码器Did与Dexp,解码器重建的3D人脸与原始输入相似:
Lrec=||Did(zid)+Dexp(zexp)-M||1
其中,Lrec为重建损失,Did为身份解码器,zid为身份表示,Dexp为表情解码器,zexp为表情表示;
分别约束表情重建与身份重建的结果:
Figure BDA0002361689030000031
Figure BDA0002361689030000032
其中,Mid为M的中性表情,Mexp为带有与M相同的表情的模板脸,Mid和Mexp分别表示M的身份和表情,
Figure BDA0002361689030000033
为身份重建损失,Did(zid)为身份解码器重建的3D人脸身份,
Figure BDA0002361689030000034
为表情重建损失,Dexp(zexp)为表情解码器重建的3D人脸表情;
同时约束3D人脸的身份、表情在特征空间的分布为标准正态分布N(0,1):
Figure BDA0002361689030000035
Figure BDA0002361689030000036
判别器损失为交叉熵损失:
Figure BDA0002361689030000041
其中,zj
Figure BDA0002361689030000045
分别表示从联合分布q(zid,zexp)和乘积分布q(zid)q(zexp)采样的样本,m为批数量,D(zj)表示判别器判别zj采自身份与表情分布独立的分布的概率,
Figure BDA0002361689030000042
表示判别器判别
Figure BDA0002361689030000043
采自身份与表情分布独立的分布的概率;
训练过程的总损失为:
Figure BDA0002361689030000044
其中,α12,β为超参数,Ltotal为总损失函数。
与现有技术相比,本发明具有如下有益效果:
(1)与基于3DMM的3D人脸解耦方法相比,本发明采用非线性表示,具有更强的3D人脸表示能力。
(2)与借助2D几何图像的3D人脸解耦方法相比,本发明直接作用于3D人脸网格,避免了将3D映射成2D图像造成的信息损失。
(3)本发明使用公平、合理的评价的标准验证了所提方法的有效性,能够取得更好的3D人脸重建与解耦效果,可用于学习身份、表情解耦的3D人脸表示。
进一步的,使用判别器判别身份、表情分布独立的方式简单、易实现。
附图说明
图1为本发明中基于分布独立的3D人脸解耦表示学习方法的示意图。
图2为本发明中3D人脸身份、表情解耦的效果展示。
具体实施方式
为使本发明实例的技术方案和优点更加清楚,下面将结合本发明的附图,对本发明的技术方案进行详细、完整的描述。
本发明采用图卷积神经网络学习非线性人脸解耦表示,以获得更好的人脸细节表示,并且直接对3D人脸网格进行操作,避免转换为2D图像过程的信息损失。多个数据集的实验测试表明本发明的有效性,不仅能够将身份与表情充分解耦,而且可以从身份、表情的表示精确重建出原始3D人脸。本发明设计了一种简单而有效的基于分布独立学习3D人脸解耦表示的方法,能够在特征空间分解人脸的身份及表情,并且能够从解耦的表示重建出的对应的3D人脸。
本发明具体是通过以下步骤实现的:
步骤1:收集3D人脸数据集,将数据集分为训练集和测试集。
步骤2:根据训练目标对数据集全体数据进行预处理及配准,配准后,每个3D人脸样本用若干节点和边构成的网格M={V,A}表示。|V|=n代表3D欧氏空间中的n个节点,V∈Rn×3。稀疏邻接矩阵A∈{0,1}n×n表示节点之间的连接关系,Aij=0表示节点vi和vj之间没有连接,反之,Aij=1表示节点vi和vj之间有连接。
步骤3:构造用于解耦表示学习的图卷积神经网络模型,如图1所示,该模型包括三个部分,分别为编码器、解码器和判别器。编码器输入3D人脸网格,输出对应的身份表示和表情表示,解码器的输入层为编码器的输出层的结果,解码器将身份表示和表情表示重建出3D人脸,判别器的输入层也连接编码器的输出层,用于判别身份表示与表情表示是否分布独立。图中GCN表示图卷积层,对输入x进行图卷积操作后输出
Figure BDA0002361689030000051
其中,θ是可学习的网络参数,A是步骤2中介绍的稀疏邻接矩阵,D是对角矩阵,满足Dii=∑jAij.FC表示全连接层。
编码器、解码器、判别器具体如下。
(1)编码器
根据需求分析,编码器将3D人脸编码为身份表示以及表情表示。其结构为6层图卷积神经网络及全连接层组合而成,具体为第一个卷积层为GCN(3,16),输入3通道的3D人脸网格,输出为16通道,第二个卷积层为GCN(16,64),输入16通道,输出64通道,第三、四、五个卷积层均为GCN(64,64),输入与输出都是64通道,第6个卷积层为GCN(64,32),输入64通道,输出32通道,最后一个卷积层同时连接两个各有4个神经元的全连接层FC(4),分别输出3D人脸的身份和表情在特征空间分布的均值μid,μexp和方差σid,σexp,从身份分布中采样得到zid=uid×ε+σid作为3D人脸的身份表示,类似的,从表情分布采样得到zexp=uexp×ε+σexp作为表情表示,ε~N(0,1)。
(2)解码器
解码器分为身份解码器Did和表情解码器Dexp,各包含两个全连接层,第一个全连接层有512个神经元,第二个全连接层有n×3个神经元,n为输出的3D人脸的节点个数,与输入的3D人脸节点个数一致。身份、表情解码器分别从3D人脸的身份表示、表情表示重建出3D人脸的身份和表情,将两个解码器重建的结果逐点相加作为最终重建的3D人脸。
(3)判别器
判别器由两个全接连层构成,每个全连接层有64个神经元,判别器输入来自编码器编码的3D人脸身份表示和表情表示,输出[0,1]之间的数表明身份表示与表情表示是否分布独立。梯度反向层(GRL layer)用于连接编码器和判别器,将来自判别器的损失函数梯度乘以-λ传递给编码器,以便可以同时优化编码器、解码器与判别器。梯度反向层(GRLlayer)与判别器组成图1中的分布独立模块(DI Module)。
步骤4:使用训练集训练用于解耦表示学习的图卷积神经网络模型。输入3D人脸若干节点和边构成的网格M,经过编码器编码为身份表示zid及表情表示zexp,将身份、表情表示传递给解码器Did与Dexp,解码器重建的3D人脸应当与原始输入相似:
Lrec=||Did(zid)+Dexp(zexp)-M||1
其中,Lrec为重建损失,Did为身份解码器,zid为身份表示,Dexp为表情解码器,zexp为表情表示;
并分别约束表情重建与身份重建的结果:
Figure BDA0002361689030000071
Figure BDA0002361689030000072
其中,Mid为M的中性表情,Mexp为带有与M相同的表情的模板脸,Mid和Mexp分别表示M的身份和表情。
Figure BDA0002361689030000073
为身份重建损失,Did(zid)为身份解码器重建的3D人脸身份,
Figure BDA0002361689030000074
为表情重建损失,Dexp(zexp)为表情解码器重建的3D人脸表情。
同时约束3D人脸的身份、表情在特征空间的分布为标准正态分布N(0,1):
Figure BDA0002361689030000075
Figure BDA0002361689030000076
判别器损失为交叉熵损失:
Figure BDA0002361689030000077
其中,zj
Figure BDA0002361689030000078
分别表示从联合分布q(zid,zexp)和乘积分布q(zid)q(zexp)采样的样本,m为批数量,D(zj)输出一个概率,表示判别器判别zj采自身份与表情分布独立的分布的概率,
Figure BDA0002361689030000079
输出一个概率,表示判别器判别
Figure BDA00023616890300000710
采自身份与表情分布独立的分布的概率。
训练过程的总损失为:
Figure BDA00023616890300000711
其中,α12,β为超参数,Ltotal为总损失函数。
步骤5:训练完成后,该模型可以将输入的3D人脸解耦为身份和表情两个部分。
本发明在测试集定性、定量评价模型的解耦效果以及重建效果,图2展示了部分3D人脸身份、表情解耦效果。

Claims (7)

1.一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,包括以下步骤:
步骤1:收集3D人脸数据集,将数据集分为训练集和测试集;
步骤2:根据训练目标对数据集全体数据进行预处理及配准;
步骤3:构造用于解耦表示学习的图卷积神经网络模型;
步骤4:使用训练集训练用于解耦表示学习的图卷积神经网络模型;
步骤5:训练完成后,用于解耦表示学习的图卷积神经网络模型将输入的3D人脸解耦为身份和表情两个部分。
2.根据权利要求1所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,步骤2中,配准后,每个3D人脸样本用若干节点和边构成的网格M={V,A}表示;|V|=n代表3D欧氏空间中的n个节点,V∈Rn×3;稀疏邻接矩阵A∈{0,1}n×n表示节点之间的连接关系,Aij=0表示节点vi和vj之间没有连接,反之,Aij=1表示节点vi和vj之间有连接。
3.根据权利要求1所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,步骤3中,用于解耦表示学习的图卷积神经网络模型包括三个部分,分别为编码器、解码器和判别器;编码器输入3D人脸网格,输出对应的身份表示和表情表示,解码器的输入层为编码器的输出层的结果,解码器将身份表示和表情表示重建出3D人脸,判别器的输入层也连接编码器的输出层,用于判别身份表示与表情表示是否分布独立。
4.根据权利要求3所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,根据需求分析,编码器将3D人脸编码为身份表示以及表情表示,编码器结构为6层图卷积神经网络及全连接层组合而成,第一个卷积层为GCN(3,16),输入3通道的3D人脸网格,输出为16通道,第二个卷积层为GCN(16,64),输入16通道,输出64通道,第三、四、五个卷积层均为GCN(64,64),输入与输出都是64通道,第6个卷积层为GCN(64,32),输入64通道,输出32通道,最后一个卷积层同时连接两个各有4个神经元的全连接层FC(4),分别输出3D人脸的身份和表情在特征空间分布的均值μid,μexp和方差σid,σexp,从身份分布中采样得到zid=uid×ε+σid作为3D人脸的身份表示,从表情分布采样得到zexp=uexp×ε+σexp作为表情表示,ε~N(0,1)。
5.根据权利要求3所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,解码器分为身份解码器Did和表情解码器Dexp,各包含两个全连接层,第一个全连接层有512个神经元,第二个全连接层有n×3个神经元,n为输出的3D人脸的节点个数,与输入的3D人脸节点个数一致;身份解码器Did和表情解码器Dexp分别从3D人脸的身份表示、表情表示重建出3D人脸的身份和表情,将身份解码器Did和表情解码器Dexp重建的结果逐点相加作为最终重建的3D人脸。
6.根据权利要求3所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,判别器由两个全接连层构成,每个全连接层有64个神经元,判别器输入来自编码器编码的3D人脸身份表示和表情表示,输出[0,1]之间的数表明身份表示与表情表示是否分布独立,梯度反向层用于连接编码器和判别器,将来自判别器的损失函数梯度乘以-λ传递给编码器,梯度反向层与判别器组成分布独立模块。
7.根据权利要求1所述的一种基于分布独立性的3D人脸解耦表示学习方法,其特征在于,步骤4中,输入3D人脸若干节点和边构成的网格M,经过编码器编码为身份表示zid及表情表示zexp,将身份、表情表示传递给解码器Did与Dexp,解码器重建的3D人脸与原始输入相似:
Lrec=||Did(zid)+Dexp(zexp)-M||1
其中,Lrec为重建损失,Did为身份解码器,zid为身份表示,Dexp为表情解码器,zexp为表情表示;
分别约束表情重建与身份重建的结果:
Figure FDA0002361689020000031
Figure FDA0002361689020000032
其中,Mid为M的中性表情,Mexp为带有与M相同的表情的模板脸,Mid和Mexp分别表示M的身份和表情,
Figure FDA00023616890200000311
为身份重建损失,Did(zid)为身份解码器重建的3D人脸身份,
Figure FDA0002361689020000033
为表情重建损失,Dexp(zexp)为表情解码器重建的3D人脸表情;
同时约束3D人脸的身份、表情在特征空间的分布为标准正态分布N(0,1):
Figure FDA0002361689020000034
Figure FDA0002361689020000035
判别器损失为交叉熵损失:
Figure FDA0002361689020000036
其中,zj
Figure FDA0002361689020000037
分别表示从联合分布q(zid,zexp)和乘积分布q(zid)q(zexp)采样的样本,m为批数量,D(zj)表示判别器判别zj采自身份与表情分布独立的分布的概率,
Figure FDA0002361689020000038
表示判别器判别
Figure FDA0002361689020000039
采自身份与表情分布独立的分布的概率;
训练过程的总损失为:
Figure FDA00023616890200000310
其中,α1,α2,β为超参数,Ltotal为总损失函数。
CN202010023676.8A 2020-01-09 2020-01-09 一种基于分布独立性的3d人脸解耦表示学习方法 Active CN111259745B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010023676.8A CN111259745B (zh) 2020-01-09 2020-01-09 一种基于分布独立性的3d人脸解耦表示学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010023676.8A CN111259745B (zh) 2020-01-09 2020-01-09 一种基于分布独立性的3d人脸解耦表示学习方法

Publications (2)

Publication Number Publication Date
CN111259745A true CN111259745A (zh) 2020-06-09
CN111259745B CN111259745B (zh) 2022-07-12

Family

ID=70945063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010023676.8A Active CN111259745B (zh) 2020-01-09 2020-01-09 一种基于分布独立性的3d人脸解耦表示学习方法

Country Status (1)

Country Link
CN (1) CN111259745B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112801006A (zh) * 2021-02-05 2021-05-14 网易(杭州)网络有限公司 表情表征模型的训练方法、面部的表情表征方法及装置
CN112967373A (zh) * 2021-02-03 2021-06-15 重庆邮电大学 一种基于非线性3dmm的人脸图像特征编码方法
CN115050087A (zh) * 2022-08-16 2022-09-13 之江实验室 一种人脸关键点身份和表情解耦方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718889A (zh) * 2016-01-21 2016-06-29 江南大学 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法
CN106991364A (zh) * 2016-01-21 2017-07-28 阿里巴巴集团控股有限公司 人脸识别处理方法、装置以及移动终端
CN109523012A (zh) * 2018-10-11 2019-03-26 上海交通大学 基于变分解耦合方式对符号有向网络的表达学习方法
CN110288697A (zh) * 2019-06-24 2019-09-27 天津大学 基于多尺度图卷积神经网络的3d人脸表示与重建方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105718889A (zh) * 2016-01-21 2016-06-29 江南大学 基于GB(2D)2PCANet深度卷积模型的人脸身份识别方法
CN106991364A (zh) * 2016-01-21 2017-07-28 阿里巴巴集团控股有限公司 人脸识别处理方法、装置以及移动终端
CN109523012A (zh) * 2018-10-11 2019-03-26 上海交通大学 基于变分解耦合方式对符号有向网络的表达学习方法
CN110288697A (zh) * 2019-06-24 2019-09-27 天津大学 基于多尺度图卷积神经网络的3d人脸表示与重建方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ZI-HANG JIANG 等: "Disentangled Representation Learning for 3D Face Shape", 《ARXIV》 *
段仲静 等: "深度学习目标检测方法及主流框架综述", 《HTTP://KNS.CNKI.NET/KCMS/DETAIL/31.1690.TN.20191210.1209.022.HTML》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112967373A (zh) * 2021-02-03 2021-06-15 重庆邮电大学 一种基于非线性3dmm的人脸图像特征编码方法
CN112967373B (zh) * 2021-02-03 2022-07-22 重庆邮电大学 一种基于非线性3dmm的人脸图像特征编码方法
CN112801006A (zh) * 2021-02-05 2021-05-14 网易(杭州)网络有限公司 表情表征模型的训练方法、面部的表情表征方法及装置
CN112801006B (zh) * 2021-02-05 2023-09-05 网易(杭州)网络有限公司 表情表征模型的训练方法、面部的表情表征方法及装置
CN115050087A (zh) * 2022-08-16 2022-09-13 之江实验室 一种人脸关键点身份和表情解耦方法及装置
CN115050087B (zh) * 2022-08-16 2022-11-18 之江实验室 一种人脸关键点身份和表情解耦方法及装置

Also Published As

Publication number Publication date
CN111259745B (zh) 2022-07-12

Similar Documents

Publication Publication Date Title
CN111259745B (zh) 一种基于分布独立性的3d人脸解耦表示学习方法
CN115049936B (zh) 一种面向高分遥感影像的边界增强型语义分割方法
CN109801230B (zh) 一种基于编码器结构的图像修复方法
CN113962893A (zh) 基于多尺度局部自注意力生成对抗网络的人脸图像修复方法
CN111210382A (zh) 图像处理方法、装置、计算机设备和存储介质
CN110930378B (zh) 基于低数据需求的肺气肿影像处理方法及系统
CN113379601A (zh) 基于降质变分自编码器的真实世界图像超分辨方法及系统
CN112560966B (zh) 基于散射图卷积网络的极化sar图像分类方法、介质及设备
CN110533591B (zh) 基于编解码器结构的超分辨图像重建方法
CN114093013B (zh) 一种深度伪造人脸逆向溯源方法及系统
CN115484410B (zh) 基于深度学习的事件相机视频重建方法
CN109800677B (zh) 一种跨平台掌纹识别方法
CN104036242B (zh) 基于Centering Trick卷积限制玻尔兹曼机的物体识别方法
CN109062811B (zh) 一种基于神经风格迁移的测试用例生成方法
CN112651360A (zh) 一种小样本下骨架动作识别方法
CN113435321A (zh) 一种主轴轴承状态评估方法、系统、设备及可读存储介质
CN112288626A (zh) 一种基于双路径深度融合的人脸幻构方法及系统
CN116309228A (zh) 基于生成对抗网络的可见光图像转换红外图像方法
CN115054270A (zh) 基于gcn提取睡眠频谱图特征的睡眠分期方法及系统
CN117974693A (zh) 图像分割方法、装置、计算机设备和存储介质
CN115861762B (zh) 一种即插即用无限形变融合特征提取的方法及其应用
CN118015332A (zh) 一种遥感影像显著性目标检测方法
CN111505706B (zh) 基于深度T-Net网络的微地震P波初至拾取方法及装置
CN113269702A (zh) 基于跨尺度特征融合的低曝光静脉图像增强方法
CN112508121A (zh) 一种工业机器人感知外界的方法和系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant