CN113887529B - 基于运动单元特征分解的三维人脸表情生成系统 - Google Patents

基于运动单元特征分解的三维人脸表情生成系统 Download PDF

Info

Publication number
CN113887529B
CN113887529B CN202111318938.4A CN202111318938A CN113887529B CN 113887529 B CN113887529 B CN 113887529B CN 202111318938 A CN202111318938 A CN 202111318938A CN 113887529 B CN113887529 B CN 113887529B
Authority
CN
China
Prior art keywords
dimensional face
expression
dimensional
motion unit
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111318938.4A
Other languages
English (en)
Other versions
CN113887529A (zh
Inventor
刘志磊
王明辉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tianjin University
Original Assignee
Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tianjin University filed Critical Tianjin University
Priority to CN202111318938.4A priority Critical patent/CN113887529B/zh
Publication of CN113887529A publication Critical patent/CN113887529A/zh
Application granted granted Critical
Publication of CN113887529B publication Critical patent/CN113887529B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本发明公开了一种基于运动单元特征分解的三维人脸表情生成方法,包括如下步骤:1)构建一个基于预训练的三维人脸参数提取器,利用预训练的ResNet50作为三维人脸的参数提取器从二维的人脸图像中提取出3DMM定义下的三维人脸数据作为三维人脸的低维表示;2)构建一个将三维人脸中的全局表情参数分解的分解网络,结合运动单元对于人脸局部表情的描述,得到多个运动单元特征来控制三维人脸的局部表情;3)构建一个融合运动单元特征和其它三维人脸参数的生成器和判别器,利用生成器和判别器之间的对抗训练,使得生成器生成的三维人脸足够真实,同时分解了的表情特征可以实现修改局部区域的表情的同时保证其它区域的表情。

Description

基于运动单元特征分解的三维人脸表情生成系统
技术领域
本发明涉及计算机视觉以及三维人脸生成领域,具体为一种基于运动单元特征分解的三维人脸表情生成系统。
背景技术
近年来,由于三维人脸在虚拟现实、人机交互、动画游戏等各个方面都有着重要的应用,三维人脸的相关研究以及应用已经成为了计算机图形学和计算机视觉上的一个重要主题。而在三维人脸的研究中,三维人脸数据的获取通常需要代价高昂的专业设备对人脸进行扫描。随着深度学习的发展,许多的计算机视觉领域中的传统任务都通过深度学习模型得到了很大的提高。因此,许多学者也开始尝试基于深度学习的模型从一张二维人脸图像中提取到人脸的三维信息并将其对应的三维人脸重建出来。目前,三维人脸的生成模型主要分为基于优化的方法和基于生成的方法:
(1)基于优化的方法主要是在给定目标人脸的情况下,将重建问题转化为一个参数优化问题,从而利用梯度下降法优化控制参数;
(2)基于神经网络模型的方法,主要依靠大量的三维人脸数据,通过反向传播的方式训练一个深度神经网络来实现从参数到对应三维人脸的生成过程。
在这两种方法中通常都使用到了一个三维形变模型(3DMorphableModel,3DMM)。3DMM是一个三维人脸参数化模型,它将三维人脸的信息分解成了身份信息、表情信息、纹理信息,并且分别使用一组参数进行表示。然而,此模型中的表情参数是从三维人脸的全局层次上来表示三维人脸的表情的,这样的方式容易导致生成的三维人脸在表情的细节上不能得到保证。对于人脸局部的表情信息,通常会使用运动单元(Action Unit,AU)来描述。运动单元是根据解剖学知识将人脸的肌肉运动进行、划分的方式。每一个运动单元都描述了一个相对独立的肌肉运动,例如,AU12描述的就是唇角上扬的动作。在本发明中,结合了运动单元的相关知识,实现了一种基于运动单元特征分解的三维人脸表情生成方法,从而解决上述三维人脸重建方法中的问题。
发明内容
本发明的目的是为了克服现有技术中的不足,提供一种对全局表情参数进行分解,利用运动单元标签信息,实现全局表情参数的分解以及利用分解后的多个运动单元特征表示的三维人脸模型生成方法。
本发明的目的是通过以下技术方案实现的:一种基于运动单元特征分解的三维人脸表情生成法,包括以下步骤:
一种基于运动单元特征分解的三维人脸表情生成系统,所述系统包括:三维人脸生成模型、全局表情的分解模块和三维人脸的对抗生成网络;
所述三维人脸生成模型通过采用二维的人脸图像数据信息输出相应的三维人脸全局表情数据信息;
所述全局表情的分解模块将三维人脸全局表情数据信息分解获得局部区域的表情运动单元特征;
所述三维人脸的对抗生成网络通过三维人脸参数的生成器G和判别器D将局部区域的表情的运动单元特征融合输出真实的三维人脸数据信息;其中:所述三维人脸的对抗生成网络输出真实的三维人脸数据信息过程,包括如下步骤:
所述生成器G通过如下公式对多个局部区域的表情运动单元特征运算输出三维人脸表情信息
其中,表示的是生成器生成出的三维人脸表情特征信息;fau表示的式分解模块中多个运动单元特征的组合;
所述判别器D对三维人脸表情特征信息通过如下公式判别确保三维人脸的真实感以及确保生成的三维人脸的表情符合给出的运动单元标签
其中:判别器的输出l是一个二值的标签,用来表示输入判别器的三维人脸是真实的数据还是生成的数据。
进一步,所述三维人脸生成模型输出相应的三维人脸全局表情数据信息包括如下步骤:所述三维人脸生成模型使用预训练好的三维重建模型的参数提取器Extractor,模型框架使用的是ResNet50,输入是224*224的人脸图像,输出的是根据三维变形模型预定义的三维人脸的身份参数、表情参数、纹理参数;
所述三维人脸生成模型可以表示为下式:
id,exp,tex,L,fimg=Extractor(I)
其中:id表示的是图像中人物对应的三维人脸的身份参数,exp表示的是三维人脸的全局表情参数,tex表示的是三维人脸的纹理参数,L表示为三维人脸的姿势以及场景的光照参数,fimg表示的是提取器中提取到的高维特征。
进一步,所述全局表情的分解模块将三维人脸全局表情数据信息分解为多个运动单元特征,包括如下步骤:
所述全局表情的分解模块包括:初期的全连接网络,其中:每个全连接网络都是将全局表情参数提取出单个相应运动单元参数的网络;
所述全局表情的分解模块通过设置的分类器对于对每个分解出的特征进行运动单元表情的分类获得多个运动单元特征;即:任意一个运动单元特征的分解可以表示为:
所述全局表情的分解模块通过后续的全连接网络恢复出的全局表情参数和输入的全局表情参数之间的均方差误差损失来保证全局表情的分解模块在分解过程中不会损失过多的表情信息;该过程中使用到的两个误差损失可以表示为:
其中,exp是提取到的三维人脸的全局表情参数,是多个运动单元重新恢复出的全局表情参数;li表示第i个运动单元的真实状态标签,表示的是分类器预测出的运动单元状态标签。
有益效果
本发明利用运动单元标签信息,实现全局表情参数的分解以及利用分解后的多个运动单元特征表示的三维人脸模型生成系统;该系统利用运动单元的先验知识,将3DMM中定义的全局表情参数进一步分解,实现了一种基于运动单元特征分解的三维人脸表情生成方法。其生成结果相较于现有模型在表情上有了更好的结果。
本发明为对表情信息进行分解,利用分解后得到的运动单元特征控制生成的三维人脸的局部表情方法。
与现有技术相比,本发明的有益效果是:
为了控制生成的三维人脸的表情,本发明使用了分解网络模块将三维人脸参数的全局表情参数进行分解,得到多个可以表示人脸不同的局部区域的运动单元特征,然后通过运动单元标签的约束可以保证生成的三维人脸的局部表情可以进行改变,并且在改变一个区域的表情的同时能够保证其他区域的表情不发生改变。
附图说明
图1为本发明提供的一种基于运动单元特征分解的三维人脸表情生成系统的框架图:包括:(a)模型框架;(b)三维人脸参数提取器;(c)全局表情的分解模块;(d)三维人脸的对抗生成网络。
具体实施方式
以下结合附图和具体实施例对本发明作进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种基于运动单元特征分解的三维人脸表情生成系统,包括如下步骤:
(1)构建一个基于预训练的三维人脸参数提取器Extractor:即:三维人脸生成模块
为了实现一个端对端的三维人脸生成模型;首先需要利用一个预训练好的三维人脸参数提取器。利用一个预训练好的ResNet50网络结构作为三维人脸参数的提取器。提取器的输入是224*224大小的人脸图像,输出的是基于3DMM定义的三维人脸的身份参数、表情参数、纹理参数以及图像中人脸的姿势参数。这些参数可以作为图像中人脸的低维表示,后续的分解操作建立在这些参数上。
(2)构建一个将三维人脸中的全局表情参数分解的分解器Disentangler,即:全局表情分解模块:
全局表情分解模块实现的是全局表情参数的分解,构建多个相同结构的全连接网络作为多个分解模块。其中,每一个全连接网络负责将全局表情参数进行分解得到仅包含单个运动单元信息的特征。得到的多个运动单元特征之后,需要保证所有的表情信息并未在分解过程中丢失,所以在分解得到多个运动单元特征后,补充一个额外的全局表情参数的重建模型,负责从多个运动单元特征中恢复出原有的全局表情参数。并且此处得到的重建表情参数和之前已经提取到的表情参数之间的均方误差损失也会进一步指导分解网络的分解能力。
(3)构建一个融合运动单元特征和其它三维人脸参数的生成器G和判别器D;即:三维人脸对抗生成网络
为了保证生成的三维人脸的表情没有发生变化,使用生成对抗网络(GenerativeAdversarial Network,GAN)来实现从参数到三维人脸的生成过程。首先将前一步骤中分解得到的多个运动单元特征和提取到的身份参数和纹理参数输入到生成器中G得到生成的三维人脸。然后将生成的三维人脸送入到判别器中,判别器会对该三维人脸的运动单元以及是否真实进行判别。
为了保证判别器有足够的判别能力,也要同时将真实数据送入判别器网络中进行训练。通过判别器对生成效果差的三维人脸判别出来的方式来监督生成器不断提高生成能力从而能够混淆判别器的判断。
本发明实施例:
以三维人脸表情数据集BP4D+数据集为例给出本发明的实施方法。该方法整体框架见图1所示。整个系统方法流程包括构建一个基于预训练的三维人脸参数提取器Extractor,构建一个将三维人脸中的全局表情参数分解的分解网络Disentangler,构建一个融合运动单元特征和其它三维人脸参数的生成器G和判别器D这3个步骤。
具体步骤如下:
(1)构建一个基于预训练的三维人脸参数提取器Extractor:
首先对于BP4D+数据集中的数据进行预处理。BP4D+数据集包括了共140个不同身份在实验室环境下,从中性表情下到其它表情的变化的二维人脸图像,同时数据集中包括了部分人脸图像中运动单元的状态标签,实验中使用到的运动单元共有5个,分别是:AU1、AU2、AU12、AU14、AU15。然后将每一个图像的大小利用三线性插值方法调整到224*224大小。将所有的数据送入预训练好的提取器网络中,得到每个人脸图像对应的三维人脸参数,其中包括80维的身份参数,64维的表情参数,80维的纹理参数,27维的光照参数以及3维的人脸姿势参数。利用这些参数来表示输入图像对应的三维人脸。
(2)构建一个将三维人脸中的全局表情参数分解的分解网络Disentangler:
为了保证能够控制生成的三维人脸的局部表情,需要将全局的表情参数进行分解,来得到局部表情层次的特征。首先,对于每个运动单元表示的局部表情特征,使用一个全连接网络实现从全局表情参数中提取到单个运动单元表示的特征。为了保证表情参数分解到的运动单元特征是包含了相应的运动单元信息,每个运动单元的分解模块中都有一个后续的分类器,对分解出的特征进行运动单元表情的分类识别来促进模型的分解能力。同时,为了保证在分解的过程中并没有丢失整体表情的信息,在得到所有的分解出的单个运动单元特征后,利用一个重建网络将多个运动单元特征重新恢复出全局的表情参数,利用恢复出的全局表情参数和输入的全局表情参数之间的均方差误差损失来保证分解网络在分解过程中不会损失过多的表情信息。该过程中使用到的两个误差损失可以表示为:
其中,exp是提取到的三维人脸的全局表情参数,是多个运动单元重新恢复出的全局表情参数。li表示第i个运动单元的真实状态标签,表示的是分类器预测出的运动单元状态标签。
(3)构建一个融合运动单元特征和其它三维人脸参数的生成器G和判别器D:
利用上一步得到的多个运动单元特征和其它三维人脸参数进行融合,并且作为生成器的输入来生成出相应的三维人脸的网格模型。为了保证生成的三维人脸的表情是和网络模型输入的图像中的表情一致以及生成三维人脸的形状符合真实数据的分布,引入了一个额外的判别器来对生成的三维人脸进行判别,分别输出该三维人脸的运动单元标签以及生成的三维人脸与真实三维人脸的相似与否。判别器同时会利用真实的三维人脸数据来进行训练,保证判别能力逐渐增强,从而来促使生成器生成的三维人脸更加接近真实数据。因此在生成器和判别器训练的过程中,需要考虑判别器的输出和实际运动单元标签的交叉熵的损失。此外,还需要从形状上保证生成的准确程度,利用生成的三维人脸和真实数据之间的L1损失函数,以及为了进一步保证生成的三维人脸是表情和身份信息的独立,生成的三维人脸的同时会生成该三维人脸的中性表情,并利用中性表情下的三维人脸的L1损失来约束网络的生成器能够分别处理三维人脸的身份属性和表情属性。该过程中使用到的损失函数具体如下所示:
其中,是真实数据中该三维人脸在中性表情下的形状,则是生成的中性表情下的三维人脸。Pgt表示的是真实的三维人脸中选取出的关键点的序列,则是生成的三维人脸中的相应的关键点序列。
通过以上三个步骤,实现了基于运动单元特征分解的三维人脸生成模型。在训练模型的过程中,除了以上步骤中提到的损失函数约束以外,模型中的其它参数如下:每个运动单元特征通过3层的全连接网络提取,生成器G和判别器D由6层的全连接网络组成。整个模型在BP4D+数据集中以mini-batch的方式训练,batch-size是32,学习率是0.0001,采用Adam优化器训练。
表1FaceWarehouse数据集的定量实验结果(%)
表1显示了我们模型FD-GAN和Deep3DFace模型[1]的对比实验结果。预训练一个三维人脸的AU分类器,然后将本模型和Deep3DFace模型从图像生成的三维人脸输入到分类器中验证生成的三维人脸的AU是否和输入的图像中AU标签一致。从结果可以看到,只有在AU2的准确率上Deep3DFace模型略优于本模型,其余指标都低于本模型结果。
本发明并不限于上文描述的实施方式。以上对具体实施方式的描述旨在描述和说明本发明的技术方案,上述的具体实施方式仅仅是示意性的,并不是限制性的。在不脱离本发明宗旨和权利要求所保护的范围情况下,本领域的普通技术人员在本发明的启示下还可做出很多形式的具体变换,这些均属于本发明的保护范围之内。

Claims (3)

1.一种基于运动单元特征分解的三维人脸表情生成系统,所述系统包括:三维人脸参数提取模型、全局表情分解模块和三维人脸对抗生成网络;其特征在于,
所述三维人脸参数提取模型通过采用二维的人脸图像数据信息输出相应的三维人脸全局表情数据信息;
所述全局表情分解模块将三维人脸全局表情数据信息分解获得局部区域的表情运动单元特征;
所述三维人脸对抗生成网络通过三维人脸参数的生成器G和判别器D将局部区域的表情的运动单元特征融合输出真实的三维人脸数据信息;其中:所述三维人脸的对抗生成网络输出真实的三维人脸数据信息过程,包括如下步骤:
所述生成器G通过如下公式对多个局部区域的表情运动单元特征运算输出三维人脸表情模型
其中,表示的是生成器生成出的运动单元特征表示的三维人脸;id表示的是图像中人物对应的三维人脸的身份参数,fau表示的是分解模块中多个运动单元特征的组合,tex表示的是三维人脸的纹理参数,L表示为三维人脸的姿势以及场景的光照参数;
所述判别器D对三维人脸表情特征信息通过如下公式判别确保三维人脸的真实感以及确保生成的三维人脸的表情符合给出的运动单元标签
其中:判别器的输出l是一个二值的标签,用来表示输入判别器的三维人脸是真实的数据还是生成的数据。
2.根据权利要求1所述的一种基于运动单元特征分解的三维人脸表情生成系统,其特征在于:所述三维人脸生成模型输出相应的三维人脸全局表情数据信息包括如下步骤:
所述三维人脸生成模型使用预训练好的三维重建模型的参数提取器Extractor,模型框架使用的是ResNet50,输入是224*224的人脸图像,输出的是根据三维变形模型预定义的三维人脸的身份参数、表情参数、纹理参数;
所述三维人脸生成模型可以表示为下式:
id,exp,tex,L,fimg=Extractor(I)
其中:exp表示的是三维人脸的全局表情参数,fimg表示的是提取器中提取到的高维特征。
3.根据权利要求1所述一种基于运动单元特征分解的三维人脸表情生成系统,其特征在于,所述全局表情分解模块将三维人脸全局表情数据信息分解为多个运动单元特征,包括如下步骤:
所述全局表情分解模块包括:初期的全连接网络,其中:每个全连接网络都是将全局表情参数提取出单个相应运动单元参数的网络;
所述全局表情分解模块通过设置的分类器对于对每个分解出的特征进行运动单元表情的分类获得多个运动单元特征;即:任意一个运动单元特征的分解可以表示为:
所述全局表情的分解模块通过后续的全连接网络恢复出的全局表情参数和输入的全局表情参数之间的均方差误差损失来保证全局表情的分解模块在分解过程中不会损失过多的表情信息;该过程中使用到的两个误差损失可以表示为:
其中,exp是提取到的三维人脸的全局表情参数,是多个运动单元重新恢复出的全局表情参数;li表示第i个运动单元的真实状态标签,表示的是分类器预测出的运动单元状态标签。
CN202111318938.4A 2021-11-09 2021-11-09 基于运动单元特征分解的三维人脸表情生成系统 Active CN113887529B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111318938.4A CN113887529B (zh) 2021-11-09 2021-11-09 基于运动单元特征分解的三维人脸表情生成系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111318938.4A CN113887529B (zh) 2021-11-09 2021-11-09 基于运动单元特征分解的三维人脸表情生成系统

Publications (2)

Publication Number Publication Date
CN113887529A CN113887529A (zh) 2022-01-04
CN113887529B true CN113887529B (zh) 2024-07-12

Family

ID=79017590

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111318938.4A Active CN113887529B (zh) 2021-11-09 2021-11-09 基于运动单元特征分解的三维人脸表情生成系统

Country Status (1)

Country Link
CN (1) CN113887529B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114898244B (zh) * 2022-04-08 2023-07-21 马上消费金融股份有限公司 一种信息处理方法、装置、计算机设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903363A (zh) * 2019-01-31 2019-06-18 天津大学 条件生成对抗网络三维人脸表情运动单元合成方法
CN111028319A (zh) * 2019-12-09 2020-04-17 首都师范大学 一种基于面部运动单元的三维非真实感表情生成方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101333836B1 (ko) * 2012-02-28 2013-11-29 가톨릭대학교 산학협력단 에이에이엠 및 추정된 깊이 정보를 이용하는 3차원 얼굴 포즈 및 표정 변화 추정 방법
CN107748871B (zh) * 2017-10-27 2021-04-06 东南大学 一种基于多尺度协方差描述子与局部敏感黎曼核稀疏分类的三维人脸识别方法
CN113505729A (zh) * 2021-07-23 2021-10-15 上海才历网络有限公司 基于人体面部运动单元的面试作弊检测方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903363A (zh) * 2019-01-31 2019-06-18 天津大学 条件生成对抗网络三维人脸表情运动单元合成方法
CN111028319A (zh) * 2019-12-09 2020-04-17 首都师范大学 一种基于面部运动单元的三维非真实感表情生成方法

Also Published As

Publication number Publication date
CN113887529A (zh) 2022-01-04

Similar Documents

Publication Publication Date Title
CN110111236B (zh) 基于渐进式对抗生成网络的多目标草图生成图像的方法
Yoon et al. Hand gesture recognition using combined features of location, angle and velocity
CN108334830A (zh) 一种基于目标语义和深度外观特征融合的场景识别方法
WO2021208601A1 (zh) 基于人工智能的图像处理方法、装置、设备及存储介质
Li et al. 3D model generation and reconstruction using conditional generative adversarial network
CN110555896B (zh) 一种图像生成方法、装置以及存储介质
Xu et al. An enhanced framework of generative adversarial networks (EF-GANs) for environmental microorganism image augmentation with limited rotation-invariant training data
CN112598775B (zh) 一种基于对比学习的多视图生成方法
CN115565238B (zh) 换脸模型的训练方法、装置、设备、存储介质和程序产品
Lee et al. 3-D human behavior understanding using generalized TS-LSTM networks
Yasir et al. Two-handed hand gesture recognition for Bangla sign language using LDA and ANN
CN113705316A (zh) 获取虚拟图像的方法、装置、设备及存储介质
CN113887529B (zh) 基于运动单元特征分解的三维人脸表情生成系统
CN109086664A (zh) 一种动静态融合的多态手势识别方法
Lyu et al. Spontaneous facial expression database of learners’ academic emotions in online learning with hand occlusion
CN114973349A (zh) 面部图像处理方法和面部图像处理模型的训练方法
CN114333002A (zh) 基于图深度学习和人脸三维重建的微表情识别方法
Salami et al. Motion pattern recognition in 4d point clouds
CN112801945A (zh) 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法
CN114783017A (zh) 基于逆映射的生成对抗网络优化方法及装置
Prakash et al. Educating and communicating with deaf learner’s using CNN based Sign Language Prediction System
Wani et al. Deep learning-based video action recognition: a review
CN112163605A (zh) 一种基于生成注意力网络的多域图像翻译方法
You et al. View enhanced jigsaw puzzle for self-supervised feature learning in 3D human action recognition
CN112463936B (zh) 一种基于三维信息的视觉问答方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant