CN113392822A - 基于特征分离表征学习的面部运动单元检测方法及系统 - Google Patents
基于特征分离表征学习的面部运动单元检测方法及系统 Download PDFInfo
- Publication number
- CN113392822A CN113392822A CN202110949117.4A CN202110949117A CN113392822A CN 113392822 A CN113392822 A CN 113392822A CN 202110949117 A CN202110949117 A CN 202110949117A CN 113392822 A CN113392822 A CN 113392822A
- Authority
- CN
- China
- Prior art keywords
- motion
- feature
- face
- head
- facial
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 73
- 230000001815 facial effect Effects 0.000 title claims abstract description 61
- 238000001514 detection method Methods 0.000 title claims abstract description 29
- 238000012512 characterization method Methods 0.000 title claims abstract description 25
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000005070 sampling Methods 0.000 claims abstract description 14
- 238000010586 diagram Methods 0.000 claims abstract description 13
- 210000003205 muscle Anatomy 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 8
- 230000006870 function Effects 0.000 claims description 5
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000010187 selection method Methods 0.000 claims description 3
- 230000014509 gene expression Effects 0.000 description 17
- 210000001097 facial muscle Anatomy 0.000 description 9
- 230000008921 facial expression Effects 0.000 description 7
- 230000008451 emotion Effects 0.000 description 6
- 238000000605 extraction Methods 0.000 description 4
- 230000004886 head movement Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008449 language Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于特征分离表征学习的面部运动单元检测方法及系统,属于图像处理领域,方法包括:从训练视频中选取三帧包含人脸的图像并输入至特征分离编码器,得到与各图像对应的个人身份特征图、第一面部运动特征图和第一头部姿态运动特征图;对各第一面部运动特征图和各第一头部姿态运动特征图分别依次进行拼接和解码处理,并基于解码结果重构生成头部运动特征;以头部运动特征为采样器,对选取的第一帧图像进行采样,得到目标图像;以目标图像与选取的最后一帧图像相似度最高为目标,训练特征分离编码器,训练后的特征分离编码器用于对目标图片进行特征分离。分离出与面部运动特征无关的信息,提高面部运动单元检测准确率。
Description
技术领域
本发明属于图像处理领域,更具体地,涉及一种基于特征分离表征学习的面部运动单元检测方法及系统。
背景技术
人类的面部表情是由面部肌肉的运动来体现的。美国心理学家艾克曼教授在20世纪60年代发布了面部运动编码系统(Facial Action Coding System,FACS),定义了人类面部的几十组运动单元(Action Unit,AU),每组AU由一块或多块肌肉的运动组成。FACS对每种AU定义了A到E五个级别的强度,各种AU之间自由组合,理论上人脸可以表达一万多种表情。AU和面部表情的联系十分紧密,可将表情分解为不同AU的组合,剖析人脸表情在面部的表象,把表情分解成具体的面部肌肉的运动,也即AU运动,并且给出了识别和衡量表情的方法与基准。
FACS对AU的定义是独立于其它假设和解释的,仅依靠解剖学上肌肉分布与运动特征,而不是根据特定面部表情的假设,为面部表情提供了更客观、更细粒度的描述,对于面部表情的分析更为直观并且更具有可解释性。因此,相对于通过人类语言的表情标签方式主观表达表情,可以通过一系列固定的人脸参数表示表情和人脸的行为。使用AU检测的方式表达面部表情框架,可以避免因为观测者不同引入标注的歧义性。
面部肌肉运动是人脸的局部运动,而运动信息无论在有没有标签的数据中都是容易获取的,通过运动信息来学习面部运动单元的特征是可行的。然而,实际应用场景中,视频中检测到的运动信息不仅包含面部局部肌肉运动特征,往往还融合了头部姿态的运动和个人的身份特征信息,从而引入了误差,导致面部运动单元检测的错误率较高。
发明内容
针对现有技术的缺陷和改进需求,本发明提供了一种基于特征分离表征学习的面部运动单元检测方法及系统,其目的在于通过分离头部姿态运动、面部运动和个人身份特征,从而解决由于混入面部运动无关信息引入误差导致难以发现人脸潜在情感的问题。
为实现上述目的,按照本发明的一个方面,提供了一种基于特征分离表征学习的面部运动单元检测方法,包括:S1,从训练视频中选取三帧包含人脸的图像,并将各所述图像分别输入至特征分离编码器,得到与各所述图像对应的个人身份特征图、第一面部运动特征图和第一头部姿态运动特征图;S2,对各所述第一面部运动特征图和各所述第一头部姿态运动特征图分别依次进行拼接和解码处理,并基于解码结果重构生成头部运动特征;S3,以所述头部运动特征为采样器,对所述S1中选取的第一帧图像进行采样,得到目标图像;S4,以所述目标图像与所述S1中选取的最后一帧图像相似度最高为目标,训练所述特征分离编码器,训练后的特征分离编码器用于对目标图片进行特征分离。
更进一步地,所述方法还包括:利用训练后的特征分离编码器对目标图片进行特征分离,得到分离的个人身份特征、面部运动特征和头部姿态运动特征;将所述面部运动特征输入面部运动单元分类器,生成与所述面部运动特征相应的预测结果。
更进一步地,所述训练视频包括起始帧、中间帧、峰值帧和结束帧,所述S1中从训练视频中选取三帧包含人脸的图像包括:利用随机选择法,在所述中间帧、所述起始帧中间的帧与所述起始帧之间选取第一帧图像,在所述第一帧图像与所述中间帧之间选取第二帧图像,在所述中间帧、所述峰值帧中间的帧与所述峰值帧之间选取第三帧图像。
更进一步地,所述S1中选取图像之后包括:将各所述图像分别剪裁为预设尺寸且包含所述人脸的人脸图像,将各所述人脸图像分别输入至所述特征分离编码器。
更进一步地,所述解码结果包括第二面部运动特征图、面部运动置信度图、第二头部姿态运动特征图和头部姿态运动置信度图,所述S2中根据解码结果重构生成头部运动特征包括:将所述第二面部运动特征图与所述面部运动置信度图做像素级别相乘,得到面部运动特征;将所述第二头部姿态运动特征图与所述头部姿态运动置信度图做像素级别相乘,得到头部姿态运动特征;将所述面部运动特征与所述头部姿态运动特征做像素级别相加,得到所述头部运动特征。
更进一步地,所述S2中的拼接和解码处理包括:对各所述第一面部运动特征图进行特征拼接生成面部肌肉运动嵌入层,将所述面部肌肉运动嵌入层输入面部运动解码器进行解码,得到第二面部运动特征图和面部运动置信度图;对各所述第一头部姿态运动特征图进行特征拼接生成头部姿态嵌入层,将所述头部姿态嵌入层输入头部姿态运动解码器进行解码,得到第二头部姿态运动特征图和头部姿态运动置信度图。
其中,为第一损失权重系数,为第二损失权重系数,为第三损失权重系数,为第四损失权重系数,为第五损失权重系数,和分别为所述目标图像的宽和高,为模型L1范数损失,为面部运动特征相关的L1范数损失,为模型L2范数损失,为个人身份特征相关的softmax交叉熵损失,为面部运动特征相关的softmax交叉熵损失,为所述目标图像,为所述S1中选取的第三帧图像,为面部运动位移,、、分别为输入所述特征分离编码器后得到的头部姿态运动特征、个人身份特征、面部运动特征,、、分别为输入所述特征分离编码器后得到的头部姿态运动特征、个人身份特征、面部运动特征,为真实身份标签,为预测身份标签,为样本数量,为第个样本的真实身份标签,为第个样本的预测身份标签,为第个样本的第个标签的真实运动单元标签,为第个样本的第个标签的预测运动单元标签。
更进一步地,所述目标图像为:
按照本发明的另一个方面,提供了一种基于特征分离表征学习的面部运动单元检测系统,包括:选取及编码模块,用于从训练视频中选取三帧包含人脸的图像,并将各所述图像分别输入至特征分离编码器,得到与各所述图像对应的个人身份特征图、第一面部运动特征图和第一头部姿态运动特征图;解码及重构模块,用于对各所述第一面部运动特征图和各所述第一头部姿态运动特征图分别依次进行拼接和解码处理,并基于解码结果重构生成头部运动特征;采样模块,用于以所述头部运动特征为采样器,对所述选取及编码模块中选取的第一帧图像进行采样,得到目标图像;训练模块,用于以所述目标图像与所述选取及编码模块中选取的最后一帧图像相似度最高为目标,训练所述特征分离编码器,训练后的特征分离编码器用于对目标图片进行特征分离。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:提出了一种特征分离编码器的模型,可以分离头部姿态运动、面部运动和个人身份特征,通过特征重建的方式验证运动特征提取的有效性,通过个人身份特征分类器验证身份特征提取的有效性,通过不断迭代训练,最终形成一个能够有效提取用于面部运动单元检测的编码器,从而解决由于混入面部运动无关信息引入误差导致难以发现人脸潜在情感的问题。
附图说明
图1为本发明实施例提供的基于特征分离表征学习的面部运动单元检测方法的流程图。
图2为本发明实施例提供的视频位置定义示意图。
图3为本发明实施例提供的训练过程中的模型结构示意图。
图4为本发明实施例提供的基于特征分离表征学习的面部运动单元检测系统的框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
在本发明中,本发明及附图中的术语“第一”、“第二”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
图1为本发明实施例提供的基于特征分离表征学习的面部运动单元检测方法的流程图。参阅图1,结合图2-图3,对本实施例中基于特征分离表征学习的面部运动单元检测方法进行详细说明,方法包括操作S1-操作S4。
操作S1,从训练视频中选取三帧包含人脸的图像,并将各图像分别输入至特征分离编码器,得到与各图像对应的个人身份特征图、第一面部运动特征图和第一头部姿态运动特征图。
本实施例中的训练视频为包含有动态表情的短表情视频,大量的训练视频形成训练数据集。动态表情训练数据集的一个subject中包含一段表情视频或者一段表情视频提取的帧序列。
训练视频包括起始帧、中间帧、峰值帧和结束帧,参阅图2,表情起始帧为onset帧,表情中间帧为middle帧,表情峰值帧为apex帧,表情结束帧为offset帧,middle帧为onset帧与apex帧中间的帧,middle帧与onset帧中间的帧标记为A帧,middle帧与apex帧中间的帧标记为B帧。
本实施例中,从训练视频中选取三帧包含人脸的图像并执行后续操作,这三帧图像依次为Is1、Is2、It,其中,Is1为第一帧图像,Is2为第二帧图像,It为第三帧图像。
三帧图像的选取策略为:利用随机选择法,在A帧与onset帧之间选取第一帧图像Is1,离onset帧越近被选取的概率越大;在第一帧图像Is1与middle帧之间随机选取第二帧图像Is2,离第一帧图像Is1越近被选取的概率越大;在B帧与apex帧之间随机选取第三帧图像It,离apex帧越近被选取的概率越大。
本实施例中,提出一种特征分离自动编码器(Feature DisentangledAutoencoder,FDAE),简称为特征分离编码器,可以分离出个人身份特征、面部运动特征和头部姿态运动特征,并通过运动特征重建的方式验证运动特征提取的有效性,通过个人身份特征分类器验证身份特征提取的有效性。通过不断的迭代训练,最终形成一个能够有效提取面部运动特征的编码器。
操作S1中,将各图像分别输入至特征分离编码器之前,可以将选取的各图像分别剪裁为预设尺寸且包含人脸的人脸图像,并将剪裁后得到的人脸图像分别输入至特征分离编码器,分别生成各自的特征图。预设尺寸例如为224*224。
每个图像编码后生成的特征图分为三个特征图,如图3所示。其中,fx表示个人身份特征图,ax表示面部运动特征图,px表示头部姿态运动特征图。例如第一帧图像Is1对应的特征图分别为fs1、as1、ps1,第二帧图像Is2对应的特征图分别为fs2、as2、ps2,第三帧图像It对应的特征图分别为ft、at、pt。
操作S2,对各第一面部运动特征图和各第一头部姿态运动特征图分别依次进行拼接和解码处理,并基于解码结果重构生成头部运动特征。
根据本发明的实施例,操作S2中的拼接和解码处理包括:对各第一面部运动特征图进行特征拼接生成面部肌肉运动嵌入层,将面部肌肉运动嵌入层输入面部运动解码器进行解码,得到第二面部运动特征图和面部运动置信度图;对各第一头部姿态运动特征图进行特征拼接生成头部姿态嵌入层,将头部姿态嵌入层输入头部姿态运动解码器进行解码,得到第二头部姿态运动特征图和头部姿态运动置信度图。
参阅图3,通过特征拼接方式生成面部肌肉运动嵌入层[as1,as2,at],送入面部运动解码器Da,生成第二面部运动特征图(面部运动位移)和面部运动置信度图。第二面部运动特征图表示Is1、 Is2和It的面部肌肉运动特征,面部运动置信度图表示面部肌肉运动信息的置信度。
通过特征拼接方式生成头部姿态嵌入层[ps1,ps2,pt],送入头部姿态运动解码器Dp,生成第二头部姿态运动特征图和头部姿态运动置信度图。第二头部姿态运动特征图表示Is1、 Is2和It的头部姿态运动特征,头部姿态运动置信度图表示头部姿态运动信息的置信度。
进一步地,还可以通过特征拼接方式生成个人身份特征嵌入层[fs1,fs2,ft],送入人脸分类器,分类得到subject的ID。
参阅图3,操作S2中根据解码结果重构生成头部运动特征包括:将第二面部运动特征图与面部运动置信度图做像素级别相乘,得到面部运动特征;将第二头部姿态运动特征图与头部姿态运动置信度图做像素级别相乘,得到头部姿态运动特征;将面部运动特征与头部姿态运动特征做像素级别相加,得到头部运动特征。
操作S3,以头部运动特征为采样器,对操作S1中选取的第一帧图像进行采样,得到目标图像。
操作S4,以目标图像与操作S1中选取的最后一帧图像相似度最高为目标,训练特征分离编码器,训练后的特征分离编码器用于对目标图片进行特征分离。
头部运动与面部肌肉运动相比较,头部运动是刚性运动,具有全局性和显著性,面部肌肉运动是非刚性运动,具有局部性和微弱性。因此,在训练过程中会强化面部运动相关运动特征的局部性和微弱性,即会对面部肌肉运动特征添加L1范式损失,保证面部肌肉运动的稀疏性(局部性)和微弱性,面部运动特征相关的L1范数损失为:
特征分离编码器会添加模型的个人身份特征分类器预测目标的身份特征编码,为个人身份特征引入softmax交叉熵损失函数:
特征分离编码器会添加模型的面部运动单元分类器预测目标的面部运动单元标签,为面部运动单元分类引入softmax交叉熵损失函数:
本实施例中的,当特征分离编码器训练完成之后,方法还包括:利用训练后的特征分离编码器对目标图片进行特征分离,得到分离的个人身份特征、面部运动特征和头部姿态运动特征;将面部运动特征输入面部运动单元分类器,生成与该面部运动特征相应的预测结果。
本实施例中基于特征分离表征学习的面部运动单元检测方法可以用于司法讯问、驾驶员情绪检测、师生情绪监督、金融面签欺诈监督、讯问测谎监督、安保访客情绪分析、面试情绪监督等应用场合。
图4为本发明实施例提供的基于特征分离表征学习的面部运动单元检测系统的框图。参阅图4,该基于特征分离表征学习的面部运动单元检测系统400包括选取及编码模块410、解码及重构模块420、采样模块430以及训练模块440。
选取及编码模块410例如执行操作S1,用于从训练视频中选取三帧包含人脸的图像,并将各图像分别输入至特征分离编码器,得到与各图像对应的个人身份特征图、第一面部运动特征图和第一头部姿态运动特征图。
解码及重构模块420例如执行操作S2,用于对各第一面部运动特征图和各第一头部姿态运动特征图分别依次进行拼接和解码处理,并基于解码结果重构生成头部运动特征。
采样模块430例如执行操作S3,用于以头部运动特征为采样器,对选取及编码模块410中选取的第一帧图像进行采样,得到目标图像。
训练模块440例如执行操作S4,用于以目标图像与选取及编码模块410中选取的最后一帧图像相似度最高为目标,训练特征分离编码器,训练后的特征分离编码器用于对目标图片进行特征分离。
基于特征分离表征学习的面部运动单元检测系统400用于执行上述图1-图3所示实施例中的基于特征分离表征学习的面部运动单元检测方法。本实施例未尽之细节,请参阅前述图1-图3所示实施例中的基于特征分离表征学习的面部运动单元检测方法,此处不再赘述。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于特征分离表征学习的面部运动单元检测方法,其特征在于,包括:
S1,从训练视频中选取三帧包含人脸的图像,并将各所述图像分别输入至特征分离编码器,得到与各所述图像对应的个人身份特征图、第一面部运动特征图和第一头部姿态运动特征图;
S2,对各所述第一面部运动特征图和各所述第一头部姿态运动特征图分别依次进行拼接和解码处理,并基于解码结果重构生成头部运动特征;
S3,以所述头部运动特征为采样器,对所述S1中选取的第一帧图像进行采样,得到目标图像;
S4,以所述目标图像与所述S1中选取的最后一帧图像相似度最高为目标,训练所述特征分离编码器,训练后的特征分离编码器用于对目标图片进行特征分离。
2.如权利要求1所述的基于特征分离表征学习的面部运动单元检测方法,其特征在于,所述方法还包括:
利用训练后的特征分离编码器对目标图片进行特征分离,得到分离的个人身份特征、面部运动特征和头部姿态运动特征;
将所述面部运动特征输入面部运动单元分类器,生成与所述面部运动特征相应的预测结果。
3.如权利要求1所述的基于特征分离表征学习的面部运动单元检测方法,其特征在于,所述训练视频包括起始帧、中间帧、峰值帧和结束帧,所述S1中从训练视频中选取三帧包含人脸的图像包括:
利用随机选择法,在所述中间帧、所述起始帧中间的帧与所述起始帧之间选取第一帧图像,在所述第一帧图像与所述中间帧之间选取第二帧图像,在所述中间帧、所述峰值帧中间的帧与所述峰值帧之间选取第三帧图像。
4.如权利要求1-3任一项所述的基于特征分离表征学习的面部运动单元检测方法,其特征在于,所述S1中选取图像之后包括:将各所述图像分别剪裁为预设尺寸且包含所述人脸的人脸图像,将各所述人脸图像分别输入至所述特征分离编码器。
5.如权利要求1所述的基于特征分离表征学习的面部运动单元检测方法,其特征在于,所述解码结果包括第二面部运动特征图、面部运动置信度图、第二头部姿态运动特征图和头部姿态运动置信度图,所述S2中根据解码结果重构生成头部运动特征包括:
将所述第二面部运动特征图与所述面部运动置信度图做像素级别相乘,得到面部运动特征;
将所述第二头部姿态运动特征图与所述头部姿态运动置信度图做像素级别相乘,得到头部姿态运动特征;
将所述面部运动特征与所述头部姿态运动特征做像素级别相加,得到所述头部运动特征。
6.如权利要求1或5所述的基于特征分离表征学习的面部运动单元检测方法,其特征在于,所述S2中的拼接和解码处理包括:
对各所述第一面部运动特征图进行特征拼接生成面部肌肉运动嵌入层,将所述面部肌肉运动嵌入层输入面部运动解码器进行解码,得到第二面部运动特征图和面部运动置信度图;
对各所述第一头部姿态运动特征图进行特征拼接生成头部姿态嵌入层,将所述头部姿态嵌入层输入头部姿态运动解码器进行解码,得到第二头部姿态运动特征图和头部姿态运动置信度图。
其中,为第一损失权重系数,为第二损失权重系数,为第三损失权重系数,为第四损失权重系数,为第五损失权重系数,和分别为所述目标图像的宽和高,为模型L1范数损失,为面部运动特征相关的L1范数损失,为模型L2范数损失,为个人身份特征相关的softmax交叉熵损失,为面部运动特征相关的softmax交叉熵损失,为所述目标图像,为所述S1中选取的第三帧图像,为面部运动位移,、、分别为输入所述特征分离编码器后得到的头部姿态运动特征、个人身份特征、面部运动特征,、、分别为输入所述特征分离编码器后得到的头部姿态运动特征、个人身份特征、面部运动特征,为真实身份标签,为预测身份标签,为样本数量,为第个样本的真实身份标签,为第个样本的预测身份标签,为第个样本的第个标签的真实运动单元标签,为第个样本的第个标签的预测运动单元标签。
9.一种基于特征分离表征学习的面部运动单元检测系统,其特征在于,包括:
选取及编码模块,用于从训练视频中选取三帧包含人脸的图像,并将各所述图像分别输入至特征分离编码器,得到与各所述图像对应的个人身份特征图、第一面部运动特征图和第一头部姿态运动特征图;
解码及重构模块,用于对各所述第一面部运动特征图和各所述第一头部姿态运动特征图分别依次进行拼接和解码处理,并基于解码结果重构生成头部运动特征;
采样模块,用于以所述头部运动特征为采样器,对所述选取及编码模块中选取的第一帧图像进行采样,得到目标图像;
训练模块,用于以所述目标图像与所述选取及编码模块中选取的最后一帧图像相似度最高为目标,训练所述特征分离编码器,训练后的特征分离编码器用于对目标图片进行特征分离。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110949117.4A CN113392822B (zh) | 2021-08-18 | 2021-08-18 | 基于特征分离表征学习的面部运动单元检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110949117.4A CN113392822B (zh) | 2021-08-18 | 2021-08-18 | 基于特征分离表征学习的面部运动单元检测方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113392822A true CN113392822A (zh) | 2021-09-14 |
CN113392822B CN113392822B (zh) | 2021-10-29 |
Family
ID=77622891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110949117.4A Active CN113392822B (zh) | 2021-08-18 | 2021-08-18 | 基于特征分离表征学习的面部运动单元检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113392822B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743388A (zh) * | 2021-11-08 | 2021-12-03 | 武汉烽火信息集成技术有限公司 | 一种面部au关键点检测的方法、装置和电子设备 |
CN116311477A (zh) * | 2023-05-15 | 2023-06-23 | 华中科技大学 | 一种面向跨身份一致性的面部运动单元检测模型构建方法 |
CN117576765A (zh) * | 2024-01-15 | 2024-02-20 | 华中科技大学 | 一种基于分层特征对齐的面部动作单元检测模型构建方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110321805A (zh) * | 2019-06-12 | 2019-10-11 | 华中科技大学 | 一种基于时序关系推理的动态表情识别方法 |
CN111460981A (zh) * | 2020-03-30 | 2020-07-28 | 山东大学 | 一种基于重构跨域视频生成对抗网络模型的微表情识别方法 |
US20200265219A1 (en) * | 2017-09-18 | 2020-08-20 | Board Of Trustees Of Michigan State University | Disentangled representation learning generative adversarial network for pose-invariant face recognition |
CN112200110A (zh) * | 2020-10-19 | 2021-01-08 | 厦门大学 | 一种基于深度干扰分离学习的人脸表情识别方法 |
US20210073600A1 (en) * | 2019-09-06 | 2021-03-11 | Fujitsu Limited | Image normalization for facial analysis |
CN113033476A (zh) * | 2021-04-19 | 2021-06-25 | 清华大学 | 一种跨姿态人脸识别方法 |
-
2021
- 2021-08-18 CN CN202110949117.4A patent/CN113392822B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200265219A1 (en) * | 2017-09-18 | 2020-08-20 | Board Of Trustees Of Michigan State University | Disentangled representation learning generative adversarial network for pose-invariant face recognition |
CN110321805A (zh) * | 2019-06-12 | 2019-10-11 | 华中科技大学 | 一种基于时序关系推理的动态表情识别方法 |
US20210073600A1 (en) * | 2019-09-06 | 2021-03-11 | Fujitsu Limited | Image normalization for facial analysis |
CN111460981A (zh) * | 2020-03-30 | 2020-07-28 | 山东大学 | 一种基于重构跨域视频生成对抗网络模型的微表情识别方法 |
CN112200110A (zh) * | 2020-10-19 | 2021-01-08 | 厦门大学 | 一种基于深度干扰分离学习的人脸表情识别方法 |
CN113033476A (zh) * | 2021-04-19 | 2021-06-25 | 清华大学 | 一种跨姿态人脸识别方法 |
Non-Patent Citations (2)
Title |
---|
XIANG XIANG等: "Linear Disentangled Representation Learning for Facial Actions", 《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》 * |
严经纬等: "面部运动单元检测研究综述", 《计算机应用》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113743388A (zh) * | 2021-11-08 | 2021-12-03 | 武汉烽火信息集成技术有限公司 | 一种面部au关键点检测的方法、装置和电子设备 |
CN116311477A (zh) * | 2023-05-15 | 2023-06-23 | 华中科技大学 | 一种面向跨身份一致性的面部运动单元检测模型构建方法 |
CN117576765A (zh) * | 2024-01-15 | 2024-02-20 | 华中科技大学 | 一种基于分层特征对齐的面部动作单元检测模型构建方法 |
CN117576765B (zh) * | 2024-01-15 | 2024-03-29 | 华中科技大学 | 一种基于分层特征对齐的面部动作单元检测模型构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113392822B (zh) | 2021-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113392822B (zh) | 基于特征分离表征学习的面部运动单元检测方法及系统 | |
CN106919903B (zh) | 一种鲁棒的基于深度学习的连续情绪跟踪方法 | |
CN110119757B (zh) | 模型训练方法、视频类别检测方法、装置、电子设备和计算机可读介质 | |
CN113343707B (zh) | 一种基于鲁棒性表征学习的场景文本识别方法 | |
CN108537119B (zh) | 一种小样本视频识别方法 | |
Rouhou et al. | Transformer-based approach for joint handwriting and named entity recognition in historical document | |
CN108765279A (zh) | 一种面向监控场景的行人人脸超分辨率重建方法 | |
CN115471851B (zh) | 融合双重注意力机制的缅甸语图像文本识别方法及装置 | |
CN109255284B (zh) | 一种基于运动轨迹的3d卷积神经网络的行为识别方法 | |
CN111104884A (zh) | 一种基于两阶段神经网络模型的汉语唇语识别方法 | |
CN116311483B (zh) | 基于局部面部区域重构和记忆对比学习的微表情识别方法 | |
CN110705490A (zh) | 视觉情感识别方法 | |
CN116343190B (zh) | 自然场景文字识别方法、系统、设备及存储介质 | |
Si et al. | Speech2video: Cross-modal distillation for speech to video generation | |
CN115424310A (zh) | 一种面向人脸重演中表情分离任务的弱标注学习方法 | |
CN117409121A (zh) | 基于音频和单幅图像驱动的细粒度情感控制说话人脸视频生成方法、系统、设备及介质 | |
Wang et al. | An audio-visual attention based multimodal network for fake talking face videos detection | |
CN117373058A (zh) | 一种用于小差异课堂行为的识别方法 | |
Pham et al. | Vietnamese scene text detection and recognition using deep learning: An empirical study | |
CN116682180A (zh) | 基于人体骨骼序列时空信息的动作识别方法 | |
CN113780099B (zh) | 一种基于对抗学习的半监督面部运动单元检测方法和系统 | |
CN116091862A (zh) | 一种画质识别方法、装置、设备、存储介质及产品 | |
CN113743306A (zh) | 一种基于slowfast双帧速率的实时智能视频监控异常行为分析方法 | |
CN118155119B (zh) | 面向智能电梯乘客意图分析的视频分类方法及系统 | |
Yu et al. | High-level Image Classification by Synergizing Image Captioning with BERT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |