CN109190490A - 基于小数据集下的面部表情bn识别方法 - Google Patents

基于小数据集下的面部表情bn识别方法 Download PDF

Info

Publication number
CN109190490A
CN109190490A CN201810896612.1A CN201810896612A CN109190490A CN 109190490 A CN109190490 A CN 109190490A CN 201810896612 A CN201810896612 A CN 201810896612A CN 109190490 A CN109190490 A CN 109190490A
Authority
CN
China
Prior art keywords
facial expression
parameter
data set
recognition
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810896612.1A
Other languages
English (en)
Other versions
CN109190490B (zh
Inventor
郭文强
徐成
高文强
李然
肖秦琨
李梦然
韩阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi University of Science and Technology
Original Assignee
Shaanxi University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shaanxi University of Science and Technology filed Critical Shaanxi University of Science and Technology
Priority to CN201810896612.1A priority Critical patent/CN109190490B/zh
Publication of CN109190490A publication Critical patent/CN109190490A/zh
Application granted granted Critical
Publication of CN109190490B publication Critical patent/CN109190490B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于小数据集下的面部表情BN识别方法,首先提取面部表情图像的几何特征和HOG特征,经特征融合和归一化等处理构成动作单元(AU)标签样本集,其次构建面部表情识别BN结构,并将定性专家经验转化为BN条件概率之间的约束集合,随后引入目标函数,利用凸优化对最大化形式的目标函数求解,完成面部表情识别BN模型参数的估算,最后利用联合树推理算法识别出面部表情。与现有技术比较,本发明提出的面部表情识别方法可在小规模数据集的条件下大大提高了面部表情识别的精度,可广泛应用于人机交互、安保系统、医疗健康诊断、视频通信和驾驶员身份识别和疲劳驾驶等领域。

Description

基于小数据集下的面部表情BN识别方法
技术领域
本发明涉及人工智能、图像工程与安保系统等的目标识别应用领域,具体涉及一种基于小数据集下的面部表情BN识别方法。
背景技术
贝叶斯网络(Bayesian Network,BN)可以表示为B(G,θ),其中G是一个具有n个节点的有向无环图,G中的n个节点代表n个随机变量,节点间的有向边代表随机变量之间的依赖关系;θ是与每个节点相关的条件概率表,表示为P(Xi|Pa(Xi))。θ定量地表达了节点Xi同其父节点Pa(Xi)之间的依赖程度,式(1)为BN的联合概率分布:
其中,Pa(Xi)表示G中Xi的父节点集合条件概率分布,P(Xi|Pa(Xi))表示包含在G中给定父节点值的变量的每个值的概率。
P(Xi|Pa(Xi))第k个概率值表示为θijk=P(Xi=k|Pa(Xi)=j)即是节点Xi的一个参数,其中,θijk∈θ,1≤i≤n,1≤j≤qi,1≤k≤ri。ri表示Xi的状态数量,qi表示Xi父节点组合Pa(Xi)的势。显然,节点Xi一共有ri×qi个参数,它们构成了一个ri×qi维的矩阵,称之为节点Xi的参数θ,即条件概率分布表(Condition Probability Table,CPT)。
CPT准确高效地确定,是有效利用BN模型解决实际问题的基础。CPT学习是根据确定BN的结构(有向无环图),利用样本信息与先验知识来学习结点变量的条件概率分布(条件概率表)。目前在BN的CPT学习的领域已经研究发展了许多经典实用的算法,但这些方法的实现和应用都是基于大规模数据集(完备或者经补充后完备),而在实际工程应用中,受限于环境、材料、时间等因素,很多试验往往不能够多次重复,使得能够获得的试验数据较少,样本规模很小,这样的小样本数据集里能够表达的信息不够完整,由此进行的BN参数学习的准确性和可靠性无法保证。由此衍生出基于小样本数据集的BN的CPT学习,即BN模型参数建模问题的研究。
将问题域转化为BN模型表示后,便可利用BN理论完成推理任务。其中,联合树(Junction tree)算法是目前计算速度快、应用最广的BN精确推理算法之一。由于BN有机地结合了概率论与图论的理论成果,是解决不确定性和不完备信息问题处理的有效方法,是可应用于面部表情识别的理想工具。
发明内容
本发明的目的是提供一种基于小数据集下的面部表情BN识别方法,是一种利用面部表情动作单元(AU)小数据集进行贝叶斯网络结构与参数建模与推理的面部表情识别方法,利用动作单元(AU)小样本数据集与定性专家经验有机结合,完成面部表情识别BN的结构建模和参数建模,最后利用面部表情识别BN推理结果来反映面部表情的状态,提高了面部表情识别的准确性和有效性。
本发明所采用的技术方案为:
基于小数据集下的面部表情BN识别方法,其特征在于:
由以下步骤实现:
首先提取面部表情图像的几何特征和HOG特征,经特征融合和归一化等处理构成动作单元AU标签样本集;
其次构建面部表情识别BN结构,并将定性专家经验转化为BN条件概率之间的约束集合;
随后引入目标函数,利用凸优化对最大化形式的目标函数求解,完成面部表情识别BN模型参数的估算;
最后利用联合树推理算法识别出面部表情。
具体由以下步骤实现:
第1步:基于HOG方法提取面部表情的特征向量,经特征融合和归一化等处理构成相应的AU标签样本数据集D;
第2步:判断面部表情BN是否已经结构建模;若已建模,则跳转至第3步;否则,根据专家经验建立BN模型结构G;
第3步:判断BN参数CPT是否已经参数建模;若已参数建模,则跳转至第4步;若没有参数建模则利用参数学习算法,得到BN模型参数CPT;
第4步:在BN模型中,由D得到待识别的观测证据ev,利用联合树算法进行推理,从而得到面部表情属性概率Ω';
第5步:判断目标属性概率Ω'是否大于等于阈值Ω;若不满足则返回第1步;若满足则输出面部表情属性,即面部表情识别结果。
第2步中,模型结构G具体为:
依次以父节点Expression作为14条有向边的箭尾,箭头分别指向子节点AU1、AU2、AU4、AU5、AU6、AU7、AU9、AU12、AU15、AU17、AU23、AU24、AU25、AU27。
第3步中,参数学习算法的具体步骤为:
A、根据样本数据集D统计样本量Nijk,即样本数据中父节点状态为j、第i个节点取第k个状态的统计值,再根据公式(2)计算得到θijk
若θijk为0,则令θijk=0.002;
B、将专家经验根据公式(3)形成约束集合ξ;BN节点参数描述为等式和不等式集合,即:
其中,θA表示参数序列,αA是相应的常数序列,α是一个常数且α≥0;
C、根据θijk,约束集合ξ,即公式(3)以及目标函数公式(4)进行参数优化确定出BN参数CPT;
CPT求解利用凸优化求解工具完成,然后返回第1步。
本发明具有以下优点:
基于BN的面部表情识别方法,结构建模方面以有向边和条件概率表的形式分别描述了变量之间定性与定量依赖关系,表达形象直观,理论基础坚实,推理能力强大,是不确定性问题建模和推理的有效工具。本发明利用提取的面部表情图像的几何特征和HOG特征,经特征融合和归一化等处理构成动作单元(AU)标签样本集,基于BN理论中建模方法、学习算法和成熟的推理算法完成面部表情识别所需的建模和推理任务。在参数学习方面,充分利用了表情识别专家经验的等式和不等式约束条件,在一定程度上弥补了数据不足对参数学习精度的影响,又避免了对面部表情识别过程进行复杂的数学建模。与现有技术比较,本发明提出的面部表情识别方法可在小数据集的条件下大大提高面部表情识别的精度,可广泛应用于人机交互、安保系统、医疗健康诊断、视频通信、驾驶员身份识别和疲劳驾驶等领域。
附图说明
图1为本发明的流程图;
图2为本发明的BN模型结构图;
图3为本发明参数学习算法的流程图。
具体实施方式
下面结合具体实施方式对本发明进行详细的说明。
本发明涉及一种基于小数据集下的面部表情BN识别方法,由以下步骤实现:
首先提取面部表情图像的几何特征和HOG特征,经特征融合和归一化处理构成动作单元AU标签样本集;
其次构建面部表情识别BN结构,并将定性专家经验转化为BN条件概率之间的约束集合;
随后引入目标函数,利用凸优化对最大化形式的目标函数求解,完成面部表情识别BN模型参数的估算;
最后利用联合树推理算法识别出面部表情。
上述方法的步骤具体为:
第1步:基于HOG方法提取面部表情的特征向量,经特征融合和归一化等处理构成相应的AU标签样本数据集D;
第2步:判断面部表情BN是否已经结构建模。若已建模,则跳转至第3步;否则,根据专家经验建立BN模型结构G,结构模型如图2所示,即依次以父节点Expression作为14条有向边的箭尾,箭头分别指向子节点AU1、AU2、AU4、AU5、AU6、AU7、AU9、AU12、AU15、AU17、AU23、AU24、AU25、AU27;(动作单元AU含义可参见:Valstar M F,Almaev T,Girard J M,etal.FERA 2015-second facial expression recognition and analysis challenge[C]//IEEE,International Conference and Workshops on Automatic Face and GestureRecognition.2015:1-8)其中动作单元AU6表示“下嘴轮廓上翘”发生与否、AU25代表“双唇分开暴露牙齿”发生与否事件等;
第3步:判断BN参数CPT是否已经参数建模。若已参数建模,则跳转至第7步;否则利用如图3所描述的参数学习算法(第4步至第6步),得到BN模型参数CPT;
第4步:根据样本数据集D统计样本量Nijk,即样本数据中父节点状态为j、第i个节点取第k个状态的统计值,再根据公式(2)计算得到θijk
若θijk为0,则令θijk=0.002;
第5步:将专家经验根据公式(3)形成约束集合ξ;BN节点参数可方便描述为等式和不等式集合,即:
其中,θA表示参数序列,αA是相应的常数序列,α是一个常数且α≥0;
第6步:根据θijk,约束集合ξ,即公式(3)以及目标函数公式(4)进行参数优化确定出BN参数CPT;
CPT求解可利用凸优化求解工具完成,然后返回第1步;
第7步:在BN模型中,由D得到待识别的观测证据ev,利用联合树算法(参见JudeaPearl著《Causality:Models,Reasoning and Inference(第2版)》,Cambridge UniversityPress,2009)进行推理,从而得到面部表情属性概率Ω';
第8步:判断目标属性概率Ω'是否大于等于阈值Ω。若不满足则返回第1步;若满足则输出面部表情属性,即面部表情识别结果。
本发明使用的数据库是Cohn-Kanade表情数据库,选取6种基本表情的图像:1=“快乐”,2=“惊讶”,3=“害怕”,4=“愤怒”,5=“厌恶”,6=“悲伤”。凸优化求解选用的是CVX凸优化工具包(http://www.cvxr.com/cvx/)完成。
实验平台为Windows10系统,处理器为Intel CPU 2.6GHz,编程工具为MATLABR2014a。BN推理软件采用Kevin Murphy开发的Bayesian Network Tool(简称BNT)工具包。目标属性概率阈值Ω取0.78。
以下为具体操作时本发明的实现步骤:
第1步:基于HOG方法提取面部表情的特征向量,经特征融合和归一化等处理构成相应的AU标签样本数据集D。提取HOG特征:将112*112像素的图像,分解成14*14个8*8像素大小的cell,由2*2个cell组成一个block,可以得到12*12个block,每个block可以提取31维特征,于是每幅图像可得12*12*31=4464维特征向量,采用主成分分析(PCA)降到1391维特征向量,再处理得到AU样本集。
可选的,利用OpenFace工具(参见:Baltrusaitis T,Robinson P,Morency LP.OpenFace:an open source facial behavior analysis toolkit[C]//IEEE WinterConference on Applications of Computer Vision.2016:1-10)构成AU样本集。
第2步:判断面部表情BN是否已经结构建模。若已建模,则跳转至第3步;否则,根据专家经验建立BN模型结构G,如图2所示,用面部表情作为父节点Expression,Expression有6个取值事件,分别对应着“快乐”,“惊讶”,“厌恶”,“愤怒”,“害怕”,“悲伤”的表情,分别用“1”,“2”,“3”,“4”,“5”,“6”表示;以14个AU作为子节点,每个AU有两个取值事件,分别为“不发生”和“发生”,用“1”,“2”表示。用有向边依次连接父节点和子节点,即依次以Expression作为14条有向边的箭尾,箭头分别指向AU1、AU2、AU4、AU5、AU6、AU7、AU9、AU12、AU15、AU17、AU23、AU24、AU25、AU27;
第3步:判断BN参数CPT是否已经参数建模。若已参数建模,则跳转至第7步;若没有参数建模则利用如图3所描述的参数学习算法(第4步至第6步),得到BN模型参数CPT;
第4步:根据样本数据集D,得到统计样本量Nijk,即样本数据中父节点状态为j、第i个节点取第k个状态的统计值,再根据公式(2)计算得到θijk;此处以AU25为例:Ni12表示在快乐的表情下,AU25节点“发生”的次数,再由公式(2)计算得到θijk,若θijk=0,则令θijk=0.002,选取140组AU样本用于参数学习建模实验;
第5步:将专家经验根据实施例一中的公式(3)形成约束集合ξ;以AU25为例得到6组等式约束和4组不等式约束,如表1所示。编号1的解释为:根据专家经验,在“快乐”的表情下,AU25“发生”的概率与“不发生”的概率之和为1;编号7“P(AU25=1|Expression=1)-P(AU25=2|Expression=1)<0”的意义为:根据专家经验,在“快乐”的表情下,AU25“发生”的概率大于“不发生”的概率;类似的,可以得到形如公式(3)描述的一组约束集合ξ。
表1 AU25节点参数的约束集合
第6步:根据θijk,约束集合ξ,即公式(3)以及目标函数公式(4)进行参数优化确定出BN参数,然后返回第1步,直至BN所有参数CPT全部求解完成,即BN建模完成,然后,进行第7步的识别过程。
第7步:在BN模型中,由D得到待识别的观测证据ev,利用BN推理算法进行推理,从而完成待识别类型节点信度Ω'更新;选取122组中任一组AU样本作为观测证据ev用于推理实验,完成面部表情识别任务;
可选的,利用Pearl的联合树算法进行完成推理;
第8步:判断目标属性概率Ω'是否大于等于阈值Ω=0.78。若不满足则返回第1步;若满足则输出面部表情属性,即面部表情识别结果。
本用例中进行了小数据集下的BN结构建模和参数学习,通过对面部表情识别,验证了本发明提出的学习建模方法的正确性和有效性:
采用小样本集分别利用经典的支持向量机(Support Vetor Machine,SVM)法、卷积神经网络(Convolutional Neural Network,CNN)法、Adaboost法和本发明方法进行面部表情识别BN模型,利用联合树算法进行推理验证。推理识别结果列于表2。
表2算法识别率结果对比
对比表2可以看出:在小数据集条件下,用本发明方法正判率高于SVM法、CNN法、Adaboost法,说明了本发明方法正确性。在小样本条件下,仍然能够取得比较好的面部表情识别结果,表明本发明的方法在面部表情识别推理的有效性方面,具有较大的优势。
基于小数据集下的面部表情BN识别方法,适用于不确定性、动态的环境,该方法可大大提表情识别的识别率,是解决面部表情识别问题的有效途径,可广泛应用于人机交互、安保系统、医疗健康诊断、视频通信、驾驶员身份识别和疲劳驾驶等领域。
本发明的内容不限于实施例所列举,本领域普通技术人员通过阅读本发明说明书而对本发明技术方案采取的任何等效的变换,均为本发明的权利要求所涵盖。

Claims (4)

1.基于小数据集下的面部表情BN识别方法,其特征在于:
由以下步骤实现:
首先提取面部表情图像的几何特征和HOG特征,经特征融合和归一化等处理构成动作单元AU标签样本集;
其次构建面部表情识别BN结构,并将定性专家经验转化为BN条件概率之间的约束集合;
随后引入目标函数,利用凸优化对最大化形式的目标函数求解,完成面部表情识别BN模型参数的估算;
最后利用联合树推理算法识别出面部表情。
2.根据权利要求1所述的基于小数据集下的面部表情BN识别方法,其特征在于:
具体由以下步骤实现:
第1步:基于HOG方法提取面部表情的特征向量,经特征融合和归一化等处理构成相应的AU标签样本数据集D;
第2步:判断面部表情BN是否已经结构建模;若已建模,则跳转至第3步;否则,根据专家经验建立BN模型结构G;
第3步:判断BN参数CPT是否已经参数建模;若已参数建模,则跳转至第4步;若没有参数建模则利用参数学习算法,得到BN模型参数CPT;
第4步:在BN模型中,由D得到待识别的观测证据ev,利用联合树算法进行推理,从而得到面部表情属性概率Ω';
第5步:判断目标属性概率Ω'是否大于等于阈值Ω;若不满足则返回第1步;若满足则输出面部表情属性,即面部表情识别结果。
3.根据权利要求1所述的基于小数据集下的面部表情BN识别方法,其特征在于:
第2步中,模型结构G具体为:
依次以父节点Expression作为14条有向边的箭尾,箭头分别指向子节点AU1、AU2、AU4、AU5、AU6、AU7、AU9、AU12、AU15、AU17、AU23、AU24、AU25、AU27。
4.根据权利要求1所述的基于小数据集下的面部表情BN识别方法,其特征在于:
第3步中,参数学习算法的具体步骤为:
A、根据样本数据集D统计样本量Nijk,即样本数据中父节点状态为j、第i个节点取第k个状态的统计值,再根据公式(2)计算得到θijk
若θijk为0,则令θijk=0.002;
B、将专家经验根据公式(3)形成约束集合ξ;BN节点参数描述为等式和不等式集合,即:
其中,θA表示参数序列,αA是相应的常数序列,α是一个常数且α≥0;
C、根据θijk,约束集合ξ,即公式(3)以及目标函数公式(4)进行参数优化确定出BN参数CPT;
CPT求解利用凸优化求解工具完成,然后返回第1步。
CN201810896612.1A 2018-08-08 2018-08-08 基于小数据集下的面部表情bn识别方法 Active CN109190490B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810896612.1A CN109190490B (zh) 2018-08-08 2018-08-08 基于小数据集下的面部表情bn识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810896612.1A CN109190490B (zh) 2018-08-08 2018-08-08 基于小数据集下的面部表情bn识别方法

Publications (2)

Publication Number Publication Date
CN109190490A true CN109190490A (zh) 2019-01-11
CN109190490B CN109190490B (zh) 2021-11-23

Family

ID=64920545

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810896612.1A Active CN109190490B (zh) 2018-08-08 2018-08-08 基于小数据集下的面部表情bn识别方法

Country Status (1)

Country Link
CN (1) CN109190490B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135497A (zh) * 2019-05-16 2019-08-16 腾讯科技(深圳)有限公司 模型训练的方法、面部动作单元强度估计的方法及装置
CN111639680A (zh) * 2020-05-09 2020-09-08 西北工业大学 一种基于专家反馈机制的身份识别方法
CN111814713A (zh) * 2020-07-15 2020-10-23 陕西科技大学 一种基于bn参数迁移学习的表情识别方法
CN112464699A (zh) * 2019-09-06 2021-03-09 富士通株式会社 用于面部分析的图像归一化方法、系统和可读介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680141A (zh) * 2015-02-13 2015-06-03 华中师范大学 基于运动单元分层的人脸表情识别方法及系统
CN107220710A (zh) * 2017-05-22 2017-09-29 陕西科技大学 稀缺样本数据集条件下bn模型参数的学习系统及方法
US20170300741A1 (en) * 2016-04-14 2017-10-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Determining facial parameters
CN107273845A (zh) * 2017-06-12 2017-10-20 大连海事大学 一种基于置信区域和多特征加权融合的人脸表情识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104680141A (zh) * 2015-02-13 2015-06-03 华中师范大学 基于运动单元分层的人脸表情识别方法及系统
US20170300741A1 (en) * 2016-04-14 2017-10-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Determining facial parameters
CN107220710A (zh) * 2017-05-22 2017-09-29 陕西科技大学 稀缺样本数据集条件下bn模型参数的学习系统及方法
CN107273845A (zh) * 2017-06-12 2017-10-20 大连海事大学 一种基于置信区域和多特征加权融合的人脸表情识别方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
CASSIA P. DE CAMPOS等: "Improving Bayesian Network Parameter Learning using Constraints", 《2008 19TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION》 *
CASSIO P. DE CAMPOS等: "Constrained Maximum Likelihood Learning of Bayesian Networks for Facial Action Recognition", 《ECCV2008: COMPUTER VISION》 *
YEE KOON LOH等: "Probabilistic Inference of Facial Action Unit by Dynamic Bayesian Network for Image Sequence", 《2015 IEEE 10TH CONFERENCE ON INDUSTRIAL ELECTRONICS AND APPLICATIONS (ICIEA)》 *
王剑云: "基于深度神经网络的表情识别算法", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *
郭文强等: "基于小波包和BN模型的深沟球轴承故障诊断", 《轴承》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135497A (zh) * 2019-05-16 2019-08-16 腾讯科技(深圳)有限公司 模型训练的方法、面部动作单元强度估计的方法及装置
CN110135497B (zh) * 2019-05-16 2022-12-16 腾讯科技(深圳)有限公司 模型训练的方法、面部动作单元强度估计的方法及装置
CN112464699A (zh) * 2019-09-06 2021-03-09 富士通株式会社 用于面部分析的图像归一化方法、系统和可读介质
CN111639680A (zh) * 2020-05-09 2020-09-08 西北工业大学 一种基于专家反馈机制的身份识别方法
CN111639680B (zh) * 2020-05-09 2022-08-09 西北工业大学 一种基于专家反馈机制的身份识别方法
CN111814713A (zh) * 2020-07-15 2020-10-23 陕西科技大学 一种基于bn参数迁移学习的表情识别方法

Also Published As

Publication number Publication date
CN109190490B (zh) 2021-11-23

Similar Documents

Publication Publication Date Title
Segu et al. Batch normalization embeddings for deep domain generalization
CN111914644B (zh) 一种基于双模态协同的弱监督时序动作定位方法及系统
CN109190490A (zh) 基于小数据集下的面部表情bn识别方法
Nitsch et al. Out-of-distribution detection for automotive perception
US20180285771A1 (en) Efficient machine learning method
Bengoetxea et al. Inexact graph matching by means of estimation of distribution algorithms
Wang et al. Causal discovery from incomplete data: a deep learning approach
CN112347964B (zh) 一种基于图网络的行为检测方法及装置
Nugroho et al. Missing data problem in predictive analytics
CN111814713A (zh) 一种基于bn参数迁移学习的表情识别方法
Ji Combining knowledge with data for efficient and generalizable visual learning
Gerych et al. Recovering the propensity score from biased positive unlabeled data
Collier et al. Transfer and marginalize: Explaining away label noise with privileged information
Zhang et al. Discriminative learning of imaginary data for few-shot classification
CN115511145A (zh) 一种基于子图网络和对比学习的化合物性质预测方法
CN114358202A (zh) 基于药物分子图像分类的信息推送方法及装置
Shao et al. Failure detection for motion prediction of autonomous driving: An uncertainty perspective
Zhu et al. Hierarchical reinforcement learning based on KNN classification algorithms
Hossain et al. Skeleton-based human action recognition on large-scale datasets
Zhang et al. Granger causal inference for interpretable traffic prediction
CN115471833A (zh) 一种动态局部自注意力卷积网络点云分析系统及方法
CN115019342A (zh) 一种基于类关系推理的濒危动物目标检测方法
CN114332469A (zh) 模型训练方法、装置、设备及存储介质
Yu et al. Multi-activity 3D human motion recognition and tracking in composite motion model with synthesized transition bridges
Chen et al. An intuitive pre-processing method based on human–robot interactions: zero-shot learning semantic segmentation based on synthetic semantic template

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant