CN102760231B - 人脸表情距离的计算方法和计算装置 - Google Patents

人脸表情距离的计算方法和计算装置 Download PDF

Info

Publication number
CN102760231B
CN102760231B CN201210209427.3A CN201210209427A CN102760231B CN 102760231 B CN102760231 B CN 102760231B CN 201210209427 A CN201210209427 A CN 201210209427A CN 102760231 B CN102760231 B CN 102760231B
Authority
CN
China
Prior art keywords
expression
face
distance
personage
human face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201210209427.3A
Other languages
English (en)
Other versions
CN102760231A (zh
Inventor
戴琼海
李凯
刘烨斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN201210209427.3A priority Critical patent/CN102760231B/zh
Publication of CN102760231A publication Critical patent/CN102760231A/zh
Application granted granted Critical
Publication of CN102760231B publication Critical patent/CN102760231B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种人脸表情距离的计算方法及计算装置,该方法包括以下步骤:提供人物Q和人物T各自的中性脸及表情视频;根据人物Q和人物T各自的中性脸及表情视频,计算人脸表情静态距离;根据人物Q和人物T各自的中性脸及表情视频,计算人脸表情速率距离;以及根据人脸表情静态距离和人脸表情速率距离,计算人脸表情距离。根据本发明实施例的方法综合考虑了表情的静态和动态两方面差异,综合评价出人脸表情距离,并且可以自动化运行,减少人工干预,准确性高。

Description

人脸表情距离的计算方法和计算装置
技术领域
本发明涉及计算机视觉领域,特别涉及一种人脸表情距离的计算方法及装置。
背景技术
在表情动画研究中,经常需要自动地把一个人的面部运动转移到另一个的脸上,从而生成逼真的表情视频,而如何测量不同人物之间表情相似度是一项具有挑战性的关键工作。
在描述不同人物的表情语义方面,面部运动编码系统(FACS)通过运动单元(AU)可以对面部行为做出精确分析。得益于精确的面部肌肉运动描述,面部运动编码系统对于细微的表情变化也能区分。然而,标注表情的运动是一件耗时的工作,而且需要专家经验。根据面部运动编码系统提供的语义先验,可以建立某个特定人物的混合变形(blendshape)模型,从而实现表情的模拟动画。一些基于多人多表情数据库的模型也能够计算不同人物间表情的相似度。例如三维可变形模型及多线性模型,训练数据被拟合到一个低维空间上,而表情语义通过表情维度的系数来表述。也有一些基于局部二值模式(LBP)、方向梯度直方图(HOG)等特征的系统来计算不同人之间的表情相似度,然而它们没有把个体的差异考虑进去,且不能够精确地捕捉细微表情变化。
发明内容
本发明旨在至少解决上述技术问题之一。
为此,本发明的一个目的在于提出一种综合全面、准确性高的人脸表情距离的计算方法。
本发明的另一目的在于提出一种综合全面、准确性高的人脸表情距离的计算装置。
为了实现上述目的,根据本发明第一方面的人脸表情距离的计算方法包括以下步骤:A.提供人物Q和人物T各自的中性脸及表情视频;B.根据所述人物Q和人物T各自的中性脸及表情视频,计算人脸表情静态距离;C.根据所述人物Q和人物T各自的中性脸及表情视频,计算人脸表情速率距离;以及D.根据所述人脸表情静态距离和所述人脸表情速率距离,计算所述人脸表情距离。
在本发明的一个实施例的人脸表情距离的计算方法中,所述步骤A还包括以下步骤:A1.标记所述人物Q的中性脸Qn和所述人物T的中性脸Tn中的特征点;A2.建立Qn到Tn的对齐函数g,映射g对Qn中的每个特征点都能在Tn中找到与之语义对应的特征点;A3.计算所述人物Q的中性脸Qn到其表情视频q时刻的表情脸
Figure BDA00001786857700021
的光流
Figure BDA00001786857700022
以及,计算所述人物T的中性脸Tn到其表情视频t时刻的表情脸
Figure BDA00001786857700023
的光流
Figure BDA00001786857700024
在本发明的一个实施例的人脸表情距离的计算方法中,通过主动外观模型自动检测出或手工标记所述特征点。
在本发明的一个实施例的人脸表情距离的计算方法中,所述步骤B包括以下步骤:B1.将所述人物Q的中性脸Qn到表情脸的光流按照所述对齐函数g,得到映射到所述人物T上的光流,记为
Figure BDA00001786857700026
以及B2.利用所述
Figure BDA00001786857700027
和所述
Figure BDA00001786857700028
根据下列公式计算所述人脸表情静态距离: d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) , 其中
Figure BDA000017868577000210
为所述人脸表情静态距离,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为:
Figure BDA000017868577000211
Figure BDA000017868577000212
其中,βm,βo∈[0,1]分别是向量
Figure BDA000017868577000213
距离的幅度项与方向项,且βmo=1。
在本发明的一个实施例的人脸表情距离的计算方法中,以眼睛和嘴巴区域光流差异来代表人脸整体光流差异,所述的计算公式为: d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eye or i ∈ mouth α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) .
在本发明的一个实施例的人脸表情距离的计算方法中,所述人脸表情速率距离的计算方法包括以下步骤:C1.根据所述人物Q在其表情视频q时刻的表情脸
Figure BDA000017868577000217
和q+1时刻的表情脸
Figure BDA000017868577000218
计算所述人物Q在其表情视频q时刻的表情速率
Figure BDA000017868577000219
Figure BDA000017868577000220
并且,根据所述人物T在其表情视频t时刻的表情脸
Figure BDA000017868577000221
和t+1时刻的表情脸
Figure BDA000017868577000222
计算所述人物T在其表情视频t时刻的表情速率
Figure BDA000017868577000223
将所述
Figure BDA000017868577000224
逆着所述
Figure BDA000017868577000225
的方向进行变换,得到所述人物Q在其表情视频q时刻的修正表情速率
Figure BDA000017868577000226
并且,将所述
Figure BDA000017868577000227
逆着所述
Figure BDA000017868577000228
的方向进行变换,得到所述人物T在其表情视频t时刻的修正表情速率
Figure BDA000017868577000229
以及C3.利用所述
Figure BDA000017868577000230
和所述
Figure BDA000017868577000231
根据下列公式计算所述人脸表情速率距离: d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( dF Q e ( q ) , i ′ , dF T e ( t ) , i ′ ) , 其中为所述人脸表情速率距离,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为:
Figure BDA00001786857700032
Figure BDA00001786857700033
其中,βm,βo∈[0,1]分别是向量距离的幅度项与方向项,且βmo=1。
在本发明的一个实施例的人脸表情距离的计算方法中,以眼睛和嘴巴区域光流差异来代表人脸整体光流差异,所述
Figure BDA00001786857700035
的计算公式为: d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eye or i ∈ mouth α i d 0 ( dF Q e ( q ) , i ′ ′ , dF T e ( t ) , i ) .
在本发明的一个实施例的人脸表情距离的计算方法中,根据下述公式计算所述人脸表情距离: D ( Q e ( q ) , T e ( t ) ) = γ e d e ( Q e ( q ) , T e ( t ) ) + γ v d v ( Q e ( q ) , T e ( t ) ) , 其中γe与γv分别是所述表情静态距离与所述表情速率距离的权重,γe,γv∈[0,1]且γev=1。
在本发明的一个实施例的人脸表情距离的计算方法中,还包括步骤:E.将人物Q与人物T的位置对调,重复操作步骤B-D,计算出
Figure BDA00001786857700039
最终以所述
Figure BDA000017868577000310
Figure BDA000017868577000311
的平均值作为视频中
Figure BDA000017868577000312
Figure BDA000017868577000313
的人脸表情优化距离D
根据本发明实施例的人脸表情距离的计算方法,具有如下优点:(1)借助于两个人物的中性表情,将一个人中性脸到表情脸的光流转移到另一个人脸上,从而去除了个体间的差异;(2)由于视频的连续特性,本发明考虑不同人物间表情变化速率的差异,从而综合测量出不同人物间的表情距离;(3)基本自动化运行,需要很少的人工干预,且准确性高。
为了实现上述目的,根据本发明第二方面的计算人脸表情距离的计算装置包括以下部分:输入模块,用于输入人物Q和人物T各自的中性脸及表情视频;人脸表情静态距离计算模块,用于根据所述人物Q和人物T各自的中性脸及表情视频,计算人脸表情静态距离;人脸表情速率距离计算模块,用于根据所述人物Q和人物T各自的中性脸及表情视频,计算人脸表情速率距离;以及人脸表情距离计算模块,用于根据所述人脸表情静态距离和所述人脸表情速率距离,计算所述人脸表情距离。
在本发明的一个实施例的人脸表情距离的计算装置中,所述输入模块包括:特征点标记模块,用于标记所述人物Q的中性脸Qn和所述人物T的中性脸Tn中的特征点;对齐函数模块,用于建立Qn到Tn的对齐函数g,映射g对Qn中的每个特征点都能在Tn中找到与之语义对应的特征点;以及表情自变化光流计算模块,用于计算所述人物Q的中性脸Qn到其表情视频q时刻的表情脸
Figure BDA000017868577000314
的光流和计算所述人物T的中性脸Tn到其表情视频t时刻的表情脸
Figure BDA00001786857700041
的光流
Figure BDA00001786857700042
并把所述
Figure BDA00001786857700043
和所述提供给所述人脸表情静态距离计算模块和所述人脸表情速率距离计算模块。
在本发明的一个实施例的人脸表情距离的计算装置中,通过主动外观模型自动检测出或手工标记所述特征点。
在本发明的一个实施例的人脸表情距离的计算装置中,所述人脸表情静态距离计算模块包括:表情偏移变化光流计算模块,用于将所述人物Q的中性脸Qn到表情脸
Figure BDA00001786857700045
的光流按照所述对齐函数g,得到映射到所述人物T上的光流,记为
Figure BDA00001786857700046
以及静态距离函数模块,用于利用所述
Figure BDA00001786857700047
和所述
Figure BDA00001786857700048
根据下列公式计算所述人脸表情静态距离: d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) , 其中
Figure BDA000017868577000410
为所述人脸表情静态距离,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为: d 0 ( u → , v → ) = β m | u → - v → | + β o ( - u → · v → + | u → | | v → | ) , 其中,βm,βo∈[0,1]分别是向量
Figure BDA000017868577000412
距离的幅度项与方向项,且βmo=1。
在本发明的一个实施例的人脸表情距离的计算装置中,以眼睛和嘴巴区域光流差异来代表人脸整体光流差异,所述
Figure BDA000017868577000413
的计算公式为: d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eye or i ∈ mouth α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) .
在本发明的一个实施例的人脸表情距离的计算装置中,所述人脸表情速率距离计算模块包括:表情速率计算模块,用于根据所述人物Q在其表情视频q时刻的表情脸
Figure BDA000017868577000416
和q+1时刻的表情脸
Figure BDA000017868577000417
计算所述人物Q在其表情视频q时刻的表情速率并且,根据所述人物T在其表情视频t时刻的表情脸
Figure BDA000017868577000419
和t+1时刻的表情脸
Figure BDA000017868577000420
计算所述人物T在其表情视频t时刻的表情速率
Figure BDA000017868577000421
表情速率修正模块,将所述
Figure BDA000017868577000422
逆着所述的方向进行变换,得到所述人物Q在其表情视频q时刻的修正表情速率
Figure BDA000017868577000424
并且,将所述
Figure BDA000017868577000425
逆着所述
Figure BDA000017868577000426
的方向进行变换,得到所述人物T在其表情视频t时刻的修正表情速率以及速率距离函数模块,用于利用所述
Figure BDA000017868577000428
和所述
Figure BDA000017868577000429
根据下列公式计算所述人脸表情速率距离: d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( dF Q e ( q ) , i ′ , dF T e ( t ) , i ′ ) , 其中
Figure BDA000017868577000431
为所述人脸表情速率距离,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为: d 0 ( u → , v → ) = β m | u → - v → | + β o ( - u → · v → + | u → | | v → | ) , 其中,βm,βo∈[0,1]分别是向量距离的幅度项与方向项,且βmo=1。
在本发明的一个实施例的人脸表情距离的计算装置中,以眼睛和嘴巴区域光流差异来代表人脸整体光流差异,所述
Figure BDA00001786857700052
的计算公式为: d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eye or i ∈ mouth α i d 0 ( dF Q e ( q ) , i ′ , dF T e ( t ) , i ) .
在本发明的一个实施例的人脸表情距离的计算装置中,根据下述公式的计算所述人脸表情距离: D ( Q e ( q ) , T e ( t ) ) = γ e d e ( Q e ( q ) , T e ( t ) ) + γ v d v ( Q e ( q ) , T e ( t ) ) , 其中γe与γv分别是所述表情静态距离与所述表情速率距离的权重,γe,γv∈[0,1]且γev=1。
在本发明的一个实施例的人脸表情距离的计算装置中,还包括以下部分:人物对调模块,所述人物对调模块与所述输入模块相连,用于将人物Q与人物T的位置对调,并将对调后的T和Q重新导入输入模块以便重复对称操作,计算出平均计算模块,用于计算所述
Figure BDA00001786857700057
的平均值,作为视频中
Figure BDA00001786857700059
Figure BDA000017868577000510
的人脸表情优化距离D
根据本发明实施例的人脸表情距离的计算装置,具有如下优点:(1)借助于两个人物的中性表情,将一个人中性脸到表情脸的光流转移到另一个人脸上,能够去除个体间的差异;(2)由于视频的连续特性,本发明考虑了不同人物间表情变化速率的差异,能够综合测量出不同人物间的表情距离;(3)基本自动化运行,需要很少的人工干预,且准确性高。
本发明附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中,
图1是根据本发明一个实施例的人脸表情距离的计算方法的流程图;和
图2是根据本发明一个实施例的人脸表情距离的计算装置的结构框图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。相反,本发明的实施例包括落入所附加权利要求书的精神和内涵范围内的所有变化、修改和等同物。
下面参考附图描述根据本发明实施例的人脸表情距离的计算方法及计算装置。
图1是根据本发明一个实施例的人脸表情距离的计算方法的流程图。
如图1所示,本发明的一种人脸表情距离的计算方法包括以下步骤:
步骤S101.提供人物Q和人物T各自的中性脸及表情视频。
具体地,提供人物Q的中性脸Qn和人物Q的表情视频,Q在表情视频q时刻的表情脸记为并且提供人物T的中性脸Tn和人物T的表情视频,T在表情视频t时刻的表情脸记为
在本发明的一个实施例中,还进一步包括步骤:
标记人物Q的中性脸Qn和人物T的中性脸Tn中的特征点,在本发明的一个优选实施例中,特征点可通过主动外观模型自动检测出或者手工标记出。
建立Qn到Tn的对齐函数g,映射g对Qn中的每个特征点都能在Tn中找到与之语义对应的特征点。
计算人物Q的中性脸Qn到其表情视频q时刻的表情脸
Figure BDA00001786857700063
的光流
Figure BDA00001786857700064
以及,计算人物T的中性脸Tn到其表情视频t时刻的表情脸
Figure BDA00001786857700065
的光流
Figure BDA00001786857700066
步骤S102.根据人物Q和人物T各自的中性脸及表情视频,计算人脸表情静态距离。
具体地,首先将人物Q的中性脸Qn到表情脸
Figure BDA00001786857700067
的光流按照对齐函数g,得到映射到人物T上的光流,记为其次,利用
Figure BDA000017868577000610
根据下列公式计算人脸表情静态距离: d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) , 其中为人脸表情静态距离,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为:
Figure BDA000017868577000613
Figure BDA000017868577000614
其中,βm,βo∈[0,1]分别是向量
Figure BDA000017868577000615
距离的幅度项与方向项,且βmo=1。
在本发明的一个优选实施例中,由于表情变化的主要差异主要来自于眼睛和嘴巴区域,因此可以用眼睛和嘴巴区域光流差异来代表人脸整体光流差异,
Figure BDA000017868577000616
的计算公式为:
d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eye or i ∈ mouth α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i )
步骤S103.根据人物Q和人物T各自的中性脸及表情视频,计算人脸表情速率距离。
具体地,首先根据人物Q在其表情视频q时刻的表情脸
Figure BDA00001786857700072
和q+1时刻的表情脸
Figure BDA00001786857700073
计算人物Q在其表情视频q时刻的表情速率并且,根据人物T在其表情视频t时刻的表情脸
Figure BDA00001786857700075
和t+1时刻的表情脸
Figure BDA00001786857700076
计算人物T在其表情视频t时刻的表情速率 dF T e ( t ) = F T e ( t ) → T e ( t + 1 ) .
其次,由于
Figure BDA00001786857700079
的维度不一致,不能直接用来计算人脸表情速率距离,需要将其进行变换。于是将
Figure BDA000017868577000710
逆着
Figure BDA000017868577000711
的方向进行变换,得到人物Q在其表情视频q时刻的修正表情速率并且,将
Figure BDA000017868577000713
逆着的方向进行变换,得到所述人物T在其表情视频t时刻的修正表情速率
Figure BDA000017868577000715
再次,利用
Figure BDA000017868577000716
根据下列公式计算人脸表情速率距离:
Figure BDA000017868577000718
Figure BDA000017868577000719
其中
Figure BDA000017868577000720
为人脸表情速率距离,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为: d 0 ( u → , v → ) = β m | u → - v → | + β o ( - u → · v → + | u → | | v → | ) , 其中,βm,βo∈[0,1]分别是向量
Figure BDA000017868577000722
距离的幅度项与方向项,且βmo=1。
同样的,在本发明的一个优选实施例中,由于表情变化的主要差异主要来自于眼睛和嘴巴区域,因此可以用眼睛和嘴巴区域光流差异来代表人脸整体光流差异,
Figure BDA000017868577000723
的计算公式为:
d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eye or i ∈ mouth α i d 0 ( dF Q e ( q ) , i ′ , dF T e ( t ) , i )
步骤S104.根据人脸表情静态距离和人脸表情速率距离,计算人脸表情距离。计算公式为:
D ( Q e ( q ) , T e ( t ) ) = γ e d e ( Q e ( q ) , T e ( t ) ) + γ v d v ( Q e ( q ) , T e ( t ) ) , 其中γe与γv分别是表情静态距离与表情速率距离的权重,γe,γv∈[0,1]且γev=1。
在本发明的另一实施例中,还包括步骤S105,将人物Q与人物T的位置对调,重复操作步骤S102-S104,计算出
Figure BDA000017868577000726
最终以
Figure BDA000017868577000727
的平均值作为视频中
Figure BDA00001786857700081
Figure BDA00001786857700082
的人脸表情优化距离D
根据本发明实施例的人脸表情距离的计算方法,具有如下优点:(1)借助于两个人物的中性表情,将一个人中性脸到表情脸的光流转移到另一个人脸上,从而去除了个体间的差异;(2)由于视频的连续特性,本发明考虑不同人物间表情变化速率的差异,从而综合测量出不同人物间的表情距离;(3)基本自动化运行,需要很少的人工干预,且准确性高。
图2是根据本发明一个实施例的人脸表情距离的计算装置的结构框图。
如图2所示,本发明的一种人脸表情距离的计算装置包括以下部分:输入模块100、人脸表情静态距离计算模块200、人脸表情速率距离计算模块300和人脸表情距离计算模块400。其中:输入模块用于输入人物Q和人物T各自的中性脸及表情视频。人脸表情静态距离计算模块200用于根据人物Q和人物T各自的中性脸及表情视频,计算人脸表情静态距离。人脸表情速率距离计算模块300用于根据人物Q和人物T各自的中性脸及表情视频,计算人脸表情速率距离。人脸表情距离计算模块400用于根据人脸表情静态距离和人脸表情速率距离,计算人脸表情距离。
具体地,输入模块100中还包括特征点标记模块110,用于标记人物Q的中性脸Qn和人物T的中性脸Tn中的特征点,在本发明的一个优选实施例中,特征点通过主动外观模型自动检测出或手工标记出;对齐函数模块120,用于建立Qn到Tn的对齐函数g,映射g对Qn中的每个特征点都能在Tn中找到与之语义对应的特征点;和表情自变化光流计算模块130,用于计算人物Q的中性脸Qn到其表情视频q时刻的表情脸
Figure BDA00001786857700083
的光流
Figure BDA00001786857700084
和计算人物T的中性脸Tn到其表情视频t时刻的表情脸
Figure BDA00001786857700085
的光流并把
Figure BDA00001786857700087
Figure BDA00001786857700088
提供给人脸表情静态距离计算模块200和人脸表情速率距离计算模块300。
静态距离计算模块200中,包括表情偏移变化光流计算模块210,用于将人物Q的中性脸Qn到表情脸
Figure BDA00001786857700089
的光流按照对齐函数g,得到映射到人物T上的光流,记为
Figure BDA000017868577000810
以及静态距离函数模块220,用于利用
Figure BDA000017868577000811
Figure BDA000017868577000812
根据下列公式计算人脸表情静态距离: d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) , 其中
Figure BDA000017868577000814
为人脸表情静态距离,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为: d 0 ( u → , v → ) = β m | u → - v → | + β o ( - u → · v → + | u → | | v → | ) , 其中,βm,βo∈[0,1]分别是向量
Figure BDA000017868577000816
距离的幅度项与方向项,且βmo=1。
在本发明的一个优选实施例中,由于表情变化的主要差异主要来自于眼睛和嘴巴区域,因此可以用眼睛和嘴巴区域光流差异来代表人脸整体光流差异,
Figure BDA00001786857700091
的计算公式为:
d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eye or i ∈ mouth α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i )
人脸表情速率距离计算模块300包括:表情速率计算模块310,用于根据人物Q在其表情视频q时刻的表情脸
Figure BDA00001786857700093
和q+1时刻的表情脸
Figure BDA00001786857700094
计算人物Q在其表情视频q时刻的表情速率
Figure BDA00001786857700095
并且,根据人物T在其表情视频t时刻的表情脸
Figure BDA00001786857700096
和t+1时刻的表情脸计算人物T在其表情视频t时刻的表情速率
Figure BDA00001786857700098
表情速率修正模块320,将
Figure BDA00001786857700099
逆着
Figure BDA000017868577000910
的方向进行变换,得到人物Q在其表情视频q时刻的修正表情速率
Figure BDA000017868577000911
并且,将逆着
Figure BDA000017868577000913
的方向进行变换,得到所述人物T在其表情视频t时刻的修正表情速率
Figure BDA000017868577000914
以及速率距离函数模块330,用于利用
Figure BDA000017868577000915
Figure BDA000017868577000916
根据下列公式计算人脸表情速率距离: d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( dF Q e ( q ) , i ′ , dF T e ( t ) , i ′ ) , 其中
Figure BDA000017868577000918
为人脸表情速率距离,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为: d 0 ( u → , v → ) = β m | u → - v → | + β o ( - u → · v → + | u → | | v → | ) , 其中,βm,βo∈[0,1]分别是向量
Figure BDA000017868577000920
距离的幅度项与方向项,且βmo=1。
同样的,在本发明的一个优选实施例中,由于表情变化的主要差异主要来自于眼睛和嘴巴区域,因此可以用眼睛和嘴巴区域光流差异来代表人脸整体光流差异,
Figure BDA000017868577000921
的计算公式为:
d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eye or i ∈ mouth α i d 0 ( d F Q e ( q ) , i ′ , dF T e ( t ) , i )
人脸表情距离计算模块400根据下列公式计算人脸表情距离:
Figure BDA000017868577000923
Figure BDA000017868577000924
其中γe与γv分别是表情静态距离与表情速率距离的权重,γev∈[0,1]且γev=1。
在本发明的一个实施例子,人脸表情距离的计算装置还包括以下部分:
人物对调模块500,人物对调模块500与输入模块100相连,用于将人物Q与人物T的位置对调,并将对调后的T和Q重新导入输入模块以便重复对称操作,计算出
Figure BDA00001786857700101
平均计算模块600,用于计算
Figure BDA00001786857700102
Figure BDA00001786857700103
的平均值,作为视频中
Figure BDA00001786857700104
的人脸表情优化距离D
根据本发明实施例的计算人脸表情相似度的装置,具有如下优点:(1)借助于两个人物的中性表情,将一个人中性脸到表情脸的光流转移到另一个人脸上,能够去除个体间的差异;(2)由于视频的连续特性,本发明考虑了不同人物间表情变化速率的差异,能够综合测量出不同人物间的表情距离;(3)基本自动化运行,需要很少的人工干预,且准确性高。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同限定。

Claims (12)

1.一种人脸表情距离的计算方法,其特征在于,包括以下步骤:
A.提供人物Q和人物T各自的中性脸及表情视频;
B.根据所述人物Q和人物T各自的中性脸及表情视频,计算人脸表情静态距离;
C.根据所述人物Q和人物T各自的中性脸及表情视频,计算人脸表情速率距离;以及
D.根据所述人脸表情静态距离和所述人脸表情速率距离,计算所述人脸表情距离,
其中,所述步骤A具体包括以下步骤:
A1.标记所述人物Q的中性脸Qn和所述人物T的中性脸Tn中的特征点;
A2.建立Qn到Tn的对齐函数g,映射g对Qn中的每个特征点都能在Tn中找到与之语义对应的特征点;以及
A3.计算所述人物Q的中性脸Qn到其表情视频q时刻的表情脸
Figure FDA0000428155570000011
的光流
Figure FDA0000428155570000012
以及,计算所述人物T的中性脸Tn到其表情视频t时刻的表情脸
Figure FDA0000428155570000013
的光流
Figure FDA0000428155570000014
其中,所述步骤B具体包括以下步骤:
B1.将所述人物Q的中性脸Qn到表情脸
Figure FDA0000428155570000015
的光流按照所述对齐函数g,得到映射到所述人物T上的光流,记为
Figure FDA0000428155570000016
以及
B2.利用所述
Figure FDA0000428155570000017
和所述
Figure FDA0000428155570000018
根据下列公式计算所述人脸表情静态距离: d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) , 其中
Figure FDA00004281555700000110
为所述人脸表情静态距离,i∈Face表示i为位于面部区域的点,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为:
Figure FDA00004281555700000111
Figure FDA00004281555700000112
其中,βmo∈[0,1]分别是向量距离的幅度项与方向项,且βmo=1,
其中,所述步骤C具体包括以下步骤:
C1.根据所述人物Q在其表情视频q时刻的表情脸和q+1时刻的表情脸计算所述人物Q在其表情视频q时刻的表情速率
Figure FDA00004281555700000116
并且,根据所述人物T在其表情视频t时刻的表情脸
Figure FDA00004281555700000117
和t+1时刻的表情脸
Figure FDA00004281555700000118
计算所述人物T在其表情视频t时刻的表情速率 dF T e ( t ) = F T e ( t ) → T e ( t + 1 ) ;
C2.将所述
Figure FDA00004281555700000120
逆着所述
Figure FDA00004281555700000121
的方向进行变换,得到所述人物Q在其表情视频q时刻的修正表情速率
Figure FDA0000428155570000021
并且,将所述
Figure FDA0000428155570000022
逆着所述
Figure FDA0000428155570000023
的方向进行变换,得到所述人物T在其表情视频t时刻的修正表情速率以及
C3.利用所述
Figure FDA0000428155570000025
和所述
Figure FDA0000428155570000026
根据下列公式计算所述人脸表情速率距离: d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( d F Q e ( q ) , i ′ , d F T e ( t ) , i ′ ) , 其中为所述人脸表情速率距离,i∈Face表示i为位于面部区域的点,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为:
Figure FDA00004281555700000210
其中,βmo∈[0,1]分别是向量
Figure FDA00004281555700000211
距离的幅度项与方向项,且βmo=1。
2.如权利要求1所述的人脸表情距离的计算方法,其特征在于,通过主动外观模型自动检测出或手工标记所述特征点。
3.如权利要求1所述的人脸表情距离的计算方法,其特征在于,以眼睛和嘴巴区域光流差异来代表人脸整体光流差异,所述
Figure FDA00004281555700000212
的计算公式为: d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eyeori ∈ mouth α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) , 其中,i∈eye表示i为位于眼部区域的点,i∈mouth表示i为位于嘴部区域的点。
4.如权利要求1所述的人脸表情距离的计算方法,其特征在于,以眼睛和嘴巴区域光流差异来代表人脸整体光流差异,所述
Figure FDA00004281555700000215
的计算公式为:
d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ eyeori ∈ mouth α i d 0 ( d F Q e ( q ) , i ′ , d F T e ( t ) , i ) , 其中,i∈eye表示i为位于眼部区域的点,i∈mouth表示i为位于嘴部区域的点。
5.如权利要求4所述的人脸表情距离的计算方法,其特征在于,根据下述公式计算所述人脸表情距离: D ( Q e ( q ) , T e ( t ) ) = γ e d e ( Q e ( q ) , T e ( t ) ) + γ v d v ( Q e ( q ) , T e ( t ) ) , 其中γe与γv分别是所述表情静态距离与所述表情速率距离的权重,γev∈[0,1]且γev=1。
6.如权利要求5所述的人脸表情距离的计算方法,其特征在于,还包括步骤:
E.将人物Q与人物T的位置对调,重复操作步骤B-D,计算出
Figure FDA00004281555700000218
最终以所述
Figure FDA00004281555700000220
的平均值作为视频中
Figure FDA00004281555700000221
Figure FDA00004281555700000222
的人脸表情优化距离D
7.一种人脸表情距离的计算装置,其特征在于,包括以下部分:
输入模块,用于输入人物Q和人物T各自的中性脸及表情视频;
人脸表情静态距离计算模块,用于根据所述人物Q和人物T各自的中性脸及表情视频,计算人脸表情静态距离;
人脸表情速率距离计算模块,用于根据所述人物Q和人物T各自的中性脸及表情视频,计算人脸表情速率距离;以及
人脸表情距离计算模块,用于根据所述人脸表情静态距离和所述人脸表情速率距离,计算所述人脸表情距离,
其中,所述输入模块具体包括:
特征点标记模块,用于标记所述人物Q的中性脸Qn和所述人物T的中性脸Tn中的特征点;
对齐函数模块,用于建立Qn到Tn的对齐函数g,映射g对Qn中的每个特征点都能在Tn中找到与之语义对应的特征点;以及
表情自变化光流计算模块,用于计算所述人物Q的中性脸Qn到其表情视频q时刻的表情脸
Figure FDA0000428155570000031
的光流
Figure FDA0000428155570000032
和计算所述人物T的中性脸Tn到其表情视频t时刻的表情脸
Figure FDA0000428155570000033
的光流并把所述
Figure FDA0000428155570000035
和所述提供给所述人脸表情静态距离计算模块和所述人脸表情速率距离计算模块,
其中,所述人脸表情静态距离计算模块具体包括:
表情偏移变化光流计算模块,用于将所述人物Q的中性脸Qn到表情脸
Figure FDA0000428155570000037
的光流按照所述对齐函数g,得到映射到所述人物T上的光流,记为
Figure FDA0000428155570000038
以及
静态距离函数模块,用于利用所述和所述
Figure FDA00004281555700000310
根据下列公式计算所述人脸表情静态距离: d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) , 其中
Figure FDA00004281555700000312
为所述人脸表情静态距离,i∈Face表示i为位于面部区域的点,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为: d 0 ( u → , v → ) = β m | u → - v → | + β o ( - u → · v → + | u → | | v → | ) , 其中,βmo∈[0,1]分别是向量
Figure FDA00004281555700000314
距离的幅度项与方向项,且βmo=1,
其中,所述人脸表情速率距离计算模块具体包括:
表情速率计算模块,用于根据所述人物Q在其表情视频q时刻的表情脸
Figure FDA00004281555700000315
和q+1时刻的表情脸
Figure FDA00004281555700000316
计算所述人物Q在其表情视频q时刻的表情速率
Figure FDA00004281555700000317
Figure FDA00004281555700000318
并且,根据所述人物T在其表情视频t时刻的表情脸
Figure FDA00004281555700000319
和t+1时刻的表情脸
Figure FDA00004281555700000320
计算所述人物T在其表情视频t时刻的表情速率
Figure FDA00004281555700000321
表情速率修正模块,将所述
Figure FDA00004281555700000322
逆着所述
Figure FDA00004281555700000323
的方向进行变换,得到所述人物Q在其表情视频q时刻的修正表情速率
Figure FDA0000428155570000041
并且,将所述
Figure FDA0000428155570000042
逆着所述
Figure FDA0000428155570000043
的方向进行变换,得到所述人物T在其表情视频t时刻的修正表情速率
Figure FDA0000428155570000044
以及
速率距离函数模块,用于利用所述
Figure FDA0000428155570000045
和所述根据下列公式计算所述人脸表情速率距离: d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( d F Q e ( q ) , i ′ , d F T e ( t ) , i ′ ) , 其中
Figure FDA0000428155570000048
为所述人脸表情速率距离,i∈Face表示i为位于面部区域的点,下标i表示光流矩阵F的第i行,即第i个特征点的光流偏移量,αi表示第i个特征点的权重,函数d0[·]定义为: d 0 ( u → , v → ) = β m | u → - v → | + β o ( - u → · v → + | u → | | v → | ) , 其中,βmo∈[0,1]分别是向量
Figure FDA00004281555700000410
距离的幅度项与方向项,且βmo=1。
8.如权利要求7所述的人脸表情距离的计算装置,其特征在于,通过主动外观模型自动检测出或手工标记所述特征点。
9.如权利要求7所述的人脸表情距离的计算装置,其特征在于,以眼睛和嘴巴区域光流差异来代表人脸整体光流差异,所述的计算公式为:
d e ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( F Q n → Q e ( q ) , i ′ , F T n → T e ( t ) , i ) , 其中,i∈eye表示i为位于眼部区域的点,i∈mouth表示i为位于嘴部区域的点。
10.如权利要求7所述的人脸表情距离的计算装置,其特征在于,以眼睛和嘴巴区域光流差异来代表人脸整体光流差异,所述
Figure FDA00004281555700000413
的计算公式为:
d v ( Q e ( q ) , T e ( t ) ) = Σ i ∈ Face α i d 0 ( d F Q e ( q ) , i ′ , d F T e ( t ) , i ′ ) , 其中,i∈eye表示i为位于眼部区域的点,i∈mouth表示i为位于嘴部区域的点。
11.如权利要求10所述的人脸表情距离的计算装置,其特征在于,根据下述公式的计算所述人脸表情距离: D ( Q e ( q ) , T e ( t ) ) = γ e d e ( Q e ( q ) , T e ( t ) ) + γ v d v ( Q e ( q ) , T e ( t ) ) , 其中γe与γv分别是所述表情静态距离与所述表情速率距离的权重,γev∈[0,1]且γev=1。
12.如权利要求10所述的人脸表情距离的计算装置,其特征在于,还包括以下部分:
人物对调模块,所述人物对调模块与所述输入模块相连,用于将人物Q与人物T的位置对调,并将对调后的T和Q重新导入输入模块以便重复对称操作,计算出
平均计算模块,用于计算所述
Figure FDA00004281555700000417
的平均值,作为视频中
Figure FDA00004281555700000420
的人脸表情优化距离D
CN201210209427.3A 2012-06-19 2012-06-19 人脸表情距离的计算方法和计算装置 Expired - Fee Related CN102760231B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210209427.3A CN102760231B (zh) 2012-06-19 2012-06-19 人脸表情距离的计算方法和计算装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210209427.3A CN102760231B (zh) 2012-06-19 2012-06-19 人脸表情距离的计算方法和计算装置

Publications (2)

Publication Number Publication Date
CN102760231A CN102760231A (zh) 2012-10-31
CN102760231B true CN102760231B (zh) 2014-05-21

Family

ID=47054686

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210209427.3A Expired - Fee Related CN102760231B (zh) 2012-06-19 2012-06-19 人脸表情距离的计算方法和计算装置

Country Status (1)

Country Link
CN (1) CN102760231B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107330904B (zh) * 2017-06-30 2020-12-18 北京乐蜜科技有限责任公司 图像处理方法、装置、电子设备及存储介质
CN109961054A (zh) * 2019-03-29 2019-07-02 山东大学 一种基于感兴趣区域特征点运动的焦虑、抑郁、愤怒表情识别方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739712A (zh) * 2010-01-25 2010-06-16 四川大学 基于视频的3d人脸表情动画驱动方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101739712A (zh) * 2010-01-25 2010-06-16 四川大学 基于视频的3d人脸表情动画驱动方法

Also Published As

Publication number Publication date
CN102760231A (zh) 2012-10-31

Similar Documents

Publication Publication Date Title
US11747155B2 (en) Global path planning method and device for an unmanned vehicle
CN107861478B (zh) 一种智能车间平行控制方法及系统
CN107150347A (zh) 基于人机协作的机器人感知与理解方法
CN107194987A (zh) 对人体测量数据进行预测的方法
CN112906604B (zh) 一种基于骨骼和rgb帧融合的行为识别方法、装置及系统
CN108256631A (zh) 一种基于注意力模型的用户行为推荐系统
CN1316416C (zh) 基于四个特征点的头部动作测定方法
CN111062326B (zh) 一种基于几何驱动的自监督人体3d姿态估计网络训练方法
CN114117926B (zh) 一种基于联邦学习的机器人协同控制算法
CN103003846A (zh) 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法
CN109145446B (zh) 一种基于模态应变能和卷积神经网络的结构损伤识别方法
CN103093237B (zh) 一种基于结构化模型的人脸检测方法
CN107170039A (zh) 人体三维数据模型库的生成方法
CN109886641A (zh) 一种岗位画像设置方法、岗位画像设置装置及终端设备
CN102760231B (zh) 人脸表情距离的计算方法和计算装置
Stacey et al. A passivity-based approach to formation control using partial measurements of relative position
CN106408649A (zh) 一种基于规则的体结构演化设计方法
CN110135524A (zh) 自动化的模型训练方法、装置、设备及介质
Zhang et al. Crowd evacuation simulation using hierarchical deep reinforcement learning
WO2021000327A1 (zh) 手部模型生成方法、装置、终端设备及手部动作捕捉方法
CN103646184A (zh) 一种利用slim预测车间人因失误概率的方法
Lu et al. Visual-tactile robot grasping based on human skill learning from demonstrations using a wearable parallel hand exoskeleton
Wong et al. Graph neural network based surrogate model of physics simulations for geometry design
CN104613970B (zh) 一种模拟导航的数据生成方法及客户端
CN109192314B (zh) 一种基于多示例学习的颈椎健康评分装置及其应用

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140521