CN106778708A - 一种基于张量的主动外观模型的表情变化识别方法 - Google Patents

一种基于张量的主动外观模型的表情变化识别方法 Download PDF

Info

Publication number
CN106778708A
CN106778708A CN201710077233.5A CN201710077233A CN106778708A CN 106778708 A CN106778708 A CN 106778708A CN 201710077233 A CN201710077233 A CN 201710077233A CN 106778708 A CN106778708 A CN 106778708A
Authority
CN
China
Prior art keywords
tensor
shape
aam
texture
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN201710077233.5A
Other languages
English (en)
Inventor
夏春秋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Vision Technology Co Ltd
Original Assignee
Shenzhen Vision Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Vision Technology Co Ltd filed Critical Shenzhen Vision Technology Co Ltd
Priority to CN201710077233.5A priority Critical patent/CN106778708A/zh
Publication of CN106778708A publication Critical patent/CN106778708A/zh
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • G06V10/473Contour-based spatial representations, e.g. vector-coding using gradient analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

本发明中提出的一种基于张量的主动外观模型的表情变化识别方法,其主要内容包括:基于张量的主动外观模型(T‑AAM),统一基于张量的主动外观模型(UT‑AAM),其过程为,给定新的面部图像,主动外观模型(AAM)可以使用拟合算法重建和根据面部的形状和纹理信息建模;基于张量的AAM(T‑AAM)使用多线性子空间分析来构造基于张量的形状和纹理模型;为了实现统一,又提出了统一的基于张量的主动外观模型(UT‑AAM)。本发明提出了一种更有效和准确的基于级联回归的模型拟合算法用于UT‑AAM拟合,提高了检测性能;减少了姿势,表情,照明和遮挡等的影响,提高了识别的准确性。

Description

一种基于张量的主动外观模型的表情变化识别方法
技术领域
本发明涉及表情识别领域,尤其是涉及了一种基于张量的主动外观模型的表情变化识别方法。
背景技术
面部表情识别是人工智能领域的一个重要研究方向,其可以通过自动识别出人的表情,进而分析人的感情。表情识别可以应用于安全领域,在公共场合,如机场、地铁站等处,通过安装的摄像头等监控设备来自动地分析人的表情和动作,通过这些分析进一步判断人物心理,从而判断可疑人物,进而阻止其犯罪行为。表情变化识别也可以应用于客户满意度、儿童兴趣点分析,通过记录人物的表情变化,进一步分析而获得客户反馈等。
在表情识别中,能够获得和表示面部的形状和纹理信息的常用方法是主动外观模型(AAM),其广泛用于医学图像分析等其他领域。然而,由于姿势,表情,照明和遮挡的广泛范围的外观变化,构建这样的面部模型并不容易。在已知的获取2D面的几何和纹理信息的算法中,只有AAM能够联合地对面部图像的形状和纹理信息进行建模。主动形状模型(ASM),约束局部模型(CLM)和基于级联回归(CR)的方法主要用于获得由面部界标传达的面部形状信息。然而,将AAM拟合到2D面部图像很困难,特别是表现出宽度范围的外观变化的面部。
本发明提出了一种基于张量的主动外观模型的表情变化识别方法,给定新的面部图像,主动外观模型(AAM)可以使用拟合算法重建和根据面部的形状和纹理信息建模;基于张量的AAM(T-AAM)使用多线性子空间分析来构造基于张量的形状和纹理模型;为了实现统一,又提出了统一的基于张量的主动外观模型(UT-AAM)。本发明提出了一种更有效和准确的基于级联回归的模型拟合算法用于UT-AAM拟合,提高了检测性能;减少了姿势,表情,照明和遮挡等的影响,提高了识别的准确性。
发明内容
针对姿势,表情,照明和遮挡等会产生影响的问题,本发明的目的在于提供一种基于张量的主动外观模型的表情变化识别方法,给定新的面部图像,主动外观模型(AAM)可以使用拟合算法重建和根据面部的形状和纹理信息建模;基于张量的AAM(T-AAM)使用多线性子空间分析来构造基于张量的形状和纹理模型;为了实现统一,又提出了统一的基于张量的主动外观模型(UT-AAM)。
为解决上述问题,本发明提供一种基于张量的主动外观模型的表情变化识别方法,其主要内容包括:
(一)基于张量的主动外观模型(T-AAM);
(二)统一基于张量的主动外观模型(UT-AAM)。
其中,所述的基于张量的主动外观模型(T-AAM),包括主动外观模型(AAM)和基于张量的AAM(T-AAM)。
进一步地,所述的主动外观模型(AAM),具有两个基于主成分分析(PCA)的参数模型,即形状和纹理模型;给定新的面部图像I,AAM可以使用拟合算法重建和根据面部的形状和纹理信息建模;AAM拟合的目标是调整模型参数,以最小化生成面部实例和输入图像之间的像素强度差:
其中,W(I,α)是将由具有参数α的形状模型生成的形状内的面部纹理翘曲到参考形状的函数。
进一步地,所述的基于张量的AAM(T-AAM),包括高阶奇异值分解(HOSVD)和构建T-AAM。
进一步地,所述的高阶奇异值分解(HOSVD),张量是矢量和矩阵的高阶扩展;N阶张量是具有多个索引的N维数组;给定具有Ii同一性,Ip姿势,Ie表情和Il光照变化的面部数据集,数据集的形状或纹理信息可表示为张量;在形状张量中,元素s(ii,ip,il,ie,is)表示面部形状向量的第ii与第ip个姿态,第il个照明和第ie个表情状态,其中Is=2L是面部形状矢量的维度;类似地,纹理张量以张量方式重组训练数据集的纹理矢量;
T-AAM使用多线性子空间分析来构造基于张量的形状和纹理模型,使用Tucker张量分解来获得形状和纹理模型;给定N阶张量Tucker张量分解导致:
其中,是具有输入张量的相同维数的核心张量,对其正交模式矩阵之间的相互作用进行建模张量和矩阵之间的模n的乘积‘×n’导致新的张量其中计算每个元素:
为了进行Tucker张量分解,通常使用高阶奇异值分解(HOSVD),其也被称为Tucker-1张量分解方法;HOSVD使用SVD分解的左奇异矩阵到的模式n展开矩阵来计算模式n矩阵Un;沿着第n个模式展开张量,通过沿着第n个模式,将向量作为列向量堆叠,在矩阵中对张量中的所有条目进行重新排序;
最后,通过上式获得核心张量
进一步地,所述的构建T-AAM,给定形状张量使用HOSVD得到:
其中,是形状核心张量,是表示分解的同一性,姿态,照明,表情和形状子空间的模式矩阵;以相同的方式,纹理张量被分解为:
其中,元素具有与形状张量分解相似的含义;
由于2D面部形状主要受姿势和表情变化的影响,T-AAM构造形状基础的子传感器:
其中,是指示不同姿态或表情变化状态的线性组合和表情混合系数向量,满足0≤cp(k)≤1和0≤ce(k)≤1;
在形状基础子张量中考虑姿态和表情变化,通过以下式子获得纹理基础子张量:
其中,是指示不同照明变化状态的线性组合的照明混合系数向量,满足和0≤cl(k)≤1;
最后,T-AAM构建变体特定的形状模型:
其中,是在所有训练形状上使用姿态和表情混合系数向量计算的加权平均形状,sk(cp,ce)是沿着第5个模式的形状基本张量的展开矩阵的第k列向量,αk是对应的模型参数;类似地,通过T-AAM构建变体特有的纹理模型:
其中,是在所有训练纹理向量上使用照明混合系数向量计算的加权平均纹理,tk(cl)是沿着第5个纹理基础张量的展开矩阵的第k列向量模式,βk是相应的模型参数。
其中,所述的统一基于张量的主动外观模型(UT-AAM),为了实现统一,提出的UT-AAM框架引入了四种技术:
(1)UT-AAM在不同的变化模式之间创建一个统一的张量模型;
(2)为了解决大规模姿态变化的自遮蔽问题,提出了一种统一的表示策略;
(3)通过引入张量完成具有缺失训练样本的不完全训练数据集所提出的UTAAM方法;
(4)提出了一种新的基于级联回归的模型拟合算法,不需要估计拟合新面孔的变化状态。
进一步地,所述的统一的形状和纹理模型,给定一组注释的面部图像,相应的形状张量和纹理张量将HOSVD应用于形状和纹理张量用于Tucker张量分解,由于受试者的形状与照明变化无关,所以可将形状模型压缩为:
其中,此外,必须对形状应用全局仿射变换G(s,pg),其中pg=[s,θ,tx,ty]T是控制尺度,旋转和平移的全局仿射变换参数;在这种统一的基于张量的形状模型中,新形状可以由长参数向量表示;也可以获得统一的纹理模型:
其中,面部的纹理可以由纹理模型参数矢量表示;最后,新的面部实例可以由连接形状和纹理模型参数[pT,qT]T的统一参数向量表示;对于新的面部图像,UTAAM拟合的目标是找到最好地表示输入面的模型参数向量。
进一步地,所述的应对缺失的训练样本,给定具有缺失条目的不完全张量张量完成算法的目标是找到完全张量以最小化其中是没有缺失条目的地面实况张量;然而,这个完整的地面实况张量在实践中是未知的,因此损失修改为:
其中,‘*’为分素乘积;是与大小相同的索引张量,其中当条目的值可用(或缺失)时,将条目的值设置为1(或0);
给定一个具有缺失条目的不完整形状张量首先使用具有相同姿态,照明和表情变化的所有可用条目的平均值初始化缺失条目:
其中,上标‘m’和‘a’分别代表缺失条目和可用条目;下标表示中对应条目的位置;Na是具有与缺失相同变量的所有可用条目的。
进一步地,所述的UT-AAM拟合的级联回归,给定面部图像I和初始模型参数向量p,回归方法的目的是构建映射函数:
其中,是与当前模型参数向量相关的特征提取函数,Nf是所提取的特征向量的维度,δp是对当前模型参数向量的更新,p*是面部的地面实况参数向量;
给定一组训练示例,通过任何回归方法学习映射函数,级联回归构建一个强回归,通过级联M弱回归,Φ={φ1,…,φM};为了构建这些级联的弱回归,首先使用原始训练样本训练第一个弱回归;然后应用第一个训练的弱回归来更新第二个弱回归训练的所有初始模型参数p←p+δp;可以通过迭代地重复该过程来训练所需数量的弱回归;每个弱回归是线性回归,即φmp=Amf(I,p)+bm,其中是投影矩阵,是偏移,Np是参数向量p的维数;对于第m个弱回归的训练,损失函数为:
其中,f(In,pn)是第n个训练样例提取的特征向量,是当前模型参数和地面实况模型参数之间的差,λ是正则化项的权重,‖*‖F是矩阵的Frobenius范数,应当在每个弱回归训练之后更新pn
给定一个新的人脸图像,初始参数估计p和训练的级联回归Φ,使用Φ中的弱回归来迭代更新模型参数;提取围绕每个面部关键点的HOG特征,连接到长矢量,作为提取特征,即f(I,p);一旦获得形状模型参数p的最终估计,使用基于张量的形状模型计算面部的形状;然后通过将估计的面部形状中的像素包裹到参考形状,获得面部图像的全局纹理,并且估计纹理模型参数q。
附图说明
图1是本发明一种基于张量的主动外观模型的表情变化识别方法的系统框架图。
图2是本发明一种基于张量的主动外观模型的表情变化识别方法的姿态,表情和照明变化的不完全训练数据集中对象的示例图。
图3是本发明一种基于张量的主动外观模型的表情变化识别方法的从多PIE选择的子集的变化图。
图4是本发明一种基于张量的主动外观模型的表情变化识别方法的自遮挡面部关键点的不同定义。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互结合,下面结合附图和具体实施例对本发明作进一步详细说明。
图1是本发明一种基于张量的主动外观模型的表情变化识别方法的系统框架图。主要包括基于张量的主动外观模型(T-AAM)和统一基于张量的主动外观模型(UT-AAM)。
基于张量的主动外观模型(T-AAM)包括主动外观模型(AAM)和基于张量的AAM(T-AAM)。
主动外观模型(AAM)具有两个基于主成分分析(PCA)的参数模型,即形状和纹理模型;给定新的面部图像I,AAM可以使用拟合算法重建和根据面部的形状和纹理信息建模;AAM拟合的目标是调整模型参数,以最小化生成面部实例和输入图像之间的像素强度差:
其中,W(I,α)是将由具有参数α的形状模型生成的形状内的面部纹理翘曲到参考形状的函数。
基于张量的AAM(T-AAM)包括高阶奇异值分解(HOSVD)和构建T-AAM。
统一基于张量的主动外观模型(UT-AAM),为了实现统一,提出的UT-AAM框架引入了四种技术:
(1)UT-AAM在不同的变化模式之间创建一个统一的张量模型;
(2)为了解决大规模姿态变化的自遮蔽问题,提出了一种统一的表示策略;
(3)通过引入张量完成具有缺失训练样本的不完全训练数据集所提出的UTAAM方法;
(4)提出了一种新的基于级联回归的模型拟合算法,不需要估计拟合新面孔的变化状态。
图2是本发明一种基于张量的主动外观模型的表情变化识别方法的姿态,表情和照明变化的不完全训练数据集中对象的示例图。关于高阶奇异值分解(HOSVD),张量是矢量和矩阵的高阶扩展;N阶张量是具有多个索引的N维数组;给定具有Ii同一性,Ip姿势,Ie表情和Il光照变化的面部数据集,数据集的形状或纹理信息可表示为张量;在形状张量中,元素s(ii,ip,il,ie,is)表示面部形状向量的第ii与第ip个姿态,第il个照明和第ie个表情状态,其中Is=2L是面部形状矢量的维度;类似地,纹理张量以张量方式重组训练数据集的纹理矢量;
T-AAM使用多线性子空间分析来构造基于张量的形状和纹理模型,使用Tucker张量分解来获得形状和纹理模型;给定N阶张量Tucker张量分解导致:
其中,是具有输入张量的相同维数的核心张量,对其正交模式矩阵之间的相互作用进行建模张量和矩阵之间的模n的乘积‘×n’导致新的张量其中计算每个元素:
为了进行Tucker张量分解,通常使用高阶奇异值分解(HOSVD),其也被称为Tucker-1张量分解方法;HOSVD使用SVD分解的左奇异矩阵到的模式n展开矩阵来计算模式n矩阵Un;沿着第n个模式展开张量,通过沿着第n个模式,将向量作为列向量堆叠,在矩阵中对张量中的所有条目进行重新排序;
最后,通过上式获得核心张量
构建T-AAM,给定形状张量使用HOSVD得到:
其中,是形状核心张量,是表示分解的同一性,姿态,照明,表情和形状子空间的模式矩阵;以相同的方式,纹理张量被分解为:
其中,元素具有与形状张量分解相似的含义;
由于2D面部形状主要受姿势和表情变化的影响,T-AAM构造形状基础的子传感器:
其中,是指示不同姿态或表情变化状态的线性组合和表情混合系数向量,满足0≤cp(k)≤1和0≤ce(k)≤1;
在形状基础子张量中考虑姿态和表情变化,通过以下式子获得纹理基础子张量:
其中,是指示不同照明变化状态的线性组合的照明混合系数向量,满足和0≤cl(k)≤1;
最后,T-AAM构建变体特定的形状模型:
其中,是在所有训练形状上使用姿态和表情混合系数向量计算的加权平均形状,sk(cp,ce)是沿着第5个模式的形状基本张量的展开矩阵的第k列向量,αk是对应的模型参数;类似地,通过T-AAM构建变体特有的纹理模型:
其中,是在所有训练纹理向量上使用照明混合系数向量计算的加权平均纹理,tk(cl)是沿着第5个纹理基础张量的展开矩阵的第k列向量模式,βk是相应的模型参数。
图3是本发明一种基于张量的主动外观模型的表情变化识别方法的从多PIE选择的子集的变化图。关于统一的形状和纹理模型,给定一组注释的面部图像,相应的形状张量和纹理张量将HOSVD应用于形状和纹理张量用于Tucker张量分解,由于受试者的形状与照明变化无关,所以可将形状模型压缩为:
其中,此外,必须对形状应用全局仿射变换G(s,pg),其中pg=[s,θ,tx,ty]T是控制尺度,旋转和平移的全局仿射变换参数;在这种统一的基于张量的形状模型中,新形状可以由长参数向量表示;也可以获得统一的纹理模型:
其中,面部的纹理可以由纹理模型参数矢量表示;最后,新的面部实例可以由连接形状和纹理模型参数[pT,qT]T的统一参数向量表示;对于新的面部图像,UTAAM拟合的目标是找到最好地表示输入面的模型参数向量。
应对缺失的训练样本,给定具有缺失条目的不完全张量张量完成算法的目标是找到完全张量以最小化其中是没有缺失条目的地面实况张量;然而,这个完整的地面实况张量在实践中是未知的,因此损失修改为:
其中,‘*’为分素乘积;是与大小相同的索引张量,其中当条目的值可用(或缺失)时,将条目的值设置为1(或0);
给定一个具有缺失条目的不完整形状张量首先使用具有相同姿态,照明和表情变化的所有可用条目的平均值初始化缺失条目:
其中,上标‘m’和‘a’分别代表缺失条目和可用条目;下标表示中对应条目的位置;Na是具有与缺失相同变量的所有可用条目的。
图4是本发明一种基于张量的主动外观模型的表情变化识别方法的自遮挡面部关键点的不同定义。关于UT-AAM拟合的级联回归,给定面部图像I和初始模型参数向量p,回归方法的目的是构建映射函数:
其中,是与当前模型参数向量相关的特征提取函数,Nf是所提取的特征向量的维度,δp是对当前模型参数向量的更新,p*是面部的地面实况参数向量;
给定一组训练示例,通过任何回归方法学习映射函数,级联回归构建一个强回归,通过级联M弱回归,Φ={φ1,…,φM};为了构建这些级联的弱回归,首先使用原始训练样本训练第一个弱回归;然后应用第一个训练的弱回归来更新第二个弱回归训练的所有初始模型参数p←p+δp;可以通过迭代地重复该过程来训练所需数量的弱回归;每个弱回归是线性回归,即φmp=Amf(I,p)+bm,其中是投影矩阵,是偏移,Np是参数向量p的维数;对于第m个弱回归的训练,损失函数为:
其中,f(In,pn)是第n个训练样例提取的特征向量,是当前模型参数和地面实况模型参数之间的差,λ是正则化项的权重,‖*‖F是矩阵的Frobenius范数,应当在每个弱回归训练之后更新pn
给定一个新的人脸图像,初始参数估计p和训练的级联回归Φ,使用Φ中的弱回归来迭代更新模型参数;提取围绕每个面部关键点的HOG特征,连接到长矢量,作为提取特征,即f(I,p);一旦获得形状模型参数p的最终估计,使用基于张量的形状模型计算面部的形状;然后通过将估计的面部形状中的像素包裹到参考形状,获得面部图像的全局纹理,并且估计纹理模型参数q。
对于本领域技术人员,本发明不限制于上述实施例的细节,在不背离本发明的精神和范围的情况下,能够以其他具体形式实现本发明。此外,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围,这些改进和变型也应视为本发明的保护范围。因此,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。

Claims (10)

1.一种基于张量的主动外观模型的表情变化识别方法,其特征在于,主要包括基于张量的主动外观模型(T-AAM)(一);统一基于张量的主动外观模型(UT-AAM)(二)。
2.基于权利要求书1所述的基于张量的主动外观模型(T-AAM)(一),其特征在于,包括主动外观模型(AAM)和基于张量的AAM(T-AAM)。
3.基于权利要求书2所述的主动外观模型(AAM),其特征在于,AAM具有两个基于主成分分析(PCA)的参数模型,即形状和纹理模型;给定新的面部图像I,AAM可以使用拟合算法重建和根据面部的形状和纹理信息建模;AAM拟合的目标是调整模型参数,以最小化生成面部实例和输入图像之间的像素强度差:
| | t ‾ + Σ k = 1 N s β k t k - W ( I , α ) | | 2 2 - - - ( 1 )
其中,W(I,α)是将由具有参数α的形状模型生成的形状内的面部纹理翘曲到参考形状的函数。
4.基于权利要求书2所述的基于张量的AAM(T-AAM),其特征在于,包括高阶奇异值分解(HOSVD)和构建T-AAM。
5.基于权利要求书4所述的高阶奇异值分解(HOSVD),其特征在于,张量是矢量和矩阵的高阶扩展;N阶张量是具有多个索引的N维数组;给定具有Ii同一性,Ip姿势,Ie表情和Il光照变化的面部数据集,数据集的形状或纹理信息可表示为张量;在形状张量中,元素s(ii,ip,il,ie,is)表示面部形状向量的第ii与第ip个姿态,第il个照明和第ie个表情状态,其中Is=2L是面部形状矢量的维度;类似地,纹理张量以张量方式重组训练数据集的纹理矢量;
T-AAM使用多线性子空间分析来构造基于张量的形状和纹理模型,使用Tucker张量分解来获得形状和纹理模型;给定N阶张量Tucker张量分解导致:
其中,是具有输入张量的相同维数的核心张量,对其正交模式矩阵之间的相互作用进行建模张量和矩阵之间的模n的乘积‘×n’导致新的张量其中计算每个元素:
z ( i 1 , ... , i n - 1 , j , i n + 1 , ... , i N ) = Σ i n I N x ( i 1 , ... , i N ) y ( j , i n ) - - - ( 3 )
为了进行Tucker张量分解,通常使用高阶奇异值分解(HOSVD),其也被称为Tucker-1张量分解方法;HOSVD使用SVD分解的左奇异矩阵到的模式n展开矩阵来计算模式n矩阵Un;沿着第n个模式展开张量,通过沿着第n个模式,将向量作为列向量堆叠,在矩阵中对张量中的所有条目进行重新排序;
最后,通过上式获得核心张量
6.基于权利要求书4所述的构建T-AAM,其特征在于,给定形状张量使用HOSVD得到:
其中,是形状核心张量,是表示分解的同一性,姿态,照明,表情和形状子空间的模式矩阵;以相同的方式,纹理张量被分解为:
其中,元素具有与形状张量分解相似的含义;
由于2D面部形状主要受姿势和表情变化的影响,T-AAM构造形状基础的子传感器:
其中,是指示不同姿态或表情变化状态的线性组合和表情混合系数向量,满足0≤cp(k)≤1和0≤ce(k)≤1;
在形状基础子张量中考虑姿态和表情变化,通过以下式子获得纹理基础子张量:
其中,是指示不同照明变化状态的线性组合的照明混合系数向量,满足 和0≤cl(k)≤1;
最后,T-AAM构建变体特定的形状模型:
s = s ‾ ( c p , c e ) + Σ k = 1 N s α k s k ( c p , c e ) - - - ( 9 )
其中,是在所有训练形状上使用姿态和表情混合系数向量计算的加权平均形状,sk(cp,ce)是沿着第5个模式的形状基本张量的展开矩阵的第k列向量,αk是对应的模型参数;类似地,通过T-AAM构建变体特有的纹理模型:
t = t ‾ ( c l ) + Σ k = 1 N s β k t k ( c l ) - - - ( 10 )
其中,是在所有训练纹理向量上使用照明混合系数向量计算的加权平均纹理,tk(cl)是沿着第5个纹理基础张量的展开矩阵的第k列向量模式,βk是相应的模型参数。
7.基于权利要求书1所述的统一基于张量的主动外观模型(UT-AAM)(二),其特征在于,为了实现统一,提出的UT-AAM框架引入了四种技术:
(1)UT-AAM在不同的变化模式之间创建一个统一的张量模型;
(2)为了解决大规模姿态变化的自遮蔽问题,提出了一种统一的表示策略;
(3)通过引入张量完成具有缺失训练样本的不完全训练数据集所提出的UTAAM方法;
(4)提出了一种新的基于级联回归的模型拟合算法,不需要估计拟合新面孔的变化状态。
8.基于权利要求书7所述的统一的形状和纹理模型,其特征在于,给定一组注释的面部图像,相应的形状张量和纹理张量将HOSVD应用于形状和纹理张量用于Tucker张量分解,由于受试者的形状与照明变化无关,所以可将形状模型压缩为:
其中,此外,必须对形状应用全局仿射变换G(s,pg),其中pg=[s,θ,tx,ty]T是控制尺度,旋转和平移的全局仿射变换参数;在这种统一的基于张量的形状模型中,新形状可以由长参数向量表示;也可以获得统一的纹理模型:
其中,面部的纹理可以由纹理模型参数矢量表示;最后,新的面部实例可以由连接形状和纹理模型参数[pT,qT]T的统一参数向量表示;对于新的面部图像,UTAAM拟合的目标是找到最好地表示输入面的模型参数向量。
9.基于权利要求书7所述的应对缺失的训练样本,其特征在于,给定具有缺失条目的不完全张量张量完成算法的目标是找到完全张量以最小化其中是没有缺失条目的地面实况张量;然而,这个完整的地面实况张量在实践中是未知的,因此损失修改为:
其中,‘*’为分素乘积;是与大小相同的索引张量,其中当条目的值可用(或缺失)时,将条目的值设置为1(或0);
给定一个具有缺失条目的不完整形状张量首先使用具有相同姿态,照明和表情变化的所有可用条目的平均值初始化缺失条目:
其中,上标‘m’和‘a’分别代表缺失条目和可用条目;下标表示中对应条目的位置;Na是具有与缺失相同变量的所有可用条目的。
10.基于权利要求书7所述的UT-AAM拟合的级联回归,其特征在于,给定面部图像I和初始模型参数向量p,回归方法的目的是构建映射函数:
s . t . | | p + δ p - p * | | 2 2 = 0
其中,是与当前模型参数向量相关的特征提取函数,Nf是所提取的特征向量的维度,δp是对当前模型参数向量的更新,p*是面部的地面实况参数向量;
给定一组训练示例,通过任何回归方法学习映射函数,级联回归构建一个强回归,通过级联M弱回归,Φ={φ1,…,φM};为了构建这些级联的弱回归,首先使用原始训练样本训练第一个弱回归;然后应用第一个训练的弱回归来更新第二个弱回归训练的所有初始模型参数p←p+δp;可以通过迭代地重复该过程来训练所需数量的弱回归;每个弱回归是线性回归,即φmp=Amf(I,p)+bm,其中是投影矩阵,是偏移,Np是参数向量p的维数;对于第m个弱回归的训练,损失函数为:
arg m i n A m , b m Σ n = 1 N | | A m f ( I n , p n ) + b m - δ p n | | 2 2 + λ | | A m | | F 2 - - - ( 16 )
其中,f(In,pn)是第n个训练样例提取的特征向量,是当前模型参数和地面实况模型参数之间的差,λ是正则化项的权重,‖*‖F是矩阵的Frobenius范数,应当在每个弱回归训练之后更新pn
给定一个新的人脸图像,初始参数估计p和训练的级联回归Φ,使用Φ中的弱回归来迭代更新模型参数;提取围绕每个面部关键点的HOG特征,连接到长矢量,作为提取特征,即f(I,p);一旦获得形状模型参数p的最终估计,使用基于张量的形状模型计算面部的形状;然后通过将估计的面部形状中的像素包裹到参考形状,获得面部图像的全局纹理,并且估计纹理模型参数q。
CN201710077233.5A 2017-02-14 2017-02-14 一种基于张量的主动外观模型的表情变化识别方法 Withdrawn CN106778708A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710077233.5A CN106778708A (zh) 2017-02-14 2017-02-14 一种基于张量的主动外观模型的表情变化识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710077233.5A CN106778708A (zh) 2017-02-14 2017-02-14 一种基于张量的主动外观模型的表情变化识别方法

Publications (1)

Publication Number Publication Date
CN106778708A true CN106778708A (zh) 2017-05-31

Family

ID=58956467

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710077233.5A Withdrawn CN106778708A (zh) 2017-02-14 2017-02-14 一种基于张量的主动外观模型的表情变化识别方法

Country Status (1)

Country Link
CN (1) CN106778708A (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491740A (zh) * 2017-07-28 2017-12-19 北京科技大学 一种基于面部表情分析的新生儿疼痛识别方法
CN107492116A (zh) * 2017-09-01 2017-12-19 深圳市唯特视科技有限公司 一种基于多外观模型进行人脸跟踪的方法
CN109450878A (zh) * 2018-10-25 2019-03-08 华中科技大学鄂州工业技术研究院 生物特征识别方法、装置以及系统
CN109584347A (zh) * 2018-12-18 2019-04-05 重庆邮电大学 一种基于主动表观模型的增强现实虚实遮挡处理方法
CN112686978A (zh) * 2021-01-07 2021-04-20 网易(杭州)网络有限公司 表情资源的加载方法、装置和电子设备
CN113408434A (zh) * 2021-06-22 2021-09-17 华侨大学 一种智能监控的表情识别方法、装置、设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ZHEN-HUA FENG等: "A Unified Tensor-based Active Appearance Face Model", 《ARXIV:1612.09548V1》 *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491740A (zh) * 2017-07-28 2017-12-19 北京科技大学 一种基于面部表情分析的新生儿疼痛识别方法
CN107491740B (zh) * 2017-07-28 2020-03-17 北京科技大学 一种基于面部表情分析的新生儿疼痛识别方法
CN107492116A (zh) * 2017-09-01 2017-12-19 深圳市唯特视科技有限公司 一种基于多外观模型进行人脸跟踪的方法
CN109450878A (zh) * 2018-10-25 2019-03-08 华中科技大学鄂州工业技术研究院 生物特征识别方法、装置以及系统
CN109584347A (zh) * 2018-12-18 2019-04-05 重庆邮电大学 一种基于主动表观模型的增强现实虚实遮挡处理方法
CN109584347B (zh) * 2018-12-18 2023-02-21 重庆邮电大学 一种基于主动表观模型的增强现实虚实遮挡处理方法
CN112686978A (zh) * 2021-01-07 2021-04-20 网易(杭州)网络有限公司 表情资源的加载方法、装置和电子设备
CN112686978B (zh) * 2021-01-07 2021-09-03 网易(杭州)网络有限公司 表情资源的加载方法、装置和电子设备
CN113408434A (zh) * 2021-06-22 2021-09-17 华侨大学 一种智能监控的表情识别方法、装置、设备和存储介质
CN113408434B (zh) * 2021-06-22 2023-12-05 华侨大学 一种智能监控的表情识别方法、装置、设备和存储介质

Similar Documents

Publication Publication Date Title
CN106778708A (zh) 一种基于张量的主动外观模型的表情变化识别方法
Li et al. 3d human pose estimation from monocular images with deep convolutional neural network
Nhan Duong et al. Temporal non-volume preserving approach to facial age-progression and age-invariant face recognition
Du et al. Face aging simulation and recognition based on NMF algorithm with sparseness constraints
Wang et al. A new locality-preserving canonical correlation analysis algorithm for multi-view dimensionality reduction
Samigulina Development of decision support systems based on intellectual technology of artificial immune systems.
Duan et al. Craniofacial reconstruction based on multi-linear subspace analysis
CN105184767B (zh) 一种运动人体姿态相似性度量方法
Mack et al. Attention-based convolutional autoencoders for 3d-variational data assimilation
CN106503659A (zh) 基于稀疏编码张量分解的动作识别方法
Seyyedsalehi et al. Simultaneous learning of nonlinear manifolds based on the bottleneck neural network
Qu et al. Perceptual-DualGAN: perceptual losses for image to image translation with generative adversarial nets
Yuan et al. EGST: Enhanced Geometric Structure Transformer for Point Cloud Registration
Bevanda et al. Diffeomorphically learning stable Koopman operators
Albergo et al. Multimarginal generative modeling with stochastic interpolants
Li et al. Craniofacial reconstruction based on least square support vector regression
Kuleshov et al. Manifold learning regression with non-stationary kernels
Yu et al. Graph based transductive learning for cartoon correspondence construction
Li et al. A hierarchical neural hybrid method for failure probability estimation
Ibanez et al. Numerical experiments on unsupervised manifold learning applied to mechanical modeling of materials and structures
CN108282424A (zh) 用于四个数据集联合盲源分离的四阶张量联合对角化算法
Kong et al. Convergence analysis of deterministic discrete time system of a unified self-stabilizing algorithm for PCA and MCA
Ni et al. High-order generalized orderless pooling networks for synthetic-aperture radar scene classification
Wen et al. Incremental pairwise discriminant analysis based visual tracking
Bai et al. Face reconstruction from skull based on least squares canonical dependency analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication

Application publication date: 20170531

WW01 Invention patent application withdrawn after publication