CN109033941A - 一种基于稀疏投影学习的微表情识别方法 - Google Patents
一种基于稀疏投影学习的微表情识别方法 Download PDFInfo
- Publication number
- CN109033941A CN109033941A CN201810566979.7A CN201810566979A CN109033941A CN 109033941 A CN109033941 A CN 109033941A CN 201810566979 A CN201810566979 A CN 201810566979A CN 109033941 A CN109033941 A CN 109033941A
- Authority
- CN
- China
- Prior art keywords
- max
- micro
- matrix
- expression
- method based
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明公开了一种基于稀疏投影学习的微表情识别方法,步骤1:采集微表情样本,提取微表情三个正交平面的LBP特征P、Q、R,定义C、D、E分别为XY、XT、YT三个正交平面的特征优化变量;构造优化模型;步骤2:设置迭代计数变量t和n的初始值和最大值;初始化正则化参数κ,κmax,尺度参数ρ;步骤3:初始化n,κ,计算C,更新T1和κ;若||B1‑CT||∞<10‑8收敛或n>nmax,进入步骤4;步骤4:初始化n,κ,计算D,更新T2和κ;若||B2‑DT||∞<10‑8收敛或n>nmax,进入步骤5;步骤5:初始化n,κ,计算E,更新T3和κ;若||B3‑ET||∞<10‑8收敛或n>nmax,进入步骤6;步骤6:令t=t+1,若t≤tmax,则返回步骤3,否则,输出C、D、E;步骤7:通过优化变量C、D、E对三个正交平面的LBP特征优化得到新的融合特征Ftest,将融合特征Ftest通过训练好的SVM分类器预测出测试样本的情感类别。
Description
技术领域
本发明属于模式识别领域,涉及LBP-TOP(Local Binary Patterns from ThreeOrthogonal Planes)特征优化的微表情识别方法,具体地说是一种基于稀疏投影学习的微表情识别方 法。
背景技术
近年来,微表情识别在计算机模式识别领域非常活跃。与普通表情有所不同,微表情持续时间非常短暂,因此大多数人常常容易忽视它的存在。目前国内外有很多团队在 积极开展着对微表情识别的研究,并取得了一定的成果。从现阶段国内外最新的研究成 果中发现,目前已知的方法还存在各自的局限。无论是数据采集、数据库建立、特征提 取和理论分析方面都有待进一步改善和发展。
从已知的研究成果中发现,目前现有方法存在各自的局限。例如在文献:Zhao G,Pietikainen M.Dynamic Texture Recognition Using Local Binary Patterns with anApplication to Facial Expressions[J].IEEE Transactions on Pattern Analysis&Machine Intelligence,2007, 29(6):915-928中,提取三个正交平面的特征表示微表情,但并没有客观地考虑到空域和 时域的特征融合问题。不同模态的特征维度不同,对于情感分类所占的权重也不同,更 好的融合优化特征是现阶段需要解决的一个重要问题。
发明内容
针对现有方法的不足,本发明提出了一种新型的基于稀疏投影学习的微表情识别方 法。该方法在现有组稀疏回归模型的方法上进行改进,将微表情的LBP-TOP特征投影到一个情感标签子空间,学习出最优的投影矩阵,使得投影后三种特征分别和标签信息的 残差最小,更好地识别微表情。
用于实现本发明的技术解决方案包括如下步骤:
步骤1:采集微表情样本,根据每个样本的标签信息构造情感标签特征子空间K是样本情感类别,M是样本个数。提取微表情三个正交平面的LBP(Local BinaryPatterns)特征P、Q、R,定义C、D、E分别为XY、XT、YT三个平面的特征 优化变量。构造优化模型;
步骤2:设置迭代次数计数变量的初始值t=n=0,迭代次数计数变量最大值tmax=5, nmax=200。初始化正则化参数κ,κmax,尺度参数ρ;
步骤3:a)初始化n,κ,为零矩阵;
b)计算C,更新T1和κ,其中是一个辅助变量;
c)若||B1-CT||∞<10-8收敛或n>nmax,进入步骤4;若不收敛,则令n=n+1,返回b)。
步骤4:a)初始化n,κ,为零矩阵;
b)计算D,更新T2和κ,其中是一个辅助变量;
c)若||B2-DT||∞<10-8收敛或n>nmax,进入步骤5;若不收敛,则令n=n+1,返回b)。
步骤5:a)初始化n,κ,为零矩阵;
b)计算E,更新T3和κ,其中是一个辅助变量;
c)若||B3-ET||∞<10-8收敛或n>nmax,进入步骤6;若不收敛,则令n=n+1,返回b)。
步骤6:令t=t+1,若t≤tmax,则返回步骤3;若t>tmax,则输出C、D、E。
步骤7:通过优化变量C、D、E对三个正交平面的LBP特征P、Q和R优化得到 新的融合特征Ftest=[CP DQ ER]T。将测试集融合特征Ftest通过训练好的SVM分类器 预测出测试样本的情感类别。
本发明的有益效果:
本发明基于组稀疏回归模型方法,提出了一种稀疏投影学习的微表情识别方法,本 方法实现更为简单,计算复杂度较低,同时又能够获得较好的识别准确率。
附图说明
图1是本发明实施流程图。
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明。
(1)采集M个微表情样本,分别在三个正交平面(XY平面、XT平面和YT平面) 上,对每个样本中的图像帧序列提取LBP(Local Binary Patterns)特征,记为 其中d为LBP特征的维度。若情感的种类共有K类, 则可定义情感标签矩阵:
其中表示第i个样本的情感类别标签向量。如果第i个样本的情感属于第k类, 那么li是一个第k元素为1,其余元素为0的K维向量。构造优化模型:
其中C、 D、E为特征优化变量,||·||F为矩阵的Frobenius范数,||·||2,1表示矩阵所有列的二范数 的和,λ,μ为控制模型稀疏性的参数(0<λ<10,0<μ<500)。
(2)设置迭代次数计数变量初始值t=n=0,迭代次数计数变量最大值tmax=5,nmax=200。初始化正则化参数κ=10-3,最大正则化参数κmax=1015,尺度参数ρ=1.1。
(3)
a)初始化n=0,κ=10-3,矩阵为零矩阵。
b)计算C:
其中
ci、bi和ti分别表示C、B1和T1的第i列,(·)T表示转置运算,tr(·)表示矩阵的迹,是一个元素全为1的矩阵,I表示单位矩阵;
更新T1和κ:T1=T1+κ(B1-CT),κ=min(ρκ,κmax);
c)若||B1-CT||∞<10-8收敛,进入步骤(4);若不收敛,则令n=n+1,当n≤nmax时,返回步骤b),当n>nmax时,进入步骤(4)。
(4)
a)初始化n=0,κ=10-3,矩阵为零矩阵。
b)计算D:
其中
dj、bj和tj分别表示D、B2和T2的第j列。
更新T2和κ:T2=T2+κ(B2-DT),κ=min(ρκ,κmax)。
c)若||B2-DT||∞<10-8收敛,进入步骤(5);若不收敛,则令n=n+1,当n≤nmax时,返回步骤b),当n>nmax时,进入步骤(5)。
(5)
a)初始化n=0,κ=10-3,矩阵为零矩阵。
b)计算E:
其中
ek、bk和tk分别表示E、B3和T3的第k列。
更新T3和κ:T3=T3+κ(B3-ET),κ=min(ρκ,κmax)。
c)若||B3-ET||∞<10-8收敛,进入步骤(6);若不收敛,则令n=n+1,当n≤nmax时,返回步骤b),当n>nmax时,进入步骤(6)。
(6)令t=t+1,若t≤tmax,则返回步骤(3);若t>tmax,则输出C、D、E。
(7)通过优化变量C、D、E对三个正交平面的LBP特征P、Q和R优化得到 新的特征CP、DQ和ER,融合后的测试集特征表示为:Ftest=[CP DQ ER]T。将测 试集融合特征Ftest通过训练好的SVM分类器即可预测出测试样本的情感类别。
下面结合仿真实验对本发明的效果做进一步说明。
为了评估本方法的性能,本发明选用SMIC数据库中的使用高速相机记录的微表情样本SMIC-HS进行实验。其中包括从16名参与者诱发出的164个微表情视频剪辑,用 于区分三类微表情情感(积极、消极和惊讶),样本分布如表1所示。
表1本发明所选取的微表情数据库SMIC样本分布
本方法使用线性核函数进行仿真实验,选择留一样本法交叉验证 (Leave-One-Subject-Out Cross Validation,LOSO-CV)。设置X轴、Y轴和T轴半径都为3, 近邻点数量为8,提取出融合特征,利用融合特征识别得出识别率与传统LBP-TOP特征 直接训练的结果进行比较,验证特征融合方法的性能。为了提高识别性能,本发明将每 个面部图像划分为8×8的面部子区域。仿真结果如表2所示,每一折即每一样本的识别 精度对比如表3。
表2本发明与传统LBP-TOP方法的识别精度对比
表3本发明于传统LBP-TOP方法每一折样本的识别精度对比
从表2可以看出,本发明所取得的SMIC-HS数据库下的识别精度相比于传统的LBP-TOP方法,提升了9.57%。由于SMIC-HS数据库的样本高度不平衡,意味着某一样 本数量远远大于或小于其他样本数量,本发明引入F1-score作为评价指标。
从表3可以看出,对于每一折样本,本发明的识别精度多数都高于传统方法。实验证明了本发明的可行性。
上文所列出的一系列的详细说明仅仅是针对本发明的可行性实施方式的具体说明, 它们并非用以限制本发明的保护范围,凡未脱离本发明技艺精神所作的等效实施方式或 变更均应包含在本发明的保护范围之内。
Claims (8)
1.一种基于稀疏投影学习的微表情识别方法,其特征在于,包括如下步骤:
步骤1:采集微表情样本,根据每个样本的标签信息构造情感标签矩阵K是样本情感类别,M是样本个数;提取微表情三个正交平面的LBP特征P、Q、R,定义C、D、E分别为XY、XT、YT三个正交平面的特征优化变量;构造优化模型;
步骤2:设置迭代次数计数变量t和n的初始值,迭代次数计数变量的最大值tmax,nmax;初始化正则化参数κ,κmax,尺度参数ρ;
步骤3:a)初始化n,κ,
b)计算C,更新T1和κ,设是一个辅助变量;
c)若||B1-CT||∞<10-8收敛或n>nmax,进入步骤4;若不收敛,则令n=n+1,返回b);
步骤4:a)初始化n,κ,
b)计算D,更新T2和κ,设是一个辅助变量;
c)若||B2-DT||∞<10-8收敛或n>nmax,进入步骤5;若不收敛,则令n=n+1,返回b);
步骤5:a)初始化n,κ,
b)计算E,更新T3和κ,设是一个辅助变量;
c)若||B3-ET||∞<10-8收敛或n>nmax,进入步骤6;若不收敛,则令n=n+1,返回b);
步骤6:令t=t+1,若t≤tmax,则返回步骤3;若t>tmax,则输出C、D、E;
步骤7:通过优化变量C、D、E对三个正交平面的LBP特征P、Q和R优化得到新的融合特征Ftest=[CP DQ ER]T,将测试集融合特征Ftest通过训练好的SVM分类器预测出测试样本的情感类别。
2.根据权利要求1所述的一种基于稀疏投影学习的微表情识别方法,其特征在于,所述步骤1中,构造的优化模型为:
其中C、D、E为特征优化变量,||·||F为矩阵的Frobenius范数,||·||2,1表示矩阵所有列的二范数的和,λ,μ为控制模型稀疏性的参数。
3.根据权利要求2所述的一种基于稀疏投影学习的微表情识别方法,其特征在于,所述参数λ和μ的取值范围设置为:0<λ<10,0<μ<500。
4.根据权利要求2所述的一种基于稀疏投影学习的微表情识别方法,其特征在于,所述情感标签矩阵的表达式为:
其中表示第i个样本的情感类别标签向量,如果第i个样本的情感属于第k类,那么li是一个第k元素为1,其余元素为0的K维向量。
5.根据权利要求1所述的一种基于稀疏投影学习的微表情识别方法,其特征在于,所述步骤2中,迭代次数计数变量初始值t=n=0,迭代次数计数变量最大值tmax=5、nmax=200;初始化正则化参数κ=10-3,最大正则化参数κmax=1015,尺度参数ρ=1.1。
6.根据权利要求1所述的一种基于稀疏投影学习的微表情识别方法,其特征在于,
所述步骤3的a)中,初始化n=0,κ=10-3,矩阵为零矩阵;
所述步骤3的b)中,计算C的表达式为:
其中
ci、bi和ti分别表示C、B1和T1的第i列,(·)T表示转置运算,tr(·)表示矩阵的迹,是一个元素全为1的矩阵,I表示单位矩阵;
更新T1和κ:T1=T1+κ(B1-CT),κ=min(ρκ,κmax)。
7.根据权利要求1所述的一种基于稀疏投影学习的微表情识别方法,其特征在于,
所述步骤4的a)中,初始化n=0,κ=10-3,矩阵为零矩阵;
所述步骤4的b)中,计算D的表达式为:
其中
dj、bj和tj分别表示D、B2和T2的第j列;
更新T2和κ:T2=T2+κ(B2-DT),κ=min(ρκ,κmax)。
8.根据权利要求1所述的一种基于稀疏投影学习的微表情识别方法,其特征在于,
所述步骤5的a)中,初始化n=0,κ=10-3,矩阵为零矩阵;
所述步骤5的b)中,计算E的表达式为:
其中
ek、bk和tk分别表示E、B3和T3的第k列;
更新T3和κ:T3=T3+κ(B3-ET),κ=min(ρκ,κmax)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810566979.7A CN109033941B (zh) | 2018-06-05 | 2018-06-05 | 一种基于稀疏投影学习的微表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810566979.7A CN109033941B (zh) | 2018-06-05 | 2018-06-05 | 一种基于稀疏投影学习的微表情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109033941A true CN109033941A (zh) | 2018-12-18 |
CN109033941B CN109033941B (zh) | 2021-07-20 |
Family
ID=64611953
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810566979.7A Active CN109033941B (zh) | 2018-06-05 | 2018-06-05 | 一种基于稀疏投影学习的微表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109033941B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210443A (zh) * | 2019-06-11 | 2019-09-06 | 西北工业大学 | 一种优化投影对称性近似稀疏分类的手势识别方法 |
CN111695695A (zh) * | 2020-06-09 | 2020-09-22 | 北京百度网讯科技有限公司 | 用户决策行为量化分析方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750712A (zh) * | 2012-06-07 | 2012-10-24 | 中山大学 | 一种基于局部时空流形学习的运动目标分割方法 |
CN102799870A (zh) * | 2012-07-13 | 2012-11-28 | 复旦大学 | 基于分块一致lbp和稀疏编码的单训练样本人脸识别方法 |
CN106295694A (zh) * | 2016-08-05 | 2017-01-04 | 浙江工业大学 | 一种迭代重约束组稀疏表示分类的人脸识别方法 |
-
2018
- 2018-06-05 CN CN201810566979.7A patent/CN109033941B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750712A (zh) * | 2012-06-07 | 2012-10-24 | 中山大学 | 一种基于局部时空流形学习的运动目标分割方法 |
CN102799870A (zh) * | 2012-07-13 | 2012-11-28 | 复旦大学 | 基于分块一致lbp和稀疏编码的单训练样本人脸识别方法 |
CN106295694A (zh) * | 2016-08-05 | 2017-01-04 | 浙江工业大学 | 一种迭代重约束组稀疏表示分类的人脸识别方法 |
Non-Patent Citations (2)
Title |
---|
卢官明: "基于LBP-TOP特征的微表情识别", 《南京邮电大学学报》 * |
王子彦: "基于时空特征的微表情自动识别系统", 《信息化研究》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110210443A (zh) * | 2019-06-11 | 2019-09-06 | 西北工业大学 | 一种优化投影对称性近似稀疏分类的手势识别方法 |
CN110210443B (zh) * | 2019-06-11 | 2022-03-15 | 西北工业大学 | 一种优化投影对称性近似稀疏分类的手势识别方法 |
CN111695695A (zh) * | 2020-06-09 | 2020-09-22 | 北京百度网讯科技有限公司 | 用户决策行为量化分析方法及装置 |
CN111695695B (zh) * | 2020-06-09 | 2023-08-08 | 北京百度网讯科技有限公司 | 用户决策行为量化分析方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN109033941B (zh) | 2021-07-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hu et al. | Rams-trans: Recurrent attention multi-scale transformer for fine-grained image recognition | |
Liang et al. | Clothes co-parsing via joint image segmentation and labeling with application to clothing retrieval | |
CN108664924B (zh) | 一种基于卷积神经网络的多标签物体识别方法 | |
Geman et al. | Visual turing test for computer vision systems | |
CN105512680B (zh) | 一种基于深度神经网络的多视sar图像目标识别方法 | |
CN106446933B (zh) | 基于上下文信息的多目标检测方法 | |
Guo et al. | Human attribute recognition by refining attention heat map | |
CN105678253B (zh) | 半监督人脸年龄估计装置及半监督人脸年龄估计方法 | |
CN106203395A (zh) | 基于多任务深度学习的人脸属性识别方法 | |
Zeng et al. | An automatic 3D expression recognition framework based on sparse representation of conformal images | |
CN109902590A (zh) | 深度多视图特征距离学习的行人重识别方法 | |
CN104834941A (zh) | 基于计算机输入下的稀疏自编码的脱机手写体识别方法 | |
CN109190643A (zh) | 基于卷积神经网络中药识别方法及电子设备 | |
Qi et al. | Personalized sketch-based image retrieval by convolutional neural network and deep transfer learning | |
CN105243139A (zh) | 一种基于深度学习的三维模型检索方法及其检索装置 | |
CN104156690B (zh) | 一种基于图像空间金字塔特征包的手势识别方法 | |
CN109213853A (zh) | 一种基于cca算法的中文社区问答跨模态检索方法 | |
CN109033978A (zh) | 一种基于纠错策略的cnn-svm混合模型手势识别方法 | |
CN108846404A (zh) | 一种基于相关约束图排序的图像显著性检测方法及装置 | |
Li et al. | Dating ancient paintings of Mogao Grottoes using deeply learnt visual codes | |
CN109190443A (zh) | 一种误识手势检测和纠错方法 | |
CN105320963B (zh) | 面向高分遥感图像的大尺度半监督特征选择方法 | |
CN106056074A (zh) | 一种基于区域稀疏的单张训练样本人脸识别方法 | |
CN110096991A (zh) | 一种基于卷积神经网络的手语识别方法 | |
CN104978569A (zh) | 一种基于稀疏表示的增量人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |