CN106897671B - 一种基于光流和Fisher Vector编码的微表情识别方法 - Google Patents
一种基于光流和Fisher Vector编码的微表情识别方法 Download PDFInfo
- Publication number
- CN106897671B CN106897671B CN201710044499.XA CN201710044499A CN106897671B CN 106897671 B CN106897671 B CN 106897671B CN 201710044499 A CN201710044499 A CN 201710044499A CN 106897671 B CN106897671 B CN 106897671B
- Authority
- CN
- China
- Prior art keywords
- optical flow
- micro
- matrix
- formula
- vector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
- G06F18/21322—Rendering the within-class scatter matrix non-singular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
- G06F18/21322—Rendering the within-class scatter matrix non-singular
- G06F18/21324—Rendering the within-class scatter matrix non-singular involving projections, e.g. Fisherface techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
公开了一种基于光流和Fisher Vector编码的微表情识别方法,包括:对测试样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;基于预先训练得到的分类器对第二特征数据F进行识别。本发明通过使用光流特征描述微表情的微弱运动,并使用Fisher Vector对光流特征进行编码,进一步提取了期望信息和方差信息,因此能更加充分地表示微表情特征,降低了局部噪声的影响,提高了微表情特征的鲁棒性,进而提高了微表情识别的识别率。
Description
技术领域
本发明涉及机器学习和模式识别技术领域,尤其涉及一种基于光流和FisherVector编码的微表情识别方法。
背景技术
人类的面部表情研究起源于19世纪。最近,国外学者Ekman和Erika进行了面部测绘行为的研究,验证了微表情(micro expression)可提供更全面的隐蔽情感信息。与宏观表情不同,微表情是一种持续时间段、强度小的快速表情。虽然持续时间短,但是微表情更能揭露人内心的真实情感,为判断人的内在精神状态提供可靠的依据,因此其在司法系统、临床诊断等方面有着重要应用。
在国外,微表情的研究起步较早,不仅提出、定义了微表情,而且已将微表情的研究成果应用于司法机关诊断案情、商业谈判、心理咨询等领域。在国内,微表情的研究起步较晚。傅小兰教授主持的2011-2013年国家自然科学基金面上项目“面向自动谎言识别的微表情表达研究”,推动了国内对于微表情研究的发展。
然而,现有的微表情识别方法存在鲁棒性差、容易受噪声干扰、识别率低等问题。鉴于此,亟需一种新的微表情识别方法,以降低局部噪声的影响,提高微表情特征的鲁棒性和微表情识别的识别率。
发明内容
本发明的目的在于提出一种新的微表情识别方法,以能更加充分地表示微表情特征,降低了局部噪声的影响,提高了微表情特征的鲁棒性,进而提高了微表情识别的识别率。
本发明提供了一种基于光流和Fisher Vector编码的微表情识别方法,包括:步骤S1、对测试样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};步骤S2、对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;步骤S3、基于预先训练得到的分类器对第二特征数据F进行识别。
优选的,步骤S1包括:S11、计算微表情图像序列中相邻两帧图像之间的光流;S12、进行光流对齐;S13、将微表情图像序列划分成R个时空子块,并且对每个时空子块的光流方向进行加权统计,获取第一特征数据X={x1,…xr,…xR|xr∈RD},其中,为第r个时空子块的光流方向加权直方图向量。
优选的,步骤S2包括:S21、利用高斯混合模型逼近第一特征数据X的分布;
式中,pk(xr|λ)是第k个高斯分布的概率密度函数,p(xr|λ)是第一特征数据X中的向量xr的分布;
S22、根据EM算法估计高斯混合模型中的参数λ,λ={wk,μk,Σk,k=1,2,...,K};其中,wk为第k个高斯分布的组合系数,且wk≥0,∑wk=1,μk为第k个高斯分布的均值向量,Σk为第k个高斯分布的协方差矩阵,且Σk满足:
优选的,在步骤S11之前,步骤S1还包括:S10、对微表情图像序列进行结构纹理分解,保留图像的纹理分量。
优选的,在步骤S10中,根据以下公式对微表情图像序列进行结构纹理分解,
式中,Φ(A)表示矩阵A中等于0的元素的个数,I表示全一矩阵;
根据如下公式计算矫正后的光流分量矩阵;
根据如下公式计算矫正后的光流分量矩阵;
优选的,所述分类器的训练过程包括如下步骤:对训练样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;基于第二特征数据F训练分类器。
优选的,所述分类器为径向基函数支持向量机。
从以上技术方案可以看出,本发明通过使用光流特征描述微表情的微弱运动,并使用Fisher Vector对光流特征进行编码,进一步提取了期望信息和方差信息,因此能更加充分地表示微表情特征,降低了局部噪声的影响,提高了微表情特征的鲁棒性,进而提高了微表情识别的识别率。
附图说明
通过以下参照附图而提供的具体实施方式部分,本发明的特征和优点将变得更加容易理解,在附图中:
图1是本发明实施例的微表情识别方法的流程示意图;
图2是图1所示流程中步骤S1的一种实现方法的流程示意图;
图3是对原始图片进行结构纹理分解的示意图;
图4是从图片纹理部分提取光流特征的示意图;
图5是对光流方向进行加权统计的流程示意图;
图6是图1所示流程中步骤S2的一种实现方法的流程示意图。
具体实施方式
下面参照附图对本发明的示例性实施方式进行详细描述。对示例性实施方式的描述仅仅是出于示范目的,而绝不是对本发明及其应用或用法的限制。
为了克服现有微表情识别方法存在的鲁棒性差、容易受噪声干扰、识别率低等问题,本发明的发明人提出了一种新的微表情识别方法。
下面结合附图和具体实施例对本发明的技术方案进行详细说明。图1示出了本发明实施例中的微表情识别方法的流程图。从图1可见,该方法主要包括以下步骤:
步骤S1、对测试样本中的微表情图像序列进行光流方向加权直方图(HOF)特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD}。
图2示出了步骤S1的一种实现方法。如图2所示,步骤S1具体包括步骤S11、S12、S13。
在步骤S11中,计算微表情图像序列中相邻两帧图像之间的光流。
在具体实施时,考虑到微表情图像序列中不同帧之间的光照变化会影响到光流计算的精确性,因此,为了减小光流计算误差,在进行步骤S11之前,还可进行图3所示的图像处理步骤:S10、对微表情图像序列进行结构纹理分解,保留图像的纹理分量。具体实施时,可根据以下公式对微表情图像序列进行结构纹理分解:
在获取了微表情图像序列的纹理部分之后,可基于纹理部分计算光流。光流,是指两帧图像上像素点移动的速度。其具体计算过程如下:在纹理图像中,假设t时刻(x,y)位置处的像素点灰度值为IT,在t+dt时刻该像素点运动到(x+dx,y+dy)位置处,由灰度恒常约束条件可知:
IT(x,y,t)=IT(x+dx,y+dy,t+dt) 公式2
将上式右边进行泰勒展开,可得,
由于τ是高阶无穷小,因此可得,
进而得到,
其中,是在x方向上的光流分量,为在y方向上的光流分量。在具体计算光流分量时,可基于公式5、以及增加的假设条件进行求解。比如,可采用图4所示的RLOF方法计算光流。关于RLOF方法的详细介绍,可参考现有文献Robust local opticalflow for feature tracking[J].IEEE Transactions on Circuits and Systems forVideo Technology,2012,22(9):1377-1387.这样,即可求解微表情图像序列在x方向上的光流分量矩阵Ut、以及在y方向上的光流分量矩阵Vt。
在步骤S12中,进行光流对齐。
式中,Φ(A)表示矩阵A中等于0的元素的个数,I表示全一矩阵。
然后,根据如下公式计算矫正后的光流分量矩阵;
式中,为矫正后x方向上的光流分量矩阵,为矫正后y方向上的光流分量矩阵,Ut为矫正前x方向上的光流分量矩阵,Vt为矫正前y方向上的光流分量矩阵。
式中,表示光流分量矩阵Ut中元素大小的统计直方图、表示光流分量直方图Vt中元素大小的统计直方图。该统计直方图中各组的频数表示落在该组取值范围的元素对应像素点的个数,u、v表示统计直方图中各组取值范围的中值。在根据公式10、11得到以后,可根据公式8、9计算矫正后x方向、以及y方向的光流分量矩阵。
在步骤S13中,将微表情图像序列划分成R个时空子块,并且对每个时空子块的光流方向进行加权统计,获取第一特征数据X={x1,…xr,…xR|xr∈RD},其中,为第r个时空子块的光流方向加权直方图向量。
在具体实施时,一个时空尺寸为M×N×T的微表情图像序列可被等分成R个时空子块,R=m×n×num-T。其中,m表示对M划分的块数,n表示对N划分的块数,num_T表示对T划分的块数,每个时空子块的尺寸满足并且,可用(bi,bj,bk)表示每个时空子块所处的时空坐标,bi∈{1,2,...m},bj∈{1,2,...n},bk∈{1,2,...num_T}。在将划分出R个时空子块之后,对每个时空子块的光流方向进行加权统计。
在具体实施时,对每个时空子块的光流方向进行加权统计具体包括:统计时空子块上所有像素点的光流向量在已划分的圆周范围内的各个角度区间内的分布数目,并将每个角度区间内的像素点的光流向量幅值进行累加,获取以累加幅值表示的光流直方图向量。然后,对所有时空子块的光流直方图向量进行归一化,以获取第一特征数据。
下面结合图5对获取光流直方图向量的流程进行详细说明。如图5所示,假设一个时空子块包含9个像素点,9个像素点分别用编号①至⑨表示。并且,编号①至⑨对应的光流向量的大小分别是0.72、0.63、0.74、0.70、1.11、0.57、0.34、0.42、1.20。首先,统计这9个像素点的光流向量在已划分好的8个角度区间的数目。其中,编号为0、1、6、7的角度区间的像素数目均为0;编号为2的角度区间存在两个像素点,即②、③;编号为3的角度区间存在1个像素点,即①;编号为4的角度区间存在3个像素点,即④、⑤、⑦;编号为5的角度区间存在三个像素点,即⑥⑧⑨。然后,对8个角度区间的累加幅值进行统计,即可得到该时空子块对应的加权直方图向量(0,0,1.37,0.72,2.15,2.19,0,0)。
步骤S2、对第一特征数据X进行Fisher Vector编码,获取第二特征数据F。
图6为步骤S2的一种实现方法的流程示意图。如图6所示,步骤S2主要包括步骤S21、S22、S23。
对公式12两边取对数,则有:
用高斯混合模型(即K个高斯分布的线性组合)逼近p(xr|λ),则有
式中,pk(xr|λ)是第k个高斯分布的概率密度函数,p(xr|λ)是第一特征数据X中的向量xr的分布。
在步骤S22中,根据最大期望算法(EM)估计高斯混合模型中的参数λ,λ={wk,μk,Σk,k=1,2,...,K}。其中,wk为第k个高斯分布的组合系数,且wk≥0,∑wk=1,μk为第k个高斯分布的均值向量,Σk为第k个高斯分布的协方差矩阵,且Σk满足:
计算梯度归一化系数,即
通过以上步骤,即可获取第二特征数据F,
步骤S3、基于预先训练得到的分类器对第二特征数据F进行识别。
其中,所述分类器的训练过程包括如下步骤:对训练样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;基于第二特征数据F训练分类器。在具体实施时,所述分类器可选用径向基函数支持向量机。
在本发明实施例中,通过采用光流描述微表情图像序列中的细微运动并通过Fisher Vector编码对微表情图像序列的局部光流特征进行编码,形成对微表情序列紧凑的特征表示,更能表征微表情运动的本质,提高微表情识别率。进一步的,通过对微表情图像系列进行结构纹理分解、以及光流对齐,降低了光照和头部抖动对光流的影响,增强了微表情特征对噪声的鲁棒性。
为了进一步体现本发明的技术效果,下面给出一个具体的实验过程。在该实验中,可采用CASMEⅡ数据库中的微表情图像序列进行实验。在具体实验时,采用留一人验证法进行交叉验证,设m=n=10,num-T=3,K=20,并且为降低计算复杂度每次实验从所有训练样本中的第一特征数据中随机选取50000个光流直方图向量用于估计高斯混合模型的参数,分类器选用径向基函数支持向量机。并且,进行了五次实验求取识别率的平均值。表1示出了这五次实验的识别率以及平均识别率。
表1
为了证明本技术方案的技术效果,在实验中我们与其他微表情识别方法进行了对比。表2示出了本发明实施例中的方法与其他微表情识别方法的对比结果。
表2
方法 | 本文方法 | FDM | LBP-top | DTSA |
识别率(%) | 47.29 | 42.02 | 36.50 | 32.45 |
从表2可见,与现有的FDM方法、LBP-TOP方法、DTSA方法相比,本发明实施例的方法的识别率提高了5%~15%。
虽然参照示例性实施方式对本发明进行了描述,但是应当理解,本发明并不局限于文中详细描述和示出的具体实施方式,在不偏离权利要求书所限定的范围的情况下,本领域技术人员可以对所述示例性实施方式做出各种改变。
Claims (8)
1.一种基于光流和Fisher Vector编码的微表情识别方法,其特征在于,所述方法包括:
步骤S1、对测试样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};
步骤S2、对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;
步骤S3、基于预先训练得到的分类器对第二特征数据F进行识别;
其中,步骤S2包括:
S21、利用高斯混合模型逼近第一特征数据X的分布;
式中,pk(xr|λ)是第k个高斯分布的概率密度函数,p(xr|λ)是第一特征数据X中的向量xr的分布;
S22、根据EM算法估计高斯混合模型中的参数λ,λ={wk,μk,Σk,k=1,2,...,K};其中,wk为第k个高斯分布的组合系数,且wk≥0,∑wk=1,μk为第k个高斯分布的均值向量,Σk为第k个高斯分布的协方差矩阵,且Σk满足:
3.如权利要求2所述的方法,其特征在于,在步骤S11之前,步骤S1还包括:
S10、对微表情图像序列进行结构纹理分解,保留图像的纹理分量。
7.如权利要求1所述的方法,其特征在于,所述分类器的训练过程包括如下步骤:
对训练样本中的微表情图像序列进行HOF特征提取,获取第一特征数据X={x1,…xr,…xR|xr∈RD};
对第一特征数据X进行Fisher Vector编码,获取第二特征数据F;
基于第二特征数据F训练分类器。
8.如权利要求7所述的方法,其特征在于,所述分类器为径向基函数支持向量机。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710044499.XA CN106897671B (zh) | 2017-01-19 | 2017-01-19 | 一种基于光流和Fisher Vector编码的微表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710044499.XA CN106897671B (zh) | 2017-01-19 | 2017-01-19 | 一种基于光流和Fisher Vector编码的微表情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106897671A CN106897671A (zh) | 2017-06-27 |
CN106897671B true CN106897671B (zh) | 2020-02-25 |
Family
ID=59199220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710044499.XA Active CN106897671B (zh) | 2017-01-19 | 2017-01-19 | 一种基于光流和Fisher Vector编码的微表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106897671B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107358206B (zh) * | 2017-07-13 | 2020-02-18 | 山东大学 | 一种基于感兴趣区域光流特征的微表情检测方法 |
CN107832691B (zh) * | 2017-10-30 | 2021-10-26 | 北京小米移动软件有限公司 | 微表情识别方法及装置 |
CN108399370A (zh) * | 2018-02-02 | 2018-08-14 | 达闼科技(北京)有限公司 | 表情识别的方法及云系统 |
CN108921037B (zh) * | 2018-06-07 | 2022-06-03 | 四川大学 | 一种基于BN-inception双流网络的情绪识别方法 |
CN110807394A (zh) * | 2019-10-23 | 2020-02-18 | 上海能塔智能科技有限公司 | 情绪识别方法、试驾体验评估方法、装置、设备与介质 |
CN111274978B (zh) * | 2020-01-22 | 2023-05-09 | 广东工业大学 | 一种微表情识别方法及装置 |
CN111461021A (zh) * | 2020-04-01 | 2020-07-28 | 中国科学院心理研究所 | 一种基于光流的微表情检测方法 |
CN111839490B (zh) * | 2020-05-26 | 2021-04-13 | 合肥工业大学 | 非接触式心率监测方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20120064541A (ko) * | 2010-12-09 | 2012-06-19 | 한국전자통신연구원 | 미세 표정 분석을 이용한 사용자 심리 분석 장치 및 방법 |
CN104933416B (zh) * | 2015-06-26 | 2018-11-02 | 复旦大学 | 基于光流场的微表情序列特征提取方法 |
CN105913038B (zh) * | 2016-04-26 | 2019-08-06 | 哈尔滨工业大学深圳研究生院 | 一种基于视频的动态微表情识别方法 |
-
2017
- 2017-01-19 CN CN201710044499.XA patent/CN106897671B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN106897671A (zh) | 2017-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106897671B (zh) | 一种基于光流和Fisher Vector编码的微表情识别方法 | |
CN109726751B (zh) | 基于深度卷积神经网络识别脑电成像图的方法 | |
CN103810490B (zh) | 一种确定人脸图像的属性的方法和设备 | |
CN103116763B (zh) | 一种基于hsv颜色空间统计特征的活体人脸检测方法 | |
CN110399821B (zh) | 基于人脸表情识别的顾客满意度获取方法 | |
CN105740945B (zh) | 一种基于视频分析的人群计数方法 | |
CN111931758B (zh) | 一种结合面部静脉的人脸识别方法及装置 | |
CN109829924B (zh) | 一种基于主体特征分析的图像质量评价方法 | |
CN107967695A (zh) | 一种基于深度光流和形态学方法的运动目标检测方法 | |
CN106529377A (zh) | 一种基于图像的年龄估计方法、装置及系统 | |
CN116311483B (zh) | 基于局部面部区域重构和记忆对比学习的微表情识别方法 | |
CN113537008A (zh) | 基于自适应运动放大和卷积神经网络的微表情识别方法 | |
CN102236786B (zh) | 一种光照自适应的人体肤色检测方法 | |
CN109978907A (zh) | 一种面向家居场景的学生坐姿检测方法 | |
CN109543656A (zh) | 一种基于dcs-ldp的人脸特征提取方法 | |
CN111611909A (zh) | 多子空间域自适应人脸识别方法 | |
CN111611860A (zh) | 一种微表情发生检测方法及检测系统 | |
CN114582003A (zh) | 一种基于云计算服务的睡眠健康管理系统 | |
CN111508528B (zh) | 基于自然音频统计特性的无参考音频质量评价方法和装置 | |
CN112488165A (zh) | 一种基于深度学习模型的红外行人识别方法及系统 | |
CN111652238B (zh) | 一种多模型集成方法及系统 | |
CN109165551B (zh) | 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法 | |
CN104021387B (zh) | 基于视觉建模的人脸图像光照处理方法 | |
CN114419716B (zh) | 一种人脸图像面部关键点标定的校准方法 | |
CN112818950B (zh) | 一种基于生成对抗网络和时间卷积网络的唇语识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200206 Address after: Room 1201-1, Building 2, Shuntai Square, No. 2000 Shunhua Road, Jinan High-tech Zone, Shandong Province Applicant after: Jinan Zhongmagnet Electronics Technology Co., Ltd. Address before: 2 Building No. 1201, Shun Thai Plaza, Ji'nan, Shandong 250101 Applicant before: Shandong China Magnetic Video Co.,Ltd. |
|
TA01 | Transfer of patent application right |