CN109299653A - 一种基于改进完备局部三值模式的人脸表情特征提取方法 - Google Patents
一种基于改进完备局部三值模式的人脸表情特征提取方法 Download PDFInfo
- Publication number
- CN109299653A CN109299653A CN201810885142.9A CN201810885142A CN109299653A CN 109299653 A CN109299653 A CN 109299653A CN 201810885142 A CN201810885142 A CN 201810885142A CN 109299653 A CN109299653 A CN 109299653A
- Authority
- CN
- China
- Prior art keywords
- cltp
- human face
- value
- face expression
- complete
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2136—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on sparsity criteria, e.g. with an overcomplete basis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24147—Distances to closest patterns, e.g. nearest neighbour classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明请求保护一种基于改进完备局部三值模式的人脸表情特征提取方法,该方法包括步骤:对人脸表情图像应用梯度算子计算人脸表情梯度图像;分别对梯度图像的符号分量、幅度分量和中心像素值进行编码;对梯度图像的符号分量、幅度分量和中心像素值的编码值进行组合得到完备局部三值模式;将两个不同邻域的完备局部三值模式进行融合得到改进完备局部三值模式。本发明解决了其他方法可能将不同的模式归为同一类的问题,而且还对随机噪声和光照变化具有较好的鲁棒性,并且使得人脸表情特征能够包含更多更精确到人脸表情纹理信息,可以获得较高的人脸表情识别率。
Description
技术领域
本发明属于图像处理与模式识别领域,特别是一种基于改进完备局部三值模式的人脸表情特征提取方法。
背景技术
人脸表情识别作为情感识别的一个方面,在人际交流中起到了非常重要的作用,不仅是展示情绪,更是传播情感信息与协调双方关系的重要方式。研究表明,在人类的日常交流中,通过人脸表情传递的信息高达信息总量的55%,而通过声音、语言传递的信息分别占信息总量的38%和7%。通过识别人脸表情可以获取大量有价值的信息,因此基于人类视觉特征,采用计算机技术,对人脸表情特征进行分类的人脸表情识别成为人机交互、情感计算、机器视觉等领域的重要研究课题。
对于人脸表情识别而言,从人脸图像中提取有效的人脸表情特征是极其重要的。而局部二值模式(Local Binary Pattern,LBP)及其变种由于在人脸表情识别中强大的性能而受到关注。LBP通过量化关于中心像素的局部邻域的相邻灰度级来对图像的局部纹理进行编码。尽管使用灰度值来编码图像纹理的LBP在计算上是高效的,但是在非单调照明变化和随机噪声的存在下表现出很差的性能,因为即使是灰度很小的变化都可以很容易地改变LBP编码值。局部方向模式(Local Direction Pattern,LDP)采用与LBP不同的纹理编码方案,其中方向边缘响应值被用于代替灰度值。虽然LDP已经被证明优于LBP,但由于其两级判别编码方案导致它趋于在均匀和近似均匀的区域产生不一致的模式,并且严重依赖于边缘方向参数的数量。后来,引入了局部三值模式(Local Ternary Pattern,LTP),将两级判别编码扩展为三级编码增加了灰度级的分辨等级,不仅增强了分辨均匀和近似均匀区域的鲁棒性,还克服了LBP对噪声敏感的问题。而LTP是对LBP的扩展,所以LTP继承了LBP可能将两种或多种不同的模式错误地归到同一类模式中,从而降低其区分度的缺点。而完备局部三值模式(Completed Local Ternary Pattern,CLTP)不仅继承了LTP的优点,还解决了对不同的模式可能会归入同一类模式的问题。CLTP不仅对图像的符号信息进行编码,还对图像的幅度信息和中心像素值进行编码。因此,每种模式都由这三者的编码值联合表示,所以CLTP不会出现将不同的模式归入同一类模式的问题。尽管CLTP在纹理识别中表现出了优越的性能,然而在人脸表情识别中表现出了识别率不高的问题。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种获得较高识别率、具有较强鲁棒性的基于改进完备局部三值模式的人脸表情特征提取方法。本发明的技术方案如下:
一种基于改进完备局部三值模式的人脸表情特征提取方法,其包括以下步骤:
S1、输入人脸表情图像,应用梯度算子计算人脸表情图像的梯度,将人脸表情梯度图像用于后续的特征提取;
S2、将人脸表情梯度图像划分成不重叠的子区域,J0,J1,J2,...,Jt-1,其中t是非重叠区域的数量;
S3、在中心像素邻域内,统计中心像素与邻域像素值,将图像的局部差异分解为正负方向上的符号分量和幅度分量;
S4、使用正负方向上的符号分量建立符号分量编码值CLTP_S;
S5、使用正负方向上的幅度分量建立符号分量编码值CLTP_M;
S6、使用中心像素值和整幅图像的平均灰度建立中心像素编码值CLTP_C;
S7、将CLTP_S、CLTP_M和CLTP_C进行组合得到完备局部三值模式;
S8、将在N1和N2邻域下提取的完备局部三值模式特征向量采用串联或者并联的方法进行融合得到改进的完备局部三值模式特征向量,应用K近邻联合稀疏表示分类器对融合信息进行分类并识别人脸表情。
进一步的,所述N1为(8,1),N2为(16,3)。
进一步的,所述步骤S1计算人脸表情图像梯度的等式为:
其中I为原始图像,而Gx与Gy分别为Sobel梯度算子水平和垂直方向上的3×3内核,Ix和Iy分别代表水平和垂直滤波的结果,而梯度算子使用Scharr算子,其内核如下:
将Ix和Iy组合起来给出近似梯度:
或者用下面的公式代替:
IG=|Ix|+|Iy|,IG表示为梯度图像。
进一步的,所述步骤S3将梯度图像的局部差异分解的等式为:
gc和gp分别为中心像素灰度值与邻域像素灰度值,t为控制参数,supper和slower分别为正负方向上的符号分量,mupper和mlower为正负方向上的幅度分量;
进一步的,所述步骤S4利用supper和slower来建立符号分量编码值CLTP_SP,R:
CLTP_SP,R就是将和结合在一起,如下所示:
gc和gp分别为中心像素灰度值与邻域像素灰度值,P表示其邻域里所包含的像素个数总数,R是邻域的半径,t为控制参数。表示正方向的符号分量编码值,表示负方向上的符号分量编码值。
进一步的,所述步骤S5利用mupper和mlower来建立幅度分量编码值CLTP_MP,R:
gc和gp分别为中心像素灰度值与邻域像素灰度值,P表示其邻域里所包含的像素个数总数,R是邻域的半径,t为控制参数。表示正方向的幅度分量编码值,表示负方向上的幅度分量编码值。
进一步的,所述步骤S6利用中心像素值gc和整幅图的平均灰度cI来建立CLTP_CP,R:
表示正方向的中心像素编码值,gupper表示正方向的中心像素灰度值,
表示负方向的中心像素编码值,glower表示负方向的中心像素灰度值
进一步的,所述步骤S7将CLTP_S、CLTP_M和CLTP_C进行组合得到完备局部三值模式算子,具体包括:CLTP算子通过串联或者并联的方式进行组合,第一种组合方式,将这三个算子全部并联形成一个3-D联合直方图,称为CLTP_S/M/C;第二种组合方式,将符号或幅度分量与CLTP_C并联形成一个2-D联合直方图,称为CLTP_S/C或CLTP_M/C,然后将其转换为1-D直方图,接着与CLTP_M或CLTP_S串联,形成一个联合直方图,称为CLTP_S_M/C或CLTP_M_S/C。
进一步的,所述应用K近邻联合稀疏表示分类器对融合信息进行分类并识别人脸表情,具体包括:首先,从所有训练样本中找出给定测试样本的K个最近邻;接着,用这K个最近邻表示测试样本,可以通过求解L1优化问题来获得稀疏表示稀疏。最后,计算测试样本与属于每一类的最近邻之间的残差,将测试样本归类为残差最小的一类。
本发明的优点及有益效果如下:
本发明将梯度算子应用于原始图像来生成人脸表情梯度图像,再对梯度图像进行特征提取,即利用更强大的梯度幅度值代替灰度值进行编码,使得表情特征能包含更精确的表情纹理信息。而完备局部三值模式不仅对图像的符号信息进行编码,还对图像的幅度信息和中心像素值进行编码。因此,每种模式都由这三者的编码值联合表示,所以CLTP不会出现将不同的模式归入同一类模式的问题。并且还继承了局部三值模式的优点,即对随机噪声和光照变化的具有更好的鲁棒性。而将两个不同邻域下的CLTP特征,即CLTP8,1与CLTP16,3特征,并将它们两个的结果进行融合作为输入分类器的人脸表情特征,使得人脸表情特征包含了比单个CLTP特征更多的表情纹理信息。改进的完备局部三值模式在继承了CLTP优点的同时,还使人脸表情特征包含了更多更精确的人脸表情信息,有利于提高人脸表情的识别率。
附图说明
图1是本发明提供优选实施例基于完备局部三值模式的人脸表情特征提取方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
如图1所示,本发明提供了一种基于完备局部三值模式的人脸表情特征提取方法,其包括以下步骤:
S1、使用Sobel或者Scharr梯度算子计算人脸表情图像的梯度,将人脸表情梯度图像用于后续的特征提取,图像梯度计算如下:
其中I为原始图像,而Gx与Gy分别为Sobel梯度算子水平和垂直方向上的3×3内核。Ix和Iy分别代表水平和垂直滤波的结果。而Scharr梯度算子内核如下:
通常将Ix和Iy组合起来给出近似梯度:
另外有时,也可用下面更简单的公式代替:
IG=|Ix|+|Iy|
IG表示为梯度图像;
S2、将人脸表情图像划分成不重叠的子区域,J0,J1,J2,...,Jt-1,其中t是非重叠区域的数量;
S3、在像素邻域内,统计中心像素与邻域像素值,将图像的局部差异分解为正负方向上的符号分量supper、slower和幅度分量mupper、mlower;
S4、使用正负方向上的符号分量supper和slower建立符号分量编码值CLTP_S:
CLTP_SP,R就是将和结合在一起,如下所示:
S5、使用正负方向上的幅度分量mupper和mlower建立符号分量编码值CLTP_M:
gc和gp分别为中心像素灰度值与邻域像素灰度值,t为控制参数。
S6、使用中心像素值gc和整幅图的平均灰度cI建立中心像素编码值CLTP_C:
S7、将CLTP_S、CLTP_M和CLTP_C进行组合得到完备局部三值模式。CLTP算子可以通过串联或者并联的方式进行组合,第一种组合方式,将这三个算子全部并联形成一个3-D联合直方图,称为CLTP_S/M/C;第二种组合方式,将符号或幅度分量与CLTP_C并联形成一个2-D联合直方图,称为CLTP_S/C或CLTP_M/C,然后将其转换为1-D直方图,接着与CLTP_M或CLTP_S串联,形成一个联合直方图,称为CLTP_S_M/C或CLTP_M_S/C。
S8、为了获得包含更多人脸表情信息的特征,将在(8,1)和(16,3)邻域下提取的完备局部三值模式特征向量进行融合得到改进的完备局部三值模式特征向量,应用K近邻联合稀疏表示分类器对融合信息进行分类并识别人脸表情。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。
Claims (9)
1.一种基于改进完备局部三值模式的人脸表情特征提取方法,其特征在于,包括以下步骤:
S1、输入人脸表情图像,应用梯度算子计算人脸表情图像的梯度,将人脸表情梯度图像用于后续的特征提取;
S2、将人脸表情梯度图像划分成不重叠的子区域,J0,J1,J2,...,Jt-1,其中t是非重叠区域的数量;
S3、在中心像素邻域内,统计中心像素与邻域像素值,将图像的局部差异分解为正负方向上的符号分量和幅度分量;
S4、使用正负方向上的符号分量建立符号分量编码值CLTP_S;
S5、使用正负方向上的幅度分量建立符号分量编码值CLTP_M;
S6、使用中心像素值和整幅图像的平均灰度建立中心像素编码值CLTP_C;
S7、将CLTP_S、CLTP_M和CLTP_C进行组合得到完备局部三值模式;
S8、将在N1和N2邻域下提取的完备局部三值模式特征向量采用串联或者并联的方法进行融合得到改进的完备局部三值模式特征向量,应用K近邻联合稀疏表示分类器对融合信息进行分类并识别人脸表情。
2.根据权利要求1所述的基于改进完备局部三值模式的人脸表情特征提取方法,其特征在于,所述N1为(8,1),N2为(16,3)。
3.根据权利要求1所述的基于改进完备局部三值模式的人脸表情特征提取方法,其特征在于,所述步骤S1计算人脸表情图像梯度的等式为:
其中I为原始图像,而Gx与Gy分别为Sobel梯度算子水平和垂直方向上的3×3内核,Ix和Iy分别代表水平和垂直滤波的结果,而梯度算子使用Scharr算子,其内核如下:
将Ix和Iy组合起来给出近似梯度:
或者用下面的公式代替:
IG=|Ix|+|Iy|,IG表示为梯度图像。
4.根据权利要求1所述的基于改进完备局部三值模式的人脸表情特征提取方法,其特征在于,所述步骤S3将梯度图像的局部差异分解的等式为:
gc和gp分别为中心像素灰度值与邻域像素灰度值,t为控制参数,supper和slower分别为正负方向上的符号分量,mupper和mlower为正负方向上的幅度分量。
5.根据权利要求4所述的基于改进完备局部三值模式的人脸表情特征提取方法,其特征在于,所述步骤S4利用supper和slower来建立符号分量编码值CLTP_SP,R:
CLTP_SP,R就是将和结合在一起,如下所示:
gc和gp分别为中心像素灰度值与邻域像素灰度值,P表示其邻域里所包含的像素个数总数,R是邻域的半径,t为控制参数,表示正方向的符号分量编码值,表示负方向上的符号分量编码值。
6.根据权利要求5所述的基于改进完备局部三值模式的人脸表情特征提取方法,其特征在于,所述步骤S5利用mupper和mlower来建立幅度分量编码值CLTP_MP,R:
gc和gp分别为中心像素灰度值与邻域像素灰度值,P表示其邻域里所包含的像素个数总数,R是邻域的半径,t为控制参数,表示正方向的幅度分量编码值,表示负方向上的幅度分量编码值。
7.根据权利要求6所述的基于改进完备局部三值模式的人脸表情特征提取方法,其特征在于,所述步骤S6利用中心像素值gc和整幅图的平均灰度cI来建立CLTP_CP,R:
表示正方向的中心像素编码值,gupper表示正方向的中心像素灰度值,表示负方向的中心像素编码值,glower表示负方向的中心像素灰度值。
8.根据权利要求7所述的基于改进完备局部三值模式的人脸表情特征提取方法,其特征在于,所述步骤S7将CLTP_S、CLTP_M和CLTP_C进行组合得到完备局部三值模式算子,具体包括:CLTP算子通过串联或者并联的方式进行组合,第一种组合方式,将这三个算子全部并联形成一个3-D联合直方图,称为CLTP_S/M/C;第二种组合方式,将符号或幅度分量与CLTP_C并联形成一个2-D联合直方图,称为CLTP_S/C或CLTP_M/C,然后将其转换为1-D直方图,接着与CLTP_M或CLTP_S串联,形成一个联合直方图,称为CLTP_S_M/C或CLTP_M_S/C。
9.根据权利要求2所述的基于改进完备局部三值模式的人脸表情特征提取方法,其特征在于,所述应用K近邻联合稀疏表示分类器对融合信息进行分类并识别人脸表情,具体包括:首先,从所有训练样本中找出给定测试样本的K个最近邻;接着,用这K个最近邻表示测试样本,可以通过求解L1优化问题来获得稀疏表示稀疏。最后,计算测试样本与属于每一类的最近邻之间的残差,将测试样本归类为残差最小的一类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810885142.9A CN109299653A (zh) | 2018-08-06 | 2018-08-06 | 一种基于改进完备局部三值模式的人脸表情特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810885142.9A CN109299653A (zh) | 2018-08-06 | 2018-08-06 | 一种基于改进完备局部三值模式的人脸表情特征提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109299653A true CN109299653A (zh) | 2019-02-01 |
Family
ID=65172775
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810885142.9A Pending CN109299653A (zh) | 2018-08-06 | 2018-08-06 | 一种基于改进完备局部三值模式的人脸表情特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109299653A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978846A (zh) * | 2019-03-18 | 2019-07-05 | 哈尔滨商业大学 | 一种基于体局部方向三值模式的肺结节纹理特征提取系统及方法 |
CN110348284A (zh) * | 2019-05-20 | 2019-10-18 | 天津科技大学 | 基于局部方向纹理模式的遮挡人脸识别特征提取方法 |
CN112464901A (zh) * | 2020-12-16 | 2021-03-09 | 杭州电子科技大学 | 基于梯度脸局部高阶主方向模式的人脸特征提取方法 |
CN112507847A (zh) * | 2020-12-03 | 2021-03-16 | 江苏科技大学 | 一种基于邻域像素差加权模式的人脸反欺诈方法 |
CN115035566A (zh) * | 2022-05-07 | 2022-09-09 | 北京大学深圳医院 | 表情识别方法、装置、计算机设备和计算机可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663426A (zh) * | 2012-03-29 | 2012-09-12 | 东南大学 | 一种基于小波多尺度分析和局部三值模式的人脸识别方法 |
CN105069447A (zh) * | 2015-09-23 | 2015-11-18 | 河北工业大学 | 一种人脸表情的识别方法 |
CN105787492A (zh) * | 2016-04-01 | 2016-07-20 | 电子科技大学 | 基于均值采样的局部三值模式纹理特征提取方法 |
CN107135664A (zh) * | 2015-12-21 | 2017-09-05 | 厦门中控生物识别信息技术有限公司 | 一种人脸识别的方法以及人脸识别装置 |
CN107169524A (zh) * | 2017-05-31 | 2017-09-15 | 中国矿业大学(北京) | 基于完备局部二值模式重构残差的煤岩识别方法 |
CN107273855A (zh) * | 2017-06-17 | 2017-10-20 | 南京理工大学 | 基于高阶导数线性局部算子的光照不变人脸识别方法 |
CN107463917A (zh) * | 2017-08-16 | 2017-12-12 | 重庆邮电大学 | 一种基于改进的ltp与二维双向pca融合的人脸特征提取方法 |
-
2018
- 2018-08-06 CN CN201810885142.9A patent/CN109299653A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663426A (zh) * | 2012-03-29 | 2012-09-12 | 东南大学 | 一种基于小波多尺度分析和局部三值模式的人脸识别方法 |
CN105069447A (zh) * | 2015-09-23 | 2015-11-18 | 河北工业大学 | 一种人脸表情的识别方法 |
CN107135664A (zh) * | 2015-12-21 | 2017-09-05 | 厦门中控生物识别信息技术有限公司 | 一种人脸识别的方法以及人脸识别装置 |
CN105787492A (zh) * | 2016-04-01 | 2016-07-20 | 电子科技大学 | 基于均值采样的局部三值模式纹理特征提取方法 |
CN107169524A (zh) * | 2017-05-31 | 2017-09-15 | 中国矿业大学(北京) | 基于完备局部二值模式重构残差的煤岩识别方法 |
CN107273855A (zh) * | 2017-06-17 | 2017-10-20 | 南京理工大学 | 基于高阶导数线性局部算子的光照不变人脸识别方法 |
CN107463917A (zh) * | 2017-08-16 | 2017-12-12 | 重庆邮电大学 | 一种基于改进的ltp与二维双向pca融合的人脸特征提取方法 |
Non-Patent Citations (2)
Title |
---|
ROSS P. HOLDER 等: "Improved gradient local ternary patternsfor facial expression recognition", 《HOLDER AND TAPAMO EURASIP JOURNAL ON IMAGE AND VIDEO PROCESSING》 * |
TAHA H. RASSEM 等: "Performance Evaluation of Completed Local Ternary Patterns (CLTP) for Medical, Scene and Event Image Categorisation", 《2015 4TH INTERNATIONAL CONFERENCE ON SOFTWARE ENGINEERING AND COMPUTER SYSTEMS (ICSECS)》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109978846A (zh) * | 2019-03-18 | 2019-07-05 | 哈尔滨商业大学 | 一种基于体局部方向三值模式的肺结节纹理特征提取系统及方法 |
CN109978846B (zh) * | 2019-03-18 | 2021-01-29 | 哈尔滨商业大学 | 一种基于体局部方向三值模式的肺结节纹理特征提取系统及方法 |
CN110348284A (zh) * | 2019-05-20 | 2019-10-18 | 天津科技大学 | 基于局部方向纹理模式的遮挡人脸识别特征提取方法 |
CN112507847A (zh) * | 2020-12-03 | 2021-03-16 | 江苏科技大学 | 一种基于邻域像素差加权模式的人脸反欺诈方法 |
CN112464901A (zh) * | 2020-12-16 | 2021-03-09 | 杭州电子科技大学 | 基于梯度脸局部高阶主方向模式的人脸特征提取方法 |
CN112464901B (zh) * | 2020-12-16 | 2024-02-02 | 杭州电子科技大学 | 基于梯度脸局部高阶主方向模式的人脸特征提取方法 |
CN115035566A (zh) * | 2022-05-07 | 2022-09-09 | 北京大学深圳医院 | 表情识别方法、装置、计算机设备和计算机可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109299653A (zh) | 一种基于改进完备局部三值模式的人脸表情特征提取方法 | |
Ye et al. | PurifyNet: A robust person re-identification model with noisy labels | |
CN106960202B (zh) | 一种基于可见光与红外图像融合的笑脸识别方法 | |
Han et al. | Two-stage learning to predict human eye fixations via SDAEs | |
CN101482923B (zh) | 视频监控中人体目标的检测与性别识别方法 | |
Li et al. | Hierarchical feature fusion network for salient object detection | |
Wang et al. | Background-driven salient object detection | |
CN108830237B (zh) | 一种人脸表情的识别方法 | |
WO2019076227A1 (zh) | 人脸图像分类方法、装置及服务器 | |
CN106874826A (zh) | 人脸关键点跟踪方法和装置 | |
CN109753950A (zh) | 动态人脸表情识别方法 | |
CN112950661A (zh) | 一种基于注意力生成对抗网络人脸卡通画生成方法 | |
CN106971158B (zh) | 一种基于CoLBP共生特征与GSS特征的行人检测方法 | |
CN104021381B (zh) | 一种基于多层级特征的人体动作识别方法 | |
CN110188708A (zh) | 一种基于卷积神经网络的人脸表情识别方法 | |
Lai et al. | Real-time micro-expression recognition based on ResNet and atrous convolutions | |
CN114758288A (zh) | 一种配电网工程安全管控检测方法及装置 | |
CN107463917A (zh) | 一种基于改进的ltp与二维双向pca融合的人脸特征提取方法 | |
CN112907595B (zh) | 一种表面缺陷检测方法及装置 | |
CN103886619A (zh) | 一种融合多尺度超像素的目标跟踪方法 | |
Tang et al. | An automatic recognition of tooth-marked tongue based on tongue region detection and tongue landmark detection via deep learning | |
CN112883941A (zh) | 一种基于并行神经网络的人脸表情识别方法 | |
Du et al. | Boundary-sensitive network for portrait segmentation | |
Jia et al. | Saliency detection via a unified generative and discriminative model | |
Allaert et al. | Advanced local motion patterns for macro and micro facial expression recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190201 |