CN112329701A - 一种用于低分辨率图像的人脸表情识别方法 - Google Patents

一种用于低分辨率图像的人脸表情识别方法 Download PDF

Info

Publication number
CN112329701A
CN112329701A CN202011306906.8A CN202011306906A CN112329701A CN 112329701 A CN112329701 A CN 112329701A CN 202011306906 A CN202011306906 A CN 202011306906A CN 112329701 A CN112329701 A CN 112329701A
Authority
CN
China
Prior art keywords
emotional
feature
size
low
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011306906.8A
Other languages
English (en)
Inventor
赵林惠
王健
廣田薰
贾之阳
金晓明
刘欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Technology BIT
Beijing Union University
Original Assignee
Beijing Institute of Technology BIT
Beijing Union University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Technology BIT, Beijing Union University filed Critical Beijing Institute of Technology BIT
Priority to CN202011306906.8A priority Critical patent/CN112329701A/zh
Publication of CN112329701A publication Critical patent/CN112329701A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

本发明公开的一种用于低分辨率图像的人脸表情识别方法,属于模式识别和情感识别领域。本发明实现方法为:提取人脸区域和特征点信息,根据特征点将人脸区域对齐,裁剪得到人脸特征区域;提取特征区域边缘信息,通过判断有无边缘信息获得单图像特征矩阵,累加处理得到情感特征矩阵,去除冗余区域特征信息,保留显著区域特征信息;利用情感特征矩阵构建深度卷积神经网络强化对人脸特征区域中特征的提取,充分利用低分辨率图像的显著特征信息对卷积神经网络模型训练,提高低分辨率图像的情感特征识别精度;通过卷积神经网络模型降低模型训练参数量,提升训练、识别速度;采用Softmax回归模型对情感特征进行识别,实现基于低分辨率图像的高精度情感识别。

Description

一种用于低分辨率图像的人脸表情识别方法
技术领域
本发明属于模式识别和情感识别领域,尤其涉及一种用于低分辨率图像的人脸表情识别方法。
背景技术
面部表情是传达人类情绪的基本方式。赋予计算机识别、理解和表达人的情感的能力,是实现良好人机交互的重要保障。随着深度学习特别是卷积神经网络在图像识别领域的广泛运用,使得图像中人脸表情识别具备越来越高的识别速率和准确率。然而,图像分辨率有高低之分,低分辨率面部图像通常缺乏足够的用于提取特征的视觉信息,从而导致面部表情识别方法的性能下降。低分辨率图像在情感计算领域中普遍存在,比如常用的CK+和JAFFE数据集中的人脸图像、距离镜头较远的人脸图像等。充分利用低分辨率图像的信息特征是提高低分辨率图像识别率的关键。
发明内容
本发明的目的是充分考虑低分辨率图像对表情识别的影响,提供用于低分辨率图像的人脸表情识别方法,该方法对人脸特征区域进行处理分析获得情感特征矩阵,并应用到深度卷积神经网络模型中来强化对人脸特征区域中特征的提取,能够充分利用低分辨率图像的特征信息对卷积神经网络模型进行训练,提高低分辨率图像的情感识别精度。
本发明的目的是通过下述技术方案实现的。
本发明公开的一种用于低分辨率图像的人脸表情识别方法,包括以下步骤:
步骤1:读取表情数据集图像,提取人脸区域和特征点信息,并根据特征点将人脸区域对齐,裁剪得到人脸特征区域;
步骤2:提取人脸特征区域边缘信息,通过判断有无边缘信息获得单图像特征矩阵,通过单图像特征矩阵累加处理得到情感特征矩阵,去除冗余区域特征信息,保留显著区域特征信息。
步骤3:利用情感特征矩阵构建深度卷积神经网络强化对人脸特征区域中特征的提取,充分利用低分辨率图像的显著特征信息对卷积神经网络模型进行训练,提高低分辨率图像的情感特征识别精度,此外,由于卷积神经网络模型仅需要相对高分辨图像较少的层数即能提取低分辨率图像特征信息,进而降低模型训练参数量,提升训练速度和识别速度。
步骤4:采用Softmax回归模型对步骤3的情感特征进行识别,得到情感类别,即实现低分辨率图像的高精度情感识别。
步骤1实现方法为:
步骤1.1:读取表情数据集图像,对输入图像进行人脸检测以及关键点检测,获取人脸区域并校准对齐;
步骤1.2:截取人脸区域并归一化为统一尺寸获得人脸特征区域;
步骤1.3:按照步骤1.1、步骤1.2的操作处理数据集中全部用于训练的图像,得到预处理之后的人脸特征区域数据集L1。
步骤2实现方法为:
步骤2.1:根据输入图像尺寸以及卷积神经网络模型确定特征矩阵维度,将统一尺寸的图像划分为n×n数量的特征块;
步骤2.2:对特征块进行边缘提取,对存在边缘的特征块将其单图像特征矩阵G中的对应位置系数置为1,不存在边缘的特征块置为0;
步骤2.3:从人脸特征区域数据集L1中随机选取l张图像,分别获得单图像特征矩阵G。情感特征矩阵M由公式(1)获得:
Figure BDA0002788586670000021
其中,f(α)为非线性函数
Figure BDA0002788586670000022
β为阈值,B为相关的偏置方便人为控制特征处理。
步骤3实现方法为:
步骤3.1:人脸特征区域数据集L1中的图像先输入到由p个大小为q×q步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为b×b步长为2的最大池化层、Dropout层,之后再次输入到由p个大小为q×q步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为b×b步长为2的最大池化层、Dropout层得到情感特征A1;
步骤3.2:将情感特征A1输入到由2p个大小为q×q步长为1的卷积滤波器组成的卷积层、大小为b×b步长为2的最大池化层得到情感情感特征A2,得到无差别人脸区域特征,并将情感特征A1与步骤2得到的情感特征矩阵数乘后输入到由2p个大小为q×q步长为1的卷积滤波器组成的卷积层、大小为b×b步长为2的最大池化层得到情感特征A3,保留显著区域特征,去除冗余区域特征;
步骤3.3:将情感特征A2和情感特征A2相加输入到Relu激活层,最后通过两个由c个神经元构成的全连接层得到最终情感特征A,加大显著区域特征信息比重,充分利用低分辨率人脸图像显著特征信息。以四层卷积层实现情感特征的提取,降低模型参数量,提高训练速度和识别速度。
作为进一步优选,当处理的低分辨图像像素为128时,步骤3实现方法为:
步骤3.1:人脸特征区域数据集L1中的图像先输入到由64个大小为5×5步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为3×3步长为2的最大池化层、Dropout层,之后再次输入到由64个大小为5×5步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为3×3步长为2的最大池化层、Dropout层得到情感特征A1;
步骤3.2:将情感特征A1输入到由128个大小为5×5步长为1的卷积滤波器组成的卷积层、大小为3×3步长为2的最大池化层得到情感情感特征A2,得到无差别人脸区域特征,并将情感特征A1与步骤2得到的情感特征矩阵数乘后输入到由128个大小为5×5步长为1的卷积滤波器组成的卷积层、大小为3×3步长为2的最大池化层得到情感特征A3,保留显著区域特征,去除冗余区域特征;
步骤3.3:将情感特征A2和情感特征A2相加输入到Relu激活层,最后通过两个由512个神经元构成的全连接层得到最终情感特征A,加大显著区域特征信息比重,充分利用低分辨率人脸图像显著特征信息。以四层卷积层实现情感特征的提取,降低模型参数量,提高训练速度和识别速度。
步骤4实现方法为:
步骤4.1:训练神经网络的同时对Softmax回归模型的进行参数优化,使得代价函数J(θ)最小,其中,
Figure BDA0002788586670000031
其中,(x1,x2,…,xm)为输入的情感特征,(y1,y2,…,yk)为情感特征对应的标签值,m为情感特征数目,k为情感类别数目,1{y(i)=j}为示性函数,
Figure BDA0002788586670000032
为该Softmax回归模型的参数值,
Figure BDA0002788586670000033
为权重衰减项。
步骤4.2:采用预设的函数hθ(xi)估计输入的情感特征xi属于k类情感类别的概率p(y=j|x),概率值最大对应的情感类别即为输入的情感特征xi的情感识别结果,即实现低分辨率图像的高精度情感识别。
hθ(xi)的计算公式为:
Figure BDA0002788586670000041
其中,k为情感类别数目,p(yi=j|xi;θ)为输入情感特征xi属于情感类别j的概率值,所有的概率值和为1。
有益效果:
1、本发明公开的一种用于低分辨率图像的人脸表情识别方法,对人脸特征区域进行处理分析获得情感特征矩阵,并应用到深度卷积神经网络模型中来强化对人脸特征区域中特征的提取,能够充分利用低分辨率图像的特征信息对卷积神经网络模型进行训练,提高低分辨率图像的情感识别精度。
2、本发明公开的一种用于低分辨率图像的人脸表情识别方法,充分利用低分辨率图像的显著特征信息对卷积神经网络模型进行训练,提高低分辨率图像的情感特征识别精度,此外,由于卷积神经网络模型仅需要相对高分辨图像较少的层数即能提取低分辨率图像特征信息,进而降低模型训练参数量,提升训练速度和识别速度。
3、本发明公开的一种用于低分辨率图像的人脸表情识别方法,Softmax回归模型在保证精度的基础上与卷积神经网络更加契合,输出形式简单且计算量很小,因此,采用Softmax回归模型对情感特征进行识别,提高情感类别识别效率和精度。
附图说明
下面结合附图与实施例对本发明进一步说明,附图中:
图1为本发明实施例中一种用于低分辨率图像人脸表情识别方法的流程图;
图2为本发明实施例中一种用于低分辨率图像人脸表情识别方法的框架图;
图3为本发明实施例中一种用于低分辨率图像人脸表情识别方法的特征矩阵;
图4为本发明实施例中一种用于低分辨率图像人脸表情识别方法的深度卷积网络模型结构图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细描述:本发明的实施例提供了一种用于低分辨率图像的人脸表情识别方法。
图1为本发明实施例中一种用于低分辨率图像人脸表情识别方法的流程图,图2为本发明实施例中一种用于低分辨率图像人脸表情识别方法的框架图。一种用于低分辨率图像的人脸表情识别方法共分为四个部分,即数据集预处理,情感特征矩阵计算,情感特征提取以及情感分类识别。本实施例公开的一种用于低分辨率图像的人脸表情识别方法,具体实现步骤如下:
步骤1:读取表情数据集图像,提取人脸区域和特征点信息,并根据特征点将人脸区域对齐,裁剪得到人脸特征区域;
对CK+(The Extended Cohn-Kanade)数据集和JAFFE数据集进行处理,获得人脸区域对齐并归一化统一尺寸128×128,与表情标签对应保存获得数据集L1。
步骤2:提取人脸特征区域边缘信息,通过判断有无边缘信息获得单图像特征矩阵,通过单图像特征矩阵累加处理得到情感特征矩阵;
根据输入图像尺寸以及卷积神经网络模型分析,随机从数据集L1中选取l=50的图像,将其划分为32×32的特征快;对特征块进行边缘提取,对存在边缘的特征块将其单图像特征矩阵G中的对应位置系数置为1,不存在边缘的特征块置为0;根据上述公式(1)矩阵累加并分析处理得到特征矩阵,其中,公式(1)中的参数设置为:β=25,矩阵B由经验获得,简易勾勒五官形状,五官位置系数置为1,其余位置置为0。根据上述方法,本实施例中计算获得的特征矩阵如图3所示。
步骤3:利用情感特征矩阵构建深度卷积神经网络对人脸特征区域进行特征提取;
本实施例中一种用于低分辨率图像人脸情感识别的深度卷积网络结构图由图4所示,数据集L1中的图像输入到由64个大小为5×5步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为3×3步长为2的最大池化层、Dropout层,之后再次输入到由64个大小为5×5步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为3×3步长为2的最大池化层、Dropout层得到情感特征A1;将情感特征A1输入到由128个大小为5×5步长为1的卷积滤波器组成的卷积层、大小为3×3步长为2的最大池化层得到情感特征A2,并将情感特征A与步骤2得到的特征矩阵数乘,再输入到由128个大小为5×5步长为1的卷积滤波器组成的卷积层、大小为3×3步长为2的最大池化层得到情感特征A3;将情感特征A2和情感特征A2相加输入到Relu激活层,最后通过两个由512个神经元构成的全连接层得到最终情感特征A。
步骤4:采用Softmax回归模型对情感特征进行识别,得到情感类别。
表情种类设为7类,即m=7。使用Softmax回归模型对情感特征识别,获得愤怒、蔑视、厌恶、恐惧、高兴、悲伤和惊讶7类表情概率,概率最大者为表情识别结果。
通过上述步骤分别使用CK+数据集和JAFFE数据集进行实验,随机划分为训练集和验证集,其中训练集占总数量的70%,验证集占15%,测试集占15%。使用Adam(Adaptivemoment estimation)算法进行优化,在训练过程中使用数据增强算法,对训练图像进行扩充,提高模型泛化能力,最终在CK+数据集上获得98.94%的准确率,在JAFFE数据集上获得98.63%的准确率。模型结构较为简单,训练参数量为17558727。在使用图片测试时,单张图片的识别时间为毫秒级别;在使用视频测试时,能有效获取远距离人脸图像并准确识别情感,满足实时性要求。本实施例证明本发明提出的方法能够对低分辨率人脸图像实现准确有效的表情识别。
上述实施例为本发明较佳的识别方式,但本发明的实施方式并不受上述实施例的限制,凡是在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种用于低分辨率图像的人脸表情识别方法,其特征在于:包括以下步骤,
步骤1:读取表情数据集图像,提取人脸区域和特征点信息,并根据特征点将人脸区域对齐,裁剪得到人脸特征区域;
步骤2:提取人脸特征区域边缘信息,通过判断有无边缘信息获得单图像特征矩阵,通过单图像特征矩阵累加处理得到情感特征矩阵,去除冗余区域特征信息,保留显著区域特征信息;
步骤3:利用情感特征矩阵构建深度卷积神经网络强化对人脸特征区域中特征的提取,充分利用低分辨率图像的显著特征信息对卷积神经网络模型进行训练,提高低分辨率图像的情感特征识别精度,此外,由于卷积神经网络模型仅需要相对高分辨图像较少的层数即能提取低分辨率图像特征信息,进而降低模型训练参数量,提升训练速度和识别速度;
步骤4:采用Softmax回归模型对步骤3的情感特征进行识别,得到情感类别,即实现低分辨率图像的高精度情感识别。
2.如权利要求1所述的一种用于低分辨率图像的人脸表情识别方法,其特征在于:步骤1实现方法为,
步骤1.1:读取表情数据集图像,对输入图像进行人脸检测以及关键点检测,获取人脸区域并校准对齐;
步骤1.2:截取人脸区域并归一化为统一尺寸获得人脸特征区域;
步骤1.3:按照步骤1.1、步骤1.2的操作处理数据集中全部用于训练的图像,得到预处理之后的人脸特征区域数据集L1。
3.如权利要求2所述的一种用于低分辨率图像的人脸表情识别方法,其特征在于:步骤2实现方法为,
步骤2.1:根据输入图像尺寸以及卷积神经网络模型确定特征矩阵维度,将统一尺寸的图像划分为n×n数量的特征块;
步骤2.2:对特征块进行边缘提取,对存在边缘的特征块将其单图像特征矩阵G中的对应位置系数置为1,不存在边缘的特征块置为0;
步骤2.3:从人脸特征区域数据集L1中随机选取l张图像,分别获得单图像特征矩阵G;情感特征矩阵M由公式(1)获得:
Figure FDA0002788586660000011
其中,f(α)为非线性函数
Figure FDA0002788586660000012
β为阈值,B为相关的偏置方便人为控制特征处理。
4.如权利要求3所述的一种用于低分辨率图像的人脸表情识别方法,其特征在于:步骤3实现方法为,
步骤3.1:人脸特征区域数据集L1中的图像先输入到由p个大小为q×q步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为b×b步长为2的最大池化层、Dropout层,之后再次输入到由p个大小为q×q步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为b×b步长为2的最大池化层、Dropout层得到情感特征A1;
步骤3.2:将情感特征A1输入到由2p个大小为q×q步长为1的卷积滤波器组成的卷积层、大小为b×b步长为2的最大池化层得到情感情感特征A2,得到无差别人脸区域特征,并将情感特征A1与步骤2得到的情感特征矩阵数乘后输入到由2p个大小为q×q步长为1的卷积滤波器组成的卷积层、大小为b×b步长为2的最大池化层得到情感特征A3,保留显著区域特征,去除冗余区域特征;
步骤3.3:将情感特征A2和情感特征A2相加输入到Relu激活层,最后通过两个由c个神经元构成的全连接层得到最终情感特征A,加大显著区域特征信息比重,充分利用低分辨率人脸图像显著特征信息;以四层卷积层实现情感特征的提取,降低模型参数量,提高训练速度和识别速度。
5.如权利要求4所述的一种用于低分辨率图像的人脸表情识别方法,其特征在于:步骤4实现方法为:
步骤4.1:训练神经网络的同时对Softmax回归模型的进行参数优化,使得代价函数J(θ)最小,其中,
Figure FDA0002788586660000021
其中,(x1,x2,…,xm)为输入的情感特征,(y1,y2,…,yk)为情感特征对应的标签值,m为情感特征数目,k为情感类别数目,1{y(i)=j}为示性函数,
Figure FDA0002788586660000022
为该Softmax回归模型的参数值,
Figure FDA0002788586660000023
为权重衰减项;
步骤4.2:采用预设的函数hθ(xi)估计输入的情感特征xi属于k类情感类别的概率p(y=j|x),概率值最大对应的情感类别即为输入的情感特征xi的情感识别结果,即实现低分辨率图像的高精度情感识别;
hθ(xi)的计算公式为:
Figure FDA0002788586660000031
其中,k为情感类别数目,p(yi=j|xi;θ)为输入情感特征xi属于情感类别j的概率值,所有的概率值和为1。
6.如权利要求4或5所述的一种用于低分辨率图像的人脸表情识别方法,其特征在于:当处理的低分辨图像像素为128时,步骤3实现方法为,
步骤3.1:人脸特征区域数据集L1中的图像先输入到由64个大小为5×5步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为3×3步长为2的最大池化层、Dropout层,之后再次输入到由64个大小为5×5步长为1的卷积滤波器组成的卷积层,通过Relu函数激活后输入到大小为3×3步长为2的最大池化层、Dropout层得到情感特征A1;
步骤3.2:将情感特征A1输入到由128个大小为5×5步长为1的卷积滤波器组成的卷积层、大小为3×3步长为2的最大池化层得到情感情感特征A2,得到无差别人脸区域特征,并将情感特征A1与步骤2得到的情感特征矩阵数乘后输入到由128个大小为5×5步长为1的卷积滤波器组成的卷积层、大小为3×3步长为2的最大池化层得到情感特征A3,保留显著区域特征,去除冗余区域特征;
步骤3.3:将情感特征A2和情感特征A2相加输入到Relu激活层,最后通过两个由512个神经元构成的全连接层得到最终情感特征A,加大显著区域特征信息比重,充分利用低分辨率人脸图像显著特征信息;以四层卷积层实现情感特征的提取,降低模型参数量,提高训练速度和识别速度。
CN202011306906.8A 2020-11-20 2020-11-20 一种用于低分辨率图像的人脸表情识别方法 Pending CN112329701A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011306906.8A CN112329701A (zh) 2020-11-20 2020-11-20 一种用于低分辨率图像的人脸表情识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011306906.8A CN112329701A (zh) 2020-11-20 2020-11-20 一种用于低分辨率图像的人脸表情识别方法

Publications (1)

Publication Number Publication Date
CN112329701A true CN112329701A (zh) 2021-02-05

Family

ID=74321712

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011306906.8A Pending CN112329701A (zh) 2020-11-20 2020-11-20 一种用于低分辨率图像的人脸表情识别方法

Country Status (1)

Country Link
CN (1) CN112329701A (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506722A (zh) * 2017-08-18 2017-12-22 中国地质大学(武汉) 一种基于深度稀疏卷积神经网络人脸情感识别方法
US20190102605A1 (en) * 2017-09-29 2019-04-04 Baidu Online Network Technology (Beijing) Co.,Ltd. Method and apparatus for generating information
CN109934158A (zh) * 2019-03-11 2019-06-25 合肥工业大学 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法
CN110532900A (zh) * 2019-08-09 2019-12-03 西安电子科技大学 基于U-Net和LS-CNN的人脸表情识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107506722A (zh) * 2017-08-18 2017-12-22 中国地质大学(武汉) 一种基于深度稀疏卷积神经网络人脸情感识别方法
US20190102605A1 (en) * 2017-09-29 2019-04-04 Baidu Online Network Technology (Beijing) Co.,Ltd. Method and apparatus for generating information
CN109934158A (zh) * 2019-03-11 2019-06-25 合肥工业大学 基于局部强化运动历史图和递归卷积神经网络的视频情感识别方法
CN110532900A (zh) * 2019-08-09 2019-12-03 西安电子科技大学 基于U-Net和LS-CNN的人脸表情识别方法

Similar Documents

Publication Publication Date Title
CN109102037B (zh) 中文模型训练、中文图像识别方法、装置、设备及介质
CN110532900B (zh) 基于U-Net和LS-CNN的人脸表情识别方法
CN108664996B (zh) 一种基于深度学习的古文字识别方法及系统
CN111126069B (zh) 一种基于视觉对象引导的社交媒体短文本命名实体识别方法
CN110399821B (zh) 基于人脸表情识别的顾客满意度获取方法
CN112464865A (zh) 一种基于像素和几何混合特征的人脸表情识别方法
CN110321805B (zh) 一种基于时序关系推理的动态表情识别方法
CN112862024B (zh) 一种文本识别方法及系统
CN113920516B (zh) 一种基于孪生神经网络的书法字骨架匹配方法及系统
CN110956082A (zh) 基于深度学习的人脸关键点检测方法和检测系统
CN113255557A (zh) 一种基于深度学习的视频人群情绪分析方法及系统
CN112766283A (zh) 一种基于多尺度卷积网络的两相流流型识别方法
CN116030396A (zh) 一种用于视频结构化提取的精确分割方法
CN114428860A (zh) 院前急救病例文本的识别方法、装置、终端及存储介质
CN111931630B (zh) 一种基于人脸特征点数据增强的动态表情识别方法
KR102150204B1 (ko) 변형 vgg 모델의 전처리를 이용한 부품도면 문자 인식 방법
CN116884067A (zh) 一种基于改进的隐式语义数据增强的微表情识别方法
CN112329701A (zh) 一种用于低分辨率图像的人脸表情识别方法
CN113361666B (zh) 一种手写字符识别方法、系统及介质
CN115512422A (zh) 基于注意力机制的卷积神经网络面部情绪识别方法及系统
CN110688880A (zh) 一种基于精简ResNet残差网络的车牌识别方法
CN113052132A (zh) 基于面部关键点轨迹特征图的视频情感识别方法
CN109886149B (zh) 一种基于稀疏表示的双字典和多特征融合决策人脸表情识别方法
Chen et al. Design and Implementation of Second-generation ID Card Number Identification Model based on TensorFlow
CN112200216A (zh) 汉字识别方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination