CN114944000A - 一种基于多尺度特征提取的人脸表情识别模型 - Google Patents
一种基于多尺度特征提取的人脸表情识别模型 Download PDFInfo
- Publication number
- CN114944000A CN114944000A CN202210632822.6A CN202210632822A CN114944000A CN 114944000 A CN114944000 A CN 114944000A CN 202210632822 A CN202210632822 A CN 202210632822A CN 114944000 A CN114944000 A CN 114944000A
- Authority
- CN
- China
- Prior art keywords
- historical
- image
- expression
- training
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008921 facial expression Effects 0.000 title claims abstract description 24
- 238000000605 extraction Methods 0.000 title claims abstract description 16
- 230000014509 gene expression Effects 0.000 claims abstract description 79
- 238000012549 training Methods 0.000 claims abstract description 48
- 238000012360 testing method Methods 0.000 claims abstract description 37
- 239000013598 vector Substances 0.000 claims abstract description 31
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 21
- 238000012706 support-vector machine Methods 0.000 claims abstract description 14
- 238000012545 processing Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 5
- 230000008901 benefit Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 206010063659 Aversion Diseases 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及图像处理技术领域,具体涉及一种基于多尺度特征提取的人脸表情识别模型,包括从当前表情数据库中获取训练样本,采用训练样本对3D卷积神经网络进行训练,并保存训练得到的网络模型,从历史表情数据库中获取测试样本,采用测试样本对训练得到的网络模型进行测试,并保存测试后的网络模型,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行训练,所述的历史表情数据库中存储有与当前表情数据库属于同一人物的历史表情数据,调取的测试样本包括与训练样本中标记为同一人物的历史表情数据。采用本发明方案,可以自行验证训练样本和测试样本的可靠性,以提高人脸表情识别的准确性。
Description
技术领域
本发明涉及图像处理技术领域,具体涉及一种基于多尺度特征提取的人脸表情识别模型。
背景技术
随着机器学习和深度神经网络两个领域的迅速发展以及智能设备的普及,人脸识别技术正在经历前所未有的发展。目前,基于这项技术的市场发展和具体应用正呈现蓬勃发展态势。面部表情是面部肌肉的一个或多个动作或状态的结果。这些运动表达了个体对观察者的情绪状态。面部表情是非语言交际的一种形式。它是表达人类之间的社会信息的主要手段,人脸表情识别(facialexpression recognition,FER)作为人脸识别技术中的一个重要组成部分,近年来在人机交互、安全、机器人制造、自动化、医疗、通信和驾驶领域得到了广泛的关注。
在现有技术中,有采用3D卷积神经网络进行训练而得到用于人脸表情识别的网络模型技术,即随机从同一表情数据库获取到训练集后,将训练集按照预先设定比例划分为训练样本和测试样本,通过训练样本对3D卷积神经网络进行训练,通过测试样本对3D卷积神经网络进行测试,虽然能得到网络模型,但仍存在的不足之处在于:无法验证训练样本和/或测试样本的有效性和可靠性,若训练样本和/或测试样本本身存在不准确问题,则得到的网络模型也将不可靠,导致采用这种网络模型进行人脸表情识别时,人脸表情识别准确性低。
发明内容
本发明意在提供一种具备自行验证训练样本和测试样本可靠性的基于多尺度特征提取的人脸表情识别模型,以提高人脸表情识别准确性。
一种基于多尺度特征提取的人脸表情识别模型,包括从当前表情数据库中获取训练样本,采用训练样本对3D卷积神经网络进行训练,并保存训练得到的网络模型,从历史表情数据库中获取测试样本,采用测试样本对训练得到的网络模型进行测试,并保存测试后的网络模型,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行训练,所述的历史表情数据库中存储有与当前表情数据库属于同一人物的历史表情数据,调取的测试样本包括与训练样本中标记为同一人物的历史表情数据。
本发明的有益效果在于:从当前表情数据库中获取训练样本,从历史表情数据库中获取测试样本,而历史表情数据库中存储有与当前表情数据库属于同一人物的历史表情数据,调取的测试样本包括与训练样本中标记为同一人物的历史表情数据,也即训练样本中有某人的表情数据,那么在测试样本中也存在同一个人相同的表情数据,通过此种方式,只需要对比分析采用训练样本的训练结果和采用测试样本的测试结果是否一致或者相似度是否极高,若一致或者相似度极高,则说明训练样本和测试样本具备可靠性,以此得到的网络模型其准确性也将大大提高。若训练结果与训练样本数据相差较大,但是训练结果与测试结果一致或者相似度极高,则说明训练样本数据存在问题,需要重新选取训练样本部分数据,同样的,若测试结果与测试样本数据相差较大,但是测试结果与训练结果一致或者相似度极高,则说明测试样本数据存在问题,需要重新选取测试样本部分数据,经此样本优化之后,采用3D卷积神经网络所训练和测试的网络模型将更加可靠,准确性高。
进一步地,输入待测图像,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行一次分类。
有益效果:以此,实现对待测图像表情识别的一次分类,也就是初步分类。
进一步地,调取待测图像中人物的历史图像集,从历史图像集中调取与本次待测图像相似度最高的待测历史图像。
有益效果:为了对同一人物表情识别结果的一次分类进行验证,调取待测图像中人物的历史图像集,从历史图像集中调取与本次待测图像相似度最高的待测历史图像,以对该待测历史图像进行分类验证。
进一步地,输入待测历史图像,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行二次分类,根据一次分类和二次分类确定最终待测图像的表情分类。
有益效果:输入待测历史图像,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行二次分类,根据一次分类和二次分类确定最终待测图像的表情分类,由于待测历史图像是与本次待测图像相似度最高的待测历史图像,因此对待测历史图像表情识别结果的二次分类,可用于验证一次分类结果的准确性,若一次分类和二次分类结果一致或者差别很小,则说明一次分类是准确的,以此实现对待测图像表情识别结果的一次分类的验证,从而确保分类的准确性。
进一步地,还包括对与历史待测图像相对应的历史周围环境图像进行处理,并识别历史周围环境图像中是否存在其他人,若存在,则进一步识别历史周围环境图像中其他人的表情类型,根据其他人的表情类型来验证所述历史待测图像中的人物表情的二次分类,根据验证后的历史待测图像的二次分类和一次分类最终确定所述待测图像中的表情分类。
有益效果:识别历史周围环境图像中是否存在其他人,若存在,则进一步识别历史周围环境图像中其他人的表情类型,以此根据其他人的表情类型来验证所述历史待测图像中的人物表情的二次分类,确保二次分类结果的准确性。
人们通常处于某种环境中,从对历史周围环境图像的分析中,可以反应历史待测图像中人物所处环境情况,若周围环境中还存在其他人,那么其他人的表情会表达出图像中的主体氛围,如其他人都在笑,那么通常历史待测图像中人物也应该是在笑,据此,就可对二次分类结果进行验证,在确保二次分类结果准确无误的情况下,根据验证后的历史待测图像的二次分类和一次分类最终确定所述待测图像中的表情分类,使待测图像的表情分类更加准确。
进一步地,所述的特征向量包括图像中的形状特征向量和纹理特征向量。
有益效果:以此,从多尺度特征,即形状特征和纹理特征来实现人脸表情的识别。
附图说明
图1为本发明一种基于多尺度特征提取的人脸表情识别模型实施例的示意图。
具体实施方式
下面通过具体实施方式进一步详细说明:
实施例基本如附图1所示,本实施例公开的一种基于多尺度特征提取的人脸表情识别模型,其中数据库包括了当前表情数据库和历史表情数据库,所述的历史表情数据库中存储有与当前表情数据库属于同一人物的历史表情数据,即同一个人物,当前表情数据库存储的是当前一段时间(如近一个月内)采集的表情数据,而历史表情数据库存储的是当前一段时间之前(如前三个月到前五个月之间)采集的表情数据。
基于多尺度特征提取的人脸表情识别模型,具体包括从当前表情数据库中获取训练样本,采用训练样本对3D卷积神经网络进行训练,并保存训练得到的网络模型,从历史表情数据库中获取测试样本,采用测试样本对训练得到的网络模型进行测试,并保存测试后的网络模型,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行训练,其中调取的测试样本包括与训练样本中标记为同一人物的历史表情数据,即训练样本中有某人的表情数据,那么在测试样本中也存在同一个人相同的表情数据。
在本实施例中,3D卷积神经网络的结构包括:输入层、卷积层一、池化层一、卷积层二、池化层二、全连接层一、全连接层二和输出层。其中输入层、卷积层一、池化层一、卷积层二、池化层二、全连接层一、全连接层二和输出层依次相连,在全连接层二后设置推出,dropout值为0.5,卷积层中,卷积核的大小为3*5*5,3是时间维度上的深度,5*5是卷积核的空间大小,并且在三个维度上移动的步长均为1,卷积层一采用32个不同的3D卷积核,卷积层二采用64个不同的3D卷积核,全连接层一输出9600个神经元,全连接层二输出256个神经元。以上3D卷积神经网络的结构为现有技术,在此不再赘述。
在本实施例中,为了实现从多尺度对人脸特征进行提取,所述的特征向量包括图像中的形状特征向量和纹理特征向量。
在本实施例中,假设从当前表情数据库中选择厌恶、高兴、惊讶、悲伤四种类型的表情图像序列,从历史表情数据库中也是选择厌恶、高兴、惊讶、悲伤四种类型的表情图像序列,每种类型的表情图像序列,在当前表情数据库中和历史表情数据库中均选取相同数量的相同人物作为训练和测试对象,每种表情图像序列包含240个图像序列,可以采用样条插值函数在时间维度上进行序列长度缩放,使每个图像序列都得到10帧图像,也可对每个图像的像素进行调整,以满足统一规范的要求。
本实施例中为了实现对待测图像的分类,输入待测图像,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行一次分类。
本实施例中,为了实现对待测图像表情识别结果的一次分类进行验证,还包括了调取待测图像中人物的历史图像集,从历史图像集中调取与本次待测图像相似度最高的待测历史图像。输入待测历史图像,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行二次分类,根据一次分类和二次分类确定最终待测图像的表情分类。
进一步地,为了进一步提高一次分类结果验证的准确性,还包括对与历史待测图像相对应的历史周围环境图像进行处理,并识别历史周围环境图像中是否存在其他人,若存在,则进一步识别历史周围环境图像中其他人的表情类型,根据其他人的表情类型来验证所述历史待测图像中的人物表情的二次分类,根据验证后的历史待测图像的二次分类和一次分类最终确定所述待测图像中的表情分类。
人们通常处于某种环境中,从对历史周围环境图像的分析中,可以反应历史待测图像中人物所处环境情况,若周围环境中还存在其他人,那么其他人的表情会表达出图像中的主体氛围,如其他人都在笑,那么通常历史待测图像中人物也应该是在笑,据此,就可对二次分类结果进行验证,在确保二次分类结果准确无误的情况下,根据验证后的历史待测图像的二次分类和一次分类最终确定所述待测图像中的表情分类,使待测图像的表情分类更加准确。
以上所述的仅是本发明的实施例,所属领域普通技术人员知晓申请日或者优先权日之前发明所属技术领域所有的普通技术知识,能够获知该领域中所有的现有技术,并且具有应用该日期之前常规实验手段的能力,所属领域普通技术人员可以在本申请给出的启示下,结合自身能力完善并实施本方案,一些典型的公知结构或者公知方法不应当成为所属领域普通技术人员实施本申请的障碍。
应当指出,对于本领域的技术人员来说,在不脱离本发明结构的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些都不会影响本发明实施的效果和专利的实用性。本申请要求的保护范围应当以其权利要求的内容为准,说明书中的具体实施方式等记载可以用于解释权利要求的内容。
Claims (6)
1.一种基于多尺度特征提取的人脸表情识别模型,其特征在于:包括从当前表情数据库中获取训练样本,采用训练样本对3D卷积神经网络进行训练,并保存训练得到的网络模型,从历史表情数据库中获取测试样本,采用测试样本对训练得到的网络模型进行测试,并保存测试后的网络模型,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行训练,所述的历史表情数据库中存储有与当前表情数据库属于同一人物的历史表情数据,调取的测试样本包括与训练样本中标记为同一人物的历史表情数据。
2.根据权利要求1所述的基于多尺度特征提取的人脸表情识别模型,其特征在于:输入待测图像,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行一次分类。
3.根据权利要求2所述的基于多尺度特征提取的人脸表情识别模型,其特征在于:调取待测图像中人物的历史图像集,从历史图像集中调取与本次待测图像相似度最高的待测历史图像。
4.根据权利要求3所述的基于多尺度特征提取的人脸表情识别模型,其特征在于:输入待测历史图像,从3D卷积神经网络的最后一层全连接层提取特征向量,输入到线性SVM分类器中进行二次分类,根据一次分类和二次分类确定最终待测图像的表情分类。
5.根据权利要求4所述的基于多尺度特征提取的人脸表情识别模型,其特征在于:还包括对与历史待测图像相对应的历史周围环境图像进行处理,并识别历史周围环境图像中是否存在其他人,若存在,则进一步识别历史周围环境图像中其他人的表情类型,根据其他人的表情类型来验证所述历史待测图像中的人物表情的二次分类,根据验证后的历史待测图像的二次分类和一次分类最终确定所述待测图像中的表情分类。
6.根据权利要求1或5所述的基于多尺度特征提取的人脸表情识别模型,其特征在于:所述的特征向量包括图像中的形状特征向量和纹理特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210632822.6A CN114944000B (zh) | 2022-06-07 | 2022-06-07 | 一种基于多尺度特征提取的人脸表情识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210632822.6A CN114944000B (zh) | 2022-06-07 | 2022-06-07 | 一种基于多尺度特征提取的人脸表情识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114944000A true CN114944000A (zh) | 2022-08-26 |
CN114944000B CN114944000B (zh) | 2024-04-19 |
Family
ID=82908641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210632822.6A Active CN114944000B (zh) | 2022-06-07 | 2022-06-07 | 一种基于多尺度特征提取的人脸表情识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114944000B (zh) |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679526A (zh) * | 2017-11-14 | 2018-02-09 | 北京科技大学 | 一种人脸微表情识别方法 |
CN108030494A (zh) * | 2017-11-08 | 2018-05-15 | 华南理工大学 | 基于交叉验证的心电信号错误标记训练样本识别方法 |
CN108304788A (zh) * | 2018-01-18 | 2018-07-20 | 陕西炬云信息科技有限公司 | 基于深度神经网络的人脸识别方法 |
CN108446688A (zh) * | 2018-05-28 | 2018-08-24 | 北京达佳互联信息技术有限公司 | 人脸图像性别判断方法、装置、计算机设备及存储介质 |
CN110188615A (zh) * | 2019-04-30 | 2019-08-30 | 中国科学院计算技术研究所 | 一种人脸表情识别方法、装置、介质及系统 |
CN110348416A (zh) * | 2019-07-17 | 2019-10-18 | 北方工业大学 | 一种基于多尺度特征融合卷积神经网络的多任务人脸识别方法 |
CN110399821A (zh) * | 2019-07-17 | 2019-11-01 | 上海师范大学 | 基于人脸表情识别的顾客满意度获取方法 |
CN110807420A (zh) * | 2019-10-31 | 2020-02-18 | 天津大学 | 一种融合特征提取和深度学习的人脸表情识别方法 |
US20210027048A1 (en) * | 2017-10-20 | 2021-01-28 | Beijing Dajia Internet Information Technology Co., Ltd. | Human face image classification method and apparatus, and server |
WO2021027553A1 (zh) * | 2019-08-15 | 2021-02-18 | 深圳壹账通智能科技有限公司 | 微表情分类模型生成、图像识别方法、装置、设备及介质 |
CN114511912A (zh) * | 2022-03-14 | 2022-05-17 | 东南大学 | 基于双流卷积神经网络的跨库微表情识别方法及装置 |
CN114548307A (zh) * | 2022-02-28 | 2022-05-27 | 北京百度网讯科技有限公司 | 分类模型训练方法和装置、分类方法和装置 |
-
2022
- 2022-06-07 CN CN202210632822.6A patent/CN114944000B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20210027048A1 (en) * | 2017-10-20 | 2021-01-28 | Beijing Dajia Internet Information Technology Co., Ltd. | Human face image classification method and apparatus, and server |
CN108030494A (zh) * | 2017-11-08 | 2018-05-15 | 华南理工大学 | 基于交叉验证的心电信号错误标记训练样本识别方法 |
CN107679526A (zh) * | 2017-11-14 | 2018-02-09 | 北京科技大学 | 一种人脸微表情识别方法 |
CN108304788A (zh) * | 2018-01-18 | 2018-07-20 | 陕西炬云信息科技有限公司 | 基于深度神经网络的人脸识别方法 |
CN108446688A (zh) * | 2018-05-28 | 2018-08-24 | 北京达佳互联信息技术有限公司 | 人脸图像性别判断方法、装置、计算机设备及存储介质 |
CN110188615A (zh) * | 2019-04-30 | 2019-08-30 | 中国科学院计算技术研究所 | 一种人脸表情识别方法、装置、介质及系统 |
CN110348416A (zh) * | 2019-07-17 | 2019-10-18 | 北方工业大学 | 一种基于多尺度特征融合卷积神经网络的多任务人脸识别方法 |
CN110399821A (zh) * | 2019-07-17 | 2019-11-01 | 上海师范大学 | 基于人脸表情识别的顾客满意度获取方法 |
WO2021027553A1 (zh) * | 2019-08-15 | 2021-02-18 | 深圳壹账通智能科技有限公司 | 微表情分类模型生成、图像识别方法、装置、设备及介质 |
CN110807420A (zh) * | 2019-10-31 | 2020-02-18 | 天津大学 | 一种融合特征提取和深度学习的人脸表情识别方法 |
CN114548307A (zh) * | 2022-02-28 | 2022-05-27 | 北京百度网讯科技有限公司 | 分类模型训练方法和装置、分类方法和装置 |
CN114511912A (zh) * | 2022-03-14 | 2022-05-17 | 东南大学 | 基于双流卷积神经网络的跨库微表情识别方法及装置 |
Non-Patent Citations (4)
Title |
---|
ZOU XIN-YAO等: "Small sample statistical theory and IC reliability assessment", 《CONTROL & DECISION》, 31 December 2008 (2008-12-31), pages 232 - 241 * |
万峰, 杜明辉: "小样本条件下采用Gabor特征的人脸识别", 计算机辅助设计与图形学学报, no. 02, 20 February 2005 (2005-02-20), pages 2 - 6 * |
吴丽;刘骏跃;: "基于BP神经网络的数控机床使用可靠性评价", 机床与液压, no. 07, 15 April 2011 (2011-04-15), pages 144 - 146 * |
熊邦书;刘雨;莫燕;黄建萍;李新民;: "基于SVM的直升机飞行状态识别", 应用科学学报, no. 04, 30 July 2016 (2016-07-30), pages 113 - 118 * |
Also Published As
Publication number | Publication date |
---|---|
CN114944000B (zh) | 2024-04-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111259142B (zh) | 基于注意力编码和图卷积网络的特定目标情感分类方法 | |
CN110532900B (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
CN110188615B (zh) | 一种人脸表情识别方法、装置、介质及系统 | |
CN112464865A (zh) | 一种基于像素和几何混合特征的人脸表情识别方法 | |
Perez et al. | Gender classification from face images using mutual information and feature fusion | |
CN112528928B (zh) | 一种基于自注意力深度网络的商品识别方法 | |
US20230058194A1 (en) | Text classification method and apparatus, device, and computer-readable storage medium | |
Zhang et al. | Physiognomy: Personality traits prediction by learning | |
CN110335653A (zh) | 基于openEHR病历格式的非标准病历解析方法 | |
CN110210380B (zh) | 基于表情识别与心理学测试生成性格的分析方法 | |
Dupré et al. | Accuracy of three commercial automatic emotion recognition systems across different individuals and their facial expressions | |
CN111523421A (zh) | 基于深度学习融合各种交互信息的多人行为检测方法及系统 | |
CN113326380A (zh) | 基于深度神经网络的设备量测数据处理方法、系统及终端 | |
CN112364912A (zh) | 信息分类方法、装置、设备及存储介质 | |
CN107944363A (zh) | 人脸图像处理方法、系统及服务器 | |
Tiahunova et al. | The Neural Network for Emotions Recognition under Special Conditions. | |
Gu et al. | 3-d facial expression recognition via attention-based multichannel data fusion network | |
Nasir et al. | Recognition of human emotion transition from video sequence using triangulation induced various centre pairs distance signatures | |
CN113052236A (zh) | 一种基于NASNet的肺炎图像分类方法 | |
CN114944000A (zh) | 一种基于多尺度特征提取的人脸表情识别模型 | |
CN114926702B (zh) | 一种基于深度注意力度量的小样本图像分类方法 | |
CN112070082B (zh) | 一种基于实例感知成分合并网络的曲线文字定位方法 | |
CN112800951A (zh) | 基于局部基特征的微表情识别方法、系统、装置及介质 | |
Zhang et al. | Facial expression recognition based on salient patch selection | |
Nimitha et al. | Deep Learning based Sentiment Analysis on Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |