CN107862292B - 人物情绪分析方法、装置及存储介质 - Google Patents

人物情绪分析方法、装置及存储介质 Download PDF

Info

Publication number
CN107862292B
CN107862292B CN201711126632.2A CN201711126632A CN107862292B CN 107862292 B CN107862292 B CN 107862292B CN 201711126632 A CN201711126632 A CN 201711126632A CN 107862292 B CN107862292 B CN 107862292B
Authority
CN
China
Prior art keywords
mood
sample
real
classifier
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711126632.2A
Other languages
English (en)
Other versions
CN107862292A (zh
Inventor
陈林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Technology Shenzhen Co Ltd
Original Assignee
Ping An Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Technology Shenzhen Co Ltd filed Critical Ping An Technology Shenzhen Co Ltd
Priority to CN201711126632.2A priority Critical patent/CN107862292B/zh
Priority to PCT/CN2018/076168 priority patent/WO2019095571A1/zh
Publication of CN107862292A publication Critical patent/CN107862292A/zh
Application granted granted Critical
Publication of CN107862292B publication Critical patent/CN107862292B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • G06F18/24155Bayesian classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出一种人物情绪分析方法,该方法包括:获取摄像装置拍摄到的一张实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;将所述实时脸部图像输入预先确定的AU分类器,得到从该实时脸部图像中识别出的每个AU的概率;将该实时脸部图像中所有AU的概率组成该实时脸部图像的特征向量;及,将所述特征向量输入预先确定的情绪分类器,得到从该实时人脸图像中识别出每种情绪的概率,取概率最大的情绪作为从该实时人脸图像中识别出的情绪。本发明还提出一种电子装置及计算机可读存储介质。利用本发明识别出实时脸部图像中的AU特征及概率,根据每个AU特征及概率识别出实时脸部图像中的人物情绪,有效提高人物情绪识别的效率。

Description

人物情绪分析方法、装置及存储介质
技术领域
本发明涉及计算机视觉处理技术领域,尤其涉及一种人物情绪分析方法、装置及计算机可读存储介质。
背景技术
人脸情绪识别是人机交互与情感计算研究的重要组成部分,涉及心理学、社会学、人类学、生命科学、认知科学、计算机科学等研究领域,对人机交互智能化和谐化极具意义。
国际著名心理学家Paul Ekman和研究伙伴W.V.Friesen作了深入的研究,通过观察和生物反馈,描绘出不同的脸部肌肉动作和不同表情的对应关系。FACS就是经过多年研究于1976年所创制的“面部表情编码系统。根据人脸的解剖学特点,可将其划分成若干既相互独立又相互联系的运动单元(action unit,AU),这些运动单元的运动特征及其所控制的主要区域可以反映出面部表情。
目前,识别脸部图像中的AU特征、对AU特征进行组合来判断面部情绪方法比较普遍,然而,该方法并没有考虑到每个AU的权重,比如说有些人天生眉毛就有些上扬,但AU检测出来后,就直接算做AU组合中的一个成员参与情绪判定,这样就有可能出现情绪误判定,造成情绪识别准确率不高。
发明内容
本发明提供一种人物情绪分析方法、电子装置及计算机可读存储介质,其主要目的在于通过识别出实时脸部图像中的AU特征及概率,根据每个AU特征及概率识别出实时脸部图像中的人物情绪,有效提高人物情绪识别的效率。
为实现上述目的,本发明提供一种电子装置,该装置包括:存储器、处理器及摄像装置,所述存储器中包括人物情绪分析程序,所述人物情绪分析程序被所述处理器执行时实现如下步骤:
获取摄像装置拍摄到的一张实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
将所述实时脸部图像输入预先确定的AU分类器,得到从该实时脸部图像中识别出的每个AU的概率;
将该实时脸部图像中所有AU的概率组成该实时脸部图像的特征向量;及
将所述特征向量输入预先确定的情绪分类器,得到从该实时人脸图像中识别出每种情绪的概率,取概率最大的情绪作为从该实时人脸图像中识别出的情绪。
优选地,所述预先确定的AU分类器的训练步骤包括:
准备包含一定数量的人脸样本图像的第一样本集,从人脸样本图像中分别截取每个AU相匹配的图像区域作为该AU的正样本图像,并为每个AU准备负样本图像;
将每个AU的正/负样本图像分为第一比例的训练集和第二比例的验证集;
利用所述训练集训练卷积神经网络,得到所述AU分类器;及
利用所述验证集验证训练的所述AU分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本数量并重新执行训练步骤。
优选地,所述预先确定的AU分类器的训练步骤还包括:
对所述第一样本集中的样本图像进行预处理操作,包括:缩放、裁剪、翻转及/或扭曲。
优选地,所述预先确定的情绪分类器的训练步骤包括:
依据所述第一样本集中每张样本图像的情绪对每张样本图像分配一个情绪标签,得到包含特征向量、情绪标签的第二样本集;
将第二样本集中的样本图像分为第一比例的训练集和第二比例的验证集;
利用朴素贝叶斯算法对所述训练集进行训练,得到所述情绪分类器;及
利用所述验证集验证训练的所述情绪分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本集中的样本数量并重新执行上述训练步骤。
优选地,所述朴素贝叶斯算法为先验为高斯分布的朴素贝叶斯算法。
此外,为实现上述目的,本发明还提供一种人物情绪分析方法,该方法包括:
获取摄像装置拍摄到的一张实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
将所述实时脸部图像输入预先确定的AU分类器,得到从该实时脸部图像中识别出的每个AU的概率;
将该实时脸部图像中所有AU的概率组成该实时脸部图像的特征向量;及
将所述特征向量输入预先确定的情绪分类器,得到从该实时人脸图像中识别出每种情绪的概率,取概率最大的情绪作为从该实时人脸图像中识别出的情绪。
优选地,所述预先确定的AU分类器的训练步骤包括:
准备包含一定数量的人脸样本图像的第一样本集,从人脸样本图像中分别截取每个AU相匹配的图像区域作为该AU的正样本图像,并为每个AU准备负样本图像;
将每个AU的正/负样本图像分为第一比例的训练集和第二比例的验证集;
利用所述训练集训练卷积神经网络,得到所述AU分类器;及
利用所述验证集验证训练的所述AU分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本数量并重新执行训练步骤。
优选地,所述预先确定的AU分类器的训练步骤还包括:
对所述第一样本集中的样本图像进行预处理操作,包括:缩放、裁剪、翻转及/或扭曲。
优选地,所述预先确定的情绪分类器的训练步骤包括:
依据所述第一样本集中每张样本图像的情绪对每张样本图像分配一个情绪标签,得到包含特征向量、情绪标签的第二样本集;
将第二样本集中的样本图像分为第一比例的训练集和第二比例的验证集;
利用朴素贝叶斯算法对所述训练集进行训练,得到所述情绪分类器;及
利用所述验证集验证训练的所述情绪分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本集中的样本数量并重新执行上述训练步骤。
优选地,所述朴素贝叶斯算法为先验为高斯分布的朴素贝叶斯算法。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中包括人物情绪分析程序,所述人物情绪分析程序被处理器执行时,实现如上所述的人物情绪分析方法中的任意步骤。
本发明提出的人物情绪分析方法、电子装置及计算机可读存储介质,通过从实时图像中识别出实时脸部图像,通过AU分类器提取该实时脸部图像中的各个AU特征,将各AU特征的概率组合成特征向量,将特征向量输入情绪分类器识别出该实时脸部图像中存在的每种情绪的概率,取概率最大的情绪作为该实时图像中的情绪。通过结合AU分类器及情绪分类器识别实时脸部图像中的情绪,有效提高人物情绪的识别效率。
附图说明
图1为本发明人物情绪分析方法较佳实施例的应用环境示意图;
图2为图1中人物情绪分析程序较佳实施例的模块示意图;
图3为本发明人物情绪分析方法较佳实施例的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种人物情绪分析方法,应用于一种电子装置1。参照图1所示,为本发明人物情绪分析方法较佳实施例的应用环境示意图。
在本实施例中,电子装置1可以是服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有运算功能的终端设备。
该电子装置1包括:处理器12、存储器11、摄像装置13、网络接口14及通信总线15。
存储器11包括至少一种类型的可读存储介质。所述至少一种类型的可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器11等的非易失性存储介质。在一些实施例中,所述可读存储介质可以是所述电子装置1的内部存储单元,例如该电子装置1的硬盘。在另一些实施例中,所述可读存储介质也可以是所述电子装置1的外部存储器11,例如所述电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
在本实施例中,所述存储器11的可读存储介质通常用于存储安装于所述电子装置1的人物情绪分析程序10、人脸图像样本库及预先训练好的AU分类器、情绪分类器等。所述存储器11还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行人物情绪分析程序10等。
摄像装置13既可以是所述电子装置1的一部分,也可以独立于电子装置1。在一些实施例中,所述电子装置1为智能手机、平板电脑、便携计算机等具有摄像头的终端设备,则所述摄像装置13即为所述电子装置1的摄像头。在其他实施例中,所述电子装置1可以为服务器,所述摄像装置13独立于该电子装置1、与该电子装置1通过网络连接,例如,该摄像装置13安装于特定场所,如办公场所、监控区域,对进入该特定场所的目标实时拍摄得到实时图像,通过网络将拍摄得到的实时图像传输至处理器12。
网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口),通常用于在该电子装置1与其他电子设备之间建立通信连接。
通信总线15用于实现这些组件之间的连接通信。
图1仅示出了具有组件11-15的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,该电子装置1还可以包括用户接口,用户接口可以包括输入单元比如键盘(Keyboard)、语音输入装置比如麦克风(microphone)等具有语音识别功能的设备、语音输出装置比如音响、耳机等,可选地用户接口还可以包括标准的有线接口、无线接口。
可选地,该电子装置1还可以包括显示器,显示器也可以称为显示屏或显示单元。在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及有机发光二极管(Organic Light-Emitting Diode,OLED)触摸器等。显示器用于显示在电子装置1中处理的信息以及用于显示可视化的用户界面。
可选地,该电子装置1还包括触摸传感器。所述触摸传感器所提供的供用户进行触摸操作的区域称为触控区域。此外,这里所述的触摸传感器可以为电阻式触摸传感器、电容式触摸传感器等。而且,所述触摸传感器不仅包括接触式的触摸传感器,也可包括接近式的触摸传感器等。此外,所述触摸传感器可以为单个传感器,也可以为例如阵列布置的多个传感器。
此外,该电子装置1的显示器的面积可以与所述触摸传感器的面积相同,也可以不同。可选地,将显示器与所述触摸传感器层叠设置,以形成触摸显示屏。该装置基于触摸显示屏侦测用户触发的触控操作。
可选地,该电子装置1还可以包括射频(Radio Frequency,RF)电路,传感器、音频电路等等,在此不再赘述。
在图1所示的装置实施例中,作为一种计算机存储介质的存储器11中可以包括操作系统、以及人物情绪分析程序10;处理器12执行存储器11中存储的人物情绪分析程序10时实现如下步骤:
获取摄像装置13拍摄到的一张实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
将所述实时脸部图像输入预先确定的AU分类器,得到从该实时脸部图像中识别出的每个AU的概率;
将该实时脸部图像中所有AU的概率组成该实时脸部图像的特征向量;及
将所述特征向量输入预先确定的情绪分类器,得到从该实时人脸图像中识别出每种情绪的概率,取概率最大的情绪作为从该实时人脸图像中识别出的情绪。
根据保罗·艾克曼总结出的面部情绪编码系统(Facial Action Coding System,FACS),人类一共有39个主要的面部动作单元(Action Unit,AU)。每一个AU,就是脸部的一小组肌肉收缩代码。比如AU1-抬起眉毛内角,AU2-抬起眉毛外角,AU9-皱鼻,AU22-收紧双唇向外翻等。
当摄像装置13拍摄到一张实时图像,摄像装置13将这张实时图像发送到处理器12,当处理器12接收到该实时图像后,先获取图片的大小,建立一个相同大小的灰度图像;将获取的彩色图像,转换成灰度图像,同时创建一个内存空间;将灰度图像直方图均衡化,使灰度图像信息量减少,加快检测速度,然后加载训练库,检测图片中的人脸,并返回一个包含人脸信息的对象,获得人脸所在位置的数据,并记录个数;最终获取头像的区域且保存下来,这样就完成了一次实时脸部图像提取的过程。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法还可以为:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
接下来,将利用人脸识别算法从实时图像中提取的实时脸部图像输入预先确定的AU分类器,从该实时脸部图像中识别出每个AU,以及该实时脸部图像中包括每个AU的概率(取值范围为:0-1),其中,所述预先确定的AU分类器的训练步骤包括:
在每个AU的样本准备阶段,准备一定数量的人脸图像,从大量人脸图像中,找出包含该AU的人脸图像,作为该AU的正样本图像,并为每个AU准备负样本图像,得到该每个AU的正样本图像及负样本图像,形成第一样本集;不同AU对应的图像区域可以是相同的,例如AU1、AU2都涉及到人脸图像中包含眉毛、眼睛和额头的区域,AU9、AU22涉及到人脸图像中的鼻子和嘴唇区域。图像中不包含该AU的区域,均可以作为该AU的负样本图像。
分别从每个AU的正/负样本图像中随机抽取第一比例(例如,60%)的样本图像作为训练集,从剩下的该AU的样本图像中抽取第二比例样本图像作为验证集,例如50%,即抽取该AU所有样本图像的20%作为验证集,分别利用每个AU的所述训练集训练卷积神经网络(CNN),得到所述AU分类器;为了保证AU分类器的准确率,需对AU分类器的准确率进行验证,利用所述验证集验证训练的所述AU分类器的准确率,若准确率大于或者等于预设准确率(例如,90%),则训练结束,或者,若准确率小于预设准确率,则增加样本集中的样本图片数量并重新执行上述训练步骤。
需要说明的是,所述预先确定的AU分类器的训练步骤还包括:对第一样本集中的样本图像进行预处理如缩放、裁剪、翻转及/或扭曲等操作,利用经过预处理后的样本图片对卷积神经网络进行训练,有效提高模型训练的真实性及准确率。
假设利用AU分类器对实时脸部图像进行检测后输出的结果中,从实时脸部图像识别出各AU(例如,39个)的概率分别为P1、P2、P3、…、P39,将各AU的概率组成一个特征向量V1,V1=[P1,P2,P3,…,P39],作为实时脸部图像的特征向量。
然后将特征向量V1输入预先确定的情绪分类器,以从该实时人脸图像中识别出可能存在的每种情绪,以及每种情绪的概率(即存在的可能性)。其中,所述预先确定的情绪分类器的训练步骤包括:
借用上述第一样本集中的样本图像,样本图像输入上述AU分类器后,得到从样本图像中识别出每种AU的概率,将从每张样本图像中识别出每种AU的概率组成一个特征向量;同时,根据每张样本图像呈现的情绪,对样本图像进行分类标记,即分配一个情绪标签(例如“开心”),得到包含特征向量、情绪标签的第二样本集;从第二样本集中随机抽取第一比例(例如,60%)的样本图像作为训练集,从剩下的样本图像中抽取第二比例样本图像作为验证集,例如50%,即抽取第二样本集中20%的样本图像作为验证集,利用朴素贝叶斯算法对所述训练集进行训练,得到所述情绪分类器;为了保证情绪分类器的准确率,需对情绪分类器的准确率进行验证,利用所述验证集验证训练的所述情绪分类器的准确率,若准确率大于或者等于预设准确率(例如,90%),则训练结束,或者,若准确率小于预设准确率,则增加样本集中的样本图片数量并重新执行上述训练步骤。
需要说明的是,朴素贝叶斯算法分为三种,分别是GaussianNB,MultinomialNB和BernoulliNB。其中GaussianNB是先验为高斯分布的朴素贝叶斯,MultinomialNB是先验为多项式分布的朴素贝叶斯,而BernoulliNB就是先验为伯努利分布的朴素贝叶斯。这三个类适用的分类场景各不相同,GaussianNB用于分类问题。MultinomialNB和BernoulliNB用于离散值模型。因为我们是分类问题,所以选择GaussianNB。
其中,GaussianNB假设特征的先验概率为正态分布,所以有如下公式:
其中Ck为Y的第k类类别,μk为需要从训练集估计的值。GaussianNB会根据训练集求出μkμk为在样本类别Ck中所有Xj的平均值。为在样本类别Ck中所有Xj的方差。
假设将实时脸部图像的特征向量V1输入所述情绪分类器后,从该实时脸部图像中识别出的情绪有多种,且识别出每种情绪的概率(取值范围为:0-1)各不相同,例如,开心:0.6、惊讶:0.3、悲伤:0.1。
上述情绪分类器的输出结果中,从实时脸部图像中识别出“开心”的概率最大,则确定从该实时脸部图像中识别出的情绪即为“开心”。
需要说明的是,上述实施例中所述的第一概率、第二概率、预设准确率等需要预先设置的参数,可根据用户需求进行相应调整。
上述实施例提出的电子装置1,通过从实时图像中识别出实时脸部图像,通过AU分类器提取该实时脸部图像中的各个AU特征,将各AU特征的概率组合成特征向量,将特征向量输入情绪分类器识别出该实时脸部图像中存在的每种情绪的概率,取概率最大的情绪作为该实时图像中的情绪。通过结合AU分类器及情绪分类器识别实时脸部图像中的情绪,有效提高人物情绪的识别效率。
在其他实施例中,人物情绪分析程序10还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。参照图2所示,为图1中人物情绪分析程序10较佳实施例的功能模块图。所述人物情绪分析程序10可以被分割为:获取模块110、AU识别模块120、特征提取模块130及情绪识别模块140。所述模块110-140所实现的功能或操作步骤均与上文类似,此处不再详述,示例性地,例如其中:
获取模块110,用于获取摄像装置13拍摄到的一张实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
AU识别模块120,用于将所述实时脸部图像输入预先确定的AU分类器,得到从该实时脸部图像中识别出的每个AU的概率;
特征提取模块130,用于将该实时脸部图像中所有AU的概率组成该实时脸部图像的特征向量;及
情绪识别模块140,用于将所述特征向量输入预先确定的情绪分类器,得到从该实时人脸图像中识别出每种情绪的概率,取概率最大的情绪作为从该实时人脸图像中识别出的情绪。
此外,本发明还提供一种人物情绪分析方法。参照图3所示,为本发明人物情绪分析方法较佳实施例的流程图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,人物情绪分析方法包括:步骤S10-步骤S40。
步骤S10,获取摄像装置拍摄到的一张实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。
当摄像装置拍摄到一张实时图像,摄像装置将这张实时图像发送到处理器,当处理器接收到该实时图像后,先获取图片的大小,建立一个相同大小的灰度图像;将获取的彩色图像,转换成灰度图像,同时创建一个内存空间;将灰度图像直方图均衡化,使灰度图像信息量减少,加快检测速度,然后加载训练库,检测图片中的人脸,并返回一个包含人脸信息的对象,获得人脸所在位置的数据,并记录个数;最终获取头像的区域且保存下来,这样就完成了一次实时脸部图像提取的过程。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法还可以为:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
步骤S20,将所述实时脸部图像输入预先确定的AU分类器,得到从该实时脸部图像中识别出的每个AU的概率。
接下来,将利用人脸识别算法从实时图像中提取的实时脸部图像输入预先确定的AU分类器,从该实时脸部图像中识别出每个AU,以及该实时脸部图像中包括每个AU的概率(取值范围为:0-1),其中,所述预先确定的AU分类器的训练步骤包括:
在每个AU的样本准备阶段,准备一定数量的人脸图像,从大量人脸图像中,找出包含该AU的人脸图像,作为该AU的正样本图像,并为每个AU准备负样本图像,得到该每个AU的正样本图像及负样本图像,形成第一样本集;不同AU对应的图像区域可以是相同的,例如AU1、AU2都涉及到人脸图像中包含眉毛、眼睛和额头的区域,AU9、AU22涉及到人脸图像中的鼻子和嘴唇区域。图像中不包含该AU的区域,均可以作为该AU的负样本图像。
分别从每个AU的正/负样本图像中随机抽取第一比例(例如,60%)的样本图像作为训练集,从剩下的该AU的样本图像中抽取第二比例样本图像作为验证集,例如50%,即抽取该AU所有样本图像的20%作为验证集,分别利用每个AU的所述训练集训练卷积神经网络,得到所述AU分类器;为了保证AU分类器的准确率,需对AU分类器的准确率进行验证,利用所述验证集验证训练的所述AU分类器的准确率,若准确率大于或者等于预设准确率(例如,90%),则训练结束,或者,若准确率小于预设准确率,则增加样本集中的样本图片数量并重新执行上述训练步骤。
需要说明的是,所述预先确定的AU分类器的训练步骤还包括:对第一样本集中的样本图像进行预处理如缩放、裁剪、翻转及/或扭曲等操作,利用经过预处理后的样本图片对卷积神经网络进行训练,有效提高模型训练的真实性及准确率。
步骤S30,将该实时脸部图像中所有AU的概率组成该实时脸部图像的特征向量。
假设利用AU分类器对实时脸部图像进行检测后输出的结果中,从实时脸部图像识别出各AU(例如,39个)的概率分别为P1、P2、P3、…、P39,将各AU的概率组成一个特征向量V1,V1=[P1,P2,P3,…,P39],作为实时脸部图像的特征向量。
步骤S40,将所述特征向量输入预先确定的情绪分类器,得到从该实时人脸图像中识别出每种情绪的概率,取概率最大的情绪作为从该实时人脸图像中识别出的情绪。
将特征向量V1输入预先确定的情绪分类器,以从该实时人脸图像中识别出可能存在的每种情绪,以及每种情绪的概率(即存在的可能性)。其中,所述预先确定的情绪分类器的训练步骤包括:
在本实施例中,借用上述第一样本集中的样本图像,样本图像输入上述AU分类器后,得到从样本图像中识别出每种AU的概率,将从每张样本图像中识别出每种AU的概率组成一个特征向量;同时,根据每张样本图像呈现的情绪,对样本图像进行分类标记,即分配一个情绪标签(例如“开心”),得到包含特征向量、情绪标签的第二样本集;从第二样本集中随机抽取第一比例(例如,60%)的样本图像作为训练集,从剩下的样本图像中抽取第二比例样本图像作为验证集,例如50%,即抽取第二样本集中20%的样本图像作为验证集,利用朴素贝叶斯算法对所述训练集进行训练,得到所述情绪分类器;为了保证情绪分类器的准确率,需对情绪分类器的准确率进行验证,利用所述验证集验证训练的所述情绪分类器的准确率,若准确率大于或者等于预设准确率(例如,90%),则训练结束,或者,若准确率小于预设准确率,则增加样本集中的样本图片数量并重新执行上述训练步骤。
需要说明的是,朴素贝叶斯算法分为三种,分别是GaussianNB,MultinomialNB和BernoulliNB。其中GaussianNB是先验为高斯分布的朴素贝叶斯,MultinomialNB是先验为多项式分布的朴素贝叶斯,而BernoulliNB就是先验为伯努利分布的朴素贝叶斯。这三个类适用的分类场景各不相同,GaussianNB用于分类问题。MultinomialNB和BernoulliNB用于离散值模型。因为我们是分类问题,所以选择GaussianNB。
其中,GaussianNB假设特征的先验概率为正态分布,所以有如下公式:
其中Ck为Y的第k类类别,μk为需要从训练集估计的值。GaussianNB会根据训练集求出μkμk为在样本类别Ck中所有Xj的平均值。为在样本类别Ck中所有Xj的方差。
假设将实时脸部图像的特征向量V1输入所述情绪分类器后,从该实时脸部图像中识别出的情绪有多种,且识别出每种情绪的概率(取值范围为:0-1)各不相同,例如,开心:0.6、惊讶:0.3、悲伤:0.1。
上述情绪分类器的输出结果中,从实时脸部图像中识别出“开心”的概率最大,则确定从该实时脸部图像中识别出的情绪即为“开心”。
需要说明的是,上述实施例中所述的第一概率、第二概率、预设准确率等需要预先设置的参数,可根据用户需求进行相应调整。上述实施例提出的人物情绪分析方法,通过从实时图像中识别出实时脸部图像,通过AU分类器提取该实时脸部图像中的各个AU特征,将各AU特征的概率组合成特征向量,将特征向量输入情绪分类器识别出该实时脸部图像中存在的每种情绪的概率,取概率最大的情绪作为该实时图像中的情绪。通过结合AU分类器及情绪分类器识别实时脸部图像中的情绪,有效提高人物情绪的识别效率。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质中包括人物情绪分析程序,所述人物情绪分析程序被处理器执行时实现如下操作:
获取摄像装置拍摄到的一张实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
将所述实时脸部图像输入预先确定的AU分类器,得到从该实时脸部图像中识别出的每个AU的概率;
将该实时脸部图像中所有AU的概率组成该实时脸部图像的特征向量;及
将所述特征向量输入预先确定的情绪分类器,得到从该实时人脸图像中识别出每种情绪的概率,取概率最大的情绪作为从该实时人脸图像中识别出的情绪。
优选地,所述预先确定的AU分类器的训练步骤包括:
准备包含一定数量的人脸样本图像的第一样本集,从人脸样本图像中分别截取每个AU相匹配的图像区域作为该AU的正样本图像,并为每个AU准备负样本图像;
将每个AU的正/负样本图像分为第一比例的训练集和第二比例的验证集;
利用所述训练集训练卷积神经网络,得到所述AU分类器;及
利用所述验证集验证训练的所述AU分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本数量并重新执行训练步骤。
优选地,所述预先确定的AU分类器的训练步骤还包括:
对所述第一样本集中的样本图像进行预处理操作,包括:缩放、裁剪、翻转及/或扭曲。
优选地,所述预先确定的情绪分类器的训练步骤包括:
依据所述第一样本集中每张样本图像的情绪对每张样本图像分配一个情绪标签,得到包含特征向量、情绪标签的第二样本集;
将第二样本集中的样本图像分为第一比例的训练集和第二比例的验证集;
利用朴素贝叶斯算法对所述训练集进行训练,得到所述情绪分类器;及
利用所述验证集验证训练的所述情绪分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本集中的样本数量并重新执行上述训练步骤。
优选地,所述朴素贝叶斯算法为先验为高斯分布的朴素贝叶斯算法。
优选地,所述人脸识别算法可以为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法及神经网络方法。
本发明之计算机可读存储介质的具体实施方式与上述人物情绪分析方法、电子装置的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种人物情绪分析方法,应用于电子装置,其特征在于,所述方法包括:
获取摄像装置拍摄到的一张实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
将所述实时脸部图像输入预先确定的AU分类器,得到从该实时脸部图像中识别出的每个AU的概率;
将该实时脸部图像中所有AU的概率组成该实时脸部图像的特征向量;及
将所述特征向量输入预先确定的情绪分类器,得到从该实时脸部图像中识别出的每种情绪的概率,取概率最大的情绪作为从该实时脸部图像中识别出的情绪。
2.根据权利要求1所述的人物情绪分析方法,其特征在于,所述预先确定的AU分类器的训练步骤包括:
准备包含一定数量的人脸样本图像的第一样本集,从人脸样本图像中分别截取每个AU相匹配的图像区域作为该AU的正样本图像,并为每个AU准备负样本图像;
将每个AU的正/负样本图像分为第一比例的训练集和第二比例的验证集;
利用所述训练集训练卷积神经网络,得到所述AU分类器;及
利用所述验证集验证训练的所述AU分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本数量并重新执行训练步骤。
3.根据权利要求2所述的人物情绪分析方法,其特征在于,所述预先确定的AU分类器的训练步骤还包括:
对所述第一样本集中的样本图像进行预处理操作,包括:缩放、裁剪、翻转及/或扭曲。
4.根据权利要求3所述的人物情绪分析方法,其特征在于,所述预先确定的情绪分类器的训练步骤包括:
依据所述第一样本集中每张样本图像的情绪对每张样本图像分配一个情绪标签,得到包含特征向量、情绪标签的第二样本集;
将第二样本集中的样本图像分为第一比例的训练集和第二比例的验证集;
利用朴素贝叶斯算法对所述训练集进行训练,得到所述情绪分类器;及
利用所述验证集验证训练的所述情绪分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本集中的样本数量并重新执行上述训练步骤。
5.根据权利要求4所述的人物情绪分析方法,其特征在于,所述朴素贝叶斯算法为先验为高斯分布的朴素贝叶斯算法。
6.根据权利要求1所述的人物情绪分析方法,其特征在于,所述人脸识别算法为基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法及神经网络方法中的一种。
7.一种电子装置,其特征在于,该电子装置包括:存储器、处理器及摄像装置,所述存储器中包括人物情绪分析程序,所述人物情绪分析程序被所述处理器执行时实现如下步骤:
获取摄像装置拍摄到的一张实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
将所述实时脸部图像输入预先确定的AU分类器,得到从该实时脸部图像中识别出的每个AU的概率;
将该实时脸部图像中所有AU的概率组成该实时脸部图像的特征向量;及
将所述特征向量输入预先确定的情绪分类器,得到从该实时脸部图像中识别出的每种情绪的概率,取概率最大的情绪作为从该实时脸部图像中识别出的情绪。
8.根据权利要求7所述的电子装置,其特征在于,所述预先确定的AU分类器的训练步骤包括:
准备包含一定数量的人脸样本图像的第一样本集,从人脸样本图像中分别截取每个AU相匹配的图像区域作为该AU的正样本图像,并为每个AU准备负样本图像;
将每个AU的正/负样本图像分为第一比例的训练集和第二比例的验证集;
利用所述训练集训练卷积神经网络,得到所述AU分类器;及
利用所述验证集验证训练的所述AU分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本数量并重新执行训练步骤。
9.根据权利要求8所述的电子装置,其特征在于,所述预先确定的情绪分类器的训练步骤包括:
依据所述第一样本集中每张样本图像的情绪对每张样本图像分配一个情绪标签,得到包含特征向量、情绪标签的第二样本集;
将第二样本集中的样本图像分为第一比例的训练集和第二比例的验证集;
利用朴素贝叶斯算法对所述训练集进行训练,得到所述情绪分类器;及
利用所述验证集验证训练的所述情绪分类器的准确率,若准确率大于或者等于预设准确率,则训练结束,或者,若准确率小于预设准确率,则增加样本集中的样本数量并重新执行上述训练步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括人物情绪分析程序,所述人物情绪分析程序被处理器执行时,实现如权利要求1至6中任一项所述的人物情绪分析方法的步骤。
CN201711126632.2A 2017-11-15 2017-11-15 人物情绪分析方法、装置及存储介质 Active CN107862292B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201711126632.2A CN107862292B (zh) 2017-11-15 2017-11-15 人物情绪分析方法、装置及存储介质
PCT/CN2018/076168 WO2019095571A1 (zh) 2017-11-15 2018-02-10 人物情绪分析方法、装置及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711126632.2A CN107862292B (zh) 2017-11-15 2017-11-15 人物情绪分析方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN107862292A CN107862292A (zh) 2018-03-30
CN107862292B true CN107862292B (zh) 2019-04-12

Family

ID=61701889

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711126632.2A Active CN107862292B (zh) 2017-11-15 2017-11-15 人物情绪分析方法、装置及存储介质

Country Status (2)

Country Link
CN (1) CN107862292B (zh)
WO (1) WO2019095571A1 (zh)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110395260B (zh) * 2018-04-20 2021-12-07 比亚迪股份有限公司 车辆、安全驾驶方法和装置
CN108717464A (zh) * 2018-05-31 2018-10-30 中国联合网络通信集团有限公司 照片处理方法、装置及终端设备
CN108810624A (zh) * 2018-06-08 2018-11-13 广州视源电子科技股份有限公司 节目反馈方法和装置、播放设备
CN108875704B (zh) * 2018-07-17 2021-04-02 北京字节跳动网络技术有限公司 用于处理图像的方法和装置
CN109635838B (zh) * 2018-11-12 2023-07-11 平安科技(深圳)有限公司 人脸样本图片标注方法、装置、计算机设备及存储介质
CN109493403A (zh) * 2018-11-13 2019-03-19 北京中科嘉宁科技有限公司 一种基于运动单元表情映射实现人脸动画的方法
CN109635727A (zh) * 2018-12-11 2019-04-16 昆山优尼电能运动科技有限公司 一种人脸表情识别方法及装置
CN109584050A (zh) * 2018-12-14 2019-04-05 深圳壹账通智能科技有限公司 基于微表情识别的用户风险程度分析方法及装置
CN109829996A (zh) * 2018-12-15 2019-05-31 深圳壹账通智能科技有限公司 应用签到方法、装置、计算机装置及存储介质
CN109829363A (zh) * 2018-12-18 2019-05-31 深圳壹账通智能科技有限公司 表情识别方法、装置、计算机设备和存储介质
CN109766765A (zh) * 2018-12-18 2019-05-17 深圳壹账通智能科技有限公司 音频数据推送方法、装置、计算机设备和存储介质
CN109583431A (zh) * 2019-01-02 2019-04-05 上海极链网络科技有限公司 一种人脸情绪识别模型、方法及其电子装置
CN109840512A (zh) * 2019-02-28 2019-06-04 北京科技大学 一种面部动作单元识别方法及识别装置
CN109840513B (zh) * 2019-02-28 2020-12-01 北京科技大学 一种人脸微表情识别方法及识别装置
CN110166836B (zh) * 2019-04-12 2022-08-02 深圳壹账通智能科技有限公司 一种电视节目切换方法、装置、可读存储介质及终端设备
CN110210194A (zh) * 2019-04-18 2019-09-06 深圳壹账通智能科技有限公司 电子合同显示方法、装置、电子设备及存储介质
CN110177205A (zh) * 2019-05-20 2019-08-27 深圳壹账通智能科技有限公司 终端设备、基于微表情的拍照方法及计算机可读存储介质
CN110263673B (zh) * 2019-05-31 2022-10-14 合肥工业大学 面部表情识别方法、装置、计算机设备及存储介质
CN112016368A (zh) * 2019-05-31 2020-12-01 沈阳新松机器人自动化股份有限公司 一种基于面部表情编码系统的表情识别方法、系统及电子设备
CN110427802A (zh) * 2019-06-18 2019-11-08 平安科技(深圳)有限公司 Au检测方法、装置、电子设备及存储介质
CN110399836A (zh) * 2019-07-25 2019-11-01 深圳智慧林网络科技有限公司 用户情绪识别方法、装置以及计算机可读存储介质
CN110598546A (zh) * 2019-08-06 2019-12-20 平安科技(深圳)有限公司 基于图像的目标物生成方法及相关设备
CN110705419A (zh) * 2019-09-24 2020-01-17 新华三大数据技术有限公司 情绪识别方法、预警方法、模型训练方法和相关装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043712A1 (ja) * 2005-10-14 2007-04-19 Nagasaki University 感情評価方法および感情表示方法、並びに、それらのための、プログラム、記録媒体およびシステム
CN103065122A (zh) * 2012-12-21 2013-04-24 西北工业大学 基于面部动作单元组合特征的人脸表情识别方法
CN103168314A (zh) * 2010-10-21 2013-06-19 三星电子株式会社 用于基于面部动作单元识别个体的情绪的方法和设备
CN104376333A (zh) * 2014-09-25 2015-02-25 电子科技大学 基于随机森林的人脸表情识别方法
CN107194347A (zh) * 2017-05-19 2017-09-22 深圳市唯特视科技有限公司 一种基于面部动作编码系统进行微表情检测的方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102094723B1 (ko) * 2012-07-17 2020-04-14 삼성전자주식회사 견고한 얼굴 표정 인식을 위한 특징 기술자
US9405962B2 (en) * 2012-08-14 2016-08-02 Samsung Electronics Co., Ltd. Method for on-the-fly learning of facial artifacts for facial emotion recognition
CN104680141B (zh) * 2015-02-13 2017-11-14 华中师范大学 基于运动单元分层的人脸表情识别方法及系统
CN105844221A (zh) * 2016-03-18 2016-08-10 常州大学 一种基于Vadaboost筛选特征块的人脸表情识别方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007043712A1 (ja) * 2005-10-14 2007-04-19 Nagasaki University 感情評価方法および感情表示方法、並びに、それらのための、プログラム、記録媒体およびシステム
CN103168314A (zh) * 2010-10-21 2013-06-19 三星电子株式会社 用于基于面部动作单元识别个体的情绪的方法和设备
CN103065122A (zh) * 2012-12-21 2013-04-24 西北工业大学 基于面部动作单元组合特征的人脸表情识别方法
CN104376333A (zh) * 2014-09-25 2015-02-25 电子科技大学 基于随机森林的人脸表情识别方法
CN107194347A (zh) * 2017-05-19 2017-09-22 深圳市唯特视科技有限公司 一种基于面部动作编码系统进行微表情检测的方法

Also Published As

Publication number Publication date
CN107862292A (zh) 2018-03-30
WO2019095571A1 (zh) 2019-05-23

Similar Documents

Publication Publication Date Title
CN107862292B (zh) 人物情绪分析方法、装置及存储介质
CN107633207B (zh) Au特征识别方法、装置及存储介质
CN107679448B (zh) 眼球动作分析方法、装置及存储介质
CN107633204B (zh) 人脸遮挡检测方法、装置及存储介质
CN107633203A (zh) 面部情绪识别方法、装置及存储介质
CN107679447A (zh) 面部特征点检测方法、装置及存储介质
CN107679446B (zh) 人脸姿态检测方法、装置及存储介质
CN107633205B (zh) 嘴唇动作分析方法、装置及存储介质
US20160350611A1 (en) Method and apparatus for authenticating liveness face, and computer program product thereof
CN107679449B (zh) 嘴唇动作捕捉方法、装置及存储介质
US9613296B1 (en) Selecting a set of exemplar images for use in an automated image object recognition system
CN109583431A (zh) 一种人脸情绪识别模型、方法及其电子装置
CN106295591A (zh) 基于人脸图像的性别识别方法及装置
Daroya et al. Alphabet sign language image classification using deep learning
WO2020244174A1 (zh) 人脸识别方法、装置、设备及计算机可读存储介质
CN111881776B (zh) 动态表情获取方法、装置、存储介质和电子设备
CN113255557B (zh) 一种基于深度学习的视频人群情绪分析方法及系统
CN108073851A (zh) 一种抓取手势识别的方法、装置及电子设备
CN115223239B (zh) 一种手势识别方法、系统、计算机设备以及可读存储介质
CN110309709A (zh) 人脸识别方法、装置及计算机可读存储介质
Chalasani et al. Egocentric gesture recognition for head-mounted ar devices
Mahmood et al. A Comparative study of a new hand recognition model based on line of features and other techniques
CN110427881A (zh) 基于人脸局部区域特征学习的跨数据库微表情识别方法及装置
CN110363747A (zh) 智能化异常细胞判断方法、装置及计算机可读存储介质
CN111857334A (zh) 人体手势字母的识别方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant