CN103488293B - 一种基于表情识别的人机情感交互系统及方法 - Google Patents
一种基于表情识别的人机情感交互系统及方法 Download PDFInfo
- Publication number
- CN103488293B CN103488293B CN201310413648.7A CN201310413648A CN103488293B CN 103488293 B CN103488293 B CN 103488293B CN 201310413648 A CN201310413648 A CN 201310413648A CN 103488293 B CN103488293 B CN 103488293B
- Authority
- CN
- China
- Prior art keywords
- expression
- image
- module
- expressive features
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 145
- 230000002452 interceptive Effects 0.000 title abstract description 17
- 230000001815 facial Effects 0.000 claims abstract description 41
- 230000003993 interaction Effects 0.000 claims abstract description 40
- 230000003340 mental Effects 0.000 claims abstract description 28
- 230000004044 response Effects 0.000 claims abstract description 12
- 238000000034 method Methods 0.000 claims abstract description 8
- 239000011159 matrix material Substances 0.000 claims description 34
- 210000004709 Eyebrows Anatomy 0.000 claims description 13
- 230000000875 corresponding Effects 0.000 claims description 9
- 210000004279 Orbit Anatomy 0.000 claims description 8
- 238000006243 chemical reaction Methods 0.000 claims description 7
- 210000000088 Lip Anatomy 0.000 claims description 6
- 238000010195 expression analysis Methods 0.000 claims description 6
- 210000000214 Mouth Anatomy 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims description 2
- 201000010099 disease Diseases 0.000 abstract description 7
- 230000000474 nursing Effects 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000003745 diagnosis Methods 0.000 description 2
- 230000002996 emotional Effects 0.000 description 2
- 230000036651 mood Effects 0.000 description 2
- 241000208340 Araliaceae Species 0.000 description 1
- 241000196324 Embryophyta Species 0.000 description 1
- 210000003128 Head Anatomy 0.000 description 1
- 206010022114 Injury Diseases 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 206010044565 Tremor Diseases 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001808 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000001419 dependent Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 235000005035 ginseng Nutrition 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000001264 neutralization Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000001671 psychotherapy Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
Abstract
本发明提供了一种基于表情识别的人机情感交互系统及方法;系统包括图像采集模块、图像处理模块、表情识别模块、人机交互模块和统计与存储模块;通过图像采集模块采集人脸图像,利用图像处理模块对所采集的人脸图像进行灰度化及尺寸调节等处理,利用表情识别方法识别人脸图像的表情,人机交互模块根据人脸表情提供回应给使用者;利用统计与存储模块分析得人物此时的心理状态并进行记录,同时提供统计查询功能给使用者。本发明用于智能设备时,可给出特定的人性化的回应,提高了机器的智能性;用于心理护理型机器人时,可实时捕捉患者表情,并与患者进行简单而有效地交流,实现对心理疾病患者的安全型实时监护,并为医生提供治疗的有效数据依据。
Description
技术领域
本发明涉及人工智能、计算机、人机交互等领域及初步的心理分析,具体涉及一种基于表情识别的人机情感心理交互系统及方法。
背景技术
随着计算机图像识别技术,人工智能技术等新兴技术的迅速发展,计算机在人类生产生活中扮演着不可或缺的角色,但是计算机、游戏机、智能机器人等机器与人却缺少基于人类表情的情感交流。现有技术虽然在计算机自动识别人脸表情方面做出了一定的改善与进展,却缺少量化精准的机器或虚拟人物与自然人的情感交互构想与设计。
如今人们的工作、日常生活越来越依赖于计算机、手机、平板电脑等设备,面对这些设备的时间甚至超过了与自然人交流的时间。如果这些设别不够人性化,使用者将很容易感到孤独、疲乏、厌倦,以致幸福指数降低、工作效率降低,严重者还可能引发精神或心理问题。因此,通过技术手段使这些设备能够像“自然人”一样“理解”使用者表情,并人性化地给出回应,是可行且有必要的。
另外,现代社会人们的心理健康问题日益凸显。不论是由于生活节奏的加快和工作压力的增加,使得人们不堪重负,还是由于重大意外事故等所带来的心灵创伤,都极有可能导致心理亚健康状态或心理疾病的出现。患者心灵上的敏感脆弱和精神状态的不稳定都对医护工作人员或是患者家属对患者的照顾提出了更高更专业的要求。而在现实生活中不论是在医院还是家中,人们总是无法或很难时时刻刻的陪护在他们左右,难以实现实时监护。依靠特定的人机交互系统,可以初步对病人的病情进行实时统计,并由医生进行分析,进而进行初步的心理治疗。目前由于机器人与人的情感交互的技术仍然不够成熟和精准,针对为心理亚健康或心理疾病患者所设计的人机交互系统(如机器人)的研究仍然非常少。
针对手机、笔记本电脑、平板电脑等设备,使机器“理解”使用者表情,通过摄像头采集使用者表情图像信息,对使用者进行动态表情分析,获得使用者当前的心理状态,从而对使用者以动画、语音、文字等形式作出回应,让机器更具人性化,给使用者提供良好的人机操作环境,提高机器对人的服务水平。对心理亚健康或心理疾病患者而言,可以通过使用本专利所提出的具有人机情感交互系统的设备,达到改善其心理状态的效果。
发明内容
本发明目的是提供一种基于表情识别的人机情感交互系统及方法,利用计算机图像处理技术及表情识别方法,使计算机、笔记本电脑、平板电脑等设备自动识别出人脸表情,根据心理情感分析得出使用者当前心理状态,对心理状态进行统计,并根据所涉及的人机交互方式,用语音、动画或其他功能给出回应。
本发明提供的基于表情识别的人机情感交互系统,包括图像采集模块、图像处理模块、表情识别模块、人机交互模块以及统计与存储模块。图像采集模块用于采集人脸图像并传送给图像处理模块。图像处理模块用于对人脸图像进行处理,包括灰度化、水平调节及尺寸调节。表情识别模块,用于根据处理后的人脸图像,利用表情识别方法自动识别出人脸表情,并判断出表情种类。人机交互模块用于根据表情识别模块识别的表情种类与所设计的人机交互方式,提供对应的回应给使用者。统计与存储模块用于根据人脸表情分析得到对应的心理状态,存储使用者不同时间段的表情种类与心理状态,并提供给用户查询。
基于所述的人机情感交互系统,本发明提供的基于表情识别的人机情感交互方法,包括如下步骤:
步骤一:通过图像采集模块采集人脸图像;
步骤二:图像处理模块对所采集的人脸图像进行处理,包括:灰度化、尺寸调节及图像配准;
步骤三:利用表情识别方法,从步骤二处理后的图像中,识别出人脸表情,并判断出表情种类,将代表表情种类的返回值输送给人机交互模块;
步骤四:人机交互模块根据接受到的返回值,利用所设计的人机交互方式(语音、动画、特定功能或综合效果),提供回应给使用者。
步骤五:根据本次人脸表情分析得出人物此时的心理状态并进行记录,同时提供统计查询功能给使用者。
本发明的基于表情识别的人机情感交互系统及方法,其有益效果是:
(1)将本发明的人机情感交互系统及方法用于计算机、手机、平板电脑等设备,采集并分析使用者表情种类,并给出特定的人性化的回应,提高机器的智能性;
(2)将本发明的人机情感交互系统及方法应用在心理护理型机器人,心理护理型机器人通过实时地捕捉患者的表情,一方面在分析之后判断其表情类型,进一步得到其大致的心理状态,为医生提供治疗的有效数据依据,从而提高医生诊断和治疗的准确度,另一方面,机器人据此还可以灵活的做出反应,与患者进行人机互动,在情感方面与患者进行简单而有效地交流;通过两方面的综合,可以实现对心理疾病患者的安全型实时监护。
附图说明
图1是本发明的基于表情识别的人机情感交互系统的整体结构示意图;
图2是本发明的基于表情识别的人机情感交互的方法的整体流程图;
图3是本发明第一种表情识别方法中选取的表情特征点的示意图;
图4是本发明第一种表情识别方法中提取的表情特征量的示意图。
具体实施方式
下面将结合附图和实施例对本发明作进一步的详细说明。
如图1所示,本发明提供的基于表情识别的人机情感交互系统,包括图像采集模块100、图像处理模块200、表情识别模块300、人机交互模块400、以及统计与存储模块500。
图像采集模块100用来采集使用者人脸图像。计算机读取采集的人脸图像,输送到图像处理模块200,图像处理模块200对人脸图像进行处理,调整面部大小及方位、并去噪,处理包括对图像进行灰度化、水平调节及尺寸调节。表情识别模块300根据表情识别方法,对图像处理模块200处理后的图像进行人脸表情识别,识别出人脸表情并判断表情种类,将代表表情种类的返回值输送给人机交互模块400。表情识别模块300中集成多个表情识别方法,用户可根据需要添加新的表情识别方法,在使用时,可选择某个表情识别方法,或者通过利用多个表情识别方法分别计算,从中选取最好的结果。人机交互模块400根据接受到的返回值及所设计的人机交互方式,返回对应的回应给使用者,人机交互方式为预先设定的语音、动画、特定功能或综合效果。统计与存储模块500对此次人脸表情进行分析,得出人物此时的心理状态并进行记录,同时提供统计查询功能给使用者。
如图2所示,为本发明提供的基于表情识别的人机情感交互的方法,具体包括如下步骤:
步骤一:通过图像采集模块100采集人脸图像;
步骤二:图像处理模块200对所采集的人脸图像进行处理,包括:灰度化、水平调节及尺寸调节。本发明实施例中在确定人眼位置的基础上实现图片中人脸表情的水平调节,尺寸调节将原来大小为1280*1024的图片统一为100*100的图片,从而实现图片的归一化处理,为之后表情识别方法的进行做好准备;
步骤三:根据表情识别模块300中的表情识别方法,从步骤二处理后的图像中,识别出人脸表情,并判断出表情种类,将代表表情种类的返回值输送给人机交互模块400;
步骤四:人机交互模块400根据接受到的返回值,利用所设计的人机交互方式,提供回应给使用者;
步骤五:根据本次人脸表情分析得出人物此时的心理状态并记录在统计与存储模块500中,统计与存储模块500存储使用者不同时间的表情种类与心理状态,并可供使用者查询。
在步骤三中,利用表情识别模块3进行人脸表情的识别,表情识别模块3中集成多种表情识别方法,本发明提供了两种方法以供选择使用。
第一种表情识别方法:表情特征点偏移系数可以更好的代表不同表情的特征,故利用表情特征点偏移系数进行表情识别。本发明实施例以USTC-NVIE数据库为基础,通过对数据库中的50个实验者的7种基本表情图像进行分析,得到生气、厌恶、恐惧、高兴、悲伤和惊讶六种基本表情的表情特征点偏移系数各分量取值的平均数,作为表情识别的依据。进而对计算机捕捉到的任一交互对象的人脸图像,通过计算所定义的表情特征点判别系数,实现表情识别。具体第一种表情识别方法包括如下步骤3.1~3.。
步骤3.1:选取表情特征点。如图3所示,分别选取人脸图像中左侧眉毛的眉头、眉峰和眉尾三点,左眼眼眶的上下左右四个顶点,右眼的左顶点,以及嘴唇轮廓的上下左右四个顶点,一共12个点作为最能代表表情特征的表情特征点。图3中标号3处指眉头,标号1处指眉尾。
步骤3.2:提取表情特征量。如图4所示,提取9个表情特征量t,a,b,c,d,e,f,g,h;其中,t代表两内眼角距,其余8个表情特征量分别代表八个具有物理意义的几何向量。a代表左眼外眼角到右眼内眼角的水平距离,b代表两嘴角的距离,c代表左眼外眼角到左侧眉尾的垂直距离,d代表左眼眼眶的上顶点到左侧眉毛眉峰的垂直距离,e代表左眼眼眶的下顶点到左侧眉毛眉峰的垂直距离,f代表左眼眼眶的上顶点到下顶点的垂直距离,g代表左眼内眼角到嘴唇左顶点的垂直距离,h代表上下嘴唇的高度差。b和h两个表情特征量结合起来可以体现嘴巴的张开程度等。
步骤3.3:用表情特征向量来表示当前人脸的表情。
本发明设定正常、开心、生气、惊讶、悲伤、厌恶和恐惧的表情特征向量分别用表示,i为整数,且0≤i≤6。
其中,正常的表情特征向量
其余表情特征向量
步骤3.4:用表情特征点偏移系数来表征人脸表情:
检测人脸时,由于拍摄角度问题,每张图像中人脸比例可能不同,所以同一个人的不同表情无法用表情变量之差直接描述。如果选择两内眼角距为基准,将各表情变量与基准值的比值作为新的变量,与标准值比较,就可以有更好的效果。
故定义第i种表情特征点偏移系数为:
其中,i=0,1,...,6,分别表示表情正常、开心、生气、惊讶、悲伤、厌恶和恐惧。每种表情的表情特征点偏移系数包含9个分量wi,0~wi,8,由式中可看出,分量wi,0始终为0,剩余分量根据相应的表情特征量确定。
表情特征点偏移系数代表了某一表情相对自然表情(即正常表情)的变化情况。表征正常的表情特征点偏移系数为(0,0,...,0)。
步骤3.5:首先依据某人脸表情数据库,统计每种表情的表情特征点偏移系数的平均值,然后计算当前人脸表情相对于每种表情特征点的判别系数,将其中最小判别系数对应的表情作为当前人脸表情,并返回对应的i值。
本发明实施例以USTC-NVIE数据库为基础,通过实验数据统计的方法,可以获得并记录不同表情对映的表情特征点偏移系数在的每个元素取值的平均值、中位数、极差等参数。经过分析,发现平均值最能代表不同表情的特征,故统计了不同表情特征点偏移系数的平均值。第i(1≤i≤6,i∈N+)种表情的表情特征点偏移系数的平均值表示为:
在试验中获得的六种基本表情特征点偏移系数各分量的平均值如表1所示:
表1表情特征点偏移系数各分量平均值
表1为根据USTC-NVIE数据库计算的各种表情的平均值,根据所计算的平均值进一步获取当前人脸表情相对于第i种表情特征点的判别系数Di。
根据表情特征点判别系数Di越小,代表交互者呈现的表情的特征点偏移系数与第i种表情特征点偏移系数越接近,即其呈现的表情与第i种表情越相似,故将min{Di}所代表的表情判别为交互者的面部表情种类。
第二种表情识别方法:首先获取表情分类标准,然后根据标准,把读入的任一副表情图像归为七种基本表情的一类,实现表情识别。
设编号i=0,1,...,6,分别表示表情正常、开心、生气、惊讶、悲伤、厌恶和恐惧。
首先得到表情分类标准,即获取用于表情分类的表情的判别矩阵,包括步骤3A~3D。
步骤3A:读入第i种表情的M个训练样本图像
步骤3B:对每一个样本图像进行Gabor小波变换。
采用的二维Gabor小波的核函数定义为:
其中,u,v分别表示Gabor核的方向和尺度;
比如,取u∈{0,1,...,5},代表6个方向,0,
取v∈{0,1,...,4},代表5个频率;
代表灰度图像(矩阵)A′中每一点的坐标;
σ为小波滤波器的带宽,一般取σ=2π;
波矢量其中,kv=kmax/fv,kmax为最大频率,fv为频率中的内核间隔因子,一般取kmax=π/2,表示小波的不同方向;
j是复数算子;
||·||为向量范数,编程时采用2-范数。
通过二维Gabor小波的核函数,对读入的样本图像A′中的每一点进行计算,得到针对特定u,v取值的矩阵A,其中,A的元素均为复数;
然后,由该图像和Gabor滤波器的卷积得到:
Ou,v=||A*A′||F
|| ||F是求所得矩阵F-范数。
这样,就可以得到第i种表情的第l个样本图像经Gabor小波变换的6*5的矩阵
步骤3C:将第i种表情的M个样本图像经Gabor小波变换得到的求均值,得到
然后求第i种表情的训练样本总体散布矩阵Si:
计算Si的特征值ζ0,ζ1,…,ζk,并得到特征向量Xi=(ζ0,ζ1,…,ζk-1),k为u的取值个数。
本发明实施例中可得到Si的特征向量Xi=(ζ0,ζ1,…,ζ5)。
步骤3D:对Si的特征向量Xi进行离散余弦变换。
根据矩阵Xi的元素来确定矩阵Ci,Ci为k×k的矩阵,其中第p行第q列的元素cp,q为:
其中,函数 f(x,y)为矩阵Xi的元素,代表点(x,y)处的灰度。f(x,y)是矩阵Xi中第x行第y列的元素。
本发明实施例中,Xi∈R6×6,求矩阵
其中,
f(x,y)为矩阵Xi的元素,代表点(x,y)处的灰度,p=0,1,…,6-1;q=0,1,…,6-1。
将Ci写为列向量形式:Ci=(x0,x1,…,x5),通过实验,得到7种基本表情的判别矩阵Ci(i=0,1,…,6),将得到的判别矩阵作为表情识别的依据。
把读入的任一副表情图像归为七种基本表情的一类,实现表情识别,包括如下步骤3a~3e。
步骤3a:读入灰度图像I。
步骤3b:对图像I进行Gabor小波变换,得到矩阵o。
步骤3c:利用已得的7种基本表情分别针对7种表情计算当前图像的散布矩阵si:
进一步得到各散布矩阵si的特征向量xi。
步骤3d:对xi进行离散余弦变换,得到矩阵
步骤3e:计算步骤3d得到矩阵ci与各种表情判别矩阵Ci差值的F-范数。
对于i=0,1,…,6,分别计算μi=||ci-Ci||F,然后取使得μi最小的i值,将其代表的表情种类作为当前图像人脸表情的判定结果。
本发明实施例中,人脸表情通过matlab图像处理软件的处理后,经过表情识别方法的运算得到表情种类,将反馈值设定为从0到6的各个自然数,分别代表正常(neutral)、开心(happiness)、生气(anger)、惊讶(surprise)、悲伤(sadness)、厌恶(disgust)、恐惧(fear)表情。反馈值将被写到一个txt文本文件中。接下来通过人机交互模块400的Flash程序读取这个文件的内容进行人机交互方式的匹配,并通过相应的动画表情来回应。本发明实施例是关于计算机动画对实验者的人脸表情回应的程序是基于adobe flash软件及Action Script的脚本语言来编的。程序设计过程中,应用到了数个关于ActionScript的io流控制。如表2所示,为本发明实施例中设定的人机交互方式。
表2本发明实施例中设定的人机交互回应
患者表情 | 机器人表情回应(动画) |
1.平静 | 微笑(以示友好) |
2.生气 | 担忧,关切(皱眉) |
3.厌恶 | 微笑 |
4.害怕 | 鼓励“别害怕,勇敢点!” |
5.高兴 | 大笑 |
6.悲伤 | 悲伤,关切 |
7.惊奇 | 好奇 |
在实际使用中,将本发明提供的针对心理健康分析的人机情感交互的方法及系统应用在心理护理型机器人上,具体可按照如下步骤实施。
第一步:根据病人的实际情况,设置合适的时间间隔。
第二步:每隔设定的时间间隔拍摄人脸图像,进行表情捕捉,判别人脸表情,机器人据此与病人进行基于表情识别的情感互动。
同时把此次分析得到的数据设计成类似下面的数据结构,作为文件中的一行写入文件:
Name(姓名):time(时间),expression(情感)
把一段时间内的数据写为一个文件。通过记录的文件可做少量统计功能,比如说最近一定时间段内各种心情统计次数占总次数的百分比。
第三:医生的客户端。将此统计文件传输给医生,医生据此得出初步诊断结果。
第四:患者的客户端。设置查询按钮,患者可选择性地查询最近各种心情次数占总次的百分比,了解自己的病情,同时获悉系统据此给出的一些生活习惯小建议等。
Claims (3)
1.一种基于表情识别的人机情感交互方法,其特征在于,包括如下步骤:
步骤一:通过图像采集模块采集人脸图像;
步骤二:图像处理模块对所采集的人脸图像进行处理,包括:灰度化、尺寸调节及图像配准;
步骤三:根据表情识别方法,从步骤二处理后的图像中,识别出人脸表情,并判断出表情种类,将代表表情种类的返回值输送给人机交互模块;通过如下步骤3.1到3.5实现:
步骤3.1:选取表情特征点,具体是:分别选取人脸图像中左侧眉毛的眉头、眉峰和眉尾三点,左眼眼眶的上下左右四个顶点,右眼的左顶点,以及嘴唇轮廓的上下左右四个顶点,一共12个点作为最能代表表情特征的表情特征点;
步骤3.2:根据表情特征点,提取表情特征量t,a,b,c,d,e,f,g,h;其中,t代表两内眼角距,其余8个表情特征量分别代表八个具有物理意义的几何向量;a代表左眼外眼角到右眼内眼角的水平距离,b代表两嘴角的距离,c代表左眼外眼角到左侧眉尾的垂直距离,d代表左眼眼眶的上顶点到左侧眉毛眉峰的垂直距离,e代表左眼眼眶的下顶点到左侧眉毛眉峰的垂直距离,f代表左眼眼眶的上顶点到下顶点的垂直距离,g代表左眼内眼角到嘴唇左顶点的垂直距离,h代表上下嘴唇的高度差;b和h两个表情特征量结合起来可以体现嘴巴的张开程度;
步骤3.3:用表情特征量表示人脸表情,得到表情特征向量
设代表正常、开心、生气、惊讶、悲伤、厌恶和恐惧的表情特征向量分别为i为整数,且0≤i≤6,其中i=0时为正常的表情特征向量;
步骤3.4:用表情特征点偏移系数来表征人脸表情:
步骤3.5:首先依据某人脸表情数据库,统计每种表情的表情特征点偏移系数的平均值,然后计算当前人脸表情相对于每种表情特征点的判别系数,将其中最小判别系数对应的表情作为当前人脸表情,并返回对应的i值;
其中,第i种表情的表情特征点偏移系数的平均值表示为
当前人脸表情相对于第i种表情特征点的判别系数Di为:
i为正整数,且0<i≤6;
步骤四:人机交互模块根据接受到的返回值,利用所设计的人机交互方式,提供回应给使用者;
步骤五:根据本次人脸表情分析得出人物此时的心理状态并进行记录,同时提供统计查询功能给使用者。
2.根据权利要求1所述的人机情感交互方法,其特征在于,步骤三中所述的表情识别方法,还可以通过如下步骤实现:
(一)获取用于表情分类的判别矩阵,包括如下步骤:
步骤3A:读入第i种表情的M个训练样本i=0,1,…,6,分别表示表情正常、开心、生气、惊讶、悲伤、厌恶和恐惧;
步骤3B:对每一个样本图像进行Gabor小波变换;通过二维Gabor小波的核函数,对读入的样本图像A′中的每一点进行计算,得到针对特定u,v取值的矩阵A,u,v分别表示Gabor核的方向和尺度;
对于第i种表情的第l个样本图像经Gabor小波变换得到矩阵 步骤3C:将第i种表情的M个样本图像经Gabor小波变换得到矩阵求均值,得到
然后求第i种表情的训练样本的总体散布矩阵Si:
然后求取Si的特征值ζ0,ζ1,…,ζk,并得到特征向量Xi=(ζ0,ζ1,…,ζk-1),k为u的取值个数;
步骤3D:对Si的特征向量Xi进行离散余弦变换,具体是:
根据特征向量Xi的元素来确定矩阵Ci,Ci为k×k的矩阵,其中第p行第q列的元素cp,q为:
其中,函数f(x,y)为特征向量Xi的元素,代表点(x,y)处的灰度;
将Ci写为列向量形式,并作为第i种表情的判别矩阵;
(二)对读入的人脸图像的表情进行识别,包括如下步骤:
步骤3a:读入灰度图像I;
步骤3b:对图像I进行Gabor小波变换,得到矩阵o;
步骤3c:针对7种表情,分别计算当前图像的散布矩阵si:
并进一步得到各散布矩阵si的特征向量xi;
步骤3d:对xi进行离散余弦变换,得到矩阵ci;
步骤3e:针对第i种表情,计算矩阵ci与判别矩阵Ci差值的F-范数μi:μi=||ci-Ci||F;选取值最小的μi,将值最小的μi对应的i值为人脸图像的表情种类。
3.根据权利要求1所述的人机情感交互方法的一种基于表情识别的人机情感交互系统,其特征在于:包括图像采集模块、图像处理模块、表情识别模块、人机交互模块以及统计与存储模块;图像采集模块用于采集人脸图像并传送给图像处理模块;图像处理模块用于对人脸图像进行处理,包括灰度化、水平调节及尺寸调节;表情识别模块用于根据处理后的人脸图像,利用表情识别方法自动识别出人脸表情,并判断出表情种类;人机交互模块用于根据表情识别模块识别的表情种类与所设计的人机交互方式,提供对应的回应给使用者;统计与存储模块用于根据人脸表情分析得到对应的心理状态,存储使用者不同时间的表情种类与心理状态,并提供给用户查询。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310413648.7A CN103488293B (zh) | 2013-09-12 | 一种基于表情识别的人机情感交互系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310413648.7A CN103488293B (zh) | 2013-09-12 | 一种基于表情识别的人机情感交互系统及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103488293A CN103488293A (zh) | 2014-01-01 |
CN103488293B true CN103488293B (zh) | 2016-11-30 |
Family
ID=
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101187990A (zh) * | 2007-12-14 | 2008-05-28 | 华南理工大学 | 一种会话机器人系统 |
CN102193620A (zh) * | 2010-03-02 | 2011-09-21 | 三星电子(中国)研发中心 | 一种基于表情识别的输入方法 |
CN102467668A (zh) * | 2010-11-16 | 2012-05-23 | 鸿富锦精密工业(深圳)有限公司 | 情绪侦测及舒缓系统及方法 |
CN102541259A (zh) * | 2011-12-26 | 2012-07-04 | 鸿富锦精密工业(深圳)有限公司 | 电子设备及其根据脸部表情提供心情服务的方法 |
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101187990A (zh) * | 2007-12-14 | 2008-05-28 | 华南理工大学 | 一种会话机器人系统 |
CN102193620A (zh) * | 2010-03-02 | 2011-09-21 | 三星电子(中国)研发中心 | 一种基于表情识别的输入方法 |
CN102467668A (zh) * | 2010-11-16 | 2012-05-23 | 鸿富锦精密工业(深圳)有限公司 | 情绪侦测及舒缓系统及方法 |
CN102541259A (zh) * | 2011-12-26 | 2012-07-04 | 鸿富锦精密工业(深圳)有限公司 | 电子设备及其根据脸部表情提供心情服务的方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110349652B (zh) | 一种融合结构化影像数据的医疗数据分析系统 | |
CN110464366A (zh) | 一种情绪识别方法、系统及存储介质 | |
CN101561868B (zh) | 基于高斯特征的人体运动情感识别方法 | |
Zhang et al. | Computer models for facial beauty analysis | |
CN112800998B (zh) | 融合注意力机制和dmcca的多模态情感识别方法及系统 | |
CN103473294B (zh) | 基于msvm脑电信号特征分类的方法及智能轮椅系统 | |
CN109993093A (zh) | 基于面部和呼吸特征的路怒监测方法、系统、设备及介质 | |
CN109034099A (zh) | 一种表情识别方法及装置 | |
CN110197729A (zh) | 基于深度学习的静息态fMRI数据分类方法和装置 | |
CN108937973A (zh) | 一种机器人诊断人体愤怒情绪方法及装置 | |
CN107729882A (zh) | 基于图像识别的情绪识别判定方法 | |
WO2021004510A1 (zh) | 基于传感器的分离式部署的人体行为识别健康管理系统 | |
CN109528217A (zh) | 一种基于生理振动分析的情绪检测和预警方法 | |
CN109726662A (zh) | 基于卷积和循环组合神经网络的多类别人体姿态识别方法 | |
CN107392151A (zh) | 基于神经网络的人脸影像多维度情感判别系统及方法 | |
CN108960171B (zh) | 一种基于特征迁移学习的转换手势识别到身份识别的方法 | |
CN109685148A (zh) | 多类别人体动作识别方法及识别系统 | |
Parvathi et al. | Emotion Analysis Using Deep Learning | |
Chen et al. | Patient emotion recognition in human computer interaction system based on machine learning method and interactive design theory | |
Danelakis et al. | A spatio-temporal wavelet-based descriptor for dynamic 3D facial expression retrieval and recognition | |
Chen et al. | Design and implementation of human-computer interaction systems based on transfer support vector machine and EEG signal for depression patients’ emotion recognition | |
Yang et al. | Data augmentation for depression detection using skeleton-based gait information | |
CN113974627A (zh) | 一种基于脑机生成对抗的情绪识别方法 | |
Kwaśniewska et al. | Real-time facial features detection from low resolution thermal images with deep classification models | |
Bilang et al. | Cactaceae detection using MobileNet architecture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |