CN104463100B - 基于面部表情识别模式的智能轮椅人机交互系统及方法 - Google Patents

基于面部表情识别模式的智能轮椅人机交互系统及方法 Download PDF

Info

Publication number
CN104463100B
CN104463100B CN201410623938.9A CN201410623938A CN104463100B CN 104463100 B CN104463100 B CN 104463100B CN 201410623938 A CN201410623938 A CN 201410623938A CN 104463100 B CN104463100 B CN 104463100B
Authority
CN
China
Prior art keywords
facial expression
expression
model
expressive features
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410623938.9A
Other languages
English (en)
Other versions
CN104463100A (zh
Inventor
罗元
张毅
胡章芳
李春连
席兵
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201410623938.9A priority Critical patent/CN104463100B/zh
Publication of CN104463100A publication Critical patent/CN104463100A/zh
Application granted granted Critical
Publication of CN104463100B publication Critical patent/CN104463100B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression

Abstract

本发明请求保护一种基于面部表情识别的智能轮椅人机交互系统及方法,涉及生物学、心理学、计算机视觉、模式识别和人工智能等领域。本发明通过几何模型匹配算法自动定位到面部特征集中有效的眉毛、眼睛、嘴巴区域,然后对其分别进行ASM特征点的定位、将定位的特征点像素与Gabor小波核函数进行卷积运算以实现对面部表情特征的提取;进而Adaboost算法迭代训练表情特征以得到表情分类模型;采用此表情分类模型实现对输入表情序列的分类识别,将其与预先定义的控制指令作比较,从而实现面部表情识别对智能轮椅的交互控制。其中,对面部表情进行特征提取时,本发明大大提高了面部表情的实时识别,从而大大提高与智能轮椅的实时交互。

Description

基于面部表情识别模式的智能轮椅人机交互系统及方法
技术领域
本发明属于属于人工智能和计算机视觉领域,具体涉及基于面部表情识别模式的智能轮椅人机交互系统及方法
背景技术
《老龄问题国际行动计划》指出:老年人问题和老龄化问题已经成为发展中国家的一个新挑战。我国作为最大的发展中国家,老年人口数量是世界之最。第六次全国人口普查数据表明,老年人口数量比例上升2.93%,对于身体状况日趋衰老的老年人来说,其个人能力不易解决日常正常活动等问题;且由种种原因每年会造成很多人丧失如动手、语言等的一种或多种能力,丧失的这些能力大大影响了他们的生活自理等方面。因此,改善老年人士和残障人士的生活质量,使他们更好的融入到日常生活,性能优越的代步工具是他们所需要的。而一种典型的助老、助残服务轮式机器人——智能轮椅成为了热点研究对象,它兼有电动控制和智能控制的方式,融合了机器视觉、多传感器信息、模式识别、机器人导航与定位以及人机接口等多种技术,既可以提供室内室外的自主导航、自主避障,还有着强大的人机交互能力,可以实现基于头势识别、手势识别、语音识别等一种或多种模式的智能人机交互。为了使智能轮椅高效地服务于老年人士和残障人士,自然和谐的人机交互就显得尤为重要。特别是针对残障程度较高的人士,其中,对于手部存在严重的病理性颤抖的残障人士,不能通过操纵杆准确的控制轮椅;对于有言语能力的残障人士,尽管可以采用语音识别模式来控制智能轮椅的简单运动,但是在嘈杂的环境下,语音命令的识别率较低,不利于语音识别的控制;而肌电、脑波模式控制智能轮椅时,所需传感器(用于信号采集)特别昂贵,不利于控制方式的普适性;另外,心理学家Mehrabian提出,在人们的信息交流中,面部表情传递高达55%的信息量,采用面部表情识别模式进行智能轮椅的人机交互时,不需要特别昂贵的设备,其限制性小、自由度大。
对面部表情识别这方面的研究,国内外进行了大量的研究。
在国外,Mattew N.Dailey等人采用Gabor小波变换与局部PCA方法进行表情图像的特征提取,谈后用Fisher线性鉴别分析对提取后的图像进行重要特征部位(如眼睛、嘴巴等)的定位,最后通过集成神经网络进行识别。其中神经网络结构表庞大,计算量过大,也是对静态表情图像的。Hal Hong等人针对不同人脸分别建立了相应表情库,包括7种表情,每种表情各有不同表情强度的4幅图像,将其作为训练集,采用弹性匹配方法进行训练识别。卡内基梅隆大学的Lien通过区别表情单元来理解面部肌肉的独立机制,它考虑了3个上部面部表情单元和6个下部面部表情单元,并对其进行自动识别和强度测量。匹兹堡大学的Cohn和卡内基梅隆大学的Kanade等人使用光流法来识别面部表情。通过评价光流的分级算法来自动跟踪选取的面部特征。麻省理工学院媒体实验室的Kapoor等人提出了一种全自动的面部动作单元分析系统,该系统使用红外相机检测瞳孔,然后通过主成分分析提出参数,并采用支持向量机来识别面部表情单元。
在国内:东南大学成功研制的面部表情识别系统,它由多个摄像头和计算机组成,计算机中预先已存有6种基本表情的相关信息量,此系统识别同一个人的不同表情时,识别率可观。中国科学院自动化研究所研究了人脸的面部动作运动,进而将其与智能轮椅进行交互,如下:当用户做出某一头部动作时,智能轮椅则会做出对应的运动,比如用户将头左侧转时,轮椅进行左转方向的运动;用户将头右侧转时,轮椅进行右转方向的运动。2004年,哈尔滨工业大学智能运动控制研究室内,研制出的H&F robot-I能够识别8种不同的面部表情:正常、高兴、严肃、悲伤、微笑、吃惊、生气和害怕。
对面部表情识别方法的国内外研究现状进行分析后,本发明中提出了一种新的表情识别方法对面部进行表情识别,并将面部表情应用在智能轮椅的控制交互上。
发明内容
针对以上现有技术中的不足,本发明的目的在于提供一种减少了计算复杂度、缩短了特征提取的时间,从而大大提高了面部表情识别的实时性能的基于面部表情识别模式的智能轮椅人机交互系统及方法,本发明的技术方案如下:一种基于面部表情识别模式的智能轮椅人机交互系统,其包括表情图像采集模块、表情图像特征提取模块、表情特征训练模块、表情序列识别模块、智能轮椅控制模块;其中
表情图像采集模块:用于采集待采集对象的表情图像,并转发给表情特征训练模块;
表情特征训练模块:用于将采集的表情图像和预先设选定的表情库表情图像共同作为面部表情训练集,并经过预处理后转发给表情图像特征提取模块;并将表情图像特征提取模块提取到的表情特征通过迭代训练得到表情分类模型;
表情图像特征提取模块:用于对表情特征训练模块的面部表情训练集进行定位、特征提取得到表情特征;
表情序列识别模块:用于对新输入的每帧表情序列进行与表情特征训练模块相同的图像与处理、特征提取操作后,调用表情分类模型实现表情的识别;
智能轮椅控制模块:用于根据表情的类型、得到相应的控制指令,实现对智能轮椅的实时控制。
一种基于面部表情识别模式的智能轮椅人机交互方法,其包括以下步骤:
201、采用摄像头获取人脸面部的RGB彩色图像,并对图像进行去噪、尺度归一化的预处理后转为RGB灰度图像;
202、采用几何模板匹配算法对预处理后的RGB灰度图像自动定位眉毛、眼睛、嘴巴区域;然后采用ASM主动形状模型方法定位到所述眉毛、眼睛、嘴巴区域中的表情特征点位置,得到表情特征点序列;
203、然后对预先设选定的表情库表情图像里的每幅图像做与步骤202相同的特征定位提取操作,提取得到的表情特征通过Adaboost自适应增强算法的迭代训练得到表情分类模型;
204、将步骤202中得到的表情特征点序列与表情分类模型相比较并识别,确定表情的类型、得到相应的控制指令,实现对智能轮椅的实时控制。
进一步的,当定位眼睛区域时,步骤202中的几何模板匹配算法的评价函数为下式:
Eeye=exp[-1.2×((l1-l2)2+(l1+l2-1)2+(θ1-θ)2+(θ2-θ)2)]
其中θi,i=1,2分别代表两只眼睛的方位角,li,i=1,2为双眼的归一化长度,由最初的长度除以两个块之间的距离D,如下式:
其中点(x1,y1)和(x2,y2)分别为右眼和左眼的中心坐标,即D为双眼中心之间的距离。
进一步的,步骤202中的ASM主动形状模型搜索步骤如下:
(1)ASM表示为:初始化模型参数b,取b=0,获得初始模型向量b是模型参数,φ是目标模型的特征子空间基,是由主分量特征向量构成的变换矩阵,X表示目标形状,X表示平均形状;
(2)沿当前模型X的每个边界点周围搜索,寻找各边界点的最佳匹配点;
(3)更新模型参数b,产生由匹配点结合构成的模型,并将其设为新的当前模型X;
(4)重复步骤(2)和(3)直到模型不再发生明显变化。
本发明的优点及有益效果如下:
本发明首先采集6种基本类型的面部表情图像作为训练集,对表情训练集进行滤波、归一化等图像预处理后,采用几何模型匹配方法自动的定位表情特征较集中有效的眉毛、眼睛和嘴巴区域,然后对这三个区域分别采用ASM方法定位得到有效表情特征点的信息、进而采用Gabor小波变换方法对定位的表情特征点进行特征提取(特征点像素与Gabor小波核函数进行卷积运算结果的模值),最后对得到的表情特征采用Adaboost算法进行迭代训练以得到面部表情分类模型,通过表情分类模型可以实现新输入表情图像或者序列的表情类型,完成面部表情类型的判断识别,将其识别结果与预先定义的控制指令相比较(如惊讶控制停止、高兴控制前进、生气控制后退、恐惧控制左转、悲伤和厌恶共同控制右转),从而控制智能轮椅的运动。其中的创新点是采用了几何模型匹配自动定位有效表情区域,进而采用ASM方法定位到有效表情控制点信息,其优势在于:仅仅提取表情特征变换明显且能有效代表表情特征信息的眉毛、眼睛以及嘴巴区域,对不明显的部位没有进行相应的特征提取处理,此方案降低了输入的信息量,但是有效的信息基本没有变化,很大程度上减少了表情特征的维数、减少了计算复杂度、缩短了特征提取的时间,从而大大提高了面部表情识别的实时性能,解决了因面部表情识别时间过长而使得不能实时与智能轮椅的交互控制问题,提高了智能交互的性能。
附图说明
图1是本发明采用面部表情控制智能轮椅的整体实现示意框图;
图2本发明中采用ASM方法实现目标物体定位的流程示意图;
图3本发明中采用Adaboost算法的表情强分类器训练流程示意图。
具体实施方式
下面结合附图给出一个非限定的实施例对本发明作进一步的阐述。但是应该理解,这些描述只是示例的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念。
基于面部表情识别控制智能轮椅的人机交互中,首先通过几何模型匹配自动定位到表情特征集中有效的眉毛、眼睛和嘴巴区域,对这些区域分别建立ASM模型以定位得到有效的表情特征点信息,将其像素与Gabor小波核函数进行卷积运算提取表情特征;其次Adaboost算法训练得到的表情特征,迭代训练结束后得到表情分类模型;最后采用此表情分类模型对摄像头新输入的表情序列一帧一帧的进行表情类型的识别;最后将识别的类型与预先定义好的控制指令相比较,确定面部表情控制轮椅的控制指令,进而与控制智能轮椅进行对应的交互运动。其中,几何模型匹配算法利用的依据是人脸器官之间固有的几何关系,在所有特征块中寻找人脸器官的可能组合,按照一定的权重组合,对每一组可能的面部特征组合的特征块组,根据已有的评价函数,可以计算得到一个估计值,然后与阈值作比较,大于阈值说明这些特征块为人脸特征,进而可以自动定位出人脸的感兴趣区域,取代输入的整幅表情图像,而是对这些感兴趣区域进行表情特征的提取,大大减少了计算复杂度,可以提高表情的实时识别。ASM方法是采用基于点分布模型(Point Distribution Model,PDM)对感兴趣区域(眉毛、眼睛和嘴巴)的样本集训练学习得出的表示目标形状合理变化的统计模型。定位时,多次迭代使用得到的形状模型去限制目标模型的形变,实现对目标的匹配定位,由于是对感兴趣区域进行ASM建模以定位表情特征点,和整幅人脸建立ASM模型比较,当与后续的Gabor小波核函数进行卷积运算时,再一次降低了计算量以及减少了信息冗余。Gabor小波核函数是一组平面波,具有高斯函数的性质,对Gabor小波函数进行变换时,是同时对空域和频域信号进行了局部化处理,同时测量了空域和频域特征,将ASM定位到的感兴趣区域的表情特征点像素与Gabor小波核函数进行卷积运算,卷积结果的幅值即是提取的表情特征信息,它具有鲁棒的方向及尺度特性。Adaboost算法就是训练这些有鲁棒性的表情特征,这和经典Adabosot训练算法所选取的特征不同,经典的Adaboost训练算法采用的是矩形特征,弱分类器的特征值就是矩形特征的特征值。因为Adaboost算法是一种迭代训练算法,是多层结构的,训练的结果是由多个弱分类器组成的强分类器,当采用这个强分类器对待一幅待检测图像时,是让所有弱分类器投票,再将投票结果按照弱分类器是错误率加权求和,将其结果与平均投票(赞成票和反对票的概率相同)结果比较得到最终的结果。以上对本发明的阐述说明:几何模型匹配算法的自动定位眉毛、眼睛、嘴巴区域以及对其ASM模型的建立定位表情特征点是一种新思想。
以下对本发明作具体描述:
图1是采用面部表情控制智能轮椅运动的示意图,摄像头获取人脸面部的RGB彩色图像,需要通过色彩转换将RGB图转化成灰度图像,但是采集的图像含有一定的高斯噪声且不同摄像设备采集的尺寸大小不同,所以需要对表情图像进行去噪以及尺度归一化的操作处理。然后对预处理后的表情图像进行几何模版匹配方法的自动区域定位,接着采用ASM方法定位到区域中的表情特征点位置,对表情训练样本集里的每幅图像做相同的特征提取操作,提取得到的表情特征通过Adaboost算法的迭代训练得到表情分类模型。得到表情分类模型之后,对新输入的每帧表情序列进行与训练阶针相同的图像与处理、特征提取操作后,调用表情分类模型实现表情的识别,进而可以确定表情的类型、得到相应的控制指令,实现对智能轮椅的实时控制。其中,以几何模板匹配算法的眼睛区域自动定位为例进行说明,眼睛的评价函数设为如下式(1):
Eeye=exp[-1.2×((l1-l2)2+(l1+l2-1)2+(θ1-θ)2+(θ2-θ)2)] (1)
其中θi,i=1,2分别代表两只眼睛的方位角,li,i=1,2为双眼的归一化长度,由最初的长度除以两个块之间的距离D,如下式(2):
其中点(x1,y1)和(x2,y2)分别为右眼和左眼的中心坐标,即D为双眼中心之间的距离。
评价函数中Eeye中各项表达式越接近0,则评价函数值越接近于1。评价函数的取值范围是[0,1],值越大,表明两个特征块是眼睛的可能性就越大。根据实验经验可知,评价值超过一定阈值的两个特征块被认定为眼睛部分,进而可以根据人脸几何关系,可以确定眉毛、嘴巴的区域。
图2是采用ASM模型进行特征点定位的流程图,其中图(a)为ASM算法流程,图(b)表示采用建立的ASM模型实现新输入目标特征点的定位流程。ASM可以表示为:
其中,向量b是模型参数,φ是目标模型的特征子空间基,是由主分量特征向量构成的变换矩阵,X表示目标形状,表示平均形状。ASM由两部分组成:一是形状模型的建立,二是利用模型进行搜索的过程。搜索过程[3,8]包括计算新位置、计算形状和姿态参数以及参数更新,搜索步骤如下:
(1)初始化模型参数b,通常取b=0,获得初始模型
(2)沿当前模型X的每个边界点周围搜索,寻找各边界点的最佳匹配点;
(3)更新模型参数b,产生由匹配点结合构成的模型,并将其设为新的当前模型X;
(4)重复步骤(2)和(3)直到模型不再发生明显变化。
步骤(2)用到的即是局部灰度模型:在待检测特征点k对应的法线方向左右两侧分别取相同的点,组成灰度向量gk,对灰度向量求差分,进而归一化差分向量,可以得到待检测特征点对应的灰度均值和协方差C,它们作为待检测特征点的匹配特征,对每一个特征点做同样的计算分析,可以得到整个形状轮廓的统计特征,在匹配的过程中,采用马氏距离作为匹配函数,如下式:
图3是Adaboost算法训练表情特征以得到表情强分类器模型的示意图。Adaboost分类方法实现表情分类的过程如下:首先对预处理后的表情训练样本集进行相应方法的表情特征提取后;然后采用Adaboost算法对训练集表情特征进行T轮迭代运算,可以得到T个弱分类器组成的一个表情强分类器;对待识别的表情图像或序列,进行训练阶段相同方法的表情特征提取后,送入表情强分类器中,进而实现待分类表情类别的识别。
Adaboost分类训练算法是一个迭代过程,给定N幅表情图像构成训练样本{(x1,y1),...,(xn,yn)},其中xi∈X,X是训练样本集,yi是类别标志,yi∈{1,-1}。设第i样本xi有K维特征vk(xi)(1≤k≤K),对输入特征vk(x)对应一个判断公式,即弱分类器:
弱分类器中由阈值θk和偏置pk决定样本的类别。
设训练使用T个弱分类,训练算法如下:
(1)给定初始权值:w0(xi)=1/n,i=1,...,n;
(2)对于弱分类器h和特征vk(X),确定阈值θk和偏置pk,计算ht,k(X);
(3)遍历k个特征,基于权重计算h的错误率:
其中计算上式的最小值,并得到对应的弱分类ht,k
(4)更新权重
(5)重复(2)—(4),直至t=T,训练结束
(6)最后得到Adaboost强分类器
基于Adaboost算法的训练流程示意图如图3所示:
对Adaboost算法训练中的部分参数作以下的说明:参数at表示弱分类器ht(X)的性能评价因子,由ht(X)作用于样本集产生的分类错误的样本权重之和εt来决定。at是εt的减函数,随着εt的减小(增大)而增大(减小),越大的at说明ht(X)在强分类器中的权重越大,说明Adaboost算法训练过程是自适应的。
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (3)

1.一种基于面部表情识别模式的智能轮椅人机交互系统,其特征在于:包括表情图像采集模块、表情图像特征提取模块、表情特征训练模块、表情序列识别模块、智能轮椅控制模块;其中
表情图像采集模块:用于采集待采集对象的表情图像,并转发给表情特征训练模块;
表情特征训练模块:用于将采集的表情图像和预先设选定的表情库表情图像共同作为面部表情训练集,并经过预处理后转发给表情图像特征提取模块;并将表情图像特征提取模块提取到的表情特征通过迭代训练得到表情分类模型;
表情图像特征提取模块:用于对表情特征训练模块的面部表情训练集进行定位、特征提取得到表情特征,采用几何模型匹配算法自动定位有效表情区域,进而采用ASM方法定位到有效表情控制点信息;具体包括:对预处理后的RGB灰度图像自动定位眉毛、眼睛、嘴巴区域;然后采用ASM主动形状模型方法定位到所述眉毛、眼睛、嘴巴区域中的表情特征点位置,得到表情特征点序列;当定位眼睛区域时,步骤202中的几何模板匹配算法的评价函数为下式:
Eeye=exp[-1.2×((l1-l2)2+(l1+l2-1)2+(θ1-θ)2+(θ2-θ)2)]
其中θi,i=1,2分别代表两只眼睛的方位角,li,i=1,2为双眼的归一化长度,由最初的长度除以两个块之间的距离D,如下式:
其中点(x1,y1)和(x2,y2)分别为右眼和左眼的中心坐标,即D为双眼中心之间的距离;
表情序列识别模块:用于对新输入的每帧表情序列进行与表情特征训练模块相同的图像与处理、特征提取操作后,调用表情分类模型实现表情的识别;
智能轮椅控制模块:用于根据表情的类型、得到相应的控制指令,实现对智能轮椅的实时控制。
2.一种基于面部表情识别模式的智能轮椅人机交互方法,其特征在于:包括以下步骤:
201、采用摄像头获取人脸面部的RGB彩色图像,并对图像进行去噪、尺度归一化的预处理后转为RGB灰度图像;
202、采用几何模板匹配算法对预处理后的RGB灰度图像自动定位眉毛、眼睛、嘴巴区域;然后采用ASM主动形状模型方法定位到所述眉毛、眼睛、嘴巴区域中的表情特征点位置,得到表情特征点序列;当定位眼睛区域时,步骤202中的几何模板匹配算法的评价函数为下式:
Eeye=exp[-1.2×((l1-l2)2+(l1+l2-1)2+(θ1-θ)2+(θ2-θ)2)]
其中θi,i=1,2分别代表两只眼睛的方位角,li,i=1,2为双眼的归一化长度,由最初的长度除以两个块之间的距离D,如下式:
其中点(x1,y1)和(x2,y2)分别为右眼和左眼的中心坐标,即D为双眼中心之间的距离;
203、然后对预先设选定的表情库表情图像里的每幅图像做与步骤202相同的特征定位提取操作,提取得到的表情特征通过Adaboost自适应增强算法的迭代训练得到表情分类模型;
204、将步骤202中得到的表情特征点序列与表情分类模型相比较并识别,确定表情的类型、得到相应的控制指令,实现对智能轮椅的实时控制。
3.根据权利要求2所述的基于面部表情识别模式的智能轮椅人机交互方法,其特征在于:步骤202中的ASM主动形状模型搜索步骤如下:
(1)ASM表示为:初始化模型参数b,取b=0,获得初始模型向量b是模型参数,φ是目标模型的特征子空间基,是由主分量特征向量构成的变换矩阵,X表示目标形状,表示平均形状;
(2)沿当前模型X的每个边界点周围搜索,寻找各边界点的最佳匹配点;
(3)更新模型参数b,产生由匹配点结合构成的模型,并将其设为新的当前模型X;
(4)重复步骤(2)和(3)直到模型不再发生明显变化。
CN201410623938.9A 2014-11-07 2014-11-07 基于面部表情识别模式的智能轮椅人机交互系统及方法 Active CN104463100B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410623938.9A CN104463100B (zh) 2014-11-07 2014-11-07 基于面部表情识别模式的智能轮椅人机交互系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410623938.9A CN104463100B (zh) 2014-11-07 2014-11-07 基于面部表情识别模式的智能轮椅人机交互系统及方法

Publications (2)

Publication Number Publication Date
CN104463100A CN104463100A (zh) 2015-03-25
CN104463100B true CN104463100B (zh) 2018-08-14

Family

ID=52909116

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410623938.9A Active CN104463100B (zh) 2014-11-07 2014-11-07 基于面部表情识别模式的智能轮椅人机交互系统及方法

Country Status (1)

Country Link
CN (1) CN104463100B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850234A (zh) * 2015-05-28 2015-08-19 成都通甲优博科技有限责任公司 一种基于表情识别的无人机控制方法及系统
CN105046238A (zh) * 2015-08-17 2015-11-11 华侨大学 一种面部表情机器人多通道信息情感表达映射方法
CN105160318B (zh) * 2015-08-31 2018-11-09 北京旷视科技有限公司 基于面部表情的测谎方法及系统
CN105487665B (zh) * 2015-12-02 2018-09-07 南京邮电大学 一种基于头部姿势识别的智能移动服务机器人控制方法
CN105616082A (zh) * 2015-12-28 2016-06-01 深圳市尚荣医用工程有限公司 采用单一面部表面肌电信号的智能轮椅控制装置及方法
CN105653037A (zh) * 2015-12-31 2016-06-08 张小花 一种基于行为分析的交互系统及方法
CN105469080B (zh) * 2016-01-07 2018-09-25 东华大学 一种人脸表情识别方法
CN105868694B (zh) * 2016-03-24 2019-03-08 中国地质大学(武汉) 基于面部表情和眼球动作的双模态情感识别方法及系统
CN106096598A (zh) * 2016-08-22 2016-11-09 深圳市联合视觉创新科技有限公司 一种利用深度相关神经网络模型识别人脸表情的方法及装置
CN107038443B (zh) * 2017-04-28 2020-04-14 东莞市盟拓智能科技有限公司 一种在电路板上定位感兴趣区域的方法和装置
CN108108677A (zh) * 2017-12-12 2018-06-01 重庆邮电大学 一种基于改进的cnn人脸表情识别方法
CN108037832B (zh) * 2017-12-20 2020-10-02 辛承德 一种智能型操作系统以及应用其的人工智能设备
CN108711452A (zh) * 2018-01-25 2018-10-26 鲁东大学 基于视觉的人体健康状态分析方法和系统
CN108875660A (zh) * 2018-06-26 2018-11-23 肖哲睿 一种基于云计算的交互式机器人
CN109086589A (zh) * 2018-08-02 2018-12-25 东北大学 一种结合手势识别的智能终端人脸解锁方法
CN109766461A (zh) * 2018-12-15 2019-05-17 深圳壹账通智能科技有限公司 基于微表情的照片管理方法、装置、计算机设备及介质
CN109697421A (zh) * 2018-12-18 2019-04-30 深圳壹账通智能科技有限公司 基于微表情的评价方法、装置、计算机设备和存储介质
CN109948672A (zh) * 2019-03-05 2019-06-28 张智军 一种轮椅控制方法及系统
CN110251970B (zh) * 2019-07-02 2021-03-19 湖北工业大学 智能引导婴幼儿学步的交互式学步玩具
CN112245131A (zh) * 2020-09-03 2021-01-22 深圳睿瀚医疗科技有限公司 基于面部表情脑电信号驱动的轮椅控制系统和方法
CN113076813B (zh) * 2021-03-12 2024-04-12 首都医科大学宣武医院 面具脸特征识别模型训练方法和装置
CN116311539B (zh) * 2023-05-19 2023-07-28 亿慧云智能科技(深圳)股份有限公司 基于毫米波的睡眠动作捕捉方法、装置、设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102085654A (zh) * 2009-12-04 2011-06-08 上海电气集团股份有限公司 一种可载人的家居服务机器人架构
CN103473294A (zh) * 2013-09-03 2013-12-25 重庆邮电大学 基于msvm脑电信号特征分类的方法及智能轮椅系统
CN103705352A (zh) * 2013-12-27 2014-04-09 南京升泰元机器人科技有限公司 基于脑-机接口的智能轮椅及其控制系统和控制方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102094723B1 (ko) * 2012-07-17 2020-04-14 삼성전자주식회사 견고한 얼굴 표정 인식을 위한 특징 기술자

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102085654A (zh) * 2009-12-04 2011-06-08 上海电气集团股份有限公司 一种可载人的家居服务机器人架构
CN103473294A (zh) * 2013-09-03 2013-12-25 重庆邮电大学 基于msvm脑电信号特征分类的方法及智能轮椅系统
CN103705352A (zh) * 2013-12-27 2014-04-09 南京升泰元机器人科技有限公司 基于脑-机接口的智能轮椅及其控制系统和控制方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"基于PCA 与SVM 结合的面部表情识别的智能轮椅控制";罗元 等;《计算机应用研究》;20120831;第3166页第2段-第3168页第10段,图1-6,表1 *
"基于纹理和几何特征的表情分类研究";夏海英;《中国博士学位论文全文数据库 信息科技辑》;20120515;论文第2.1节、3.2节、3.5节、4.3节 *
"面部表情识别方法研究";崔洁;《中国优秀硕士学位论文全文数据库 信息科技辑》;20060715;论文第5.3节 *

Also Published As

Publication number Publication date
CN104463100A (zh) 2015-03-25

Similar Documents

Publication Publication Date Title
CN104463100B (zh) 基于面部表情识别模式的智能轮椅人机交互系统及方法
Mahmood et al. WHITE STAG model: Wise human interaction tracking and estimation (WHITE) using spatio-temporal and angular-geometric (STAG) descriptors
CN104850825B (zh) 一种基于卷积神经网络的人脸图像颜值计算方法
CN104978550B (zh) 基于大规模人脸数据库的人脸识别方法及系统
CN108805009A (zh) 基于多模态信息融合的课堂学习状态监测方法及系统
CN108256421A (zh) 一种动态手势序列实时识别方法、系统及装置
CN106529504B (zh) 一种复合时空特征的双模态视频情感识别方法
CN101540000B (zh) 基于纹理基元统计特性分析的虹膜分类方法
CN102096810A (zh) 一种电脑前疲劳状态的检测方法和装置
CN106599785A (zh) 人体3d特征身份信息库的建立方法及设备
Huang et al. Emotion recognition based on a novel triangular facial feature extraction method
Kohail Using artificial neural network for human age estimation based on facial images
CN109325408A (zh) 一种手势判断方法及存储介质
Cai et al. Visual focus of attention estimation using eye center localization
CN104021384A (zh) 一种人脸识别方法及装置
CN105426882A (zh) 一种人脸图像中快速定位人眼的方法
Kulkarni et al. Analysis on techniques used to recognize and identifying the Human emotions
CN105701486B (zh) 一种在摄像机内实现人脸信息分析及提取的方法
Sarma et al. Hand gesture recognition using deep network through trajectory-to-contour based images
CN104091150B (zh) 一种基于回归的人眼状态判断方法
Gunay et al. Facial age estimation based on decision level fusion of amm, lbp and gabor features
Gopikrishnan et al. Improved biometric recognition and identification of human iris patterns using neural networks
Sarma et al. Facial expression based emotion detection-a review
Kuo et al. Eye tracking in visible environment
Nie et al. The facial features analysis method based on human star-structured model

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant