CN107633207A - Au特征识别方法、装置及存储介质 - Google Patents
Au特征识别方法、装置及存储介质 Download PDFInfo
- Publication number
- CN107633207A CN107633207A CN201710709113.2A CN201710709113A CN107633207A CN 107633207 A CN107633207 A CN 107633207A CN 201710709113 A CN201710709113 A CN 201710709113A CN 107633207 A CN107633207 A CN 107633207A
- Authority
- CN
- China
- Prior art keywords
- feature
- real
- face
- image
- characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 230000001815 facial effect Effects 0.000 claims abstract description 40
- 238000012549 training Methods 0.000 claims abstract description 37
- 239000013598 vector Substances 0.000 claims abstract description 31
- 238000012935 Averaging Methods 0.000 claims abstract description 29
- 238000009434 installation Methods 0.000 claims description 23
- 238000000605 extraction Methods 0.000 claims description 10
- 230000009471 action Effects 0.000 claims description 6
- 238000002360 preparation method Methods 0.000 claims 2
- 210000004709 eyebrow Anatomy 0.000 description 16
- 210000001331 nose Anatomy 0.000 description 8
- 210000001508 eye Anatomy 0.000 description 7
- 239000000284 extract Substances 0.000 description 5
- 210000001061 forehead Anatomy 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008451 emotion Effects 0.000 description 3
- 230000008921 facial expression Effects 0.000 description 3
- 238000001943 fluorescence-activated cell sorting Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000001537 neural effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004118 muscle contraction Effects 0.000 description 2
- 230000037303 wrinkles Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 210000004209 hair Anatomy 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种AU特征识别方法、装置及存储介质,该方法包括:取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;将该实时脸部图像输入预先训练好的面部平均模型,利用该面部平均模型从该实时脸部图像中识别出t个面部特征点;根据该t个面部特征点的位置,确定该实时脸部图像中与每个AU匹配的特征区域,从所述特征区域提取局部特征,生成多个特征向量;将所述多个特征向量分别输入预先训练好的、且与该特征区域匹配的AU分类器,得到从该特征区域中识别到相应AU特征的预测结果。通过不同的AU分类器对实时脸部图像中特征区域中的AU特征进行识别,有效提高AU特征识别的效率。
Description
技术领域
本发明涉及计算机视觉处理技术领域,尤其涉及一种AU特征识别方法、装置及计算机可读存储介质。
背景技术
人脸情绪识别是人机交互与情感计算研究的重要组成部分,涉及心理学、社会学、人类学、生命科学、认知科学、计算机科学等研究领域,对人机交互智能化和谐化极具意义。
国际著名心理学家Paul Ekman和研究伙伴W.V.Friesen作了深入的研究,通过观察和生物反馈,描绘出不同的脸部肌肉动作和不同表情的对应关系。FACS就是经过多年研究于1976年所创制的“面部表情编码系统。根据人脸的解剖学特点,可将其划分成若干既相互独立又相互联系的运动单元(action unit,AU),这些运动单元的运动特征及其所控制的主要区域可以反映出面部表情。
目前,通过识别脸部图像中的AU特征判断面部表情方法比较通用,准确率较高,然而,业内识别AU特征,大多是收集大量AU样本,对样本进行整理,分成几类,使用卷积神经网络训练出AU特征识别模型,用来进行AU特征识别,但该种方法准确率不高。
发明内容
本发明提供一种AU特征识别方法、装置及计算机可读存储介质,其主要目的在于通过不同的AU分类器对实时脸部图像中特征区域中的AU特征进行识别,有效提高AU特征识别的效率。
为实现上述目的,本发明提供一种电子装置,该装置包括:存储器、处理器及摄像装置,所述存储器中包括AU特征识别程序,所述AU特征识别程序被所述处理器执行时实现如下步骤:
实时图像捕获步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
面部特征点识别步骤:将该实时脸部图像输入预先训练好的面部平均模型,利用该面部平均模型从该实时脸部图像中识别出t个面部特征点;
局部特征提取步骤:根据该t个面部特征点的位置,确定该实时脸部图像中与每个AU匹配的特征区域,从所述特征区域提取局部特征,生成多个特征向量;及
AU特征预测步骤:将所述多个特征向量分别输入预先训练好的、且与该特征区域匹配的AU分类器,得到从该特征区域中识别到相应AU特征的预测结果。
可选地,所述AU特征识别程序被所述处理器执行时,还实现如下步骤:
判断步骤:判断所述预测结果中每个AU特征的概率是否大于预设阈值。
可选地,所述判断步骤还包括:
当判断所述预测结果中存在概率大于预设阈值的AU特征,提示从该实时脸部图像中识别到该AU特征。
此外,为实现上述目的,本发明还提供一种AU特征识别方法,该方法包括:
实时图像捕获步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
面部特征点识别步骤:将该实时脸部图像输入预先训练好的面部平均模型,利用该面部平均模型从该实时脸部图像中识别出t个面部特征点;
局部特征提取步骤:根据该t个面部特征点的位置,确定该实时脸部图像中与每个AU匹配的特征区域,从所述特征区域提取局部特征,生成多个特征向量;及
AU特征预测步骤:将所述多个特征向量分别输入预先训练好的、且与该特征区域匹配的AU分类器,得到从该特征区域中识别到相应AU特征的预测结果。
可选地,该方法还包括:
判断步骤:判断所述预测结果中每个AU特征的概率是否大于预设阈值。
可选地,所述判断步骤还包括:
当判断所述预测结果中存在概率大于预设阈值的AU特征,提示从该实时脸部图像中识别到该AU特征。
此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中包括AU特征识别程序,所述AU特征识别程序被处理器执行时,实现如上所述的AU特征识别方法中的任意步骤。
本发明提出的AU特征识别方法、电子装置及计算机可读存储介质,通过从实时脸部图像中截取每个AU特征对应的特征区域,并将每个AU特征对应的特征区域输入对应的AU分类器,得到识别出每个AU特征的预测结果,提高了AU特征识别的准确率。
附图说明
图1为本发明电子装置较佳实施例的示意图;
图2为图1中AU特征识别程序的功能模块图;
图3为本发明AU特征识别方法第一实施例的流程图;
图4为本发明AU特征识别方法第二实施例的流程图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本发明提供一种电子装置1。参照图1所示,为本发明电子装置1较佳实施例的示意图。
在本实施例中,电子装置1可以是服务器、智能手机、平板电脑、便携计算机、桌上型计算机等具有运算功能的终端设备。
该电子装置1包括:处理器12、存储器11、摄像装置13、网络接口14及通信总线15。其中,摄像装置13安装于特定场所,如办公场所、监控区域,对进入该特定场所的目标实时拍摄得到实时图像,通过网络将拍摄得到的实时图像传输至处理器12。网络接口14可选地可以包括标准的有线接口、无线接口(如WI-FI接口)。通信总线15用于实现这些组件之间的连接通信。
存储器11包括至少一种类型的可读存储介质。所述至少一种类型的可读存储介质可为如闪存、硬盘、多媒体卡、卡型存储器等的非易失性存储介质。在一些实施例中,所述可读存储介质可以是所述电子装置1的内部存储单元,例如该电子装置1的硬盘。在另一些实施例中,所述可读存储介质也可以是所述电子装置1的外部存储器,例如所述电子装置1上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。
在本实施例中,所述存储器11的可读存储介质通常用于存储安装于所述电子装置1的动作单元(action unit,AU)特征识别程序10、人脸图像样本库及预先训练好的面部平均模型、AU分类器等。所述存储器11还可以用于暂时地存储已经输出或者将要输出的数据。
处理器12在一些实施例中可以是一中央处理器(Central Processing Unit,CPU),微处理器或其他数据处理芯片,用于运行存储器11中存储的程序代码或处理数据,例如执行AU特征识别程序10等。
图1仅示出了具有组件11-15的电子装置1,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
可选地,该电子装置1还可以包括用户接口,用户接口可以包括输入单元比如键盘(Keyboard)、语音输入装置比如麦克风(microphone)等具有语音识别功能的设备、语音输出装置比如音响、耳机等,可选地用户接口还可以包括标准的有线接口、无线接口。
可选地,该电子装置1还可以包括显示器,显示器也可以适当的称为显示屏或显示单元。在一些实施例中可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。显示器用于显示在电子装置1中处理的信息以及用于显示可视化的用户界面。
可选地,该电子装置1还包括触摸传感器。所述触摸传感器所提供的供用户进行触摸操作的区域称为触控区域。此外,这里所述的触摸传感器可以为电阻式触摸传感器、电容式触摸传感器等。而且,所述触摸传感器不仅包括接触式的触摸传感器,也可包括接近式的触摸传感器等。此外,所述触摸传感器可以为单个传感器,也可以为例如阵列布置的多个传感器。
此外,该电子装置1的显示器的面积可以与所述触摸传感器的面积相同,也可以不同。可选地,将显示器与所述触摸传感器层叠设置,以形成触摸显示屏。该装置基于触摸显示屏侦测用户触发的触控操作。
可选地,该电子装置1还可以包括RF(Radio Frequency,射频)电路,传感器、音频电路等等,在此不再赘述。
在图1所示的装置实施例中,作为一种计算机存储介质的存储器11中可以包括操作系统、以及AU特征识别程序10;处理器12执行存储器11中存储的AU特征识别程序10时实现如下步骤:
获取摄像装置13拍摄的实时图像,利用人脸识别算法从该实时图像中提取出实时脸部图像,从实时脸部图像中截取每个AU特征对应的特征区域;处理器12从存储器11中调用预先训练好的AU分类器,并将每个AU特征对应的特征区域输入对应的AU分类器,分别得到从该实时脸部图像中识别到每个AU特征的预测结果,便于后续对当前脸部图像中的情绪进行判断。
在其他实施例中,AU特征识别程序10还可以被分割为一个或者多个模块,一个或者多个模块被存储于存储器11中,并由处理器12执行,以完成本发明。本发明所称的模块是指能够完成特定功能的一系列计算机程序指令段。
参照图2所示,为图1中AU特征识别程序10的功能模块图。
所述AU特征识别程序10可以被分割为:获取模块110、识别模块120、特征提取模块130、预测模块140、判断模块150及提示模块160。
获取模块110,用于获取摄像装置13拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。当摄像装置13拍摄到一张实时图像,摄像装置13将这张实时图像发送到处理器12,当处理器12接收到该实时图像后,所述获取模块110先获取图片的大小,建立一个相同大小的灰度图像;将获取的彩色图像,转换成灰度图像,同时创建一个内存空间;将灰度图像直方图均衡化,使灰度图像信息量减少,加快检测速度,然后加载Intel公司的训练库,检测图片中的人脸,并返回一个包含人脸信息的对象,获得人脸所在位置的数据,并记录个数;最终获取头像的区域且保存下来,这样就完成了一次实时脸部图像提取的过程。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法还可以为:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
识别模块120,用于将该实时脸部图像输入预先训练好的面部平均模型,利用该面部平均模型从该实时脸部图像中识别出t个面部特征点。假设t=76,面部平均模型中的76个面部特征点中。当获取模块110提取出实时脸部图像后,所述识别模块120从存储器11中调用训练好的面部特征点的面部平均模型后,将实时脸部图像与该面部平均模型进行对齐,然后利用特征提取算法在该实时脸部图像中搜索与该面部平均模型的76个面部特征点匹配的76个面部特征点。其中,所述面部特征点的面部平均模型是预先构建并训练好的,具体实施方式将在下述AU特征识别方法中进行说明。
在本实施例中,所述特征提取算法为SIFT(scale-invariant featuretransform)算法。SIFT算法从面部特征点的面部平均模型后提取每个面部特征点的局部特征,,选择一个眼部特征点或唇部特征点为参考特征点,在实时脸部图像中查找与该参考特征点的局部特征相同或相似的特征点,例如,两个特征点的局部特征的差值是否在预设范围内,若是,则表明该特征点与参考特征点的局部特征相同或相似,并将其作为一个面部特征点。依此原理直到在实时脸部图像中查找出所有面部特征点。在其他实施例中,该特征提取算法还可以为SURF(Speeded Up Robust Features)算法,LBP(Local Binary Patterns)算法,HOG(Histogram of Oriented Gridients)算法等。
特征提取模块130,用于根据该t个面部特征点的位置,确定该实时脸部图像中与每个AU匹配的特征区域,从所述特征区域提取局部特征,生成多个特征向量。在一个实施例中,根据保罗·艾克曼总结出的面部情绪编码系统(Facial Action Coding System,FACS),人类一共有39个主要的面部动作单元(Action Unit,AU)。每一个AU,就是脸部的一小组肌肉收缩代码。比如AU1-抬起眉毛内角,AU2-抬起眉毛外角,AU9-皱鼻,AU22-收紧双唇向外翻等。那么,对于AU1、AU2,我们需要确定与该AU的匹配的特征区域,即眉毛,特征提取模块130根据识别模块120从实时脸部图像中识别的76个面部特征点,确定该实时脸部图像中的额头、眉毛及眼睛区域,作为与AU1、AU2匹配的特征区域,从额头、眉毛及眼睛区域中分别提取眉毛内角、眉毛外角的HOG特征,分别形成AU1、AU2的特征区域的特征向量V1、V2。对于AU9、AU22,我们需要确定与该AU的匹配的特征区域,即鼻子和嘴唇,特征提取模块130根据识别模块120从实时脸部图像中识别的76个面部特征点,确定该实时脸部图像中的鼻子和嘴唇区域,作为与AU9、AU22匹配的特征区域,从鼻子区域及嘴唇区域中分别提取HOG特征,分别形成AU9、AU22的特征区域的特征向量V9、V22。
预测模块140,用于将所述多个特征向量分别输入预先训练好的、且与该特征区域匹配的AU分类器,得到从该特征区域中识别到相应AU特征的预测结果。其中,所述预先训练好的AU分类器的个数为39个,分别与每个AU对应,预测模块分别将特征向量V1、V2、V9、V22输入AU1、AU2、AU9、AU22的AU分类器,分类器分别输出从对应特征区域中识别出AU1、AU2、AU9、AU22的概率。
判断模块150,用于判断所述预测结果中是否存在从该特征区域识别到对应AU特征的概率大于预设阈值。假设各AU分类器从当前实时脸部图像中识别出AU1、AU2、AU9、AU22的概率分别为:0.45、0.51、0.60、0.65,预设阈值为0.50,判断模块150判断从实时脸部图像中识别到相应AU特征的概率与预设阈值(0.50)的大小。
提示模块160,用于若所述预测结果中存在从该特征区域识别到对应AU特征的概率大于预设阈值,提示从该实时脸部图像中识别到该AU特征。从当前实时脸部图像中识别出AU1的概率小于预设阈值,从当前实时脸部图像中识别AU2、AU9、AU22的概率大于预设阈值,那么提示模块160提示从当前实时脸部图像中识别到了AU2、AU9、AU22。
本实施例提出的电子装置1,从实时图像中分别提取与每个AU匹配的特征区域,并分别从特征区域中识别对应的AU特征,提高了AU特征识别的准确率。
此外,本发明还提供一种AU特征识别方法。参照图3所示,为本发明AU特征识别方法第一实施例的流程图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,AU特征识别方法包括:步骤S10-步骤S40。
步骤S10,获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像。当摄像装置13拍摄到一张实时图像,摄像装置13将这张实时图像发送到处理器12,当处理器12接收到该实时图像后,先获取图片的大小,建立一个相同大小的灰度图像;将获取的彩色图像,转换成灰度图像,同时创建一个内存空间;将灰度图像直方图均衡化,使灰度图像信息量减少,加快检测速度,然后加载Intel公司的训练库,检测图片中的人脸,并返回一个包含人脸信息的对象,获得人脸所在位置的数据,并记录个数;最终获取头像的区域且保存下来,这样就完成了一次实时脸部图像提取的过程。
具体地,从该实时图像中提取实时脸部图像的人脸识别算法还可以为:基于几何特征的方法、局部特征分析方法、特征脸方法、基于弹性模型的方法、神经网络方法,等等。
步骤S20,将该实时脸部图像输入预先训练好的面部平均模型,利用该面部平均模型从该实时脸部图像中识别出t个面部特征点。
其中,所述面部平均模型通过以下方法得到:
建立一个有n张人脸图像的第一样本库,在每张人脸图像中的眼睛、眉毛、鼻子、嘴巴、脸部外轮廓的位置手动标记76个特征点。每张人脸图像中的该76个特征点组成一个形状特征向量S,得到面部的n个形状特征向量S。
利用所述t个面部特征点对人脸特征识别模型进行训练得到面部平均模型。所述人脸特征识别模型为Ensemble of Regression Tress(简称ERT)算法。ERT算法用公式表示如下:
其中t表示级联序号,τt(·,·)表示当前级的回归器。每个回归器由很多棵回归树(tree)组成,训练的目的就是得到这些回归树。其中S(t)为当前模型的形状估计;每个回归器τt(·,·)根据输入图像I和S(t)来预测一个增量把这个增量加到当前的形状估计上来改进当前模型。其中每一级回归器都是根据特征点来进行预测。训练数据集为:(I1,S1),...,(In,Sn)其中I是输入的样本图像,S是样本图像中的特征点组成的形状特征向量。
在模型训练的过程中,第一样本库中人脸图像的数量为n,假设每一张样本图片有76个特征点,特征向量取所有样本图片的部分特征点(例如在每个样本图片的76个特征点中随机取50个特征点)训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值(每个样本图片所取的50个特征点的加权平均值)的残差用来训练第二棵树...依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到面部平均模型(mean shape),并将模型文件及样本库保存至存储器中。
当提取出实时脸部图像后,从存储器中调用训练好的面部特征点的面部平均模型后,将实时脸部图像与该面部平均模型进行对齐,然后利用特征提取算法在该实时脸部图像中搜索与该面部平均模型的76个面部特征点匹配的76个面部特征点。
所述特征提取算法可以为SIFT(scale-invariant feature transform)算法,SURF(Speeded Up Robust Features)算法,LBP(Local Binary Patterns)算法,HOG(Histogram of Oriented Gridients)算法等。
步骤S30,根据该t个面部特征点的位置,确定该实时脸部图像中与每个AU匹配的特征区域,从所述特征区域提取局部特征,生成多个特征向量。
根据保罗·艾克曼总结出的面部情绪编码系统(Facial Action Coding System,FACS),人类一共有39个主要的面部动作单元(Action Unit,AU)。每一个AU,就是脸部的一小组肌肉收缩代码。比如AU1-抬起眉毛内角,AU2-抬起眉毛外角,AU9-皱鼻,AU22-收紧双唇向外翻等。那么,对于AU1、AU2,我们需要确定与该AU的匹配的特征区域,即眉毛,根据从实时脸部图像中识别的76个面部特征点,确定该实时脸部图像中的额头、眉毛及眼睛区域,作为与AU1、AU2匹配的特征区域,额头、眉毛及眼睛区域中分别提取眉毛内角、眉毛外角的HOG特征,分别形成AU1、AU2的特征区域的特征向量V1、V2。对于AU9、AU22,我们需要确定与该AU的匹配的特征区域,即鼻子和嘴唇,根据从实时脸部图像中识别的76个面部特征点,确定该实时脸部图像中的鼻子和嘴唇区域,作为与AU9、AU22匹配的特征区域,从鼻子区域及嘴唇区域中分别提取HOG特征,分别形成AU9、AU22的特征区域的特征向量V9、V22。
步骤S40,将所述多个特征向量分别输入预先训练好的、且与该特征区域匹配的AU分类器,得到从该特征区域中识别到相应AU特征的预测结果。
其中,所述预先训练好的AU分类器的个数为39个,分别对应AU1、AU2、AU3、…、AU39,通过以下方式获得:
在上述的第一样本库中,从每张人脸样本图像中分别截取与每个AU相匹配的图像区域(及包含该AU的人脸图像),作为该AU的正样本图像,并为每个AU准备负样本图像,得到该每个AU的正样本图像及负样本图像。不同AU对应的图像区域可以是相同的,例如AU1、AU2、AU4都涉及到人脸图像中包含眉毛、眼睛和额头的区域,AU9、AU22涉及到人脸图像中的鼻子和嘴唇区域。图像中不包含该AU的区域,均可以作为该AU的负样本图像。AU正样本图像、负样本图像规范化成相同大小。从每个AU正样本图像、负样本图像中提取局部特征,如HOG特征,保存成特征向量;利用每个AU的正/负样本图像的局部特征分别对支持向量分类器(SVM)进行学习训练,得到每个AU的分类器。
分别将特征向量V1、V2、V9、V22输入AU1、AU2、AU9、AU22的AU分类器,分类器分别输出从对应特征区域中识别出AU1、AU2、AU9、AU22的概率。
本实施例提出的AU特征识别方法,通过从实时图像中截取与每个AU匹配的特征区域,比通过对应的AU分类器判断从该特征区域中识别出该AU特征的概率。通过不同的AU分类器对实时脸部图像中特征区域中的AU特征进行识别,有效提高AU特征识别的效率。
基于第一实施例提出AU特征识别方法的第二实施例。参照图4所示,为本发明AU特征识别方法第二实施例的流程图。该方法可以由一个装置执行,该装置可以由软件和/或硬件实现。
在本实施例中,AU特征识别方法包括:步骤S10-步骤S70。其中,步骤S10-步骤S40与第一实施例中内容大致相同,这里不再赘述。
步骤S50,判断所述预测结果中每个AU特征的概率是否大于预设阈值。
假设各AU分类器从当前实时脸部图像中识别出AU1、AU2、AU9、AU22的概率分别为:0.45、0.51、0.60、0.65,预设阈值为0.50,判断识别出各AU特征的概率与预设阈值的大小。
步骤S60,当判断所述预测结果中存在概率大于预设阈值的AU特征,提示从该实时脸部图像中识别到该AU特征。从当前实时脸部图像中识别出AU1的概率小于预设阈值,从当前实时脸部图像中识别AU2、AU9、AU22的概率大于预设阈值,那么判断从当前实时脸部图像中识别到了AU2、AU9、AU22,未从当前实时脸部图像中识别出AU1。
相比于第一实施例,本实施例提出的AU特征识别方法,从实时图像中截取与每个AU匹配的特征区域,比通过对应的AU分类器判断从该特征区域中识别出该AU特征的概率,通过不同的AU分类器对实时脸部图像中特征区域中的AU特征进行识别,并设置阈值,对各个AU分类器识别出相应AU的概率进行过滤,有效提高AU特征识别的准确度。
此外,本发明实施例还提出一种计算机可读存储介质,所述计算机可读存储介质中包括AU特征识别程序,所述AU特征识别程序被处理器执行时实现如下操作:
实时图像捕获步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
面部特征点识别步骤:将该实时脸部图像输入预先训练好的面部平均模型,利用该面部平均模型从该实时脸部图像中识别出t个面部特征点;
局部特征提取步骤:根据该t个面部特征点的位置,确定该实时脸部图像中与每个AU匹配的特征区域,从所述特征区域提取局部特征,生成多个特征向量;及
AU特征预测步骤:将所述多个特征向量分别输入预先训练好的、且与该特征区域匹配的AU分类器,得到从该特征区域中识别到相应AU特征的预测结果。
可选地,所述AU特征识别程序被所述处理器执行时,还实现如下步骤:
判断步骤:判断所述预测结果中每个AU特征的概率是否大于预设阈值。
可选地,所述判断步骤还包括:
当判断所述预测结果中存在概率大于预设阈值的AU特征,提示从该实时脸部图像中识别到该AU特征。
本发明之计算机可读存储介质的具体实施方式与上述AU特征识别方法的具体实施方式大致相同,在此不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、装置、物品或者方法不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、装置、物品或者方法所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、装置、物品或者方法中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在如上所述的一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种电子装置,其特征在于,所述装置包括:存储器、处理器及摄像装置,所述存储器中包括动作单元(action unit,AU)特征识别程序,所述AU特征识别程序被所述处理器执行时实现如下步骤:
实时图像捕获步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
面部特征点识别步骤:将该实时脸部图像输入预先训练好的面部平均模型,利用该面部平均模型从该实时脸部图像中识别出t个面部特征点;
局部特征提取步骤:根据该t个面部特征点的位置,确定该实时脸部图像中与每个AU匹配的特征区域,从所述特征区域提取局部特征,生成多个特征向量;及
AU特征预测步骤:将所述多个特征向量分别输入预先训练好的、且与该特征区域匹配的AU分类器,得到从该特征区域中识别到相应AU特征的预测结果。
2.根据权利要求1所述的电子装置,其特征在于,所述AU特征识别程序被所述处理器执行时,还实现如下步骤:
判断步骤:判断所述预测结果中每个AU特征的概率是否大于预设阈值。
3.根据权利要求2所述的电子装置,其特征在于,所述判断步骤还包括:
当判断所述预测结果中存在概率大于预设阈值的AU特征,提示从该实时脸部图像中识别到该AU特征。
4.根据权利要求1所述的电子装置,其特征在于,所述AU分类器的训练步骤包括:
样本准备步骤:收集人脸样本图像,从人脸样本图像中分别截取每个AU相匹配的图像区域作为该AU的正样本图像,并为每个AU准备负样本图像;
局部特征提取步骤:提取每个AU的正样本图像、负样本图像的局部特征,生成相应的特征向量;
模型训练步骤:利用每个AU的正/负样本图像的局部特征对支持向量分类器(SVM)进行学习训练,得到相应的AU分类器。
5.一种AU特征识别方法,其特征在于,所述方法包括:
实时图像捕获步骤:获取摄像装置拍摄的实时图像,利用人脸识别算法从该实时图像中提取一张实时脸部图像;
面部特征点识别步骤:将该实时脸部图像输入预先训练好的面部平均模型,利用该面部平均模型从该实时脸部图像中识别出t个面部特征点;
局部特征提取步骤:根据该t个面部特征点的位置,确定该实时脸部图像中与每个AU匹配的特征区域,从所述特征区域提取局部特征,生成多个特征向量;及
AU特征预测步骤:将所述多个特征向量分别输入预先训练好的、且与该特征区域匹配的AU分类器,得到从该特征区域中识别到相应AU特征的预测结果。
6.根据权利要求5所述的AU特征识别方法,其特征在于,该方法还包括:
判断步骤:判断所述预测结果中每个AU特征的概率是否大于预设阈值。
7.根据权利要求5或6所述的AU特征识别方法,其特征在于,所述判断步骤还包括:
当判断所述预测结果中存在概率大于预设阈值的AU特征,提示从该实时脸部图像中识别到该AU特征。
8.根据权利要求5所述的AU特征识别方法,其特征在于,所述面部平均模型对人脸特征识别模型进行训练得到,其中,所述人脸特征识别模型为ERT算法,用公式表示如下:
<mrow>
<msup>
<mover>
<mi>S</mi>
<mo>^</mo>
</mover>
<mrow>
<mi>t</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>=</mo>
<msup>
<mover>
<mi>S</mi>
<mo>^</mo>
</mover>
<mi>t</mi>
</msup>
<mo>+</mo>
<msub>
<mi>&tau;</mi>
<mi>t</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>I</mi>
<mo>,</mo>
<msup>
<mover>
<mi>S</mi>
<mo>^</mo>
</mover>
<mi>t</mi>
</msup>
<mo>)</mo>
</mrow>
</mrow>
其中t表示级联序号,τt(·,·)表示当前级的回归器,S(t)为当前模型的形状估计,每个回归器τt(·,·)根据输入的当前图像I和S(t)来预测一个增量把这个增量加到当前的形状估计上来改进当前模型,在模型训练的过程中,取所有样本图片的部分特征点训练出第一棵回归树,将第一棵回归树的预测值与所述部分特征点的真实值的残差用来训练第二棵树…依次类推,直到训练出第N棵树的预测值与所述部分特征点的真实值接近于0,得到ERT算法的所有回归树,根据这些回归树得到面部平均模型。
9.根据权利要求5所述的AU特征识别方法,其特征在于,所述AU分类器的训练步骤包括:
样本准备步骤:收集人脸样本图像,从人脸样本图像中分别截取每个AU相匹配的图像区域作为该AU的正样本图像,并为每个AU准备负样本图像;
局部特征提取步骤:提取每个AU的正样本图像、负样本图像的局部特征,生成相应的特征向量;
模型训练步骤:利用每个AU的正/负样本图像的局部特征对支持向量分类器(SVM)进行学习训练,得到相应的AU分类器。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括AU特征识别程序,所述AU特征识别程序被处理器执行时,实现如权利要求5至9中任一项所述的AU特征识别方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710709113.2A CN107633207B (zh) | 2017-08-17 | 2017-08-17 | Au特征识别方法、装置及存储介质 |
US16/337,931 US10445562B2 (en) | 2017-08-17 | 2017-09-30 | AU feature recognition method and device, and storage medium |
PCT/CN2017/104819 WO2019033525A1 (zh) | 2017-08-17 | 2017-09-30 | Au特征识别方法、装置及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710709113.2A CN107633207B (zh) | 2017-08-17 | 2017-08-17 | Au特征识别方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107633207A true CN107633207A (zh) | 2018-01-26 |
CN107633207B CN107633207B (zh) | 2018-10-12 |
Family
ID=61099709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710709113.2A Active CN107633207B (zh) | 2017-08-17 | 2017-08-17 | Au特征识别方法、装置及存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10445562B2 (zh) |
CN (1) | CN107633207B (zh) |
WO (1) | WO2019033525A1 (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564016A (zh) * | 2018-04-04 | 2018-09-21 | 北京红云智胜科技有限公司 | 一种基于计算机视觉的au分类系统及方法 |
CN109493403A (zh) * | 2018-11-13 | 2019-03-19 | 北京中科嘉宁科技有限公司 | 一种基于运动单元表情映射实现人脸动画的方法 |
CN109586950A (zh) * | 2018-10-18 | 2019-04-05 | 锐捷网络股份有限公司 | 网络场景识别方法、网络管理设备、系统及存储介质 |
CN109583431A (zh) * | 2019-01-02 | 2019-04-05 | 上海极链网络科技有限公司 | 一种人脸情绪识别模型、方法及其电子装置 |
CN109635844A (zh) * | 2018-11-14 | 2019-04-16 | 网易传媒科技(北京)有限公司 | 训练分类器的方法及装置和水印检测方法及装置 |
CN110147727A (zh) * | 2019-04-15 | 2019-08-20 | 深圳壹账通智能科技有限公司 | 基于面部特征识别的地铁抽查方法及相关设备 |
CN110428399A (zh) * | 2019-07-05 | 2019-11-08 | 百度在线网络技术(北京)有限公司 | 用于检测图像的方法、装置、设备和存储介质 |
CN110610131A (zh) * | 2019-08-06 | 2019-12-24 | 平安科技(深圳)有限公司 | 人脸运动单元的检测方法、装置、电子设备及存储介质 |
CN110717928A (zh) * | 2019-10-21 | 2020-01-21 | 网易(杭州)网络有限公司 | 人脸运动单元AUs的参数估计方法、装置和电子设备 |
CN110728168A (zh) * | 2018-07-17 | 2020-01-24 | 广州虎牙信息科技有限公司 | 部位识别方法、装置、设备及存储介质 |
CN110781828A (zh) * | 2019-10-28 | 2020-02-11 | 北方工业大学 | 一种基于微表情的疲劳状态检测方法 |
WO2020224221A1 (zh) * | 2019-05-06 | 2020-11-12 | 平安科技(深圳)有限公司 | 跟踪方法、装置、电子设备及存储介质 |
CN112016368A (zh) * | 2019-05-31 | 2020-12-01 | 沈阳新松机器人自动化股份有限公司 | 一种基于面部表情编码系统的表情识别方法、系统及电子设备 |
CN112464699A (zh) * | 2019-09-06 | 2021-03-09 | 富士通株式会社 | 用于面部分析的图像归一化方法、系统和可读介质 |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107832735A (zh) * | 2017-11-24 | 2018-03-23 | 百度在线网络技术(北京)有限公司 | 用于识别人脸的方法和装置 |
EP3910507A4 (en) * | 2019-03-13 | 2022-01-26 | Huawei Technologies Co., Ltd. | METHOD AND DEVICE FOR WAKE-UP A SCREEN |
CN110135279B (zh) * | 2019-04-23 | 2021-06-08 | 深圳神目信息技术有限公司 | 一种基于人脸识别的预警方法、装置、设备及计算机可读介质 |
CN110222571B (zh) * | 2019-05-06 | 2023-04-07 | 平安科技(深圳)有限公司 | 黑眼圈智能判断方法、装置及计算机可读存储介质 |
CN111104846B (zh) * | 2019-10-16 | 2022-08-30 | 平安科技(深圳)有限公司 | 数据检测方法、装置、计算机设备和存储介质 |
CN112950529A (zh) * | 2019-12-09 | 2021-06-11 | 丽宝大数据股份有限公司 | 脸部肌肉特征点自动标记方法 |
CN111191532B (zh) * | 2019-12-18 | 2023-08-25 | 深圳供电局有限公司 | 基于施工区域的人脸识别方法、装置、计算机设备 |
CN111062333B (zh) * | 2019-12-19 | 2024-01-05 | 北京海国华创云科技有限公司 | 活体的面部动态识别方法、系统、存储介质 |
CN113298747A (zh) * | 2020-02-19 | 2021-08-24 | 北京沃东天骏信息技术有限公司 | 图片、视频检测方法和装置 |
CN111340013B (zh) * | 2020-05-22 | 2020-09-01 | 腾讯科技(深圳)有限公司 | 人脸识别方法、装置、计算机设备及存储介质 |
CN111832573B (zh) * | 2020-06-12 | 2022-04-15 | 桂林电子科技大学 | 一种基于类激活映射和视觉显著性的图像情感分类方法 |
CN111783677B (zh) * | 2020-07-03 | 2023-12-01 | 北京字节跳动网络技术有限公司 | 人脸识别方法、装置、服务器和计算机可读介质 |
CN111860454B (zh) * | 2020-08-04 | 2024-02-09 | 北京深醒科技有限公司 | 一种基于人脸识别的模型切换算法 |
CN112201343B (zh) * | 2020-09-29 | 2024-02-02 | 浙江大学 | 基于脸部微表情的认知状态识别系统及方法 |
CN112990077B (zh) * | 2021-04-02 | 2021-10-01 | 中国矿业大学 | 基于联合学习与光流估计的面部动作单元识别方法及装置 |
CN114022921B (zh) * | 2021-09-13 | 2024-02-20 | 齐鲁工业大学 | 一种基于特征点和局部特征的面部表情分析方法 |
CN114842542B (zh) * | 2022-05-31 | 2023-06-13 | 中国矿业大学 | 基于自适应注意力与时空关联的面部动作单元识别方法及装置 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100086215A1 (en) * | 2008-08-26 | 2010-04-08 | Marian Steward Bartlett | Automated Facial Action Coding System |
CN103065122A (zh) * | 2012-12-21 | 2013-04-24 | 西北工业大学 | 基于面部动作单元组合特征的人脸表情识别方法 |
CN103479367A (zh) * | 2013-09-09 | 2014-01-01 | 广东工业大学 | 一种基于面部运动单元识别的驾驶员疲劳检测方法 |
US20140023269A1 (en) * | 2012-07-17 | 2014-01-23 | Samsung Electronics Co., Ltd. | Feature descriptor for robust facial expression recognition |
CN104376333A (zh) * | 2014-09-25 | 2015-02-25 | 电子科技大学 | 基于随机森林的人脸表情识别方法 |
CN104680141A (zh) * | 2015-02-13 | 2015-06-03 | 华中师范大学 | 基于运动单元分层的人脸表情识别方法及系统 |
CN104881660A (zh) * | 2015-06-17 | 2015-09-02 | 吉林纪元时空动漫游戏科技股份有限公司 | 基于gpu加速的人脸表情识别及互动方法 |
CN105989331A (zh) * | 2015-02-11 | 2016-10-05 | 佳能株式会社 | 脸部特征提取装置、脸部特征提取方法、图像处理设备和图像处理方法 |
CN106295566A (zh) * | 2016-08-10 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸表情识别方法及装置 |
CN107007257A (zh) * | 2017-03-17 | 2017-08-04 | 深圳大学 | 面部不自然度的自动评级方法和装置 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101976450A (zh) * | 2010-11-02 | 2011-02-16 | 北京航空航天大学 | 一种非对称人脸表情编码方法 |
US8311319B2 (en) * | 2010-12-06 | 2012-11-13 | Seiko Epson Corporation | L1-optimized AAM alignment |
CN103366153B (zh) * | 2012-06-06 | 2016-12-14 | 北京科技大学 | 一种面部语义认知特征识别方法 |
WO2015061699A1 (en) * | 2013-10-24 | 2015-04-30 | Blue Line Security Solutions, Llc | Human facial detection and recognition system |
US9361510B2 (en) * | 2013-12-13 | 2016-06-07 | Intel Corporation | Efficient facial landmark tracking using online shape regression method |
CN104123545B (zh) * | 2014-07-24 | 2017-06-16 | 江苏大学 | 一种实时表情特征提取及表情识别方法 |
US9576190B2 (en) * | 2015-03-18 | 2017-02-21 | Snap Inc. | Emotion recognition in video conferencing |
US10043058B2 (en) * | 2016-03-09 | 2018-08-07 | International Business Machines Corporation | Face detection, representation, and recognition |
-
2017
- 2017-08-17 CN CN201710709113.2A patent/CN107633207B/zh active Active
- 2017-09-30 US US16/337,931 patent/US10445562B2/en active Active
- 2017-09-30 WO PCT/CN2017/104819 patent/WO2019033525A1/zh active Application Filing
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100086215A1 (en) * | 2008-08-26 | 2010-04-08 | Marian Steward Bartlett | Automated Facial Action Coding System |
US20140023269A1 (en) * | 2012-07-17 | 2014-01-23 | Samsung Electronics Co., Ltd. | Feature descriptor for robust facial expression recognition |
CN103065122A (zh) * | 2012-12-21 | 2013-04-24 | 西北工业大学 | 基于面部动作单元组合特征的人脸表情识别方法 |
CN103479367A (zh) * | 2013-09-09 | 2014-01-01 | 广东工业大学 | 一种基于面部运动单元识别的驾驶员疲劳检测方法 |
CN104376333A (zh) * | 2014-09-25 | 2015-02-25 | 电子科技大学 | 基于随机森林的人脸表情识别方法 |
CN105989331A (zh) * | 2015-02-11 | 2016-10-05 | 佳能株式会社 | 脸部特征提取装置、脸部特征提取方法、图像处理设备和图像处理方法 |
CN104680141A (zh) * | 2015-02-13 | 2015-06-03 | 华中师范大学 | 基于运动单元分层的人脸表情识别方法及系统 |
CN104881660A (zh) * | 2015-06-17 | 2015-09-02 | 吉林纪元时空动漫游戏科技股份有限公司 | 基于gpu加速的人脸表情识别及互动方法 |
CN106295566A (zh) * | 2016-08-10 | 2017-01-04 | 北京小米移动软件有限公司 | 人脸表情识别方法及装置 |
CN107007257A (zh) * | 2017-03-17 | 2017-08-04 | 深圳大学 | 面部不自然度的自动评级方法和装置 |
Non-Patent Citations (1)
Title |
---|
VAHID KAZEMI: "One Millisecond Face Alignment with an Ensemble of Regression", 《PROCEEDINGS OF THE 2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108564016A (zh) * | 2018-04-04 | 2018-09-21 | 北京红云智胜科技有限公司 | 一种基于计算机视觉的au分类系统及方法 |
CN110728168B (zh) * | 2018-07-17 | 2022-07-22 | 广州虎牙信息科技有限公司 | 部位识别方法、装置、设备及存储介质 |
CN110728168A (zh) * | 2018-07-17 | 2020-01-24 | 广州虎牙信息科技有限公司 | 部位识别方法、装置、设备及存储介质 |
CN109586950A (zh) * | 2018-10-18 | 2019-04-05 | 锐捷网络股份有限公司 | 网络场景识别方法、网络管理设备、系统及存储介质 |
CN109586950B (zh) * | 2018-10-18 | 2022-08-16 | 锐捷网络股份有限公司 | 网络场景识别方法、网络管理设备、系统及存储介质 |
CN109493403A (zh) * | 2018-11-13 | 2019-03-19 | 北京中科嘉宁科技有限公司 | 一种基于运动单元表情映射实现人脸动画的方法 |
CN109635844A (zh) * | 2018-11-14 | 2019-04-16 | 网易传媒科技(北京)有限公司 | 训练分类器的方法及装置和水印检测方法及装置 |
CN109635844B (zh) * | 2018-11-14 | 2021-08-27 | 网易传媒科技(北京)有限公司 | 训练分类器的方法及装置和水印检测方法及装置 |
CN109583431A (zh) * | 2019-01-02 | 2019-04-05 | 上海极链网络科技有限公司 | 一种人脸情绪识别模型、方法及其电子装置 |
CN110147727A (zh) * | 2019-04-15 | 2019-08-20 | 深圳壹账通智能科技有限公司 | 基于面部特征识别的地铁抽查方法及相关设备 |
WO2020224221A1 (zh) * | 2019-05-06 | 2020-11-12 | 平安科技(深圳)有限公司 | 跟踪方法、装置、电子设备及存储介质 |
CN112016368A (zh) * | 2019-05-31 | 2020-12-01 | 沈阳新松机器人自动化股份有限公司 | 一种基于面部表情编码系统的表情识别方法、系统及电子设备 |
US11244157B2 (en) | 2019-07-05 | 2022-02-08 | Baidu Online Network Technology (Beijing) Co., Ltd. | Image detection method, apparatus, device and storage medium |
CN110428399B (zh) * | 2019-07-05 | 2022-06-14 | 百度在线网络技术(北京)有限公司 | 用于检测图像的方法、装置、设备和存储介质 |
CN110428399A (zh) * | 2019-07-05 | 2019-11-08 | 百度在线网络技术(北京)有限公司 | 用于检测图像的方法、装置、设备和存储介质 |
CN110610131A (zh) * | 2019-08-06 | 2019-12-24 | 平安科技(深圳)有限公司 | 人脸运动单元的检测方法、装置、电子设备及存储介质 |
CN110610131B (zh) * | 2019-08-06 | 2024-04-09 | 平安科技(深圳)有限公司 | 人脸运动单元的检测方法、装置、电子设备及存储介质 |
CN112464699A (zh) * | 2019-09-06 | 2021-03-09 | 富士通株式会社 | 用于面部分析的图像归一化方法、系统和可读介质 |
CN112464699B (zh) * | 2019-09-06 | 2024-08-20 | 富士通株式会社 | 用于面部分析的图像归一化方法、系统和可读介质 |
CN110717928A (zh) * | 2019-10-21 | 2020-01-21 | 网易(杭州)网络有限公司 | 人脸运动单元AUs的参数估计方法、装置和电子设备 |
CN110717928B (zh) * | 2019-10-21 | 2022-03-18 | 网易(杭州)网络有限公司 | 人脸运动单元AUs的参数估计方法、装置和电子设备 |
CN110781828A (zh) * | 2019-10-28 | 2020-02-11 | 北方工业大学 | 一种基于微表情的疲劳状态检测方法 |
Also Published As
Publication number | Publication date |
---|---|
US10445562B2 (en) | 2019-10-15 |
CN107633207B (zh) | 2018-10-12 |
WO2019033525A1 (zh) | 2019-02-21 |
US20190228211A1 (en) | 2019-07-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107633207B (zh) | Au特征识别方法、装置及存储介质 | |
CN107862292B (zh) | 人物情绪分析方法、装置及存储介质 | |
CN107679448B (zh) | 眼球动作分析方法、装置及存储介质 | |
CN107633204A (zh) | 人脸遮挡检测方法、装置及存储介质 | |
CN107679447A (zh) | 面部特征点检测方法、装置及存储介质 | |
CN107633203A (zh) | 面部情绪识别方法、装置及存储介质 | |
Furnari et al. | Recognizing personal locations from egocentric videos | |
Wang et al. | Learning content and style: Joint action recognition and person identification from human skeletons | |
Zhu et al. | Dynamic cascades with bidirectional bootstrapping for action unit detection in spontaneous facial behavior | |
Tivatansakul et al. | Emotional healthcare system: Emotion detection by facial expressions using Japanese database | |
CN107633206B (zh) | 眼球动作捕捉方法、装置及存储介质 | |
US10489636B2 (en) | Lip movement capturing method and device, and storage medium | |
Qiang et al. | SqueezeNet and fusion network-based accurate fast fully convolutional network for hand detection and gesture recognition | |
CN109409994A (zh) | 模拟用户穿戴服装饰品的方法、装置和系统 | |
CN109583431A (zh) | 一种人脸情绪识别模型、方法及其电子装置 | |
Chiranjeevi et al. | Neutral face classification using personalized appearance models for fast and robust emotion detection | |
Hassanat et al. | Victory sign biometrie for terrorists identification: Preliminary results | |
Kalas | Real time face detection and tracking using OpenCV | |
CN107944381B (zh) | 人脸跟踪方法、装置、终端及存储介质 | |
CN113435335B (zh) | 微观表情识别方法、装置、电子设备及存储介质 | |
Huu et al. | Proposing posture recognition system combining MobilenetV2 and LSTM for medical surveillance | |
Do et al. | Real-time and robust multiple-view gender classification using gait features in video surveillance | |
Giorgi et al. | Walking through the deep: Gait analysis for user authentication through deep learning | |
CN115223239B (zh) | 一种手势识别方法、系统、计算机设备以及可读存储介质 | |
Lahiani et al. | Hand pose estimation system based on Viola-Jones algorithm for android devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 1246924 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |