CN111144266A - 人脸表情的识别方法及装置 - Google Patents
人脸表情的识别方法及装置 Download PDFInfo
- Publication number
- CN111144266A CN111144266A CN201911329050.3A CN201911329050A CN111144266A CN 111144266 A CN111144266 A CN 111144266A CN 201911329050 A CN201911329050 A CN 201911329050A CN 111144266 A CN111144266 A CN 111144266A
- Authority
- CN
- China
- Prior art keywords
- expression
- face
- expressions
- composite
- coefficients
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 230000008921 facial expression Effects 0.000 title claims abstract description 44
- 230000014509 gene expression Effects 0.000 claims abstract description 429
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 238000003062 neural network model Methods 0.000 claims description 51
- 239000002131 composite material Substances 0.000 claims description 49
- 150000001875 compounds Chemical class 0.000 claims description 36
- 238000013329 compounding Methods 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 13
- 238000005457 optimization Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000001815 facial effect Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000004709 eyebrow Anatomy 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000013179 statistical model Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 208000018999 crinkle Diseases 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 230000004399 eye closure Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 210000001097 facial muscle Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Geometry (AREA)
- Biodiversity & Conservation Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
Abstract
本公开关于一种人脸表情的识别方法及装置。其中,该方法包括:通过对输入的图片进行人脸检测,得到人脸图片;基于预设的表情分类标准,确定所述人脸图片中各表情的类别;针对不同类别的表情,采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数;基于得到所述人脸的各个所述表情系数的取值,识别出所述人脸的表情。可以提高表情识别的准确性。
Description
技术领域
本公开涉及图像识别技术领域,尤其涉及一种人脸表情的识别方法及装置。
背景技术
人脸表情识别是指利用计算机对检测到的人脸进行面部表情特征提取,使计算机能够按照人的思维认识对人脸表情进行相应的理解处理,并能够根据人们的需求做出响应,建立友好的、智能化的人机交互环境。
目前,人脸动画驱动是人脸表情识别技术的一个应用场景之一,在人脸动画驱动中,通过人脸的表情变化驱动三维虚拟人物的表情作出相应的变化,进而驱动三维虚拟人物动画,可以达到较好的人机交互效果。
为了提高人脸动画驱动的效果,对人脸表情进行准确识别是相关技术中的一个技术方案,但针对如何准确有效的识别出人脸表情,目前尚未提出有效的解决方案。
发明内容
本公开提供一种人脸表情的识别方法及装置,以至少解决相关技术中某些人脸表情系数获取不准确的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种人脸表情的识别方法,包括:通过对输入的图片进行人脸检测,得到人脸图片;基于预设的表情分类标准,确定所述人脸图片中各表情的类别;针对不同类别的表情,采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数;基于得到所述人脸的各个所述表情系数的取值,识别出所述人脸的表情。
可选地,所述不同类别的表情包括:单一类表情,其中,所述单一类表情是指预设的涉及单一运动单元且涉及人脸的单一个体特征的表情;采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数,包括:对所述人脸图片进行识别,获取所述人脸图片中的人脸的多个特征点;利用预设的人脸三维重建方法,基于所述人脸的多个特征点,对所述人脸图片中的人脸进行三维重建,得到所述人脸的各个所述细微类表情的表情系数;分别确定与各个所述单一类表情相关的个体特征,基于与各个所述个体特征的特征点,得到所述人脸的各个所述单一类表情的表情系数。
可选地,所述单一类表情至少包括以下之一:睁眼、闭眼、张嘴、和闭嘴。
可选地,基于与各个所述个体特征的特征点,得到所述人脸的各个所述单一类表情的表情系数的步骤包括:基于与各个所述个体特征的特征点的坐标值,通过计算各个单一类表情涉及的所述人脸上的个体特征的开合程度,得到对应的各个单一类表情的表情系数。
可选地,所述不同类别的表情包括:细微类表情,其中,所所述细微类表情指预设的涉及单一运动单元的表情中除所述单一类表情以外的其它表情;采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数,包括:利用预设的人脸三维重建方法,基于所述人脸的多个特征点,对所述人脸图片中的人脸进行三维重建,得到所述人脸的各个所述细微类表情的表情系数。
可选地,所述不同类别的表情还包括:复合类表情,其中,所述复合类表情是指预设的涉及多个运动单元的表情;针对不同类别的表情,采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数,还包括:将所述人脸图片分别输入到各个已训练好的目标深度神经网络模型,得到所述人脸的各个所述复合类表情的表情系数,其中,每个所述目标深度神经网络模型对应一个所述复合类表情,所述目标深度神经网络模型用于识别与其对应的复合类表情的表情系数。
可选地,在所述将所述人脸图片分别输入到各个已训练好的目标深度神经网络模型的步骤之前,所述获取方法还包括:针对任一所述复合类表情构建一个对应的深度神经网络模型,分别采集多张人脸图片,将采集的各张人脸图片分别输入到对该复合类表情对应的深度神经网络模型,将输入的人脸图片中的人脸是否具有该复合类表情作为该深度神经网络模型的输出,对该深度神经网络模型进行训练,得到各个已训练好的目标深度神经网络模型。
可选地,所述复合类表情至少包括以下之一:愤怒、鼓嘴、和微笑。
可选地,在基于得到所述人脸的各个所述表情系数,识别出所述人脸的表情之后,所述获取方法还包括:按照得到的所述人脸的各个所述表情系数,驱动虚拟形象做出对应的表情;和/或基于得到的所述人脸的各个所述表情系数,对三维重建得到的三维人脸模型进行优化。
根据本公开实施例的第二方面,提供了一种人脸表情的识别装置,包括:人脸检测单元,被配置为执行通过对输入的图片进行人脸检测,得到人脸图片;确定单元,被配置为执行基于预设的表情分类标准,确定所述人脸图片中各表情的类别;表情系数获取单元,被配置为执行针对不同类别的表情,采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数;表情识别单元,被配置为执行基于得到所述人脸的各个所述表情系数的取值,识别出所述人脸的表情。
可选地,所述表情系数获取单元包括:特征点获取模块,被配置为执行对所述人脸图片进行识别,获取所述人脸图片中的人脸的多个特征点;单一类表情系数获取模块,被配置为执行分别确定与各个单一类表情相关的个体特征,基于与各个所述个体特征的特征点,得到所述人脸的各个所述单一类表情的表情系数,其中,所述单一类表情是指涉及单一运动单元且涉及人脸的单一个体特征的表情。
可选地,所述表情系数获取单元还包括:细微表情系数获取模块,被配置为执行利用预设的人脸三维重建方法,基于所述人脸的多个特征点,对所述人脸图片中的人脸进行三维重建,得到所述人脸的各个细微类表情的表情系数,其中,所述细微类表情是指涉及单一运动单元的表情中除所述单一类表情以外的其它表情。
可选地,所述单一类表情系数获取模块通过以下方式获取各个所述单一类表情的表情系数:基于与各个所述个体特征的特征点的坐标值,通过计算各个单一类表情涉及的所述人脸上的个体特征的开合程度,得到对应的各个单一类表情的表情系数。
可选地,所述表情系数获取单元包括:复合类表情系数获取模块,被配置为执行将所述人脸图片分别输入到各个已训练好的深度神经网络模型,得到所述人脸的各个复合类表情的表情系数,其中,每个所述深度神经网络模型对应一个预设的所述复合类表情,所述深度神经网络模型用于识别与其对应的复合类表情的表情系数,其中,所述复合类表情是指预设的涉及多个运动单元的表情。
可选地,所述表情系数获取单元还包括:模型训练模块,被配置为执行在所述复合类表情系数获取模块将所述人脸图片分别输入到各个已训练好的深度神经网络模型之前,针对任一所述复合类表情对应的深度神经网络模型,分别采集多张人脸图片,将采集的各张人脸图片分别输入到对该复合类表情对应的深度神经网络模型,根据输入的人脸图片中的人脸是否具有该复合类表情,对该深度神经网络模型进行训练。
可选地,所述获取装置还包括:表情驱动单元,被配置为执行按照得到的所述人脸的各个所述表情系数,驱动虚拟形象做出对应的表情;和/或三维优化单元,被配置为执行基于得到的所述人脸的各个所述表情系数,对三维重建得到的三维人脸模型进行优化。
根据本公开实施例的第三个方面,提供了一种电子设备,包括:处理器;用于存储所述处理器可执行指令的存储器;其中,所述处理器被配置为执行所述指令,以实现上述任一种人脸表情的识别方法。
根据本公开实施例的第四个方面,提供了一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行上述任一种人脸表情的识别方法。
根据本公开实施例的第五方面,提供一种计算机程序产品,当所述计算机程序产品中的指令由电子设备的处理器执行时,使得所述电子设备执行上述任一种人脸表情的识别方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
在本公开的实施例提供的技术方案中,,在接收到输入的图片时,对图片进行人脸检测,得到人脸图片,基于预设的表情分类标准,确定所述人脸图片中各表情的类别,然后针对不同类别的表情,采用不同的方式得到人脸图片中的人脸的各类别表情系数,基于得到的各个表情系统的取值,识别出人脸的表情。从而可以针对不同类别的表情的特点,采用不同的方式获取各个类别表情的表情系数,提高了表情识别的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种人脸表情的识别方法的流程图;
图2是根据一示例性实施例示出的一种人脸表情的识别方法的流程图;
图3是根据一示例性实施例示出的一种人脸表情的识别装置的框图;
图4是根据一示例性实施例示出的一种人脸表情的识别装置的框图;
图5是根据一示例性实施例示出的一种电子设备的框图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
图1是根据一示例性实施例示出的一种人脸表情的识别方法的流程图。本实施例提供的人脸表情的识别方法的执行主体,可为本公开实施例提供的人脸表情的识别装置。该装置可以集成于移动终端设备(例如,智能手机、平板电脑等)、笔记本或固定终端(台式电脑)中,该人脸表情的识别装置可以采用硬件或软件实现。如图1所示,包括以下步骤。
在步骤11中,通过对输入的图片进行人脸检测,得到人脸图片。
在实际应用中,输入的图像中可能不止包含人脸,还可以包含其它的图像,因此,在本实施例中,可以通过预设的人脸检测算法,可以检测到输入的图像中的人脸并定位面部关键特征点,将人脸区域从输入的图像中裁剪出来。其中,人脸检测算法可以是相关技术中的任意一种人脸检测算法,例如,基于模板匹配的方法、基于奇异值特征的方法、子空间分析法以及局部保持投影等方法,具体本实施例中并不作限定。
在步骤12中,基于预设的表情分类标准,确定人脸图片中所述人脸图片中的人脸的各类别表情的表情系数。
在步骤13中,针对不同类别的表情,采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数。
在步骤14中,基于得到的人脸的各个表情系数的取值,识别出人脸的表情。
在相关技术中,在获取人脸的表情时,对于人脸的各表情,均采用相同的方式获取,但实际上,人脸的不同表情可能具有不同的特性,采用某一种方式获取人脸的表情系数时,对某些表情来说可能是合适的,但对其它某些表情来说可能并不合适。
例如,采用人脸3D形变统计模型(3D Morphable Model,3DMM)技术,利用预先建立的三维人脸表情数据库,对人脸图片中人脸做三维建模,先实时检测人脸特征点信息,通过求解一个解优化,重建具有个体特征和表情系数的三维人脸,从而可以得到人脸的表情系数。采用3DMM技术来获取人脸图片中的人脸的各个表情的表情系数,对于大多数只涉及一个运动单元的表情来说,采用这种方式获取的表情系数都比较准确,但是在解优化过程中,人脸的个体特征和表情系数容易耦合,例如,眼睛是一个比较小的个体特征,因此,很容易与闭眼表情耦合在一起,从而不能准确的得到这类表情的表情系数。
因此,在本实施例中,按照对人脸图片中各表情进行分类,针对不同类别的表情,采用不同的方式得到人脸的各类别表情的表情系数,基于得到的各个表情系统的取值,识别出人脸的表情。从而可以针对不同类别的表情的特点,采用不同的方式获取各个类别表情的表情系数,提高了表情识别的准确性。
为描绘不同的脸部肌肉动作和不同表情的对应关系,心理学家Paul Ekman和W.V.Friesen提出了FACS(Facial Action Coding System)面部表情编码系统。根据人类解剖学特点,将该系统划分成若干既相互独立又相互联系的运动单元即AU(Action Units),例如AU1(Inner Brow Raiser内端眉毛上扬),AU2(Outer Brow Raiser外端眉毛上扬)等。因此,在本实施例中,可以根据表情涉及的人脸运动单元(AU)对人脸图片中的各表情进行分类。
例如,在本实施例的一个可选实施方式中,不同类别的表情可以包括:单一类表情,其中,单一类表情是指预设的涉及单一运动单元且涉及人脸的单一个体特征的表情。在该可选实施方式中,单一类表情是指容易跟个体特征耦合的表情,包括但不限于:睁眼、闭眼、张嘴、和闭嘴。在该可选实施方式中,通过将容易与个体特征耦合的表情设置为单一类表情,对这个表情的表情系数,通过人脸的各个特征点信息进行计算,可以提高这类表情的表情系数获取的准确性。
在该可选实施方式中,步骤13可以包括:
步骤131,对所述人脸图片进行识别,获取所述人脸图片中的人脸的多个特征点。
在该可选实施方式中,通过采用人脸特征点检测算法对人脸特征点进行检测,可以定位出人脸面部的关键区域位置,包括眉毛、眼睛、鼻子、嘴、脸部轮廓等,获取各个关键区域的各个特征点信息。
在本实施例中,预设的人脸特征点检测算法可以是相关技术中的任一种人脸特征点检测算法,例如,基于模型的方法,例如,主动形状模型(Active Shape Model,ASM)和主动外观模型(Active Appearnce Model,AAM),基于级联的方法,例如,级联形状回归(Cascaded pose regression,CPR)算法,以及基于深度学习的方法,例如,OpenFace等,具体本实施例中不作限定。
步骤132,分别确定与各个所述单一类表情相关的个体特征,基于与各个所述个体特征的特征点,得到所述人脸的各个所述单一类表情的表情系数。
通过上述可选实施方式,基于与个体特征的特征点得到单一类表情的表情系数,可以提高这类表情的表情系数获取的准确性。
在上述可选实施方式中,各个单一类表情分别涉及人脸上的眼睛和嘴巴,因此,为了简化各个单一类表情的表情系数获取方式,可选地,步骤132可以包括:基于与各个所述个体特征的特征点的坐标值,通过计算各个单一类表情涉及的所述人脸上的个体特征的开合程度,得到对应的各个单一类表情的表情系数。即在该可选实施方式中,利用各个单一类表情涉及的人体特征的开合程度来表示各个单一类表情的表情系数,从而可以简单、准确的计算得到人脸的各个单一类表情的表情系数。
例如,在步骤132中,可以利用所述人脸的特征点信息中左眼的上下左右眼角的四个特征点信息,计算所述人脸的左眼睛的开合程度,利用所述人脸的特征点信息中右眼的上下左右眼角的四个特征点信息,计算所述人脸的右眼睛的开合程度,得到所述人脸的睁眼的表情系数和闭眼的表情系数;利用所述人脸的特征点信息中嘴部的上下左右嘴角的四个特征点信息,计算所述人脸的嘴部的开合程度,得到所述人脸的张嘴的表情系数和闭嘴的表情系数。
例如,以左眼为例,左眼的上下左右眼角的特征点的坐标信息分别为(x1,y1)(x2,y2)(x3,y3)(x4,y4),则左眼的睁开程度为:
alpha1=((x1-x2)2+(y1-y2)2)0.5/((x3-x4)2+(y3-y4)2)0.5
另外,在一个可选的实施方式中,不同类别的表情包括:细微类表情,其中,所述细微类表情指预设的涉及单一运动单元的表情中除所述单一类表情以外的其它表情。可选地,细微类表情包括但不限于:抬眉毛、皱眉、咧嘴笑、下撇嘴及歪嘴等。在该可选的实施方式中,步骤13还可以包括:
步骤133,利用预设的人脸三维重建方法,基于所述人脸的多个特征点,对所述人脸图片中的人脸进行三维重建,得到所述人脸的各个所述细微类表情的表情系数。
在上述可选的实施方式中,通过三维重建解优化,重建一个具有人脸的个体特征和表情系数的三维人脸,从而可以得到该人脸的各个细微类表情的表情系数。
在具体应用中,预设的人脸的三维重建方法可以是相关技术中的任一种三维重建解优化技术,例如,可以为3D形变统计模型(3D Morphable Model,3DMM)技术。在3DMM中,人脸模型可以通过线性来表示,例如,重建的三维人脸模型SnewModel可以通过以下公开求解:
通过能三维人脸解优化,从而可以得到各个细微类表情的表情系数。
在实际应用中,还有一类表情,例如,愤怒、鼓嘴等涉及多个运动单元的表情,此类表情和面部纹理相关,通过三维重建解优化无法识别出此类表情,而此类表情也无法直接通过特征点信息计算得到。在本实施例的一个可选实施方案中,将这类表情称之为复合类表情。针对复合类表情的表情系数,可以通过深度神经网络模型获取。因此,在该可选实施方式中,步骤13还可以包括:
步骤134,将所述人脸图片分别输入到各个已训练好的深度神经网络模型,得到所述人脸的各个预设的复合类表情的表情系数,其中,每个所述深度神经网络模型对应一个预设的所述复合类表情,所述深度神经网络模型用于识别与其对应的复合类表情的表情系数。
也就是说,在该可选实施方式中,针对预设的各个复合类表情,分别训练一个用于识别该复合类表情的深度神经网络模型,将人脸图片输入到对应的深度神经网络模型,可以得到该复合类表情的表情系数。通过该可选实施方式,可以获取到复合类表情的表情系数,使得人脸的表情系数获取更加完整。
在实际应用中,为了得到能够准确识别各个复合类表情的深度神经网络模型,可选地,在步骤13之前,该获取方法还可以包括:针对任意一个所述复合类表情对应的深度神经网络模型,分别采集多张人脸图片,将采集的各张人脸图片分别输入到对该复合类表情对应的深度神经网络模型,根据输入的人脸图片中的人脸是否具有该复合类表情,对该深度神经网络模型进行训练。即在该可选实施方式中,对于各个复合类表情,采集多张人脸图片,根据各张人脸图片上的人脸是否具有该复合类表情,对该复合类表情对应的深度神经网络模型进行训练,以得到该复合表情对应的已训练好的深度神经网络模型。例如,对于愤怒,采集N张人脸图像,表情该图像上的人脸是否有愤怒的表情,有愤怒则为1,否则为0,将N张人脸图像分别输入到用于识别愤怒的深度神经网络模型,对该深度神经网络模型进行训练。
可选地,复合类表情包括但不限于:愤怒、鼓嘴、和微笑等。
在得到各个表情的表情系数之后,可以根据得到的各个表情系数,对三维重建得到的三维人脸模型进行优化,以使得三维人脸模型可以更真实的表现有脸图片上的人脸的表情。因此,在本实施例的一个可选实施方式中,在基于得到所述人脸的各个所述表情系数,识别出所述人脸的表情之后,该方法还可以包括:基于得到的所述人脸的各个表情系数,对三维重建得到的所述人脸的三维人脸模型进行优化。从而可以使三维人脸模型呈现与人脸图片上的人脸表情对应的表情,增加了虚拟的三维人脸模型的真实度,并且可以据此得到人脸图片上的目标人员的情感等信息。
在本实施例的另一个可选实施方式中,在基于得到所述人脸的各个所述表情系数,识别出所述人脸的表情之后,该法还可以包括:按照得到的所述人脸的各个表情系数,驱动虚拟形象(avatar)做出对应的表情。通过该可选实施方式,用户可以通过摄像头驱动虚拟形象做出各类相应的表情,丰富了用户的体验。
图2是根据一示例性实施例求出的一种人脸表情的识别方法的流程图,如图2所示,该方法用于用户设备中,主要包括以下步骤:
在步骤21中,获取用户当前通过用户设备的摄像装置输入的人脸图片。
用户可以通过用户设备自带的摄像装置(例如,摄像头),也可以通过用户设备连接的摄像装置输入人脸图片。
在步骤22中,通过人脸检测算法检测到人脸图片,然后在人脸图片上运行人脸特征点检测算法,获得人脸的特征点信息。
在步骤23中,基于人脸的特征点信息,利用3DMM算法,得到人脸三维重建结果,同时可以得到人脸的各个细微表情系数,并解优化获得头部姿态。
步骤24中,对于预设的不同类人脸表情,采用不同的处理方式。在本实施例,人脸表情分为三类:单一类表情、细微类表情(也可以称为细微表情)和复合类表情。
步骤241,对单一类表情,例如睁/闭眼和张/闭嘴四个表情,通过人脸的特征点信息直接计算。
例如,闭眼:利用眼部landmark计算眼睛的开合程度,从而计算出闭眼的系数。以左眼为例,左眼的上下左右眼角的特征点的坐标分别为(x1,y1)、(x2,y2)、(x3,y3)和(x4,y4),则左眼的睁开程度为:
alpha1=((x1-x2)2+(y1-y2)2)0.5/((x3-x4)2+(y3-y4)2)0.5
步骤242,对细微类表情系数,例如,抬眉毛、皱眉、咧嘴笑、下撇嘴以及歪嘴等表情,采用步骤23中的以3DMM算法得到的表情系数。
步骤243,对于复合类表情,例如,愤怒、鼓嘴等表情。针对每个复合类表情,将人脸图片分别输入到对应该复合类表情的深度神经网络,得到该复合类表情的表情系数。
步骤25,利用步骤24中识别出的人脸的所有表情系数,驱动虚拟形象(avatar)做出对应的表情。
在步骤25中,在驱动虚拟形象做出对应的表情时,还可以根据步骤23中得到的头部姿态,驱动虚拟形象的头部摆出相应的姿态。
通过本实施例提供的人脸表情的识别方法,用户可以通过摄像装置连续输入多帧不同表情的人脸图片,驱动虚拟动画做出各类表情,实现人脸动画驱动三维虚拟人物动画。
图3是根据一示例性实施例示出的一种人脸表情的识别装置框图。该人脸表情的识别装置用于实现上述的人脸表情的识别方法。参照图3,该装置300包括人脸检测单元31,确定单元32、表情系数获取单元33和表情识别单元34。
本实施例提供的人脸表情的识别装置可以参照用于执行上述的图1和图2所示的方法流程,并且,该装置中的各个单元/模块和上述其他操作和/或功能分别为了实现如图1和图2所示的人脸表情的识别方法中的相应流程,并且能够达到相同或等同的技术效果,为了简洁,在此不再赘述。
在本实施例中,人脸检测单元31,被配置为执行通过对输入的图片进行人脸检测,得到人脸图片;确定单元32,被配置为执行基于预设的表情分类标准,确定所述人脸图片中各表情的类别;表情系数获取单元33,被配置为执行基于预先对表情的分类,针对不同类别的表情,采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数;表情识别单元34,被配置为执行基于得到所述人脸的各个所述表情系数的取值,识别出所述人脸的表情。
在本实施例一个可选实施方式中,表情系数获取单元33可以包括:特征点获取模块,被配置为执行对所述人脸图片进行识别,获取所述人脸图片中的人脸的多个特征点;单一类表情系数获取模块,被配置为执行分别确定与各个单一类表情相关的个体特征,基于与各个所述个体特征的特征点,得到所述人脸的各个所述单一类表情的表情系数,其中,所述单一类表情是指涉及单一运动单元且涉及人脸的单一个体特征的表情。其中,单一类表情至少包括以下之一:睁眼、闭眼、张嘴、和闭嘴。
在本实施例一个可选实施方式中,单一类表情系数获取模块可以基于与各个所述个体特征的特征点的坐标值,通过计算各个单一类表情涉及的所述人脸上的个体特征的开合程度,得到对应的各个单一类表情的表情系数。
在本实施例的一个可选实施方式中,表情系数获取单元33还可以包括:细微表情系数获取模块,被配置为执行利用预设的人脸三维重建方法,基于所述人脸的多个特征点,对所述人脸图片中的人脸进行三维重建,得到所述人脸的各个细微类表情的表情系数,其中,所述细微类表情是指涉及单一运动单元的表情中除所述单一类表情以外的其它表情。
在本实施例一个可选实施方式中,所述表情系数获取单元33可以包括:复合类表情系数获取模块,被配置为执行将所述人脸图片分别输入到各个已训练好的深度神经网络模型,得到所述人脸的各个复合类表情的表情系数,其中,每个所述深度神经网络模型对应一个预设的所述复合类表情,所述深度神经网络模型用于识别与其对应的复合类表情的表情系数,其中,所述复合类表情是指预设的涉及多个运动单元的表情。
在本实施例一个可选实施方式中,该表情系数获取单元33还可以包括:模型训练模块,被配置为执行在所述复合类表情系数获取模块将所述人脸图片分别输入到各个已训练好的深度神经网络模型之前,针对任一所述复合类表情对应的深度神经网络模型,分别采集多张人脸图片,将采集的各张人脸图片分别输入到对该复合类表情对应的深度神经网络模型,根据输入的人脸图片中的人脸是否具有该复合类表情,对该深度神经网络模型进行训练。
在本实施例一个可选实施方式中,该获取装置还可以包括:表情驱动单元,被配置为执行按照得到的所述人脸的各个所述表情系数,驱动虚拟形象做出对应的表情;和/或三维优化单元,被配置为执行基于得到的所述人脸的各个所述表情系数,对三维重建得到的所述人脸的三维人脸模型进行优化。
图4是根据一示例性实施例示出的一种人脸表情的识别获取装置400的框图,例如,置400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图4,装置400可以包括以下一个或多个组件:处理组件402、存储器404、电力组件406、多媒体组件408、音频组件410、输入/输出(I/O)的接口412、传感器组件414、以及通信组件416。
处理组件402通常控制装置400的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件402可以包括一个或多个处理器420来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件402可以包括一个或多个模块,便于处理组件402和其他组件之间的交互。例如,处理组件402可以包括多媒体模块,以方便多媒体组件408和处理组件402之间的交互。
存储器404被配置为存储各种类型的数据以支持在设备400的操作。这些数据的示例包括用于在装置400上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器404可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件406为装置400的各种组件提供电力。电源组件406可以包括电源管理系统,一个或多个电源,及其他与为装置400生成、管理和分配电力相关联的组件。
多媒体组件408包括在所述装置400和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件408包括一个前置摄像头和/或后置摄像头。当设备400处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件410被配置为输出和/或输入音频信号。例如,音频组件410包括一个麦克风(MIC),当装置400处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器404或经由通信组件416发送。在一些实施例中,音频组件410还包括一个扬声器,用于输出音频信号。
I/O接口412为处理组件402和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件414包括一个或多个传感器,用于为装置400提供各个方面的状态评估。例如,传感器组件414可以检测到设备400的打开/关闭状态,组件的相对定位,例如所述组件为装置400的显示器和小键盘,传感器组件414还可以检测装置400或装置400一个组件的位置改变,用户与装置400接触的存在或不存在,装置400方位或加速/减速和装置400的温度变化。传感器组件414可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件414还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件414还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件416被配置为便于装置400和其他设备之间有线或无线方式的通信。装置400可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件416经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件416还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置400可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的存储介质,例如包括指令的存储器404,上述指令可由装置400的处理器420执行以完成上述方法。可选地,存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,该计算机程序产品包括可读性程序代码,该可读性程序代码可由装置400的处理器420执行以完成任一实施例所述的人脸表情的识别方法。可选地,该程序代码可以存储在装置400的存储介质中,该存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
图5是本公开示出的一种用于上述的人脸表情的识别装置500的框图。例如,装置500可以被提供为一服务器。
参照图5,装置500包括处理组件522,其进一步包括一个或多个处理器,以及由存储器532所代表的存储器资源,用于存储可由处理组件522的执行的指令,例如应用程序。存储器532中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件522被配置为执行指令,以执行任一实施例所述的人脸表情的识别方法。
装置500还可以包括一个电源组件526被配置为执行装置500的电源管理,一个有线或无线网络接口550被配置为将装置500连接到网络,和一个输入输出(I/O)接口558。装置500可以操作基于存储在存储器532的操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM或类似。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种人脸表情的识别方法,其特征在于,包括:
通过对输入的图片进行人脸检测,得到人脸图片;
基于预设的表情分类标准,确定所述人脸图片中各表情的类别;
针对不同类别的表情,采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数;
基于得到所述人脸的各个所述表情系数的取值,识别出所述人脸的表情。
2.根据权利要求1所述的方法,其特征在于,
所述不同类别的表情包括:单一类表情,其中,所述单一类表情是指预设的涉及单一运动单元且涉及人脸的单一个体特征的表情;
针对不同类别的表情,采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数,包括:
对所述人脸图片进行识别,获取所述人脸图片中的人脸的多个特征点;
分别确定与各个所述单一类表情相关的个体特征,基于与各个所述个体特征的特征点,得到所述人脸的各个所述单一类表情的表情系数。
3.根据权利要求2所述的方法,其特征在于,
所述不同类别的表情包括:细微类表情,其中,所述细微类表情指预设的涉及单一运动单元的表情中除所述单一类表情以外的其它表情;
采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数,包括:
利用预设的人脸三维重建方法,基于所述人脸的多个特征点,对所述人脸图片中的人脸进行三维重建,得到所述人脸的各个所述细微类表情的表情系数。
4.根据权利要求1所述的获取方法,其特征在于,
所述不同类别的表情包括:复合类表情,其中,所述复合类表情是指预设的涉及多个运动单元的表情;
采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数,包括:
将所述人脸图片分别输入到各个已训练好的目标深度神经网络模型,得到所述人脸的各个所述复合类表情的表情系数,其中,每个所述目标深度神经网络模型对应一个所述复合类表情,所述目标深度神经网络模型用于识别与其对应的复合类表情的表情系数。
5.根据权利要求1至4任一项所述的识别方法,其特征在于,在基于得到所述人脸的各个所述表情系数,识别出所述人脸的表情之后,所述获取方法还包括:
按照得到的所述人脸的各个所述表情系数,驱动虚拟形象做出对应的表情;和/或
基于得到的所述人脸的各个所述表情系数,对三维重建得到的所述人脸的三维人脸模型进行优化。
6.一种人脸表情的识别装置,其特征在于,包括:
人脸检测单元,被配置为执行通过对输入的图片进行人脸检测,得到人脸图片;
确定单元,被配置为执行基于预设的表情分类标准,确定所述人脸图片中各表情的类别;
表情系数获取单元,被配置为执行基于预先对表情的分类,针对不同类别的表情,采用不同的方式得到所述人脸图片中的人脸的各类别表情的表情系数;
表情识别单元,被配置为执行基于得到所述人脸的各个所述表情系数的取值,识别出所述人脸的表情。
7.根据权利要求6所述的装置,其特征在于,所述表情系数获取单元包括:
特征点获取模块,被配置为执行对所述人脸图片进行识别,获取所述人脸图片中的人脸的多个特征点;
单一类表情系数获取模块,被配置为执行分别确定与各个单一类表情相关的个体特征,基于与各个所述个体特征的特征点,得到所述人脸的各个所述单一类表情的表情系数,其中,所述单一类表情是指涉及单一运动单元且涉及人脸的单一个体特征的表情。
8.根据权利要求7所述的装置,其特征在于,所述表情系数获取单元还包括:
细微表情系数获取模块,被配置为执行利用预设的人脸三维重建方法,基于所述人脸的多个特征点,对所述人脸图片中的人脸进行三维重建,得到所述人脸的各个细微类表情的表情系数,其中,所述细微类表情是指涉及单一运动单元的表情中除所述单一类表情以外的其它表情。
9.根据权利要求6所述的获取装置,其特征在于,所述表情系数获取单元包括:
复合类表情系数获取模块,被配置为执行将所述人脸图片分别输入到各个已训练好的深度神经网络模型,得到所述人脸的各个复合类表情的表情系数,其中,每个所述深度神经网络模型对应一个预设的所述复合类表情,所述深度神经网络模型用于识别与其对应的复合类表情的表情系数,其中,所述复合类表情是指预设的涉及多个运动单元的表情。
10.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至5中任一项所述的人脸表情的识别方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911329050.3A CN111144266B (zh) | 2019-12-20 | 2019-12-20 | 人脸表情的识别方法及装置 |
US17/121,902 US20210192192A1 (en) | 2019-12-20 | 2020-12-15 | Method and apparatus for recognizing facial expression |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911329050.3A CN111144266B (zh) | 2019-12-20 | 2019-12-20 | 人脸表情的识别方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111144266A true CN111144266A (zh) | 2020-05-12 |
CN111144266B CN111144266B (zh) | 2022-11-22 |
Family
ID=70519172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911329050.3A Active CN111144266B (zh) | 2019-12-20 | 2019-12-20 | 人脸表情的识别方法及装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20210192192A1 (zh) |
CN (1) | CN111144266B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113538639B (zh) * | 2021-07-02 | 2024-05-21 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN113743369A (zh) * | 2021-09-18 | 2021-12-03 | 中国银行股份有限公司 | 一种数据处理方法及装置 |
CN114155324B (zh) * | 2021-12-02 | 2023-07-25 | 北京字跳网络技术有限公司 | 虚拟角色的驱动方法、装置、电子设备及可读存储介质 |
CN115393488B (zh) * | 2022-10-28 | 2023-03-03 | 北京百度网讯科技有限公司 | 虚拟人物表情的驱动方法、装置、电子设备和存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130016124A1 (en) * | 2011-07-14 | 2013-01-17 | Samsung Electronics Co., Ltd. | Method, apparatus, and system for processing virtual world |
CN104951743A (zh) * | 2015-03-04 | 2015-09-30 | 苏州大学 | 基于主动形状模型算法分析人脸表情的方法 |
CN106372622A (zh) * | 2016-09-30 | 2017-02-01 | 北京奇虎科技有限公司 | 一种人脸表情分类方法及装置 |
CN106384083A (zh) * | 2016-08-31 | 2017-02-08 | 上海交通大学 | 一种自动面部表情识别并进行信息推荐的方法 |
CN106447785A (zh) * | 2016-09-30 | 2017-02-22 | 北京奇虎科技有限公司 | 一种驱动虚拟角色的方法和装置 |
CN108874114A (zh) * | 2017-05-08 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 |
CN108875633A (zh) * | 2018-06-19 | 2018-11-23 | 北京旷视科技有限公司 | 表情检测与表情驱动方法、装置和系统及存储介质 |
US20190012599A1 (en) * | 2010-06-07 | 2019-01-10 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
CN109840459A (zh) * | 2017-11-29 | 2019-06-04 | 深圳Tcl新技术有限公司 | 一种人脸表情分类方法、装置及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101968723B1 (ko) * | 2017-10-18 | 2019-04-12 | 네이버 주식회사 | 카메라 이펙트를 제공하는 방법 및 시스템 |
US20200090392A1 (en) * | 2018-09-19 | 2020-03-19 | XRSpace CO., LTD. | Method of Facial Expression Generation with Data Fusion |
US11140446B2 (en) * | 2019-05-15 | 2021-10-05 | Warner Bros. Entertainment Inc. | Sensitivity assessment for media production using artificial intelligence |
-
2019
- 2019-12-20 CN CN201911329050.3A patent/CN111144266B/zh active Active
-
2020
- 2020-12-15 US US17/121,902 patent/US20210192192A1/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190012599A1 (en) * | 2010-06-07 | 2019-01-10 | Affectiva, Inc. | Multimodal machine learning for emotion metrics |
US20130016124A1 (en) * | 2011-07-14 | 2013-01-17 | Samsung Electronics Co., Ltd. | Method, apparatus, and system for processing virtual world |
CN104951743A (zh) * | 2015-03-04 | 2015-09-30 | 苏州大学 | 基于主动形状模型算法分析人脸表情的方法 |
CN106384083A (zh) * | 2016-08-31 | 2017-02-08 | 上海交通大学 | 一种自动面部表情识别并进行信息推荐的方法 |
CN106372622A (zh) * | 2016-09-30 | 2017-02-01 | 北京奇虎科技有限公司 | 一种人脸表情分类方法及装置 |
CN106447785A (zh) * | 2016-09-30 | 2017-02-22 | 北京奇虎科技有限公司 | 一种驱动虚拟角色的方法和装置 |
CN108874114A (zh) * | 2017-05-08 | 2018-11-23 | 腾讯科技(深圳)有限公司 | 实现虚拟对象情绪表达的方法、装置、计算机设备及存储介质 |
CN109840459A (zh) * | 2017-11-29 | 2019-06-04 | 深圳Tcl新技术有限公司 | 一种人脸表情分类方法、装置及存储介质 |
CN108875633A (zh) * | 2018-06-19 | 2018-11-23 | 北京旷视科技有限公司 | 表情检测与表情驱动方法、装置和系统及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
US20210192192A1 (en) | 2021-06-24 |
CN111144266B (zh) | 2022-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108363706B (zh) | 人机对话交互的方法和装置、用于人机对话交互的装置 | |
CN111144266B (zh) | 人脸表情的识别方法及装置 | |
CN108052079B (zh) | 设备控制方法、装置、设备控制装置及存储介质 | |
TWI751161B (zh) | 終端設備、智慧型手機、基於臉部識別的認證方法和系統 | |
CN105825486B (zh) | 美颜处理的方法及装置 | |
US10282597B2 (en) | Image classification method and device | |
CN111985268B (zh) | 一种人脸驱动动画的方法和装置 | |
JP2019145108A (ja) | 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置 | |
CN105357425B (zh) | 图像拍摄方法及装置 | |
CN108712603B (zh) | 一种图像处理方法及移动终端 | |
CN104156915A (zh) | 肤色调整方法和装置 | |
CN106845398B (zh) | 人脸关键点定位方法及装置 | |
CN107220614B (zh) | 图像识别方法、装置及计算机可读存储介质 | |
CN107958223B (zh) | 人脸识别方法及装置、移动设备、计算机可读存储介质 | |
CN111047526A (zh) | 一种图像处理方法、装置、电子设备及存储介质 | |
CN107463903B (zh) | 人脸关键点定位方法及装置 | |
WO2021047069A1 (zh) | 人脸识别方法和电子终端设备 | |
CN110211211B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN111368796A (zh) | 人脸图像的处理方法、装置、电子设备及存储介质 | |
EP3975046A1 (en) | Method and apparatus for detecting occluded image and medium | |
CN110490164B (zh) | 生成虚拟表情的方法、装置、设备及介质 | |
CN112509005B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN112188091B (zh) | 人脸信息识别方法、装置、电子设备及存储介质 | |
US20210118148A1 (en) | Method and electronic device for changing faces of facial image | |
CN111526287A (zh) | 图像拍摄方法、装置、电子设备、服务器、系统及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |