CN111582121A - 用于捕捉面部表情特征的方法、终端设备和计算机可读存储介质 - Google Patents
用于捕捉面部表情特征的方法、终端设备和计算机可读存储介质 Download PDFInfo
- Publication number
- CN111582121A CN111582121A CN202010358152.4A CN202010358152A CN111582121A CN 111582121 A CN111582121 A CN 111582121A CN 202010358152 A CN202010358152 A CN 202010358152A CN 111582121 A CN111582121 A CN 111582121A
- Authority
- CN
- China
- Prior art keywords
- face
- position information
- key point
- initial position
- depth image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 44
- 230000008921 facial expression Effects 0.000 title claims abstract description 35
- 230000001815 facial effect Effects 0.000 claims abstract description 38
- 238000001514 detection method Methods 0.000 claims abstract description 25
- 230000007935 neutral effect Effects 0.000 claims description 25
- 210000004709 eyebrow Anatomy 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 10
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000006870 function Effects 0.000 description 32
- 238000010586 diagram Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 238000013507 mapping Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000000835 fiber Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Abstract
本公开的实施例公开了用于捕捉面部表情特征的方法、终端设备和计算机可读存储介质。该方法的一具体实施方式包括:启动深度摄像机;接受该深度摄像机返回的面部数据;对于面部数据中的每个深度图像,生成该深度图像对应于预先确定的人脸检测模型的偏移量;基于面部数据中的每个深度图像的偏移量,生成面部表情特征。这种方法使用深度摄像机获取面部数据,能够直接提取所拍摄对象面部的三维特征,同时,利用预先确定的人脸检测模型确定所拍摄对象面部数据中每个深度图像的偏移量,方便用户捕获有效的面部表情特征。
Description
技术领域
本公开实施例涉及运动捕捉和数据表示领域,具体涉及一种面部图像特征捕获和预处理作用的组合方法、电子设备。
背景技术
随着运动捕捉技术的快速发展,运动捕捉系统在影视、动画制作上被广泛应用。目前,大多数运动捕捉系统通过跟踪粘帖在表演者面部标识点的方式对面部表情进行捕捉,这种捕捉方式对表情具有较大的束缚性,标识点极易脱落,降低了表演者对模型表情的精细化控制。因此,在无任何辅助标识点的条件下,利用运动捕捉技术实现对面部表情的定位以及捕获面部表情特征,已经成为运动捕捉技术中的热点问题。
发明内容
本公开实施例提出了一种用于捕捉面部表情特征的方法。
第一方面,本公开实施例提供了一种用于捕捉面部表情特征的方法,该方法包括:启动深度摄像机;接受深度摄像机返回的面部数据,其中,面部数据包括第一数目个深度图像;对于面部数据中的每个深度图像,生成该深度图像对应于预先确定的人脸检测模型的偏移量;基于面部数据中的每个深度图像的偏移量,生成面部表情特征。
在一些实施例中,深度图像包含了表征所拍摄对象的深度信息,其中,深度信息是指所拍摄对象的三维特征。
在一些实施例中,该方法还包括:基于人脸检测模型,生成面部关键区域内的面部关键点集合的初始位置信息集合,其中,面部关键区域包括左眼区域、右眼区域、左眉区域、右眉区域、嘴巴区域、鼻子区域,以及,面部关键点集合的初始位置信息集合包括左眼初始位置信息、右眼初始位置信息、左眉初始位置信息、右眉初始位置信息、左嘴角的初始位置信息、右嘴角的初始位置信息、鼻尖的初始位置信息。
在一些实施例中,基于人脸检测模型,生成面部关键区域内的面部关键点集合的初始位置信息集合,包括:获取标准面部图像,其中,标准面部图像是中性人脸图像;利用人脸检测模型,标定标准面部图像的初始位置信息集合;将标准面部图像的初始位置信息集合确定为面部关键区域内的面部关键点集合的初始位置信息集合。
在一些实施例中,对于面部数据中的每个深度图像,生成该深度图像对应于预先确定的人脸检测模型的偏移量,包括:基于预先确定的人脸检测模型,获取该深度图像中的面部关键点集合的位置信息集合;将面部关键点集合的位置信息集合与对应的面部关键点集合的初始位置信息集合进行匹配,得到该深度图像的差值信息;将差值信息确定为偏移量。
在一些实施例中,将面部关键点集合的位置信息集合与对应的所述面部关键点集合的初始位置信息集合进行匹配,得到该深度图像的差值信息,包括:基于面部关键点集合的位置信息集合,利用径向基函数插值,得到插值后的关键点信息集合M1,其中,径向基函数基于下式生成M1中每个关键点i的插值后的关键点信息mi,M1是由第一数目个mi组成的关键点信息集合:其中,mi表示生成的插值后的关键点i的关键点信息,pi表示第i个关键点的位置,i表示关键点计数,n表示插值后得到的标记点的个数,j表示插值后得到的标记点计数,P是径向基函数的多项式项,pj表示第j个标记点的位置,P是一个固定的仿射变换,φ表示径向基函数,λ表示径向基函数的权值矩阵,λj表示插值后得到的第j个标记点对应的径向基函数的权值矩阵;基于面部关键点集合的初始位置信息集合,利用径向基函数插值,得到插值后的初始关键点信息集合M2;将关键点信息集合M1和初始关键点信息集合M2的差值确定为该深度图像的差值信息。
在一些实施例中,该方法还包括:保存面部数据中的每个深度图像的偏移量,生成面部表情特征。
第二方面,本公开实施例提供了一种终端设备,该终端设备包括:一个或多个处理器;存储装置,用于存储一个或多个程序,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第三方面,本公开实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本公开实施例提供一种用于捕捉面部表情特征的方法,启动深度摄像机;接受该深度摄像机返回的面部数据;对于面部数据中的每个深度图像,生成该深度图像对应于预先确定的人脸检测模型的偏移量;基于面部数据中的每个深度图像的偏移量,生成面部表情特征。
本公开的上述各个实施例中的一个实施例具有如下有益效果:使用深度摄像机获取面部数据,无需对面部数据进行三维重建可以直接得到包含所拍摄对象的三维特征的深度信息。利用预先确定的人脸检测模型进行初始面部表情特征标定,自动生成面部关键区域内的面部关键点的初始位置信息。对深度摄像机获得的面部数据中的每幅深度图像,生成面部关键区域内的面部关键点的偏移量,基于偏移量,生成面部表情特征。本公开的实施例使用深度摄像机获取面部数据,能够直接提取所拍摄对象面部的三维特征,同时,利用预先确定的人脸检测模型确定所拍摄对象面部数据中每个深度图像的偏移量,方便用户捕获有效的面部表情特征。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的一些实施例可以应用于其中的示例性系统的架构图;
图2是根据本公开的用于捕捉面部表情特征的方法的一些实施例的流程图;
图3是根据本公开的一些实施例的用于捕捉面部表情特征的方法的一个应用场景的示意图;
图4是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的用于捕捉面部表情特征的方法的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如数字签名应用、特征提取应用、运动捕捉应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种终端设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的终端设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103输入的目标数据进行面部表情特征捕捉的服务器等。服务器可以基于接收到的目标数据进行面部表情特征捕捉等处理,并将处理结果(例如面部表情特征)反馈给终端设备。
需要说明的是,本公开实施例所提供的用于捕捉面部表情特征的方法可以由服务器105,也可以由终端设备101、102、103执行。
还需要指出的是,终端设备101、102、103中也可以安装有面部表情特征捕捉类应用,此时,处理方法也可以由终端设备101、102、103执行。此时,示例性系统架构100也可以不包括服务器105和网络104。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供面部表情特征捕捉处理),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本公开的用于捕捉面部表情特征的方法的一些实施例的流程200。该用于捕捉面部表情特征的方法,包括以下步骤:
步骤201,启动深度摄像机。
在一些实施例中,用于捕捉面部表情特征的方法的执行主体(例如图1所示的终端设备)启动深度摄像机。与传统的通过立体视觉分析重构三维特征的摄像机不同,深度摄像机可以获取平面图像,也可以获取所拍摄对象的深度信息,也就是三维的位置和尺寸信息。深度摄像机的摄像头可以是深度摄像头。可选的,深度摄像机使用的技术可以是结构光技术、飞行时间法技术和双目多角立体成像技术。
步骤202,接受深度摄像机返回的面部数据。
在一些实施例中,上述执行主体接受深度摄像机返回的面部数据,其中,面部数据包括第一数目个深度图像。可选的,深度图像包含了表征所拍摄对象的深度信息,其中,深度信息是指所拍摄对象的三维特征。
可选的,深度图像可以是指将从深度摄像机到所拍摄对象中各点的距离(深度)作为像素值的图像,它直接反映了所拍摄对象可见表面的几何形状。深度图像经过坐标转换可以计算为点云数据,有规则及必要信息的点云数据也可以反算为深度图像数据。深度图像中每一个像素点代表的是在深度摄像机的深度感应器的视野中,该像素点(x,y)坐标处所拍摄对象到离摄像头平面最近的所拍摄对象到该平面的距离(以毫米为单位),其中x表示水平方向的横坐标、y表示竖直方向的纵坐标。可选的,点云数据是指扫描所拍摄的对象并以点的形式记录,每一个点包含有三维坐标,也可以包含颜色信息或反射强度信息。
步骤203,对于面部数据中的每个深度图像,生成该深度图像对应于预先确定的人脸检测模型的偏移量。
在一些实施例中,上述执行主体基于预先确定的人脸检测模型,对于面部数据中的每个深度图像,获取该深度图像中的面部关键区域内的面部关键点集合的初始位置信息集合。其中,面部关键区域包括左眼区域、右眼区域、左眉区域、右眉区域、嘴巴区域、鼻子区域,以及,面部关键点集合的初始位置信息集合包括左眼初始位置信息、右眼初始位置信息、左眉初始位置信息、右眉初始位置信息、左嘴角的初始位置信息、右嘴角的初始位置信息、鼻尖的初始位置信息。
可选的,上述执行主体获取标准面部图像,其中标准面部图像是中性人脸图像。中性人脸图像可以是一张典型的、不具备任何明显特征的人脸图像。中性人脸图像可以是由普通摄像机获得的二维图像,其中每个像素点的像素值可以是该像素点的灰度值。可选的,中性人脸图像可以是CANDIDE3人脸图像。
可选的,上述执行主体利用预先确定的人脸检测模型,标定该中性人脸图像中的初始位置信息。预先确定的人脸检测模型可以是主动形状模型。将中性人脸图像输入到主动形状模型中,输出该中性人脸图像的初始位置信息集合。
主动形状模型是一种基于统计学的主动外观模型,将中性人脸图像输入主动形状模型后,得到该中性人脸图像的主动形状模型关键点集合,其中,主动形状模型关键点集合中的主动形状模型关键点数量可以是65个,也可以是68个。得到该中性人脸图像的主动形状模型关键点集合后,生成中性人脸图像的脸部及五官轮廓。对该脸部及五官轮廓进行对齐归一化处理,包括但不限于旋转、缩放、平移等等。对于中性人脸图像的主动形状模型关键点集合中的每个主动形状模型关键点沿着脸部及五官轮廓的法线方向搜索,同时基于中性人脸图像中像素点的灰度值进行灰度匹配,更新得到中性人脸图像的主动形状模型关键点集合。对于每一个像素点使用其局部邻域内的灰度值来表征,可选的,可以是3x3大小的邻域,通过计算3x3大小的邻域内全部像素点灰度的平均值,得到该像素点的灰度值。通过对不同像素的灰度值计算马尔可夫距离,得到更新后的中性人脸图像的主动形状模型关键点集合。输出中性人脸图像的主动形状模型关键点集合中每个主动形状模型关键点的坐标,得到该中性人脸图像的初始位置信息集合。可选的,将该中性人脸图像的初始位置信息集合确定为面部关键区域内的面部关键点的初始位置信息集合。
在一些实施例的一些可选的实现方式中,对于面部数据中的每个深度图像,循环执行下述步骤一至步骤三,生成该深度图像对应于人脸检测模型的偏移量,可选的,人脸检测模型可以是主动形状模型。
步骤一:将该深度图像输入主动形状模型,得到该深度图像的主动形状模型关键点集合,其中,主动形状模型关键点集合中的主动形状模型关键点数量可以是65个,也可以是68个。输出该深度图像的主动形状模型关键点集合中对应于面部关键区域内的面部关键点的主动形状模型关键点的位置信息,作为该深度图像中的面部关键区域内的面部关键点的位置信息集合。可选的,面部关键点的位置信息集合包括左眼位置信息、右眼位置信息、左眉位置信息、右眉位置信息、左嘴角的位置信息、右嘴角的位置信息、鼻尖的位置信息。
步骤二:将步骤一中得到的该深度图像的面部关键点的位置信息集合与面部关键区域内的面部关键点的初始位置信息集合进行匹配,得到该深度图像的差值信息。
可选的,利用网格变形技术实现该深度图像的面部关键点的位置信息集合与面部关键区域内的面部关键点的初始位置信息集合的匹配。网格变形技术可以是基于径向基函数插值,径向基函数构建一个几何拓扑映射关系。
径向基函数基于下式生成面部关键区域内的每个关键点i的插值后的关键点信息mi:
其中,mi表示生成的插值后的关键点i的关键点信息,pi表示第i个关键点的位置,i表示关键点计数,n表示插值后得到的标记点的个数,j表示插值后得到的标记点计数,P是径向基函数的多项式项,pj表示第j个标记点的位置,P是一个固定的仿射变换,φ表示径向基函数,λ表示径向基函数的权值矩阵,λj表示插值后得到的第j个标记点对应的径向基函数的权值矩阵;由上式可以得到交叉映射矩阵:
T=[λ0,λ1,...,λn-1,P]T
其中,λ表示径向基函数的权值矩阵,λ0表示第一个标记点对应的径向基函数的权值矩阵,n表示插值后得到的标记点的个数,λn表示第n个标记点对应的径向基函数的权值矩阵,P是径向基函数的多项式项,T为交叉映射矩阵。径向基函数可以选择下式:
其中,x为径向基函数中的变量,x可以是标记点,φ(x)表示径向基函数的结果,r表示当前标记点到其最近邻标记点的距离:
ri=min||xi-xj||,(i≠j)
其中,x为径向基函数中的变量,x可以是标记点,i和j分别是标记点的计数,i与j不相等,xi表示第i个标记点,xj表示第j个标记点,ri表示第i个标记点到其最近邻标记点的距离。
利用交叉映射矩阵,构建系数矩阵如下:
其中,n表示插值后得到的标记点的个数,φ表示径向基函数,P是径向基函数的多项式项,f表示多项式参数,t表示当前的深度图像计数,A为系数矩阵,At表示当前的深度图像的系数矩阵,表示当前的深度图像的第n-1个标记点的多项式项,表示当前的深度图像的第0个标记点的多项式项,可选的,标记点从0开始计数,最后一个标记点为n-1,共计n个。表示当前的深度图像的横纵坐标计数都为0的径向基函数。
最后,计算得到插值后的关键点信息集合:
M=AtT
其中,At表示当前的深度图像的系数矩阵,T表示交叉映射矩阵,M中包含当前的深度图像中的每个关键点i的插值后的关键点信息mi。将当前的深度图像中的插值后的关键点信息集合M记做M1,M1是由第一数目个mi组成的关键点信息集合。
可选的,对于中性人脸图像,利用径向基函数生成中性人脸图像中每个面部关键点的插值后的关键点信息集合,得到中性人脸图像的插值后的关键点信息集合M2。计算M1与M2的差值,得到该深度图像的差值信息。
步骤三,将该深度图像的差值信息确定为该深度图像对应于人脸检测模型的偏移量。
步骤204,基于面部数据中的每个深度图像的偏移量,生成面部表情特征。
在一些实施例中,上述执行主体将面部数据中的每个深度图像的偏移量保存在本地,保存后的偏移量作为面部表情特征。可选的,偏移量是根据面部数据中每个深度图像中面部关键区域的关键点计算得到的。可选的,面部关键点包括左眼、右眼、左眉、右眉、左嘴角、右嘴角、鼻尖。眼睛、眉毛、嘴巴和鼻子区域的动态变化情况,可以表征人的脸部表情变化情况。
图2给出的一个实施例具有如下有益效果:使用深度摄像机获取面部数据,无需对面部数据进行三维重建可以直接得到包含所拍摄对象的三维特征的深度信息。利用预先确定的人脸检测模型进行初始面部表情特征标定,自动生成面部关键区域内的面部关键点的初始位置信息。对深度摄像机获得的面部数据中的每幅深度图像,生成面部关键区域内的面部关键点的偏移量,基于偏移量,生成面部表情特征。本公开的实施例使用深度摄像机获取面部数据,能够直接提取所拍摄对象面部的三维特征,同时,利用预先确定的人脸检测模型确定所拍摄对象面部数据中每个深度图像的偏移量,方便用户捕获有效的面部表情特征。
继续参考图3,示出了根据本公开的用于捕捉面部表情特征的方法的一个应用场景的示意图。
在图3的应用场景中,服务器301获取深度摄像机302所拍摄的面部数据,服务器301调用存储在本地的中性人脸图像303,最后,服务器302生成面部表情特征304。
本申请实施例提供的用于捕捉面部表情特征的方法利用深度摄像机获取包含所拍摄对象三维特征的深度图像,通过与存储在本地的中性人脸图像比对,生成面部表情特征,这种方法能够直接利用三维特征,无需额外的三维特征匹配和生成操作,简化了处理流程,方便用户捕捉面部表情特征。
下面参考图4,其示出了适于用来实现本公开实施例的终端设备的计算机系统400的结构示意图。图4示出的终端设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图4所示,计算机系统400包括中央处理单元(CPU,Central Processing Unit)401,其可以根据存储在只读存储器(ROM,Read Only Memory)402中的程序或者从存储部分408加载到随机访问存储器(RAM,Random Access Memory)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有系统400操作所需的各种程序和数据。CPU 401、ROM402以及RAM 403通过总线404彼此相连。输入/输出(I/O,Input/Output)接口405也连接至总线404。
以下部件连接至I/O接口405:包括硬盘等的存储部分406;以及包括诸如LAN(局域网,Local Area Network)卡、调制解调器等的网络接口卡的通信部分407。通信部分407经由诸如因特网的网络执行通信处理。驱动器408也根据需要连接至I/O接口405。可拆卸介质409,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器408上,以便于从其上读出的计算机程序根据需要被安装入存储部分406。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分407从网络上被下载和安装,和/或从可拆卸介质409被安装。在该计算机程序被中央处理单元(CPU)401执行时,执行本公开的方法中限定的上述功能。需要说明的是,本公开所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如C语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (9)
1.一种用于捕捉面部表情特征的方法,包括:
启动深度摄像机;
接受所述深度摄像机返回的面部数据,其中,所述面部数据包括第一数目个深度图像;
对于所述面部数据中的每个深度图像,生成该深度图像对应于预先确定的人脸检测模型的偏移量;
基于所述面部数据中的每个深度图像的偏移量,生成面部表情特征。
2.根据权利要求1所述的方法,其中,所述深度图像包含了表征所拍摄对象的深度信息,其中,所述深度信息是指所拍摄对象的三维特征。
3.根据权利要求2所述的方法,其中,所述方法还包括:
基于所述人脸检测模型,生成面部关键区域内的面部关键点集合的初始位置信息集合,其中,所述面部关键区域包括左眼区域、右眼区域、左眉区域、右眉区域、嘴巴区域、鼻子区域,以及,所述面部关键点集合的初始位置信息集合包括左眼初始位置信息、右眼初始位置信息、左眉初始位置信息、右眉初始位置信息、左嘴角的初始位置信息、右嘴角的初始位置信息、鼻尖的初始位置信息。
4.根据权利要求3所述的方法,其中,所述基于所述人脸检测模型,生成面部关键区域内的面部关键点集合的初始位置信息集合,包括:
获取标准面部图像,其中,所述标准面部图像是中性人脸图像;
利用所述人脸检测模型,标定所述标准面部图像的初始位置信息集合;
将所述标准面部图像的初始位置信息集合确定为所述面部关键区域内的面部关键点集合的初始位置信息集合。
5.根据权利要求3所述的方法,其中,所述对于所述面部数据中的每个深度图像,生成该深度图像对应于预先确定的人脸检测模型的偏移量,包括:
基于所述预先确定的人脸检测模型,获取该深度图像中的面部关键点集合的位置信息集合;
将所述面部关键点集合的位置信息集合与对应的所述面部关键点集合的初始位置信息集合进行匹配,得到该深度图像的差值信息;
将所述差值信息确定为所述偏移量。
6.根据权利要求5所述的方法,其中,所述将所述面部关键点集合的位置信息集合与对应的所述面部关键点集合的初始位置信息集合进行匹配,得到该深度图像的差值信息,包括:
基于所述面部关键点集合的位置信息集合,利用径向基函数插值,得到插值后的关键点信息集合M1,其中,径向基函数基于下式生成M1中每个关键点i的插值后的关键点信息mi,M1是由第一数目个mi组成的关键点信息集合:
其中,mi表示生成的插值后的关键点i的关键点信息,pi表示第i个关键点的位置,i表示关键点计数,n表示插值后得到的标记点的个数,j表示插值后得到的标记点计数,P是径向基函数的多项式项,pj表示第j个标记点的位置,P是一个固定的仿射变换,φ表示径向基函数,λ表示径向基函数的权值矩阵,λj表示插值后得到的第j个标记点对应的径向基函数的权值矩阵;
基于所述面部关键点集合的初始位置信息集合,利用径向基函数插值,得到插值后的初始关键点信息集合M2;
将所述关键点信息集合M1和所述初始关键点信息集合M2的差值确定为该深度图像的差值信息。
7.根据权利要求6所述的方法,其中,所述方法还包括:
保存所述面部数据中的每个深度图像的偏移量,生成所述面部表情特征。
8.一种终端设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的方法。
9.一种计算机可读存储介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-7中任一所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010358152.4A CN111582121A (zh) | 2020-04-29 | 2020-04-29 | 用于捕捉面部表情特征的方法、终端设备和计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010358152.4A CN111582121A (zh) | 2020-04-29 | 2020-04-29 | 用于捕捉面部表情特征的方法、终端设备和计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111582121A true CN111582121A (zh) | 2020-08-25 |
Family
ID=72117048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010358152.4A Pending CN111582121A (zh) | 2020-04-29 | 2020-04-29 | 用于捕捉面部表情特征的方法、终端设备和计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111582121A (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080037836A1 (en) * | 2006-08-09 | 2008-02-14 | Arcsoft, Inc. | Method for driving virtual facial expressions by automatically detecting facial expressions of a face image |
CN102855652A (zh) * | 2012-08-10 | 2013-01-02 | 大连大学 | 基于测地距的径向基函数人脸表情重定向与动画方法 |
CN104346824A (zh) * | 2013-08-09 | 2015-02-11 | 汉王科技股份有限公司 | 基于单张人脸图像自动合成三维表情的方法及装置 |
CN107203961A (zh) * | 2016-03-17 | 2017-09-26 | 掌赢信息科技(上海)有限公司 | 一种表情迁移的方法及电子设备 |
CN107886558A (zh) * | 2017-11-13 | 2018-04-06 | 电子科技大学 | 一种基于RealSense的人脸表情动画驱动方法 |
CN109272566A (zh) * | 2018-08-15 | 2019-01-25 | 广州多益网络股份有限公司 | 虚拟角色的动作表情编辑方法、装置、设备、系统及介质 |
CN109584353A (zh) * | 2018-10-22 | 2019-04-05 | 北京航空航天大学 | 一种基于单目视频重建三维人脸表情模型的方法 |
CN109754464A (zh) * | 2019-01-31 | 2019-05-14 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
-
2020
- 2020-04-29 CN CN202010358152.4A patent/CN111582121A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080037836A1 (en) * | 2006-08-09 | 2008-02-14 | Arcsoft, Inc. | Method for driving virtual facial expressions by automatically detecting facial expressions of a face image |
CN102855652A (zh) * | 2012-08-10 | 2013-01-02 | 大连大学 | 基于测地距的径向基函数人脸表情重定向与动画方法 |
CN104346824A (zh) * | 2013-08-09 | 2015-02-11 | 汉王科技股份有限公司 | 基于单张人脸图像自动合成三维表情的方法及装置 |
CN107203961A (zh) * | 2016-03-17 | 2017-09-26 | 掌赢信息科技(上海)有限公司 | 一种表情迁移的方法及电子设备 |
CN107886558A (zh) * | 2017-11-13 | 2018-04-06 | 电子科技大学 | 一种基于RealSense的人脸表情动画驱动方法 |
CN109272566A (zh) * | 2018-08-15 | 2019-01-25 | 广州多益网络股份有限公司 | 虚拟角色的动作表情编辑方法、装置、设备、系统及介质 |
CN109584353A (zh) * | 2018-10-22 | 2019-04-05 | 北京航空航天大学 | 一种基于单目视频重建三维人脸表情模型的方法 |
CN109754464A (zh) * | 2019-01-31 | 2019-05-14 | 北京字节跳动网络技术有限公司 | 用于生成信息的方法和装置 |
Non-Patent Citations (2)
Title |
---|
霍江雷: "数据驱动的实时人脸表情动画研究", 中国优秀硕士学位论文全文数据库信息科技辑, pages 3 - 4 * |
魏斌等: "人工情感原理及其应用", 31 January 2017, 华中科技大学出版社, pages: 74 - 75 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7403528B2 (ja) | シーンの色及び深度の情報を再構成するための方法及びシステム | |
CN108492364B (zh) | 用于生成图像生成模型的方法和装置 | |
JP6685827B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
US11380017B2 (en) | Dual-view angle image calibration method and apparatus, storage medium and electronic device | |
WO2019035155A1 (ja) | 画像処理システム、画像処理方法、及びプログラム | |
CN113689578B (zh) | 一种人体数据集生成方法及装置 | |
US11430142B2 (en) | Photometric-based 3D object modeling | |
CN108388889B (zh) | 用于分析人脸图像的方法和装置 | |
CN113643414B (zh) | 一种三维图像生成方法、装置、电子设备及存储介质 | |
CN109754464B (zh) | 用于生成信息的方法和装置 | |
CN115239861A (zh) | 人脸数据增强方法、装置、计算机设备和存储介质 | |
CN108492284B (zh) | 用于确定图像的透视形状的方法和装置 | |
US11961266B2 (en) | Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture | |
CN110189252B (zh) | 生成平均脸图像的方法和装置 | |
JP5909176B2 (ja) | 陰影情報導出装置、陰影情報導出方法及びプログラム | |
EP4292059A1 (en) | Multiview neural human prediction using implicit differentiable renderer for facial expression, body pose shape and clothes performance capture | |
CN108446737B (zh) | 用于识别对象的方法和装置 | |
CN117011137A (zh) | 基于rgb相似度特征匹配的图像拼接方法、装置及设备 | |
CN108256477B (zh) | 一种用于检测人脸的方法和装置 | |
van Dam et al. | Face reconstruction from image sequences for forensic face comparison | |
CN111582121A (zh) | 用于捕捉面部表情特征的方法、终端设备和计算机可读存储介质 | |
CN114913287A (zh) | 一种三维人体模型重建方法及系统 | |
CN111582120A (zh) | 用于捕捉眼球活动特征的方法、终端设备 | |
CN113706692A (zh) | 三维图像重构方法、装置、电子设备以及存储介质 | |
US10540823B2 (en) | Method and apparatus for determining a planar surface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |