CN110188590B - 一种基于三维人脸模型的脸型分辨方法 - Google Patents
一种基于三维人脸模型的脸型分辨方法 Download PDFInfo
- Publication number
- CN110188590B CN110188590B CN201910281034.5A CN201910281034A CN110188590B CN 110188590 B CN110188590 B CN 110188590B CN 201910281034 A CN201910281034 A CN 201910281034A CN 110188590 B CN110188590 B CN 110188590B
- Authority
- CN
- China
- Prior art keywords
- face
- dimensional
- lower jaw
- point
- picture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000007781 pre-processing Methods 0.000 claims abstract description 8
- 238000002372 labelling Methods 0.000 claims abstract description 4
- 238000013507 mapping Methods 0.000 claims abstract description 4
- 210000000887 face Anatomy 0.000 claims description 23
- 210000001061 forehead Anatomy 0.000 claims description 15
- 241000272814 Anser sp. Species 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 210000003128 head Anatomy 0.000 claims description 2
- 230000001815 facial effect Effects 0.000 abstract description 5
- 238000005516 engineering process Methods 0.000 description 7
- 210000001847 jaw Anatomy 0.000 description 7
- 210000004373 mandible Anatomy 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 101100517651 Caenorhabditis elegans num-1 gene Proteins 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Geometry (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于三维人脸模型的脸型分辨方法,包括:(1)采集人脸图片样本并进行预处理,并进行脸型标注;(2)对经过标注后的人脸图片进行三维建模,生成三维模型文件;(3)对二维人脸图片进行面部关键点的确定;(4)读取三维模型文件,将二维人脸图片上的关键点映射到三维模型中;(5)根据三维模型中的关键点位置,计算每种脸型对应的平均的面部长宽比、下颚与面部宽度比、以及下颚角度,并保存为每种脸型的基础数据;(6)选择待测试的人脸图片,经过预处理后,重复上述步骤,计算其面部长宽比、下颚与面部宽度比以及下颚角度,与基础数据对比后确定目标脸型。利用本发明,可以快速准确地确定人脸的脸型。
Description
技术领域
本发明属于人脸识别技术领域,尤其是涉及一种基于三维人脸模型的脸型分辨方法。
背景技术
人脸作为一个人的外在属性,具有极强的个体差异。人脸识别技术是一种是基于人的脸部特征信息进行身份识别的生物识别技术。目前市场上人脸识别技术已经十分成熟,已广泛应用于金融、司法、军队、公安、边检、政府、航天、电力、工厂、教育、医疗及众多企事业单位等领域。据了解,目前京沪高铁三站已建成人脸识别系统,整容也能被识别,可见人脸识别技术的成熟之处。
但是除了用人脸识别技术来识别个人身份特征以外,其他用途上的人脸应用开发却并没有像人脸识别技术一样出彩。目前随着人民生活水平的日益提高,越来越多的人开始关注个人的形象,气质,而不同的脸型适合的发型、妆容,饰品、服装完全不同。一张好看的脸型可以通过合适的搭配来使其更上一层高楼,就算是平凡的脸型,也能在了解该脸型的其不足之处的情况下通过一定的化妆等手段来掩盖这些缺点。这里的脸型是指面部的轮廓。
基于这些需求,人脸识别技术领域也出现了一些通过识别图像中人脸来检测分类脸型软件,例如百度提供的人脸识别SDK中则将脸型分类为正方形,三角形,椭圆,心型,圆形。倒是没有我们日常生活中常提到的长脸这种脸型,而且三角形也不是一种常见的分类。而在ios端上的一款脸型鉴定app则是要求用户上传照片并在照片中勾勒出脸型的轮廓才能进行检测。面部轮廓是完全可以通过已有的算法自行检测分割。另外,在实现本申请的过程中,申请人发现现有的技术主要存在以下几点问题:
1.传统的方法大多是通过二维平面图像来识别的,几乎没有通过用三维模型来识别。然而三维的信息量绝对是二维图片无法比拟的。例如二维图像中人脸脸型判断受倾斜角度和旋转角度的影响较大,但三维模型则不存在这些问题。
2.传统的面部三维模型大多是通过机器扫描获取的,本方法中所用到的面部三维模型直接是通过现成的深度学习模型对输入的二维平面图像进行处理建立的。相较于传统方法,其节约了大量的成本。
3.部分传统方法依然需要用户上传照片并在照片中标记出人脸的轮廓。这还是很大程度上影响了用户的体验。
发明内容
为了克服现有技术存在的上述问题,本发明提供了一种基于三维人脸模型的脸型分辨方法,可以快速确定人脸的脸型。
本发明的技术方案如下:
一种基于三维人脸模型的脸型分辨方法,包括以下步骤:
(1)采集人脸图片样本并进行预处理,将预处理完的图片样本进行脸型标注,标注为圆脸、方脸、长脸和鹅蛋脸;
(2)利用PRNet-master的方法对经过脸型标注后的人脸图片样本进行三维建模,生成三维模型文件;
(3)对上述二维人脸图片进行面部关键点的确定;
(4)读取三维模型文件,将二维人脸图片上的关键点映射到三维模型中,确定三维模型中的关键点位置;
(5)根据三维模型中的关键点位置,计算面部长度、面部宽度、下颚宽度,进一步计算每张图片中的脸型对应的面部长宽比、下颚与面部宽度比、以及下颚角度,作为基础数据保存;
(6)选择待测试的人脸图片,经过预处理后,重复上述步骤(2),(3)和步骤(4),并计算其面部长宽比、下颚与面部宽度比以及下颚角度,与基础数据聚类后确定目标脸型。
步骤(1)中,所述预处理的具体步骤为:
(1-1)对人脸图片进行颜色空间转换,取其深度分量,得到灰度图像;
(1-2)对得到的灰度图像进行中值滤波,消除孤立的噪声点;
(1-3)将图片缩放到500×500像素以下。
步骤(3)的具体步骤为:采用dlib库对二维人脸图片进行面部68个关键点的确定。但是由于dlib库缺少对额头的点的确定,本发明根据鼻梁上的点、鼻尖上的点以及下巴上的点做拟合直线,将拟合直线延长到头顶,选取相邻像素点差值最大的点作为额头的顶点。
步骤(4)中,将二维人脸图片上的关键点映射到三维模型中的方式为:将二维平面的68个关键点坐标(X2d,Y2d)和额头的顶点坐标(Xtop,Ytop)与三维模型中的三维坐标(X3d,Y3d,Z3d)进行对比,计算与二维平面关键点距离最接近的点作为其在三维模型中关键点的位置。
步骤(5)中,所述面部长度为额头上的顶点和下巴对应点的距离;所述面部宽度为左耳耳尖对应点和右耳耳尖对应点的距离;所述下颚宽度为左边下颚对应点和右边下颚对应点的距离;所述下颚角度为左下颚角度与右下颚角度的平均值,其中左下颚角度是由左边下颚对应点与左耳耳尖对应点、下巴对应点构成的角度。
步骤(6)中,与基础数据对比后确定目标脸型的具体过程为:
首先将圆脸和方脸归为一大类,长脸和鹅蛋脸归为另一大类,根据待测试人脸图片得到的面部长宽比、下颚与面部宽度比与基础数据中的对应参数之间的距离,确定是属于哪一大类;再根据下颚角度进一步确定属于当前大类中的哪一种脸型。
与现有技术相比,本发明具有以下有益效果:
1、能智能提取人脸轮廓,无需在图像上标记人脸轮廓来告诉算法。仅仅需要一张图片即可进行操作,操作起来更为方便。
2、对比传统二维平面的方法在二维平面上进行各种划线比较,本方法通过使用三维人脸模型,因而更少的受到图片中人脸的倾斜角度,相机拍摄角度等因素的影响,能更准确的来提取其关键信息。
3、对比传统的三维扫描方法,本方法中获取的三维模型成本更加便宜且生成更加迅速。
4、本方法采用的聚类判断算法为KNN改进算法,是一种比较成熟的机器学习算法,也获得不错的效果。
附图说明
图1为本发明一种基于三维人脸模型的脸型分辨方法的流程示意图;
图2为本发明实施例所建三维人脸模型不同角度的图;
图3为本发明实施例中二维平面的关键点及额头顶点的示意图;
图4为本发明实施例中下颚宽和面宽的示意图;
图5为本发明实施例中下颚角度示意图。
具体实施方式
下面结合附图和实施例对本发明做进一步详细描述,需要指出的是,以下所述实施例旨在便于对本发明的理解,而对其不起任何限定作用。
如图1所示,一种基于三维人脸模型的脸型分辨方法,包括以下步骤:
步骤1,对样本人脸图片的预处理。
(1-1)对样本图片进行颜色空间转换,取其深度分量,得到灰度图像。
(1-2)对得到的灰度图像进行中值滤波,从而消除孤立的噪声点。
(1-3)将图片缩放到500×500像素以下,并对每张图片进行类型的标注,分别标注为圆脸或方脸和长脸或鹅蛋脸两类。
步骤2,对经过预处理的图片进行三维人脸建模,主要通过用现有的PRNet-master的方法来对图片进行三维的建模,建模的结果如图2所示。
步骤3,对二维图片用dlib库进行面部68关键点的确定,进而确定面部的总体轮廓。但是因为dlib库缺少对额头的点的确定,所以需要用差值的方法自行确定。68点的位置如图3所示,额头的点的确定方法如下:
(3-1)对27(鼻梁上的点),28(鼻梁上的点),29(鼻梁上的点),30(鼻梁上的点),33(鼻尖的点),8(下巴的点)号点做拟合直线。这里选择函数y=kx+b直接套用numpy库进行拟合,获得参数k和b。
(3-2)将获得的直线延长到头顶,记下其所经过的像素点。
(3-3)对相邻的像素点做差值比较。因为从皮肤到头发的颜色差异较大,所以选取差值最大的点作为额头的顶点,记为(Xtop,Ytop)。额头顶点的位置如附图说明的图3中的top点。
步骤4,获取三维关键点。
(4-1)对生成的三维模型文件进行读取。读取文件中v开头的所有行,其中每一行的前三列为xyz轴的坐标(X3d,Y3d,Z3d)。
(4-2)将二维平面的关键点点坐标(X2d,Y2d)和额头的顶点(Xtop,Ytop)与三维坐标进行对比。将使得(X2d-X3d)2+(Y2d-Y3d)2的值最小,换言之与平面关键点距离最接近的点作为其在三维模型中的关键点位置。
步骤5,计算面部的高度和宽度、下颚的宽度、下颚的角度。
(5-1)将三维模型的第0号点(右耳耳尖对应的面部位置)(X3d0,Y3d0,Z3d0)和第16号点(左耳耳尖对应的面部位置)(X3d16,Y3d16,Z3d16)之间的距离作为面部宽度Face_width。其中面部宽度为图4中的上面一条线段。
(5-2)将三维模型的第4号点(右边下颚的位置点)(X3d4,Y3d4,Z3d4)和第12号点(左边下颚的位置点)(X3d12,Y3d12,Z3d12)之间的距离作为下颚宽度Jaw_width。其中下颚宽度为图4中的下面一条线段。
(5-3)计算额头上的顶点(X3dtop,Y3dtop,Z3dtop)和8号点(下巴对应的点)(X3d8,Y3d8,Z3d8)的距离作为面部长度Face_length。
(5-4)下颚角度的计算。这里就是计算4号点(右边下颚的位置点)(X3d4,Y3d4,Z3d4)和0号点(右耳耳尖对应的面部位置)(X3d0,Y3d0,Z3d0)与8号点(下巴对应的点)(X3d8,Y3d8,Z3d8)的角度θL。并且再计算12号点(左边下颚的位置点)的三维坐标和8号点(下巴对应的点)与16号点(左耳耳尖对应的面部位置)的角度θR。再取其平均值获得下颚角度θ。下颚角度的平面图大致如图5所示。具体计算如下:
设4号点(右边下颚的位置点)到8号点(下巴对应的点)的向量为(a,b,c),4号点(右边下颚的位置点)到0号点(右耳耳尖对应的面部位置)的向量为(A,B,C)。
其中,a=X3d4-X3d8,b=Y3d4-Y3d8,c=Z3d4-Z3d8,A=X3d4-X3d0,B=Y3d4-Y3d0,C=Z3d4-Z3d0;
θR的计算方法也相同,最后θ=(θL+θR)/2。
步骤6,将获取面部的长宽比,下颚与面宽比,下颚角度与其对应图片的面部类型保存下来,作为参考。具体格式为:
类型1类型2Num1 Num2θ
其中,Num1=Face_length/Face_width,Num2=Jaw_width/Face_width,θ为下颚角度。类型1为四种类型分别为长脸,圆脸,方脸,鹅蛋脸。类型2为2种脸型,长脸和鹅蛋脸标注为一种,方脸和圆脸标为一种。
步骤7,对待测试的人脸图片进行检测。
(7-1)对图片进行颜色空间转换,取其亮度分量,得到灰度图像。
(7-2)对得到的灰度图像进行中值滤波,从而消除孤立的噪声点。
(7-3)将图片缩放到500×500像素以下。
(7-4)获取待测试人脸图片的面部长宽比、下颚与面宽的比值。分别设为Testface_length/Testface_width,Testjaw_width/Testface_width。
(7-5)首先是将脸型分为两类,圆脸方脸一类,长脸鹅蛋脸一类。因此计算并选出与保存下的数据最接近的五个类型2的标签。计算方式如下。
计算与每一行的距离,并取距离最小的五行的标签。计算每一类标签的数目。若为圆脸或方脸的标签数量多,则判为圆脸或方脸。若鹅蛋脸或长脸的数量多,则判为鹅蛋脸或长脸。
(7-6)若已经判断为圆脸或方脸,则进行下颚的角度的计算。这里就是计算4号点(右边下颚的位置点)(X3d4,Y3d4,Z3d4)和0号点(右耳耳尖对应的面部位置)(X3d0,Y3d0,Z3d0)与8号点(下巴对应的点)(X3d8,Y3d8,Z3d8)的角度θL。并且再计算12号点(左边下颚的位置点)的三维坐标和8号点(下巴对应的点)与16号点(左耳耳尖对应的面部位置)的角度θR。再取其平均值获得下颚角度θ。
计算后与所有的圆脸和方脸的下颚角度进行对比,取最相近的五行的类型1的标签作为候选。计算出五个标签中的数目最多的标签作为该脸型的类型。注意类型1每个标签只包含一种脸型,类型2每个标签包含两种脸型。
若已判断为长脸或鹅蛋脸,也进行下颚的角度的计算,并与所有的长脸,鹅蛋脸的下颚角度对比,取最相近的五行的类型1的标签作为候选。计算出五个标签中的数目最多的标签作为该脸型的类型。
以上所述的实施例对本发明的技术方案和有益效果进行了详细说明,应理解的是以上所述仅为本发明的具体实施例,并不用于限制本发明,凡在本发明的原则范围内所做的任何修改、补充和等同替换,均应包含在本发明的保护范围之内。
Claims (5)
1.一种基于三维人脸模型的脸型分辨方法,其特征在于,包括以下步骤:
(1)采集人脸图片样本并进行预处理,将预处理完的图片样本进行脸型标注,标注为圆脸、方脸、长脸和鹅蛋脸;
(2)利用PRNet-master的方法对经过脸型标注后的人脸图片样本进行三维建模,生成三维模型文件;
(3)对上述人脸图片进行面部关键点的确定;
(4)读取三维模型文件,将二维人脸图片上的关键点映射到三维模型中,确定三维模型中的关键点位置;
(5)根据三维模型中的关键点位置,计算面部长度、面部宽度、下颚宽度,进一步计算每张图片中的脸型对应的面部长宽比、下颚与面部宽度比、以及下颚角度,作为基础数据保存;
(6)选择待测试的人脸图片,经过预处理后,重复上述步骤(2),(3)和步骤(4),并计算其面部长宽比、下颚与面部宽度比以及下颚角度,与基础数据进行KNN聚类后确定目标脸型;具体过程为:
首先将圆脸和方脸归为一大类,长脸和鹅蛋脸归为另一大类,根据待测试人脸图片得到的面部长宽比、下颚与面部宽度比与基础数据中的对应参数之间的距离,确定是属于哪一大类;再根据下颚角度进一步确定属于当前大类中的哪一种脸型。
2.根据权利要求1所述的基于三维人脸模型的脸型分辨方法,其特征在于,步骤(1)中,所述预处理的具体步骤为:
(1-1)对人脸图片进行颜色空间转换,得到灰度图像;
(1-2)对得到的灰度图像进行中值滤波,消除孤立的噪声点;
(1-3)将图片缩放到500×500像素以下。
3.根据权利要求1所述的基于三维人脸模型的脸型分辨方法,其特征在于,步骤(3)的具体步骤为:采用dlib库对二维人脸图片进行面部68个关键点的确定,并根据鼻梁上的点、鼻尖上的点以及下巴上的点做拟合直线,将拟合直线延长到头顶,选取相邻像素点差值最大的点作为额头的顶点。
4.根据权利要求1所述的基于三维人脸模型的脸型分辨方法,其特征在于,步骤(4)中,将二维人脸图片上的关键点映射到三维模型中的方式为:将二维平面的68个关键点坐标(X2d,Y2d)和额头的顶点坐标(Xtop,Ytop)与三维模型中的三维坐标(X3d,Y3d,Z3d)进行对比,计算与二维平面关键点距离最接近的点作为其在三维模型中关键点的位置。
5.根据权利要求1所述的基于三维人脸模型的脸型分辨方法,其特征在于,步骤(5)中,所述面部长度为额头上的顶点和下巴对应点的距离;所述面部宽度为左耳耳尖对应点和右耳耳尖对应点的距离;所述下颚宽度为左边下颚对应点和右边下颚对应点的距离;所述下颚角度为左下颚角度与右下颚角度的平均值,其中左下颚角度是由左边下颚对应点与左耳耳尖对应点、下巴对应点构成的角度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910281034.5A CN110188590B (zh) | 2019-04-09 | 2019-04-09 | 一种基于三维人脸模型的脸型分辨方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910281034.5A CN110188590B (zh) | 2019-04-09 | 2019-04-09 | 一种基于三维人脸模型的脸型分辨方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110188590A CN110188590A (zh) | 2019-08-30 |
CN110188590B true CN110188590B (zh) | 2021-05-11 |
Family
ID=67713821
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910281034.5A Active CN110188590B (zh) | 2019-04-09 | 2019-04-09 | 一种基于三维人脸模型的脸型分辨方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110188590B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110956691B (zh) * | 2019-11-21 | 2023-06-06 | Oppo广东移动通信有限公司 | 一种三维人脸重建方法、装置、设备及存储介质 |
CN113076778A (zh) * | 2020-01-03 | 2021-07-06 | 甄选医美邦(杭州)网络科技有限公司 | 整形模拟图像处理方法、系统、可读存储介质和设备 |
CN113076777A (zh) * | 2020-01-03 | 2021-07-06 | 甄选医美邦(杭州)网络科技有限公司 | 整形模拟调整方法、系统、可读存储介质和设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339612A (zh) * | 2008-08-19 | 2009-01-07 | 陈建峰 | 一种脸型轮廓的检测与分类方法 |
KR101441106B1 (ko) * | 2013-08-21 | 2014-09-23 | 주식회사 에스원 | 얼굴 검출 및 검증 방법 및 그 장치 |
CN106909875A (zh) * | 2016-09-12 | 2017-06-30 | 湖南拓视觉信息技术有限公司 | 人脸脸型分类方法和系统 |
CN108701216A (zh) * | 2017-11-13 | 2018-10-23 | 深圳和而泰智能控制股份有限公司 | 一种人脸脸型识别方法、装置和智能终端 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102339376A (zh) * | 2010-07-14 | 2012-02-01 | 上海一格信息科技有限公司 | 基于主动形状模型和k近邻算法的人脸脸型分类处理方法 |
CN102622613B (zh) * | 2011-12-16 | 2013-11-06 | 彭强 | 一种基于双眼定位和脸型识别的发型设计方法 |
CN106548156A (zh) * | 2016-10-27 | 2017-03-29 | 江西瓷肌电子商务有限公司 | 一种根据人脸图像提供整容建议的方法 |
-
2019
- 2019-04-09 CN CN201910281034.5A patent/CN110188590B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101339612A (zh) * | 2008-08-19 | 2009-01-07 | 陈建峰 | 一种脸型轮廓的检测与分类方法 |
KR101441106B1 (ko) * | 2013-08-21 | 2014-09-23 | 주식회사 에스원 | 얼굴 검출 및 검증 방법 및 그 장치 |
CN106909875A (zh) * | 2016-09-12 | 2017-06-30 | 湖南拓视觉信息技术有限公司 | 人脸脸型分类方法和系统 |
CN108701216A (zh) * | 2017-11-13 | 2018-10-23 | 深圳和而泰智能控制股份有限公司 | 一种人脸脸型识别方法、装置和智能终端 |
Non-Patent Citations (2)
Title |
---|
joint 3d face reconstruction and dense alignment with position map regression network;yao feng et al.;《European Conference on Computer Vision》;20181009;第3节,第4.3节 * |
基于主动形状模型和K近邻算法的人脸脸型分类;刘双成等;《桂林电子科技大学学报》;20150202(第6期);第479-483页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110188590A (zh) | 2019-08-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105740780B (zh) | 人脸活体检测的方法和装置 | |
CN105740779B (zh) | 人脸活体检测的方法和装置 | |
CN104834898B (zh) | 一种人物摄影图像的质量分类方法 | |
CN110188590B (zh) | 一种基于三维人脸模型的脸型分辨方法 | |
Lemaire et al. | Fully automatic 3D facial expression recognition using differential mean curvature maps and histograms of oriented gradients | |
CN105740781B (zh) | 一种三维人脸活体检测的方法和装置 | |
Sablatnig et al. | Hierarchical classification of paintings using face-and brush stroke models | |
Khairosfaizal et al. | Eyes detection in facial images using circular hough transform | |
Li et al. | Person-independent head pose estimation based on random forest regression | |
Skodras et al. | An unconstrained method for lip detection in color images | |
JP2011090466A (ja) | 情報処理装置及び方法、並びにプログラム | |
Emeršič et al. | Pixel-wise ear detection with convolutional encoder-decoder networks | |
CN106485253B (zh) | 一种最大粒度结构描述符的行人再辨识方法 | |
CN110287895A (zh) | 一种基于卷积神经网络进行情绪测量的方法 | |
CN107480586B (zh) | 基于人脸特征点位移的生物识别照片仿冒攻击检测方法 | |
CN109740572A (zh) | 一种基于局部彩色纹理特征的人脸活体检测方法 | |
CN111274883B (zh) | 基于多尺度hog特征和深层特征的合成素描人脸识别方法 | |
CN111126240A (zh) | 一种三通道特征融合人脸识别方法 | |
Bejaoui et al. | Fully automated facial expression recognition using 3D morphable model and mesh-local binary pattern | |
Vishwakarma et al. | Simple and intelligent system to recognize the expression of speech-disabled person | |
CN110598574A (zh) | 智能人脸监控识别方法及系统 | |
CN108830222A (zh) | 一种基于信息性和代表性主动学习的微表情识别方法 | |
JP2023550296A (ja) | 唇領域を検出してセグメント化する方法 | |
CN106980845B (zh) | 基于结构化建模的人脸关键点定位方法 | |
CN106022226B (zh) | 一种基于多方向多通道条形结构的行人再辨识方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |