CN108090476A - 一种针对具有外部遮挡的3d人脸识别方法 - Google Patents

一种针对具有外部遮挡的3d人脸识别方法 Download PDF

Info

Publication number
CN108090476A
CN108090476A CN201810044383.0A CN201810044383A CN108090476A CN 108090476 A CN108090476 A CN 108090476A CN 201810044383 A CN201810044383 A CN 201810044383A CN 108090476 A CN108090476 A CN 108090476A
Authority
CN
China
Prior art keywords
face
depth image
dictionary
occlusion
face depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810044383.0A
Other languages
English (en)
Inventor
雷印杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan University
Original Assignee
Sichuan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan University filed Critical Sichuan University
Priority to CN201810044383.0A priority Critical patent/CN108090476A/zh
Publication of CN108090476A publication Critical patent/CN108090476A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/513Sparse representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种人脸识别技术领域,特别涉及一种针对具有外部遮挡的3D人脸识别方法。一种针对具有外部遮挡的3D人脸识别方法,包括以下实现步骤:基于训练样本并通过关键点的多三角形统计描述建立遮挡字典;获取测试脸部深度图像,并将该测试脸部深度图像进行关键点的多三角形统计描述;将所述测试脸部深度图像进行基于训练样本和遮挡字典的结构化稀疏表示,并通过计算残差得到识别结果。本发明通过建立遮挡字典,并基于训练样本和遮挡字典的结构化稀疏表示进行人脸识别的方式,克服了在具有外部遮挡的情况下进行3D人脸识别的问题。

Description

一种针对具有外部遮挡的3D人脸识别方法
技术领域
本发明涉及一种人脸识别技术领域,特别涉及一种针对具有外部遮挡的3D人脸识别方法。
背景技术
人脸识别,是基于人的脸部特征信息进行身份识别的一种生物识别技术。与其他生物识别技术相比,其具有很多好处,比如其拥有鲁棒性和友好的自然采集性。因此,自动人脸识别经过发展后,已经得到了广泛的应用。在不同的面部识别的情况下,3D扫描相对于2D成像具有突出的优势,因为其克服了2D成像对应物的固有限制(例如,在采集时,姿态变化,照明亮度变化,或其他细微变化)。随着便携式3D传感器的快速发展,现有的许多3D人脸识别系统在受控环境下能够良好的应用。
尽管如此,3D人脸识别在不受控制的环境中仍是一个具有挑战性的问题(例如,在存在外部遮挡的情况下获取面部扫描)。常见的外部遮挡情况包括手、眼镜或头发等。
发明内容
本发明的目的在于克服现有技术中所存在的上述不足,提供一种针对具有外部遮挡的3D人脸识别方法,在脸部具有外部遮挡的情况下也能很好的进行人脸识别。
为了实现上述发明目的,本发明提供了以下技术方案:
一种针对具有外部遮挡的3D人脸识别方法,包括以下实现步骤:
S100、基于训练样本并通过关键点的多三角形统计描述建立遮挡字典;
S200、获取测试脸部深度图像,并将该测试脸部深度图像进行关键点的多三角形统计描述;
S300、将所述测试脸部深度图像进行基于训练样本和遮挡字典的结构化稀疏表示,并通过计算残差得到识别结果。
进一步地,步骤S100的过程为:
S110、基于训练样本定义第i个人的无遮挡脸部深度图像中的关键点坐标及其对应的统计描述符;
S120、根据所述无遮挡脸部深度图像中的关键点坐标定义第i个人在遮挡脸部深度图像相同坐标的关键点及其对应的统计描述符;
S130、根据在第i个人的遮挡脸部深度图像和无遮挡脸部图像中相同坐标的关键点的统计描述符相似度生成遮挡字典。
进一步地,步骤S130的过程为:
对于同一个人的所述无遮挡脸部深度图像Yi和遮挡脸部深度图像通过欧几里得距离计算出Yi中相同空间位置(xn,yn)提取的关键点的统计描述符相似度do为:其中,||·||2表示欧几里得距离;
给定一个阈值t,若do>t,则该关键点所在区块即作为遮挡字典中的元素。
进一步地,所述阈值t=2mm。
进一步地,步骤S300的过程为:
S310、将所述测试脸部深度图像进行基于训练样本和遮挡字典的结构化稀疏表示:
结合遮挡字典和训练样本字典,以获得集合字典A=[Ao,Ad]。将所述测试脸部深度图像y建模为y=yo+yd+e;通过稀疏表示等式X=argmin||y-Dx||k+λ||x||,可以得到yo在Ao上具有稀疏表示,yd在Ad上具有稀疏表示;因此,所述集合字典的稀疏表示为:
其中,D为训练样本字典,Γi为训练样本字典稀疏向量;B为遮挡字典,Λi为遮挡字典稀疏向量;
S320、通过计算残差确定第c个人测试脸部深度图像y的识别结果:
其中,δc(·)为选择第c个人对应的系数的函数;通过对每个人的n个所述描述符计算残差,残差最小的即为识别结果。
进一步地,所述关键点的确定过程为:
S10、从脸部深度图像选取均匀间隔点作为候选关键点;
S20、以所述候选关键点为中心选取区块;
S30、对所述区块作平均向量以及其相应的协方差矩阵;
S40、通过所述区块的两主轴之间的差异判断关键点。
进一步地,基于关键点提取统计描述符的过程为:
S1000、通过所述区块中的n个顶点进行四种类型的多三角形统计描述生成特征向量的维数;
S2000、将所述特征向量归一化到[-1,+1];
S3000、通过计算分别落入m维度中的数量,将其量化为4个直方图;
S4000、连接所有4个直方图,形成一个长度为m×4的直方图的统计描述符。
进一步地,步骤S1000中所述四种类型的多三角形统计描述包括:
1)由两个随机顶点和关键点确定的两条线之间的角度;
2)由两个随机顶点和关键点确定的三角形外接的圆的半径;
3)两个随机顶点之间的线的距离;
4)Z轴与由两个随机顶点确定的直线之间的角度。
进一步地,获取3D脸部深度图像的过程为:
S1、通过3D摄像机采集原始3D脸部深度图像;
S2、以鼻尖为原点,半径为80mm的范围裁剪所述原始3D脸部深度图像;
S3、消除所述3D脸部深度图像噪声,进行平滑处理,同时,使用VTK自动检测并插入消除的脸部的缺失部分;
S4、通过姿态矫正算法,获取所述3D脸部深度图像的脸部正面视图;
S5、将所述脸部正面视图重新采样到正方形网格上。
进一步地,步骤S5中所述的正方形网格为161×161mm,并且其x和y方向均匀分辨率为1mm。
与现有技术相比,本发明的有益效果:本发明通过建立遮挡字典,并基于稀疏表示进行人脸识别的方式,克服了在具有外部遮挡的情况下获取进行3D人脸识别的问题;并且通过关键点和基于关键点的多三角形统计描述的方式表示3D脸部深度图像,使得本发明的3D人脸识别率高。
附图说明:
图1为本发明3D人脸识别方法的过程框图;
图2为本发明基于训练样本并通过关键点的多三角形统计描述建立遮挡字典的过程框图;
图3为本发明3D人脸识别方法的通过稀疏表示和计算残差识别结果的过程框图;
图4为本发明3D人脸识别方法的获取3D脸部深度图像的过程框图;
图5为本发明3D人脸识别方法的确定关键点的过程框图;
图6为本发明3D人脸识别方法的关键点的统计描述过程框图。
具体实施方式
下面结合试验例及具体实施方式对本发明作进一步的详细描述。但不应将此理解为本发明上述主题的范围仅限于以下的实施例,凡基于本发明内容所实现的技术均属于本发明的范围。
参见图1,一种针对具有外部遮挡的3D人脸识别方法,包括以下实现步骤:
S100、基于训练样本并通过关键点的多三角形统计描述建立遮挡字典;
S200、获取测试脸部深度图像,并将该测试脸部深度图像进行关键点的多三角形统计描述;
S300、将所述测试脸部深度图像进行基于训练样本和遮挡字典的结构化稀疏表示,并通过计算残差得到识别结果。
参见图2,其中,步骤S100基于训练样本并通过关键点的多三角形统计描述建立遮挡字典的过程为:
S110、基于训练样本定义第i个人的无遮挡脸部深度图像中的关键点坐标及其对应的统计描述符;
具体地,在训练样本中第i个人的无遮挡脸部深度图像Yi=[y1,y2,…,yn],其中,yn表示从Yi的第n个关键点的统计描述符;并且,标记Yi对应的脸部深度图像上的第n个关键点的坐标为(xn,yn);
优选地,所述训练样本字典为Bosphorus 3D face Database。
S120、根据所述无遮挡脸部深度图像中的关键点坐标定义第i个人在遮挡脸部深度图像相同坐标的关键点及其对应的统计描述符;
具体地,根据相同的关键点坐标(xn,yn)提取遮挡面部深度图像中的关键点,即其中,表示第i个人的第j个遮挡脸部深度图像,其中,表示第i个人的第j个遮挡脸部深度图像中的第n个关键点的统计描述符;
所述外部遮挡,包括手、头发或眼镜等;
S130、根据在第i个人的遮挡脸部深度图像和无遮挡脸部图像中相同坐标的关键点所在区块的统计描述符相似度生成遮挡字典;
具体地,对于同一个人的无遮挡脸部深度图像和遮挡脸部深度图像,即Yi通过欧几里得距离计算出Yi中相同坐标(xn,yn)关键点所在区块的统计描述符相似度do为:其中,||·||2表示欧几里得距离;
给定一个阈值t,若do>t,则该关键点所在区块即作为遮挡字典中的元素。
参见图3,其中,步骤S300、基于结构化稀疏表示进行人脸识别的过程为:
S310、将所述测试脸部深度图像进行基于训练样本和遮挡字典的结构化稀疏表示:
结合遮挡字典和训练样本字典,以获得集合字典A=[Ao,Ad]。将所述测试脸部深度图像y建模为y=yo+yd+e;通过稀疏表示等式X=argmin||y-Dx||k+λ||x||,可以得到yo在Ao上具有稀疏表示,yd在Ad上具有稀疏表示;因此,所述集合字典的稀疏表示为:
其中,D为训练样本字典,Γi为训练样本字典稀疏向量;B为遮挡字典,Λi为遮挡字典稀疏向量;
S320、通过计算残差确定测试脸部深度图像的识别结果:
其中,δc(·)为选择第c个人对应的系数的函数;通过对每个人的n个所述统计描述符计算残差,残差最小的即为识别结果。
参见图4,作为优选,本发明的3D人脸识别方法,获取3D脸部深度图像的过程为:
S1、通过3D摄像机采集3D脸部深度图像;
S2、以鼻尖为原点,半径为80mm的范围裁剪原始的所述3D脸部深度图像;
S3、消除图像噪声,对所述3D脸部深度图像进行平滑处理,同时,使用VTK(计算机图形处理软件)自动检测并插入消除的脸部的缺失部分;
S4、通过姿态矫正算法,获取3D人脸图像的脸部正面视图;
S5、将所述脸部正面视图重新采样到正方形网格上;
优选地,所述正方形网格为161×161mm,并且其x和y方向均匀分辨率为1mm。
参见图5,上述步骤S100和S200中,,从脸部深度图像确定关键点的过程为:
S10、从脸部深度图像选取均匀间隔点作为候选关键点:
具体地,给定一个脸部深度图像R,其点云F=[xi,yi,zi]T,其中,i=1,2,...,n,n为所述脸部深度图像R内的点数,所述点云F为R中在X和Y方向上均匀间隔4mm采样点P的集合,将所述采样点P作为候选的关键点。该间隔4mm作为本实施例的优选,避免选取的区块重合度过大或过小。
S20、以候选关键点为中心选取区块:
以每个所述采样点P为中心,半径20mm的区域作为区块L,L=[xj,yj,zj]T,其中,j=1,2,…,nl,nl为区块L内的点数。
S30、对所述区块作平均向量以及其相应的协方差矩阵:
所述平均向量m,协方差矩阵C分别为:
其中,Lj为第j个L。
S40、通过所述区块的两主轴之间的差异判断关键点:
在所述协方差矩阵C上进行主成分分析(PCA),得到特征值D的对角线矩阵和相应的特征向量矩阵V(CV=DV)。所述区块L通过使用霍特林变换与其主轴对齐:L′j=V(Lj-m)。令Lx和Ly为所述区块L的x和y方向的分量,即L′x=xj和L′y=yj,其中j=1,2,...,nl
然后,计算所述区块L的两主轴之间的差异ζ:
ζ=(max(L′x)-min(L′x))-(max(L′y)-min(L′y)),其中,max(L′x)-min(L′x)表示x轴两边的差异,max(L′y)-min(L′y)表示y轴两边的差异;
最后,根据设定的阈值确定关键点;具体地,设定阈值t,若ζ>t,则该候选的关键点P即为关键点;一般地,选取ζ值最大的200个作为关键点;
优选地,设定阈值t=2mm。
参见图6,上述步骤S100和S200中,基于关键点的多三角形统计描述的过程为:
S1000、通过所述区块中的n个顶点进行四种类型的多三角形统计描述生成特征向量的维数;
S2000、将所述特征向量归一化到[-1,+1];
S3000、通过计算分别落入m维度中的数量,将其量化为4个直方图;
S4000、连接所有4个直方图,形成一个长度为m×4的直方图的统计描述符。
所述四种类型的多三角形统计描述包括:
1)由两个随机顶点和关键点确定的两条线之间的角度;
2)由两个随机顶点和关键点确定的三角形外接的圆的半径;
3)两个随机顶点之间的线的距离;
4)Z轴与由两个随机顶点确定的直线之间的角度。
应当理解,本实施例中所提到的公式、字母、数字只是为了更好的说明本发明而优选确定的,其均可以做常规替换,上述过程的实现步骤也不一定是固定的,其完成的先后顺序是可以更具实际需求更改的。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种针对具有外部遮挡的3D人脸识别方法,其特征在于,包括以下实现步骤:
S100、基于训练样本并通过关键点的多三角形统计描述建立遮挡字典;
S200、获取测试脸部深度图像,并将该测试脸部深度图像进行关键点的多三角形统计描述;
S300、将所述测试脸部深度图像进行基于训练样本和遮挡字典的结构化稀疏表示,并通过计算残差得到识别结果。
2.如权利要求1所述的3D人脸识别方法,其特征在于,步骤S100的过程为:
S110、基于训练样本定义第i个人的无遮挡脸部深度图像中的关键点坐标及其对应的统计描述符;
S120、根据所述无遮挡脸部深度图像中的关键点坐标定义第i个人在遮挡脸部深度图像相同坐标的关键点及其对应的统计描述符;
S130、根据在第i个人的遮挡脸部深度图像和无遮挡脸部图像中相同坐标的关键点的统计描述符相似度生成遮挡字典。
3.如权利要求2所述的3D人脸识别方法,其特征在于,步骤S130的过程为:
对于同一个人的所述无遮挡脸部深度图像Yi和遮挡脸部深度图像Yi O,通过欧几里得距离计算出Yi和Yi O中相同空间位置(xn,yn)提取的关键点的统计描述符相似度do为:其中,||·||2表示欧几里得距离;
给定一个阈值t,若do>t,则该关键点所在区块即作为遮挡字典中的元素。
4.如权利要求3所述的3D人脸识别方法,其特征在于,所述阈值t=2mm。
5.如权利要求1所述的3D人脸识别方法,其特征在于,步骤S300的过程为:
S310、将所述测试脸部深度图像进行基于训练样本和遮挡字典的结构化稀疏表示:
结合遮挡字典和训练样本字典,以获得集合字典A=[Ao,Ad]。将所述测试脸部深度图像y建模为y=yo+yd+e;通过稀疏表示等式X=argmin||y-Dx||k+λ||x||,可以得到yo在Ao上具有稀疏表示,yd在Ad上具有稀疏表示;因此,所述集合字典的稀疏表示为:
<mfenced open = "" close = ""> <mtable> <mtr> <mtd> <mrow> <mo>{</mo> <msub> <mover> <mi>&amp;Gamma;</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>,</mo> <msub> <mover> <mi>&amp;Lambda;</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>}</mo> <mo>=</mo> <mi>arg</mi> <mi> </mi> <msub> <mi>min</mi> <mrow> <mi>&amp;Gamma;</mi> <mo>,</mo> <mi>&amp;Lambda;</mi> </mrow> </msub> <mfrac> <mn>1</mn> <mn>2</mn> </mfrac> <msubsup> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </msubsup> <mo>|</mo> <mo>|</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>D&amp;Gamma;</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>B&amp;Lambda;</mi> <mi>i</mi> </msub> <mo>|</mo> <msubsup> <mo>|</mo> <mn>2</mn> <mn>2</mn> </msubsup> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>1</mn> </msub> <mo>|</mo> <mo>|</mo> <msub> <mi>&amp;Gamma;</mi> <mi>i</mi> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> <mo>+</mo> <msub> <mi>&amp;lambda;</mi> <mn>2</mn> </msub> <mo>|</mo> <mo>|</mo> <msub> <mi>&amp;Lambda;</mi> <mi>i</mi> </msub> <mo>|</mo> <msub> <mo>|</mo> <mn>1</mn> </msub> </mrow> </mtd> </mtr> </mtable> </mfenced>
其中,D为训练样本字典,Γi为训练样本字典稀疏向量;B为遮挡字典,Λi为遮挡字典稀疏向量;
S320、通过计算残差确定第c个人测试脸部深度图像y的识别结果:
<mrow> <msub> <mi>r</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <mi>Y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mn>1</mn> <mi>n</mi> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>|</mo> <mo>|</mo> <msub> <mi>y</mi> <mi>i</mi> </msub> <mo>-</mo> <msub> <mi>D</mi> <mi>c</mi> </msub> <msub> <mi>&amp;delta;</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> <mo>/</mo> <mo>|</mo> <mo>|</mo> <msub> <mi>&amp;delta;</mi> <mi>c</mi> </msub> <mrow> <mo>(</mo> <msub> <mover> <mi>x</mi> <mo>^</mo> </mover> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>|</mo> <msub> <mo>|</mo> <mn>2</mn> </msub> </mrow>
其中,δc(·)为选择第c个人对应的系数的函数;通过对每个人的n个所述描述符计算残差,残差最小的即为识别结果。
6.如权利要求1所述的3D人脸识别方法,其特征在于,所述关键点的确定过程为:
S10、从脸部深度图像选取均匀间隔点作为候选关键点;
S20、以所述候选关键点为中心选取区块;
S30、对所述区块作平均向量以及其相应的协方差矩阵;
S40、通过所述区块的两主轴之间的差异判断关键点。
7.如权利要求6所述的3D人脸识别方法,其特征在于,基于关键点提取统计描述符的过程为:
S1000、通过所述区块中的n个顶点进行四种类型的多三角形统计描述生成特征向量的维数;
S2000、将所述特征向量归一化到[-1,+1];
S3000、通过计算分别落入m维度中的数量,将其量化为4个直方图;
S4000、连接所有4个直方图,形成一个长度为m×4的直方图的统计描述符。
8.如权利要求7所述的3D人脸识别方法,其特征在于,步骤S1000中所述四种类型的多三角形统计描述包括:
1)由两个随机顶点和关键点确定的两条线之间的角度;
2)由两个随机顶点和关键点确定的三角形外接的圆的半径;
3)两个随机顶点之间的线的距离;
4)Z轴与由两个随机顶点确定的直线之间的角度。
9.如权利要求1所述的3D人脸识别方法,其特征在于,获取3D脸部深度图像的过程为:
S1、通过3D摄像机采集原始3D脸部深度图像;
S2、以鼻尖为原点,半径为80mm的范围裁剪所述原始3D脸部深度图像;
S3、消除所述3D脸部深度图像噪声,进行平滑处理,同时,使用VTK自动检测并插入消除的脸部的缺失部分;
S4、通过姿态矫正算法,获取所述3D脸部深度图像的脸部正面视图;
S5、将所述脸部正面视图重新采样到正方形网格上。
10.如权利要求9所述的3D人脸识别方法,其特征在于,步骤S5中所述的正方形网格为161×161mm,并且其x和y方向均匀分辨率为1mm。
CN201810044383.0A 2018-01-17 2018-01-17 一种针对具有外部遮挡的3d人脸识别方法 Pending CN108090476A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810044383.0A CN108090476A (zh) 2018-01-17 2018-01-17 一种针对具有外部遮挡的3d人脸识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810044383.0A CN108090476A (zh) 2018-01-17 2018-01-17 一种针对具有外部遮挡的3d人脸识别方法

Publications (1)

Publication Number Publication Date
CN108090476A true CN108090476A (zh) 2018-05-29

Family

ID=62181708

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810044383.0A Pending CN108090476A (zh) 2018-01-17 2018-01-17 一种针对具有外部遮挡的3d人脸识别方法

Country Status (1)

Country Link
CN (1) CN108090476A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871822A (zh) * 2019-03-05 2019-06-11 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN111783600A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 一种人脸识别模型训练方法、装置、设备及介质
CN112183276A (zh) * 2020-09-21 2021-01-05 西安理工大学 基于特征描述符的部分遮挡人脸识别方法
CN112819080A (zh) * 2021-02-05 2021-05-18 四川大学 一种高精度通用的三维点云识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105005755A (zh) * 2014-04-25 2015-10-28 北京邮电大学 三维人脸识别方法和系统
CN106980825A (zh) * 2017-03-15 2017-07-25 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于归一化像素差特征的人脸姿势分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105005755A (zh) * 2014-04-25 2015-10-28 北京邮电大学 三维人脸识别方法和系统
CN106980825A (zh) * 2017-03-15 2017-07-25 广东顺德中山大学卡内基梅隆大学国际联合研究院 一种基于归一化像素差特征的人脸姿势分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
冯思宇 等: ""针对单样本人脸的三维部分人脸识别"", 《计算机工程》 *
欧卫华: ""基于稀疏表示和非负矩阵分解的部分遮挡人脸识别研究"", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871822A (zh) * 2019-03-05 2019-06-11 百度在线网络技术(北京)有限公司 用于输出信息的方法和装置
CN111783600A (zh) * 2020-06-24 2020-10-16 北京百度网讯科技有限公司 一种人脸识别模型训练方法、装置、设备及介质
CN111783600B (zh) * 2020-06-24 2024-02-09 北京百度网讯科技有限公司 一种人脸识别模型训练方法、装置、设备及介质
CN112183276A (zh) * 2020-09-21 2021-01-05 西安理工大学 基于特征描述符的部分遮挡人脸识别方法
CN112183276B (zh) * 2020-09-21 2024-02-09 西安理工大学 基于特征描述符的部分遮挡人脸识别方法
CN112819080A (zh) * 2021-02-05 2021-05-18 四川大学 一种高精度通用的三维点云识别方法
CN112819080B (zh) * 2021-02-05 2022-09-02 四川大学 一种高精度通用的三维点云识别方法

Similar Documents

Publication Publication Date Title
US9818023B2 (en) Enhanced face detection using depth information
CN105956582B (zh) 一种基于三维数据的人脸识别系统
JP6681729B2 (ja) オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム
CN105740775B (zh) 一种三维人脸活体识别方法及其装置
US6430307B1 (en) Feature extraction system and face image recognition system
CN108090476A (zh) 一种针对具有外部遮挡的3d人脸识别方法
JP4604439B2 (ja) 画像処理装置及び画像処理方法、並びに記録媒体
CN103530599A (zh) 一种真实人脸和图片人脸的区别方法和系统
CN101147159A (zh) 利用统计模板匹配进行对象检测的快速方法
US20110227923A1 (en) Image synthesis method
CN111626246B (zh) 口罩遮挡下的人脸对齐方法
Tran et al. Non-contact gap and flush measurement using monocular structured multi-line light vision for vehicle assembly
WO2021031446A1 (zh) 一种基于二维动态特征的离线笔迹个体识别系统及方法
CN107016319A (zh) 一种关键点定位方法和装置
Song et al. Robust 3D face landmark localization based on local coordinate coding
CN110288040B (zh) 一种基于拓扑验证的图像相似评判方法及设备
WO2021031445A1 (zh) 一种基于三维动态特征的离线笔迹个体识别系统及方法
CN110222660B (zh) 一种基于动态与静态特征融合的签名鉴伪方法及系统
JP3252941B2 (ja) 画像切り出し認識装置
CN112990047A (zh) 一种结合面部角度信息的多姿态人脸验证方法
CN111723688A (zh) 人体动作识别结果的评价方法、装置和电子设备
JP2014199519A (ja) 物体識別装置、物体識別方法及びプログラム
Lin et al. 3D face authentication by mutual coupled 3D and 2D feature extraction
Wang et al. Face detection based on color template and least square matching method
Ouamane et al. Multimodal 3D and 2D face authentication approach using extended LBP and statistic local features proposed

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180529

RJ01 Rejection of invention patent application after publication