CN107203743B - 一种人脸深度跟踪装置及实现方法 - Google Patents

一种人脸深度跟踪装置及实现方法 Download PDF

Info

Publication number
CN107203743B
CN107203743B CN201710317070.3A CN201710317070A CN107203743B CN 107203743 B CN107203743 B CN 107203743B CN 201710317070 A CN201710317070 A CN 201710317070A CN 107203743 B CN107203743 B CN 107203743B
Authority
CN
China
Prior art keywords
face
infrared
matrix
depth
patch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710317070.3A
Other languages
English (en)
Other versions
CN107203743A (zh
Inventor
颜成钢
李亚菲
蒋继扬
徐双
张新
孙垚棋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN201710317070.3A priority Critical patent/CN107203743B/zh
Publication of CN107203743A publication Critical patent/CN107203743A/zh
Application granted granted Critical
Publication of CN107203743B publication Critical patent/CN107203743B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明公开了一种人脸深度跟踪的装置及实现方法。本发明包括红外照明模块、红外测距采集模块、计算模块。红外照明模块用于对周围环境进行红外照明,红外发射波长在780~940nm的红外光,提供背光源照射目标物和背景,以确保采集环境中有良好的照明条件;红外测距采集模块用于对人脸运动的信息的采集,包括红外摄像头以及感光芯片;计算模块先进行人脸区域的判断,再用于读取红外测距采集模块采集到的人脸深度图像信息,并进行人脸五官的跟踪计算。本发明装置及方法跟踪精度高,速度快,可以大范围地应用在人机交互上,并进一步降低硬件成本。

Description

一种人脸深度跟踪装置及实现方法
技术领域
本发明涉及人脸跟踪技术,具体涉及一种人脸深度跟踪装置及实现方法,该装置由红外发射模块、红外测距采集模块、计算模块构成。
背景技术
随着信息处理技术(特别是视频图像技术)的发展,越来越多的系统和设备需要从视频图像中对某种特定的对象进行跟踪识别。各行各业对于人脸检测识别跟踪技术的研究日益重视,人脸检测识别跟踪技术也取得了巨大发展,并逐渐形成了一种新的科学技术领域。
人脸跟踪技术的目的就是在序列图像中确定人脸出现的位置及运动轨迹。例如,在很多摄像监视系统中,往往需要对连续的视频图像中的人脸进行跟踪,从而实现对现场情况的识别和分析。由于在某些场合不仅需要确定人脸在空间中的二维坐标信息,而且需要进一步确定人脸五官的深度信息。然后根据跟踪到的人脸的二维信息和深度信息才可指示出人物的表情或姿态,因此,在一些人机交互的系统中,可从连续跟踪到的人脸特性识别出用户的某种情绪,该情绪可对应于用户输入的操作指示,从而实现更加友好和智能的交互操作。此外,跟踪到的人脸特性还可被用于进行面部动画生成、焦点检测和安全监控,视频会议、驾驶员疲劳驾驶检测、智能美颜等。由此可见,人脸跟踪技术备受人们关注。
首先对于人脸检测识别跟踪算法,工业上已有多种技术。例如 Haar-like人脸检测技术可较好的检测正脸以及偏转角度不大的人脸特征,但是对于多姿态人脸以及背景环境变换复杂的图像中的人脸,检测的精确度降低。基于NPD(Normalized PixelDifference)人脸检测的算法对于小模型图像中的人脸有着较好的检测速度,但是对于光照的鲁棒性差,而且在处理大模型图像时提取的特征向量过多,计算复杂度高,会降低检测速度。并且以上人脸检测方法仅仅只是从整体上对人脸的刻画,不能获得人脸特征点的深度信息。
其次为了获得人脸识别中细节纹理方面的深度信息,就必须依赖于对三维场景准确且快速的分析。现有技术中有如下方法:基于图像的分析或激光扫描技术来获取场景的深度图,但其代价高昂且十分耗时。基于深度相机的人脸特征点跟踪方法作为距离测量中一种可替代的设备,拥有传统的三维测量系统所不具备的一些优点,能够较好地获得人脸特征点的深度信息,但是系统构架庞大、硬件成本也较高,而且人脸跟踪时易受到外界环境的干扰,例如光照强度差,光照不均匀等均会影响识别跟踪的精度。
发明内容
针对现有技术存在的缺陷,本发明的目的在于提供一种人脸深度跟踪装置及实现方法。为了进一步提高人脸识别的准确性,减少受外界环境的影响程度,本发明采用人脸深度跟踪装置,在跟踪大模型图像的过程中,能够根据所获得的人脸深度图像准确的获得人脸图像特征点,进一步提高了人脸识别的准确性。在多姿态人脸、表情变化、背景环境以及光照影响的情况下,依旧可以保证高跟踪精度,快处理速度,可以大范围地应用在人机交互上,并进一步降低硬件成本。
一种人脸深度跟踪装置,包括红外发射模块、红外测距采集模块、计算模块。
所述的红外发射模块用于对待测人脸进行红外照明,红外发射模块发射波长在780~940nm的红外光,提供背光源照射目标物和背景,以确保采集环境中有良好的照明条件;
所述的红外测距采集模块用于对人脸深度图像信息的采集,该模块包括对红外波长敏感的感光芯片和半透玻璃膜,结果可参看图2;由红外发射模块发出的红外射线经过半透玻璃膜之后分为反射光线和透射光线两部分,反射光线则直接经过半透玻璃膜反射后照射在感光芯片上,而透射光线则透过半透玻璃膜后照射到人脸并且经由人脸反射至感光芯片上,如此形成两个光信号,然后测量两个光信号间的距离,从而将信号间的距离经过特定的公式计算出人脸的深度,并且向人脸深度图转换,并且绘制出深度图。
所述的红外测距采集模块的特点如下:感光芯片具有抗可见光干扰,抗电磁波干扰识别稳定,运算速度高等优点,可以在红外发射模块照明下只采集到红外波长(780~940nm)范围内的红外光线。半透玻璃膜具有透射远高于反射率的特点,因为在感光芯片上收到的两个光信号其一是经过一次半透膜的反射而得到的,另一个是经过两次半透膜的透射、一次人脸的反射得到的,所以,为了保证两个光信号的强度尽可能相等,要选取透射率远高于反射率的半透玻璃膜材质。
所述的计算模块:首先进行人脸区域的判断,然后读取红外测距采集模块采集到的人脸深度图像信息,最后对人脸五官进行的跟踪计算,具体实现如下:
首先利用计算模块中的摄像头直接捕捉图像,记作原图像;其次利用haar分类器直接检测该原图像是否为人脸图像,若不是人脸图像,则该帧原图像不予以跟踪,若是人脸图像,则利用NPD特征来初步确定五官的大致位置,并且获取该人脸图像的中心坐标O,然后使用红外发射模块对目标人脸图像进行红外照明;红外发射波长在780~940nm的红外光,由红外测距采集模块进行人脸图像深度采集,并将采集到的人脸深度图像信息传输给计算模块,计算模块读取接收到的人脸深度图像信息,并在人脸深度图像上利用已经通过NPD获取的五官各自的中心坐标O作测试补丁:以每一个中心坐标O为中心,特定长度为边长,每一块区域作一个小的矩形,该矩形的边长正好与人脸成一定比例,并且让五官图像正好被矩形区域所包含,该矩形所截取的部分深度图称为测试补丁。最后对人脸深度图各个测试补丁(包括包括眼睛、鼻子、眉毛、嘴巴和耳朵)进行主成分分析,提取每类测试补丁的主分量,设其中一类测试补丁眼睛用A表示,那么将训练集中所有A所对应的极大无关组取出,若补丁A的特征向量组能够由训练集中所得到的眼睛的极大无关组线性表出,则A被判定为眼睛。并对人脸深度图对应的补丁中心进行标点。并且将该人脸深度图上标点的坐标映射到原图像上去,并在原图像上将这些点标出,从而精确地跟踪人脸。
一种人脸深度跟踪装置的实现方法,具体包括如下步骤:
步骤1:利用摄像头直接捕捉待测图像,并且利用Haar特征进行人脸区域检测。
步骤2:利用NPD进行人脸五官位置估计,并获取五官位置的坐标。
步骤3:利用红外发射模块对待测人脸发射特定频率的红外光线。
步骤4:利用红外测距采集模块进行人脸区域的深度信息采集,得到人脸深度图像。
步骤5:在人脸深度图像中根据初步估计的五官位置坐标获取测试补丁。
步骤6:对测试补丁求极大无关组,如果能由对应的训练集中的极大无关组线性表出,则在原图像上对应坐标处标上点。
与现有技术相比,本发明的积极效果为:
1:跟踪稳定、不受环境光、电磁波等影响,鲁棒性好。
2:采用自创红外测距采集进行人脸深度图像信息采集,跟踪及深度测量精度高。
3:不需要额外标记点。
4:装置硬件成本相比基于深度相机的跟踪装置低。
5:可保证大模型图像中的人脸检测效率。
本发明能够在获得图像特征点的同时,进一步获得特征点的深度信息。本发明装置及方法跟踪精度高,速度快,可以大范围地应用在人机交互上,并进一步降低硬件成本。
附图说明
图1是系统流程图:
图2是红外测距采集模块原理示意图;
图3是红外测距采集模块侧视图;
图4是人脸识别过程流程图;
具体实施方式
以下结合附图对本发明实施例作进一步说明:
如图1-4所示,一种人脸深度跟踪装置,包括红外发射模块、红外测距采集模块、计算模块。
所述的红外发射模块用于对待测人脸进行红外照明,红外发射模块发射波长在780~940nm的红外光,提供背光源照射目标物和背景,以确保采集环境中有良好的照明条件;
所述的红外测距采集模块用于对人脸深度图像信息的采集,该模块包括对红外波长敏感的感光芯片和半透玻璃膜,结果可参看图2;由红外发射模块发出的红外射线经过半透玻璃膜之后分为反射光线和透射光线两部分,反射光线则直接经过半透玻璃膜反射后照射在感光芯片上,而透射光线则透过半透玻璃膜后照射到人脸并且经由人脸反射至感光芯片上,如此形成两个光信号,然后测量两个光信号间的距离,从而将信号间的距离经过特定的公式计算出人脸的深度,并且向人脸深度图转换,并且绘制出深度图。
所述的红外测距采集模块的特点如下:感光芯片具有抗可见光干扰,抗电磁波干扰识别稳定,运算速度高等优点,可以在红外发射模块照明下采集到红外波长(780~940nm)范围内的红外光线。半透玻璃膜具有透射率远高于反射率的特点,因为在感光芯片上收到的两个光信号其一是经过一次半透膜的反射而得到的,另一个是经过两次半透膜的透射、一次人脸的反射得到的,所以,为了保证两个光信号的强度尽可能相等,要选取透射率远高于反射率的半透玻璃膜材质。
所述的计算模块:首先进行人脸区域的判断,然后读取红外测距采集模块采集到的人脸深度图像信息,最后对人脸五官进行的跟踪计算,具体实现如下:
首先利用计算模块中的摄像头直接捕捉图像,记作原图像;其次利用haar分类器直接检测该原图像是否为人脸图像,若不是人脸图像,则该帧原图像不予以跟踪,若是人脸图像,则利用NPD特征来初步确定五官的大致位置,并且获取该人脸图像的中心坐标O,然后使用红外发射模块对目标人脸图像进行红外照明;红外发射模块发射波长在780~940nm的红外光,由红外测距采集模块进行人脸图像深度采集,并将采集到的人脸深度图像信息传输给计算模块,计算模块读取接收到的人脸深度图像信息,并在人脸深度图像上利用已经通过NPD获取的中心坐标O作测试补丁:以五官各自的中心坐标O为中心,特定长度为边长,作一个小的矩形,该矩形的边长正好与人脸成一定比例,并且使得五官各自的信息包含于对应的矩形中,该矩形称为测试补丁。最后对人脸深度图各个测试补丁(包括包括眼睛、鼻子、眉毛、嘴巴和耳朵)进行主成分分析,提取每类测试补丁的主分量,设其中一类测试补丁眼睛用A表示,那么将训练集中所有A所对应的极大无关组取出,若补丁A的特征向量组能够由训练集中所得到的眼睛的极大无关组线性表出,则A被判定为眼睛。并对人脸深度图对应的补丁中心进行标点。并且将该人脸深度图上标点的坐标映射到原图像上去,并在原图像上将这些点标出,从而精确地跟踪人脸。
红外测距采集模块中所述的将信号间的距离经过特定的公式计算出人脸的深度,并且向人脸深度图转换,并且绘制出深度图,具体实现如下:
如图2和3所示,红外发射模块采用波长为780~940nm的红外光,红外发射模块呈可调节的偏转角θ发射平行的红外光线束至半透玻璃膜,之后每一道光线分为两道光线,一道直接反射,另一道经过透射再反射后照射到感光芯片上,感光芯片将采集到的所有的红外信号对的信息,发送至红外测距采集模块,测得每一个红外信号对中两个光信号之间的距离,并由公式计算出待测人脸与透射玻璃膜间的距离。由图2和3可以看到红外发射模块将密集的n束红外光线,以与水平面成θ角的方向向人脸发射,从而搜集每一对信号的坐标,得到n组坐标对,而由图2 俯视图看到,获取纵坐标相同坐标点组成坐标对,每一个坐标对中两坐标点的横坐标b、a作差之后得到的差值就是两个光信号之间的距离d,从而计算出θ角和光信号之间的距离d有如下关系:
D=[(b-a)*tanθ]/2 ⑹
D=(d*tanθ)/2 ⑺
通过上述公式能够计算出人脸图像上某一列像素点的深度,而对于整张人脸图像的深度,则通过逐渐连续增大θ角来实现,而深度图上每一个深度坐标的横坐标可由图2中每一个坐标对中的横坐标a确定(即与a点横坐标相同),纵坐标就是对应坐标对的纵坐标。从而得到待测人脸上每一点对应的与半透玻璃膜间的距离。
由坐标对和该坐标对对应的距离d值构成距离矩阵A。在由红外光线扫描完整张人脸之后,选出距离矩阵A中数值最小的点,将矩阵A中所有的元素都减去这个数值得到矩阵B,求出矩阵B中所有元素的和记作s,矩阵C由以下公式计算得出:
C=(255/s)*B ⑻
矩阵C中的每一个元素an更新为255-an,构成最终的深度图D。
所述的NPD特征估计法如下:NPD是基于两个像素点之间的比较。利用两个像素之间的相对差值得出NPD特征。利用NPD特征进行特征分类,所述的NPD特征可以不受约束地进行人脸检测。其中NPD特征是两个点灰度的差值与灰度和值的比例,是两个像素值之间的相对差异。该差异定义为函数f(x,y):
Figure DEST_PATH_GDA0001376806940000071
其中,x,y为任意两个像素的像素值,并且规定f(0,0)=0。
利用上述公式(1)采用一种新的树内节点分裂计算方法来训练分类器:
(a1x2+b1x+c1)<t (2)
t为分裂阈值,是人为给定的一个数值,这个值越小,则训练得出的分类器的查准率越高,联系一元二次方程的特性,通过给定系数,用来检测x是否处于[θ1,θ2]中,θ1,,θ2是两个已知的阈值。系数a1、b1、c1 需要通过反复迭代的方式不断修正,首先将N1张正例图片和N2张反例图片输入并读取,在正例图片上创建滑框,遍历所有的像素点,取滑框中像素值最大的点与像素值最小的点利用
Figure DEST_PATH_GDA0001376806940000072
计算出函数值,将函数值代入公式(2),若满足此公式,则被分类器判断为正例,若不满足,则被判断为反例。当所有的正例和反例被遍历完毕之后,计算出查准率。若查准率在一定范围之内,则分类器训练完毕,否则,进行下一步的训练,即调整系数,若查准率偏高,则逐渐增加b1,逐渐减小a1和c1,查准率偏低,则再次遍历正反例,重复以上步骤,直到查准率在一定范围之内。这样得到的(a1x2+b1x+c1)<t就能判断正反例。
根据NPD特征将得到三种结构:
-1≤f(x,y)≤θ<0 (3)
0<θ≤f(x,y)≤1 (4)
θ1≤f(x,y)≤θ2 (5)
公式(3)表示了x的亮度低于y,公式(4)表示x的亮度高于y,公式(5)是处理脸部比背景暗也有可能比背景亮的不确定的情况。
如此利用NPD特征训练出的分类器具有较高的查全率以及较低的查准率,因此用以下方法进一步完善,具体如下:
利用NPD特征训练出的五官分类器进行初步五官检测从而在原图像中获取五官对应的坐标,检测后通过红外发射模块以及红外测距采集模块获取人脸深度图。在人脸深度图已获取的坐标处以特定长度为边长,作一个小的矩形,此矩形的边长正好与利用haar特征所检测出的人脸矩形成一定比例,该小矩形称为测试补丁。并通过以下方法求出测试补丁特征向量的极大无关组:
1.首先获取人脸某一个特定五官部位的深度图测试补丁A。
2.然后由方程|A-λE|=0求出所有特征值λ,E为单位向量。
3.将每一个特征值λ代入方程(A-λE)X=0,求该方程的所有非零向量X。
4.将该深度图测试补丁A中所有特征值对应的特征向量X分别读取其元素,依次排成矩阵的形式[X11 X12 X13 … X1n]。
5.将该矩阵中以列向量的形式拼接上对应同类训练集补丁的极大无关组,组成增广矩阵,并通过初等行变换变为阶梯阵(每行首个非零元素下面全为0),并计算阶梯数,即为该增广矩阵的秩,称作R (测试)。
那么我们比较测试补丁中对应的增广矩阵的秩R(测试),与其对应的训练集中极大无关组的秩R(训练),若R(测试)=R(训练),则被测试的补丁被判断为正例,反之,R(测试)>R(训练)则判断为反例。
而训练集中的极大无关组的秩R由以下方法获得:
1.首先获取人脸某一个特定部位的深度图训练集补丁库B。
2.对于每一个补丁由|B-λE|=0,该方程求出所有特征值λ。
3.将每一个特征值λ代入方程(B-λE)X=0,求该方程的所有非零向量X(即为特征向量),并将这些向量X储存。
4.对于每一个同类补丁都进行步骤2和3,从而将所有同类补丁的特征向量X累积起来,并且列成矩阵的形式。如下所示:
Xi=[a1 a2 a3 ... an]Τ (9)
X=[X1 X2 X3 ... Xm] (10)
Figure DEST_PATH_GDA0001376806940000091
5.将该矩阵通过初等行变换变为阶梯阵.
Figure DEST_PATH_GDA0001376806940000092
并统计每一行第一个非零元素所在的列,将这些列取出排成一组,即为训练集补丁的极大线性无关组,将每一个同类训练集补丁的极大无关组储存起来,并且统计极大无关组中向量的个数,即为秩R(训练),同样也储存起来。
这样,通过比较R(测试)与R(训练)的大小就能判断测试集中的特征向量能否由训练集中的特征向量线性表出了。
若R(测试)=R(训练)成立,则判断为正例补丁,在原图像相应的坐标点做上标记。
根据本发明的示例性实施例,依靠红外发射保证了采集环境的良好的抗干扰性,在进行人脸检测的过程中,本发明融合了Haar的检测性好, NPD检测速度快,以及PCA主成分分析的精确性的优点,并结合所设计的红外测距装置获取人脸深度图像进行人脸五官位置的获取,从而达到精确跟踪与识别的目的。

Claims (8)

1.一种人脸深度跟踪装置,其特征在于包括红外发射模块、红外测距采集模块、计算模块;
所述的红外发射模块用于对待测人脸进行红外照明,红外发射模块发射波长在780~940nm的红外光,提供背光源照射目标物和背景,以确保采集环境中有良好的照明条件;
所述的红外测距采集模块用于对人脸深度图像信息的采集,该模块包括对红外波长敏感的感光芯片和半透玻璃膜,由红外发射模块发出的红外射线经过半透玻璃膜之后分为反射光线和透射光线两部分,反射光线则直接经过半透玻璃膜反射后照射在感光芯片上,而透射光线则透过半透玻璃膜后照射到人脸并且经由人脸反射至感光芯片上,如此形成两个光信号,然后测量两个光信号间的距离,从而将信号间的距离经过特定的公式计算出人脸的深度,并且向人脸深度图转换,并且绘制出深度图;
所述的计算模块:首先进行人脸区域的判断,然后读取红外测距采集模块采集到的人脸深度图像信息,最后对人脸五官进行的跟踪计算,具体的:
首先利用计算模块中的摄像头直接捕捉图像,记作原图像;其次利用haar分类器直接检测该原图像是否为人脸图像,若不是人脸图像,则该帧原图像不予以跟踪,若是人脸图像,则利用NPD特征来初步确定五官的大致位置,并且获取该人脸图像的中心坐标,然后使用红外发射模块对目标人脸图像进行红外照明;红外发射波长在780~940nm的红外光,由红外测距采集模块进行人脸图像深度采集,并将采集到的人脸深度图像信息传输给计算模块,计算模块读取接收到的人脸深度图像信息,并在人脸深度图像上利用已经通过NPD获取的中心坐标作测试补丁:以五官各自的中心坐标O为中心,特定长度为边长,作一个小的矩形,该矩形的边长正好与人脸成一定比例,并且使得五官各自的信息包含于对应的矩形中,该矩形称为测试补丁;最后对人脸深度图各个测试补丁进行主成分分析,提取每类测试补丁的主分量,并对人脸深度图对应的补丁中心进行标点;并且将该人脸深度图上标点的坐标映射到原图像上去,并在原图像上将这些点标出,从而精确地跟踪人脸。
2.如权利要求1所述的一种人脸深度跟踪装置的实现方法,其特征在于具体包括如下步骤:
步骤1:利用摄像头直接捕捉待测图像,并且利用Haar特征进行人脸区域检测;
步骤2:利用NPD进行人脸五官位置估计,并获取五官位置的坐标;
步骤3:利用红外发射模块对待测人脸发射特定频率的红外光线;
步骤4:利用红外测距采集模块进行人脸区域的深度信息采集,得到人脸深度图像;
步骤5:在人脸深度图像中根据初步估计的五官位置坐标获取测试补丁;
步骤6:对测试补丁求极大无关组,如果能由对应的训练集中的极大无关组线性表出,则在原图像上对应坐标处标上点。
3.根据权利要求1所述的一种人脸深度跟踪装置,其特征在于红外测距采集模块中所述的将信号间的距离经过特定的公式计算出人脸的深度,并且向人脸深度图转换,并且绘制出深度图,具体实现如下:
红外发射模块采用波长为780~940nm的红外光,红外发射模块呈可调节的偏转角θ发射平行的红外光线束至半透玻璃膜,之后每一道光线分为两道光线,一道直接反射,另一道经过透射和反射后照射到感光芯片上,感光芯片将所有的红外信号对发送至红外测距采集模块,测得两个光信号之间的距离,并由公式计算出待测人脸与透射玻璃膜间的距离;
红外发射模块将密集的n束红外光线以与感光芯片成θ角的方向向人脸发射,从而搜集每一对光信号的坐标,得到n组坐标对,获取纵坐标相同坐标点组成坐标对,每一个坐标对中两坐标点的横坐标b、a作差之后得到的差值就是两个光信号之间的距离d,从而计算出θ角和光信号之间的距离d有如下关系:
D=[(b-a)*tanθ]/2 (1)
D=(d*tanθ)/2 (2)
通过上述公式能够计算出人脸图像上某一列像素点的深度,而对于整张人脸图像的深度,则通过逐渐连续增大θ角来实现,而深度图上每一个深度坐标的横坐标由每一个坐标对中的横坐标a确定,纵坐标就是对应坐标对的纵坐标;从而得到待测人脸上每一点对应的与半透玻璃膜间的距离;
由坐标对和该坐标对对应的距离d值构成距离矩阵A;在由红外光线扫描完整张人脸之后,选出距离矩阵A中数值最小的点,将矩阵A中所有的元素都减去这个数值得到矩阵B,求出矩阵B中所有元素的和记作s,矩阵C由以下公式计算得出:
C=(255/s)*B (3)
矩阵C中的每一个元素an更新为255-an,构成最终的深度图。
4.根据权利要求3所述的一种人脸深度跟踪装置,其特征在于对计算模块中测试补丁,求出其特征向量的极大无关组,具体如下:
(1)首先获取人脸某一个特定五官部位的深度图测试补丁A;
(2)然后由方程|A-λE|=0求出所有特征值λ,E为单位向量;
(3)将每一个特征值λ代入方程(A-λE)X=0,求该方程的所有非零向量X;
(4)将该深度图测试补丁A中所有特征值对应的特征向量X分别读取其元素,依次排成矩阵的形式[X11 X12 X13…X1n];
(5)将该矩阵中以列向量的形式拼接上对应同类训练集补丁的极大无关组,组成增广矩阵,并通过初等行变换变为阶梯阵,并计算阶梯数,即为该增广矩阵的秩,称作R;
比较测试补丁中对应的增广矩阵的测试秩R,与其对应的训练集中极大无关组的训练秩R,若测试秩R=训练秩R,则被测试的补丁被判断为正例,反之,测试秩R>训练秩R,则判断为反例。
5.根据权利要求4所述的一种人脸深度跟踪装置,其特征在于训练集中的极大无关组的训练秩R由以下方法获得:
(1)首先获取人脸某一个特定部位的深度图训练集补丁库B;
(2)对于每一个补丁由|B-λE|=0,该方程求出所有特征值λ;
(3)将每一个特征值λ代入方程(B-λE)X=0,求该方程的所有非零向量X,并将这些向量X储存;
(4)对于每一个同类补丁都进行步骤2和3,从而将所有同类补丁的特征向量X累积起来,并且列成矩阵的形式;如下所示:
Xi=[a1 a2 a3...an] (4)
X=[X1 X2 X3...Xm]T (5)
Figure FDA0002396242200000041
(5)将该矩阵通过初等行变换变为阶梯阵.
Figure FDA0002396242200000042
并统计每一行第一个非零元素所在的列,将这些列取出排成一组,即为训练集补丁的极大线性无关组,将每一个同类训练集补丁的极大无关组储存起来,并且统计极大无关组中向量的个数,即为训练秩R,同样也储存起来;
通过比较测试秩R与训练秩R的大小就能判断测试集中的特征向量能否由训练集中的特征向量线性表出了;
若测试秩R=训练秩R成立,则判断为正例补丁,在原图像相应的坐标点做上标记。
6.根据权利要求2所述的一种人脸深度跟踪装置的实现方法,其特征在于步骤3和4的具体实现如下:
红外发射模块采用波长为780~940nm的红外光,红外发射模块呈可调节的偏转角θ发射平行的红外光线束至半透玻璃膜,之后每一道光线分为两道光线,一道直接反射,另一道经过透射和反射后照射到感光芯片上,感光芯片将所有的红外信号对发送至红外测距采集模块,测得两个光信号之间的距离,并由公式计算出待测人脸与透射玻璃膜间的距离;
红外发射模块将密集的n束红外光线以与感光芯片成θ角的方向向人脸发射,从而搜集每一对光信号的坐标,得到n组坐标对,获取纵坐标相同坐标点组成坐标对,每一个坐标对中两坐标点的横坐标b、a作差之后得到的差值就是两个光信号之间的距离d,从而计算出θ角和光信号之间的距离d有如下关系:
D=[(b-a)*tanθ]/2 (1)
D=(d*tanθ)/2 (2)
通过上述公式能够计算出人脸图像上某一列像素点的深度,而对于整张人脸图像的深度,则通过逐渐连续增大θ角来实现,而深度图上每一个深度坐标的横坐标由每一个坐标对中的横坐标a确定,纵坐标就是对应坐标对的纵坐标;从而得到待测人脸上每一点对应的与半透玻璃膜间的距离;
由坐标对和该坐标对对应的距离d值构成距离矩阵A;在由红外光线扫描完整张人脸之后,选出距离矩阵A中数值最小的点,将矩阵A中所有的元素都减去这个数值得到矩阵B,求出矩阵B中所有元素的和记作s,矩阵C由以下公式计算得出:
C=(255/s)*B (3)
矩阵C中的每一个元素an更新为255-an,构成最终的深度图。
7.根据权利要求6所述的一种人脸深度跟踪装置的实现方法,其特征在于步骤6具体实现如下:
(1)首先获取人脸某一个特定五官部位的深度图测试补丁A;
(2)然后由方程|A-λE|=0求出所有特征值λ,E为单位向量;
(3)将每一个特征值λ代入方程(A-λE)X=0,求该方程的所有非零向量X;
(4)将该深度图测试补丁A中所有特征值对应的特征向量X分别读取其元素,依次排成矩阵的形式[X11 X12 X13…X1n];
(5)将该矩阵中以列向量的形式拼接上对应同类训练集补丁的极大无关组,组成增广矩阵,并通过初等行变换变为阶梯阵,并计算阶梯数,即为该增广矩阵的秩,称作R;
比较测试补丁中对应的增广矩阵的测试秩R,与其对应的训练集中极大无关组的训练秩R,若测试秩R=训练秩R,则被测试的补丁被判断为正例,反之,测试秩R>训练秩R,则判断为反例。
8.根据权利要求7所述的一种人脸深度跟踪装置的实现方法,其特征在于训练集中的极大无关组的训练秩R由以下方法获得:
(1)首先获取人脸某一个特定部位的深度图训练集补丁库B;
(2)对于每一个补丁由|B-λE|=0,该方程求出所有特征值λ;
(3)将每一个特征值λ代入方程(B-λE)X=0,求该方程的所有非零向量X,并将这些向量X储存;
(4)对于每一个同类补丁都进行步骤2和3,从而将所有同类补丁的特征向量X累积起来,并且列成矩阵的形式;如下所示:
Xi=[a1 a2 a3...an] (4)
X=[X1 X2 X3...Xm]T (5)
Figure FDA0002396242200000071
(5)将该矩阵通过初等行变换变为阶梯阵.
Figure FDA0002396242200000072
并统计每一行第一个非零元素所在的列,将这些列取出排成一组,即为训练集补丁的极大线性无关组,将每一个同类训练集补丁的极大无关组储存起来,并且统计极大无关组中向量的个数,即为训练秩R,同样也储存起来;
通过比较测试秩R与训练秩R的大小就能判断测试集中的特征向量能否由训练集中的特征向量线性表出了;
若测试秩R=训练秩R成立,则判断为正例补丁,在原图像相应的坐标点做上标记。
CN201710317070.3A 2017-05-08 2017-05-08 一种人脸深度跟踪装置及实现方法 Active CN107203743B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710317070.3A CN107203743B (zh) 2017-05-08 2017-05-08 一种人脸深度跟踪装置及实现方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710317070.3A CN107203743B (zh) 2017-05-08 2017-05-08 一种人脸深度跟踪装置及实现方法

Publications (2)

Publication Number Publication Date
CN107203743A CN107203743A (zh) 2017-09-26
CN107203743B true CN107203743B (zh) 2020-06-05

Family

ID=59905198

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710317070.3A Active CN107203743B (zh) 2017-05-08 2017-05-08 一种人脸深度跟踪装置及实现方法

Country Status (1)

Country Link
CN (1) CN107203743B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985225B (zh) * 2018-07-13 2021-12-14 北京猎户星空科技有限公司 焦点跟随方法、装置、电子设备及存储介质
CN109101084A (zh) * 2018-09-28 2018-12-28 深圳阜时科技有限公司 一种设备
CN111182199B (zh) 2018-11-13 2022-02-11 深圳富泰宏精密工业有限公司 电子装置及拍照方法
CN111127642A (zh) * 2019-12-31 2020-05-08 杭州电子科技大学 一种人脸三维重建方法
CN111401331B (zh) * 2020-04-27 2022-04-05 支付宝(杭州)信息技术有限公司 人脸识别方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106022209A (zh) * 2016-04-29 2016-10-12 杭州华橙网络科技有限公司 一种基于人脸检测的距离估算和处理的方法及装置
US9501716B2 (en) * 2014-12-11 2016-11-22 Intel Corporation Labeling component parts of objects and detecting component properties in imaging data
CN106405707A (zh) * 2011-06-06 2017-02-15 旭硝子株式会社 滤光片、固体摄像元件、摄像装置用透镜和摄像装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101216123B1 (ko) * 2011-07-08 2012-12-27 김호 시청자 얼굴 추적정보 생성방법 및 생성장치, 그 기록매체 및 3차원 디스플레이 장치

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106405707A (zh) * 2011-06-06 2017-02-15 旭硝子株式会社 滤光片、固体摄像元件、摄像装置用透镜和摄像装置
US9501716B2 (en) * 2014-12-11 2016-11-22 Intel Corporation Labeling component parts of objects and detecting component properties in imaging data
CN106022209A (zh) * 2016-04-29 2016-10-12 杭州华橙网络科技有限公司 一种基于人脸检测的距离估算和处理的方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"Correction and interpolation of depth maps from structured light infrared sensors";Milani S, el at.;《Signal Processing: Image Communication》;20160229;第28-39页 *
"Rapid and accurate face depth estimation in passive stereo systems";Aissaoui A ,el at.;《Multimedia Tools and Applications》;20130627;第2413-2438页 *
"基于Candide模型的人脸深度信息生成技术研究";姜太平等;《计算机技术与发展》;20120626;第22卷(第4期);第93-96页,第100页 *

Also Published As

Publication number Publication date
CN107203743A (zh) 2017-09-26

Similar Documents

Publication Publication Date Title
CN107203743B (zh) 一种人脸深度跟踪装置及实现方法
Wang et al. Automatic laser profile recognition and fast tracking for structured light measurement using deep learning and template matching
CN108549873B (zh) 三维人脸识别方法和三维人脸识别系统
EP3491332B1 (en) Reflectivity map estimate from dot based structured light systems
US10049460B2 (en) Identifying an object in a volume based on characteristics of light reflected by the object
JP6305171B2 (ja) シーン内の物体を検出する方法
KR101550474B1 (ko) 양안을 찾아내어 추적하는 방법 및 장치
TWI509565B (zh) 基於樣式匹配及立體資訊的深度製圖
US20110025834A1 (en) Method and apparatus of identifying human body posture
CN111144207B (zh) 一种基于多模态信息感知的人体检测和跟踪方法
US10281264B2 (en) Three-dimensional measurement apparatus and control method for the same
US20040037450A1 (en) Method, apparatus and system for using computer vision to identify facial characteristics
CN108985210A (zh) 一种基于人眼几何特征的视线追踪方法及系统
CN106485735A (zh) 基于立体视觉技术的人体目标识别与跟踪方法
CN105740775A (zh) 一种三维人脸活体识别方法及其装置
CN112036339B (zh) 人脸检测的方法、装置和电子设备
CN108377380A (zh) 影像扫描系统及其方法
CN109657717A (zh) 一种基于多尺度密集结构特征提取的异源图像匹配方法
CN111239684A (zh) 一种基于YoloV3深度学习的双目快速距离测量方法
JP2014067193A (ja) 画像処理装置および画像処理方法
Chansri et al. Reliability and accuracy of Thai sign language recognition with Kinect sensor
US20220028102A1 (en) Devices and methods for determining confidence in stereo matching using a classifier-based filter
Brenner et al. Rgb-d and thermal sensor fusion: A systematic literature review
CN109443319A (zh) 基于单目视觉的障碍物测距系统及其测距方法
CN111272144A (zh) 深度感测相机系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Yan Chenggang

Inventor after: Li Yafei

Inventor after: Jiang Jiyang

Inventor after: Xu Shuang

Inventor after: Zhang Xin

Inventor after: Sun Yaoqi

Inventor before: Li Yafei

Inventor before: Yan Chenggang

Inventor before: Jiang Jiyang

Inventor before: Xu Shuang

Inventor before: Zhang Xin

Inventor before: Sun Yaoqi

CB03 Change of inventor or designer information
GR01 Patent grant
GR01 Patent grant