CN103810491A - 融合深度和灰度图像特征点的头姿估计兴趣点检测方法 - Google Patents

融合深度和灰度图像特征点的头姿估计兴趣点检测方法 Download PDF

Info

Publication number
CN103810491A
CN103810491A CN201410055811.1A CN201410055811A CN103810491A CN 103810491 A CN103810491 A CN 103810491A CN 201410055811 A CN201410055811 A CN 201410055811A CN 103810491 A CN103810491 A CN 103810491A
Authority
CN
China
Prior art keywords
depth
image
gray level
point
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410055811.1A
Other languages
English (en)
Other versions
CN103810491B (zh
Inventor
贾熹滨
王润元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NANTONG TONGLIAN SPONGE PLASTIC Co.,Ltd.
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201410055811.1A priority Critical patent/CN103810491B/zh
Publication of CN103810491A publication Critical patent/CN103810491A/zh
Application granted granted Critical
Publication of CN103810491B publication Critical patent/CN103810491B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明涉及一种融合深度和灰度图像特征点的头姿估计兴趣点检测方法,包括:提取深度图像的特征点,提取灰度图像特征点,融合深度图像特征点与灰度图像特征点。本发明将基于深度图像检测到的特征点与基于灰度图像检测到的特征点相结合,形成一些定位准确、鲁棒性强的特征点,继承了深度与灰度图像的不同特征点检测的优势,能够最大程度地、快速地检测深度图像中表面变化大的特征点以及灰度图像中灰度值较大的瞳孔区域,尤其是提出了一种在深度图像中对计算所得的Haar-like特征值进行修正的计算模式,最终提取的特征具有一定的空间旋转不变性,在大角度旋转情形下也能逼近人脸特征点真值,提高了最终的特征点检测精度,缩短了检测时间。

Description

融合深度和灰度图像特征点的头姿估计兴趣点检测方法
技术领域
本发明涉及数字图像处理及计算机视觉技术领域,具体涉及基于深度与灰度图像融合的头姿估计感兴趣点检测方法。
背景技术
头姿估计是对人体行为进行分析的重要组成部分,它既可以作为结果用于体感游戏、驾驶员疲劳驾驶监视,也可以作为一个预处理过程提高身份认证、面部表情识别准确率。其中,利用头部感兴趣点来分析头姿是头姿估计方向的一个重要分支,并且特征点的准确、快速定位直接决定着头姿估计的精度与速度。然而,由于摄像头本身的分辨率、背景环境的复杂度、光照变化以及肤色等因素的影响,准确快速地检测特征点成为一项极具挑战性的工作。
截至目前,已经有很多种特征点检测的方法被提出。按照特征点检测所依赖的样本进行分类,可分为基于灰度图像的方法和基于深度图像的方法两种。经典的基于灰度图像的方法包括基于投影的眼睛定位方法、基于hough变换的瞳孔定位方法、基于颜色直方图统计方法以及基于模糊C均值的嘴唇分割方法等局部特征点定位方法,以及主动形状模型(ASM)、主动表观模型(AAM)等全局特征点定位方法。此外,一些基于分类学习方法,如人工神经网络、PCA以及SVM等也可用于特征点的筛选定位。基于深度图像的主流特征点定位算法有基于距离统计、高斯曲率计算、形状标签法等方法,用于定位鼻尖、鼻鞍等几何形状突出的特征点。虽然上述这些方法在一些样本中取得了不错的特征点检测效果,但是由于两种数据所固有缺点(灰度图像很容易受到光照变化、复杂背景以及遮挡等的影响,而深度图像对噪声特别敏感),很难只依赖其中一种数据进行训练而完成准确、快速、泛化能力强的特征点检测,故亟需提出更加鲁棒的特征点检测算法以改善头姿估计效果。
发明内容
本发明的目的在于提供一种基于深度与灰度图像融合的头姿估计感兴趣点检测方法,将基于深度图像检测到的特征点与基于灰度图像检测到的特征点相结合,最终形成一些定位准确、鲁棒性强的特征点,有效解决现有算法中存在的特征点检测结果不准确、鲁棒性差等造成因误差累计头姿估计准确率低的问题。
为了实现上述目的,本发明采用以下技术方案:基于人脸深度图像各点与邻域点之间的深度差异性,利用所定义的深度Harr特征模板对所获取的人脸深度图像进行特征提取,然后利用Adaboost算法训练级联分类器,筛选出鼻尖、鼻鞍、左右耳垂等特征点;基于人脸灰度图像中眼睛与周围相邻区域灰度值的差异,对其提取Haar-like特征,然后利用Adaboost算法训练级联分类器,筛选出特征点眼睛。最后将人脸深度图像与灰度图像对齐,即可完成对人脸左右眼睛、鼻尖、鼻鞍、左右耳垂等特征点的检测。
一种基于深度与灰度图像融合的头姿估计感兴趣点检测方法,包括以下步骤:
步骤1,提取深度图像特征点。
步骤1.1,输入人脸深度图像。
步骤1.2,手工标定鼻尖、鼻鞍以及耳垂等特征点的训练样本。
步骤1.3,计算已标定样本的深度Harr-like特征。
步骤1.4,训练Adaboost分类器。
步骤2,提取灰度图像特征点。
步骤2.1,输入人脸灰度图像。
步骤2.2,标定瞳孔中心。
步骤2.3,计算已标定样本的Harr-like特征。
步骤2.4,训练Adaboost分类器。
步骤3,集成深度图像与灰度图像所提取的特征点。
步骤3.1,利用训练好的2个Adaboost分类器分别对输入的人脸深度图像和灰度图像进行特征点检测。
步骤3.2,对齐深度图像与灰度图像,确定左右眼睛、鼻尖、鼻鞍、左右耳垂等感兴趣点。
与现有技术相比,本发明具有以下明显优势:
本发明利用头部感兴趣点所具有的深度数据分布特性,提出一种在深度图像中对计算所得的Haar-like特征值进行修正的计算模式,实现特征点的检测,充分继承了深度与灰度图像的不同特征点检测的优势,即深度图像不受光照变化以及复杂背景的影响,而灰度图像便于瞳孔检测,最大程度地、快速地检测到深度图像中表面变化大的特征点以及灰度图像中灰度分布特征显著的瞳孔区域,尤其是提取的特征具有一定的空间旋转不变性,在大角度旋转情形下也能逼近人脸特征点真值,提高了最终的特征点检测精度,缩短了检测时间。
附图说明
图1为本发明所涉及方法的流程图;
图2为本发明对深度图像进行特征提取的模板示意图;
图3为本发明进行特征点标定以后的深度图像正、反训练样本图;
图4为本发明进行特征点标定以后的灰度图像正、反训练样本图。
具体实施方式
以下结合具体实施例,并参照附图,对本发明进一步详细说明。
本发明所用到的硬件设备包括Kinect for Windows(微软体感摄像头)1台、PC机1台,其中Kinect for Windows用来采集人脸深度数据以及彩色图像,PC机用来处理数据并完成感兴趣点的检测。
本发明所述方法的流程图如图1所示,具体包括以下步骤:
步骤1,提取深度图像的特征点。
步骤1.1,输入人脸深度图像。
所述深度图像为单通道图像,是从深度摄像机采集的面部深度数据转变而来,具体过程如附图3所示。对于一张人脸深度数据,首先计算这些深度数据的最大值、最小值以及均值,然后将它们归一化并放大到0~255,最大深度公式、最小深度公式以及平均深度公式及深度数据归一化公式如下:
maxDepthValue=Max(depth(pixel(i)))   (1)
minDepthValue=Min(depth(pixel(i)))   (2)
averageDepth = 1 n Σ i = 1 n depth ( pixel ( i ) ) - - - ( 3 )
pixelValue = pixelDepth - min PixelDepth max PixelDepth - min PixelDepth × 255 - - - ( 4 )
其中,i=1,2,3,...,n,n为所有有效像素的数量;depth(pixel(i))为深度数据中第i个像素处的深度值,pixelDepth为深度数据转化为可视深度图像后的对应的灰度值。
这样便将全部深度数据转化为三个深度值和一幅深度图像。
对于场景中的待检测对象,首先使用深度阈值分割法将人体从场景中分割出来,然后将头部从人体图像中分割出来,比如,微软的KinectSDK包中骨架模型检测出人体头部基本位置,进而利用人体结构的相关先验知识将头部所在的矩形区域分割出来。由于得到的头部原始数据为一些以毫米为单位的深度值,为了便于对这些数据进行特征点标定,利用公式(4)将这些数据进行变换,将原始深度数据转化为一个单通道的图像。显然,距离摄像机平面最近的那些点灰度值最高,用纯白色表示。
步骤1.2,手工标定鼻尖、鼻鞍以及耳垂等特征点的训练样本。
对于步骤1.1得到的深度图像,标定出鼻尖、鼻鞍以及左右耳垂这些特征点,然后以每个特征点为中心进行图像切割,得到固定大小的特征点正例样本,样本大小一般取24*24,这样一来,特征点就都会位于训练样本的几何中心。为了能够使训练出的头部特征点检测器对不同人、不同距离以及不同角度下均具有稳定性,就要选择不同人、不同距离以及不同角度下的头部特征点进行标定,最终大量的标定样本构成正训练样本;同时,为了使训练出的头部特征点检测器具有高的识别能力,需要选择大量的非待检测特征点样本作为负训练样本。当然,负训练样本中并不是都不包含感兴趣特征点,只是在负样本中这些特征点将不位于样本几何中心。一些深度图像正训练样本以及负训练样本如附图3所示:图3(1)~(4)分别为标定好的右耳垂、左耳垂、鼻尖、下巴正例训练样本,而图3(5)~(8)分别为对应的反例训练样本。
步骤1.3,计算已标定样本的深度Harr-like特征。
使用图2(1)~(6)所示的6种模板类型分别对已标定的深度图像进行特征提取,获取每类图像中的所有特征。特征值计算公式为:
其中,value为特征值,n表示模板中黑色矩形框的个数,θ表示模板区域源图像沿x轴的旋转角度,表示模板区域源图像沿y轴的旋转角度。对于灰度图像,θ和
Figure BDA0000467212250000043
均取0;对于深度图像,不同类型的模板,θ和
Figure BDA0000467212250000044
的值也不同,分别等于模板沿横轴和纵轴两端区域像素和之差的绝对值与两端之间表示的实际距离之比的反正切值。
(1)计算模板区域深度图像的局部旋转角度。
以摄像机平面水平方向为x轴、竖直方向为y轴以及垂直于屏幕的方向为z轴建立坐标系。在所建坐标系下计算不同模板的局部旋转角度。
对于图2(1)所示模板,沿x轴的旋转角度θ=0,计算沿y轴的旋转角度
Figure BDA0000467212250000045
公式如下:
Figure BDA0000467212250000046
式中,Wtemplate为模板代表的实际宽度,单位为毫米。
对于图2(2)所示模板,沿y轴的旋转角度
Figure BDA0000467212250000047
计算沿x轴的旋转角度θ,公式如下:
Figure BDA0000467212250000048
式中,Htemplate为模板代表的实际宽度,单位为毫米。
对于图2(3)所示模板,沿x轴的旋转角度θ=0,计算沿y轴的旋转角度
Figure BDA0000467212250000049
公式如下:
Figure BDA00004672122500000410
对于图2(4)所示模板,沿y轴的旋转角度
Figure BDA00004672122500000411
计算沿x轴的旋转角度θ,公式如下:
对于图2(5)所示模板,计算沿y轴的旋转角度
Figure BDA0000467212250000052
和沿x轴的旋转角度θ,公式如下:
Figure BDA0000467212250000053
Figure BDA0000467212250000054
对于图2(6)所示模板,计算沿y轴的旋转角度
Figure BDA0000467212250000055
和沿x轴的旋转角度θ,公式如下:
Figure BDA0000467212250000056
(2)计算模板区域深度图像的特征值。
将步骤(1)得到的局部旋转角度带入特征值计算公式即可求出深度图像中给定模板区域的特征值。对于图2(1)~(6)所示模板,n的取值分别为:1,1,2,2,8,8。
步骤1.4,训练Adaboost分类器。
对于步骤1.3中得到的特征,训练一系列弱分类器,然后按照权重级联为一个强分类器。
步骤2,提取灰度图像特征点。
步骤2.1,输入人脸灰度图像。
所述的灰度图像为单通道图像,这里的灰度图像可以由彩色图像转变而来,也可以直接选择彩色图像的任一通道,其中每个像素点取值范围为0-255。
步骤2.2,标定瞳孔中心。
对于步骤2.1得到的灰度图像,标定出瞳孔的中心位置,然后按照与步骤1.2相同的方法进行正负训练样本的制作。图4(1)、(2)分别为标定好的左、右瞳孔正例训练样本,而图4(3)、(4)为反例训练样本。
步骤2.3,计算已标定图像样本Harr-like特征。
利用图2(1)~(6)所示的6种模板类型对步骤2.2的正负样本进行Haar-like特征提取。
步骤2.4,训练Adaboost分类器。方法与步骤1.4相同。
步骤3,集成深度图像与灰度图像所提取的特征点。
步骤3.1,利用训练好的2个Adaboost分类器分别对输入的人脸深度图像和灰度图像进行特征点检测。
输入2张同一时刻采集的深度图像和灰度图像,分别提取特征并利用Adaboost进行分类,然后利用K-近邻聚类算法进行聚类,聚类中心即为检测到的头姿估计兴趣点。
步骤3.2,对齐深度图像与灰度图像,确定左右眼睛、鼻尖、鼻鞍、左右耳垂等感兴趣点。
由于步骤3.1中检测出的兴趣点分别在2幅图像上面,因此特征点坐标不一致,无法进行直接用于头姿估计等问题,所以需要将2幅图像进行对齐处理,进而同一坐标系以方便特征点之间的关系计算。
至此,本发明的具体实施过程就描述完毕。

Claims (1)

1.融合深度和灰度图像特征点的头姿估计兴趣点检测方法,其特征在于:提出一种在深度图像中对计算所得的Haar-like特征值进行修正的计算模式;将基于深度图像检测到的特征点与基于灰度图像检测到的特征点相结合,解决现有算法中存在的特征点检测结果不准确、鲁棒性差、速度慢以及泛化能力弱的问题;所述方法包括以下步骤:
步骤1,提取深度图像的特征点;
步骤1.1,输入人脸深度图像;
所述深度图像为单通道图像,是从深度摄像机采集的人脸深度数据转变而来;对于一张人脸深度数据,首先计算深度数据的最大值、最小值以及均值,然后将深度数据归一化并放大到0~255,将全部深度数据转化为三个深度值和一幅深度图像;最大深度公式、最小深度公式以及平均深度公式及深度数据归一化公式如下:
maxDepthValue=Max(depth(pixel(i)))
minDepthValue=Min(depth(pixel(i)))
averageDepth = 1 n Σ i = 1 n depth ( pixel ( i ) )
pixelValue = pixelDepth - min PixelDepth max PixelDepth - min PixelDepth × 255
其中,i=1,2,3,...,n,n为所有有效像素的数量;depth(pixel(i))为深度数据中第i个像素处的深度值,pixelDepth为深度数据转化为可视深度图像后的对应的灰度值;
步骤1.2,手工标定鼻尖、鼻鞍以及耳垂特征点;
对于步骤1.1得到的深度图像,标定出鼻尖、鼻鞍以及左右耳垂这些特征点,然后以每个特征点为中心进行图像切割,得到固定大小的特征点正例样本,样本大小一般取24*24;选择不同人、不同距离以及不同角度下的头部特征点进行标定,将大量的标定样本构成正训练样本;同时,选择大量的非待检测特征点样本作为负训练样本;负训练样本中的感兴趣特征点不位于样本几何中心;
步骤1.3,计算已标定样本的深度Harr-like特征;
使用6种不同模板类型分别对已标定的深度图像进行特征提取,获取每类图像中的所有特征;特征值计算公式为:
Figure FDA0000467212240000013
其中,value为特征值,n表示模板中黑色矩形框的个数,θ表示模板区域源图像沿x轴的旋转角度,表示模板区域源图像沿y轴的旋转角度;对于灰度图像,θ与
Figure FDA0000467212240000015
均取0;对于深度图像,不同类型的模板,θ和
Figure FDA0000467212240000021
的值也不同,分别等于模板沿横轴和纵轴两端区域像素和之差的绝对值与两端之间表示的实际距离之比的反正切值;
步骤1.4,训练Adaboost分类器;
对于步骤1.3中得到的特征,训练一系列弱分类器,然后按照权重级联为一个强分类器;
步骤2,提取灰度图像特征点;
步骤2.1,输入人脸灰度图像;
所述的灰度图像为单通道图像,这里的灰度图像可以由彩色图像转变而来,也可以直接选择彩色图像的任一通道,其中每个像素点取值范围为0-255;
步骤2.2,标定瞳孔中心;
对于步骤2.1得到的灰度图像,标定出瞳孔的中心位置,然后按照与步骤1.2相同的方法进行正负训练样本的制作;
步骤2.3,计算已标定样本的深度Harr-like特征;
利用前述6种模板类型对步骤2.2的正负样本进行Haar-like特征提取;
步骤2.4,训练Adaboost分类器;方法与步骤1.4相同;
步骤3,集成深度图像与灰度图像所提取的特征点;
步骤3.1,利用训练好的2个Adaboost分类器分别对输入的人脸深度图像和灰度图像进行特征点检测;
输入2张同一时刻采集的深度图像和灰度图像,分别提取特征并利用Adaboost进行分类,然后利用K-近邻聚类算法进行聚类,聚类中心即为检测到的头姿估计兴趣点;
步骤3.2,对齐深度图像与灰度图像,确定左右眼睛、鼻尖、鼻鞍、左右耳垂感兴趣点。
CN201410055811.1A 2014-02-19 2014-02-19 融合深度和灰度图像特征点的头姿估计兴趣点检测方法 Active CN103810491B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410055811.1A CN103810491B (zh) 2014-02-19 2014-02-19 融合深度和灰度图像特征点的头姿估计兴趣点检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410055811.1A CN103810491B (zh) 2014-02-19 2014-02-19 融合深度和灰度图像特征点的头姿估计兴趣点检测方法

Publications (2)

Publication Number Publication Date
CN103810491A true CN103810491A (zh) 2014-05-21
CN103810491B CN103810491B (zh) 2017-02-22

Family

ID=50707232

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410055811.1A Active CN103810491B (zh) 2014-02-19 2014-02-19 融合深度和灰度图像特征点的头姿估计兴趣点检测方法

Country Status (1)

Country Link
CN (1) CN103810491B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354987A (zh) * 2015-11-26 2016-02-24 南京工程学院 车载型疲劳驾驶检测与身份认证装置及其检测方法
WO2016110005A1 (zh) * 2015-01-07 2016-07-14 深圳市唯特视科技有限公司 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法
CN106327464A (zh) * 2015-06-18 2017-01-11 南京理工大学 一种边缘检测方法
CN106934377A (zh) * 2017-03-14 2017-07-07 深圳大图科创技术开发有限公司 一种改进的人脸检测系统
CN106991378A (zh) * 2017-03-09 2017-07-28 广东欧珀移动通信有限公司 基于深度的人脸朝向检测方法、检测装置和电子装置
CN107045631A (zh) * 2017-05-25 2017-08-15 北京华捷艾米科技有限公司 人脸特征点检测方法、装置及设备
CN107729872A (zh) * 2017-11-02 2018-02-23 北方工业大学 基于深度学习的人脸表情识别方法及装置
CN108280415A (zh) * 2018-01-17 2018-07-13 武汉理工大学 基于智能移动终端的驾驶行为识别方法
CN108701214A (zh) * 2017-12-25 2018-10-23 深圳市大疆创新科技有限公司 图像数据处理方法、装置及设备
CN109800791A (zh) * 2018-12-25 2019-05-24 山东省交通规划设计院 一种路面裂缝特征值的提取方法
CN112784659A (zh) * 2019-11-01 2021-05-11 财团法人工业技术研究院 拟真虚拟人脸产生方法与系统,及其人脸辨识方法与系统
CN112907569A (zh) * 2021-03-24 2021-06-04 北京房江湖科技有限公司 头部图像区域的分割方法、装置、电子设备和存储介质
CN113366491A (zh) * 2021-04-26 2021-09-07 华为技术有限公司 眼球追踪方法、装置及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101815174B (zh) * 2010-01-11 2015-03-04 北京中星微电子有限公司 摄像控制方法及控制装置
CN102982341B (zh) * 2012-11-01 2015-06-24 南京师范大学 一种可跨摄像机的自适应人群密度估计方法
CN103400409B (zh) * 2013-08-27 2016-08-10 华中师范大学 一种基于摄像头姿态快速估计的覆盖范围3d可视化方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016110005A1 (zh) * 2015-01-07 2016-07-14 深圳市唯特视科技有限公司 基于灰度和深度信息的多层融合的多模态人脸识别装置及方法
CN106327464A (zh) * 2015-06-18 2017-01-11 南京理工大学 一种边缘检测方法
CN105354987B (zh) * 2015-11-26 2018-06-08 南京工程学院 车载型疲劳驾驶检测与身份认证装置及其检测方法
CN105354987A (zh) * 2015-11-26 2016-02-24 南京工程学院 车载型疲劳驾驶检测与身份认证装置及其检测方法
CN106991378A (zh) * 2017-03-09 2017-07-28 广东欧珀移动通信有限公司 基于深度的人脸朝向检测方法、检测装置和电子装置
CN106934377B (zh) * 2017-03-14 2020-03-17 新疆智辰天林信息科技有限公司 一种改进的人脸检测系统
CN106934377A (zh) * 2017-03-14 2017-07-07 深圳大图科创技术开发有限公司 一种改进的人脸检测系统
CN107045631B (zh) * 2017-05-25 2019-12-24 北京华捷艾米科技有限公司 人脸特征点检测方法、装置及设备
CN107045631A (zh) * 2017-05-25 2017-08-15 北京华捷艾米科技有限公司 人脸特征点检测方法、装置及设备
CN107729872A (zh) * 2017-11-02 2018-02-23 北方工业大学 基于深度学习的人脸表情识别方法及装置
CN108701214A (zh) * 2017-12-25 2018-10-23 深圳市大疆创新科技有限公司 图像数据处理方法、装置及设备
CN108280415A (zh) * 2018-01-17 2018-07-13 武汉理工大学 基于智能移动终端的驾驶行为识别方法
CN109800791A (zh) * 2018-12-25 2019-05-24 山东省交通规划设计院 一种路面裂缝特征值的提取方法
CN112784659A (zh) * 2019-11-01 2021-05-11 财团法人工业技术研究院 拟真虚拟人脸产生方法与系统,及其人脸辨识方法与系统
CN112784659B (zh) * 2019-11-01 2023-09-26 财团法人工业技术研究院 拟真虚拟人脸产生方法与系统,及其人脸辨识方法与系统
CN112907569A (zh) * 2021-03-24 2021-06-04 北京房江湖科技有限公司 头部图像区域的分割方法、装置、电子设备和存储介质
CN112907569B (zh) * 2021-03-24 2024-03-15 贝壳找房(北京)科技有限公司 头部图像区域的分割方法、装置、电子设备和存储介质
CN113366491A (zh) * 2021-04-26 2021-09-07 华为技术有限公司 眼球追踪方法、装置及存储介质
WO2022226747A1 (zh) * 2021-04-26 2022-11-03 华为技术有限公司 眼球追踪方法、装置及存储介质

Also Published As

Publication number Publication date
CN103810491B (zh) 2017-02-22

Similar Documents

Publication Publication Date Title
CN103810491A (zh) 融合深度和灰度图像特征点的头姿估计兴趣点检测方法
CN108108684B (zh) 一种融合视线检测的注意力检测方法
CN100561503C (zh) 一种人脸眼角与嘴角定位与跟踪的方法及装置
CN101840509B (zh) 人眼观察视角的测量方法及装置
CN103310194B (zh) 视频中基于头顶像素点梯度方向的行人头肩部检测方法
CN106682603B (zh) 一种基于多源信息融合的实时驾驶员疲劳预警系统
US20160253550A1 (en) Eye location method and device
CN103218605B (zh) 一种基于积分投影与边缘检测的快速人眼定位方法
CN104408462B (zh) 面部特征点快速定位方法
CN104915656B (zh) 一种基于双目视觉测量技术的快速人脸识别方法
CN104091155A (zh) 光照鲁棒的虹膜快速定位方法
CN103761519A (zh) 一种基于自适应校准的非接触式视线追踪方法
CN103093215A (zh) 人眼定位方法及装置
CN104091147A (zh) 一种近红外眼睛定位及眼睛状态识别方法
CN102902967A (zh) 基于人眼结构分类的虹膜和瞳孔的定位方法
CN106295549A (zh) 多角度人脸数据采集方法和装置
CN104091173B (zh) 一种基于网络摄像机的性别识别方法及装置
CN101923645A (zh) 适应复杂应用场景中低质量虹膜图像的虹膜分割方法
CN108629336A (zh) 基于人脸特征点识别的颜值计算方法
CN104123543A (zh) 一种基于人脸识别的眼球运动识别方法
CN103473571A (zh) 一种人体检测方法
CN106570447B (zh) 基于灰度直方图匹配的人脸照片太阳镜自动去除方法
CN103020614B (zh) 基于时空兴趣点检测的人体运动识别方法
CN106682641A (zh) 基于fhog‑lbph特征的图像行人识别方法
CN106203375A (zh) 一种基于人脸图像中人脸和人眼检测的瞳孔定位方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20201203

Address after: Industrial concentration zone, Gangzha District, Nantong City, Jiangsu Province (Group 8, Wenjun Village)

Patentee after: NANTONG TONGLIAN SPONGE PLASTIC Co.,Ltd.

Address before: Room 1424, 4 / F, Mudan Chuangye building, No.2 Huayuan Road, Haidian District, Beijing

Patentee before: Beijing Zhonglian Technology Service Co.,Ltd.

Effective date of registration: 20201203

Address after: Room 1424, 4 / F, Mudan Chuangye building, No.2 Huayuan Road, Haidian District, Beijing

Patentee after: Beijing Zhonglian Technology Service Co.,Ltd.

Address before: 100124 Chaoyang District, Beijing Ping Park, No. 100

Patentee before: Beijing University of Technology