CN105740846A - 一种基于深度相机的水平视角估计及校准方法 - Google Patents

一种基于深度相机的水平视角估计及校准方法 Download PDF

Info

Publication number
CN105740846A
CN105740846A CN201610117934.2A CN201610117934A CN105740846A CN 105740846 A CN105740846 A CN 105740846A CN 201610117934 A CN201610117934 A CN 201610117934A CN 105740846 A CN105740846 A CN 105740846A
Authority
CN
China
Prior art keywords
point
depth camera
alpha
head
gamma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610117934.2A
Other languages
English (en)
Inventor
刘小峰
倪剑帆
周小芹
蒋爱民
徐宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changzhou Campus of Hohai University
Original Assignee
Changzhou Campus of Hohai University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changzhou Campus of Hohai University filed Critical Changzhou Campus of Hohai University
Priority to CN201610117934.2A priority Critical patent/CN105740846A/zh
Publication of CN105740846A publication Critical patent/CN105740846A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/005General purpose rendering architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Computer Graphics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种基于深度相机的水平视角估计及校准方法,采用Kinect深度相机捕捉人脸部2D图像和估计头部姿势;在2D图像中定位最佳瞳孔中心点,得到最佳瞳孔中心点的2D坐标;利用Kinect深度相机的固有参数,将步骤二得到的最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中,得到最佳瞳孔中心点的3D坐标;利用3D眼球模型,估计水平视线角度;设计实验系统,校准得到的视线角度。本发明方法操作简便、实时性好、成本低廉、对测试者头部无约束且精度高。

Description

一种基于深度相机的水平视角估计及校准方法
技术领域
本发明涉及一种基于深度相机的水平视角估计及校准方法,属于视线追踪技术领域。
背景技术
视线检测技术是目前国内外一个热门的研究课题,它在人机交互,残疾人交流,安全监控和疲劳驾驶中都有着广泛的应用。通常,其检测方法分为两类:基于外表的方法和基于模型的方法。前者建立一个从高维特征到低维目标空间的映射关系,后者一般是根据头部和眼部的特征来建立3D模型。
目前,市场上基于视线检测的眼动仪还存在着明显的缺陷:第一,检测设备复杂,成本高;第二,对头部限制大,操作不灵活;第三,精度低,无法推广。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种基于深度相机的水平视角估计及校准方法,解决现有技术中视觉检测设备复杂、成本高、对头部限制大,操作不灵活且精度低,无法推广的技术问题。
为解决上述技术问题,本发明所采用的技术方案是:一种基于深度相机的水平视角估计及校准方法,包括如下步骤:
步骤一:采用Kinect深度相机捕捉人脸部2D图像和估计头部姿势;
步骤二:在2D图像中定位最佳瞳孔中心点,得到最佳瞳孔中心点的2D坐标;
步骤三:利用Kinect深度相机的固有参数,将步骤二得到的最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中,得到最佳瞳孔中心点的3D坐标;
步骤四:利用3D眼球模型,估计水平视线角度;
步骤五:设计实验系统,校准得到的视线角度。
步骤一具体包括如下步骤:
根据Kinect深度相机提供的头部倾斜角度γ、摇摆角度α、偏转角度β和空间坐标系中各方向的平移分量Tx,Ty,Tz,其中平移矩阵T=(Tx,Ty,Tz),计算头部的旋转矩阵R:
R = cos α cos γ - sin α sin β sin γ - cos β sin α cos α sin γ + cos γ sin α sin β cos γ sin α + cos α sin β sin γ cos α cos β sin α sin γ - cos α cos γ sin β - cos β sin γ sin β cos β cos γ - - - ( 10 ) ;
预设头部坐标系中的眼球中心点经验值Chead,通过旋转矩阵R和平移矩阵T把Chead转换到Kinect深度相机的3D坐标系中,得到眼球中心点C:
C=R*Chead+T(11)。
步骤二具体包括如下步骤:
通过Kinect深度相机定位到眼部区域,通过分析梯度值检测出眼部的虹膜和巩膜的边界,然后通过公式(3)计算虹膜区域随机瞳孔中心p*与虹膜边界区域随机点qi的位移向量和qi的梯度值的数量积,其中得到的最大值就是最佳的瞳孔中心点p=(xp,yp);
p = argmax p * { 1 n Σ i = 1 n ( d i T g i ) 2 - - - ( 12 )
d i = q i - p * | | q i - p * | | 2 . ∀ i : | | g i | | 2 = 1 - - - ( 13 )
其中:di是p*和qi的单位化位移向量,gi是qi的单位化梯度向量,p的位移方向和qi的梯度方向一致。
步骤三中将最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中的具体方法为:
x x p - c c e n t e r = - y y p - r c e n t e r = z λ - - - ( 14 )
其中:P=(x,y,z)是最佳瞳孔中心的3D坐标,(ccenter,rcenter)是Kinect深度相机的光轴和图像交点的列坐标和行坐标,λ是相机焦距。
步骤四具体包括如下步骤:
采用3D眼球模型建立特征点之间的关系,计算角膜中心点Cp
C p = K o K ( P - C ) + C - - - ( 15 )
其中:C是步骤一中得到的眼球中心点,P是步骤三中得到的瞳孔中心点,Ko表示角膜中心点Cp与眼球中心点C的直线距离,K是瞳孔中心点P与眼球中心点C的直线距离;
根据角膜中心点Cp计算得到光轴向量然后根据公式(7)计算视轴向量其中M是视线点;
alpha=arctan(xcm/zcm)(17)
θ表示光轴和视轴的夹角,为已知常量,得到最终的水平视线角度的测量值alpha。
步骤五具体包括如下步骤:
步骤501:设计实验系统:令测试者、Kinect深度相机、可移动黑板按照从前至后排序,Kinect深度相机的高度低于测试者的水平视线高度;
步骤502:在实际测量中,令测试者坐直坐正,视线平视前方,将可移动黑板上看到的首个点标记为0点,也称为定点;然后分别在定点的水平左右两边取若干点,通过保持瞳孔直视前方的情况下分别左右水平转动头部,使得视线恰好到所标点处,在转动过程中保持头部中心点到可移动黑板距离不变;
步骤503:计算水平视线角度的真实值
其中:0P是眼睛到可移动黑板的距离,0i是0点到i点的距离;
步骤504:利用线性回归模型中的最小二乘法y=ax+b对所得到的测量值alpha和真实值进行拟合,其中:x是测量值,y是校准后的角度,通过拟合得到系数a和b后,就可以通过测量值计算得到相应校准后的水平视线角度。
所述测试者头部还戴有固定激光笔的帽子,用于校准测试者头部偏转,激光笔在测试者头部正中心的正上方,且激光笔发出的光束与测试者水平视线相平行。
与现有技术相比,本发明所达到的有益效果是:,采用Kinect深度相机,用户头部可自由转动不影响视线检测结果,检测设备简单,成本低廉;采用预设定的眼球中心点经验值,算法不需要对个人进行眼球中心点单独标定,具有实时性,高效性和普遍适用性,精确度高;采用一个简化3维眼球模型,设计了一个实验系统,用线性回归模型校准测量值,快速便捷地计算出水平视线角度。
附图说明
图1本发明方法的流程图。
图2眼部区域示意图。
图3瞳孔中心定位方法图。
图4三维眼球模型图。
图5水平视线角度图。
图6实验系统图。
图7实验操作图。
其中:1、瞳孔;2、虹膜;3、巩膜;4、激光笔;5、Kinect深度相机;6、可移动黑板。
具体实施方式
本发明是基于深度相机5的水平视角估计及校准方法,该方法采用Kinect深度相机5获取脸部特征点的3维坐标,通过一个瞳孔1定位算法,3D眼球模型及预设定的眼球中心点,得到水平视线角度。然后通过一个实验系统校准所得到的视线角度。
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图1所示,是本发明方法的流程图,包括如下步骤:
步骤一:采用Kinect深度相机5捕捉人脸部2维图像和估计头部姿势。
本发明采用了微软推出的Kinect深度相机5,它有一个彩色摄像头和两个红外摄像头,本发明用它的彩色摄像头捕捉2维图像,用红外摄像头捕捉深度图。Kinect深度相机5能够直接得到人头部摇摆角度α,偏转角度β,倾斜角度γ和空间坐标系中各方向的平移分量Tx,Ty,Tz。其中平移矩阵T=(Tx,Ty,Tz),由这三个角度就可以通过公式(1)得到人头部的旋转矩阵R。
R = cos α cos γ - sin α sin β sin γ - cos β sin α cos α sin γ + cos γ sin α sin β cos γ sin α + cos α sin β sin γ cos α cos β sin α sin γ - cos α cos γ sin β - cos β sin γ sin β cos β cos γ - - - ( 19 ) ;
为了本发明的普遍适用性,本发明预设了一个头部坐标系中的眼球中心点经验值Chead,然后就可以通过得到的旋转矩阵R和平移矩阵T把Chead转换到Kinect坐标系中:
C=R*Chead+T(20)。
步骤二:从2维图像中采用梯度法定位瞳孔1中心点。
本发明先通过Kinect深度相机5定位到眼部区域,图2为眼部区域示意图,通过分析梯度值可以检测出虹膜2与巩膜3的边界。然后我们通过公式(3)计算虹膜2区域随机瞳孔1中心p*与虹膜2边界区域随机点qi的位移向量和qi的梯度值的数量积,其中得到的最大值就是最佳的瞳孔1中心点p。
p = argmax p * { 1 n Σ i = 1 n ( d i T g i ) 2 - - - ( 21 )
d i = q i - p * | | q i - p * | | 2 . ∀ i : | | g i | | 2 = 1 - - - ( 22 )
其中di是p*和qi的单位化位移向量,gi是qi的单位化梯度向量。通过公式(3)算出最大值,那么它就是最佳瞳孔1中心点p=(xp,yp)。其中p的位移方向和qi的梯度方向应该是一致的,如图3所示。
步骤三:利用Kinect深度相机5固有参数,得到3维坐标系中的瞳孔1中心点。
步骤二中得到了2维坐标系中瞳孔1中心坐标点p,因此通过Kinect深度相机5的固有参数,可以把它转换到Kinect深度相机5的3维坐标系中,如公式(5)所示:
x x p - c c e n t e r = - y y p - r c e n t e r = z λ - - - ( 23 )
其中P=(x,y,z)是瞳孔1中心的3维坐标,(ccenter,rcenter)是Kinect深度相机5的光轴和图像交点的列坐标和行坐标,也称为图像的中心坐标。λ是相机焦距。ccenter,rcenter和λ都是Kinect相机的内部参数。
步骤四:利用简化的3维眼球模型,估计水平视线角度。
本发明采用了一个如图4所示的简化3维眼球模型来建立特征点之间的关系。图中C是步骤(1)中得到的眼球中心点,P是步骤(3)中得到的瞳孔1中心点,Cp是角膜中心点。K,Ko,θ都是已知常量。
C p = K o K ( P - C ) + C - - - ( 24 )
得到Cp后就可以得到光轴向量然后计算得到视轴向量 其中M是视线点。
alpha=arctan(xcm/zcm)(26)
θ表示光轴和视轴的夹角,最终检测到的水平视线角度的测量值alpha,如图5所示。
步骤五:设计实验系统,校准得到水平视线角度。
为了校准步骤(4)得到的视线角度,本发明设计了一个实验系统,如图6所示。Kinect深度相机5在测试者前方70cm左右,且安放位置略低于测试者视线。Kinect深度相机5后面是一块可移动黑板6,测试者需要戴一个固定激光笔4的帽子,用来校准头部偏转。
在实际测量中,测试者需要坐直坐正,视线平视前方,将可移动黑板6上看到的首个点标记为0点,也称为定点。然后分别在定点的水平左右两边取若干点,通过保持瞳孔1直视前方的情况下分别左右水平转动头部,使得视线恰好到所标点处,在转动过程中保持头部中心点到可移动黑板6距离不变。为了便于视线恰好到达所标点处,本发明采用激光笔4校准头部偏转,激光笔4固定在头部正中心,激光线与测试者的视线保持水平。相同的,它在可移动黑板6上的首个点也标记为0点,且水平方向上其余点都与相应的视线点处于同一垂直方向,如图7中的视线点和激光点。
实验中测量值alpha是通过算法直接得到的,真实值是通过实际定点的坐标得到的,如图7所示。
其中0P是眼睛到可移动黑板6的距离,0i是0点到i点的距离。通过可移动黑板6到测试者的距离来改变真实值的角度,该方法比直接采用Kinect得到目标的真实值要更准确,实验时对每个人都要调整黑板6上视线点和激光点的位置及Kinect的高度。
通过实验得到测量值和真实值一一对应的数据后,本发明采用线性回归模型中的最小二乘法来对数据进行拟合。
y=ax+b(10)
其中x是测量值,y是校准后的角度。通过拟合得到系数a和b后就可以从测量值直接得到相应校准后的视线角度了。
通过本发明公开的上述技术方案,得到了如下有益效果:(1)采用Kinect深度相机5,头部自由运动不影响视线检测结果;(2)采用预设定的眼球中心点经验值,不需要单独对每个人的眼球点进行校准;(3)采用一个简化3维眼球模型,快速便捷地计算出视线角度;(4)设计了一个实验系统,用线性回归模型校准测量值。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (7)

1.一种基于深度相机的水平视角估计及校准方法,其特征在于,包括如下步骤:
步骤一:采用Kinect深度相机捕捉人脸部2D图像和估计头部姿势;
步骤二:在2D图像中定位最佳瞳孔中心点,得到最佳瞳孔中心点的2D坐标;
步骤三:利用Kinect深度相机的固有参数,将步骤二得到的最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中,得到最佳瞳孔中心点的3D坐标;
步骤四:利用3D眼球模型,估计水平视线角度;
步骤五:设计实验系统,校准得到的视线角度。
2.根据权利要求1所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤一具体包括如下步骤:
根据Kinect深度相机提供的头部倾斜角度γ、摇摆角度α、偏转角度β和空间坐标系中各方向的平移分量Tx,Ty,Tz,其中平移矩阵T=(Tx,Ty,Tz),计算头部的旋转矩阵R:
R = c o s α c o s γ - s i n α s i n β s i n γ - c o s β s i n α c o s α s i n γ + c o s γ s i n α s i n β c o s γ sin α + c o s α s i n β s i n γ cos α cos β s i n α s i n γ - c o s α c o s γ s i n β - cos β sin γ sin β c o s β c o s γ - - - ( 1 ) ;
预设头部坐标系中的眼球中心点经验值Chead,通过旋转矩阵R和平移矩阵T把Chead转换到Kinect深度相机的3D坐标系中,得到眼球中心点C:
C=R*Chead+T(2)。
3.根据权利要求2所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤二具体包括如下步骤:
通过Kinect深度相机定位到眼部区域,通过分析梯度值检测出眼部的虹膜和巩膜的边界,然后通过公式(3)计算虹膜区域随机瞳孔中心p*与虹膜边界区域随机点qi的位移向量和qi的梯度值的数量积,其中得到的最大值就是最佳的瞳孔中心点p=(xp,yp);
p = argmax p * { 1 n Σ i = 1 n ( d i T g i ) 2 - - - ( 3 )
d i = q i - p * | | q i - p * | | 2 . ∀ i : | | g i | | 2 = 1 - - - ( 4 )
其中:di是p*和qi的单位化位移向量,gi是qi的单位化梯度向量,p的位移方向和qi的梯度方向一致。
4.根据权利要求3所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤三中将最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中的具体方法为:
x x p - c c e n t e r = - y y p - r c e n t e r = z λ - - - ( 5 )
其中:P=(x,y,z)是最佳瞳孔中心的3D坐标,(ccenter,rcenter)是Kinect深度相机的光轴和图像交点的列坐标和行坐标,λ是相机焦距。
5.根据权利要求4所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤四具体包括如下步骤:
采用3D眼球模型建立特征点之间的关系,计算角膜中心点Cp
C p = K o K ( P - C ) + C - - - ( 6 )
其中:C是步骤一中得到的眼球中心点,P是步骤三中得到的瞳孔中心点,Ko表示角膜中心点Cp与眼球中心点C的直线距离,K是瞳孔中心点P与眼球中心点C的直线距离;
根据角膜中心点Cp计算得到光轴向量然后根据公式(7)计算视轴向量其中M是视线点;
alpha=arctan(xcm/zcm)(8)
θ表示光轴和视轴的夹角,为已知常量,得到最终的水平视线角度的测量值alpha。
6.根据权利要求5所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤五具体包括如下步骤:
步骤501:设计实验系统:令测试者、Kinect深度相机、可移动黑板按照从前至后排序,Kinect深度相机的高度低于测试者的水平视线高度;
步骤502:在实际测量中,令测试者坐直坐正,视线平视前方,将可移动黑板上看到的首个点标记为0点,也称为定点;然后分别在定点的水平左右两边取若干点,通过保持瞳孔直视前方的情况下分别左右水平转动头部,使得视线恰好到所标点处,在转动过程中保持头部中心点到可移动黑板距离不变;
步骤503:计算水平视线角度的真实值
其中:0P是眼睛到可移动黑板的距离,0i是0点到i点的距离;
步骤504:利用线性回归模型中的最小二乘法y=ax+b对所得到的测量值alpha和真实值进行拟合,其中:x是测量值,y是校准后的角度,通过拟合得到系数a和b后,就可以通过测量值计算得到相应校准后的水平视线角度。
7.根据权利要求6所述的基于深度相机的水平视角估计及校准方法,其特征在于,所述测试者头部还戴有固定激光笔的帽子,用于校准测试者头部偏转,激光笔在测试者头部正中心的正上方,且激光笔发出的光束与测试者水平视线相平行。
CN201610117934.2A 2016-03-02 2016-03-02 一种基于深度相机的水平视角估计及校准方法 Pending CN105740846A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610117934.2A CN105740846A (zh) 2016-03-02 2016-03-02 一种基于深度相机的水平视角估计及校准方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610117934.2A CN105740846A (zh) 2016-03-02 2016-03-02 一种基于深度相机的水平视角估计及校准方法

Publications (1)

Publication Number Publication Date
CN105740846A true CN105740846A (zh) 2016-07-06

Family

ID=56249022

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610117934.2A Pending CN105740846A (zh) 2016-03-02 2016-03-02 一种基于深度相机的水平视角估计及校准方法

Country Status (1)

Country Link
CN (1) CN105740846A (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106250839A (zh) * 2016-07-27 2016-12-21 徐鹤菲 一种虹膜图像透视校正方法、装置和移动终端
CN106529409A (zh) * 2016-10-10 2017-03-22 中山大学 一种基于头部姿态的眼睛注视视角测定方法
CN106843492A (zh) * 2017-02-08 2017-06-13 大连海事大学 一种多人视点校准系统及方法
CN107249126A (zh) * 2017-07-28 2017-10-13 华中科技大学 一种适用于自由视点三维视频的人眼注视方向跟踪方法
CN108140247A (zh) * 2015-10-05 2018-06-08 谷歌有限责任公司 使用合成图像的相机校准
CN108229284A (zh) * 2017-05-26 2018-06-29 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、系统、电子设备和存储介质
CN109145864A (zh) * 2018-09-07 2019-01-04 百度在线网络技术(北京)有限公司 确定视线区域的方法、装置、存储介质和终端设备
CN109508679A (zh) * 2018-11-19 2019-03-22 广东工业大学 实现眼球三维视线跟踪的方法、装置、设备及存储介质
CN110516548A (zh) * 2019-07-24 2019-11-29 浙江工业大学 一种基于三维眼球模型和Snakuscule的虹膜中心定位方法
CN110706268A (zh) * 2019-11-14 2020-01-17 维沃移动通信有限公司 一种距离调整方法及电子设备
CN110794963A (zh) * 2019-10-18 2020-02-14 天津理工大学 基于深度相机的眼控辅助输入方法
WO2020062523A1 (zh) * 2018-09-28 2020-04-02 北京市商汤科技开发有限公司 注视点判断方法和装置、电子设备和计算机存储介质
CN112099622A (zh) * 2020-08-13 2020-12-18 中国科学院深圳先进技术研究院 一种视线追踪方法及装置
CN112308932A (zh) * 2020-11-04 2021-02-02 中国科学院上海微系统与信息技术研究所 一种注视检测方法、装置、设备及存储介质
CN114706484A (zh) * 2022-04-18 2022-07-05 Oppo广东移动通信有限公司 视线坐标确定方法及装置、计算机可读介质和电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105303170A (zh) * 2015-10-16 2016-02-03 浙江工业大学 一种基于人眼特征的视线估计方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105303170A (zh) * 2015-10-16 2016-02-03 浙江工业大学 一种基于人眼特征的视线估计方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JIANFENG LI等: ""Gaze Estimation From Color Image Based on the Eye Model With Known Head Pose"", 《IEEE TRANSACTIONS ON HUMAN-MACHINE SYSTEMS》 *
LI JIANFENG等: ""Eye-Model-Based Gaze Estimation by RGB-D Camera"", 《2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 *

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108140247A (zh) * 2015-10-05 2018-06-08 谷歌有限责任公司 使用合成图像的相机校准
CN108140247B (zh) * 2015-10-05 2022-07-05 谷歌有限责任公司 用于使用合成图像的相机校准的方法和装置
CN106250839A (zh) * 2016-07-27 2016-12-21 徐鹤菲 一种虹膜图像透视校正方法、装置和移动终端
CN106529409A (zh) * 2016-10-10 2017-03-22 中山大学 一种基于头部姿态的眼睛注视视角测定方法
CN106843492A (zh) * 2017-02-08 2017-06-13 大连海事大学 一种多人视点校准系统及方法
CN106843492B (zh) * 2017-02-08 2023-08-29 大连海事大学 一种多人视点校准系统及方法
CN108229284B (zh) * 2017-05-26 2021-04-09 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、系统、电子设备和存储介质
CN108229284A (zh) * 2017-05-26 2018-06-29 北京市商汤科技开发有限公司 视线追踪及训练方法和装置、系统、电子设备和存储介质
CN107249126A (zh) * 2017-07-28 2017-10-13 华中科技大学 一种适用于自由视点三维视频的人眼注视方向跟踪方法
CN109145864A (zh) * 2018-09-07 2019-01-04 百度在线网络技术(北京)有限公司 确定视线区域的方法、装置、存储介质和终端设备
US11295474B2 (en) 2018-09-28 2022-04-05 Beijing Sensetime Technology Development Co., Ltd. Gaze point determination method and apparatus, electronic device, and computer storage medium
WO2020062523A1 (zh) * 2018-09-28 2020-04-02 北京市商汤科技开发有限公司 注视点判断方法和装置、电子设备和计算机存储介质
CN109508679B (zh) * 2018-11-19 2023-02-10 广东工业大学 实现眼球三维视线跟踪的方法、装置、设备及存储介质
CN109508679A (zh) * 2018-11-19 2019-03-22 广东工业大学 实现眼球三维视线跟踪的方法、装置、设备及存储介质
CN110516548A (zh) * 2019-07-24 2019-11-29 浙江工业大学 一种基于三维眼球模型和Snakuscule的虹膜中心定位方法
CN110794963A (zh) * 2019-10-18 2020-02-14 天津理工大学 基于深度相机的眼控辅助输入方法
CN110706268A (zh) * 2019-11-14 2020-01-17 维沃移动通信有限公司 一种距离调整方法及电子设备
CN110706268B (zh) * 2019-11-14 2022-12-27 维沃移动通信有限公司 一种距离调整方法及电子设备
CN112099622A (zh) * 2020-08-13 2020-12-18 中国科学院深圳先进技术研究院 一种视线追踪方法及装置
CN112308932A (zh) * 2020-11-04 2021-02-02 中国科学院上海微系统与信息技术研究所 一种注视检测方法、装置、设备及存储介质
CN112308932B (zh) * 2020-11-04 2023-12-08 中国科学院上海微系统与信息技术研究所 一种注视检测方法、装置、设备及存储介质
CN114706484A (zh) * 2022-04-18 2022-07-05 Oppo广东移动通信有限公司 视线坐标确定方法及装置、计算机可读介质和电子设备

Similar Documents

Publication Publication Date Title
CN105740846A (zh) 一种基于深度相机的水平视角估计及校准方法
CN101901485B (zh) 3d自由头动式视线跟踪系统
CN108351514B (zh) 使用结构光的眼睛追踪
Shih et al. A novel approach to 3-D gaze tracking using stereo cameras
CN105138965B (zh) 一种近眼式视线跟踪方法及其系统
Morimoto et al. Detecting eye position and gaze from a single camera and 2 light sources
CN105094300B (zh) 一种基于标准化眼睛图像的视线追踪系统及方法
CN105303170B (zh) 一种基于人眼特征的视线估计方法
Brolly et al. Implicit calibration of a remote gaze tracker
US11789295B2 (en) Computer-implemented method for determining centration parameters
CN110032278A (zh) 一种人眼感兴趣物体的位姿识别方法、装置及系统
CN102125422A (zh) 视线追踪系统中基于瞳孔-角膜反射的视线估计方法
CN104809424B (zh) 一种基于虹膜特征实现视线追踪的方法
CN103761519A (zh) 一种基于自适应校准的非接触式视线追踪方法
CN113808160B (zh) 视线方向追踪方法和装置
CN106168853A (zh) 一种自由空间头戴式视线跟踪系统
Li et al. Gaze estimation from color image based on the eye model with known head pose
JP6596678B2 (ja) 視線測定装置および視線測定方法
US20150029322A1 (en) Method and computations for calculating an optical axis vector of an imaged eye
CN104951808A (zh) 一种用于机器人交互对象检测的3d视线方向估计方法
CN109859272A (zh) 一种自动对焦双目摄像头标定方法及装置
US20220207919A1 (en) Methods, devices and systems for determining eye parameters
CA3085733A1 (en) System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping
CN109886173A (zh) 基于视觉的侧脸姿态解算方法及情绪感知自主服务机器人
JPH0351407B2 (zh)

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20160706

RJ01 Rejection of invention patent application after publication