CN105740846A - 一种基于深度相机的水平视角估计及校准方法 - Google Patents
一种基于深度相机的水平视角估计及校准方法 Download PDFInfo
- Publication number
- CN105740846A CN105740846A CN201610117934.2A CN201610117934A CN105740846A CN 105740846 A CN105740846 A CN 105740846A CN 201610117934 A CN201610117934 A CN 201610117934A CN 105740846 A CN105740846 A CN 105740846A
- Authority
- CN
- China
- Prior art keywords
- point
- depth camera
- alpha
- head
- gamma
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 21
- 230000000007 visual effect Effects 0.000 title abstract description 3
- 210000003128 head Anatomy 0.000 claims abstract description 33
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 28
- 230000003287 optical effect Effects 0.000 claims description 15
- 210000001747 pupil Anatomy 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 12
- 238000012417 linear regression Methods 0.000 claims description 10
- 238000002474 experimental method Methods 0.000 claims description 8
- 210000001508 eye Anatomy 0.000 claims description 8
- 238000013519 translation Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 210000003786 sclera Anatomy 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 238000012423 maintenance Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 2
- 230000007257 malfunction Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 206010016256 fatigue Diseases 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/005—General purpose rendering architectures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Graphics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开了一种基于深度相机的水平视角估计及校准方法,采用Kinect深度相机捕捉人脸部2D图像和估计头部姿势;在2D图像中定位最佳瞳孔中心点,得到最佳瞳孔中心点的2D坐标;利用Kinect深度相机的固有参数,将步骤二得到的最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中,得到最佳瞳孔中心点的3D坐标;利用3D眼球模型,估计水平视线角度;设计实验系统,校准得到的视线角度。本发明方法操作简便、实时性好、成本低廉、对测试者头部无约束且精度高。
Description
技术领域
本发明涉及一种基于深度相机的水平视角估计及校准方法,属于视线追踪技术领域。
背景技术
视线检测技术是目前国内外一个热门的研究课题,它在人机交互,残疾人交流,安全监控和疲劳驾驶中都有着广泛的应用。通常,其检测方法分为两类:基于外表的方法和基于模型的方法。前者建立一个从高维特征到低维目标空间的映射关系,后者一般是根据头部和眼部的特征来建立3D模型。
目前,市场上基于视线检测的眼动仪还存在着明显的缺陷:第一,检测设备复杂,成本高;第二,对头部限制大,操作不灵活;第三,精度低,无法推广。
发明内容
本发明的目的在于克服现有技术中的不足,提供一种基于深度相机的水平视角估计及校准方法,解决现有技术中视觉检测设备复杂、成本高、对头部限制大,操作不灵活且精度低,无法推广的技术问题。
为解决上述技术问题,本发明所采用的技术方案是:一种基于深度相机的水平视角估计及校准方法,包括如下步骤:
步骤一:采用Kinect深度相机捕捉人脸部2D图像和估计头部姿势;
步骤二:在2D图像中定位最佳瞳孔中心点,得到最佳瞳孔中心点的2D坐标;
步骤三:利用Kinect深度相机的固有参数,将步骤二得到的最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中,得到最佳瞳孔中心点的3D坐标;
步骤四:利用3D眼球模型,估计水平视线角度;
步骤五:设计实验系统,校准得到的视线角度。
步骤一具体包括如下步骤:
根据Kinect深度相机提供的头部倾斜角度γ、摇摆角度α、偏转角度β和空间坐标系中各方向的平移分量Tx,Ty,Tz,其中平移矩阵T=(Tx,Ty,Tz),计算头部的旋转矩阵R:
预设头部坐标系中的眼球中心点经验值Chead,通过旋转矩阵R和平移矩阵T把Chead转换到Kinect深度相机的3D坐标系中,得到眼球中心点C:
C=R*Chead+T(11)。
步骤二具体包括如下步骤:
通过Kinect深度相机定位到眼部区域,通过分析梯度值检测出眼部的虹膜和巩膜的边界,然后通过公式(3)计算虹膜区域随机瞳孔中心p*与虹膜边界区域随机点qi的位移向量和qi的梯度值的数量积,其中得到的最大值就是最佳的瞳孔中心点p=(xp,yp);
其中:di是p*和qi的单位化位移向量,gi是qi的单位化梯度向量,p的位移方向和qi的梯度方向一致。
步骤三中将最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中的具体方法为:
其中:P=(x,y,z)是最佳瞳孔中心的3D坐标,(ccenter,rcenter)是Kinect深度相机的光轴和图像交点的列坐标和行坐标,λ是相机焦距。
步骤四具体包括如下步骤:
采用3D眼球模型建立特征点之间的关系,计算角膜中心点Cp:
其中:C是步骤一中得到的眼球中心点,P是步骤三中得到的瞳孔中心点,Ko表示角膜中心点Cp与眼球中心点C的直线距离,K是瞳孔中心点P与眼球中心点C的直线距离;
根据角膜中心点Cp计算得到光轴向量然后根据公式(7)计算视轴向量其中M是视线点;
alpha=arctan(xcm/zcm)(17)
θ表示光轴和视轴的夹角,为已知常量,得到最终的水平视线角度的测量值alpha。
步骤五具体包括如下步骤:
步骤501:设计实验系统:令测试者、Kinect深度相机、可移动黑板按照从前至后排序,Kinect深度相机的高度低于测试者的水平视线高度;
步骤502:在实际测量中,令测试者坐直坐正,视线平视前方,将可移动黑板上看到的首个点标记为0点,也称为定点;然后分别在定点的水平左右两边取若干点,通过保持瞳孔直视前方的情况下分别左右水平转动头部,使得视线恰好到所标点处,在转动过程中保持头部中心点到可移动黑板距离不变;
步骤503:计算水平视线角度的真实值
其中:0P是眼睛到可移动黑板的距离,0i是0点到i点的距离;
步骤504:利用线性回归模型中的最小二乘法y=ax+b对所得到的测量值alpha和真实值进行拟合,其中:x是测量值,y是校准后的角度,通过拟合得到系数a和b后,就可以通过测量值计算得到相应校准后的水平视线角度。
所述测试者头部还戴有固定激光笔的帽子,用于校准测试者头部偏转,激光笔在测试者头部正中心的正上方,且激光笔发出的光束与测试者水平视线相平行。
与现有技术相比,本发明所达到的有益效果是:,采用Kinect深度相机,用户头部可自由转动不影响视线检测结果,检测设备简单,成本低廉;采用预设定的眼球中心点经验值,算法不需要对个人进行眼球中心点单独标定,具有实时性,高效性和普遍适用性,精确度高;采用一个简化3维眼球模型,设计了一个实验系统,用线性回归模型校准测量值,快速便捷地计算出水平视线角度。
附图说明
图1本发明方法的流程图。
图2眼部区域示意图。
图3瞳孔中心定位方法图。
图4三维眼球模型图。
图5水平视线角度图。
图6实验系统图。
图7实验操作图。
其中:1、瞳孔;2、虹膜;3、巩膜;4、激光笔;5、Kinect深度相机;6、可移动黑板。
具体实施方式
本发明是基于深度相机5的水平视角估计及校准方法,该方法采用Kinect深度相机5获取脸部特征点的3维坐标,通过一个瞳孔1定位算法,3D眼球模型及预设定的眼球中心点,得到水平视线角度。然后通过一个实验系统校准所得到的视线角度。
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图1所示,是本发明方法的流程图,包括如下步骤:
步骤一:采用Kinect深度相机5捕捉人脸部2维图像和估计头部姿势。
本发明采用了微软推出的Kinect深度相机5,它有一个彩色摄像头和两个红外摄像头,本发明用它的彩色摄像头捕捉2维图像,用红外摄像头捕捉深度图。Kinect深度相机5能够直接得到人头部摇摆角度α,偏转角度β,倾斜角度γ和空间坐标系中各方向的平移分量Tx,Ty,Tz。其中平移矩阵T=(Tx,Ty,Tz),由这三个角度就可以通过公式(1)得到人头部的旋转矩阵R。
为了本发明的普遍适用性,本发明预设了一个头部坐标系中的眼球中心点经验值Chead,然后就可以通过得到的旋转矩阵R和平移矩阵T把Chead转换到Kinect坐标系中:
C=R*Chead+T(20)。
步骤二:从2维图像中采用梯度法定位瞳孔1中心点。
本发明先通过Kinect深度相机5定位到眼部区域,图2为眼部区域示意图,通过分析梯度值可以检测出虹膜2与巩膜3的边界。然后我们通过公式(3)计算虹膜2区域随机瞳孔1中心p*与虹膜2边界区域随机点qi的位移向量和qi的梯度值的数量积,其中得到的最大值就是最佳的瞳孔1中心点p。
其中di是p*和qi的单位化位移向量,gi是qi的单位化梯度向量。通过公式(3)算出最大值,那么它就是最佳瞳孔1中心点p=(xp,yp)。其中p的位移方向和qi的梯度方向应该是一致的,如图3所示。
步骤三:利用Kinect深度相机5固有参数,得到3维坐标系中的瞳孔1中心点。
步骤二中得到了2维坐标系中瞳孔1中心坐标点p,因此通过Kinect深度相机5的固有参数,可以把它转换到Kinect深度相机5的3维坐标系中,如公式(5)所示:
其中P=(x,y,z)是瞳孔1中心的3维坐标,(ccenter,rcenter)是Kinect深度相机5的光轴和图像交点的列坐标和行坐标,也称为图像的中心坐标。λ是相机焦距。ccenter,rcenter和λ都是Kinect相机的内部参数。
步骤四:利用简化的3维眼球模型,估计水平视线角度。
本发明采用了一个如图4所示的简化3维眼球模型来建立特征点之间的关系。图中C是步骤(1)中得到的眼球中心点,P是步骤(3)中得到的瞳孔1中心点,Cp是角膜中心点。K,Ko,θ都是已知常量。
得到Cp后就可以得到光轴向量然后计算得到视轴向量 其中M是视线点。
alpha=arctan(xcm/zcm)(26)
θ表示光轴和视轴的夹角,最终检测到的水平视线角度的测量值alpha,如图5所示。
步骤五:设计实验系统,校准得到水平视线角度。
为了校准步骤(4)得到的视线角度,本发明设计了一个实验系统,如图6所示。Kinect深度相机5在测试者前方70cm左右,且安放位置略低于测试者视线。Kinect深度相机5后面是一块可移动黑板6,测试者需要戴一个固定激光笔4的帽子,用来校准头部偏转。
在实际测量中,测试者需要坐直坐正,视线平视前方,将可移动黑板6上看到的首个点标记为0点,也称为定点。然后分别在定点的水平左右两边取若干点,通过保持瞳孔1直视前方的情况下分别左右水平转动头部,使得视线恰好到所标点处,在转动过程中保持头部中心点到可移动黑板6距离不变。为了便于视线恰好到达所标点处,本发明采用激光笔4校准头部偏转,激光笔4固定在头部正中心,激光线与测试者的视线保持水平。相同的,它在可移动黑板6上的首个点也标记为0点,且水平方向上其余点都与相应的视线点处于同一垂直方向,如图7中的视线点和激光点。
实验中测量值alpha是通过算法直接得到的,真实值是通过实际定点的坐标得到的,如图7所示。
其中0P是眼睛到可移动黑板6的距离,0i是0点到i点的距离。通过可移动黑板6到测试者的距离来改变真实值的角度,该方法比直接采用Kinect得到目标的真实值要更准确,实验时对每个人都要调整黑板6上视线点和激光点的位置及Kinect的高度。
通过实验得到测量值和真实值一一对应的数据后,本发明采用线性回归模型中的最小二乘法来对数据进行拟合。
y=ax+b(10)
其中x是测量值,y是校准后的角度。通过拟合得到系数a和b后就可以从测量值直接得到相应校准后的视线角度了。
通过本发明公开的上述技术方案,得到了如下有益效果:(1)采用Kinect深度相机5,头部自由运动不影响视线检测结果;(2)采用预设定的眼球中心点经验值,不需要单独对每个人的眼球点进行校准;(3)采用一个简化3维眼球模型,快速便捷地计算出视线角度;(4)设计了一个实验系统,用线性回归模型校准测量值。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (7)
1.一种基于深度相机的水平视角估计及校准方法,其特征在于,包括如下步骤:
步骤一:采用Kinect深度相机捕捉人脸部2D图像和估计头部姿势;
步骤二:在2D图像中定位最佳瞳孔中心点,得到最佳瞳孔中心点的2D坐标;
步骤三:利用Kinect深度相机的固有参数,将步骤二得到的最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中,得到最佳瞳孔中心点的3D坐标;
步骤四:利用3D眼球模型,估计水平视线角度;
步骤五:设计实验系统,校准得到的视线角度。
2.根据权利要求1所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤一具体包括如下步骤:
根据Kinect深度相机提供的头部倾斜角度γ、摇摆角度α、偏转角度β和空间坐标系中各方向的平移分量Tx,Ty,Tz,其中平移矩阵T=(Tx,Ty,Tz),计算头部的旋转矩阵R:
预设头部坐标系中的眼球中心点经验值Chead,通过旋转矩阵R和平移矩阵T把Chead转换到Kinect深度相机的3D坐标系中,得到眼球中心点C:
C=R*Chead+T(2)。
3.根据权利要求2所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤二具体包括如下步骤:
通过Kinect深度相机定位到眼部区域,通过分析梯度值检测出眼部的虹膜和巩膜的边界,然后通过公式(3)计算虹膜区域随机瞳孔中心p*与虹膜边界区域随机点qi的位移向量和qi的梯度值的数量积,其中得到的最大值就是最佳的瞳孔中心点p=(xp,yp);
其中:di是p*和qi的单位化位移向量,gi是qi的单位化梯度向量,p的位移方向和qi的梯度方向一致。
4.根据权利要求3所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤三中将最佳瞳孔中心点的2D坐标转换到Kinect深度相机的3D坐标系中的具体方法为:
其中:P=(x,y,z)是最佳瞳孔中心的3D坐标,(ccenter,rcenter)是Kinect深度相机的光轴和图像交点的列坐标和行坐标,λ是相机焦距。
5.根据权利要求4所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤四具体包括如下步骤:
采用3D眼球模型建立特征点之间的关系,计算角膜中心点Cp:
其中:C是步骤一中得到的眼球中心点,P是步骤三中得到的瞳孔中心点,Ko表示角膜中心点Cp与眼球中心点C的直线距离,K是瞳孔中心点P与眼球中心点C的直线距离;
根据角膜中心点Cp计算得到光轴向量然后根据公式(7)计算视轴向量其中M是视线点;
alpha=arctan(xcm/zcm)(8)
θ表示光轴和视轴的夹角,为已知常量,得到最终的水平视线角度的测量值alpha。
6.根据权利要求5所述的基于深度相机的水平视角估计及校准方法,其特征在于,步骤五具体包括如下步骤:
步骤501:设计实验系统:令测试者、Kinect深度相机、可移动黑板按照从前至后排序,Kinect深度相机的高度低于测试者的水平视线高度;
步骤502:在实际测量中,令测试者坐直坐正,视线平视前方,将可移动黑板上看到的首个点标记为0点,也称为定点;然后分别在定点的水平左右两边取若干点,通过保持瞳孔直视前方的情况下分别左右水平转动头部,使得视线恰好到所标点处,在转动过程中保持头部中心点到可移动黑板距离不变;
步骤503:计算水平视线角度的真实值
其中:0P是眼睛到可移动黑板的距离,0i是0点到i点的距离;
步骤504:利用线性回归模型中的最小二乘法y=ax+b对所得到的测量值alpha和真实值进行拟合,其中:x是测量值,y是校准后的角度,通过拟合得到系数a和b后,就可以通过测量值计算得到相应校准后的水平视线角度。
7.根据权利要求6所述的基于深度相机的水平视角估计及校准方法,其特征在于,所述测试者头部还戴有固定激光笔的帽子,用于校准测试者头部偏转,激光笔在测试者头部正中心的正上方,且激光笔发出的光束与测试者水平视线相平行。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610117934.2A CN105740846A (zh) | 2016-03-02 | 2016-03-02 | 一种基于深度相机的水平视角估计及校准方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610117934.2A CN105740846A (zh) | 2016-03-02 | 2016-03-02 | 一种基于深度相机的水平视角估计及校准方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105740846A true CN105740846A (zh) | 2016-07-06 |
Family
ID=56249022
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610117934.2A Pending CN105740846A (zh) | 2016-03-02 | 2016-03-02 | 一种基于深度相机的水平视角估计及校准方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105740846A (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106250839A (zh) * | 2016-07-27 | 2016-12-21 | 徐鹤菲 | 一种虹膜图像透视校正方法、装置和移动终端 |
CN106529409A (zh) * | 2016-10-10 | 2017-03-22 | 中山大学 | 一种基于头部姿态的眼睛注视视角测定方法 |
CN106843492A (zh) * | 2017-02-08 | 2017-06-13 | 大连海事大学 | 一种多人视点校准系统及方法 |
CN107249126A (zh) * | 2017-07-28 | 2017-10-13 | 华中科技大学 | 一种适用于自由视点三维视频的人眼注视方向跟踪方法 |
CN108140247A (zh) * | 2015-10-05 | 2018-06-08 | 谷歌有限责任公司 | 使用合成图像的相机校准 |
CN108229284A (zh) * | 2017-05-26 | 2018-06-29 | 北京市商汤科技开发有限公司 | 视线追踪及训练方法和装置、系统、电子设备和存储介质 |
CN109145864A (zh) * | 2018-09-07 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 确定视线区域的方法、装置、存储介质和终端设备 |
CN109508679A (zh) * | 2018-11-19 | 2019-03-22 | 广东工业大学 | 实现眼球三维视线跟踪的方法、装置、设备及存储介质 |
CN110516548A (zh) * | 2019-07-24 | 2019-11-29 | 浙江工业大学 | 一种基于三维眼球模型和Snakuscule的虹膜中心定位方法 |
CN110706268A (zh) * | 2019-11-14 | 2020-01-17 | 维沃移动通信有限公司 | 一种距离调整方法及电子设备 |
CN110794963A (zh) * | 2019-10-18 | 2020-02-14 | 天津理工大学 | 基于深度相机的眼控辅助输入方法 |
WO2020062523A1 (zh) * | 2018-09-28 | 2020-04-02 | 北京市商汤科技开发有限公司 | 注视点判断方法和装置、电子设备和计算机存储介质 |
CN112099622A (zh) * | 2020-08-13 | 2020-12-18 | 中国科学院深圳先进技术研究院 | 一种视线追踪方法及装置 |
CN112308932A (zh) * | 2020-11-04 | 2021-02-02 | 中国科学院上海微系统与信息技术研究所 | 一种注视检测方法、装置、设备及存储介质 |
CN114706484A (zh) * | 2022-04-18 | 2022-07-05 | Oppo广东移动通信有限公司 | 视线坐标确定方法及装置、计算机可读介质和电子设备 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105303170A (zh) * | 2015-10-16 | 2016-02-03 | 浙江工业大学 | 一种基于人眼特征的视线估计方法 |
-
2016
- 2016-03-02 CN CN201610117934.2A patent/CN105740846A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105303170A (zh) * | 2015-10-16 | 2016-02-03 | 浙江工业大学 | 一种基于人眼特征的视线估计方法 |
Non-Patent Citations (2)
Title |
---|
JIANFENG LI等: ""Gaze Estimation From Color Image Based on the Eye Model With Known Head Pose"", 《IEEE TRANSACTIONS ON HUMAN-MACHINE SYSTEMS》 * |
LI JIANFENG等: ""Eye-Model-Based Gaze Estimation by RGB-D Camera"", 《2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS》 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108140247A (zh) * | 2015-10-05 | 2018-06-08 | 谷歌有限责任公司 | 使用合成图像的相机校准 |
CN108140247B (zh) * | 2015-10-05 | 2022-07-05 | 谷歌有限责任公司 | 用于使用合成图像的相机校准的方法和装置 |
CN106250839A (zh) * | 2016-07-27 | 2016-12-21 | 徐鹤菲 | 一种虹膜图像透视校正方法、装置和移动终端 |
CN106529409A (zh) * | 2016-10-10 | 2017-03-22 | 中山大学 | 一种基于头部姿态的眼睛注视视角测定方法 |
CN106843492A (zh) * | 2017-02-08 | 2017-06-13 | 大连海事大学 | 一种多人视点校准系统及方法 |
CN106843492B (zh) * | 2017-02-08 | 2023-08-29 | 大连海事大学 | 一种多人视点校准系统及方法 |
CN108229284B (zh) * | 2017-05-26 | 2021-04-09 | 北京市商汤科技开发有限公司 | 视线追踪及训练方法和装置、系统、电子设备和存储介质 |
CN108229284A (zh) * | 2017-05-26 | 2018-06-29 | 北京市商汤科技开发有限公司 | 视线追踪及训练方法和装置、系统、电子设备和存储介质 |
CN107249126A (zh) * | 2017-07-28 | 2017-10-13 | 华中科技大学 | 一种适用于自由视点三维视频的人眼注视方向跟踪方法 |
CN109145864A (zh) * | 2018-09-07 | 2019-01-04 | 百度在线网络技术(北京)有限公司 | 确定视线区域的方法、装置、存储介质和终端设备 |
US11295474B2 (en) | 2018-09-28 | 2022-04-05 | Beijing Sensetime Technology Development Co., Ltd. | Gaze point determination method and apparatus, electronic device, and computer storage medium |
WO2020062523A1 (zh) * | 2018-09-28 | 2020-04-02 | 北京市商汤科技开发有限公司 | 注视点判断方法和装置、电子设备和计算机存储介质 |
CN109508679B (zh) * | 2018-11-19 | 2023-02-10 | 广东工业大学 | 实现眼球三维视线跟踪的方法、装置、设备及存储介质 |
CN109508679A (zh) * | 2018-11-19 | 2019-03-22 | 广东工业大学 | 实现眼球三维视线跟踪的方法、装置、设备及存储介质 |
CN110516548A (zh) * | 2019-07-24 | 2019-11-29 | 浙江工业大学 | 一种基于三维眼球模型和Snakuscule的虹膜中心定位方法 |
CN110794963A (zh) * | 2019-10-18 | 2020-02-14 | 天津理工大学 | 基于深度相机的眼控辅助输入方法 |
CN110706268A (zh) * | 2019-11-14 | 2020-01-17 | 维沃移动通信有限公司 | 一种距离调整方法及电子设备 |
CN110706268B (zh) * | 2019-11-14 | 2022-12-27 | 维沃移动通信有限公司 | 一种距离调整方法及电子设备 |
CN112099622A (zh) * | 2020-08-13 | 2020-12-18 | 中国科学院深圳先进技术研究院 | 一种视线追踪方法及装置 |
CN112308932A (zh) * | 2020-11-04 | 2021-02-02 | 中国科学院上海微系统与信息技术研究所 | 一种注视检测方法、装置、设备及存储介质 |
CN112308932B (zh) * | 2020-11-04 | 2023-12-08 | 中国科学院上海微系统与信息技术研究所 | 一种注视检测方法、装置、设备及存储介质 |
CN114706484A (zh) * | 2022-04-18 | 2022-07-05 | Oppo广东移动通信有限公司 | 视线坐标确定方法及装置、计算机可读介质和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105740846A (zh) | 一种基于深度相机的水平视角估计及校准方法 | |
CN101901485B (zh) | 3d自由头动式视线跟踪系统 | |
CN108351514B (zh) | 使用结构光的眼睛追踪 | |
Shih et al. | A novel approach to 3-D gaze tracking using stereo cameras | |
CN105138965B (zh) | 一种近眼式视线跟踪方法及其系统 | |
Morimoto et al. | Detecting eye position and gaze from a single camera and 2 light sources | |
CN105094300B (zh) | 一种基于标准化眼睛图像的视线追踪系统及方法 | |
CN105303170B (zh) | 一种基于人眼特征的视线估计方法 | |
Brolly et al. | Implicit calibration of a remote gaze tracker | |
US11789295B2 (en) | Computer-implemented method for determining centration parameters | |
CN110032278A (zh) | 一种人眼感兴趣物体的位姿识别方法、装置及系统 | |
CN102125422A (zh) | 视线追踪系统中基于瞳孔-角膜反射的视线估计方法 | |
CN104809424B (zh) | 一种基于虹膜特征实现视线追踪的方法 | |
CN103761519A (zh) | 一种基于自适应校准的非接触式视线追踪方法 | |
CN113808160B (zh) | 视线方向追踪方法和装置 | |
CN106168853A (zh) | 一种自由空间头戴式视线跟踪系统 | |
Li et al. | Gaze estimation from color image based on the eye model with known head pose | |
JP6596678B2 (ja) | 視線測定装置および視線測定方法 | |
US20150029322A1 (en) | Method and computations for calculating an optical axis vector of an imaged eye | |
CN104951808A (zh) | 一种用于机器人交互对象检测的3d视线方向估计方法 | |
CN109859272A (zh) | 一种自动对焦双目摄像头标定方法及装置 | |
US20220207919A1 (en) | Methods, devices and systems for determining eye parameters | |
CA3085733A1 (en) | System and method of obtaining fit and fabrication measurements for eyeglasses using simultaneous localization and mapping | |
CN109886173A (zh) | 基于视觉的侧脸姿态解算方法及情绪感知自主服务机器人 | |
JPH0351407B2 (zh) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160706 |
|
RJ01 | Rejection of invention patent application after publication |