CN113903079A - 一种基于集成化微小型头戴式系统的视线估计方法 - Google Patents
一种基于集成化微小型头戴式系统的视线估计方法 Download PDFInfo
- Publication number
- CN113903079A CN113903079A CN202010642865.3A CN202010642865A CN113903079A CN 113903079 A CN113903079 A CN 113903079A CN 202010642865 A CN202010642865 A CN 202010642865A CN 113903079 A CN113903079 A CN 113903079A
- Authority
- CN
- China
- Prior art keywords
- pixel
- eyeball
- axis
- point
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 210000001508 eye Anatomy 0.000 claims abstract description 33
- 210000005252 bulbus oculi Anatomy 0.000 claims description 88
- 230000003287 optical effect Effects 0.000 claims description 49
- 238000013507 mapping Methods 0.000 claims description 38
- 230000000007 visual effect Effects 0.000 claims description 15
- 238000003384 imaging method Methods 0.000 claims description 9
- 210000004087 cornea Anatomy 0.000 claims description 8
- 210000001747 pupil Anatomy 0.000 claims description 7
- 210000003128 head Anatomy 0.000 claims description 6
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 13
- 230000008569 process Effects 0.000 abstract description 11
- 238000012549 training Methods 0.000 abstract description 7
- 238000013461 design Methods 0.000 abstract description 6
- 230000004438 eyesight Effects 0.000 abstract description 6
- 230000007613 environmental effect Effects 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 230000003993 interaction Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/66—Analysis of geometric attributes of image moments or centre of gravity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明公开了一种基于集成化微小型头戴式系统的视线估计方法,相较于台式视线估计装置和2个摄像头多个光源的双目视觉视线估计装置,本发明以1个微距红外摄像头、2个近红外光源即可实现视线估计,实现集成化微小型设计,大幅降低设备功耗和对数据处理模块性能要求,减小装置对使用者负担。相较于多点标定训练,单点单次标定仅需对1个标定点进行1次注视,且使用过程中无训练拟合过程,大幅缩短了标定时间,提高了使用效率,减少了标定过程对使用者干扰,且可在使用过程中进行标定,保持视线估计精度。本发明可适用于单眼、双眼视线估计;使用单眼视线估计时,对不进行视线估计的眼睛无干扰,使用者可观察获取环境信息,双手可同时执行其它任务。
Description
技术领域
本发明属于穿戴式智能设备技术领域,具体涉及一种基于集成化微小型头戴式系统的视线估计方法。
背景技术
视线估计技术利用测量设备记录人眼运动,从而实现对人眼视线的实时估计。通过人眼视线实现人机交互,具有较高的实时性和准确性,可作为复杂工作环境下的操控手段,减小使用者手动操控负担。本发明可用于用于军事领域,例如控制武器云台瞄准射击;科考领域,例如控制机械臂进行抓取、放置操作;医疗领域,例如进行心理学诊断;商业领域,例如人机交互优化、广告兴趣调查;以及助残等其它领域,具有十分广泛的应用。
目前,视线估计设备主要分为桌面式视线估计设备和头戴式视线估计设备。桌面式视线估计设备多应用于室内固定场景,无法在运动场景中应用;且对使用者头部位姿具有严格要求,对使用者限制较大。现有的头戴式视线估计设备原理主要包括两种:一种是检测瞳孔中心或瞳孔中心-角膜光斑向量作为输入量,通过多个标定点进行复杂繁琐的标定和训练,建立输入量与注视点之间映射关系;另一种是利用双目视觉原理,获取眼球表面局部区域内几点的三维信息进行视线估计。第一种方法标定和训练过程繁琐,耗时较长,对使用者干扰较大,难以实际应用。第二种方法一般利用双眼进行视线估计,通过双眼视线求解注视点;即使对一个眼睛进行视线估计,也需要2个相机和不少于4个光源进行视线估计。其中,为保证双目视觉精度,2个相机需相距一定距离、成一定角度排列;为保证准确提取光斑,多个光源需均匀分散排布。为满足上述要求,使用双目视觉原理的头戴式视线估计装置一般体积较大,难以实现集成化微小型,影响使用者佩戴使用;且图像处理、光斑检测任务工作量大,每进行1次视线估计需处理4张图像、不少于16个光斑,对数据处理设备性能有较高要求,导致数据处理设备功耗较高、体积重量较大;若对双眼进行视线估计,使用者无法观察获取场景信息,虽能解放双手操作,但双手难以从事其它工作。
发明内容
有鉴于此,本发明的目的是提供一种基于集成化微小型头戴式系统的视线估计方法,无需繁琐标定训练过程,单一标定点单次标定即可实现高精度的视线估计;本系统装置结构微型化、紧凑化、轻量化,减小对使用者干扰。
一种视线估计方法,包括如下步骤:
步骤1、人头部前方设置广角摄像头,用于获取场景图像,并在眼前方设置头戴显示器上显示该图像,向人眼提供场景图像;头戴式显示器上方和下方分别设置第一近红外光源和第二近红外光源,用于分别在人眼角膜上投射一个光斑;头戴式显示器下方设置微距红外摄像头,用于拍摄人眼及角膜上光斑的图像;建立如下空间直角坐标系:定义与头戴显示器表面垂直并指向两眼球中心点的方向为x轴方向,x轴与头戴显示器表面交点为原点O;与显示器表面平行,并沿两个近红外光源连线向上为z轴,y轴由x轴和z轴根据右手螺旋定则确定;
步骤2、获得光斑1与光斑2像素距离与成像平面与坐标原点O距离之间的映射函数;
步骤3、调整头戴式显示器位置,使眼睛正对头戴式显示器屏幕,即眼球中心大致在x轴上;利用步骤2获得的映射函数解得2个光斑所在平面与头戴式显示器屏幕距离lp1;根据解剖学眼球模型取眼球半径为标准值rp,则得光斑所在平面与眼球中心距离lp2:
其中,dp为两个光斑间实际距离;则两眼球中心点坐标为(lp1+lp2,0,0);
步骤4、利用微距红外摄像头内参数求解角度映射关系式:相机画面的水平方向上,设场景长度为w,对应微距红外摄像头水平方向视场角为α,摄像机水平方向分辨率为wpixel;成像平面上像素长度ew_pixel,对应场景平面中实际长度ew,对应摄像机水平方向视场角为αe,场景平面与镜头平面距离为d,得方程组:
同理得竖直方向上角度映射函数F(eh_pixel):
式中,βe为目标图像竖直方向上像素长度eh_pixel对应的角度,hpixel为目标摄像机竖直方向分辨率,β为目标摄像机竖直方向视场角;
步骤5、将眼球光轴投影在xOz平面和xOy平面上,对眼球光轴位姿进行求解,具体为:在xOz平面内对眼球光轴投影进行求解:由于红外摄像头主轴在xOz平面内与x轴夹角为β0;定义红外摄像头中心点为C点,其坐标为(0,0,zc);瞳孔中心对应视场角β1;A点为经过C点出发平行于x轴的射线上任意一点;B点为红外摄像头光轴上一点;
根据相机拍摄的眼部图像中瞳孔中心与图像中心竖直方向上像素距离,利用竖直方向上角度映射函数F(eh_pixel),得到夹角β1大小;根据眼球中心坐标(lp1+lp2,0,0)、微距红外摄像头坐标(0,0,zc)及A点坐标,可得C、E两点长度lCE和∠ACE大小,其中,E点为两眼球中心点,根据β0、β1、∠ACE可得∠ECP,其中,P点为两瞳孔中心点:
∠ECP=β0+β1-∠ACE (6)
根据眼球解剖学模型可得E、P两点长度lEP,由lCE、lEP、∠ECP可得∠CPE,进而得∠CEP:
∠CEP=180°-∠ECP-∠CPE (8)
根据∠CEP大小以及∠CEO=∠ACE,可得眼球光轴投影与x轴在xOz平面内夹角βl:
βl=∠CEP-∠CEO (9)
步骤6、在xOz平面内对眼球光轴投影进行求解,具体为:
根据水平方向上角度映射函数F(ew_pixel),确定瞳孔中心对应视场角α1;根据眼球解剖学模型可得眼球与瞳孔距离标准值lEP、眼球中心坐标(lp1+lp2,0,0)、微距红外摄像头坐标(0,0,zc)可得lCE,进而得到眼球光轴投影与x轴在xOy平面内夹角αl:
αl=180°-α1-∠CPE (11)
根据xOy平面内眼球光轴投影与x轴夹角为αl、xOz平面内眼球光轴投影与x轴夹角βl、眼球中心坐标(lp1+lp2,0,0),确定眼球光轴位姿,眼球光轴与从两眼球中心出发、xOy平面投影与x轴夹角αl、xOz平面投影与x轴夹角βl的射线重合;
步骤7、进行眼球视轴求解,具体为:
根据眼球光轴位姿,得到眼球光轴与显示器屏幕交点G,设其坐标为(0,yG,zG);进而得到摄像头视轴与眼球光轴的夹角Kappa在y轴、z轴上分量:
然后将Kappay、Kappaz分别叠加在αl、βl上进行矫正,即得到实时的眼球视轴位姿。
较佳的,所述步骤2中,获得映射函数的方法为:
在x轴不同位置设置暗色反光板模拟人眼角膜反光,利用微距红外摄像头获取暗色反光板上包含2个光斑的图像,根据图像中2个光斑像素距离判断该位置在x轴上坐标;
将暗色反光板依次置于不同位置:位置1、位置2…位置n,微距红外摄像头对应拍摄照片1、照片2、…照片n,并记录位置1、位置2…位置n与屏幕距离l1、l2、…ln;测量照片1、照片2、…照片n中光斑1与光斑2像素距离dpixel_1、dpixel_2、…dpixel_n,由于l1、l2、…ln与dpixel_1、dpixel_2、…dpixel_n存在一一对应关系,设距离映射函数为F(dpixel_i,*)=li,其中i=1,2…n,*为待求解参数,由泰勒定理得式(1):其中,n表示暗色反光板所放位置的数目;
F(dpixel_i,*)=a0+a1·dpixel_i+a2·dpixel_i 2+…+aj·dpixel_i j+o(dpixel_i j) (1)
采集多组数据,建立数据集{(dpixel_i,li)},然后通过最小二乘法对F(dpixel_i,*)进行拟合确定其参数P,得到准确的距离映射函数F(dpixel_i,P)。
较佳的,广角摄像头、两个近红外光源、头戴式显示器、微距红外摄像头均集中设置在固定装置上,固定装置通过接口固定在头箍上。
本发明具有如下有益效果:
相较于台式视线估计装置和2个摄像头多个光源的双目视觉视线估计装置,本发明以1个微距红外摄像头、2个近红外光源即可实现视线估计,实现集成化微小型设计,大幅降低设备功耗和对数据处理模块性能要求,减小装置对使用者负担。相较于多点标定训练,单点单次标定仅需对1个标定点进行1次注视,且使用过程中无训练拟合过程,大幅缩短了标定时间,提高了使用效率,减少了标定过程对使用者干扰,且可在使用过程中进行标定,保持视线估计精度。本发明可适用于单眼、双眼视线估计;使用单眼视线估计时,对不进行视线估计的眼睛无干扰,使用者可观察获取环境信息,双手可同时执行其它任务。
附图说明
图1为本发明的整体结构示意图;
图2为场景采集显示模块、眼动图像采集模块和固定装置局部图;
图3为本发明中预先标定距离映射关系式示意图;
图4为本发明中利用微距红外摄像头内参数求解角度映射关系式示意图;
图5(a)为眼球中心空间定位相对位置示意图;
图5(b)为眼球中心空间定位几何关系示意图;
图6(a)为xoz平面内光轴投影求解相对位置示意图;
图6(b)为xoz平面内光轴投影求解几何关系示意图;
图7为本发明中xOy平面内光轴投影求解示意图;
图8为本发明中视轴投影求解示意图。
其中,1-头箍,2-广角摄像头,3-近红外光源,4-头戴式显示器,5-微距红外摄像头,6-固定装置,7-调节机构,8-接口,9-数据处理模块,10-电池。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
参见附图1和图2,一种集成化微小型头戴式视线估计系统,它包括:头箍1、广角摄像头2、两个近红外光源3、头戴式显示器4、微距红外摄像头5、固定装置6、数据距离模块9以及电池10;广角摄像头2、两个近红外光源3、头戴式显示器4、微距红外摄像头5均集中设置在固定装置6上,固定装置6通过接口8固定在头箍1上。固定装置6上还这是调节机构7,用于头戴式显示器4的位置进行调整。
广角摄像头2用于拍摄场景可见光或红外图像,并将图像发送至数据处理模块9,数据处理模块9对场景图像进行处理,例如局部放大、目标标注等,然后将场景图像显示在头戴式显示器4上。
2个近红外光源3分别位于头戴式显示器4上方和下方。2个近红外光源3光照强度、与眼睛距离适中,可在眼睛角膜上形成2个清晰光斑;微距红外摄像头5可采集到包含清晰的瞳孔和2个光斑的眼睛全部区域图像,微距红外摄像头5采集到眼部图像后将其发送至数据处理模块9,进行实现求解。
所述数据处理模块9主要负责处理场景图像,处理眼部图像求解视线。处理眼部图像求解视线主要包括眼球中心空间定位单元、光轴求解单元和视轴求解单元。
眼球中心空间定位单元通过预先对2个近红外光源3和1个微距红外摄像头5进行标定的方式,建立微距红外摄像头5拍摄图像中2个光斑像素距离与微距红外摄像头5至光斑反射平面距离的映射关系式;建立固连于上述装置的空间坐标系,然后利用眼球相关参数、装置结构设计参数、上述距离映射关系式,求解得到眼球中心在该空间坐标系中的三维坐标。
光轴求解单元通过对微距红外摄像头内参数进行标定,建立微距红外摄像机拍摄画面中像素长度与上述空间坐标系中视场角度的映射关系式;利用眼球空间坐标、眼球相关参数、装置结构设计参数、上述角度映射关系式,求解得到眼球中心与瞳孔中心连线在上述空间坐标系中位姿,即求解得到眼球光轴。
视轴求解单元通过单点单次标定的方式,确定眼球视轴与眼球光轴之间夹角Kappa,然后利用Kappa角、实时眼球光轴,求解实时眼球视轴在上述空间坐标系中位姿,进而得到实时眼球视轴与头戴式显示器交点,该点即实时注视点。
参见附图3,预先对2个近红外光源和1个微距红外摄像头进行标定。近红外光源1、近红外光源2、微距红外摄像头、头戴式显示器位置相对固定,建立如附图3所示空间坐标系:定义与头戴显示器表面垂直并指向眼睛的方向为x轴方向,x轴与头戴显示器表面交点为原点O;与显示器表面平行,并沿两个近红外光源连线向上为z轴,y轴由x轴和z轴根据右手螺旋定则确定。在x轴不同位置设置暗色反光板模拟人眼角膜反光,利用微距红外摄像头获取包含2个光斑的图像,根据图像中2个光斑像素距离判断该位置在x轴上坐标。
将暗色反光板依次置于位置1、位置2…位置n,微距红外摄像头拍摄照片1、照片2、…照片n,并记录位置1、位置2…位置n与屏幕距离l1、l2、…ln。测量照片1、照片2、…照片n中光斑1与光斑2像素距离dpixel_1、dpixel_2、…dpixel_n。可知l1、l2、…ln与dpixel_1、dpixel_2、…dpixel_n存在一一对应关系,设距离映射函数为F(dpixel_i,*)=li,其中i=1,2…n,*为待求解参数。由泰勒定理可得式(1)。
F(dpixel_i,*)=a0+a1·dpixel_i+a2·dpixel_i 2+…+aj·dpixel_i j+o(dpixel_i j) (1)
其中j由最终标定效果定,,当距离映射函数输出距离与真实距离偏差较大时,增大j以提高距离映射函数准确度;直至距离映射函数输出距离与真实距离偏差小于期望值时,选取当前j作为最终阶数。
采集多组数据,建立数据集{(dpixel_i,li)},然后通过最小二乘法对F(dpixel_i,*)进行拟合确定其参数P,得到准确的距离映射函数F(dpixel_i,P)。
参见附图4,利用微距红外摄像头内参数求解角度映射关系式。水平方向上,像素与对应视场角如附图4所示。场景长度为w,对应微距红外摄像头水平方向视场角为α,摄像机水平方向分辨率为wpixel。成像平面上像素长度ew_pixel,对应场景平面中实际长度ew,对应摄像机水平方向视场角为αe。场景平面与镜头平面距离为d。可得方程组如式(2)。
同理可得,竖直方向上角度映射函数F(eh_pixel),如式(4)。
式中,βe为目标图像竖直方向上像素长度eh_pixel对应的角度,hpixel为目标摄像机竖直方向分辨率,β为目标摄像机竖直方向视场角。
参见附图5(a),通过调整固定装置内头戴式显示器位置,使眼睛正对头戴式显示器屏幕,即眼球中心大致在x轴上,2个光斑所在平面与头戴式显示器屏幕距离lp1,2个光斑所在平面与眼球中心距离lp2。参见附图5(b),2个光斑映射像素距离为dpixel_p,利用距离映射函数F(dpixel_p,P)可以解得2个光斑所在平面与头戴式显示器屏幕距离lp1,利用竖直方向上角度映射函数F(dpixel_p)可以解得2个光斑与相机形成的夹角βp。相机成像平面与竖直平面夹角为βc,相机与头戴式显示器中心竖直方向上距离为lc。根据几何关系,2个光斑间的距离dp近似如式(5)。
根据解剖学眼球模型取眼球半径为标准值rp,则可知光斑所在平面与眼球中心距离lp2,如式(6)。
则眼球中心坐标为(lp1+lp2,0,0)。
将眼球光轴投影在xOz平面和xOy平面上,对眼球光轴位姿进行求解。在xOz平面内对眼球光轴投影进行求解,如附图6(a)所示,根据装置设计可知,在上述空间坐标系内,红外摄像头主轴在xOz平面内与x轴夹角为β0;红外摄像头中心点为C点,其坐标为(0,0,zc);瞳孔中心对应视场角β1;A点为经过C点出发平行于x轴的射线上一点,其坐标为(xA,0,zA);B点为红外摄像头主轴上一点。求解眼球光轴与水平面夹角βl,简化后示意图如附图6(b)所示。
根据结构设计,可知夹角β0大小;根据相机拍摄的眼部图像中瞳孔中心与图像中心竖直方向上像素距离,利用竖直方向上角度映射函数F(eh_pixel),可知夹角β1大小。根据眼球中心坐标(lp1+lp2,0,0)、微距红外摄像头坐标(0,0,zc)、A点坐标(xA,0,zA),可得lCE、∠ACE,其中,E点为两眼球中心点,根据β0、β1、∠ACE可得∠ECP,其中,P点为两瞳孔中心点,如式(7)。
∠ECP=β0+β1-∠ACE (7)
根据眼球解剖学模型可得lEP,由lCE、lEP、∠ECP可得∠CPE,如式(8),进而得∠CEP如式(9)。
∠CEP=180°-∠ECP-∠CPE (9)
根据∠CEP、∠CEO=∠ACE,可得βl如式(10)。
βl=∠CEP-∠CEO (10)
在xOz平面内,眼球光轴投影与x轴夹角为βl。
参见附图7,在xOz平面内对眼球光轴投影进行求解。根据前文可知,眼球中心大致在xOz屏幕内,即在xOy平面内,微距红外摄像头主轴投影穿过眼球中心投影。根据水平方向上角度映射函数F(ew_pixel),可知瞳孔中心对应视场角α1;根据眼球解剖学模型可得眼球与瞳孔距离标准值lEP,根据眼球中心坐标(lp1+lp2,0,0)、微距红外摄像头坐标(0,0,zc)可得lCE,进而可得αl如式(12)。
αl=180°-α1-∠CPE (12)
在xOy平面内,眼球光轴投影与x轴夹角为αl。根据xOy平面内眼球光轴投影与x轴夹角为αl、xOz平面内眼球光轴投影与x轴夹角βl、眼球中心坐标(lp1+lp2,0,0),即可确定眼球光轴位姿,眼球光轴与从(lp1+lp2,0,0)出发、xOy平面投影与x轴夹角αl、xOz平面投影与x轴夹角βl的射线重合。
参见附图8,进行眼球视轴求解。视轴与眼球光轴存在夹角Kappa,通过单点标定确定Kappa大小,从而获得更为准确的注视点。注视头戴式显示器屏幕中心的标定点,即眼球视轴与x轴近似重合。按照上述方法求解眼球光轴位姿,得到眼球光轴与屏幕交点G,其坐标为(0,yG,zG)。进而可得,Kappa角在y轴、z轴上分量上分量分别如式(13)、式(14),求解得到Kappay、Kappaz后,单点单次标定完成,即可进行精确的视线估计。
求解实时眼球光轴位姿,然后将Kappay、Kappaz分别叠加在αl、βl上进行矫正,即可得到实时的眼球视轴位姿。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (3)
1.一种视线估计方法,其特征在于,包括如下步骤:
步骤1、人头部前方设置广角摄像头,用于获取场景图像,并在眼前方设置头戴显示器上显示该图像,向人眼提供场景图像;头戴式显示器上方和下方分别设置第一近红外光源和第二近红外光源,用于分别在人眼角膜上投射一个光斑;头戴式显示器下方设置微距红外摄像头,用于拍摄人眼及角膜上光斑的图像;建立如下空间直角坐标系:定义与头戴显示器表面垂直并指向两眼球中心点的方向为x轴方向,x轴与头戴显示器表面交点为原点O;与显示器表面平行,并沿两个近红外光源连线向上为z轴,y轴由x轴和z轴根据右手螺旋定则确定;
步骤2、获得光斑1与光斑2像素距离与成像平面与坐标原点O距离之间的映射函数;
步骤3、调整头戴式显示器位置,使眼睛正对头戴式显示器屏幕,即眼球中心大致在x轴上;利用步骤2获得的映射函数解得2个光斑所在平面与头戴式显示器屏幕距离lp1;根据解剖学眼球模型取眼球半径为标准值rp,则得光斑所在平面与眼球中心距离lp2:
其中,dp为两个光斑间实际距离;则两眼球中心点坐标为(lp1+lp2,0,0);
步骤4、利用微距红外摄像头内参数求解角度映射关系式:相机画面的水平方向上,设场景长度为w,对应微距红外摄像头水平方向视场角为α,摄像机水平方向分辨率为wpixel;成像平面上像素长度ew_pixel,对应场景平面中实际长度ew,对应摄像机水平方向视场角为αe,场景平面与镜头平面距离为d,得方程组:
同理得竖直方向上角度映射函数F(eh_pixel):
式中,βe为目标图像竖直方向上像素长度eh_pixel对应的角度,hpixel为目标摄像机竖直方向分辨率,β为目标摄像机竖直方向视场角;
步骤5、将眼球光轴投影在xOz平面和xOy平面上,对眼球光轴位姿进行求解,具体为:在xOz平面内对眼球光轴投影进行求解:由于红外摄像头主轴在xOz平面内与x轴夹角为β0;定义红外摄像头中心点为C点,其坐标为(0,0,zc);瞳孔中心对应视场角β1;A点为经过C点出发平行于x轴的射线上任意一点;B点为红外摄像头光轴上一点;
根据相机拍摄的眼部图像中瞳孔中心与图像中心竖直方向上像素距离,利用竖直方向上角度映射函数F(eh_pixel),得到夹角β1大小;根据眼球中心坐标(lp1+lp2,0,0)、微距红外摄像头坐标(0,0,zc)及A点坐标,可得C、E两点长度lCE和∠ACE大小,其中,E点为两眼球中心点,根据β0、β1、∠ACE可得∠ECP,其中,P点为两瞳孔中心点:
∠ECP=β0+β1-∠ACE (6)
根据眼球解剖学模型可得E、P两点长度lEP,由lCE、lEP、∠ECP可得∠CPE,进而得∠CEP:
∠CEP=180°-∠ECP-∠CPE (8)
根据∠CEP大小以及∠CEO=∠ACE,可得眼球光轴投影与x轴在xOz平面内夹角βl:
βl=∠CEP-∠CEO (9)
步骤6、在xOz平面内对眼球光轴投影进行求解,具体为:
根据水平方向上角度映射函数F(ew_pixel),确定瞳孔中心对应视场角α1;根据眼球解剖学模型可得眼球与瞳孔距离标准值lEP、眼球中心坐标(lp1+lp2,0,0)、微距红外摄像头坐标(0,0,zc)可得lCE,进而得到眼球光轴投影与x轴在xOy平面内夹角αl:
αl=180°-α1-∠CPE (11)
根据xOy平面内眼球光轴投影与x轴夹角为αl、xOz平面内眼球光轴投影与x轴夹角βl、眼球中心坐标(lp1+lp2,0,0),确定眼球光轴位姿,眼球光轴与从两眼球中心出发、xOy平面投影与x轴夹角αl、xOz平面投影与x轴夹角βl的射线重合;
步骤7、进行眼球视轴求解,具体为:
根据眼球光轴位姿,得到眼球光轴与显示器屏幕交点G,设其坐标为(0,yG,zG);进而得到摄像头视轴与眼球光轴的夹角Kappa在y轴、z轴上分量:
然后将Kappay、Kappaz分别叠加在αl、βl上进行矫正,即得到实时的眼球视轴位姿。
2.如权利要求1所述的一种视线估计方法,其特征在于,所述步骤2中,获得映射函数的方法为:
在x轴不同位置设置暗色反光板模拟人眼角膜反光,利用微距红外摄像头获取暗色反光板上包含2个光斑的图像,根据图像中2个光斑像素距离判断该位置在x轴上坐标;
将暗色反光板依次置于不同位置:位置1、位置2…位置n,微距红外摄像头对应拍摄照片1、照片2、…照片n,并记录位置1、位置2…位置n与屏幕距离l1、l2、…ln;测量照片1、照片2、…照片n中光斑1与光斑2像素距离dpixel_1、dpixel_2、…dpixel_n,由于l1、l2、…ln与dpixel_1、dpixel_2、…dpixel_n存在一一对应关系,设距离映射函数为F(dpixel_i,*)=li,其中i=1,2…n,*为待求解参数,由泰勒定理得式(1):其中,n表示暗色反光板所放位置的数目;
F(dpixel_i,*)=a0+a1·dpixel_i+a2·dpixel_i 2+…+aj·dpixel_ij+o(dpixel_i j) (1)
采集多组数据,建立数据集{(dpixel_i,li)},然后通过最小二乘法对F(dpixel_i,*)进行拟合确定其参数P,得到准确的距离映射函数F(dpixel_i,P)。
3.如权利要求1所述的一种视线估计方法,其特征在于,广角摄像头、两个近红外光源、头戴式显示器、微距红外摄像头均集中设置在固定装置上,固定装置通过接口固定在头箍上。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010642865.3A CN113903079B (zh) | 2020-07-06 | 2020-07-06 | 一种基于集成化微小型头戴式系统的视线估计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010642865.3A CN113903079B (zh) | 2020-07-06 | 2020-07-06 | 一种基于集成化微小型头戴式系统的视线估计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113903079A true CN113903079A (zh) | 2022-01-07 |
CN113903079B CN113903079B (zh) | 2024-06-18 |
Family
ID=79186805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010642865.3A Active CN113903079B (zh) | 2020-07-06 | 2020-07-06 | 一种基于集成化微小型头戴式系统的视线估计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113903079B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114633692A (zh) * | 2022-03-14 | 2022-06-17 | 深圳市艾为智能有限公司 | 一种偏心镜头在cms系统中的应用方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016173313A (ja) * | 2015-03-17 | 2016-09-29 | 国立大学法人鳥取大学 | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム |
CN106056092A (zh) * | 2016-06-08 | 2016-10-26 | 华南理工大学 | 基于虹膜与瞳孔的用于头戴式设备的视线估计方法 |
CN106168853A (zh) * | 2016-06-23 | 2016-11-30 | 中国科学技术大学 | 一种自由空间头戴式视线跟踪系统 |
CN107358217A (zh) * | 2017-07-21 | 2017-11-17 | 北京七鑫易维信息技术有限公司 | 一种视线估计方法及装置 |
-
2020
- 2020-07-06 CN CN202010642865.3A patent/CN113903079B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016173313A (ja) * | 2015-03-17 | 2016-09-29 | 国立大学法人鳥取大学 | 視線方向推定システム、視線方向推定方法及び視線方向推定プログラム |
CN106056092A (zh) * | 2016-06-08 | 2016-10-26 | 华南理工大学 | 基于虹膜与瞳孔的用于头戴式设备的视线估计方法 |
WO2017211066A1 (zh) * | 2016-06-08 | 2017-12-14 | 华南理工大学 | 基于虹膜与瞳孔的用于头戴式设备的视线估计方法 |
CN106168853A (zh) * | 2016-06-23 | 2016-11-30 | 中国科学技术大学 | 一种自由空间头戴式视线跟踪系统 |
CN107358217A (zh) * | 2017-07-21 | 2017-11-17 | 北京七鑫易维信息技术有限公司 | 一种视线估计方法及装置 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114633692A (zh) * | 2022-03-14 | 2022-06-17 | 深圳市艾为智能有限公司 | 一种偏心镜头在cms系统中的应用方法 |
CN114633692B (zh) * | 2022-03-14 | 2023-10-03 | 深圳市艾为智能有限公司 | 一种偏心镜头在cms系统中的应用方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113903079B (zh) | 2024-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Grubert et al. | A survey of calibration methods for optical see-through head-mounted displays | |
CN106168853B (zh) | 一种自由空间头戴式视线跟踪系统 | |
Shih et al. | A novel approach to 3-D gaze tracking using stereo cameras | |
US8885177B2 (en) | Medical wide field of view optical tracking system | |
US6445365B1 (en) | Image display apparatus and image photographing apparatus therefor | |
CN110967166B (zh) | 近眼显示光学系统的检测方法、检测装置和检测系统 | |
CN106199964B (zh) | 能自动调节景深的双目ar头戴设备及景深调节方法 | |
WO2016115871A1 (zh) | 能自动调节景深的双目ar头戴设备及景深调节方法 | |
US20240046432A1 (en) | Compensation for deformation in head mounted display systems | |
WO2018076202A1 (zh) | 能够进行人眼追踪的头戴式可视设备及人眼追踪方法 | |
WO2016115873A1 (zh) | 双目ar头戴显示设备及其信息显示方法 | |
CN107991775B (zh) | 能够进行人眼追踪的头戴式可视设备及人眼追踪方法 | |
CN105809654B (zh) | 目标对象跟踪方法、装置和立体显示设备及方法 | |
US11116395B1 (en) | Compact retinal scanning device for tracking movement of the eye's pupil and applications thereof | |
CN106019589A (zh) | 一种自动调整光学系统的近眼显示装置 | |
CN104094162A (zh) | 动态控制沉浸或抬头显示操作的宽视场3d立体视觉平台 | |
CN108205374A (zh) | 一种视频眼镜的眼球追踪模组及其方法、视频眼镜 | |
CN106471801B (zh) | 夜视装置 | |
CN206178247U (zh) | 头戴式显示装置 | |
CN108259887A (zh) | 注视点校准方法及装置、注视点标定方法及装置 | |
CN100579446C (zh) | 便携式前庭功能检查设备 | |
CN108267299A (zh) | Ar眼镜瞳距测试方法及装置 | |
CN105872527A (zh) | 双目ar头戴显示设备及其信息显示方法 | |
TW202215370A (zh) | 疊合虛擬影像於即時影像的系統與方法 | |
TW201400084A (zh) | 注視線測定方法、注視線測定裝置、眼球回旋點測定方法及著目點測定裝置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |