CN109766007B - 一种显示设备的注视点补偿方法及补偿装置、显示设备 - Google Patents
一种显示设备的注视点补偿方法及补偿装置、显示设备 Download PDFInfo
- Publication number
- CN109766007B CN109766007B CN201910005534.6A CN201910005534A CN109766007B CN 109766007 B CN109766007 B CN 109766007B CN 201910005534 A CN201910005534 A CN 201910005534A CN 109766007 B CN109766007 B CN 109766007B
- Authority
- CN
- China
- Prior art keywords
- compensation
- eye
- coordinate
- eye corner
- corner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 57
- 210000001747 pupil Anatomy 0.000 claims abstract description 57
- 238000003708 edge detection Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 210000001508 eye Anatomy 0.000 abstract description 349
- 210000005252 bulbus oculi Anatomy 0.000 abstract description 11
- 210000003128 head Anatomy 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000013500 data storage Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/0093—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Eye Examination Apparatus (AREA)
- Image Processing (AREA)
Abstract
本发明实施例提供一种显示设备的注视点补偿方法及补偿装置、显示设备,涉及智能显示设备技术领域,能够解决现有技术中由于人眼与VR头显会发生相对滑动而造成眼球追踪精度下降的问题。所述方法包括:获取用户的实时眼部图像;获取实时眼部图像的眼角位置坐标;若眼角位置坐标在初始标定范围内,则根据瞳孔与眼角位置的对应关系对眼角位置坐标进行第一补偿;若眼角位置坐标不在初始标定范围内,则对眼角位置坐标进行第二补偿,第二补偿被配置为使经过第二补偿后的眼角位置坐标至少在初始标定范围内;根据第一补偿或第二补偿对注视点进行补偿。本发明用于显示设备。
Description
技术领域
本发明涉及智能显示设备技术领域,尤其涉及一种显示设备的注视点补偿方法及补偿装置、显示设备。
背景技术
随着虚拟现实(Virtual Reality,VR)技术的发展,眼球追踪技术在虚拟现实交互、注视点渲染等方面的应用也得到了重视。目前,在基于VR的眼球追踪系统中,用于捕捉眼球运动的摄像机位于VR头显中,由于人眼与VR头显是相对独立的两个个体,当使用VR头显时,人眼可能会与VR头显发生相对滑动,这样会造成眼球追踪系统偏离初始的标定位置,进而造成眼球追踪精度的下降。
发明内容
本发明的实施例提供一种显示设备的注视点补偿方法及补偿装置、显示设备,能够解决现有技术中由于人眼与VR头显会发生相对滑动而造成眼球追踪精度下降的问题。
为达到上述目的,本发明的实施例采用如下技术方案:
一方面,本发明实施例提供一种显示设备的注视点补偿方法,所述方法包括:获取用户的实时眼部图像;获取所述实时眼部图像的眼角位置坐标;若所述眼角位置坐标在初始标定范围内,则根据瞳孔与眼角位置的对应关系对所述眼角位置坐标进行第一补偿;若所述眼角位置坐标不在所述初始标定范围内,则对所述眼角位置坐标进行第二补偿,所述第二补偿被配置为使经过第二补偿后的眼角位置坐标至少在所述初始标定范围内;根据所述第一补偿或所述第二补偿对注视点进行补偿。
可选的,所述第二补偿包含第一子补偿和第二子补偿;所述对所述眼角位置坐标进行第二补偿具体包括:对所述眼角位置坐标进行第一子补偿,所述第一子补偿被配置为使经过第一子补偿后的眼角位置坐标在所述初始标定范围内;对经过所述第一子补偿后的眼角位置坐标进行第二子补偿,所述第二子补偿是根据所述瞳孔与眼角位置的对应关系对所述眼角位置坐标进行的补偿。
可选的,所述对所述眼角位置坐标进行第一补偿具体包括:根据瞳孔与眼角位置的对应关系,获取所述实时眼部图像的瞳孔中心坐标对应的眼角点坐标;获取所述眼角点坐标与所述眼角位置坐标的差值,将所述差值作为眼角点补偿量;所述根据所述第一补偿对注视点进行补偿具体为:根据所述眼角点补偿量对注视点进行补偿。
可选的,所述对所述眼角位置坐标进行第一子补偿具体为:获取使所述眼角位置坐标落入所述初始标定范围内的最小补偿量,将所述最小补偿量作为粗补偿量;获取所述粗补偿量与所述眼角位置坐标的和值,将所述和值作为经过所述第一子补偿后的眼角位置坐标;所述对经过所述第一子补偿后的眼角位置坐标进行第二子补偿具体为:获取所述实时眼部图像的瞳孔中心坐标与所述粗补偿量的和值,将所述和值作为补偿后的瞳孔中心坐标;根据所述瞳孔与眼角位置的对应关系,获取所述补偿后的瞳孔中心坐标对应的眼角点坐标,并获取所述眼角点坐标与经过所述第一子补偿后的眼角位置坐标的差值,将所述差值作为细补偿量;所述根据所述第二补偿对注视点进行补偿具体为:获取所述粗补偿量和所述细补偿量的和值,将所述和值作为眼角点补偿量;根据所述眼角点补偿量对注视点进行补偿。
可选的,所述方法还包括:建立瞳孔与眼角位置的对应关系。
可选的,所述建立瞳孔与眼角位置的对应关系具体包括:获取用户分别注视多个标定点时的多幅标定眼部图像;获取所述标定眼部图像的瞳孔中心坐标和眼角位置坐标;根据所述标定眼部图像的瞳孔中心坐标与眼角位置坐标,建立瞳孔与眼角位置的关系方程式。
可选的,所述瞳孔与眼角位置的关系方程式为:
xcorner=a0+a1·x+a2·x2+a3·x3
ycorner=b0+b1·y+b2·y2+b3·y3
其中,瞳孔中心坐标为(x,y);眼角位置坐标为(xcorner,ycorner),a0、a1、a2、a3、b0、b1、b2和b3为瞳孔与眼角位置拟合曲线的系数。
可选的,所述获取所述实时眼部图像的眼角位置坐标具体包括:获取所述实时眼部图像的瞳孔中心坐标;对所述实时眼部图像进行边缘检测,以获取眼角区域中距离所述瞳孔中心坐标最远的边缘点的坐标,将所述边缘点的坐标作为所述实时眼部图像的眼角粗坐标;对所述实时眼部图像进行角点检测,以获取多个角点坐标,并获取多个所述角点坐标中距离所述眼角粗坐标最近的角点坐标,将该角点坐标作为所述实时眼部图像的眼角位置坐标。
可选的,获取所述实时眼部图像的瞳孔中心坐标具体包括:对所述实时眼部图像进行二值化处理,提取处理后的实时眼部图像中符合瞳孔特性的最大连通区域,并提取所述最大连通区域的边缘点;根据所述边缘点进行瞳孔椭圆拟合,获取瞳孔中心坐标。
可选的,所述根据所述眼角点补偿量对注视点进行补偿具体包括:根据眼角位置与注视点位置的对应关系,获取所述眼角点坐标对应的注视点坐标和所述眼角点补偿量对应的注视点补偿量;获取所述注视点坐标与所述注视点补偿量的和值,将所述和值作为补偿后的注视点坐标。
可选的,所述眼角位置与注视点位置的对应关系的建立方法包括:获取用户分别注视多个标定点时的多幅标定眼部图像;获取所述标定眼部图像的眼角位置坐标,并获取与多幅所述标定眼部图像对应的注视点位置坐标;根据所述眼角位置坐标与所述注视点位置坐标,建立眼角位置与注视点位置的关系方程式。
可选的,所述眼角位置与注视点位置的关系方程式为:
Gx=c0+c1·xcorner+c2·ycorner+c3·xcorner·ycorner
Gy=d0+d1·xcorner+d2·ycorner+d3·xcorner·ycorner
其中,注视点位置坐标为(Gx,Gy);眼角位置坐标为(xcorner,ycorner),c0、c1、c2、c3、d0、d1、d2和d3为眼角位置与注视点位置拟合曲线的系数。
另一方面,本发明实施例提供一种显示设备的注视点补偿装置,所述装置包括:眼部图像获取传感器,用于获取用户的实时眼部图像;处理器,用于获取所述实时眼部图像的眼角位置坐标;所述处理器还用于若所述眼角位置坐标在初始标定范围内,则根据瞳孔与眼角位置的对应关系对所述眼角位置坐标进行第一补偿;若所述眼角位置坐标不在所述初始标定范围内,则对所述眼角位置坐标进行第二补偿,所述第二补偿被配置为使经过第二补偿后的眼角位置坐标至少在所述初始标定范围内;所述处理器还用于根据所述第一补偿或所述第二补偿对注视点进行补偿;数据存储器,所述数据存储器用于存储所述实时眼部图像和所述实时眼部图像的眼角位置坐标,以及所述瞳孔与眼角位置的对应关系。
可选的,所述第二补偿包含第一子补偿和第二子补偿;所述处理器具体用于:对所述眼角位置坐标进行第一子补偿,所述第一子补偿被配置为使经过第一子补偿后的眼角位置坐标在所述初始标定范围内;对经过所述第一子补偿后的眼角位置坐标进行第二子补偿,所述第二子补偿是根据所述瞳孔与眼角位置的对应关系对所述眼角位置坐标进行的补偿。
再一方面,本发明实施例提供一种显示设备,包括:存储器,用于存储计算机程序;处理器,用于执行所述计算机程序,以实现如上述任意一种所述的显示设备的注视点补偿方法。
本发明实施例提供的显示设备的注视点补偿方法及补偿装置、显示设备,所述方法包括:获取用户的实时眼部图像;获取实时眼部图像的眼角位置坐标;若眼角位置坐标在初始标定范围内,则根据瞳孔与眼角位置的对应关系对眼角位置坐标进行第一补偿;若眼角位置坐标不在初始标定范围内,则对眼角位置坐标进行第二补偿,第二补偿被配置为使经过第二补偿后的眼角位置坐标至少在初始标定范围内;根据第一补偿或第二补偿对注视点进行补偿。相较于现有技术,在本发明实施例中,通过判断实时眼部图像的眼角位置坐标是否在初始标定范围内,然后利用瞳孔与眼角位置的对应关系,对眼角位置坐标进行第一补偿或第二补偿,最后再根据第一补偿或第二补偿对实时眼部图像对应的注视点进行补偿。这样当显示设备与人眼发生相对滑动时,可以实现对人眼注视点的滑动补偿,从而提高了显示设备的眼球追踪精度。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的显示设备的注视点补偿方法流程图一;
图2为本发明实施例提供的显示设备的注视点补偿方法流程图二;
图3为本发明实施例提供的获取瞳孔中心坐标的方法流程图;
图4为本发明实施例提供的获取眼角位置坐标的方法流程图;
图5为本发明实施例提供的获取眼角位置坐标的方法示意图;
图6为本发明实施例提供的显示设备的注视点补偿装置框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供一种显示设备的注视点补偿方法,如图1所示,所述方法包括:
步骤101、获取用户的实时眼部图像。
其中,所述实时眼部图像为用户在使用显示设备时拍摄的眼部图像。所述显示设备可以是虚拟现实(VR)设备、增强现实(AR)设备或混合现实(MR)设备等,本发明实施例对此不做限定。
因VR头显中环境相对封闭和黑暗,为了将人眼中的瞳孔与虹膜区域分离出来,一般会采用近红外LED进行补光,即所述实时眼部图像是在近红外LED灯照射下的眼部图像。在实际应用中,近红外LED的波长可以选择为850nm。
步骤102、获取实时眼部图像的眼角位置坐标。
其中,所述眼角位置坐标的获取方式有多种,示例的,可以采用边缘检测、图形拟合、角点检测、质心法等方法中的一种或几种组合来获取,本发明实施例对此不做限定。
步骤103、判断眼角位置坐标是否在初始标定范围内;若是,则执行步骤104;若否,则执行步骤105。
其中,所述初始标定范围可以是预先设置的,也可以是根据标定眼部图像中的眼角位置坐标确定的,本发明实施例对此不做限定。
步骤104、根据瞳孔与眼角位置的对应关系对眼角位置坐标进行第一补偿。
其中,所述瞳孔与眼角位置的对应关系可以是预先设置的,也可以是根据多幅标定眼部图像中的瞳孔中心坐标与眼角位置坐标进行曲线拟合得到的,本发明实施例对此不做限定。需要说明的是,当采用曲线拟合的方式时,本发明实施例对于曲线拟合的具体公式不做限定。
步骤105、对眼角位置坐标进行第二补偿,第二补偿被配置为使经过第二补偿后的眼角位置坐标至少在初始标定范围内。
步骤106、根据第一补偿或第二补偿对注视点进行补偿。
由于眼角位置与注视点位置存在对应关系,因而可以利用上述对眼角位置坐标进行补偿的补偿量来对实时眼部图像对应的注视点进行补偿。由于眼球的运动会带动眼角的运动,因而此步骤中,也可以根据瞳孔与注视点位置的对应关系,对实时眼部图像对应的注视点进行补偿。
这样一来,相较于现有技术,在本发明实施例中,通过判断实时眼部图像的眼角位置坐标是否在初始标定范围内,然后利用瞳孔与眼角位置的对应关系,对眼角位置坐标进行第一补偿或第二补偿,最后再根据第一补偿或第二补偿对实时眼部图像对应的注视点进行补偿。这样当显示设备与人眼发生相对滑动时,可以实现对人眼注视点的滑动补偿,从而提高了显示设备的眼球追踪精度。
在本发明的一些实施例中,第二补偿包含第一子补偿和第二子补偿;对眼角位置坐标进行第二补偿具体包括:
对眼角位置坐标进行第一子补偿,所述第一子补偿被配置为使经过第一子补偿后的眼角位置坐标在初始标定范围内。具体为:获取使眼角位置坐标落入初始标定范围内的最小补偿量,将该最小补偿量作为粗补偿量;然后获取粗补偿量与眼角位置坐标的和值,将该和值作为经过第一子补偿后的眼角位置坐标;
对经过第一子补偿后的眼角位置坐标进行第二子补偿,所述第二子补偿是根据瞳孔与眼角位置的对应关系对眼角位置坐标进行的补偿。具体为,获取实时眼部图像的瞳孔中心坐标与粗补偿量的和值,将该和值作为补偿后的瞳孔中心坐标;然后根据瞳孔与眼角位置的对应关系,获取补偿后的瞳孔中心坐标对应的眼角点坐标,并获取眼角点坐标与经过第一子补偿后的眼角位置坐标的差值,将该差值作为细补偿量。
所述根据第二补偿对注视点进行补偿具体为:获取粗补偿量和细补偿量的和值,将该和值作为眼角点补偿量;根据眼角点补偿量对注视点进行补偿。
在本发明的另一些实施例中,对眼角位置坐标进行第一补偿具体包括:首先根据瞳孔与眼角位置的对应关系,获取实时眼部图像的瞳孔中心坐标对应的眼角点坐标;然后获取眼角点坐标与眼角位置坐标的差值,将该差值作为眼角点补偿量。
所述根据第一补偿对注视点进行补偿具体为:根据眼角点补偿量对注视点进行补偿。
进一步的,根据眼角点补偿量对注视点进行补偿具体包括:根据眼角位置与注视点位置的对应关系,获取眼角点坐标对应的注视点位置坐标和所述眼角点补偿量对应的注视点补偿量;然后获取注视点位置坐标与注视点补偿量的和值,将该和值作为补偿后的注视点位置坐标。
其中,所述眼角位置与注视点位置的对应关系可以是预先设置的,也可以是根据多幅标定眼部图像中的眼角位置坐标以及与其对应的注视点位置坐标进行曲线拟合得到的,本发明实施例对此不做限定。需要说明的是,当采用曲线拟合的方式时,本发明实施例对于曲线拟合的具体公式不做限定。
本发明再一实施例提供一种显示设备的注视点补偿方法,如图2所示,所述方法包括:
步骤201、获取用户分别注视多个标定点时的多幅标定眼部图像。
其中,多幅所述标定眼部图像为人眼注视显示设备的屏幕上的多个初始标定点时拍摄的眼部图像。在实际应用中,一般采用5点标定法或9点标定法,即初始标定点为5个或9个,标定眼部图像为5幅或9幅。需要说明的是,多幅所述标定眼部图像也是在近红外LED灯照射下拍摄的眼部图像。
步骤202、获取标定眼部图像的瞳孔中心坐标和眼角位置坐标,并获取与多幅标定眼部图像对应的注视点位置坐标。
其中,与多幅标定眼部图像对应的注视点位置坐标即为步骤201中的多个初始标定点的坐标。
步骤203、根据标定眼部图像的瞳孔中心坐标与眼角位置坐标,建立瞳孔与眼角位置的关系方程式,并根据标定眼部图像的眼角位置坐标与注视点位置坐标,建立眼角位置与注视点位置的关系方程式。
在实际应用中,所述瞳孔与眼角位置的关系方程式可以为:
xcorner=a0+a1·x+a2·x2+a3·x3
ycorner=b0+b1·y+b2·y2+b3·y3
其中,瞳孔中心坐标为(x,y);眼角位置坐标为(xcorner,ycorner),a0、a1、a2、a3、b0、b1、b2和b3为瞳孔与眼角位置拟合曲线的系数。通过利用至少4组标定眼部图像的瞳孔中心坐标(x,y)和眼角位置坐标(xcorner,ycorner)即可求出所有的系数。
所述眼角位置与注视点位置的关系方程式可以为:
Gx=c0+c1·xcorner+c2·ycorner+c3·xcorner·ycorner
Gy=d0+d1·xcorner+d2·ycorner+d3·xcorner·ycorner
其中,注视点位置坐标为(Gx,Gy);眼角位置坐标为(xcorner,ycorner),c0、c1、c2、c3、d0、d1、d2和d3为眼角位置与注视点位置拟合曲线的系数。通过利用至少4组标定眼部图像的眼角位置坐标(xcorner,ycorner)和注视点位置坐标(Gx,Gy)即可求出所有的系数。
步骤204、根据多幅标定眼部图像的眼角位置坐标确定初始标定范围。
在获取到多幅标定眼部图像的眼角位置坐标后,可以根据多个眼角位置坐标确定眼角点的初始标定范围;具体的,将多个眼角位置坐标的X轴坐标的最大值m2和最小值m1作为眼角点的X轴标定范围,将多个眼角位置坐标的Y轴坐标的最大值n2和最小值n1作为眼角点的Y轴标定范围,即眼角点的初始标定范围为x∈[m1,m2],y∈[n1,n2]。
需要说明的是,步骤203和步骤204的执行顺序可以颠倒,也可以同时进行,本发明实施例对此不做限定。
步骤205、获取用户的实时眼部图像。
步骤206、获取实时眼部图像的瞳孔中心坐标和眼角位置坐标。
步骤207、判断实时眼部图像的眼角位置坐标是否位于初始标定范围内;若是,则执行步骤208;若否,则执行步骤209。
步骤208、根据瞳孔与眼角位置的关系方程式,获取实时眼部图像的瞳孔中心坐标对应的眼角点坐标,并获取眼角点坐标与实时眼部图像的眼角位置坐标的差值,将该差值作为眼角点补偿量。
当眼角位置坐标(xcorner,ycorner)位于初始标定范围内时,即xcorner∈[m1,m2],且ycorner∈[n1,n2],此时只需要进行精细补偿,具体的,将实时眼部图像的瞳孔中心坐标(x,y)代入瞳孔与眼角位置的关系方程式,获取对应的眼角点坐标然后获取眼角点补偿量(xcompensation,ycompensation),其中
步骤209、获取使实时眼部图像的眼角位置坐标落入初始标定范围内的最小补偿量,将该最小补偿量作为粗补偿量。
当眼角位置坐标(xcorner,ycorner)不属于初始标定范围内时,即xcorner<m1或xcorner>m2,或ycorner<n1或ycorner>n2,此时需要先进行粗补偿,具体的,若xcorner<m1,则若xcorner>m2,则若ycorner<n1,则 若ycorner>n2,则至此得到粗补偿量
步骤210、获取粗补偿量与实时眼部图像的眼角位置坐标的和值,将该和值作为经过第一子补偿后的眼角位置坐标。
具体的,若xcorner<m1,则经过第一子补偿(即粗补偿)后的眼角位置坐标的x轴坐标为m1;若xcorner>m2,则经过第一子补偿(即粗补偿)后的眼角位置坐标的x轴坐标为m2;若ycorner<n1,则经过第一子补偿(即粗补偿)后的眼角位置坐标的y轴坐标为n1;若ycorner>n2,则经过第一子补偿(即粗补偿)后的眼角位置坐标的y轴坐标为n2。
步骤211、获取实时眼部图像的瞳孔中心坐标与粗补偿量的和值,将该和值作为补偿后的瞳孔中心坐标。
需要说明的是,步骤210和步骤211的执行顺序可以颠倒,也可以同时进行,本发明实施例对此不做限定。
步骤212、根据瞳孔与眼角位置的关系方程式,获取补偿后的瞳孔中心坐标对应的眼角点坐标,并获取该眼角点坐标与经过第一子补偿后的眼角位置坐标的差值,将该差值作为细补偿量。
在获取到粗补偿量后,再进行精细补偿,具体的,将补偿后的瞳孔中心坐标为 代入瞳孔与眼角位置的关系方程式,获取对应的眼角点坐标然后获取该眼角点坐标与经过第一子补偿后的眼角位置坐标的差值,该差值即为细补偿量
步骤213、获取粗补偿量和细补偿量的和值,将该和值作为眼角点补偿量。
步骤214、根据眼角位置与注视点位置的关系方程式,获取眼角点坐标对应的注视点坐标和眼角点补偿量对应的注视点补偿量。
将步骤208中获取的眼角点坐标代入眼角位置与注视点位置的关系方程式中,获取对应的注视点坐标将步骤208或步骤213中获取的眼角点补偿量(xcompensation,ycompensation)代入眼角位置与注视点位置的关系方程式中,获取对应的注视点补偿量
步骤215、获取注视点坐标与注视点补偿量的和值,将该和值作为补偿后的注视点位置坐标。
在本发明的另一些实施例中,获取实时眼部图像的瞳孔中心坐标具体包括:首先对实时眼部图像进行二值化处理;然后提取处理后的实时眼部图像中符合瞳孔特性的最大连通区域,并提取最大连通区域的边缘点;最后根据边缘点进行瞳孔椭圆拟合,获取瞳孔中心坐标。
为了便于对实时眼部图像进行处理,获取更为准确的瞳孔中心坐标,在对实时眼部图像进行二值化处理之前,所述方法还包括:对实时眼部图像进行灰度转换和去噪处理。
在本发明的再一些实施例中,如图3所示,获取实时眼部图像的瞳孔中心坐标的方法包括:
步骤301、对实时眼部图像进行灰度转换和去噪处理。
所述去噪处理可以是进行高斯滤波处理。
步骤302、对处理后的实时眼部图像进行二值化处理。
步骤303、提取处理后的实时眼部图像中符合瞳孔特性的最大连通区域,并提取最大连通区域的边缘点。
步骤304、根据边缘点进行瞳孔椭圆拟合,获取瞳孔中心坐标。
在本发明的另一些实施例中,获取实时眼部图像的眼角位置坐标具体包括:首先对实时眼部图像进行边缘检测,以获取眼角区域中距离瞳孔中心坐标最远的边缘点的坐标,将该边缘点的坐标作为实时眼部图像的眼角点粗坐标;然后对实时眼部图像进行角点检测,以获取多个角点坐标;接着获取多个角点坐标中距离眼角点粗坐标最近的角点坐标,将该角点坐标作为实时眼部图像的眼角位置坐标。
进一步的,为了减小图像处理时的计算量,可以在实时眼部图像上以瞳孔中心坐标为起始点,裁剪出包含眼角的第一区域图像;
所述对实时眼部图像进行边缘检测,以获取眼角区域中距离瞳孔中心坐标最远的边缘点的坐标具体为:对第一区域图像进行边缘检测,以获取距离瞳孔中心坐标最远的边缘点的坐标;
在对实时眼部图像进行角点检测之前,所述方法还包括:在第一区域图像上以眼角点粗坐标为中心点,裁剪出包含眼角的第二区域图像;
所述对实时眼部图像进行角点检测,以获取多个角点坐标具体为:对第二区域图像进行角点检测,以获取多个角点坐标。
为了便于对实时眼部图像进行处理,获取更为准确的眼角位置坐标,所述实时眼部图像可以采用进行了灰度转换和去噪处理后的实时眼部图像。
在本发明的再一些实施例中,如图4所示,获取实时眼部图像的眼角位置坐标的方法包括:
步骤401、对实时眼部图像进行灰度转换和去噪处理。
所述去噪处理可以是进行高斯滤波处理。
步骤402、在处理后的实时眼部图像上以瞳孔中心坐标为起始点,裁剪出包含眼角的第一区域图像。
本发明实施例对于第一区域图像的具体尺寸不做限定。示例的,参考图5中左边的两幅图所示,以瞳孔中心坐标为初始点,可以向右下方裁剪出大小为的矩形图像区域,其中W为人眼在当前图像中的宽度,H为人眼在当前图像中的高度;也可根据实际测试进行裁剪区域的确定。
步骤403、对第一区域图像进行边缘检测,以获取距离瞳孔中心坐标最远的边缘点的坐标,将该边缘点的坐标作为实时眼部图像的眼角点粗坐标。
本发明实施例对于边缘检测的具体算法不作限定,在实际应用中,可以选取Canny边缘检测算法。在进行边缘检测后得到了如图5中左边第三幅图所示的边缘图,然后遍历该边缘图,得到最右端(即距离瞳孔中心坐标最远)的灰度值为255的像素点,将该像素点的坐标作为眼角点粗坐标。
步骤404、在第一区域图像上以眼角点粗坐标为中心点,裁剪出包含眼角的第二区域图像。
步骤405、对第二区域图像进行角点检测,以获取多个角点坐标。
本发明实施例对于角点检测的具体算法不作限定,在实际应用中,可以选取Shi-Tomas角点检测算法。在进行角点检测后,参考图5中左边第五幅图所示,得到多个满足条件的角点坐标。
步骤406、获取多个角点坐标中距离眼角点粗坐标最近的角点坐标,将该角点坐标作为实时眼部图像的眼角位置坐标。
计算每个角点坐标与眼角点粗坐标的距离,找到距离眼角点粗坐标最近的角点坐标,该角点坐标即为实时眼部图像的眼角位置坐标(xcorner,ycorner),可参考图5中最右边的图所示。
需要说明的是,标定眼部图像的瞳孔中心坐标和眼角位置坐标可以采用与实时眼部图像的瞳孔中心坐标和眼角位置坐标同样的方法获取,本发明在此不再赘述。
本发明另一实施例提供一种显示设备的注视点补偿装置,如图6所示,所述装置包括:
眼部图像获取传感器61,用于获取用户的实时眼部图像;
处理器62,用于获取实时眼部图像的眼角位置坐标;处理器62还用于若眼角位置坐标在初始标定范围内,则根据瞳孔与眼角位置的对应关系对眼角位置坐标进行第一补偿;若眼角位置坐标不在初始标定范围内,则对眼角位置坐标进行第二补偿,第二补偿被配置为使经过第二补偿后的眼角位置坐标至少在初始标定范围内;处理器62还用于根据第一补偿或第二补偿对注视点进行补偿;
数据存储器63,用于存储实时眼部图像和实时眼部图像的眼角位置坐标,以及瞳孔与眼角位置的对应关系。
在实际应用时,数据存储器63还可以存储多幅标定眼部图像以及眼角位置与注视点位置的对应关系等。
进一步的,第二补偿包含第一子补偿和第二子补偿;
处理器62具体用于:对眼角位置坐标进行第一子补偿,第一子补偿被配置为使经过第一子补偿后的眼角位置坐标在初始标定范围内;对经过第一子补偿后的眼角位置坐标进行第二子补偿,第二子补偿是根据瞳孔与眼角位置的对应关系对眼角位置坐标进行的补偿。
上述显示设备的注视点补偿装置中各模块的介绍可以参考显示设备的注视点补偿方法中各步骤介绍,在此不再赘述。
本发明再一实施例提供一种显示设备,包括:存储器,用于存储计算机程序;处理器,用于执行所述计算机程序,以实现如上述任意一种所述的显示设备的注视点补偿方法。
在本发明实施例中,通过判断实时眼部图像的眼角位置坐标是否在初始标定范围内,然后利用瞳孔与眼角位置的对应关系,对眼角位置坐标进行第一补偿或第二补偿,最后再根据第一补偿或第二补偿对实时眼部图像对应的注视点进行补偿。这样当显示设备与人眼发生相对滑动时,可以实现对人眼注视点的滑动补偿,从而提高了显示设备的眼球追踪精度。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (12)
1.一种显示设备的注视点补偿方法,其特征在于,所述方法包括:
获取用户的实时眼部图像;
获取所述实时眼部图像的眼角位置坐标;
若所述眼角位置坐标在初始标定范围内,则根据瞳孔与眼角位置的对应关系对所述眼角位置坐标进行第一补偿;若所述眼角位置坐标不在所述初始标定范围内,则对所述眼角位置坐标进行第二补偿,所述第二补偿被配置为使经过所述第二补偿后的眼角位置坐标至少在所述初始标定范围内;
根据所述第一补偿或所述第二补偿对注视点进行补偿;
其中,
所述对所述眼角位置坐标进行第一补偿具体包括:
根据瞳孔与眼角位置的对应关系,获取所述实时眼部图像的瞳孔中心坐标对应的眼角点坐标;获取所述眼角点坐标与所述眼角位置坐标的差值,将所述差值作为眼角点补偿量;
所述根据所述第一补偿对注视点进行补偿具体为:
根据眼角位置与注视点位置的对应关系,获取所述眼角点坐标对应的注视点坐标和所述眼角点补偿量对应的注视点补偿量;获取所述注视点坐标与所述注视点补偿量的和值,将所述和值作为补偿后的注视点坐标;
或者,
所述第二补偿包含第一子补偿和第二子补偿;所述对所述眼角位置坐标进行第二补偿具体包括:
对所述眼角位置坐标进行第一子补偿,所述第一子补偿被配置为获取使所述眼角位置坐标落入所述初始标定范围内的最小补偿量,将所述最小补偿量作为粗补偿量,使经过所述第一子补偿后的眼角位置坐标在所述初始标定范围内;
对经过所述第一子补偿后的眼角位置坐标进行第二子补偿,所述第二子补偿被配置为根据所述瞳孔与眼角位置的对应关系对所述第一子补偿后的眼角位置坐标进行的补偿,并根据所述第二子补偿后的眼角位置坐标与所述第一子补偿后的眼角位置坐标的差值,获取细补偿量;
所述根据所述第二补偿对注视点进行补偿具体为:
获取所述粗补偿量和所述细补偿量的和值,将所述和值作为眼角点补偿量;根据所述眼角点补偿量对注视点进行补偿。
2.根据权利要求1所述的显示设备的注视点补偿方法,其特征在于,所述对所述眼角位置坐标进行第一子补偿具体为:
获取所述粗补偿量与所述眼角位置坐标的和值,将所述和值作为所述第一子补偿后的眼角位置坐标;
所述对经过所述第一子补偿后的眼角位置坐标进行第二子补偿具体为:
获取所述实时眼部图像的瞳孔中心坐标与所述粗补偿量的和值,将所述和值作为补偿后的瞳孔中心坐标;
根据所述瞳孔与眼角位置的对应关系,获取所述补偿后的瞳孔中心坐标对应的眼角点坐标,将所述眼角点坐标作为所述第二子补偿后的眼角位置坐标,并获取所述眼角点坐标与所述第一子补偿后的眼角位置坐标的所述差值,将所述差值作为所述细补偿量。
3.根据权利要求1所述的显示设备的注视点补偿方法,其特征在于,所述方法还包括:
建立瞳孔与眼角位置的对应关系。
4.根据权利要求3所述的显示设备的注视点补偿方法,其特征在于,所述建立瞳孔与眼角位置的对应关系具体包括:
获取用户分别注视多个标定点时的多幅标定眼部图像;
获取所述标定眼部图像的瞳孔中心坐标和眼角位置坐标;
根据所述标定眼部图像的瞳孔中心坐标与眼角位置坐标,建立瞳孔与眼角位置的关系方程式。
5.根据权利要求4所述的显示设备的注视点补偿方法,其特征在于,所述瞳孔与眼角位置的关系方程式为:
xcorner=a0+a1·x+a2·x2+a3·x3
ycorner=b0+b1·y+b2·y2+b3·y3
其中,瞳孔中心坐标为(x,y);眼角位置坐标为(xcorner,ycorner),a0、a1、a2、a3、b0、b1、b2和b3为瞳孔与眼角位置拟合曲线的系数。
6.根据权利要求1所述的显示设备的注视点补偿方法,其特征在于,所述获取所述实时眼部图像的眼角位置坐标具体包括:
获取所述实时眼部图像的瞳孔中心坐标;
对所述实时眼部图像进行边缘检测,以获取眼角区域中距离所述瞳孔中心坐标最远的边缘点的坐标,将所述边缘点的坐标作为所述实时眼部图像的眼角粗坐标;
对所述实时眼部图像进行角点检测,以获取多个角点坐标,并获取多个所述角点坐标中距离所述眼角粗坐标最近的角点坐标,将该角点坐标作为所述实时眼部图像的眼角位置坐标。
7.根据权利要求6所述的显示设备的注视点补偿方法,其特征在于,获取所述实时眼部图像的瞳孔中心坐标具体包括:
对所述实时眼部图像进行二值化处理,提取处理后的实时眼部图像中符合瞳孔特性的最大连通区域,并提取所述最大连通区域的边缘点;
根据所述边缘点进行瞳孔椭圆拟合,获取瞳孔中心坐标。
8.根据权利要求2所述的显示设备的注视点补偿方法,其特征在于,所述根据所述眼角点补偿量对注视点进行补偿具体包括:
根据眼角位置与注视点位置的对应关系,获取所述眼角点坐标对应的注视点坐标和所述眼角点补偿量对应的注视点补偿量;
获取所述注视点坐标与所述注视点补偿量的和值,将所述和值作为补偿后的注视点坐标。
9.根据权利要求8所述的显示设备的注视点补偿方法,其特征在于,所述眼角位置与注视点位置的对应关系的建立方法包括:
获取用户分别注视多个标定点时的多幅标定眼部图像;
获取所述标定眼部图像的眼角位置坐标,并获取与多幅所述标定眼部图像对应的注视点位置坐标;
根据所述标定眼部图像的眼角位置坐标与所述注视点位置坐标,建立眼角位置与注视点位置的关系方程式。
10.根据权利要求8所述的显示设备的注视点补偿方法,其特征在于,所述眼角位置与注视点位置的关系方程式为:
Gx=c0+c1·xcorner+c2·ycorner+c3·xcorner·ycorner
Gy=d0+d1·xcorner+d2·ycorner+d3·xcorner·ycorner
其中,注视点位置坐标为(Gx,Gy);眼角位置坐标为(xcorner,ycorner),c0、c1、c2、c3、d0、d1、d2和d3为眼角位置与注视点位置拟合曲线的系数。
11.一种显示设备的注视点补偿装置,其特征在于,所述装置包括:
眼部图像获取传感器,用于获取用户的实时眼部图像;
处理器,用于获取所述实时眼部图像的眼角位置坐标;所述处理器还用于若所述眼角位置坐标在初始标定范围内,则根据瞳孔与眼角位置的对应关系对所述眼角位置坐标进行第一补偿;若所述眼角位置坐标不在所述初始标定范围内,则对所述眼角位置坐标进行第二补偿,所述第二补偿被配置为使经过所述第二补偿后的眼角位置坐标至少在所述初始标定范围内;
所述处理器还用于根据所述第一补偿或所述第二补偿对注视点进行补偿;
数据存储器,用于存储所述实时眼部图像和所述实时眼部图像的眼角位置坐标,以及所述瞳孔与眼角位置的对应关系;
其中,
所述处理器具体用于:根据瞳孔与眼角位置的对应关系,获取所述实时眼部图像的瞳孔中心坐标对应的眼角点坐标与所述眼角位置坐标的差值,获取眼角点补偿量;
所述处理器还具体用于:根据眼角位置与注视点位置的对应关系,获取所述眼角点坐标对应的注视点坐标和所述眼角点补偿量对应的注视点补偿量;获取所述注视点坐标与所述注视点补偿量的和值,将所述和值作为补偿后的注视点坐标;
或者,
所述第二补偿包含第一子补偿和第二子补偿;所述处理器具体用于:
对所述眼角位置坐标进行第一子补偿,所述第一子补偿被配置为获取使所述眼角位置坐标落入所述初始标定范围内的最小补偿量,将所述最小补偿量作为粗补偿量,使经过所述第一子补偿后的眼角位置坐标在所述初始标定范围内;
对经过所述第一子补偿后的眼角位置坐标进行第二子补偿,所述第二子补偿被配置为根据所述瞳孔与眼角位置的对应关系对所述第一子补偿后的眼角位置坐标进行的补偿,并根据所述第二子补偿后的眼角位置坐标与所述第一子补偿后的眼角位置坐标的差值,获取细补偿量;
所述处理器还具体用于:获取所述粗补偿量和所述细补偿量的和值,将所述和值作为眼角点补偿量;根据所述眼角点补偿量对注视点进行补偿。
12.一种显示设备,其特征在于,包括:
存储器,用于存储计算机程序;
处理器,用于执行所述计算机程序,以实现如权利要求1至10中任意一项所述的显示设备的注视点补偿方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910005534.6A CN109766007B (zh) | 2019-01-03 | 2019-01-03 | 一种显示设备的注视点补偿方法及补偿装置、显示设备 |
US16/662,554 US10942567B2 (en) | 2019-01-03 | 2019-10-24 | Gaze point compensation method and apparatus in display device, and display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910005534.6A CN109766007B (zh) | 2019-01-03 | 2019-01-03 | 一种显示设备的注视点补偿方法及补偿装置、显示设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109766007A CN109766007A (zh) | 2019-05-17 |
CN109766007B true CN109766007B (zh) | 2022-05-27 |
Family
ID=66452641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910005534.6A Active CN109766007B (zh) | 2019-01-03 | 2019-01-03 | 一种显示设备的注视点补偿方法及补偿装置、显示设备 |
Country Status (2)
Country | Link |
---|---|
US (1) | US10942567B2 (zh) |
CN (1) | CN109766007B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200275087A1 (en) * | 2019-02-25 | 2020-08-27 | Kazuhiro Asakura | Computer-readable non-transitory storage medium, web server, and calibration method for interpupillary distance |
WO2020185219A1 (en) * | 2019-03-13 | 2020-09-17 | Hewlett-Packard Development Company, L.P. | Detecting eye tracking calibration errors |
CN110414427A (zh) * | 2019-07-26 | 2019-11-05 | Oppo广东移动通信有限公司 | 基于眼球追踪的测光方法及相关产品 |
CN110568930B (zh) * | 2019-09-10 | 2022-05-17 | Oppo广东移动通信有限公司 | 注视点校准方法及相关设备 |
CN111429316A (zh) * | 2020-03-23 | 2020-07-17 | 宁波视科物电科技有限公司 | 一种基于增强现实眼镜的在线学习专注力检测系统及方法 |
CN114067420B (zh) * | 2022-01-07 | 2023-02-03 | 深圳佑驾创新科技有限公司 | 一种基于单目摄像头的视线测量方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103809782A (zh) * | 2012-11-05 | 2014-05-21 | 宏碁股份有限公司 | 触碰位置补偿方法及装置 |
CN105045374A (zh) * | 2014-04-22 | 2015-11-11 | 联想(新加坡)私人有限公司 | 自动视线校准 |
CN107833251A (zh) * | 2017-11-13 | 2018-03-23 | 京东方科技集团股份有限公司 | 瞳孔定位装置和方法、虚拟现实设备的显示驱动器 |
US10061383B1 (en) * | 2015-09-16 | 2018-08-28 | Mirametrix Inc. | Multi-feature gaze tracking system and method |
CN109034108A (zh) * | 2018-08-16 | 2018-12-18 | 北京七鑫易维信息技术有限公司 | 一种视线估计的方法、装置和系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8317325B2 (en) * | 2008-10-31 | 2012-11-27 | Cross Match Technologies, Inc. | Apparatus and method for two eye imaging for iris identification |
-
2019
- 2019-01-03 CN CN201910005534.6A patent/CN109766007B/zh active Active
- 2019-10-24 US US16/662,554 patent/US10942567B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103809782A (zh) * | 2012-11-05 | 2014-05-21 | 宏碁股份有限公司 | 触碰位置补偿方法及装置 |
CN105045374A (zh) * | 2014-04-22 | 2015-11-11 | 联想(新加坡)私人有限公司 | 自动视线校准 |
US10061383B1 (en) * | 2015-09-16 | 2018-08-28 | Mirametrix Inc. | Multi-feature gaze tracking system and method |
CN107833251A (zh) * | 2017-11-13 | 2018-03-23 | 京东方科技集团股份有限公司 | 瞳孔定位装置和方法、虚拟现实设备的显示驱动器 |
CN109034108A (zh) * | 2018-08-16 | 2018-12-18 | 北京七鑫易维信息技术有限公司 | 一种视线估计的方法、装置和系统 |
Non-Patent Citations (2)
Title |
---|
《Targeting head movements in humans:Compensation for disturbance from simultaneous body rotations》;W.Becker等;《Human Movement Science》;20181031;第197-218页 * |
《一种由粗略到精确的瞳孔定位算法》;周永修等;《电子设计工程》;20160831;第181-183、186页 * |
Also Published As
Publication number | Publication date |
---|---|
US10942567B2 (en) | 2021-03-09 |
CN109766007A (zh) | 2019-05-17 |
US20200218343A1 (en) | 2020-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109766007B (zh) | 一种显示设备的注视点补偿方法及补偿装置、显示设备 | |
US9291834B2 (en) | System for the measurement of the interpupillary distance using a device equipped with a display and a camera | |
CN110032271B (zh) | 对比度调节装置及其方法、虚拟现实设备及存储介质 | |
EP3339943A1 (en) | Method and system for obtaining optometric parameters for fitting eyeglasses | |
CN110807427B (zh) | 一种视线追踪方法、装置、计算机设备和存储介质 | |
CN109656373B (zh) | 一种注视点定位方法及定位装置、显示设备和存储介质 | |
US20150029322A1 (en) | Method and computations for calculating an optical axis vector of an imaged eye | |
EP4383193A1 (en) | Line-of-sight direction tracking method and apparatus | |
CN111028205B (zh) | 一种基于双目测距的眼睛瞳孔定位方法及装置 | |
WO2008007781A1 (fr) | Dispositif de détection de la direction d'axe visuel et procédé de détection de la direction de ligne visuelle | |
WO2019153927A1 (zh) | 屏幕显示方法、具有显示屏幕的装置、设备及存储介质 | |
WO2016195066A1 (ja) | 眼球の運動を検出する方法、そのプログラム、そのプログラムの記憶媒体、及び、眼球の運動を検出する装置 | |
EP3270098B2 (en) | Measurement system for eyeglasses-wearing parameter, measurement program, measurement method therefor, and manufacturing method for eyeglasses lens | |
CN107357429A (zh) | 用于确定视线的方法、设备和计算机可读存储介质 | |
CN109144250B (zh) | 一种位置调节的方法、装置、设备及存储介质 | |
CN103217108B (zh) | 一种眼镜架几何参数检测方法 | |
CN108509908A (zh) | 一种基于双目立体视觉的瞳孔直径实时测量方法 | |
US20150049952A1 (en) | Systems and methods of measuring facial characteristics | |
CN113116291B (zh) | 眼球追踪的标定校准方法、装置、移动终端及存储介质 | |
CN114937024A (zh) | 图像评估方法、装置和计算机设备 | |
CN112232128A (zh) | 基于视线追踪的老年残障人士照护需求识别方法 | |
CN110781712B (zh) | 一种基于人脸检测与识别的人头空间定位方法 | |
CN113534945A (zh) | 眼球追踪校准系数的确定方法、装置、设备及存储介质 | |
EP4185184B1 (en) | Method for determining a coronal position of an eye relative to the head | |
CN106667496B (zh) | 一种面部数据测量方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |