CN107890337B - 用于确定受试者的眼睛的几何参数的方法 - Google Patents
用于确定受试者的眼睛的几何参数的方法 Download PDFInfo
- Publication number
- CN107890337B CN107890337B CN201710929403.8A CN201710929403A CN107890337B CN 107890337 B CN107890337 B CN 107890337B CN 201710929403 A CN201710929403 A CN 201710929403A CN 107890337 B CN107890337 B CN 107890337B
- Authority
- CN
- China
- Prior art keywords
- eye
- image
- pupil
- images
- iris
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/02—Lenses; Lens systems ; Methods of designing lenses
- G02C7/024—Methods of designing ophthalmic lenses
- G02C7/027—Methods of designing ophthalmic lenses considering wearer's parameters
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/107—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/11—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
- A61B3/112—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/50—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
Abstract
本发明涉及一种用于确定受试者的眼睛(20)的几何参数的方法,所述方法包括以下步骤:a)在所述受试者朝两个不同的注视方向(GD)观看的同时由图像捕捉装置(30)捕捉所述眼睛(20)的至少两个图像,b)在每个图像上识别所述眼睛(20)的瞳孔(10)和/或虹膜的图像,并且确定所述瞳孔和/或虹膜的图像(I10)的、与所述瞳孔和/或虹膜的这个图像的形状相关联的几何特征,c)根据针对所述多个图像中的每个图像确定的所述瞳孔和/或虹膜的所述图像(I10)的所述几何特征来确定所述眼睛(20)的所述几何参数。
Description
技术领域
本发明涉及用于确定受试者的眼睛的几何参数的方法。
背景技术
本发明总体上涉及对受试者进行几何形态测量。
更具体地,本发明涉及一种确定受试者的眼睛的几何参数的方法。
本发明的具体但非排他的应用在于对未来的眼镜受试者进行几何形态测量,目的是使待安装在所述未来受试者所选定的镜架中的矫正眼科镜片的光学设计个性化。
为了给特定受试者定制眼科镜片,需要确定受试者和/或受试者的与其眼镜的几何参数、姿势参数以及行为参数。
在这些参数中,确定至少一只眼睛的转动中心的位置。
眼睛的运动通常可以被认为是围绕被称为眼睛的转动中心(ERC)的特定点的转动的组合。
希望确定该点的位置,例如用于通过针对待正确装配到镜架上的矫正镜片的光线跟踪来执行个性化光学设计的计算。
在目前的实践中,可以通过假定眼睛的半径的平均值(通常值为约15毫米(mm))从角膜的位置大致推断出ERC的位置。不幸的是,眼睛的半径在不同个体之间变化很大,从而这种近似法导致对个性化光学设计计算的针对性非常不利的明显错误。
为了确定这个转动中心的位置,还已知的是,在受试者观看图像捕捉装置的同时捕捉配备有被称为位置识别元件的参照配件的受试者的至少两个面部图像。
这些图像被处理以确定眼睛的转动中心。参照配件给予受试者的头部与图像捕捉装置的相对位置的信息。
发明内容
因此,本发明的一个目的是提供一种在不使用参照配件的情况下在自然姿势下快速确定眼睛的转动中心的位置的方法。
根据本发明,通过提供一种用于确定受试者的眼睛的几何参数的方法来实现该目的,所述方法包括以下步骤:
a)在所述受试者朝两个不同的注视方向观看的同时由图像捕捉装置捕捉所述眼睛的至少两个图像,
b)在每个图像上识别所述眼睛的瞳孔的图像,并且确定所述瞳孔的图像的、与所述瞳孔的这个图像的形状相关联的几何特征,
c)根据针对所述多个图像中的每个图像确定的所述瞳孔的所述图像的所述几何特征来确定所述眼睛的所述几何参数。
通过本发明,基于所述眼睛的两个图像快速且以简单的方式确定了所述眼睛的几何参数,而无需使用参照配件。根据本发明的方法确实只需要一个图像捕捉装置来实现。
具体地,根据本发明的方法允许确定受试者的眼睛的转动中心相对于图像捕捉装置的位置。
根据本发明的方法还允许确定眼睛的转动中心相对于眼镜镜架或相对于仪器的位置。这可能是有用的,以便进行测量以将光学设备调整到受试者的面部的形状。
通过根据本发明的方法,即使在图像捕捉装置放置成非常接近受试者的眼睛(例如图像捕捉装置放置成距离眼睛2厘米)的情况下仍可以实现这些目标。
根据本发明的方法的其他有利的且非限制性的特征如下:
-在步骤a)中,所述两个不同的注视方向间隔开至少30度的角度;
-在步骤b)中,在所述图像中的每个图像上确定所述瞳孔和/或所述虹膜的所述图像的轮廓,并且所述瞳孔和/或所述虹膜的所述图像的所述几何特征与该轮廓的形状相关联;
-在步骤b)中,所述瞳孔和/或虹膜的所述图像的轮廓近似于模型椭圆,所确定的所述瞳孔或所述虹膜的所述图像的所述几何特征包括所述对应模型椭圆的短轴和长轴中的至少一者的方向、和/或与所述模型椭圆的离心率相关联的几何特征;
-在步骤c)中,所确定的所述眼睛的所述几何参数包括所述眼睛的转动中心相对于所述图像捕捉装置的位置;
-在步骤c)中,将所述眼睛的所述图像叠加,确定了与所述瞳孔和/或所述虹膜的所述图像的轮廓相关联的每个所述模型椭圆的短轴之间的至少一个交叉点的位置,并且从所确定的所述交叉点的位置推导出所述眼睛的转动中心的位置;
-在步骤c)中,将所述眼睛的转动中心的图像的位置识别为与所确定的所述瞳孔和/或所述虹膜的所述图像相关联的所述模型椭圆的所有短轴的平均交叉点的位置;
-在步骤a)中,在所述受试者看向对于所捕捉的每个图像而言不同的方向的同时,捕捉所述眼睛的多个图像,包括多于两个图像、优选地多于五个图像、优选地多于十个图像;
-在步骤c)中,所确定的所述眼睛的所述几何参数包括与所述眼睛的尺寸相关的距离、和/或所述眼睛的转动中心与图像捕捉装置之间的距离、和/或图像捕捉装置的光轴与注视轴线之间的角度、和/或所述注视轴线的方向、和/或放在所述眼睛前方的眼镜镜片与所述注视轴线之间的交叉点的位置;
-在步骤c)中,考虑了所述眼睛的预定模型;
-所述眼睛的所述预定模型包括被适配成在模型转动中心的给定距离处围绕该模型转动中心转动的圆形模型瞳孔或虹膜;
-在步骤b)中,在所述图像中的每个图像上确定所述瞳孔和/或虹膜的所述图像的轮廓,并且所述瞳孔和/或虹膜的所述图像的所述几何特征与该轮廓的形状相关联,并且在步骤c)中,通过以下方式确定所述眼睛的所述几何参数
-基于所述眼睛的所述预定模型,根据所寻求的所述眼睛的所述几何参数在所捕捉的图像上确定所述瞳孔或虹膜的所述图像的理论几何特征,
-使所述瞳孔或虹膜的所述图像的所述理论几何特征与在步骤b)中确定的在所捕捉的图像中所述瞳孔或虹膜的所述图像的所述几何特征之间的差异最小化;
-在步骤a)中,所述受试者的所述眼睛凝视照明源,同时捕捉所述眼睛的所述至少两个图像,并且确定所述照明源的角膜反射的图像的位置;
-在步骤a)中,所述图像捕捉装置被放置成距离所述眼睛小于2厘米、优选地距离所述眼睛小于1厘米;
-在步骤a)中,所述图像捕捉装置被侧向地放置在所述眼睛的一侧;并且,
-在步骤a)中,所述图像捕捉装置被放置在头部上或镜架上,所述镜架被放置在所述受试者的头部上。
具体实施方式
以下参考附图并通过非限制性实例给出的说明将清楚理解本发明包括的内容以及实践本发明的方式。
在附图中:
-图1是空间中的眼睛和图像捕捉装置的示意性表示;
-图2是由图1的图像捕捉装置捕捉的图像的示意性表示;
-图3是用于确定眼睛的转动中心的图像叠加的示意性表示;
-图4是眼睛、镜片和图像捕捉装置的示意性表示,
-图5是空间中两个位置处的眼睛的示意性表示,所述位置对应于眼睛正在观看水平线的两个点,
-图6是在图5上的眼睛的两个位置捕捉的两个图像的叠加的示意性表示,
-图7是空间中两个位置处的眼睛的示意性表示,所述位置对应于眼睛正在观看竖直线的两个点,
-图8是在图7上的眼睛的两个位置捕捉的两个图像的叠加的示意性表示,
-图9是眼睛和放置在该眼睛前方的镜片的示意性表示,用于确定眼睛的注视方向与镜片的交点I1。
为了给特定受试者定制眼科镜片,确定受试者的许多几何和/或生理和/或姿势和/或行为参数。还可以考虑镜架的一些特征和/或关于镜架在受试者的头部上的放置的一些参数。
这些参数中的许多参数的值的确定需要确定受试者的眼睛的几何参数,例如,作为参考,受试者的眼睛的转动中心的位置。
根据本发明,受试者的眼睛的此几何参数可以通过以下步骤来确定:
a)在所述受试者朝两个不同的注视方向观看的同时由图像捕捉装置捕捉所述眼睛的至少两个图像,
b)在每个图像上识别所述眼睛的瞳孔的和/或虹膜的图像,并且确定所述瞳孔和/或虹膜的所述图像的、与所述瞳孔和/或虹膜的这个图像的形状相关联的几何特征,
c)根据针对所述多个图像中的每个图像确定的所述瞳孔和/或虹膜的所述图像的所述几何特征来确定所述眼睛的所述几何参数。
通过本发明,基于所述眼睛的两个图像快速且以简单的方式确定了所述眼睛的几何参数,而无需使用参照配件。根据本发明的方法确实只需要一个图像捕捉装置来实现。
在实践中,为了在确定眼睛的几何参数方面达到高准确度,如下所述地捕捉和处理多于两个图像,例如至少三个图像、至少五个、至少10个图像或多个10个图像。
步骤a)
更精确地说,步骤a)包括以下子步骤:
a1)相对于图像捕捉装置的入射光瞳将受试者的眼睛置于第一相对姿势下;
a2)在所述第一相对姿势下,通过图像捕捉装置捕捉眼睛的第一平面图像;
a3)相对于图像捕捉装置的入射光瞳将受试者的眼睛置于第二相对姿势下;所述第二相对姿势与所述第一相对姿势不同;
a4)在所述第二相对姿势下,通过图像捕捉装置捕捉眼睛的第二平面图像。
注视方向是受试者正在观看的方向。注视方向可以被定义为穿过眼睛的转动中心和眼睛瞳孔中心的轴线。注视方向还穿过受试者固定的视准点。
有利地,所述两个不同的注视方向间隔开至少30度的角。
这确保了基于这两个图像确定眼睛的几何特征的令人满意的准确度。
在实践中,这优选是通过在受试者移动其眼睛(而与眼睛相比,图像捕捉装置保持在固定位置)的同时捕捉眼睛的多个图像来实现的。
所述图像捕捉装置被放置在受试者的头部上。
更精确地说,根据本发明的方法,图像捕捉装置优选地附接到受试者的头部。
例如,图像捕捉装置被放置在直接附接到头部的支架上。该支架可以是放置在受试者的头部上的眼镜镜架。
所述图像捕捉装置例如被侧向地放置在眼睛的一侧。因此,所述图像捕捉装置可以附接到镜架的分支和/或相应的圆上。
在这些条件下,所述图像捕捉装置被放置成距离眼睛小于2厘米、优选地距离眼睛小于1厘米。
而且,因此,在捕捉所述多个图像过程中,图像捕捉装置和受试者的头部的相对位置是固定的。
图像捕捉装置例如是相机,优选地是电影摄影机。
为了确保受试者的眼睛的注视方向在每次图像捕捉期间是不同的,则可以提供的是在捕捉第一和第二图像的同时眼睛分别观看第一和第二视准点。
在实践中,在捕捉眼睛的所述多个图像的同时,可以让受试者注视移动的视准点。
将所捕捉的所述多个图像发送到计算机单元。图像捕捉装置可以与该计算机单元成一体或形成独立的元件。
通过控制视准点的运动,可以控制受试者的眼睛的运动并且确保所捕捉的所述多个图像中的每个图像对应于一个不同的注视方向。
可以在特定的校准步骤过程中执行眼睛的多个图像的捕捉,在校准步骤过程中让受试者注视移动的视准点,或者可以在用眼睛追踪装置跟踪受试者的眼睛的同时连续地执行所述捕捉。在最后一种情况下,可以实时校准眼睛跟踪装置,以便校正眼睛跟踪装置相对于眼睛的任何运动。
优选地,在步骤a)中,在所述受试者看向对于所捕捉的每个图像而言不同的方向的同时,捕捉所述眼睛的多个图像,包括多于两个图像、优选地多于五个图像、优选地多于十个图像。
优选地,在步骤a)中,捕捉所述眼睛的多个侧视图像。
步骤b)
在所述第一和第二图像的每个图像中,识别眼睛的瞳孔和/或虹膜的图像。
可以通过任何已知的常规图像处理方法(如边缘检测算法)来执行这种识别。
在实践中,计算机单元被编程为用于在所捕捉的多个图像中的每个图像中识别受试者的眼睛的瞳孔的和/或虹膜的图像。
一旦已经识别了瞳孔的和/或虹膜的图像,则计算机单元经编程以确定所述瞳孔和/或虹膜的图像的、与所述瞳孔和/或虹膜的这个图像的形状相关联的几何特征。
通常,图像捕捉装置的光轴和注视方向不叠加,意味着与注视方向相比,图像捕捉装置的光瞳是偏移的。
眼睛的简单模型包括在转动中心的恒定距离处(也就是说在半径等于R瞳孔的球面上)围绕眼睛的转动中心转动运动的圆形瞳孔或虹膜。
出于此原因,在所捕捉的图像上,受试者的瞳孔和/或虹膜的图像通常呈现椭圆形形状。
在图中所示的和下面描述的实例中,将描述仅仅基于受试者的瞳孔的形状的方法的第一实施例,基于虹膜形状的方法是相同的。
图1上在空间中表示出受试者的眼睛20。在此由受试者移动眼睛时受试者的瞳孔10移动的区位表示所述眼睛。
眼睛的实际半径R眼睛实际上略大于瞳孔移动的区位的半径R瞳孔。
受试者的注视方向GD穿过受试者的瞳孔10的中心CP和眼睛20的转动中心ERC。
图像捕捉装置30的参考系(O,x,y,z)是相对于眼睛20放置的。轴线(O,z)连接图像拍摄装置的光瞳和眼睛的转动中心。该轴线在下文还将被称为观察轴线OD。
倾角θ位于观察轴线与注视方向之间。
瞳孔10的中心CP与眼睛20的转动中心ERC之间的距离是瞳孔移动的区位的半径R瞳孔。
图2示出了由图像捕捉装置捕捉的对应图像I,其中注视方向GD与观察轴线OD形成角θ。受试者的眼睛的图像I20中示出了受试者的瞳孔的图像I10。然后,图像被捕捉在与图像捕捉装置30相关联的所述参考系的平面(O,x,y)中。
如图2所示,受试者的眼睛的瞳孔的图像I10在所捕捉的图像I上具有中心为ICP的椭圆形状。因此,瞳孔的图像I10的轮廓接近于椭圆形。
瞳孔的图像的所述几何特征与瞳孔的图像I10的轮廓的形状相关联。
该轮廓由计算机单元确定,例如通过边缘检测方法。然后对计算机单元进行编程以确定瞳孔I10的图像的所述几何特征。
更精确地说,所述瞳孔的图像的轮廓近似于模型椭圆,所确定的所述瞳孔的图像的几何特征包括所述对应模型椭圆的短轴和长轴中的至少一者的方向、和/或与所述模型椭圆的离心率相关联的几何特征。
在这里描述的实例中,计算机单元经编程以确定对应于瞳孔的轮廓的椭圆的短轴和/或长轴。
更精确地说,计算机单元经编程以确定最接近瞳孔轮廓的模型椭圆,并且确定其短轴和长轴。
椭圆的长轴是该椭圆的最长直径Rgd,而短轴是椭圆的最短直径Rpt。
模型椭圆由以下特征确定:其中心的坐标(xc,yc),其离心率e和/或从椭圆的中心到沿着椭圆的短轴和长轴的周界的距离以及之前定义的倾角θ。
模型椭圆的确定是通过确定该椭圆的所述五个特征来确定的,对于模型椭圆,对应的椭圆穿过所确定的瞳孔的实际轮廓的较大数量的点。有利地,可以实现验证所确定的瞳孔的轮廓的品质的步骤。在该步骤中,可以基于以下各项来确定品质因数:
-所确定的轮廓的每侧的图像的平均对比度,
-瞳孔的图像I10的大小,
-所确定的轮廓与之前确定的先前轮廓之间的比较。
所述轮廓的两侧之间的对比度的差异越大,则品质因数将越高。可以将瞳孔的图像的大小与基于图像捕捉装置的参数所确定的理论大小进行比较:图像捕捉装置与眼睛之间的距离、图像捕捉装置的焦距。当所确定的瞳孔的图像的大小越接近于所计算出的理论大小时,则品质因数越高。
还可以将通过图像处理所确定的轮廓的特征与针对刚刚在所处理的当前图像之前捕捉的先前图像所确定的轮廓进行比较,以判定关于当前图像所确定的轮廓的特征是否与针对先前图像所确定的轮廓一致。基于关于先前图像所确定的轮廓和眼睛的运动(速度、轨迹),确实可以确定所捕捉的两个对应的图像之间的轮廓的变化,并且可以推导出预期理论轮廓。所确定的轮廓与预期轮廓之间的一致性越高,则品质因数将越高。
瞳孔的图像的所述几何特征与瞳孔的图像I10的轮廓的形状相关联。
更精确地说,如之前所述的,所述瞳孔的图像I10的轮廓近似于模型椭圆,所确定的所述瞳孔的图像的几何特征包括所述对应模型椭圆的短轴和长轴中的至少一者的方向、和/或与所述模型椭圆的离心率相关联的几何特征。
因此,计算机单元经编程以确定对应模型椭圆的短轴和长轴中的至少一者、和/或与模型椭圆的离心率相关联的所述几何特征。
步骤c)
在这里描述的实例中,所确定的所述眼睛的所述几何参数包括所述眼睛的转动中心相对于所述图像捕捉装置的位置。
可替代地,所确定的所述眼睛的几何参数可以包括与所述眼睛的尺寸相关的距离、和/或所述眼睛的转动中心与图像捕捉装置之间的距离、和/或图像捕捉装置的光轴与注视轴线之间的角度、和/或所述注视轴线的方向、和/或放在所述眼睛前方的眼镜镜片与所述注视轴线之间的交叉点的位置。
在此,计算机单元然后经编程以例如根据下面描述的程序来确定眼睛的转动中心的位置。在该程序中,认为:
-所有可能的眼睛转动只有一个眼睛转动中心,
-瞳孔透过角膜的畸变在中央视野和颞部视野中是已知的,
-每个图像的畸变已知可以是可忽略的或被校正,
-在捕捉所述多个图像的过程中,图像捕捉装置的位置相对于受试者的眼睛是固定的,
-眼睛的瞳孔的实际形状是圆形的。
在这里描述的实例中,在步骤c)中,将所述眼睛的图像叠加,并且确定与所述瞳孔的图像的轮廓相关联的两个所述模型椭圆的短轴之间的至少一个交叉点的位置。
从所确定的交叉点的位置推导出所述眼睛的转动中心的位置。
这例如在图3上表示出来。
更精确地说,可以用与瞳孔的至少两个图像I10相关联的模型椭圆的短轴M1、M2、M3、M4的交叉点来识别眼睛的转动中心的图像IERC的位置。
具体地,将所述眼睛的转动中心的图像IERC的位置例如识别为与所确定的瞳孔的图像相关联的所述模型椭圆的所有短轴M1、M2、M3、M4的平均交叉点的位置。
可替代地,转动中心的图像的位置可以被确定为短轴M1、M2、M3、M4的交叉点的质心。这种识别可以以图形方式(参见图3)或通过计算来执行。
通过图像捕捉装置的视野的校准,或者通过图像捕捉装置相对于其所固定到的镜架的已知位置,可以相对于镜架确定穿过图像捕捉装置的光瞳和眼睛的转动中心的线的方向。推导出图像捕捉装置参考系中转动中心的二维坐标。
可以基于图像捕捉装置的已知光学特征来推导出转动中心的三维坐标。可替代地,图像捕捉装置的参考系中眼睛的转动中心的坐标可以被转置到实际空间参考系中。
下面描述了参考系的变化。
在许多情况下,使用眼睛转动中心的位置的确定。
所述眼睛转动中心的位置的确定可以用于确定注视方向和/或其与受试者配戴的眼镜镜片的交点。所获得的精度小于2°的角度,例如在中央视野中角度为1°。
中央视野例如被定义为以主注视轴线为中心扩展30°的角区,其对应于以主注视轴线与直径为15毫米的镜片的交点为中心的中央区。
所述眼睛转动中心的位置的确定可以用于设计定制镜片。
所述眼睛转动中心的位置的确定可以用于对集成在受试者配戴的眼镜镜架中的眼睛跟踪装置进行校准。
在最后一种情况下,可以检查转动中心的位置,以确定眼镜镜架相对于受试者头部的运动。
可以确定受试者的眼睛的其他几何参数,例如眼睛的半径。
如先前所提及的,眼睛近似为受试者移动眼睛时受试者的瞳孔移动的区位。眼睛的半径可以近似为受试者移动其眼睛时瞳孔的区位的半径。
因此,可以通过确定眼睛的转动中心与所捕捉的图像之一上的模型椭圆的中心之间的距离来确定眼睛的半径。优选地,计算出转动中心与关于所捕捉的每个图像所确定的模型椭圆的中心之间的平均距离。
例如,实际的瞳孔是半径等于Rgd的圆形,所捕捉的图像上的瞳孔的图像具有沿着长轴的、等于Rgd的半径和沿着短轴的、等于Rpt=Rgd*cos(θ)的半径,其中θ是注视方向GD与观察轴线之间的倾角(图1和图2)。
R瞳孔是当受试者移动其眼睛时瞳孔的区位的半径,并且Dist是瞳孔的中心的图像与眼睛的转动中心的图像之间的距离,单位为像素(图2)。
在图像上测量出距离Dist(图2)。
于是,R瞳孔=Dist/sinθ=Dist/sin(acos(Rpt/Rgd))。
然后以像素为单位计算出R瞳孔。
已经确定了R瞳孔、和转动中心的图像IERC的坐标(xcro,ycro),可以确定注视方向GD相对于观察轴线OD的倾角θ,如θ=Asin(Dist/R瞳孔)。
眼睛的半径R眼睛可以基于瞳孔的区位的半径R瞳孔来估计。
在变体中,为了确定眼睛的半径R眼睛,在第一步骤中,如之前所述的,确定转动中心的位置。
然后,参照图4,操作者对主注视方向PGD与受试者配戴的眼镜的镜片P的交点I0进行标记。主注视方向是受试者直视前方时的注视方向。
然后,确定标记I0与放置在与图像捕捉装置相关联的参考系(O,x,y,z)的原点O处的图像捕捉装置之间的距离OI0(图4)。
图像捕捉装置30在此应当被大致放置在镜片的正中面上。
在变体中,镜片的正中面可以由相对于图像捕捉装置的已知位置的平面代替。
确定主注视方向PGD与观察轴线OD之间的角度θ0,如cosθ0=Rpt/Rgd。
然后计算出眼睛的转动中心ERC与图像捕捉装置30之间的距离d,如d=OI0/sinθ0。
由于图像的校准(图4),在所捕捉的图像上以度为单位测量出观察轴线OD与在注视方向GD和眼睛的交点处眼睛20的切线之间的角度α。
然后,可以推导出眼睛的半径,如R眼睛=d*sinα。
作为变体,眼睛的这个半径可以例如在所捕捉的图像上以像素为单位进行测量。
转动中心ERC与镜片P之间的距离L也可以使用以下公式按照图4上的转动中心ERC与点I0之间的距离来确定:OI0/L=tanθ0。
可以通过将转动中心与镜片之间的距离L的值减去眼睛的半径R眼睛来推导出眼睛与镜片之间的距离(眼睛镜片距离),如ELD=L-R眼睛。
可以按如下方式确定用于改变参考系的参数。
例如,通过根据本发明的方法,确定了眼睛的几何参数,例如转动中心的位置、眼睛移动时瞳孔的图像的形状、眼睛移动时的瞳孔的区位、观察轴线。
对于注视方向的参考方向,例如主注视方向,在镜片上记下点I0的标记。
如图5示意性地表示出的,在眼睛观看空间的参考水平线RH的同时,捕捉眼睛的至少两个图像。这些图像于是与针对瞳孔10的中心的位置P1和P2的、图5的两个不同的注视方向GD1、GD2相对应。
该参考水平线可以例如是房间中的墙壁W1与天花板CL之间的交集。优选地,两个注视方向GD1和GD2之间的角度α水平最大,例如高于30°。
在这两个所捕捉的图像中穿过瞳孔10的中心P1、P2的轴线被作为与真实空间中的注视方向相关联的空间参考系(I0,X,Y,Z)的(I0,X)轴线。
图6示出了在参考图5描述的情况下捕捉的两个图像的叠加I1。
如该图6所示,在与真实空间中的注视方向相关联的参考系的(I0,X)轴线和与图像捕捉装置相关联的(O,x)轴线之间存在角度β0。
为了将参考系从与真实空间中的注视方向相关联的参考系(I0,X)变为与图像捕捉装置相关联的参考系(O,x),确定以下矩阵:
以类似的方式,可以针对竖直轴线确定参考系的变化。
如图7示意性地表示出的,在眼睛观看空间的参考竖直线RV的同时,捕捉眼睛的至少两个图像。这些图像于是与针对瞳孔10的中心的位置P3和P4的、图7的两个不同的注视方向GD3、GD4相对应。
该参考竖直线可以例如是房间中的墙壁W1与另一墙壁W2之间的交集。优选地,两个注视方向GD3和GD4之间的角度α竖直最大,例如高于30°。
在这两个所捕捉的图像中穿过瞳孔10的中心P3、P4的轴线被作为与真实空间中的注视方向相关联的空间参考系(I0,X,Y,Z)的(I0,Y)轴线。
图8示出了在参考图7描述的情况下捕捉的两个图像的叠加I2。
如该图所示,在与真实空间中的注视方向相关联的参考系的(I0,Y)轴线和与图像捕捉装置相关联的(O,y)轴线之间存在角度γ0。
参考系(I0,X,Y)被投影到镜片P上。
参考系的变化可以在图像捕捉装置与方框法参考系(boxing referential)之间进行。然后通过由图像捕捉装置成像的棋盘测试图案来标记X轴。棋盘形测试图案被放置成垂直于由眼镜镜架的分支形成的水平面。
有用的应用是确定注视方向、其与镜片的平面P的交点以及镜片的使用区域。
参照图9,可以实现注视方向GD5与镜片P之间的交叉点I5的坐标(X5,Y5)的近似计算,如X5=L*tan(θ5-θ0),Y5=L*tan(λ5-λ0)。测量出观察轴线OD与其在参考系的(I0,Y,Z)平面中的投影之间的角度θ0。测量出观察轴线OD与注视方向GD5在(I0,X,Z)平面中的投影之间的角度θ5。测量出主注视轴线PGD与观察轴线OD在参考系的(I0,Y,Z)平面中的投影之间的角度λ0。测量出注视轴线GD5与其在参考系的(I0,Y,Z)平面中的投影之间的角度λ5。在根据本发明的方法的另一实施例中,考虑了更完整的眼睛模型。
这有利地允许将以下内容考虑在内:
-当图像捕捉装置被放置在眼睛的颞侧或在眼睛的鼻侧时,瞳孔具有不同的形状,
-与瞳孔的轮廓相对应的模型椭圆的离心率以复杂的方式取决于之前定义的注视方向和观察轴线之间的角度,
-瞳孔的形状可能取决于注视方向、眼睛的会聚度、照明条件……
-瞳孔可能展现出与圆形形状不同的形状。
这样的眼睛模型可以在以下出版物中找到:由作者Cathleen Fedtke、FabriceManns和Arthur Ho于2010年10月7日在光学快报(OPTICS EXPRESS)上发表的“Theentrance pupil of the human eye:a three-dimensional model as a function ofviewing angle[人眼的入射瞳孔:根据视角变化的三维模型]”、以及Ankit Mathur、JuliaGehrmann、David A.Atchison发表在视觉期刊(Journal of Vision)(2013)13(6):3,1-8的“Pupil shape as viewed along the horizontal visual field[沿水平视野观察到瞳孔形状]”。
在考虑了眼睛的完整模型的本实施例中,如之前所述地执行步骤a)。在步骤b)中,在每个所述图像上确定所述瞳孔的图像的轮廓,并且所述瞳孔的图像的所述几何特征与该轮廓的形状相关联。
在下文中,将仅考虑瞳孔。
在步骤c)中,通过以下方式确定所述眼睛的所述几何参数
-基于所述眼睛的预定模型,根据所寻求的所述眼睛的几何参数在所捕捉的图像上确定所述瞳孔的图像的理论几何特征,
-使所述瞳孔的图像的理论几何特征与在步骤b)中确定的在所捕捉的图像中所述瞳孔的图像的几何特征之间的差异最小化。
在眼睛的完整模型中,实现了瞳孔的一般模型:该一般模型可以是如在先前的实例中考虑的恒定圆形瞳孔,或者是允许瞳孔具有非圆形形状、和/或例如根据光条件或注视方向而随着时间而变化的形状的更复杂模型。瞳孔的一般模型在距眼睛的转动中心的一定距离处围绕转动中心ERC转动,所述距离可以近似于眼睛的半径R眼睛。
在步骤b)中,在每个所捕捉的图像中,确定瞳孔的图像的轮廓。通过将所有图像叠加,还可以确定在眼睛转动过程中瞳孔的图像的区位。
眼睛的转动中心的图像的位置和眼睛的图像的半径是基于所捕捉的图像的叠加来确定的。
该距离是基于多个图像的叠加来确定的。该距离是以像素为单位确定的并且被转换成毫米。基于所捕捉的每个图像来确定瞳孔的一般模型的参数。
针对每个图像确定穿过瞳孔的图像的中心和眼睛的转动中心的图像的注视轴线的图像。
实际的注视轴线可以用参考系的变化来推导出来。
确定对应于实际注视轴线的瞳孔图像的理论形状。将所确定的瞳孔的图像的轮廓与瞳孔的图像的该理论形状进行比较,并且推导出该轮廓与理论形状之间的差异。
对于所捕捉的且经处理的所有图像,通过使瞳孔的轮廓与瞳孔的理论形状之间的差异最小化来优化转动中心的图像的位置、所确定的眼睛的半径R眼睛以及瞳孔的一般模型的参数。
根据本发明的方法是经验性的,并且不需要图像捕捉装置和/或眼镜镜架相对于受试者头部的位置的信息。根据本发明的方法既不需要额外的照明装置,也不需要关于它们相对于受试者头部的位置的信息。
转动中心的位置被精确地确定。
一旦确定了这些图像中的转动中心的位置和眼睛的半径,可以通过对所捕捉的图像进行处理来确定眼睛的其他几何参数。
可以分析相对于瞳孔的视准点的角膜反射的轨迹,以便确定角膜形貌的制图。
所述方法可以在集成到智能眼镜上的眼睛跟踪器中、或者在用于确定受试者的安装参数或用于设计定制镜片的形态几何参数的眼镜商用仪器中使用。
所述方法还可以在用于测量眼睛参数(如角膜形貌、和眼睛散度)的角膜分析仪中使用。
Claims (19)
1.一种用于确定受试者的眼睛(20)的几何参数的方法,包括以下步骤:
a)在所述受试者朝两个不同的注视方向(GD)观看的同时由图像捕捉装置(30)捕捉所述眼睛(20)的至少两个图像,
b)在所述眼睛的所述至少两个图像中的每个图像上识别所述眼睛(20)的瞳孔(10)和/或虹膜的图像,并且确定所述瞳孔和/或所述虹膜的图像(I10)的、与所述瞳孔和/或虹膜的图像的形状相关联的几何特征,
c)根据针对所述至少两个图像中的每个图像确定的所述瞳孔和/或虹膜的所述图像(I10)的所述几何特征来确定所述眼睛(20)的所述几何参数。
2.根据权利要求1所述的方法,其中,在步骤b)中,在所述眼睛的所述至少两个图像中的每个图像上确定所述瞳孔和/或所述虹膜的所述图像(I10)的轮廓,并且所述瞳孔和/或所述虹膜的所述图像的所述几何特征与该轮廓的形状相关联。
3.根据权利要求2所述的方法,其中,在步骤b)中,所述瞳孔和/或所述虹膜的所述图像(I10)的轮廓近似于模型椭圆,所确定的所述瞳孔或所述虹膜的所述图像的所述几何特征包括所述模型椭圆的短轴(M1,M2,M3,M4)和长轴中的至少一者的方向、和/或与所述模型椭圆的离心率相关联的几何特征。
4.根据权利要求1所述的方法,其中,在步骤a)中,所述两个不同的注视方向间隔开至少30度的角度。
5.根据权利要求1所述的方法,其中,在步骤c)中,所确定的所述眼睛的所述几何参数包括所述眼睛(20)的转动中心(ERC)相对于所述图像捕捉装置(30)的位置。
6.根据权利要求5所述的方法,其中,在步骤b)中,所述瞳孔和/或所述虹膜的所述图像(I10)的轮廓近似于模型椭圆,并且在步骤c)中,将所述眼睛的所述至少两个图像叠加,确定了与所述瞳孔和/或所述虹膜的所述图像(I10)的轮廓相关联的每个所述模型椭圆的短轴(M1,M2,M3,M4)之间的至少一个交叉点的位置,并且从所确定的所述交叉点的位置推导出所述眼睛(20)的转动中心(ERC)的位置。
7.根据权利要求6所述的方法,其中,在步骤c)中,将所述眼睛的转动中心的图像(IERC)的位置识别为与所确定的所述瞳孔和/或所述虹膜的所述图像相关联的所述模型椭圆的所有短轴(M1,M2,M3,M4)的平均交叉点的位置。
8.根据权利要求1所述的方法,其中,在步骤a)中,在所述受试者看向对于所捕捉的每个图像而言不同的方向的同时,捕捉了所述眼睛的多个图像,所述多个图像包括多于两个图像。
9.根据权利要求8所述的方法,其中,所述多个图像包括多于五个图像。
10.根据权利要求8所述的方法,其中,所述多个图像包括多于十个图像。
11.根据权利要求1所述的方法,其中,在步骤c)中,所确定的所述眼睛的所述几何参数包括与所述眼睛的尺寸相关的距离(R眼睛)、和/或所述眼睛的转动中心与图像捕捉装置之间的距离(L)、和/或连接所述眼睛的转动中心和所述图像捕捉装置的观察轴线(OD)与注视轴线(GD)之间的角度、和/或所述注视轴线(GD)的方向、和/或放在所述眼睛前方的眼镜镜片(P)与所述注视轴线(GD)之间的交叉点(I0,I1)的位置。
12.根据权利要求1所述的方法,其中,在步骤c)中,考虑了所述眼睛的预定模型。
13.根据权利要求12所述的方法,其中,所述眼睛的所述预定模型包括被适配成在模型转动中心的给定距离处围绕该模型转动中心转动的圆形模型瞳孔或虹膜。
14.根据权利要求12和13之一所述的方法,其中,
-在步骤b)中,在所述眼睛的所述至少两个图像中的每个图像上确定所述瞳孔和/或虹膜的所述图像的轮廓,并且所述瞳孔和/或虹膜的所述图像的所述几何特征与该轮廓的形状相关联,
-在步骤c)中,通过以下方式确定所述眼睛的所述几何参数
-基于所述眼睛的所述预定模型,根据所寻求的所述眼睛的所述几何参数在所捕捉的图像上确定所述瞳孔或虹膜的所述图像的理论几何特征,
-使所述瞳孔或虹膜的所述图像的所述理论几何特征与在步骤b)中确定的在所捕捉的图像中所述瞳孔或虹膜的所述图像的所述几何特征之间的差异最小化。
15.根据权利要求1所述的方法,其中,在步骤a)中,所述受试者的所述眼睛凝视照明源,同时捕捉所述眼睛(20)的所述至少两个图像,并且确定所述照明源的角膜反射的图像的位置。
16.根据权利要求1所述的方法,其中,在步骤a)中,所述图像捕捉装置被放置成距离所述眼睛小于2厘米。
17.根据权利要求14所述的方法,其中,在步骤a)中,所述图像捕捉装置被放置成距离所述眼睛小于1厘米。
18.根据权利要求1所述的方法,其中,在步骤a)中,所述图像捕捉装置被侧向地放置在所述眼睛的一侧。
19.根据权利要求16和18中任一项所述的方法,其中,在步骤a)中,所述图像捕捉装置被放置在头部上或镜架上,所述镜架被放置在所述受试者的头部上。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16306302.7 | 2016-10-04 | ||
EP16306302.7A EP3305176A1 (en) | 2016-10-04 | 2016-10-04 | Method for determining a geometrical parameter of an eye of a subject |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107890337A CN107890337A (zh) | 2018-04-10 |
CN107890337B true CN107890337B (zh) | 2021-01-22 |
Family
ID=57153424
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710929403.8A Active CN107890337B (zh) | 2016-10-04 | 2017-10-09 | 用于确定受试者的眼睛的几何参数的方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10634934B2 (zh) |
EP (2) | EP3305176A1 (zh) |
CN (1) | CN107890337B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11112863B2 (en) * | 2018-01-17 | 2021-09-07 | Magic Leap, Inc. | Eye center of rotation determination, depth plane selection, and render camera positioning in display systems |
WO2019143864A1 (en) | 2018-01-17 | 2019-07-25 | Magic Leap, Inc. | Display systems and methods for determining registration between a display and a user's eyes |
WO2019154511A1 (en) | 2018-02-09 | 2019-08-15 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters using a neural network |
EP3749172B1 (en) | 2018-02-09 | 2022-03-30 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters |
EP3750028B1 (en) | 2018-02-09 | 2022-10-19 | Pupil Labs GmbH | Devices, systems and methods for predicting gaze-related parameters |
JP6840697B2 (ja) * | 2018-03-23 | 2021-03-10 | 株式会社豊田中央研究所 | 視線方向推定装置、視線方向推定方法、及び視線方向推定プログラム |
CN112689869A (zh) | 2018-07-24 | 2021-04-20 | 奇跃公司 | 用于确定显示器与用户的眼睛之间的配准的显示系统和方法 |
JP7180209B2 (ja) * | 2018-08-30 | 2022-11-30 | 日本電信電話株式会社 | 眼情報推定装置、眼情報推定方法、プログラム |
EP3912013A1 (en) | 2019-01-16 | 2021-11-24 | Pupil Labs GmbH | Methods for generating calibration data for head-wearable devices and eye tracking system |
US11676422B2 (en) * | 2019-06-05 | 2023-06-13 | Pupil Labs Gmbh | Devices, systems and methods for predicting gaze-related parameters |
FR3106740A1 (fr) * | 2020-02-03 | 2021-08-06 | Imagine Eyes | Procédés et systèmes de contrôle de l’alignement de l’œil dans un appareil d’imagerie ophtalmologique |
EP3985483A1 (en) | 2020-10-19 | 2022-04-20 | Carl Zeiss Vision International GmbH | Computer-implemented method for determining a position of a center of rotation of an eye using a mobile device, mobile device and computer program |
CN115546214B (zh) * | 2022-12-01 | 2023-03-28 | 广州视景医疗软件有限公司 | 一种基于神经网络的集合近点测量方法和装置 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4973149A (en) * | 1987-08-19 | 1990-11-27 | Center For Innovative Technology | Eye movement detector |
JP2600114B2 (ja) * | 1994-11-28 | 1997-04-16 | 工業技術院長 | ノイズに強い正確な楕円近似による計測方法 |
JP4203279B2 (ja) * | 2002-07-26 | 2008-12-24 | 独立行政法人科学技術振興機構 | 注目判定装置 |
EP1691670B1 (en) * | 2003-11-14 | 2014-07-16 | Queen's University At Kingston | Method and apparatus for calibration-free eye tracking |
CA2967756C (en) | 2004-04-01 | 2018-08-28 | Google Inc. | Biosensors, communicators, and controllers monitoring eye movement and methods for using them |
JP2008136789A (ja) * | 2006-12-05 | 2008-06-19 | Nec Corp | 眼球パラメータ推定装置及び方法 |
JP4966816B2 (ja) | 2007-10-25 | 2012-07-04 | 株式会社日立製作所 | 視線方向計測方法および視線方向計測装置 |
US7850306B2 (en) * | 2008-08-28 | 2010-12-14 | Nokia Corporation | Visual cognition aware display and visual data transmission architecture |
EP2485118A4 (en) | 2009-09-29 | 2014-05-14 | Alcatel Lucent | METHOD FOR DETECTING VISUALIZATION POINTS AND CORRESPONDING APPARATUS |
JP5816257B2 (ja) | 2010-03-22 | 2015-11-18 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 観察者の視線を追跡するシステム及び方法 |
RU2576344C2 (ru) * | 2010-05-29 | 2016-02-27 | Вэньюй ЦЗЯН | Системы, способы и аппараты для создания и использования очков с адаптивной линзой на основе определения расстояния наблюдения и отслеживания взгляда в условиях низкого энергопотребления |
JP5466610B2 (ja) | 2010-09-27 | 2014-04-09 | パナソニック株式会社 | 視線推定装置 |
US20130131985A1 (en) * | 2011-04-11 | 2013-05-23 | James D. Weiland | Wearable electronic image acquisition and enhancement system and method for image acquisition and visual enhancement |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
FR2980592B1 (fr) * | 2011-09-28 | 2014-05-16 | Essilor Int | Procede de mesure de parametres morpho-geometriques d'un individu porteur de lunettes |
US9311746B2 (en) * | 2012-05-23 | 2016-04-12 | Glasses.Com Inc. | Systems and methods for generating a 3-D model of a virtual try-on product |
EP2867720B1 (en) * | 2012-06-29 | 2020-05-20 | Essilor International | Ophthalmic lens supply system and related methods |
WO2014021169A1 (ja) | 2012-07-31 | 2014-02-06 | 独立行政法人科学技術振興機構 | 注視点検出装置、注視点検出方法、個人パラメータ算出装置、個人パラメータ算出方法、プログラム、及びコンピュータ読み取り可能な記録媒体 |
JP6014931B2 (ja) * | 2012-09-06 | 2016-10-26 | 公立大学法人広島市立大学 | 視線計測方法 |
KR101382772B1 (ko) * | 2012-12-11 | 2014-04-08 | 현대자동차주식회사 | 디스플레이 시스템 및 방법 |
FR3015058B1 (fr) * | 2013-12-16 | 2017-12-08 | Essilor Int | Procede de controle de la conformite de montage d'une monture et de verres correcteurs |
WO2015116640A1 (en) * | 2014-01-29 | 2015-08-06 | Shazly Tarek A | Eye and head tracking device |
EP3103059A1 (de) * | 2014-02-04 | 2016-12-14 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | 3d-bildanalysator zur blickrichtungsbestimmung |
WO2015131009A1 (en) * | 2014-02-28 | 2015-09-03 | The Johns Hopkins University | Eye alignment monitor and method |
US9775512B1 (en) * | 2014-03-19 | 2017-10-03 | Christopher W. Tyler | Binocular eye tracking from video frame sequences |
FR3021204A1 (fr) * | 2014-05-20 | 2015-11-27 | Essilor Int | Procede de determination d'au moins un parametre de comportement visuel d'un individu |
JP2016028669A (ja) * | 2014-07-23 | 2016-03-03 | 株式会社Jvcケンウッド | 瞳孔検出装置、および瞳孔検出方法 |
US9807383B2 (en) * | 2016-03-30 | 2017-10-31 | Daqri, Llc | Wearable video headset and method for calibration |
US10108260B2 (en) * | 2016-04-01 | 2018-10-23 | Lg Electronics Inc. | Vehicle control apparatus and method thereof |
US9898082B1 (en) * | 2016-11-01 | 2018-02-20 | Massachusetts Institute Of Technology | Methods and apparatus for eye tracking |
CN109863502A (zh) * | 2016-11-10 | 2019-06-07 | 纽诺创科技术公司 | 将图像拍摄设备与人类用户相关联以分析认知能力的方法和系统 |
-
2016
- 2016-10-04 EP EP16306302.7A patent/EP3305176A1/en not_active Withdrawn
-
2017
- 2017-10-03 US US15/723,783 patent/US10634934B2/en active Active
- 2017-10-03 EP EP17194551.2A patent/EP3305178A3/en active Pending
- 2017-10-09 CN CN201710929403.8A patent/CN107890337B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
EP3305178A2 (en) | 2018-04-11 |
US10634934B2 (en) | 2020-04-28 |
EP3305176A1 (en) | 2018-04-11 |
CN107890337A (zh) | 2018-04-10 |
EP3305178A3 (en) | 2018-07-25 |
US20180095295A1 (en) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107890337B (zh) | 用于确定受试者的眼睛的几何参数的方法 | |
CN111031893B (zh) | 用于确定与眼科装置相关联的至少一个参数的方法 | |
US8360580B2 (en) | Method of measuring the position, in a horizontal direction in the sagittal plane, of a remarkable point of an eye of a subject | |
US9323075B2 (en) | System for the measurement of the interpupillary distance using a device equipped with a screen and a camera | |
US10288910B2 (en) | Devices and methods for determining the position of a characterizing point of an eye and for tracking the direction of the gaze of a wearer of spectacles | |
EP2761365B1 (en) | MEASUREMENT apparatus OF MORPHO-GEOMETERICAL PARAMETERS OF A PERSON WEARING EYEGLASSES | |
JP5013930B2 (ja) | 眼鏡装用パラメータ測定装置及び眼鏡装用パラメータ測定方法 | |
JP6953563B2 (ja) | 光学パラメータを決定するための装置および方法 | |
JP2012239566A (ja) | 眼鏡用測定装置及び三次元測定装置 | |
US10048516B2 (en) | Methods and systems for measuring human faces and eyeglass frames | |
US9110312B2 (en) | Measurement method and equipment for the customization and mounting of corrective ophthalmic lenses | |
CN111033362B (zh) | 用于校正定心参数和/或轴向位置的方法以及相应的计算机程序和方法 | |
US10175507B2 (en) | Loupe mounting position determination method in binocular loupe device, and system | |
CN115053270A (zh) | 用于基于用户身份来操作头戴式显示系统的系统和方法 | |
US11313759B2 (en) | Method and device for measuring the local refractive power and/or the refractive power distribution of a spectacle lens | |
JP2007093636A (ja) | 眼鏡装用パラメータ測定装置、眼鏡レンズ及び眼鏡 | |
JP2014042806A (ja) | 注視線測定方法、注視線測定装置、眼球回旋点測定方法及びアイポイント測定装置 | |
JP2019215688A (ja) | 自動キャリブレーションを行う視線計測装置、視線計測方法および視線計測プログラム | |
CN111417893B (zh) | 用于检验眼科镜片在镜架中的安装的方法和组件 | |
KR20220002280A (ko) | 자연스럽게 바라보는 자세로 있는 대상자의 머리에 대한 유향 3d 표현을 구현하는 방법 | |
JP2013097014A (ja) | 位置データ算出方法 | |
US20240160287A1 (en) | Optical sightline tracking for a wearable system | |
JP6297378B2 (ja) | 眼鏡レンズ設計方法、眼鏡レンズ製造方法、眼鏡レンズ設計システムおよび眼鏡レンズ設計装置 | |
WO2022235709A1 (en) | Generation of a 3d model of a reference object to perform scaling of a model of a user's head | |
PT108554A (pt) | Sistema e método para medição da distância interpupilar através do alinhamento de um objecto de dimensão conhecida sobre um alvo |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |