CN111031893A - 用于确定与眼科装置相关联的至少一个参数的方法 - Google Patents

用于确定与眼科装置相关联的至少一个参数的方法 Download PDF

Info

Publication number
CN111031893A
CN111031893A CN201880056473.XA CN201880056473A CN111031893A CN 111031893 A CN111031893 A CN 111031893A CN 201880056473 A CN201880056473 A CN 201880056473A CN 111031893 A CN111031893 A CN 111031893A
Authority
CN
China
Prior art keywords
frame
worn
image
point
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880056473.XA
Other languages
English (en)
Other versions
CN111031893B (zh
Inventor
西尔万·勒加卢
热罗姆·盖纳尔
阿里埃尔·舒克龙
塞尔日·库拉尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FITTINGBOX
EssilorLuxottica SA
Original Assignee
Vision Center Co
FITTINGBOX
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vision Center Co, FITTINGBOX filed Critical Vision Center Co
Publication of CN111031893A publication Critical patent/CN111031893A/zh
Application granted granted Critical
Publication of CN111031893B publication Critical patent/CN111031893B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Optics & Photonics (AREA)
  • Eyeglasses (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及用于自动确定与由个人选择的眼科装置相关联的至少一个参数的方法,所述装置包括被称为被选镜架的镜架,所述确定是根据所获取的佩戴被选镜架或第二眼科装置的镜架的个人的面部图像来进行的。该方法包括以下步骤:‑在所获取图像上检测个人的至少一个眼睛的至少一个特征点并且估计检测到的一个或更多个特征点的三维位置;‑检测被佩戴镜架并且通过将被佩戴镜架的三维表示与所获取图像中的被佩戴镜架对准来估计被佩戴镜架的三维位置;以及‑根据眼睛相对于被选镜架的三维表示的相对位置来确定一个或更多个参数。

Description

用于确定与眼科装置相关联的至少一个参数的方法
本发明的技术领域
本发明的领域是光学领域,并且更具体地是测量以使眼科装置的至少一个镜片适应个人的视力的领域。
更具体地,本发明涉及用于确定与意在由个人佩戴的眼科装置相关联的至少一个参数的方法。这样的装置可以是例如眼镜或面罩。
具体地,本发明应用于例如在不专注于光学仪器的零售区域中建立的商店或独立售货亭中的眼科装置的销售的领域。
背景技术
通常,在眼镜镜架中使镜片适应个人的视力需要确定例如下述的光学参数,镜片宽度、镜片高度、中梁宽度(bridge width)、有效直径、曲率角、瞳孔距离、单眼瞳孔距离、瞳孔高度、子片高度(segment height)、倾斜角(pantoscopic tilt)或顶点距离。有两个主要标准来指示镜架圆轮廓(frame circle contour)的尺寸:基于用矩形来框定圆的BOXING系统或者基于圆的半高宽(mid-height width)的DATUM系统。BOXING系统是镜片制造商普遍使用的标准,并且是自动磨床上默认的标准,而DATUM系统是传统标准。在DATUM系统中,通常使用尺子直接在镜片上测量高度。
图5示出BOXING系统与DATUM系统之间的差异,其中A表示镜片宽度,D表示中梁宽度,B表示镜片高度。这两个系统之间的主要差异在于中梁宽度D的定义,在DATUM系统中,中梁宽度D对应于在镜片的一半高度(mid-height)处测量的镜片之间的距离,而在BOXING系统中,中梁宽度D对应于镜片之间的最小距离。镜片定心点由瞳孔间距Pd和瞳孔高度h定义。在图5中瞳孔间距(Pd)被表示为从镜片之间的中轴到瞳孔的距离。高度h本身取决于所选择的系统。在BOXING系统中,高度h从镜片基部(lens base)来定义,即从与两个镜片同时相切的线来定义。而在DATUM系统中,高度h从垂直于定心点的镜片的底部边缘来定义。
图6表示示出被称为曲率角或包角的角度W的镜架的顶视图,角度W由中梁的切线与连接镜片之一的前部的端部的平面之一之间的角度来定义。该角度是水平测量的。
通常在镜架的2D图像上测量被选镜架的固有光学参数,即不需要镜架佩戴者的存在也可测量的固有光学参数,例如参数A、B、D和W。然后,这些参数通常被相对不准确地确定,因为用于测量的图像与三维对象在平面中的投影相对应,特别是通常是弯曲或倒圆的三维对象。
镜片装配所关注的其他眼部测量以及对患者的所需测量包括:瞳孔距离(PD)、单眼瞳孔距离(monoPD)、倾斜角(PA)、顶点距离(VD)、镜架基部与瞳孔中心之间的高度(FH:术语“装配高度(Fitting Height)”的缩写)、镜架基部与部分地覆盖瞳孔的下眼睑之间的高度(SH:术语“子片高度”的缩写)以及最后的有效直径(ED),该有效直径(ED)对应于要切割的眼镜镜片中的最小镜片直径。
这些与将镜架佩戴在个人面部上有关的光学参数通常是通过使用测试图案(mire)的间接方法计算的,所述测试图案被定位在个人面部上,通常被夹在由个人选择的镜架上。所使用的测试图案具有其中几何构型是准确已知的参考系,以便在佩戴具有测试图案的镜架的个人的面部图像上测量与所述个人相关联的眼部参数和光学参数。
这些技术的主要缺点在于:镜架要求测试图案在镜架上最佳地定位并且个人相对于测量装置尽可能地前额平行。当满足此双重要求时,则会显著地避免测量的视差误差,这在实践中是很少见的情况。
因此,这些技术通常会导致与测试图案的不良定位有关的测量误差,这会影响经校正的镜片在由个人选择的镜架中的定位,可以理解,在两个独立镜架之间的测量转换也可能在对被装配到被选镜架中的镜片的校正的定位中引入附加误差。
此外,应当注意,这些技术通常提出一种具有基本平坦且非弯曲表面的测试图案镜架,这在弯曲镜架的测量转换中引入了另外的困难。
最后,这些基于测试图案的技术可能被个人认为是侵入性的或者是令人不适的。
还应注意,测试图案通常是特定于特定的测量装置。
发明目的
目前的系统均不适于同时满足全部的必要要求,也就是说,为了提出一种准确并且对面部相对于获取装置的定位不敏感的自动测量系统。
本发明的另一目的是提出一种测量技术,该测量技术不需要光学测量领域的技术人员特别是配镜师的干预。
本发明的另一目的是提出一种测量技术,该测量技术使用任何类型的眼镜镜架并且特别地直接针对由需要光学校正的个人选择的镜架。
本发明的另一目的是通过避免与不良的定位和/或测量偏移相关联的偏差来使测量误差最小化。
本发明的另一目的是提出一种技术,该技术适于最佳地调整针对近景和/或远景对装配到由个人选择的镜架中的镜片进行的校正的定位。
发明内容
这些目的以及下文中将出现的其他目的使用一种用于自动确定与由个人选择的眼科装置相关联的至少一个参数的方法实现,所述眼科装置包括被称为被选镜架的镜架,所述确定是根据佩戴被称为被佩戴镜架的眼镜镜架的个人的面部图像来进行的,所述被佩戴镜架是被选镜架或者第二眼科装置的镜架,所述图像由图像获取系统获取。
通过该方法确定的可以被称为光学参数的参数是如下参数:与个人面部相关联的参数,例如瞳孔间距;与眼镜镜架相关联的参数,例如镜片宽度、中梁宽度或镜腿宽度(temple width);或者与镜架和个人面部均有关的参数,例如顶点距离或倾斜角。基于通过该方法确定的参数,从而可以根据需要佩戴镜架的个人来确定可选的校正镜片的尺寸,以便将所述镜片正确地定位在镜架中。
眼科装置可以是例如眼镜或面罩。眼科装置还可以是用于保护将所述装置佩戴在其面部上的个人的眼睛的装置。
应当注意,眼科装置的镜架通常在个人头部的两侧横向延伸。
由个人佩戴并且通过根据本发明的方法使用的镜架可以有利地是由个人选择的最终镜架,这使得可以特别地根据被选镜架在个人面部上的佩戴来确定参数。通常,被选镜架是由寻求购买其中要装配至少一个校正镜片的镜架的个人选择的实际镜架。
应当注意,在有利实施方式中,由个人佩戴的镜架是常规镜架,其不包括意在通过识别参考系的三维位置来测量参数的任何特定参考系。
此外,被佩戴镜架可以有利地包括未进行光学校正的通常被称为中性镜片的至少一个镜片,或者包括至少一个校正镜片。应当注意,所述校正镜片包括至少一个光学校正。
根据本发明,确定方法包括以下步骤:
-在所获取图像上检测个人的至少一个眼睛的至少一个特征点,并且估计检测到的特征点在图像获取系统的参考系中的三维位置;
-检测被佩戴镜架,并且通过将被佩戴镜架的三维表示与所获取图像中的被佩戴镜架对准来估计被佩戴镜架在图像获取系统的参考系中的三维位置;
-在被佩戴镜架是第二眼科装置的镜架的情况下,在图像获取系统的参考系中定位被选镜架的三维表示,被选镜架的表示是相对于被佩戴镜架的表示通过被选镜架与被佩戴镜架之间的定位偏差来定位的,所述偏差是预先设立的;
-表达每个特征点相对于被选镜架的三维表示的位置;
-根据眼睛相对于被选镜架的三维表示的相对位置来确定参数。
换句话说,在其中在所获取图像中个人佩戴被选镜架的第一种情况下,确定方法包括以下步骤:
-在所获取图像上检测个人的至少一个眼睛的至少一个特征点,并且估计检测到的特征点在图像获取系统的参考系中的三维位置;
-检测被选镜架,并且通过将被选镜架的三维表示与所获取图像中的被选镜架对准来估计被选镜架在图像获取系统的参考系中的三维位置;
–表达每个特征点相对于被选镜架的三维表示的位置;
-根据眼睛相对于被选镜架的三维表示的相对位置来确定参数。
在其中在所获取图像中个人佩戴也被称为第二镜架的第二眼科装置的镜架的第二种情况下,确定方法包括以下步骤:
-在所获取图像上检测个人的至少一个眼睛的至少一个特征点,并且估计检测到的特征点在图像获取系统的参考系中的三维位置;
-检测第二镜架,并且通过将第二镜架的三维表示与所获取图像中的第二镜架对准来估计第二镜架在图像获取系统的参考系中的三维位置;
-在图像获取系统的参考系中定位被选镜架的三维表示,被选镜架的表示是相对于第二镜架的表示通过所述两个镜架之间的定位偏差来定位的,所述偏差是预先设立的;
-表达每个特征点相对于被选镜架的三维表示的位置;
-根据眼睛相对于被选镜架的三维表示的相对位置来确定参数。
因此,在这两种情况下,对一个或多个参数的测量是准确的,这是因为归功于虚拟地叠加在被佩戴镜架上的被选镜架的忠实表示,该测量是直接在由个人选择的镜架上进行的。这些测量参数对于使镜片适应镜架是特别有用的。
在第二种情况下,第二镜架用作被选镜架的定位参考。由于通常是不同的两个镜架在被佩戴在面部上时被不同地定位,因此可能引入偏差。特别地,根据每个镜架的形状和/或尺寸,鼻子和耳朵上的接触点可能不同。
眼睛的特征点优选地是瞳孔的特征点、虹膜的特征点或眼球的特征点例如其旋转中心。
应当注意,通常在与被选镜架的三维表示的参考系共同的参考系中进行每个特征点的位置的表达。优选地,为了确定参数,使用计算的参考系对应于被选镜架的三维表示的参考系。
通常使用本领域技术人员公知的建模技术进行对镜架的表示,例如在以公开号WO2013/139814公开的国际专利申请中描述的建模技术。
应当注意,测量质量取决于镜架在虚拟空间中的三维表示的质量。如果不将实际佩戴的镜架的表示与在所获取图像中的被佩戴镜架对准,则非常难以直接获得实际佩戴的镜架相对于图像获取系统的三维位置,这使得不能获得可靠且准确的测量质量。
还应注意,对被佩戴镜架的三维定位的确定特别地是通过在所获取图像中的被佩戴镜架上对准的虚拟镜架执行的,而不是通过三维扫描仪或者利用深度摄像机对被佩戴镜架的位置进行直接计算而执行的。
此外,也可以在图像上、在深度图上或在从扫描仪获得的点云上执行对定位的确定。实际上,针对这些情况中的每一种,通过镜架的三维表示在所获取图像上的投影来在两个维度中执行镜架的三维表示的对准,或者通过深度图或扫描仪的点云直接在三个维度中执行镜架的三维表示的对准。特别地,镜架的三维表示的这种对准使得可以保留眼镜的语义并避免对所获取图像进行解释。
作为示例,目前可以在虚拟空间中获得具有相对于实际镜架的小于0.2mm的偏差的镜架的三维表示,因此使得可以获得小于0.5mm,有利地小于0.1mm的参数测量质量。
此外,可以由本领域技术人员例如配镜师自动地或手动地执行特征点的检测。
在本发明的特定实施方式中,通过计算被佩戴镜架的三维表示的投影的轮廓与所获取图像中的被佩戴镜架的轮廓之间的距离函数的最小值来执行对被佩戴镜架的三维位置的估计,被佩戴镜架的三维表示适于被铰接和/或被变形,以便正确地定位被佩戴镜架的三维表示,然后计算被佩戴镜架的三维表示的三维位置,该三维位置被认为与被佩戴镜架的实际三维位置相对应。
从而,被佩戴镜架的表示适于被铰接和/或被变形,该表示更准确地与实际佩戴的镜架对应,这是因为适于调整被佩戴镜架的表示的最小化函数使得可以获得最优结果。此外,假定该表示更加准确,则参数的确定被增强。换句话说,通过该方法执行的测量误差减小。
在本发明的特定实施方式中,每个瞳孔的特征点是瞳孔的中心,该瞳孔的中心被计算为表示虹膜的圆的中心,所述圆通过最小化该圆在图像上的投影与瞳孔在图像上的轮廓之间的距离函数来被三维定位和定向的。
在本发明的特定实施方式中,眼睛的眼球中心的位置被计算为:
-在所述眼睛的注视点已知的情况下,眼睛的眼球中心的位置被计算为等于位于由所述眼睛的瞳孔的中心和所述注视点所限定的线上的、在等于眼球的平均半径的距离处的点;
-在所述眼睛的注视点未知的情况下,眼睛的眼球中心的位置被计算为等于下述的球体的中心,所述球体的半径等于眼球的平均半径并且虹膜表示所述球体的切割平面。
在本发明的特定实施方式中,该方法还包括以下步骤:
-确定每个眼睛的注视点的3D位置;
-基于预先确定的注视点的3D位置来校正眼球的旋转中心的位置。
在本发明的特定实施方式中,每个眼睛的注视点的3D位置对应于相对于图像获取系统的位置已知的元素。
优选地,这样的元素是在被定位在图像获取系统附近的镜子中反射的图像。
应当注意,镜子通常被有利地定向成使得个人看到他的面部的图像。
因此,当个人在镜子中看自己时,注视点的3D位置对应于在镜子中反射的他的面部的点的图像,例如眼睛附近的点或者与个人的一个眼睛相对应的点。注视点的3D位置也可以对应于在镜子中显示的个人的眼睛之间的中点。
应当注意,镜子的使用使得可以通过无限地接近PD的条件来测量平均PD。实际上,镜子使个人的眼睛能够聚焦在比镜子的实际位置更远的点上。因此,当个人通过镜子看他的面部的图像时,这些眼睛与注视点之间的距离基本上是这些眼睛与镜子之间的距离的两倍。
在本发明的特定实施方式中,注视点的位置对应于图像获取系统的摄像机的位置。
在本发明的特定实施方式中,该方法还包括以下步骤:通过在表示面部的三维模型上定位被选镜架的三维表示和个人所佩戴的第二镜架的三维表示来确定所述两个三维表示之间的定位偏差。
在本发明的特定实施方式中,该方法还包括以下步骤:制作面部的三维模型,所述三维模型包括检测到的特征点;以及在面部的三维模型上叠加虚拟镜架。
在本发明的特定实施方式中,该方法还包括以下步骤:预先获取个人的无眼镜的面部的至少一个图像,制作面部的三维模型包括将所制作的无眼镜的面部的模型与个人的面部对准。
应当注意,面部的表示可以是三维表示或根据相似或几乎相同的视角捕获的图像。
换句话说,制作面部的三维模型包括以下子步骤:
-确定与个人面部相对于图像获取系统的定位和定向有关的实际参数;
-在虚拟空间中通过预先生成的虚拟模型来表示个人的面部,被称为替身的所述虚拟模型通过预先确定的实际参数被定位和定向在图像获取系统的参考系中。
在本发明的特定实施方式中,图像获取系统是立体的。
换句话说,在这些实施方式中,图像获取系统包括至少两个摄像机,所述至少两个摄像机相对于彼此偏移并且被相似地定向以便能够根据同时获取的两个图像来推断由图像获取系统获取的场景的对象相对于所述系统的距离。
优选地,获取系统包括至少三个摄像机。
在本发明的特定实施方式中,图像获取系统包括深度摄像机。
在本发明的特定实施方式中,图像获取系统包括至少一个红外摄像机。
因此,图像获取系统可以更容易地获取位于太阳镜镜片后面的眼睛的图像,该太阳镜镜片通常至少部分地去除可见光。
在本发明的特定实施方式中,图像获取系统的全部摄像机或一些摄像机在度量上被校准。
换句话说,已知每个摄像机的镜头的焦距、光学中心和变形的固有参数,以及与摄像机在图像获取系统的有利地度量上的参考系中的相对定位和定向有关的外部参数,这使得可以直接在图像上进行测量,并且在知道与摄像机对应的比例的情况下推断实际值。
因此,可以根据图像直接确定参数,而无需精确地知道被佩戴的眼镜的尺寸。
在本发明的特定实施方式中,所确定的参数包括在以下列表中:
-瞳孔距离(PD);
-单眼瞳孔距离(monoPD);
-倾斜角(PA);
-顶点距离(VD);
-镜架基部与瞳孔的中心之间的高度(FH);
-镜架基部与下眼睑之间的高度(SH);
-有效镜片直径(ED);
-每个镜片的注视路径。
注视路径,也称为行进路径,对应于在与远景相对应的注视方向和与近景相对应的注视方向之间的个人的注视方向与镜片的交点的行进在镜片上的轨迹。
准确地知道每个镜片上的注视路径特别地使得可以根据针对近景的眼睛位置和针对远景的眼睛位置来适应渐进校正的位置。
在本发明的特定实施方式中,倾斜角的确定通过以下步骤来执行:
-检测个人的两个嘴角;
-估计两个嘴角之间的中点的3D位置;
-通过计算由中点和每个瞳孔的特征点形成的平面与装配到被选镜架中的镜片的平面之间的角度来确定倾斜角的值。
在本发明的特定实施方式中,还根据镜架的底点来确定至少一个参数,该底点包括在与两个镜片同时相切的线上。
在本发明的特定实施方式中,自动确定方法包括预先执行对由个人佩戴的镜架进行建模的步骤。
在本发明的特定实施方式中,自动确定方法包括预先执行校准获取系统的步骤。
在本发明的特定实施方式中,自动确定方法还包括发送考虑预先确定的参数的镜片命令(lens command)的步骤。
在本发明的特定实施方式中,自动确定方法还包括基于预先确定的参数来装配眼镜的镜片的步骤。
优选地,该方法还包括基于预先确定的参数来加工眼镜的镜片的步骤。
本发明还涉及一种计算机程序产品,该计算机程序产品包括一系列指令,所述一系列指令用于执行根据在先实施方式中的任一实施方式的自动确定方法的步骤。
最后,本发明还涉及一种包括屏幕、多个摄像机、计算机处理器和存储有所述计算机程序产品的计算机存储器的装置。
应当注意,通常将装置的摄像机定向成朝向自然地位于实时或准实时地显示个人图像的屏幕前方的个人。
附图说明
参照附图,本发明的其他优点、目的和特定特征将从以下对根据本发明的装置和方法的至少一个特定实施方式的非限制性描述中显现,在附图中:
-图1表示根据本发明的用于测量光学参数的装置的示例;
-图2是根据本发明的自动确定方法的实施方式的示例的示意图;
-图3示出DATUM系统和BOXING系统中的高度的定义;
-图4是镜架和相关联的参考系的三维表示;
-图5示出BOXING系统和DATUM系统之间的差异;
-图6是镜架的顶视图表示;
-图7以示意图形式示出根据本发明的两个实施方式的方法的主要步骤。
具体实施方式
以非限制性方式给出本描述,可选地,实施方式的每个特征与任何其他实施方式的任何其他特征被有利地结合。
应当注意,到目前为止,这些图未按比例绘制。
本发明的实施方式的示例
图1表示用于测量由佩戴眼镜120的镜架120的个人110所使用的光学参数的装置100,所述眼镜120是个人110先前在光学装置购买环境中选择的。
在本示例中,装置100包括基本上放置在竖直平面上的显示屏130和包括至少两个摄像机140的获取系统。两个摄像机140中的被称为主摄像机1401的一个摄像机以显示屏的竖直中轴131为中心,而另一个摄像机1402与主摄像机1401在同一竖直平面上,但向屏幕130的左侧水平偏移。
主摄像机1401拍摄面向屏幕130定位的个人110的图像。从而,个人110看到在屏幕130上显示的他的图像。
有利地,第二摄像机1402水平偏移使得可以在利用由主摄像机获得的图像进行处理之后获得场景的三维表示,也称为立体图像。这样的立体图像是例如在水平偏移为厘米或数十厘米数量级时获得的。
可以通过添加其他摄像机,例如相对于中轴131对称定位的第三摄像机来增强该三维表示。
有利地,摄像机140可以对红外线敏感,以便通过非偏振太阳镜镜片观察瞳孔,并且限制任何类型的镜片上的眩光数量,从而便于瞳孔的定位。
此外,摄像机140还可以包括位于其镜头前方的偏振滤光器,以便通过偏振镜片特别是太阳镜的镜片来观察瞳孔。
应当注意,有利地,对获取系统进行校准,即,由摄像机140提供的场景的图像使得可以获得场景的度量表示。
装置100还包括处理计算机程序产品的指令的计算机处理器150,所述指令实现用于自动确定与由个人110佩戴的镜架120相关联的至少一个光学参数的方法。特别地,将这些指令存储在装置100所包括的存储器160中。
图2以示意图形式示出了自动确定方法200,该自动确定方法200的步骤由装置100的计算机处理器150处理。
该方法包括以下的第一步骤210:获取佩戴镜架120的个人110的多个图像。在该步骤210期间,每个摄像机140至少获取一个图像。
应当注意,对由每个摄像机140获取的图像在度量上进行校准。因此,在步骤211期间,在从图像的获取的上游进行校准。
此外,在步骤212期间还预先通过本领域技术人员公知的建模技术,例如在以公开号WO 2013/139814公布的国际专利申请中描述的建模技术对被选镜架120进行建模。因此,也称为虚拟镜架的被选镜架的三维表示被存储在连接至装置100的数据库中。应当注意,三维表示的尺寸忠实于实际镜架。因此,它们是准确的,其中,偏差小于1mm,有利地偏差小于0.5mm,优选地偏差小于0.2mm。此外,通过检测并识别由个人110佩戴的镜架120来自动从数据库检索被选镜架的虚拟表示,或者,例如通过如下方式指示镜架120的参考来手动地从数据库检索被选镜架的虚拟表示:所述方式是通过读取条形码或者通过在物理键盘上或在屏幕130上显示的键盘上进行输入。
使用所获取的图像,在检测步骤215期间使用例如用于基于视觉描述符检测对象的已知技术来检测被选镜架120。这些基于学习技术的检测方法至少给出对象的位置和比例。可以在眼镜的镜架的图像上或者在佩戴眼镜的镜架的面部的图像上执行所述学习。也可以仅使用面部检测器获得足够准确的位置和比例,以执行以下的在2D图像中对准3D对象的步骤。此外,还存在例如在“Deep MANTA:A Coarse-to-fine Many-Task Network forjoint 2D and 3D vehicle analysis from monocular image,F.Chabot,M.Chaouch,CVPR2017”中描述的检测器,其可以提供所寻求元素的初始3D空间定位解决方案。
在本发明的该特定实施方式的替选实施方式中,通过将所获取图像与在其面部上未佩戴眼镜镜架的个人120的图像进行比较,来进行对个人110佩戴的镜架120的检测。
基于在步骤215期间检测被选镜架120所获取的图像,在方法200的步骤220期间,使用在三个维度上忠实地表示实际镜架的虚拟镜架,进行对镜架120相对于主摄像机1401的三维位置的估计。被选镜架120的三维位置,即对象在3D场景中的旋转RM和平移TM,可以通过在所获取的个人110的图像中实际佩戴的被选镜架上重新对准被选镜架的三维表示来手动获得或者利用用于在图像上对准3D对象的算法通过在个人110的眼睛的水平处初始化该算法来自动获得。对于这种算法,本领域技术人员可以例如参考Yumi Iwashita、RyoKurazume和Kenji Hara的题为“Fast Alignment of 3D Geometrical Models and 2DColor Images using 2D Distance Maps”的文献。本领域技术人员还可以参考由T.W.Drummond和R.Cipolla于2002年在Image and Vision Computing期刊集中发表的题为“Real-time tracking of complex structures with on-line camera calibration”的文献。
应当注意,在此步骤期间,可以使镜架的三维表示被铰接和/或被变形,以考虑由个人110佩戴的镜架的镜腿的实际开度(opening)。
为此,使用基于镜架的模型的轮廓的最小化等式。令gl3Dl=1..p是该模型的3D点,ngl3Dl=1..p是这些点的法线,并且σi是这些点的子集,以使得这些点的法线与这些点到摄像机i的投影垂直,最小化函数如下:
Figure BDA0002395153670000121
其中,Rg和Tg是用于正确定位眼镜(pair)的旋转矩阵和平移矩阵,并且其中,G(gl3Dl,θ,γ)是根据要变形的点的位置来控制镜腿的开度(θ)及其扭转(γ)的参数θ和γ的变形函数。函数bestCont()返回图像的点,该点对应于沿着以镜架模型的3D点在图像中的投影为中心的子片的具有最高梯度范数的点。沿该子片的方向由3D点的法线的投影给出。例如在“combining Edge and Texture Information for Real-Time Accurate 3DCamera Tracking,Vacchetti,V.Lepetit,P.Fua,Third IEEE and ACM InternationalSymposium on Mixed and Augmented Reality,2004”中所描述的多重假设模式使得可以保留具有最高梯度值的点并选择最佳点。
并行地,方法200包括以下步骤230:通过结合由至少两个摄像机140同时获取的图像来估计瞳孔的中心的三维位置。该立体视觉特别地使得可以获得眼睛的3D位置而不需要估计顶点距离VD。
实际上,利用对包括多个摄像机140的装置100的图像获取系统以及每个所获取图像中瞳孔的中心的2D位置的校准,特别地基于使用极线几何的三角剖分的立体视觉原理使得可以获得瞳孔的中心在用于校准摄像机的参考系中的3D位置。
在本发明的该特定实施方式的替选实施方式中,图像获取系统包括深度摄像机,该深度摄像机使得可以获得眼睛以及因此瞳孔的中心在图像获取系统的参考系中的3D位置。
应当注意,瞳孔的中心的2D位置预先由配镜师手动确定,或者使用面部特征点的检测器自动确定。例如,使用用于搜索瞳孔轮廓的方法来实现对瞳孔的自动检测,随后将瞳孔的中心确定为表示检测到的瞳孔的椭圆的中心。
因此,例如可以通过较易于检测的自动虹膜检测来进行对图像中的瞳孔的自动检测。可以使用面部检测器对自动虹膜检测进行初始化,该面部检测器使得可以检测眼角或每个虹膜的近似中心,但是也可以使用使得可以检测眼睛区域的眼镜检测器对自动虹膜检测进行初始化。假设瞳孔的中心的位置等于虹膜的中心,则这涉及在三维空间中定位圆的位置、定向和尺寸,例如圆在每个图像中的投影与虹膜重合,所述虹膜相当于图像中的椭圆。已经预先定位了眼镜,由眼镜的镜架包围的虹膜的搜索区域相对被限制,这使得可以减少误报的可能性。要估计的参数为圆的半径、圆的中心位置以及圆相对于其中心的定向。假定圆是平面的并且在平面中相对于其中心是对称的,则两个参数足以表征圆在三维空间中的定向。因此要估计六个参数值。用平均虹膜半径对该圆进行初始化,并使得该圆的中心投影在图像中的镜片中心的水平处。然后,基于距离图或者轮廓模型与图像轮廓之间的距离的技术使得可以准确地检索圆在3D空间中的半径、位置和定向。在该圆上采样的3D点被投影在所获取图像中。圆是3D空间中的平面对象,其每个采样点处的法线由穿过该点和圆心的线定义。由于圆对象是平面的并且用户的虹膜仍然可见,因此法线被视为仍然可见。要最小化的成本函数是点的投影之间的距离与函数bestCont()的平方和。
为了简化眼部测量值的计算,在步骤240期间,根据镜架的3D位置和瞳孔的中心的3D位置来表示每个瞳孔在虚拟镜架的参考系中的位置。
每个眼睛的瞳孔的中心在镜架的参考系中的3D位置由以下等式表征:
PG3D=RM -1(PG3D0-TM)以及PD3D=RM -1(PD3D0-TM)
其中,PG3D0和PD3D0是左瞳孔和右瞳孔各自的中心在预先确定校准的参考系中的3D坐标。
然后,方法200包括步骤250,在步骤250期间,计算眼球的中心的3D位置并将眼球的中心的3D位置表达在镜架的参考系中。
为此,在个人110正在看被认为面向个人110的中央摄像机1401时获取图像的情况下,则中央摄像机1401的位置表示个人110的眼睛的注视点。眼睛的每个旋转中心(PCOG3D和PCOD3D)则位于在穿过每个瞳孔中心和注视点的线上的距瞳孔中心一定距离处,所述一定距离是眼球的平均半径减去角膜尺寸。应当注意,注视点对于个人110的每个眼睛而言可能略有不同。
可以根据协议定义注视点的确定,在此协议中,个人110看着以下点中的全部点或部分点:
-面向个人的摄像机;
-辅助摄像机;
-屏幕上显示的点;
-位于屏幕右上方的点;
-位于屏幕左下方的点。
应当注意,在该协议中,屏幕相对于包括摄像机的图像获取系统的位置是已知的。
在该步骤的替选实施方式中,个人110看着其他注视点,例如不面向个人的摄像机或者在位于屏幕130附近,优选地在屏幕130的平面中的镜子上反射的其面部图像,并且所述其他注视点相对于图像获取装置的位置是已知的。通过围绕例如主摄像机1401,镜子还可以有利地对应于主摄像机1401的位置。然后,需要增加一个中间步骤,该中间步骤包括:包含观察到的点的3D位置,所述观察到的点的3D位置用于校正以下内容:
-眼球的旋转中心的位置(其位于由注视点和瞳孔中心定义的轴上)。换句话说,眼球旋转中心的位置是通过注视点和瞳孔中心的3D位置推导的;
-用于计算光学中心的通过同向反向模拟的注视路径,该计算随后在方法200的步骤260期间执行。
在当个人注视点未知时获取图像的情况下,可以在估计瞳孔中心的三维位置的步骤230期间,从针对每个虹膜计算的圆中检索每个眼球的旋转中心的位置。考虑平均眼球半径,则可以通过计算具有等于平均眼球半径的半径并且虹膜表示切割平面的球体的中心的位置来确定每个眼睛的旋转中心。应当注意,对于每个眼睛,平均眼球(mean eyeball)的旋转中心对应于位于颅骨内部的溶液(solution)。也可以通过考虑作为简化眼睛模型的表示位于给定距离处的虹膜的圆来检索每个眼球的旋转中心的位置,所述给定距离例如为标准眼球或者适于相对于校正的变形的眼球的半径的平均值减去角膜厚度(即角膜顶点与虹膜之间的距离)。然后通过例如在以公开号WO 2013/045531公布的国际申请中描述的方法解析该简化模型在所获取图像上的位置,来确定旋转中心的位置。
在步骤260期间,通过每个镜片和穿过对应眼睛的旋转中心及其注视点的线之间的交点来给出镜片的光学中心(在镜架的参考系中表达的PCOVG3D和PCOVD3D)。
然后,可以通过将镜片的光学中心(PCOVG3D和PCOVD3D)与属于同一镜片组的最远3D点之间的距离乘以2来获得有效直径(ED)。
并行地,方法200包括步骤270,在步骤270期间,根据镜架和瞳孔的中心的3D位置,计算瞳孔的底点以及围绕镜架的镜片的每个圆的底点在镜架的参考系中的3D位置。
在步骤270期间,基于与在步骤230期间执行的瞳孔中心的3D位置的计算方法类似的方法执行对位置的计算。因此可以估计:
-每个瞳孔上的最底点的3D位置(如果瞳孔被下眼睑覆盖,则这将包括瞳孔/眼睑边界上可见的最底点)。可以通过启动瞳孔上的检测器或基于形成圆的瞳孔水平处的轮廓的图像来自动化对所获取图像中的这些点的检测。
-镜架中的每个镜片的水平处的“镜架基部”点的3D位置。为了确定这些“镜架基部”点,对于BOXING配镜系统,它是3D中的形成每个镜片的组中的最底点,而对于DATUM系统,它是3D中的形成垂直于每个光学中心的每个镜片的组中的最底点。这些点在DATUM系统的情况下对于计算高度PH1是有用的或者在BOXING系统的情况下对于计算高度PH2是有用的,如图3所示。
应当注意,不一定要在所获取图像中进行对BOXING系统中的这些点的检测,因为这些点可以在镜架的3D模型上被预先定位。
最后,方法200包括计算眼部测量值的步骤280。顶点距离(左和右)是虹膜中心与其在每个镜片上的投影之间的欧几里得距离:
DVOG=║PG3D-PCOVG3D║2且DVOD=║PD3D-PCOVD3D║2
瞳孔距离(PD)由下式给出:
PD=║PCOG3D-PCOD3D║2
基于在步骤230期间确定的个人110的瞳孔的中心的坐标,在镜架的参考系中,令(xPG,yPG,zPG)为左瞳孔的中心的3D坐标并且令(xPD,yPD,zPD)为右瞳孔的中心的3D坐标。
应当注意,如图4所示,镜架410的参考系的中心位于镜架410的中梁420的中心处,并且对应于被定义为穿过两个镜片440的轴的x轴430的原点。
单眼瞳孔距离(monoPD)由下式给出:
monoPDG=-xPG
monoPDD=xPD
基于在步骤270期间在镜架的参考系中确定的瞳孔底部的3D坐标和镜架底部的3D坐标,令(xPdownG,yPdownG,zPdownG)为左瞳孔底部的3D坐标,令(xPdownD,yPdownD,zPdownD)为右瞳孔底部的3D坐标,令(xMG,yMG,zMG)为在左镜片水平处的镜架底部的3D坐标,并且令(xMD,yMD,zMD)为在右镜片水平处的镜架底部的3D坐标。
高度(FH)由下式给出:
FHG=zMG-zPG+GrooveOffset
FHD=zMD-zPD+GrooveOffset
子片高度(SH)由下式给出:
SHG=zMG-zPdownG+GrooveOffset
SHD=zMD-zPdownD+GrooveOffset
其中,GrooveOffset表示由患者选择的镜架的凹槽深度。该值根据镜架材料的类型被输入或直接从镜架的3D建模中检索。
最后,如果个人110针对远景采取自然姿势,即水平注视方向或被定向成朝向地平线,则通过镜架的镜片平面与所获取的个人110的图像中的竖直平面形成的角度来直接给出倾斜角。
在个人110不能针对远景采取自然姿势时进行获取的情况下,以当个人110看着需要个人抬头的过高点为例,可以通过以下两种方式执行对倾斜角的估计:
1.在个人图像上检测嘴角,从而估计这两个嘴角的中心的3D位置;考虑穿过所估计的该3D点和瞳孔中心的平面;通过测量由该平面和被选镜架的镜片平面形成的角度来估计倾斜角。
2.在被选镜架的数字化过程中,通过将被选镜架放置在人体模型(dummy)上或者将被选镜架的三维表示定位在表示平均人类头部的平均虚拟化身上来使用可测量的倾斜角。
应当注意,可以在多个人体模型之间根据个人的形态来选择人体模型,特别是选择具有与个人的形态最接近的形态的人体模型。
在本发明的该特定实施方式的替选实施方式中,当使用用于测量光学参数的装置时,由个人选择的眼镜在物理上不可访问。在这种情况下,假定由个人选择的眼镜的镜架的三维表示被存储在数据库中,则个人在佩戴个人可用并且用作用于确定参数的参考的第二眼镜的同时使用测量装置。应当注意,该第二眼镜的镜架的忠实三维表示也存储在测量装置可访问的数据库中。
在该替选实施方式中,由测量装置实现的用于自动确定至少一个参数的方法使得可以获得被佩戴的眼镜的3D位置和所获取图像中的眼睛的旋转中心(PCOG3D和PCOD3D)以及不依赖于被佩戴的眼镜的PD值和monoPD值。
从而其他参数特别是FH、SH、PA、VD和ED与被选的眼镜相关联而不与被佩戴的眼镜相关联,确定方法还包括以下步骤:确定被佩戴的眼镜镜架相对于被选眼镜镜架之间的定位偏差。偏差的确定是通过叠加三维参考人体模型进行的。该配置值例如可以通过测量3D图像对准或通过在虚拟的人体模型上的3D眼镜(3D pair)的物理模拟,来在实际人体模型上获得(例如,参见以公开号WO 2016/135078公布的国际专利申请)。
一旦沿着三个轴确定了定位偏差,则通过由个人佩戴的镜架与被选镜架之间的定位偏差,相对于个人佩戴的镜架的三维表示在图像获取系统的参考系中定位被选镜架的三维表示。从而,可以执行在被选镜架的三维表示的参考系中对每个瞳孔的位置的表达,并且使得可以根据眼睛相对于被选镜架的三维表示的相对位置来确定参数FH、SH、PA、VD和ED的值。
总而言之,图7以示意图的形式示出自动确定方法700的主要步骤,该自动确定方法700使用在其面部上佩戴被选镜架的个人的图像710或者使用在其面部上佩戴第二镜架的个人的图像720来实现。
在这两种情况下,方法700包括以下步骤:
-730,在所获取图像上检测个人的至少一个眼睛的至少一个特征点,并估计检测到的特征点在图像获取系统的参考系中的三维位置;
-740,检测被佩戴镜架并且通过将被佩戴镜架的三维表示与所获取图像中的被佩戴镜架对准来估计被佩戴镜架在图像获取系统的参考系中的三维位置。
在被佩戴镜架是第二眼镜的镜架的情况下,方法700包括附加步骤750,该附加步骤750定位被选镜架的三维表示,被选镜架的三维表示是相对于被佩戴镜架的表示通过被佩戴镜架与被选镜架之间的定位偏差来定位的。
最后,在这两种情况下,在步骤760期间,相对于被选镜架的三维表示优选地在被选镜架的三维表示的参考系中表达每个特征点的位置。
然后,在步骤770期间,根据眼睛相对于被选镜架的三维表示的相对位置来确定与被选镜架相关联的至少一个参数。
在本发明的可选替选实施方式中,图像获取系统的摄像机140获取在其面部上未佩戴眼镜的个人的至少一个图像,以便于在方法700期间进行的计算。
根据没有眼镜的个人头部的这个或这些图像,可以制作更好的面部三维模型,其适用于更准确地估计在图像获取系统的参考系中的面部的特征点相对于被佩戴的眼镜的表示的位置。
为此,通过对准没有眼镜的面部的模型,在图像获取系统的空间中定位没有眼镜的面部的模型,这使得可以获得更真实的个人面部的定位,并且校正所估计的眼睛的位置,特别是校正每个眼睛的旋转中心在被选镜架的三维表示的参考系中的位置。
换句话说,由于相对于图像获取系统预先确定的个人面部的实际定位和定向参数,面部模型的对准与所述模型在图像获取系统的参考系中的定位和定向相对应。
因此,可以更快速和准确地执行至少一个参数的确定。
此外,对没有眼镜的面部的了解使得可以消除由实际佩戴的眼镜的镜片引入的干扰,特别是在镜片具有截止波长时或者在镜片包括提供不可忽略的折射的光学校正时。
本发明的优点
用于自动确定光学参数的方法的第一优点是测量准确度。实际上,不需要人工干预而在大量图像上计算眼部测量值。因此,对于通过自动确定方法进行的测量可以具有高的置信度。
与其中测量准确度取决于患者头部的定位和定向的现有系统不同,根据本发明的方法使得可以重构3D的“眼睛+眼镜”系统。这具有在患者头部的获取位置中检索眼部测量值的优点,该获取位置可以是患者头部的自然位置,另外,可以通过模拟具有不同的注视定向和不同的头部定向的用户的“眼睛+眼镜”3D系统来对测量值进行校正。
由于对患者的“眼睛+眼镜”系统的3D重构,可以:
-计算眼部远景测量值,然后通过对具有较近注视点的系统进行模拟来估计这些眼部近景测量值;
-计算眼部近景测量值,然后通过对具有较近注视点的系统进行模拟来估计这些眼部远景测量值;
-通过对具有近景注视点和远景注视点的集合的系统进行模拟,计算每个镜片上的注视路径;
-根据看着在阅读距离(约20cm)处的点、在无限远处的点以及在中等距离处的点的个人的多个图像来测量眼睛的斜视。
本发明的其他可选特征
在本发明的替选实施方式中,可以通过在其面部上未佩戴眼镜的个人的至少两个图像来对瞳孔距离(PD)进行测量,所述图像是由装置的两个独立摄像机同时或几乎同时获取的。应当注意,由摄像机获取的图像是经过校准的。

Claims (20)

1.一种用于自动确定与由个人选择的眼科装置相关联的至少一个参数的方法,所述装置包括称为被选镜架的镜架,所述确定是基于佩戴称为被佩戴镜架的眼科装置镜架的个人的面部图像来进行的,所述被佩戴镜架是所述被选镜架或者是第二眼科装置的镜架,所述图像由图像获取系统获取,
其特征在于,所述方法包括以下步骤:
-在所获取图像上检测所述个人的至少一个眼睛的至少一个特征点,并且估计检测到的一个或更多个特征点在所述图像获取系统的参考系中的三维位置;
-检测所述被佩戴镜架,并且通过将所述被佩戴镜架的三维表示与所获取图像中的被佩戴镜架对准来估计所述被佩戴镜架在所述图像获取系统的所述参考系中的三维位置;
-在所述被佩戴镜架是所述第二眼科装置的镜架的情况下,在所述图像获取系统的所述参考系中定位所述被选镜架的三维表示,所述被选镜架的表示是借助于所述被选镜架与所述被佩戴镜架之间的定位偏差、相对于所述被佩戴镜架的表示来被定位的,所述偏差是预先设立的;
-表达每个特征点相对于所述被选镜架的三维表示的位置;
-基于双眼相对于所述被选镜架的三维表示的相对位置来确定一个或更多个参数。
2.根据权利要求1所述的方法,其特征在于,通过计算所述被佩戴镜架的三维表示的投影的轮廓与所述被佩戴镜架在所获取图像中的轮廓之间的距离函数的最小值,来执行对所述被佩戴镜架的三维位置的估计,所述被佩戴镜架的三维表示能够被铰接和/或被变形。
3.根据权利要求1至2中任一项所述的方法,其特征在于,每个瞳孔的特征点是所述瞳孔的中心,所述瞳孔的中心被计算为表示虹膜的圆的中心,所述圆是通过计算所述圆在所述图像上的投影与所述瞳孔在所述图像上的轮廓之间的距离函数的最小值来被三维定位和定向的。
4.根据权利要求3所述的方法,其特征在于,眼睛的眼球中心的位置被计算为:
-在所述眼睛的注视点已知的情况下,所述眼睛的眼球中心的位置被计算为等于位于由所述眼睛的瞳孔的中心和所述注视点限定的线上的、在等于眼球的平均半径的距离处的点;
-在所述眼睛的注视点未知的情况下,所述眼睛的眼球中心的位置被计算为等于下述的球体的中心,所述球体的半径等于所述眼球的平均半径并且所述虹膜表示所述球体的切割平面。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括以下步骤:
-确定注视点的3D位置;
-基于预先确定的注视点的3D位置来校正所述眼球的旋转中心的位置。
6.根据权利要求5所述的方法,其特征在于,所述注视点的3D位置对应于其位置相对于所述图像获取系统为已知的元素。
7.根据权利要求1至6中任一项所述的方法,其特征在于,所述方法还包括以下步骤:通过在表示面部的三维模型上定位所述被选镜架的三维表示和由所述个人佩戴的所述第二镜架的三维表示,来确定这两个三维表示之间的定位偏差。
8.根据权利要求1至7中任一项所述的方法,其特征在于,所述方法还包括以下步骤:制作所述面部的三维模型,该三维模型包括检测到的一个或更多个特征点;以及在所述面部的所述三维模型上叠加虚拟镜架。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括以下步骤:预先获取所述个人的无眼镜的面部的至少一个图像,制作所述面部的三维模型包括将所制作的无眼镜的面部的模型与所述个人的面部对准的子步骤。
10.根据权利要求1至9中任一项所述的方法,其特征在于,所述图像获取系统是立体的。
11.根据权利要求1至10中任一项所述的方法,其特征在于,所述图像获取系统包括至少一个红外摄像机。
12.根据权利要求10至11中的任一项所述的方法,其特征在于,所述图像获取系统的全部或部分摄像机在度量上被校准。
13.根据权利要求1至12中任一项所述的方法,其特征在于,所确定的参数包括在以下列表中:
-瞳孔距离(PD);
-单眼瞳孔距离(monoPD);
-倾斜角(PA);
-顶点距离(VD);
-镜架基部与瞳孔中心之间的高度(FH);
-镜架基部与下眼睑之间的高度(SH);
-有效镜片直径(ED);
-注视路径,也称为行进路径。
14.根据权利要求13所述的方法,其特征在于,通过以下操作来执行对所述倾斜角的确定:
-检测所述个人的两个嘴角;
-估计所述两个嘴角之间的中点的3D位置;
-通过计算由所述中点和每个瞳孔的特征点形成的平面与装配到所述被选镜架中的镜片的平面之间的角度,来确定所述倾斜角的值。
15.根据权利要求1至14中任一项所述的方法,其特征在于,还根据所述镜架的基点确定至少一个参数,所述基点包括在与两个镜片同时相切的线上。
16.根据权利要求1至15中任一项所述的方法,其特征在于,所述方法包括预先执行校准所述获取系统的步骤。
17.根据权利要求1至16中任一项所述的方法,其特征在于,所述方法还包括发送考虑预先确定的一个或更多个参数的镜片命令的步骤。
18.根据权利要求1至17中任一项所述的方法,其特征在于,所述方法还包括基于所述预先确定的一个或更多个参数来加工一副眼镜的镜片的步骤。
19.一种计算机程序产品,包括一系列程序代码指令,所述一系列程序代码指令用于在当所述程序在计算机上执行时执行根据权利要求1至18中任一项所述的自动确定方法的步骤。
20.一种装置,包括屏幕、多个摄像机、计算机处理器和存储有根据权利要求19所述的计算机程序产品的计算机存储器。
CN201880056473.XA 2017-07-25 2018-07-20 用于确定与眼科装置相关联的至少一个参数的方法 Active CN111031893B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1757070 2017-07-25
FR1757070A FR3069687B1 (fr) 2017-07-25 2017-07-25 Procede de determination d'au moins un parametre associe a un dispositif ophtalmique
PCT/EP2018/069792 WO2019020521A1 (fr) 2017-07-25 2018-07-20 Procédé de détermination d'au moins un paramètre associé à un dispositif ophtalmique

Publications (2)

Publication Number Publication Date
CN111031893A true CN111031893A (zh) 2020-04-17
CN111031893B CN111031893B (zh) 2023-09-15

Family

ID=60515489

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880056473.XA Active CN111031893B (zh) 2017-07-25 2018-07-20 用于确定与眼科装置相关联的至少一个参数的方法

Country Status (5)

Country Link
US (1) US11158082B2 (zh)
EP (1) EP3659109B1 (zh)
CN (1) CN111031893B (zh)
FR (1) FR3069687B1 (zh)
WO (1) WO2019020521A1 (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2901477C (en) 2015-08-25 2023-07-18 Evolution Optiks Limited Vision correction system, method and graphical user interface for implementation on electronic devices having a graphical display
AU2017274570B2 (en) * 2016-06-01 2022-02-03 Vidi Pty Ltd An optical measuring and scanning system and methods of use
EP3355214A1 (de) * 2017-01-27 2018-08-01 Carl Zeiss Vision International GmbH Verfahren, recheneinrichtung und computerprogramm zum bereitstellen eines fassungsrandmodells
US11966507B2 (en) 2018-10-22 2024-04-23 Evolution Optiks Limited Light field vision testing device, adjusted pixel rendering method therefor, and vision testing system and method using same
US11500460B2 (en) 2018-10-22 2022-11-15 Evolution Optiks Limited Light field device, optical aberration compensation or simulation rendering
US11327563B2 (en) 2018-10-22 2022-05-10 Evolution Optiks Limited Light field vision-based testing device, adjusted pixel rendering method therefor, and online vision-based testing management system and method using same
US10685457B2 (en) 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user
US11500461B2 (en) 2019-11-01 2022-11-15 Evolution Optiks Limited Light field vision-based testing device, system and method
US11789531B2 (en) 2019-01-28 2023-10-17 Evolution Optiks Limited Light field vision-based testing device, system and method
US11635617B2 (en) 2019-04-23 2023-04-25 Evolution Optiks Limited Digital display device comprising a complementary light field display or display portion, and vision correction system and method using same
WO2021038422A2 (en) 2019-08-26 2021-03-04 Evolution Optiks Limited Binocular light field display, adjusted pixel rendering method therefor, and vision correction system and method using same
US11823598B2 (en) 2019-11-01 2023-11-21 Evolution Optiks Limited Light field device, variable perception pixel rendering method therefor, and variable perception system and method using same
US11487361B1 (en) 2019-11-01 2022-11-01 Evolution Optiks Limited Light field device and vision testing system using same
EP3944004A1 (de) * 2020-07-23 2022-01-26 Carl Zeiss Vision International GmbH Computerimplementiertes verfahren zur erzeugung von daten zur herstellung mindestens eines brillenglases und verfahren zur herstellung einer brille
FR3118821B1 (fr) 2021-01-13 2024-03-01 Fittingbox Procédé de détection et de suivi dans un flux vidéo d’un visage d’un individu portant une paire de lunettes
FR3124069A1 (fr) * 2021-06-18 2022-12-23 Acep France Procédé d’essayage de lunettes virtuelles
FR3129222A1 (fr) 2021-11-18 2023-05-19 Michel HODZAJ Procede et dispositif de fabrication d’une paire de lunettes a partir d’au moins un verre
EP4194936A1 (en) * 2021-12-10 2023-06-14 Essilor International A method for estimating the position of the optical center of an ophthalmic lens
US20230252655A1 (en) * 2022-02-09 2023-08-10 Google Llc Validation of modeling and simulation of wearable device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101801259A (zh) * 2007-07-11 2010-08-11 森特罗米特有限公司 与配眼镜相关的改进
US20140253875A1 (en) * 2011-09-29 2014-09-11 Fittingbox Method for determining ocular and optical measurements
CN104160416A (zh) * 2012-03-08 2014-11-19 依视路国际集团(光学总公司) 用于订购眼镜片的方法以及相关联的系统
WO2016075372A1 (fr) * 2014-11-14 2016-05-19 Essilor International (Compagnie Generale D'optique) Dispositifs et procédés pour la détermination de la position d'un point remarquable d'un œil et pour le suivi de la direction de regard d'un porteur de lunettes
CN105637512A (zh) * 2013-08-22 2016-06-01 贝斯普客公司 用于创造定制产品的方法和系统
CN106030382A (zh) * 2014-02-18 2016-10-12 埃西勒国际通用光学公司 用于优化佩戴者的光学镜片设备的方法

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005003699B4 (de) * 2005-01-26 2018-07-05 Rodenstock Gmbh Vorrichtung und Verfahren zum Bestimmen von optischen Parametern eines Benutzers; Computerprogrammprodukt
WO2013139814A2 (fr) 2012-03-19 2013-09-26 Fittingbox Modèle et procédé de production de modèle 3d photo-réalistes
EP2772795A1 (en) * 2013-02-28 2014-09-03 Shamir Optical Industry Ltd Method, system and device for improving optical measurement of ophthalmic spectacles
WO2016135078A1 (en) 2015-02-23 2016-09-01 Fittingbox Process and method for real-time physically accurate and realistic-looking glasses try-on
KR101697286B1 (ko) * 2015-11-09 2017-01-18 경북대학교 산학협력단 사용자 스타일링을 위한 증강현실 제공 장치 및 방법
JP6617662B2 (ja) * 2016-08-24 2019-12-11 株式会社Jvcケンウッド 視線検出装置、視線検出方法、及びコンピュータプログラム
US9990780B2 (en) * 2016-10-03 2018-06-05 Ditto Technologies, Inc. Using computed facial feature points to position a product model relative to a model of a face
US10222634B2 (en) * 2017-07-07 2019-03-05 Optinno B.V. Optical measurement aid device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101801259A (zh) * 2007-07-11 2010-08-11 森特罗米特有限公司 与配眼镜相关的改进
US20140253875A1 (en) * 2011-09-29 2014-09-11 Fittingbox Method for determining ocular and optical measurements
CN104160416A (zh) * 2012-03-08 2014-11-19 依视路国际集团(光学总公司) 用于订购眼镜片的方法以及相关联的系统
CN105637512A (zh) * 2013-08-22 2016-06-01 贝斯普客公司 用于创造定制产品的方法和系统
CN106030382A (zh) * 2014-02-18 2016-10-12 埃西勒国际通用光学公司 用于优化佩戴者的光学镜片设备的方法
WO2016075372A1 (fr) * 2014-11-14 2016-05-19 Essilor International (Compagnie Generale D'optique) Dispositifs et procédés pour la détermination de la position d'un point remarquable d'un œil et pour le suivi de la direction de regard d'un porteur de lunettes

Also Published As

Publication number Publication date
WO2019020521A1 (fr) 2019-01-31
EP3659109A1 (fr) 2020-06-03
CN111031893B (zh) 2023-09-15
FR3069687A1 (fr) 2019-02-01
EP3659109B1 (fr) 2024-05-01
FR3069687B1 (fr) 2021-08-06
US20200211218A1 (en) 2020-07-02
US11158082B2 (en) 2021-10-26

Similar Documents

Publication Publication Date Title
CN111031893B (zh) 用于确定与眼科装置相关联的至少一个参数的方法
US8360580B2 (en) Method of measuring the position, in a horizontal direction in the sagittal plane, of a remarkable point of an eye of a subject
US9628697B2 (en) Method and device for measuring an interpupillary distance
US8459792B2 (en) Method and systems for measuring interpupillary distance
EP2898819A1 (en) System for measuring the interpupillary distance using a device equipped with a screen and a camera
US20100195045A1 (en) Method of measuring at least one geometrico-physiognomic parameter for positioning a vision correcting eyeglass frame on the face of a wearer
US10216010B2 (en) Determining user data based on image data of a selected eyeglass frame
US9110312B2 (en) Measurement method and equipment for the customization and mounting of corrective ophthalmic lenses
US20140240470A1 (en) Method, system and device for improving optical measurement of ophthalmic spectacles
KR20200006621A (ko) 근거리 시력 지점을 결정하기 위한 방법, 장치 및 컴퓨터 프로그램
US20210382330A1 (en) Data record for use in a method for producing a spectacle lens
CN114830015A (zh) 用于确定配戴着眼睛配戴物的受试者的至少一个几何形态参数的值的方法
CA3098617C (en) System and method for obtaining and utilizing measurements to enable customized eyewear to be purchased online
EP2772795A1 (en) Method, system and device for improving optical measurement of ophthalmic spectacles
CN113711003A (zh) 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和设备
US11324399B2 (en) Method and system for determining a pupillary distance of an individual
US11624939B2 (en) Automatic establishment of parameters necessary for constructing spectacles
WO2015044309A1 (en) Method and device for correctly and realistically displaying a pair of eyeglasses
US11747654B2 (en) Computer-implemented method for generating data in order to produce at least one spectacle lens, and method for producing a pair of spectacles
US20220390771A1 (en) System and method for fitting eye wear
KR20170034262A (ko) 안경렌즈 처방을 위한 3차원 매개변수 측정 장치 및 방법
CN116830152A (zh) 用于检测和跟踪视频流中戴着一副眼镜的个体的面部的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20211129

Address after: French Rahberg

Applicant after: FITTINGBOX

Applicant after: ESSILOR INTERNATIONAL

Address before: French Rahberg

Applicant before: FITTINGBOX

Applicant before: Vision center Co.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant