CN113711003A - 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和设备 - Google Patents

用于测量眼镜片的局部屈光力和/或屈光力分布的方法和设备 Download PDF

Info

Publication number
CN113711003A
CN113711003A CN202080030607.8A CN202080030607A CN113711003A CN 113711003 A CN113711003 A CN 113711003A CN 202080030607 A CN202080030607 A CN 202080030607A CN 113711003 A CN113711003 A CN 113711003A
Authority
CN
China
Prior art keywords
scene
image
lens
spectacle frame
spectacle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202080030607.8A
Other languages
English (en)
Other versions
CN113711003B (zh
Inventor
C·格拉森纳普
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Vision International GmbH
Original Assignee
Carl Zeiss Vision International GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Vision International GmbH filed Critical Carl Zeiss Vision International GmbH
Publication of CN113711003A publication Critical patent/CN113711003A/zh
Application granted granted Critical
Publication of CN113711003B publication Critical patent/CN113711003B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01MTESTING STATIC OR DYNAMIC BALANCE OF MACHINES OR STRUCTURES; TESTING OF STRUCTURES OR APPARATUS, NOT OTHERWISE PROVIDED FOR
    • G01M11/00Testing of optical apparatus; Testing structures by optical methods not otherwise provided for
    • G01M11/02Testing optical properties
    • G01M11/0228Testing optical properties by measuring refractive power
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C7/00Optical parts
    • G02C7/02Lenses; Lens systems ; Methods of designing lenses
    • G02C7/06Lenses; Lens systems ; Methods of designing lenses bifocal; multifocal ; progressive
    • G02C7/061Spectacle lenses with progressively varying focal power
    • G02C7/063Shape of the progressive surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models

Abstract

本发明涉及眼镜架(18)中的左和/或右眼镜片(20,22)的局部屈光力或屈光力分布的测量。根据本发明,通过至少一个图像采集装置(30)从具有结构点(26)的成像光束路径的至少一个第一记录位置(32)采集具有多个结构点(26)和眼镜架(18)中的左和/或右眼镜片(20,22)的场景(10)的至少一个第一图像,所述成像光束路径延伸穿过眼镜架(18)的第一和/或第二眼镜片(20,22)。通过至少一个图像采集装置(30)从至少两个不同的记录位置(32,34,36)采集没有眼镜(16)的左和/或右眼镜片(20,22)或没有包含左和/或右眼镜片的眼镜架但具有被成像在第一图像中的结构点(26)的场景(10)的至少两个另外的图像,其中一个记录位置可以与第一采集位置相同,以及通过图像分析从场景(10)的至少两个另外的图像计算结构点(26)在坐标系(25)中的坐标;或者通过至少一个图像采集装置(30)从与第一采集位置(32)不同且具有被成像在第一图像中的结构点(26)的至少一个成像光束路径的至少两个采集位置(34,36)通过左和/或右眼镜片(20,22)采集场景(10)的至少两个另外的图像,所述成像光束路径不延伸穿过眼镜架(18)的左和/或右眼镜片(20,22),以便然后从在场景(10)的至少一个第一图像中的结构点(26)的坐标和结构点(26)的图像确定在参考系(25)中左眼镜片(20)的至少一部分的屈光力分布k(x,y)和/或在场景(10)的坐标系(25)中右眼镜片(22)的至少一部分的屈光力分布k(x,y)。

Description

用于测量眼镜片的局部屈光力和/或屈光力分布的方法和 设备
技术领域
本发明涉及一种用于测量优选地在眼镜架中的左和/或右眼镜片的局部屈光力和/或屈光力分布的方法。而且,本发明涉及一种具有带有程序代码的计算机程序的计算机程序产品,以及一种用于执行该方法的装置。
背景技术
为了利于眼镜配戴者的清晰视像,眼镜片必须在眼镜架中相对于眼镜配戴者的眼睛被正确地定位和对准。原则上,所有眼镜片都要求正确对准和定位。眼镜片的正确对准和定位特别在个性化光学眼镜片设计、复曲面眼镜片设计、具有显著屈光力的眼镜片以及渐进式多焦点镜片的情况下尤其重要。渐进式多焦点眼镜片仅通过改变观察方向就允许眼镜配戴者在不同使用情形下(例如,在不同距离处)的清晰视像,而无需眼睛在该过程中进行相对较大的成功调节。根据DIN EN ISO 13666:2013-10的第8.3.5段,渐进式多焦点眼镜片是具有至少一个渐进表面的眼镜片,当配戴者向下看时,提供递增(正)屈光力。个性化眼镜片和/或渐进式多焦点眼镜片具有一个或多个参考点、例如视远点和视近点,该一个或多个参考点的相对位置取决于使用情形必须与眼镜配戴者的眼睛瞳孔的位置相适应。根据DINEN ISO 13666:2013-10的第5.16段,视远点是镜片上视点的假设位置,其在给定条件下用于视远。根据DIN EN ISO 13666:2013-10的第5.17段,视近点是镜片上视点的假设位置,其在给定条件下用于视近。而且,复曲面眼镜片设计需要眼镜配戴者对其柱镜度的正确取向。
WO 2016/207412 A1已经披露了开头所述类型的方法和设备。它描述了使用其中布置有眼镜架的测量装置来测量眼镜架中的左和/或右眼镜片的局部屈光力。此测量设备包含图像采集装置和用于显示测试结构的显示器,该显示器相对于图像采集装置的相对位置是已知的。图像采集装置用于通过穿过眼镜架中的左和/或右眼镜片的成像光束路径来采集在显示器上所显示的测试结构。附加地,定义了眼镜架的坐标系的眼镜架的一部分通过显示器被采集。然后,在以眼镜架坐标系为参考的坐标系中左和/或右眼镜片的局部屈光力在计算机单元中通过对眼镜架的被采集部分和测试结构的被采集图像表示的图像处理、以及对测试结构的坐标和测试结构的被采集图像表示的图像处理来确定。
EP 2 608 109 A1披露了一种用于确定在配戴位置的眼镜片的屈光力的方法。在这种情况下,对没有戴着眼镜架的眼镜配戴者的记录和对戴着眼镜架的眼镜配戴者的记录被采集并且虹膜的大小在这两个记录中被确定。眼镜片的屈光力是从相机的大小差异和焦距推导出的。对于这种方法,眼镜配戴者需要配戴眼镜。而且,此方法不利于局部地确定眼镜片中的各个点的屈光力,或不利于确定穿过眼镜片的各个光束路径。
US 2015/0362998 A1和US 10,019,140 B1各自描述了一种用于通过摄影测量法确定人的面部与采集所述面部的图像采集装置之间的距离的方法。
WO 2016/076530 A1已经披露了一种测量一副眼镜的屈光力的方法,其中,镜片的屈光力是从没有眼镜片的记录中和通过眼镜片的记录中的物体大小的差异推导出的。
US 2015/0029323 A1描述了一种具有存储器和联接到该存储器的处理器的图像处理设备,所述处理器用于通过评估眼镜配戴者的图像来确定一副眼镜的光学特性,该眼镜配戴者的图像是提供图像采集装置来采集的并且显示戴着和没有戴着眼镜的眼镜配戴者。US 2015/0029323 A1详细说明了在该副眼镜中的眼镜片的屈光力应该基于通过具有眼镜片的一副眼镜采集的眼镜配戴者面部的面部轮廓的相对空间位置以及此面部眼镜的被采集面部轮廓的相对空间位置来确定。
发明内容
本发明的目的是,以简单的方式并且无需太多设备支出来确定左和/或右眼镜片的分别针对视远和/或视近的焦度或屈光力。特别地,本发明的目的是非常准确地确定眼镜片上不同位置处的局部屈光力,即屈光力分布。
此目的通过权利要求1和权利要求2中详细说明的方法实现。从属权利要求中详细说明了本发明的有利发展。
在权利要求1所详细说明的用于测量眼镜架中的左和/或右眼镜片的局部屈光力和/或屈光力分布的方法中,在第一步骤中通过至少一个图像采集装置从至少一个第一记录位置采集场景的至少一个第一图像表示,其中此至少一个第一图像表示具有至少一个结构点并且包含眼镜架中的左和/或右眼镜片,其中,这些结构点中的每一个的至少一个成像光束路径穿过眼镜架的第一或第二眼镜片。
本发明将“屈光力”理解为是指镜片的焦度或屈光力。根据DIN EN ISO 13666:2013-10的第9.2段中详细说明的定义,本发明将“焦度”理解为是指包括眼镜片的球镜度和散光度的通用术语。根据DIN EN ISO 13666:2013-10的第9.3段中详细说明的定义,本发明将“眼镜片的屈光力”理解为是指包括眼镜片的焦度和棱镜度的通用术语。根据DIN EN ISO13666:2013-10的第10.9段中详细说明的定义,本发明将“眼镜片的棱镜效应”理解为是指棱镜偏差和底设置的统称。
本发明将“局部屈光力”理解为是指眼镜片的局部焦度或局部屈光力。
本发明将“屈光力分布”理解为是指眼镜片的空间分辨焦度或空间分辨屈光力。
本发明将“场景”理解为环境的一部分,其可以由至少一个图像采集装置采集、例如由至少一个数码相机采集,该图像采集装置例如可以集成在智能手机或平板计算机中。例如,场景可以是家中房间的一部分或商店的一部分、或者风景的一部分。然而,场景也可以包含该副眼镜的眼镜配戴者的面部或仅左眼和/或右眼。
在当前情况下,场景的至少一个结构点被理解为是指几何点,其在通过用至少一个图像采集装置采集该场景而获得的场景的至少一个图像表示或记录中的图像由于与此点相邻的点的图像的亮度和/或颜色不同于此点的图像的亮度和/或颜色而可以清楚地被识别。例如,结构点可以位于场景中的结构的角落或边缘。
然而,在当前情况下,术语“场景的结构点”也包括静止的、时不变图案中的点,例如规则或不规则点图案中的至少一个点、规则或不规则条纹中的至少一个点图案、规则或不规则格子图案中的至少一个点、条形码中的至少一个点、2D码中的至少一个点和/或例如在报纸或书或电子显示装置(例如监视器)中的书面文字中的至少一个点。特别地,场景中的至少一个静止的、时不变的结构点可以是结构化表面上的至少一个点,例如结构化桌布上和/或结构化壁纸上的点。
然而,在当前情况下,“场景的结构点”也被理解为是指场景中的至少一个点,其相对位置可以随时间改变,例如眼镜配戴者面部中的至少一个移动点,例如眉毛上的点、嘴唇上的点或虹膜上的点。如果场景中的至少一个结构点的相对位置随时间变化,则优选地尽可能远地重构其位移,然后在确定左和/或右眼镜片的局部屈光力时考虑这一点。如果这种结构点的位移是不可重构的,则在确定左和/或右眼镜片的局部屈光力和/或屈光力分布时不考虑此结构点是有利的。
本发明优选地将“至少一个图像采集装置”理解为是例如集成在比如蜂窝电话、智能电话或平板计算机等移动终端中的数码相机。数码相机可以被实施为立体相机、多相机、具有物镜的图像传感器或具有至少两个物镜的图像传感器和/或所谓的全光相机。应该注意的是,上述移动终端也可以具有呈数码相机形式的多个图像采集装置。
特别地,移动终端应当理解为是指一种设备,该设备包括至少一个可编程处理器和至少一个图像采集装置(例如至少一个相机)和至少一个加速度传感器,并且优选地被设计为要被携带,即在尺寸和重量方面被配置为使得一个人能够携带它。移动终端中可以存在另外的部件,比如至少一个屏幕、例如380 nm至780 nm波长范围的可见光和/或780 nm至1 mm波长范围的红外光的至少一个光源和/或至少一个对例如380 nm至780 nm波长范围的可见光和/或> 780 nm至1 mm波长范围的红外光灵敏的光接收器。这种移动终端的典型示例是智能手机或平板PC,其可以包括至少一个屏幕(例如传感器屏幕(触摸屏))、至少一个图像采集装置(例如至少一个相机)、至少一个加速度传感器、至少一个光源、至少一个光接收器以及另外的部件,比如用于移动无线电或WLAN(无线LAN)的无线接口。
在当前情况下,“结构点的成像光束路径”被理解为是指将结构点的光学成像从场景带入到至少一个图像采集装置中的场景的图像表示作为结构点图像的光束路线。因此,形成对称轴的光轴被称为结构点的成像光束路径的主光线。
在权利要求1中详细说明的方法中,在另外的步骤中通过至少一个图像采集装置从至少两个不同记录位置采集场景的至少两个另外的图像表示,该场景没有眼镜架的第一和/或第二眼镜片或没有包含第一和/或第二眼镜片的眼镜架但具有成像于第一图像表示中的结构点,该另外的步骤可以在时间上位于第一步骤之前或之后或者可以与第一步骤同时实现,其中该至少一个记录位置可以与该至少一个第一记录位置相同。在另外的步骤中的至少一个图像采集装置可以与第一步骤的至少一个图像采集装置相同或不同。优选地,在另外的步骤中的至少一个图像采集装置与第一步骤的至少一个图像采集装置相同。于是,在计算步骤中,通过图像评估、优选地通过三角测量从场景的至少两个另外的图像表示在坐标系中确定结构点的坐标。随后,在从场景的至少一个第一图像表示中的结构点的坐标和结构点的图像确定左眼镜片的至少一部分和/或右眼镜片的一部分的局部屈光力的步骤中确定局部屈光力。
权利要求2中所详细说明的用于测量眼镜架中的左和/或右眼镜片的局部屈光力和/或屈光力分布的方法提供场景的至少一个第一图像表示,在第一步骤中通过至少一个图像采集装置从至少一个第一记录位置采集场景的至少一个第一图像表示,其中此至少一个第一图像表示具有至少一个结构点并且包含眼镜架中的左和/或右眼镜片,其中,这些结构点中的每一个的至少一个成像光束路径穿过眼镜架的第一或第二眼镜片。
如上所述,在当前情况下,“结构点的成像光束路径”被理解为是指将结构点的光学成像从场景带入到通过至少一个图像采集装置采集的场景的图像表示作为结构点图像的光束路线。因此,形成对称轴的光轴被称为结构点的成像光束路径的主光线。
在可以时间上在第一步之前或之后或者可以与第一步同时执行的另外的步骤中,通过至少一个图像采集装置从与第一记录位置不同的、各自具有采集在第一图像表示中的结构点的至少一个成像光束路径的至少两个不同的另外记录位置在具有眼镜架中的左和/或右眼镜片的情况下采集场景的至少两个另外的图像表示,其中,所述至少一个成像光路不穿过眼镜架的第一和第二眼镜片。然后,在另外的步骤中通过图像评估、优选地通过三角测量从结构点的没有穿过左眼镜片和右眼镜片的相应至少一个光束路径计算结构点在坐标系中的坐标。随后,分别从场景的至少一个第一图像表示中的结构点的坐标和结构点的图像确定左眼镜片的至少一部分和/或右眼镜片的至少一部分的局部屈光力。
在用于测量优选地在眼镜架中的左和/或右眼镜片的局部屈光力和/或屈光力分布的方法的有利发展中,如上所述,分别从场景的第一图像表示中的至少一个第一记录位置采集场景中的多个结构点,并且采集之后的步骤基于此相应的多个结构点进行。
在当前情况下,多个结构点被理解为由至少三个结构点组成的一组点。有利的是对左和/或右眼镜片的局部屈光力的测量是基于至少10个、优选地至少100个、特别优选地至少1000个以及非常特别优选地至少10000个结构点实现的。有利的是基于结构点的数量Z测量左和/或右眼镜片的局部屈光力,对于结构点,适用以下条件:100 ≤ Z ≤ 1000。
借助于测量左和/或右眼镜片的多个不同位置的局部屈光力,可以确定左和/或右眼镜片的屈光力分布。
对每个图像表示的图像评估优选地包括图像处理技术,例如分类、分割和三角测量。借助于物体识别方法,比如分割和分类,优选地对每个图像表示检查场景和/或眼镜架的类别的物体。物体识别方法既可以是传统类型,例如阈值化、基于边缘或基于区域的分割、或光流,也可以是学习类型。如果物体识别方法是学习类型的,例如如果应用学习算法,则有必要用增强的训练数据训练神经网络作为初步步骤。在场景和/或眼镜架的类别的情况下,这些物体识别方法中的每一个的结果是物体的绝对位置、相对位置和边界。附加信息与相应图像表示中的相应物体的存在相关。例如,可以以这种方式识别在图像表示中是否存在眼镜架和/或眼镜片。因此,也可以在其相应的记录之后实现关于这涉及第一图像表示还是另外的图像表示的分配。此外,可以在不知道这是第一图像表示还是另外的图像表示的情况下实现关于这是第一图像表示还是第二图像表示的分配。
在上述方法中,结构点分别只能是静止的,或者分别既是静止的又是时不变的。替代地,至少一个结构点的位移分别可以是已知的和/或在确定屈光力分布时其位移可以是可重构的并且被考虑在内。优选地,结构点分别是静止的,特别优选地分别是静止的和时不变的。
从在上述方法之一中确定的左和/或右眼镜片或左和/或右眼镜片的至少一部分的屈光力分布,可以推导出眼镜片的特定位置处的局部屈光力。
在上述方法中,左和/或右眼镜片的边缘或边缘曲线可以在相应的第一步骤中可选地在眼镜架中被采集,在该范围内,场景的至少一个第一图像表示通过至少一个图像采集装置从至少一个第一记录位置被采集。
优选地,边缘曲线是位于远离面部的眼镜架前表面上的眼镜片的形状确定边界,并且部分地或全部与位于(在半框或全框眼镜情况下)前部上的眼镜架内边缘重合。在全框眼镜的情况下,眼镜架的远离该面部的前表面的边缘曲线与位于前侧的镜片外边缘或位于前侧的镜架内边缘相同。在半框眼镜的情况下,眼镜架的远离面部的前表面的边缘曲线与位于前侧的镜片外边缘或位于前侧的镜架内边缘相同,前提是具有由镜架提供的结构。在半框眼镜的情况下,在没有由镜架提供的结构的程度上,边缘曲线与位于眼镜架远离面部的前表面中的前侧上的镜片外边缘相同。在无框眼镜的情况下,没有类似的镜架结构,即在这里术语“边缘曲线”始终表示位于远离面部的眼镜架前表面中的前侧上的镜片外边缘。
如果在权利要求1所详细说明的方法中使用布置在移动终端中并且包含至少两个数码相机、立体相机、多相机、具有至少两个物镜的相机芯片或全光相机的图像采集装置,则其可能足以用包含第一和/或第二眼镜片的眼镜架采集场景的单个图像表示,其中这一个第一图像表示具有至少一个结构点,并且采集场景的单个另外的图像表示,该场景没有包含第一和/或第二眼镜片的眼镜架但具有与场景的第一图像表示中的相同的结构点。为了提高根据权利要求1的方法的准确性,优选地用包含第一和/或第二眼镜片的眼镜架采集场景的至少两个图像表示,并且在没有包含第一和/或第二眼镜片的眼镜架的情况下采集场景的至少两个图像表示。
如果在权利要求2所详细说明的方法中使用布置在移动终端中并且包含至少两个数码相机、立体相机、多相机、具有至少两个物镜的相机芯片或全光相机的图像采集装置,则其可能足以用包含第一和/或第二眼镜片的眼镜架采集场景的单个图像表示,其中此第一图像表示具有至少一个结构点,当这些结构点中的每一个的至少一个成像光束路径穿过第一和/或第二眼镜片时,在具有包含第一和/或第二眼镜片的眼镜架的情况下采集场景的单个另外的图像表示,其中,此至少一个另外的图像表示从不同于第一记录位置的记录位置被记录,使得这些结构点中的每一个的至少一个成像光束路径不穿过眼镜架的第一和第二眼镜片。在根据权利要求2的方法的此实施例中,优选地,还创建眼镜架的至少两个第一图像表示和来自与两个第一记录位置不同的记录位置的具有眼镜架的场景的至少两个另外的图像表示,以便提高其准确性。
为了测量具有显著负屈光力、即主子午线具有小于或等于-3 dpt的负屈光力的眼镜片,有利的是用于确定左和/或右眼镜片的局部屈光力和/或屈光力分布的场景分别优选地在眼镜架中包含至少一个结构点、优选地至少一个静止的、时不变的结构点,该结构点通过左和/或右眼镜片采集并且距要测量的相应眼镜片的距离优选地在5 mm到200 mm之间。
在这种情况下,“结构点距眼镜片的距离”被理解为分别是指结构点距在面向该结构点的眼镜片一侧上的成像光束路径的主光线的交点的距离。应该注意的是,作为从另外的不同记录位置采集场景的另外的图像表示的结果,原则上可以为前述距离范围中的每个结构点详细说明到图像采集装置中的、用于光学成像的主光线。
为了测量具有显著正屈光力、即主子午线具有大于或等于+3 dpt的正屈光力的眼镜片,有利的是用于确定左和/或右眼镜片的局部屈光力和/或屈光力分布的场景分别优选地在眼镜架中包含至少一个结构点、优选地至少一个静止的、时不变的结构点,该结构点通过左和/或右眼镜片采集并且与要测量的相应眼镜片的(优选地位于较强主子午线的焦点前方的)间隔开。此距离优选地在5 mm到100 mm之间的范围内。
为了测量具有小屈光力、即主子午线具有小于-3 dpt的负屈光力或主子午线具有大于+3 dpt的正屈光力的眼镜片,在具有至少一个结构点、优选地至少一个静止的、时不变的结构点的场景的情况下获得良好的测量结果,该结构点距要测量的优选地位于眼镜架中的相应眼镜片的距离高达600 mm,优选地在5 mm到500 mm的范围内。
本发明的一个发现是,特别地,如果场景中的至少一个结构点、优选地至少一个静止的、时不变的结构点距眼镜架中的眼镜片的距离在10 mm到50 mm之间的范围,优选地30mm到40 mm之间的范围内,则根据本发明的方法可以非常准确地确定眼镜片的局部屈光力和/或屈光力分布。
本发明的有利实施例提供场景的多个第一图像表示和要采集的场景的多个另外的图像表示,分别包括眼镜片,眼镜片的局部屈光力和/或屈光力分布旨在被确定,其中,此眼镜片优选地位于眼镜架中。替代地,当记录多个另外的图像表示时也可以将眼镜架从场景中移除。为了采集场景的多个第一图像表示和场景的多个另外的图像表示,有利的是这些图像表示分别在场景周围跨越半球的至少一部分或跨越半球,和/或覆盖具有不同记录方向和/或记录距离的多个不同记录位置。这是因为该至少一个结构点的坐标可以是从场景的多个另外的图像表示计算的。
场景的对应大量的被采集的第一图像表示和场景的被采集的另外的图像表示提高了用于测量优选地在眼镜架中的左和/或右眼镜片的局部屈光力和/或屈光力分布的方法的准确性。
借助于在移位至少一个图像采集装置时、或者在静止图像采集装置的情况下,在旋转场景(特别是头部)时,通过图像采集装置采集场景(特别是头部)的多个图像表示,其中,眼镜架的眼镜配戴者的左眼和/或右眼注视着被移位后的图像采集装置,并且从在该过程中采集的场景(特别是头部)的多个图像表示,通过左眼镜片和/或右眼镜片计算眼镜架的眼镜配戴者的左眼和/或右眼的不同观察方向的观察光束路径,并且针对每个观察方向确定左眼镜片和/或右眼镜片的局部屈光力k(x,y),针对眼镜配戴者选择的观察方向,可以确定眼镜配戴者配戴的眼镜架中的眼镜片的局部屈光力。
测量眼镜架中的左眼镜片和右眼镜片的局部屈光力和/或屈光力分布特别允许对一副眼镜(即包括两个眼镜片的眼镜架)的所谓双眼焦度做出说明。双眼焦度应该理解为是指针对某个观察方向的左眼镜片和右眼镜片的焦度或屈光力的评估。双眼焦度还可以包括高阶眼镜片中的成像像差,比如彗差、或者棱镜像差。
测量眼镜架中的左眼镜片和右镜片的局部屈光力和/或屈光力分布允许识别包括主子午线及其方向上的屈光力差的眼镜片散光度是否例如针对某个观察方向显著偏离双眼目标值。在这种情况下,双眼目标值应该理解为是指主观确定的折射,包括球镜、具有轴位的柱镜以及具有双眼的底的棱镜。如果例如左眼镜片和右眼镜片的散光度与双眼目标值的偏差相同,则眼镜配戴者不会注意到或仅略微注意到与双眼目标值的偏差。然而,如果左眼镜片和右眼镜片的散光度与双眼目标值的偏差不同,则眼镜配戴者会清楚地注意到这种与双眼目标值的偏差。
应该注意的是,左眼镜片和右眼镜片之间不正确的棱镜效应会被眼镜配戴者感觉到非常不舒服。在这种情况下,不正确的鼻部棱镜度比不正确的颞部棱镜度和/或不正确的竖直棱镜度更有可能被眼镜配戴者接受。
上述方法特别提供了以下优点:同时测量眼镜架中的左眼镜片和右眼镜片允许从配戴情况下的双眼目标值确定左眼镜片与右眼镜片之间的棱镜度偏差。
本发明的有利实施例提供了通过评估来自不同记录位置的记录中的场景中结构点的图像表示的位移在坐标系中计算结构点的坐标。在这种情况下,可以使用检测特征的方法、即所谓的“特征检测方法”,例如,如在例如J.Hartmann、J.Klüssendorff和ErikMaehle的文章“A comparison of feature descriptors for visual SLAM [视觉SLAM的特征描述符的比较]”,《欧洲移动机器人会议(2013年版)》所述的基于梯度的特征描述符(比如SIFT和SURF特征)或二元特征描述符(比如BRISK特征的BRIEF),该文件的全文在此引用并且其披露内容并入本发明的说明书中。
结构点的坐标可以与任何固定坐标系相关,特别是与由至少一个图像采集装置相对于记录位置定义的坐标系。优选地,此坐标系参考眼镜架的坐标系,其可以由眼镜架的一部分定义。在这种情况下,相互参考的两个坐标系被理解为是指一个坐标系中的点或向量的坐标在另一个坐标系中已知的坐标系。特别地,通过确定结构点的坐标之间的距离可以实现的是,可以确定眼镜架中的左和/或右镜片的局部屈光力和/或屈光力分布,即使基于随时间变化的场景,例如眼镜配戴者的面部。
在本发明的另外的有利实施例中,提供了通过评估场景中的结构点之间的接近度关系来识别坐标系中的至少一个结构点的位移,以及在眼镜架的坐标系中确定右眼镜片和/或左眼镜片的至少一部分的局部屈光力和/或屈光力分布时,不考虑场景中所移位的至少一个结构点的坐标。以这种方式可以实现的是,场景中的结构点的运动对眼镜架中的左眼镜片和右眼镜片的局部屈光力和/或屈光力分布的测量结果没有影响并且不篡改测量结果。
特别地,本发明基于以下构思:使用至少一个图像采集装置从不同的记录位置和/或记录方向来记录场景的多个图像表示、特别是记录场景的电影或视频序列有助于,如果场景包含具有至少一个结构点的特征结构特征,例如通过图像处理计算至少一个图像采集装置的所谓内在参数及其相对于场景的相对空间位置,例如使用SLAM算法、即同时定位和映射算法(Simultaneous Localization and Mapping),如以下出版物所述的算法:A.Teichmann等人,“Unsupervised intrinsic calibration of depth sensors via SLAM[经由SLAM对深度传感器进行无监督的内在校准]”,《机器人:科学与系统(2013年版)》,德国柏林,2013年6月24至28日,该出版物的全部内容在此引用并且其披露内容并入本发明的说明书中。在这里有利的是场景包含具有多个唯一定义的、优选地静止的、时不变的结构点的独特结构特征。例如,这种独特结构特征可以是具有例如两条边缘线的交点的物体上的亮度轮廓、物体的独特颜色或物体的独特几何形状。
本发明将图像采集装置的内在参数理解为图像采集装置中相机的焦距f、图像中心Zx和Zy的坐标、剪切参数s以及由于来自图像平面的不同比例坐标轴的比例参数mx和my。这些参数被组合在相机校准算子中:
Figure DEST_PATH_IMAGE001
在本发明的范围内,相机的内在参数也可以是用于确定图像畸变、特别是径向和切向畸变的畸变参数。图像采集装置的内在参数描述了如何在图像采集装置的图像平面中对物点的3D坐标进行成像,或者如何在图像平面中的给定一个点的情况下可以在相对于图像采集装置静止的坐标系中计算相关联的光束路径。
图像采集装置相对于空间坐标系的相对位置通过旋转算子来描述
Figure 503094DEST_PATH_IMAGE002
其中,
Figure DEST_PATH_IMAGE003
其定义了相机围绕坐标系中心的旋转,以及平移向量
Figure 76027DEST_PATH_IMAGE004
其定义了相机中心相对于坐标系原点的位移。此坐标系中的坐标c由映射规则映射
Figure DEST_PATH_IMAGE005
以及通过将结果向量除以其在相机图像平面上的相应2D坐标上的第三坐标来计算相关联的二维非齐次坐标。
反之,对于相机像平面上齐次坐标中的二维像素坐标y,映射规则
Figure 59026DEST_PATH_IMAGE006
可以用于确定在此坐标上成像的相关联的光线。
这在以下书籍的第153至193页中有详细介绍:R. Hartley和A.Zisserman,“Multiple View Geometry [多视图几何]”,剑桥大学出版社(2004年版),其全部内容在此引用并且其披露内容并入本发明的说明书中。
场景的多个图像表示用于确定没有眼镜架的场景的3D模型的信息、关于眼镜架在场景中的绝对位置和相对位置的信息以及关于场景中的至少一个图像采集装置对于各个单独记录的图像(即,对于每次记录)的位置的信息。由此,确定穿过眼镜片的光束路径,以便然后由此计算左和/或右眼镜片的局部屈光力和/或屈光力分布。
因此,本发明的有利发展提供了一种用于计算至少一个结构点的坐标的SLAM算法。以这种方式,可以提高图像采集装置的坐标和位置的计算准确性,并且最小化确定场景中的至少一个结构点的坐标的计算开销,并且因此保持为此目的所需的计算时间较短。
特别地,从不同记录位置采集并因此从不同角度显示场景的同一个场景的图像表示中,SLAM算法有助于计算场景的三维几何形状和至少一个图像采集装置在采集场景的图像表示时分别采用的位置。SLAM算法包括特征识别例程(其检测场景中存在的特征)以及匹配例程(通过该匹配例程,针对记录中的每个特征识别从不同记录位置记录的图像中的对应特征)。根据图像记录中的每个特征的对应位置,基于至少一个图像采集装置的内在参数和图像采集装置的属于记录的空间位置,创建场景的三维模型。
根据本发明的计算机程序产品包含具有程序代码的计算机程序,用于在计算机程序被加载到计算机单元中和/或在计算机单元上执行时执行上述方法步骤。
根据本发明的用于测量眼镜架中的左和/或右眼镜片的局部屈光力和/或屈光力分布的设备包含至少一个图像采集装置和计算机单元,具有用于执行上述方法步骤的程序代码的计算机程序被加载在该计算机单元上。
特别地,这种设备可以被实施为智能手机或平板计算机或数码相机。下面,描述了本发明的、在附图中示意性地描绘的有利示例性实施例。
SLAM算法的准确性优选地通过校准所利用的至少一个图像采集装置确定,该算法确定至少一个图像采集装置的绝对位置和/或相对位置以及结构点在图像表示中的位置。这种校准能够从至少一个图像采集装置的每个像素坐标
Figure DEST_PATH_IMAGE007
的相对位置分配入射到相应图像采集装置中的三维光线。在数学上,这种校准可以表示为内在相机校准算子
Figure 923077DEST_PATH_IMAGE008
,其包含上述内在参数。例如,此相机校准算子
Figure 471870DEST_PATH_IMAGE008
可以通过至少一个图像采集装置从特殊校准图案、例如棋盘图案或点图案的记录中来确定。作为其替代方案,还可以通过评估直接来自场景的多个图像表示的至少一个场景的多个图像表示来确定内在相机校准算子
Figure 294332DEST_PATH_IMAGE008
,这些图像表示可以基于不同的记录位置。
通过上述校准,SLAM算法可以为每个结构点分配多个入射在相应图像采集装置中的三维光线,这些光线不穿过左眼镜片和右眼镜片。然后可以使用这些来确定结构点在空间中的坐标。穿过右和/或左眼镜片并且在通过右和/或左眼镜片的折射之后到达相应已知结构点的多个成像光束路径可以从这些空间坐标和由至少一个记录单元通过左和/或右眼镜片观察到的结构点的记录来确定。因此跨越的此光线模型优选地用于确定左和/或右眼镜片的屈光力或局部屈光力或屈光力分布。
在规则图案的情况下,也通过记录场景来采集其周期性。在本发明的另外的实施例的情况下,在本发明的另外的实施例中,可以从通过至少所述右和/或左眼镜片对图案的局部方向相关放大或局部方向相关缩小的解释来推导出右和/或左眼镜片的局部焦度。根据DIN EN ISO 13666:2013-10的第9.2段,焦度是包括眼镜片的球镜度和散光度的通用术语。因此,例如可以以有针对性的方式确定在视远点和/或视近点处的局部焦度。替代地,可以通过确定所述眼镜片上的多个位置的局部焦度来推导出眼镜片的屈光力分布。
在另外的方面,上述方法可以与至少一种另外的方法一起使用。所述至少一种另外的方法可以是例如用于确定使用者眼睛的屈光不正的方法,优选地根据EP 19 170561.5的方法,其中,所述方法包括以下步骤:
a)在屏幕上表示字符,其中,屏幕上所表示的字符的参数变化;
b)取决于屏幕上所表示的字符采集使用者眼睛的眼球运动度量;以及
c)建立从使用者眼睛的眼球运动度量中明显看出使用者对屏幕上所表示的字符的辨别阈值的时间点;以及
d)从在该时间点处定义的参数确定使用者的眼睛的屈光不正值。
作为上述方法的替代方案或附加于其,至少一种另外的方法例如也可以是用于确定眼镜片的至少一个光学参数的方法,优选地是根据欧洲专利申请(申请文件参考EP19170551.6)的方法,其中,此方法包括以下步骤:
a)使用眼镜片记录图像;以及
b)通过图像的图像处理确定眼镜片的至少一个光学参数,其中,该图像包括眼睛区域,该眼睛区域包括眼睛和/或眼镜片的使用者的邻接眼睛的面部区域。
作为上述方法的替代方案或附加于其,至少一种附加的方法还可以是用于确定使用者的眼睛的屈光不正的方法,优选地是根据欧洲专利申请(申请文件参考EP19170558.1)的方法,其中此方法包括以下步骤:
a)在屏幕上表示字符,其中该屏幕上所表示的字符的参数是变化的;
b)取决于该屏幕上所表示的字符采集使用者的反应;
c)建立时间点,在该时间点处,从使用者的反应中明显看出该屏幕上所表示的字符的可辨别性;以及
d)从在该时间点处定义的参数确定使用者的眼睛的屈光不正的值,其中,屏幕上所表示的字符是周期性图案,其中,屏幕上所表示的图案的参数包括至少一个空间频率,并且根据在该时间点定义的图形的空间频率确定屈光不正的值。
作为上述方法的替代方案或附加于其,用于确定眼镜片的屈光力分布的方法也可以作为至少一种附加方法,优选地根据欧洲专利申请(申请文件参考号EP 19170714.0)的方法,该方法使得从特定观看方向的眼睛前区段的成像的大小和/或形状比较得出局部屈光力成为可能。这通过眼镜片位于眼睛前区段前方时和眼镜片没有位于眼睛前区段前方时执行眼睛前区段的至少一个记录、并且相应地将具有眼镜片和没有眼镜片时的记录彼此进行比较来完成。
在上级应用中,上述各种方法、即根据本发明的方法以及还有至少一个另外的方法,可以从分别获得的结果的比较中按顺序组合,例如,以获得更高的准确性或对在各个方法中获得的结果进行合理性检查。上述各种方法可以在上级应用中相继地或同时地实现。如果相继地实现各种方法,则它们的顺序可以相互独立和/或可以涉及任何期望的顺序。如果相继地实现各种方法,则可以优选地最后执行根据本发明的方法中的至少一种来确定屈光力分布。上级应用可以是例如包括各种方法的计算机程序。
附图说明
在附图中:
图1 示出了具有眼镜架并且具有布置在不同记录位置的图像采集装置的场景;
图2 示出了在第一记录位置通过图像采集装置采集的场景的第一图像表示的一部分;
图3 示出了在不同于第一记录位置的另外的记录位置上通过图像采集装置采集的场景的第二图像表示的一部分;
图4 示出了场景的坐标系和具有眼镜片的图像采集装置的坐标系;
图5 示出了从两个不同的视角观察场景时眼镜架的光线模型;
图6 示出了根据眼镜架的光线模型计算出的屈光力分布;
图7 示出了用于测量眼镜架中的左和/或右眼镜片的方法的配置的流程图;
图8 示出了用于测量眼镜架中的左和/或右眼镜片的方法的另外的配置的流程图;
图9 示出了具有眼镜架和具有布置在不同记录位置的图像采集装置的另外的场景;
图10 示出了没有眼镜架但具有图像采集装置的另外的场景;
图11 示出了具有眼镜架和具有布置在不同记录位置的图像采集装置的另外的场景;
图12 示出了在第一记录位置通过图像采集装置采集的场景的图像表示的一部分;
图13 示出了没有眼镜架但具有图像采集装置的另外的场景;以及
图14 示出了通过图像采集装置采集的没有眼镜架的场景的图像表示的一部分。
具体实施方式
作为场景10,图1示出了具有桌布14的桌子12,桌子上布置有一副眼镜16,眼镜具有眼镜架18和接纳在眼镜架中的左和右眼镜片20、22以及呈刀、瓶、杯、书以及雪茄形式的另外的物体24。图1中所示的场景10是时不变的并且包含桌布14和物体24的图案的独特点,其定义了场景10的坐标系25,以及该副眼镜16的眼镜架18的独特点作为结构点26。
为了测量该副眼镜16中的左和右眼镜片20、22的局部屈光力,通过被实施为智能手机的图像采集装置30中的相机28在多个不同的记录位置32、34、36、...借助于使用者握着智能手机用一只手切换到视频模式并沿轨迹38移动所述智能手机来记录场景10。因此,使用者通过图像采集装置30的相机28从不同的角度采集场景10。为了处理通过相机28采集的场景10的记录,图像采集装置30包含计算机单元40。
图2是通过图像采集装置30从第一记录位置32采集的场景10的第一图像表示的一部分42,具有结构点26的图像表示26'。图3示出了通过图像采集装置30从与第一记录位置32不同的另外的记录位置36采集的场景10的第一图像表示的另外的部分42,具有结构点26的图像表示26'。
当相对于场景10移位图像采集装置30时,多个结构点26均通过穿过或不穿过该副眼镜16的眼镜架18的第一和/或第二眼镜片20、22的成像光束路径被采集,如从图2和图3明显看出的。而且,当相对于场景10移位图像采集装置30时,采集场景10的图像表示,该场景包含眼镜架18的一部分(其定义了眼镜架18的坐标系44)。
图4示出了场景10的坐标系25和图像采集装置30的坐标系46,带有眼镜片20、22。从场景10的许多被采集的图像表示中,图像采集装置30中的计算机单元40基于SLAM算法并且通过坐标系46中的光线模型来计算场景中的图案27的结构点26的坐标,该坐标系参考图像采集装置30并且进而参考场景10的坐标系25和该副眼镜16的眼镜架18的坐标系44。
图5示出了一副眼镜16的光线模型,其成像光束路径被引导到图像采集装置30的相机28中并且当从两个不同的记录位置32、34采集场景10时包含结构点26的主光线53、53'。这种光线模型不仅需要关于图像采集装置30的位置的知识,还采用了场景10的三维模型和在场景10中图1所示的一副眼镜16的位置的知识、以及此外关于场景10中的哪些结构点26是由图像采集装置30通过一副眼镜16的左眼镜片20或右眼镜片22采集的信息。
为了计算图5所示的光线模型,执行以下过程,参考图4:
Figure DEST_PATH_IMAGE009
从场景10中的图案27的结构点26的齐次坐标中的像素坐标中,如在图像采集装置30的相机28中成像的,入射到相机光学单元中的成像光束路径的主光线在相机28的图像采集装置的坐标系46中以三维向量的形式被确定
Figure 279475DEST_PATH_IMAGE010
其中,
Figure DEST_PATH_IMAGE011
如果相机校准算子
Figure 212796DEST_PATH_IMAGE008
是已知的。从相机28的已知空间位置及其在坐标系25中的相对空间位置,可以确定平移算子
Figure 616095DEST_PATH_IMAGE012
以及旋转算子
Figure DEST_PATH_IMAGE013
其中,
Figure 343880DEST_PATH_IMAGE014
由此,
Figure DEST_PATH_IMAGE015
可以通过线性变换来转换
Figure 567051DEST_PATH_IMAGE016
从相机28的图像采集装置的坐标系46通过对应于旋转算子
Figure 304063DEST_PATH_IMAGE017
的旋转转换到坐标系25',然后通过对应于平移算子
Figure 561869DEST_PATH_IMAGE018
的平移转换到场景10的坐标系25。
通过借助于特征匹配算法在不同记录位置32、34、36的多个记录上检测和跟踪静止的、时不变的结构点26(其成像光束路径没有穿过眼镜片),可以从图像采集装置的内在参数以及在采集图像表示时图像采集装置的相对位置和绝对位置推导出这些结构点26中的每一个在场景10中在图像采集装置30的坐标系46中的相对位置。
然后,根据图像采集装置30的位置从每个成像结构点26计算穿过该副眼镜16的眼镜片20、22的主光线53、53'。该点的这个3D坐标然后产生光束模型,该光束模型反映同一场景10中同一副眼镜16的不同观察条件并且描述成像光线,这些光线被偏转并且对应于图像采集装置的各种相对位置和绝对位置。
通过如例如如以下出版物中所述的所谓逆方法,于是可以从此数据记录中确定该副眼镜16的眼镜架18中的左和右眼镜片20、22的绝对位置和形状和相对位置以及材料折射率,并且因此也可以确定眼镜配戴者的光焦度:K.N.Kutukalos和E.Steger,“A Theory ofRefractive and specular 3D Shape by Light-Path Triangulation [光路径三角测量的折射和镜面3D形状理论]”,《计算机视觉国际期刊》,第76卷,第1期,第13-29页,2008年,其全文在此引用并且其披露内容并入本发明的说明书中。
逆方法是所谓的正向计算的逆转,其中使用光线计算(也称为光线追踪)来计算光线穿过由已知光学界面和界面之间的已知折射率组成的光学系统的路线。假设界面、其法线和折射率是已知的,这允许唯一地计算穿过系统的每条光线。在逆方法的情况下,寻求适合给定数量的光线的光学界面或折射率。为了确定误差尺寸,基于通过逆方法确定的表面执行正向计算,然后在相应界面的上游和/或下游的光线上的点之间进行比较。通过改变要确定的表面,然后通过优化方法以有针对性的方式将误差尺寸最小化。作为可以通过参数变化确定误差函数最小值的纯优化方法的替代方案,这里也可以使用所谓的光路径三角测量方法,其也与优化方法结合使用。例如,在上述出版物“K.N.Kutukalos和E.Steger,ATheory of Refractive and specular 3D Shape by Light-Path Triangulation [光路径三角测量的折射和镜面3D形状理论],多伦多大学”中已经描述了这种方法。
如果眼镜片的形状和折射率是已知的,则其屈光力可以特别通过光束的正向计算来计算。例如,眼镜片的顶焦度可以借助于将直径约为5 mm(其因此对应于眼睛的瞳孔大小)的平行光束传播穿过眼镜片使得其主光线(即,其光轴)在眼睛侧以垂直方式离开眼镜片来确定。顶焦度的值是在主光线从其中出射的眼镜片表面与光束的最小束腰或范围的点之间的距离的倒数。
在包括至少一个复曲面焦度的眼镜片的情况下,光束的方向相关范围具有两个最小值。这两个最小值与眼镜片表面之间的距离描述了两条主要子午线的焦度。这两条主要子午线之间的差描述了眼镜片的柱镜度。主光线穿过眼镜片的总偏转应该被视为眼镜片在相应位置处的棱镜效应。
所谓的内在相机校准算子
Figure 709822DEST_PATH_IMAGE008
用于将图像采集装置30中的相机28的像素坐标
Figure 685868DEST_PATH_IMAGE019
转换为成像光束路径的光束向量。例如,可以通过图像采集装置从特定校准图案(例如棋盘图案或点图案)的记录中确定相机校准算子
Figure 695413DEST_PATH_IMAGE008
。作为其替代方案,还可以通过评估直接来自场景10的记录和图像表示的场景10的多个记录和图像表示来确定内在相机校准算子
Figure 338884DEST_PATH_IMAGE008
,这些记录或图像表示可以基于不同的记录位置32、34、36。
图6示出了关于左和右眼镜片20、22的屈光力k(x,y)的分布的曲线图52,其是基于图5所示的那副眼镜16的光线模型计算的。
图7是用于测量一副眼镜16中的左和/或右眼镜片20、22的上述方法的流程图54。
在第一步骤S1中,具有多个结构点26和具有一副眼镜16中的左和/或右眼镜片20、22以及具有该副眼镜16的眼镜架18的一部分(其定义了该副眼镜16的眼镜架18的坐标系44)的场景10的至少一个第一图像表示通过具有结构点26的穿过该副眼镜16的第一和/或第二眼镜片20、22的成像光束路径的图像采集装置30被采集。
在步骤S1之后的步骤S2中,场景10的至少两个另外的图像表示然后在没有该副眼镜16的第一和/或第二眼镜片20、22的情况下但是有结构点26成像在第一图像表示中时通过图像采集装置30被采集。
然后,在步骤S3中,通过图像评估从场景10的至少两个另外的图像表示在场景10的坐标系25中计算静止的、时不变的结构点26的坐标,该坐标系参考在不同记录位置的图像采集装置30的坐标系46。
在步骤S3之后的步骤S4中,然后在眼镜架18的坐标系44(其参考场景10的坐标系25)中确定左眼镜片20的至少一部分的屈光力分布k(x,y)和/或在场景10的坐标系25(其参考眼镜架18的坐标系44)中从场景10的至少一个图像表示中的静止的、时不变的结构点26的坐标和结构点26的图像中确定右眼镜片22的至少一部分的屈光力分布k(x,y)。
图8示出了一种方法的流程图54,该方法可替代用于测量一副眼镜16中的左和/或右眼镜片20、22的上述方法,并且在下文中参考图9至图12进行了描述。
同样在这里,具有多个结构点26和具有一副眼镜16中的左和/或右眼镜片20、22的时不变场景10的一系列第一图像表示通过图像采集装置30连同眼镜架18的一部分(其如图4所示定义了眼镜架18的坐标系44)再次在第一步骤S1中被采集,如从图9明显看出的。
如从图9明显看出的,在这种情况下,用结构点26的成像光束路径采集场景10的图像表示,这些成像光束路径中的至少一些穿过该副眼镜16的第一和/或第二眼镜片20、22和/或这些成像光束路径中的至少一些被引导经过该副眼镜16的第一和/或第二眼镜片20、22。
在步骤S1之后的步骤S2中,具有静止的时不变结构点26但没有该副眼镜16的场景10的一系列另外的图像表示被采集,如从图10明显看出的。这里应该注意的是,步骤S2也可以在步骤S1之前或可以与该步骤同时进行。
在步骤S3中,场景10的坐标系25参考眼镜架18的坐标系44,于是在场景10的坐标系25(其参考在不同记录位置上的图像采集装置30的坐标系46)中通过图像评估从场景10的至少一个另外的图像表示中计算结构点26的坐标。
随后,在步骤S4中,在眼镜架18的坐标系44(其参考场景10的坐标系25)中确定左眼镜片20的至少一部分的屈光力分布k(x,y)和/或从场景10的至少一个第一图像表示中的结构点26的坐标和结构点26的图像中在眼镜架18的坐标系44中确定右眼镜片22的至少一部分的屈光力分布k(x,y)。
如从图11到图14明显看出的,对眼镜架18中的左和/或右眼镜片20、22的测量也可以通过采集一个场景10的图像表示来实现,该场景包含戴着一副眼镜和没有戴着一副眼镜的眼镜配戴者。这里,具有多个结构点26和具有眼镜架18中的左和/或右眼镜片20、22的时不变场景10的一系列第一图像表示通过图像采集装置30连同眼镜架18的一部分(其定义了眼镜架18的坐标系44)被采集,如从图11中明显看出的。如图12所示,在这种情况下,用结构点26的成像光束路径采集场景10的图像表示,这些成像光束路径中的至少一些穿过该副眼镜16的第一和/或第二眼镜片20、22和/或这些成像光束路径中的至少一些被引导经过该副眼镜16的第一和/或第二眼镜片20、22。
然后,如图13和图14所示,具有结构点26但没有该副眼镜16的场景10的一系列另外的图像表示被采集。然后,结构点26的坐标再次通过图像评估从场景10的坐标系25(其参考在不同记录位置上的图像采集装置30的坐标系46)中的场景10的至少一个另外的图像表示来计算,并且场景10的坐标系25参考眼镜架18的坐标系44。然后,在眼镜架18的坐标系44中确定左眼镜片20的至少一个部分的屈光力分布k(x,y)和/或从场景10的至少一个第一图像表示中的结构点26的坐标和结构点26的图像在眼镜架18的坐标系44中确定右眼镜片22的至少一部分的屈光力分布k(x,y)。
因为图11和图13中所示的场景10中的结构点26可以由于眼镜配戴者的运动而移位,所以在这种情况下图像采集装置30的计算机单元包含程序例程,通过该程序例程,通过在场景10的坐标系25(其参考眼镜架18的坐标系44)中评估接近度关系、特别是场景10中结构点26之间的距离来计算的结构点26的相对位置。
可以设置为场景10中的结构点26之间的接近度关系被评估以便识别结构点26在场景10的坐标系25中的位移并且以便当在眼镜架18的坐标系44中确定右眼镜片22和左眼镜片20的至少一部分的屈光力分布时不考虑在场景10中已经移位的结构点26的坐标,使得场景10中的结构点26的运动不篡改左和右眼镜片20、22的局部屈光力的测量结果。
总之,特别应注意以下内容:本发明涉及一种用于测量眼镜架18中的左和/或右眼镜片20、22的局部屈光力或屈光力分布的方法。在该过程中,通过图像采集装置30从至少一个第一记录位置32用结构点26的至少一个成像光束路径来采集具有至少一个结构点26和具有眼镜架18中左和/或右眼镜片20、22的场景10的至少一个第一图像表示,所述成像光束路径穿过眼镜架18中的第一和/或第二眼镜片20、22。没有眼镜架18的第一和/或第二眼镜片20、22或没有包含左和/或右眼镜片的眼镜架但具有成像在第一图像表示中的结构点26的场景10的至少两个另外的图像表示通过图像采集装置30从至少两个不同的记录位置32、34、36被采集,其中一个记录位置可以与第一记录位置相同,并且结构点26的坐标通过图像评估从场景10的至少两个另外的图像表示在坐标系25中被计算,或者具有左和/或右眼镜片20、22的场景10的至少两个另外的图像表示从与第一记录位置不同且具有被成像在第一图像表示中的结构点26的至少一个成像光束路径的至少两个另外的记录位置通过图像采集装置30被采集,所述成像光束路径不穿过眼镜架18的第一和/或第二眼镜片20、22,以便然后从在场景10的至少一个第一图像表示中的结构点26的坐标和结构点26的图像确定在场景10的参考系25(其参考眼镜架18的坐标系44)中的左眼镜片20的至少一部分的屈光力分布k(x,y)和/或在坐标系25中右眼镜片22的至少一部分的屈光力分布k(x,y)。
附图标记清单
10 场景
12 桌子
14 桌布
16 一副眼镜
18 眼镜架
20 左眼镜片
22 右眼镜片
24 物体
25 场景的坐标系
25' 平移后场景的坐标系
26 结构点
26' 结构点的图像表示
27 图案
28 相机
30 图像采集装置
32、34、36 记录位置
38 轨迹
40 计算机单元
42 部分
44 镜架的坐标系
46 坐标系图像采集装置
48 左眼
50 右眼
52 曲线图
53、53' 主光线
54 流程图
Figure 408471DEST_PATH_IMAGE007
像素坐标
Figure 137392DEST_PATH_IMAGE008
相机校准算子
Figure 950628DEST_PATH_IMAGE020
旋转算子
Figure 183026DEST_PATH_IMAGE021
平移算子
S1、S2、S3、S4 步骤
k(x,y) 局部屈光力或屈光力分布

Claims (17)

1. 一种用于测量眼镜架(18)中的左和/或右眼镜片(20,22)的局部屈光力和/或屈光力分布k(x,y)的方法,
包括通过至少一个图像采集装置(30)从具有至少一个结构点(26)中的每个结构点的至少一个成像光束路径的至少一个第一记录位置(32)来采集具有这些结构点(26)和具有该眼镜架(18)中的左和/或右眼镜片(20,22)的场景(10)的至少一个第一图像表示的步骤,所述成像光束路径穿过该左或右眼镜片(20,22),以及
包括通过该至少一个图像采集装置(30)从至少两个不同的记录位置(32,34,36)采集没有该眼镜架(18)的左和/或右眼镜片(20,22)或没有包含该左和/或右眼镜片(20,22)的眼镜架(18)但具有被成像在该第一图像表示中的结构点(26)的场景(10)的至少两个另外的图像表示的步骤,其中一个记录位置能够与该第一记录位置(32)相同;
其特征为,
通过图像评估从该场景(10)的至少两个另外的图像表示计算这些结构点(26)在坐标系(25)中的坐标的步骤;以及
从该场景(10)的至少一个第一图像表示中的结构点(26)的坐标和这些结构点(26)的图像确定该左眼镜片(20)的至少一部分和/或该右眼镜片(22)的至少一部分的局部屈光力k(x,y)的步骤。
2. 一种用于测量眼镜架(18)中的左和/或右眼镜片(20,22)的局部屈光力或屈光力分布k(x,y)的方法,
包括通过至少一个图像采集装置(30)从具有至少一个结构点(26)的至少一个成像光束路径的至少一个第一记录位置(32)来采集具有这些结构点(26)和具有该眼镜架(18)中的左和/或右眼镜片(20,22)的场景(10)的至少一个第一图像表示的步骤,所述成像光束路径穿过该左或右眼镜片(20,22),以及
包括通过至少一个图像采集装置(30)从与该第一记录位置(32)不同且各自具有被成像在该第一图像表示中的结构点(26)的至少一个成像光束路径的至少两个不同的另外的记录位置(34,36)采集具有该左和/或右眼镜片(20,22)的场景(10)的至少两个另外的图像表示的步骤,所述成像光束路径不穿过该眼镜架(18)的左或右眼镜片(20,22),
其特征为,
通过图像评估从该场景(10)的至少两个另外的图像表示计算这些结构点(26)的坐标的步骤;以及
从该场景(10)的至少一个第一图像表示中的结构点(26)的坐标和这些结构点(26)的图像确定该左眼镜片(20)的至少一部分和/或该右眼镜片(22)的至少一部分的局部屈光力k(x,y)的步骤。
3.如权利要求1或2所述的方法,其特征为,采集该场景(10)的多个第一图像表示和该场景(10)的多个另外的图像表示,其中,从该场景(10)的多个另外的图像表示计算这些结构点(26)在该坐标系(25)中的坐标。
4.如权利要求1至3中任一项所述的方法,其特征在于,该场景(10)包含该眼镜架(18)的眼镜配戴者的左眼(48)和/或右眼(50)。
5.如权利要求4所述的方法,其特征在于,该图像采集装置(30)用于在该图像采集装置(30)位移时采集该场景(10)的多个图像表示,其中,该眼镜架(18)的配戴者的左眼(48)和/或右眼(50)注视被位移后的图像采集装置(30),并且从在该过程中所采集的场景(10)的多个图像表示来计算穿过该眼镜架(18)的左眼镜片(20)和/或右眼镜片(22)的该眼镜架(18)的配戴者的左眼(48)和/或右眼(50)的不同观察方向的观察光束路径,并且针对每个穿过的观察方向确定该左眼镜片(20)和/或该右眼镜片(22)的局部屈光力k(x,y)。
6.如权利要求1至5中任一项所述的方法,其特征在于,SLAM算法用于计算该至少一个图像采集装置(30)的内在参数。
7.如权利要求6所述的方法,其特征为,内在参数来自焦距、图像中心、剪切参数、比例参数、畸变参数组成的组。
8.如权利要求1至7中任一项所述的方法,其特征在于,SLAM算法用于计算在该坐标系(25)中该至少一个图像采集装置(30)的结构点(26)和/或记录位置(32,34,36)的坐标。
9.如权利要求1至8中任一项所述的方法,其特征在于,该场景(10)中的结构点(26)中的至少一些结构点的坐标是不变的。
10.如权利要求1至9中任一项所述的方法,其特征在于,通过评估来自不同的记录位置(32,34,36)的该场景(10)中的结构点(26)的图像表示之间的位移在坐标系(25)中计算这些结构点(26)的坐标。
11.如权利要求1至10中任一项所述的方法,其特征在于,通过评估该场景(10)中的结构点(26)之间的接近度关系来识别在坐标系(25)中这些结构点(26)的位移,并且在确定该右眼镜片(22)和/或该左眼镜片(20)的至少一部分的屈光力分布k(x,y)时不考虑在该场景(10)中所位移的结构点(26)的坐标。
12.一种用于测量眼镜架(18)中的左和/或右眼镜片(20,22)的屈光力分布k(x,y)的方法,其中,如权利要求1至11中任一项所述的那样测量在该左和/或右眼镜片(20,22)上的多个不同位置处该左和/或右眼镜片(20,22)的局部屈光力。
13.一种计算机程序产品,包括具有程序代码的计算机程序,以用于当该计算机程序被加载到计算机单元(40)上和/或在计算机单元(40)上被执行时实施如权利要求1至12中任一项所述的所有方法步骤。
14.一种用于测量眼镜架(18)中的左和/或右眼镜片(20,22)的局部屈光力的设备,该设备包括图像采集装置(30)和包括计算机单元(40),具有程序代码的计算机程序被加载到该计算机单元上,该程序代码用于实施如权利要求1至11中任一项所述的所有方法步骤,或一种用于测量眼镜架(18)中的左和/或右眼镜片(20,22)的屈光力分布的设备,该设备包括图像采集装置(30)和包括计算机单元(40),具有程序代码的计算机程序被加载到该计算机单元上,该程序代码用于实施如权利要求12中所述的所有方法步骤。
15.如权利要求14所述的设备,该设备被实施为智能电话或平板计算机或相机(28)。
16.一种计算机可读数据介质,其上存储有如权利要求13所述的计算机程序产品。
17.一种数据介质信号,其传输如权利要求13所述的计算机程序。
CN202080030607.8A 2019-04-23 2020-04-22 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和设备 Active CN113711003B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19170715.7 2019-04-23
EP19170715.7A EP3730919A1 (de) 2019-04-23 2019-04-23 Verfahren und vorrichtung zum vermessen der lokalen brechkraft oder der brechkraftverteilung eines brillenglases
PCT/EP2020/061238 WO2020216799A1 (de) 2019-04-23 2020-04-22 Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases

Publications (2)

Publication Number Publication Date
CN113711003A true CN113711003A (zh) 2021-11-26
CN113711003B CN113711003B (zh) 2024-03-08

Family

ID=66251606

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080030607.8A Active CN113711003B (zh) 2019-04-23 2020-04-22 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和设备

Country Status (8)

Country Link
EP (3) EP3730919A1 (zh)
JP (1) JP7126031B2 (zh)
KR (1) KR102444768B1 (zh)
CN (1) CN113711003B (zh)
BR (1) BR112021021170A2 (zh)
ES (1) ES2933452T3 (zh)
IL (1) IL287469B2 (zh)
WO (1) WO2020216799A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3730998A1 (de) 2019-04-23 2020-10-28 Carl Zeiss Vision International GmbH Bestimmung mindestens eines optischen parameters eines brillenglases
EP3730918A1 (de) 2019-04-23 2020-10-28 Carl Zeiss Vision International GmbH Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3880525A (en) * 1974-05-08 1975-04-29 American Optical Corp Method and apparatus for determining the refractive characteristics of a lens
US4348108A (en) * 1979-12-24 1982-09-07 Asahi Kogaku Kogyo Kabushiki Kaisha Automatic lens meter
EP0994336A2 (en) * 1998-10-12 2000-04-19 Hoya Corporation Spectacle lens evaluation method and evaluation device
US20100250173A1 (en) * 2007-08-31 2010-09-30 Hoya Corporation Method and device for evaluating graduated refraction power lens and method for manufacturing graduated refraction power lens
US20130155393A1 (en) * 2011-12-19 2013-06-20 Thomson Licensing Method and device for estimating the optical power of corrective lenses in a pair of eyeglasses worn by a spectator
CN204514573U (zh) * 2015-01-15 2015-07-29 中山大学中山眼科中心 一种镜片周边有效屈光力的测量装置
US20150362998A1 (en) * 2014-06-17 2015-12-17 Amazon Technologies, Inc. Motion control for managing content
WO2016076530A1 (ko) * 2014-11-13 2016-05-19 윤철주 모바일 디바이스를 이용한 안경렌즈의 도수 측정시스템, 방법 및 프로그램
WO2017134275A1 (en) * 2016-02-05 2017-08-10 Eidgenossische Technische Hochschule Zurich Methods and systems for determining an optical axis and/or physical properties of a lens and use of the same in virtual imaging and head-mounted displays
CN107810400A (zh) * 2015-06-25 2018-03-16 卡尔蔡司股份公司 测量眼镜的个人数据
US10019140B1 (en) * 2014-06-26 2018-07-10 Amazon Technologies, Inc. One-handed zoom
CN108604020A (zh) * 2014-09-22 2018-09-28 卡尔蔡司光学国际有限公司 用于演示眼镜的光学性质的显示装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010061557A (ko) * 1999-12-28 2001-07-07 박종섭 반도체 메모리 소자 및 그 제조 방법
KR20060093596A (ko) * 2005-02-22 2006-08-25 엘지전자 주식회사 이동단말기의 디옵터 측정 방법
JP6307805B2 (ja) 2013-07-24 2018-04-11 富士通株式会社 画像処理装置、電子機器、眼鏡特性判定方法および眼鏡特性判定プログラム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3880525A (en) * 1974-05-08 1975-04-29 American Optical Corp Method and apparatus for determining the refractive characteristics of a lens
US4348108A (en) * 1979-12-24 1982-09-07 Asahi Kogaku Kogyo Kabushiki Kaisha Automatic lens meter
EP0994336A2 (en) * 1998-10-12 2000-04-19 Hoya Corporation Spectacle lens evaluation method and evaluation device
US20100250173A1 (en) * 2007-08-31 2010-09-30 Hoya Corporation Method and device for evaluating graduated refraction power lens and method for manufacturing graduated refraction power lens
US20130155393A1 (en) * 2011-12-19 2013-06-20 Thomson Licensing Method and device for estimating the optical power of corrective lenses in a pair of eyeglasses worn by a spectator
US20150362998A1 (en) * 2014-06-17 2015-12-17 Amazon Technologies, Inc. Motion control for managing content
US10019140B1 (en) * 2014-06-26 2018-07-10 Amazon Technologies, Inc. One-handed zoom
CN108604020A (zh) * 2014-09-22 2018-09-28 卡尔蔡司光学国际有限公司 用于演示眼镜的光学性质的显示装置
WO2016076530A1 (ko) * 2014-11-13 2016-05-19 윤철주 모바일 디바이스를 이용한 안경렌즈의 도수 측정시스템, 방법 및 프로그램
CN204514573U (zh) * 2015-01-15 2015-07-29 中山大学中山眼科中心 一种镜片周边有效屈光力的测量装置
CN107810400A (zh) * 2015-06-25 2018-03-16 卡尔蔡司股份公司 测量眼镜的个人数据
WO2017134275A1 (en) * 2016-02-05 2017-08-10 Eidgenossische Technische Hochschule Zurich Methods and systems for determining an optical axis and/or physical properties of a lens and use of the same in virtual imaging and head-mounted displays

Also Published As

Publication number Publication date
KR20210147075A (ko) 2021-12-06
CN113711003B (zh) 2024-03-08
JP2022528575A (ja) 2022-06-14
WO2020216799A1 (de) 2020-10-29
BR112021021170A2 (pt) 2021-12-14
IL287469A (en) 2021-12-01
EP3730919A1 (de) 2020-10-28
JP7126031B2 (ja) 2022-08-25
IL287469B2 (en) 2023-10-01
US20220035183A1 (en) 2022-02-03
KR102444768B1 (ko) 2022-09-19
EP3959497B1 (de) 2022-11-09
EP3982102A1 (de) 2022-04-13
IL287469B1 (en) 2023-06-01
EP3959497A1 (de) 2022-03-02
ES2933452T3 (es) 2023-02-09

Similar Documents

Publication Publication Date Title
US11867978B2 (en) Method and device for determining parameters for spectacle fitting
CA3039116C (en) Method and apparatus and computer program for establishing a representation of a spectacle lens edge
CN113678055B (zh) 眼镜镜片的至少一个光学参数的确定
EP3339943A1 (en) Method and system for obtaining optometric parameters for fitting eyeglasses
CN111031893A (zh) 用于确定与眼科装置相关联的至少一个参数的方法
US11313759B2 (en) Method and device for measuring the local refractive power and/or the refractive power distribution of a spectacle lens
KR20200006621A (ko) 근거리 시력 지점을 결정하기 위한 방법, 장치 및 컴퓨터 프로그램
CN113711003B (zh) 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和设备
US20230020160A1 (en) Method for determining a value of at least one geometrico-morphological parameter of a subject wearing an eyewear
US11982878B2 (en) Method and device for measuring the local refractive power and/or refractive power distribution of a spectacle lens
US11892366B2 (en) Method and system for determining at least one optical parameter of an optical lens
US20220398781A1 (en) System and method for digital measurements of subjects
WO2023104944A1 (en) A method for estimating the position of the optical center of an ophthalmic lens

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant