CN110998417B - 确定视近点的方法、装置和计算机可读的存储介质 - Google Patents
确定视近点的方法、装置和计算机可读的存储介质 Download PDFInfo
- Publication number
- CN110998417B CN110998417B CN201880051535.8A CN201880051535A CN110998417B CN 110998417 B CN110998417 B CN 110998417B CN 201880051535 A CN201880051535 A CN 201880051535A CN 110998417 B CN110998417 B CN 110998417B
- Authority
- CN
- China
- Prior art keywords
- image
- spectacle frame
- determining
- person
- viewing direction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/02—Lenses; Lens systems ; Methods of designing lenses
- G02C7/024—Methods of designing ophthalmic lenses
- G02C7/027—Methods of designing ophthalmic lenses considering wearer's parameters
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C13/00—Assembling; Repairing; Cleaning
- G02C13/003—Measuring during assembly or fitting of spectacles
- G02C13/005—Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0016—Operational features thereof
- A61B3/0025—Operational features thereof characterised by electronic signal processing, e.g. eye models
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/0091—Fixation targets for viewing direction
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/028—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
- A61B3/04—Trial frames; Sets of lenses for use therewith
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/14—Arrangements specially adapted for eye photography
-
- G—PHYSICS
- G02—OPTICS
- G02C—SPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
- G02C7/00—Optical parts
- G02C7/02—Lenses; Lens systems ; Methods of designing lenses
- G02C7/024—Methods of designing ophthalmic lenses
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- Ophthalmology & Optometry (AREA)
- General Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Heart & Thoracic Surgery (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Optics & Photonics (AREA)
- Geometry (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Eyeglasses (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明涉及用于确定视近点的方法和装置。被检查的人观看可移动视近目标(60),并且使用相机装置(62)捕获人的图像。还确定视近目标(60)的取向和/或位置。于是由此确定视近点。
Description
技术领域
本申请涉及用于确定眼镜镜片的视近点的方法、装置以及对应的计算机程序。
背景技术
在将眼镜镜片装配到眼镜架中时需要定心参数,以便以适于眼镜旨在用于的相应人的方式配适眼镜镜片在眼镜架中的位置。尤其在DIN EN ISO 13666:2012标准中定义了这种类型的定心参数。所述定心参数包括:视远点,这些视远点指明人在看向远处时观看方向穿过眼镜镜片的位置;和视近点,这些视近点指明人在看向近处时(例如阅读时)观看方向穿过眼镜镜片的位置。特别在DIN EN ISO 13666:2012第5.16和5.17节中定义了视远点和视近点。在渐进镜片中需要视近点,这些渐进镜片能够根据观看方向矫正视远和矫正视近(参见DIN EN ISO 13666:2012, 8.3.5)。如今,通常购买此类渐进镜片并且在没有确定视近点的位置的情况下被合并到眼镜架中,这可能导致存在眼镜配戴者看不清近处的物体的影响。
为了纠正这个问题,已知用于确定视近点的各种方法。
JP 2005-342186 A例如披露了一种使用可移动光源的方法,这些光源从视远方向(水平地从要检查的人的头部开始)向相对于水平线倾斜的视近方向移动。在该过程中创建多个图像记录。在这里这些观看方向通过这些可移动光源来预先限定。
US 2014/009737 A1披露了一种用于确定近用定心数据和远用定心数据的相对复杂的装置。在这里使用两个相机模块来记录要检查的人的针对视远方向和视近方向的图像。为此目的,可以在平板计算机上安装软件,并且可以在平板计算机的显示屏上显示要检查的人所观察的元素。此外,必须在要检查的人的头部上贴附标尺。
US 2010/149486 A1测量在视远方向与阅读观看方向之间头部的前倾差,其中并不确定用于阅读的精确观看方向,这可能导致不准确。
US 2003/123026 A1基于要检查的人的头部的正面记录确定近瞳距(PD)。在这种情况下所使用的装置具有短观察距离,这可能导致瞳孔被眼镜架的部件遮掩。
DE 103 00 188 A1披露了一种方法,其中通过图像记录来确定近用定心参数,所述文件并未明确指明应如何实施该确定。
上述大多数程序具有如下缺点,即具有已知尺寸的参考物体(例如,所谓的测量支架)必须被布置在眼镜架或面部上,以便在空间中识别眼镜架的布置。然而,这种测量支架的使用对镜架在人的面部上的位置产生了不可忽视的影响,并且人自己可能受到测量支架的存在的影响,导致在测量期间可能在这里出现不准确。而且,在这些方法中,在一些情况下仅间接地确定视近点。
EP 2 913 704 A1披露了一种能够确定视远方向和视近方向的定心参数的装置。在那种情况下,由于受设计所决定,视远方向和视近方向由该装置预先限定。因此,该装置预先限定的视近方向不一定对应于要检查的人例如在阅读时所采用的实际视近方向。
WO 2014/061294 A1披露了一种方法,其中以频闪光照射要检查的人的头部并且针对视远位置和视近位置通过相机各自记录要检查的人的头部,该相机可以在视远位置与视近位置之间移动。然后评估由频闪光产生的瞳孔反射。在那种情况下,视近位置也并不一定对应于人的自然阅读位置,而是通过相机位置来确定。而且,需要进行频闪照射。
FR 3 021 205 A1披露了一种用于确定姿势参数的程序,其中记录不同活动期间(例如,阅读时)的人,并且基于对应的点确定在这些姿势下头部的相对位置。在所述文件中例如未提及比如视近点等定心参数的确定。
DE 10 2011 009 646 A1披露了一种用于确定视近点的方法,其中在人观看视近目标时记录人的头部的图像。确定视近点的位置和/或取向,并且基于图像以及基于视近目标的位置和/或取向确定视近点(51)。
US 2002/0105530 A1披露了:通过相机系统和3D建模应用来产生面部的3D模型,其中产生面部的全纹理3D模型。
EP 2 963 482 A1披露了一种用于镜片设计的系统。
US 2014/0293219 A1披露了一种用于确定人的阅读距离的方法。
欧洲专利申请EP 3 270 099 A1披露了一种用于基于人的头部的两个侧面图像确定角膜顶点距离的方法,其中相机记录戴眼镜的第一侧面图像和不戴眼镜的第二侧面图像。
欧洲专利申请号1 038 495 A2披露了一种用于确定视近点的方法和用于确定视近点的装置。从欧洲专利申请1 038 495 A2开始,本申请的第一目的在于,使得可以在不使用必须被装配到眼镜架或人上的测量杆的情况下确定观看方向。
发明内容
根据本发明的第一方面,为此目的提供了根据本发明的用于确定视近点的方法和根据本发明的用于确定视近点的装置,其中该方法包括:
记录人的头部的图像,其中在该人观看视近目标并且戴着眼镜架或没有戴着眼镜架时,通过并入该视近目标中的相机记录该图像,
其中该图像示出了眼睛的瞳孔位置和/或角膜位置,
其中该视近目标是可移动的;并且其中该方法进一步包括:
确定该视近目标的取向,
基于该图像确定该人在观看该视近目标时的观看方向,其特征在于,
基于该图像、基于该观看方向和眼镜架的位置来确定该视近点,其中如果该人戴着该眼镜架,那么根据该图像确定该眼镜架的位置,以及如果该人没有戴着该眼镜架,那么基于模型虚拟地确定该眼镜架的位置,并且其中
基于这些眼睛的瞳孔位置和/或角膜位置相对于该相机的对称轴的位置和该相机的图像角度和分辨率确定该观看方向,其中该对称轴的方向由该视近目标的取向决定。
DE 10 2014 200 637 A1披露了一种用于确定视近点的方法和用于确定视近点的装置。从DE 10 2014 200 637 A1开始,本申请的第二目的在于,使得可以在不使用侧面目标标记的情况下确定视近点,并且使该方法更可靠,以防止侧面图像中眼睛被眼镜镜腿遮掩。
为此目的,根据本发明的第二方面,提供了根据本发明的用于确定视近点的方法和根据本发明的用于确定视近点的装置,其中该方法包括:
记录人的头部的图像,其中在该人观看视近目标并且戴着眼镜架或没有戴着眼镜架时,通过并入该视近目标中的相机记录该图像,
其中该图像示出了眼睛的瞳孔位置和/或角膜位置,
其中该视近目标是可移动的;并且其中该方法进一步包括:
确定该视近目标的取向,
基于该图像确定该人在观看该视近目标时的观看方向,其特征在于,
基于该图像、并且基于该观看方向以及基于眼镜架的位置确定该视近点,
其中,其中如果该人戴着该眼镜架,那么根据该图像确定该眼镜架的位置,以及如果该人没有戴着该眼镜架,那么基于模型虚拟地确定该眼镜架的位置,并且其中
确定该观看方向包括:识别该瞳孔位置和/或角膜位置在该图像中的位置,并且通过在从相机观看时物体与该相机的对称轴之间的角度与该物体以像素出现的一个像素或多个像素之间的固定关系确定相对于该相机的对称轴的观看方向,该关系由该相机的分辨率和图像角度给出。
日本专利申请号2003329541 A披露了一种用于确定视近点的方法和用于确定视近点的装置。从日本专利申请号2003329541 A开始,本发明的第三目的在于,使得可以在不使用侧面目标标记的情况下确定视近点并且能够实现视近目标的更大的移动自由度。
为此目的,根据本发明的第三方面,提供了根据本发明的用于确定视近点的方法和根据本发明的用于确定视近点的装置,其中该方法包括:
在人戴着眼镜架并且观看视近目标时记录该人的头部的正面图像和第一侧面图像,其中该视近目标是可移动的,
确定该视近目标的位置和取向,以及
基于该正面图像和该侧面图像确定该眼镜架的位置,
确定该人在观看该视近目标时的观看方向,并且基于该观看方向和该眼镜架的位置确定该眼镜架的视近点,
其特征在于,
确定该观看方向包括:
基于该头部的3D模型产生该头部的第二侧面图像,
基于该第一侧面图像和该第二侧面图像确定该人的眼睛的瞳孔和/或角膜的位置,
计算该观看方向作为该视近目标的位置和该瞳孔或该角膜的位置与该第一侧面图像之间的差。
以下简要讨论了本发明的多个方面。在某些情况下,使用的术语在本次简短讨论之后才被定义。
在本发明的第一方面中提供了一种用于确定视近点的方法。该方法包括:
记录人的头部的图像,其中在人正在观看视近目标时,使用合并入该视近目标中的图像记录单元来记录该图像,
其中该图像示出了眼睛的瞳孔位置和/或角膜位置,
其中视近目标是可以移动的;并且其中该方法进一步包括:
确定视近目标的取向,以及
基于该图像确定人在观看视近目标时的观看方向。
该方法的特征
在于,基于该图像和基于该观看方向、以及基于该视近目标的位置和/或取向确定视近点,其中
基于眼睛的瞳孔位置和/或角膜位置相对于图像记录单元的对称轴的位置和图像记录单元的图像角度和分辨率确定观看方向,其中该对称轴的方向由视近目标的取向决定。
此外,在本发明的第一方面中提供了一种用于确定视近点的装置。该装置包括:
视近目标(40;60),该视近目标是可移动的并且包括图像记录单元(62)和位置检测单元(61),
其中该图像记录单元(13;62)被配置为在人正在观看视近目标时记录该人的图像,
其中该位置检测单元(42;61)被配置为确定该视近目标的取向;以及
用于确定视近点的计算单元(14)。
该装置的特征在于,该计算单元被配置为基于该图像和基于该观看方向、以及基于该视近目标的位置和/或取向确定该视近点,其中
基于眼睛的瞳孔位置相对于该图像记录单元的对称轴的定位在图像记录单元的图像角度和分辨率下确定观看方向,其中该对称轴的方向由视近目标的取向决定。
这种方法和这种装置优于欧洲专利申请号1 038 495 A2中的方法之处在于,在不需使用必须贴附到眼镜架或人上的测量杆的情况下可以确定人的观看方向,原因在于在这里观看方向是基于所记录的图像和图像记录单元的特性,即分辨率和图像角度来实现的。
基于或以一个或多个变量(例如图像角度和分辨率)为基础进行确定意味着这些变量影响该确定。该确定的具体示例将在后面进行说明。
在这种情况下,图像记录单元通常是能够创建物体(在这种情况下,是人的头部或其一部分)的数字图像的单元。这种类型的图像记录单元可以包括一个或多个相机。
图像记录单元的分辨率指明由此产生的数字图像具有多少像素。在通常的矩形图像的情况下,分辨率通常以L × H指定,其中L和H指明沿图像边缘的像素数量。这样的矩形图像可以被视为具有长度L和宽度H的像素矩阵。在这种情况下,分辨率取决于所使用的图像传感器。
相机的对称轴被理解为相机的轴线,其中沿对称轴入射的光线在图像中心成像。当相机围绕对称轴旋转时,所记录物体的被观看方向(作为相对于对称轴的角度被测量)不改变。在许多图像记录单元中,所述对称轴对应于图像记录单元的透镜的光轴。
图像角度指明由图像记录单元观看到的物体在图像中被捕获的角度范围,并且对应于摄像中这个术语的惯常用法;例如参见https://de.wikipedia.org/wiki/ Bildwinkel;版本截至2018年5月6日。图像角度同样由所使用的透镜决定。
作为分辨率和图像角度的结果,图像记录单元所观察到的物体相对于图像记录单元的对称轴所位于的角度与该物体在图像中出现的像素或多个像素之间存在固定关系。因此,通过识别图像中的眼睛或其一部分的位置,可以确定相对于对称轴的观看方向。
在本发明的第二方面中提供了一种用于确定视近点的方法。该方法包括:
在人戴着眼镜架并且正在观看视近目标时记录人的头部的正面图像和第一侧面图像,其中视近目标是可移动的,
确定视近目标的位置和取向,以及
基于该正面图像和该侧面图像确定该眼镜架的位置,
确定人在观看视近目标时的观看方向,并且基于该观看方向和该眼镜架的位置确定该眼镜架的视近点,
该方法的特征在于:确定该观看方向包括:
基于该头部的3D模型产生该头部的第二侧面图像,
基于该第一侧面图像和该第二侧面图像确定该人的眼睛的瞳孔和/或角膜的位置,
计算该观看方向作为视近目标的位置和瞳孔或角膜的位置与第一图像之差。
与开篇提及的EP 3 270 099 A1相比,第二侧面图像在这里因此由3D模型产生并且不通过相机被记录。
另外,在本发明的第二方面中提供了一种用于确定视近点(51)的装置。该装置包括:
视近目标(40;60),其中该视近目标(40;60)是可移动的;
图像记录单元(13;62),该图像记录单元用于在人观察视近目标时确定人的头部的正面图像和第一侧面图像;
位置检测单元(42;61),该位置检测单元用于确定视近目标的位置和取向;
用于确定视近点的计算单元(14)。
该装置的特征在于,计算单元(14)被配置为:
基于该头部的3D模型产生该头部的第一侧面图像,
基于该第一侧面图像和该第二侧面图像确定该人的眼睛的瞳孔和/或角膜的位置,
计算该观看方向作为视近目标的位置和瞳孔或角膜的位置与第一图像之差。
这种方法和这种装置优于DE 10 2014 200 637 A1中的方法之处在于:可以在不使用侧面目标标记的情况下确定视近点,以及即使在侧面图像上人的眼睛被眼镜镜腿遮掩住的情况下,该方法也可以成功地应用。
差值被理解为是指向量量的减法。
优选地,根据本发明的第二方面的方法的特征在于,基于该第一侧面图像和该第二侧面图像确定该瞳孔和/或该角膜的位置包括使该第一侧面图像与该第二侧面图像全等。使全等使得第一侧面图像和第二侧面图像的图像区域能够容易地根据其位置而彼此识别。
优选地,此外或替代性地该方法的特征在于,基于该第一侧面图像和该第二侧面图像确定该瞳孔和/或该角膜的位置包括通过用该第二侧面图像的对应部分来代替该第一侧面图像的部分,该对应部分包括该瞳孔和/或角膜。在此方面,即使在第一侧面图像中瞳孔和/或角膜最初被眼镜镜腿遮掩住,也可以在第一侧面图像中识别瞳孔和/或角膜的位置。
替换第一侧面图像的一部分在这里被理解为是指以位置选择的方式将第一侧面图像的信息替换为第二侧面图像的信息。例如,侧面图像可以表示为带有x和y两个指数的二维像素矩阵。在这种情况下,替换部分可以是指第一侧面图像的针对特定x和y值xi和yi的单个像素值被第二侧面图像的针对相同的x和y值xi和yi的光栅矩阵值代替。
第一侧面图像和第二侧面图像可以特别地在显示器(例如,屏幕)上展示,以供配镜师观看。
根据本发明的第二方面的装置优选地可以根据该方法的上述优选实施例配置。
其中通过第一侧面图像和第二侧面图像确定瞳孔和/或角膜的位置的这种程序也可以应用于本发明的第一方面。在这种情况下,观看方向的确定可以此外在如此确定的瞳孔和/或角膜上实施。特别地,可以从瞳孔和/或角膜的位置来推断眼睛转动中心的位置(稍后将更详细地说明),然后可以确定观看方向,使得它在眼睛转动中心处“开始”,即从眼睛转动中心开始延伸。
在本发明的第三方面中提供了一种用于确定视近点的方法。该方法包括:
在人正在观看视近目标时记录人的头部的图像,其中该视近目标是可移动的。
该方法的特征在于:该视近目标具有与包括至少一个传感器的立柱的可移动机械连接;并且该方法进一步包括:
通过该至少一个传感器确定在空间中该视近目标(40)的位置和/或取向,以及
基于该图像以及基于该视近目标的位置和/或取向确定该视近点。
另外,在本发明的第三方面中提供了一种用于确定视近点的装置。该装置包括:
视近目标,其中该视近目标是可移动的;图像记录单元(13;62),该图像记录单元用于在人观看该视近目标时确定人的头部的图像;以及
用于确定视近点的计算单元(14)。
该装置的特征在于,视近点(40)具有与包括至少一个传感器的立柱(12)的可移动机械连接(42),传感器被配置为确定视近目标的位置和取向并且用于将该位置和取向提供给计算单元(14)。
这种方法和这种装置优于日本专利公开号2003329541 A中的方法之处在于:可以在未使用侧面目标标记的情况下确定视近点,以及人可以在大范围中移动视近目标,以便获得舒适的阅读姿势。
在第一方面和第三方面的上述方法和装置的情况下,可以在人戴着眼镜架时记录或在人未戴眼镜架时记录所讨论的图像。如稍后将更详细地说明的,于是在第一情况下可以从这些图像中确定眼镜架的位置,而在后一种情况下,眼镜架的位置实际上可以基于模型来确定。
应注意的是,这里提到的“视近点”是指可以确定人的一只眼睛或两只眼睛的视近点。
视近目标的位置应理解为指三维空间中的位置,比如可以在相对于空间上固定坐标系的笛卡尔坐标中指定的位置。视近目标的取向描述了视近目标在其位置上是如何被定向的,例如,近视目标的一侧面向哪个方向,为了测量的目的,人旨在观看那侧。根据DIN ENISO 8373: 2012-03,位置和取向的组合也被称为姿势,并且在机器人技术中也非常重要。
为了确定视近点的目的,视近目标是人旨在观看的物品,其中例如可以采用阅读姿势。为此目的,视近目标可以具有要读取的文本或要观看的图像,人打算以正常的阅读姿势观看该文本或图像。借助于以下事实,即视近目标是可移动的,因此可以采取自然的阅读姿势,并且该测量并不受限于由该装置预先限定的阅读姿势。基于图像和视近目标的位置和/或取向进行的确定此外可以省去使用测量支架或类似的物品。
优选地,确定视近目标包括基于图像确定人在观看视近目标时的观看方向,其中基于观看方向确定视近点。通过观看方向可以以简单的方式确定视近点。
为此目的,该方法优选进一步包括确定人所配戴的眼镜架相对于人的眼睛转动中心的相对位置。
在此方面,可以通过从眼睛转动中心开始确定观看方向与眼镜镜片的相交点(眼镜镜片的位置由眼镜架的位置所限定)来容易地确定视近点。而且,以此方式仅需观看方向,而无需人与近视目标之间的距离,可以任意选择该距离。在此,根据DIN EN ISO 7998和DIN EN ISO 8624,眼镜架应该理解为是指通过其可以将眼镜镜片戴在头部上的镜架或保持器。特别地,这里使用的术语还包括无框眼镜架。
可以通过另外的图像记录或这些图像记录来确定人所配戴的眼镜架相对于此人的眼睛转动中心的相对位置,例如,在为了确定戴着眼镜架的人的视远点而创建的这些图像记录的过程中。基于多个图像记录确定定心参数(比如视远点)的对应装置在欧洲专利申请号17 153 559.4和17 153 556.0中进行了描述。
在此方面,借助比如人所戴着的眼镜架相对于人的眼睛转动中心的相对位置等参数(这些参数无论如何是从先前对视远点的确定中存在的),可以容易地确定视近点。
于是从视近点和视远点中可以此外确定所谓的渐进通道长度(参见DIN EN ISO13666:2013-10中的14.1.25节),该渐进通道长度指明视近点与视远点之间的距离。此外或替代性地,可以确定视近点相对于视远点的鼻距。所述鼻距有时被称为“内移量”,但并不一定同时对应于DIN EN ISO 13666:2013-10中14.2.13节下的标准化的内移量。通常,所述鼻距由渐进眼镜镜片或双焦点眼镜镜片的镜片设计固定地预先限定。这并没有考虑到以下事实,即两侧的所述鼻距可能是不对称的,例如,如果受试者正常情况下保持头部略微侧向倾斜,但将用于阅读的视线垂直向下转动,而不改变头部的侧向倾斜。这种不对称性可以通过基于如上所述确定的视近点和视远点确定所述鼻距来确定。
在一个变型中,在这种情况下,图像被记录为由同一相机单元进行的多个图像的记录,通过该相机单元创建另外的图像记录。为此目的,在上述欧洲专利申请号17 153559.4和号17 153 556.0中所描述的相机单元具有相对于彼此成大约90°的角度布置的多个相机,以便创建正面记录和侧面记录。在以此方式记录的多个图像中,然后可以通过在以上申请中所述的算法来确定眼镜架的位置和眼睛位置。在另外的图像记录中可以基于眼镜架的位置来执行该确定,即在那里被确定的眼镜架的形状可以通过例如在欧洲专利申请号17153651.9中所描述的图像分析算法在所记录的图像中被确定或者可以实施共同的确定。特别地,在欧洲专利申请号17153651.9中所描述的算法的情况下检测对应于眼镜架的镜架镜圈的眼镜架的镜片边缘的位置。因此,同样已知眼镜架的位置,特别是镜架平面(DIN ENISO 13666:2012; 17.2)的位置。如在US 6,944,320 B2或US 7,149,330 B2所描述的,在多个图像中以及还有在另外的图像记录中可以确定相互对应的元件,在这种情况下是眼镜架。以此方式可以可靠地确定眼镜架的位置。
然后,利用眼镜架(特别是镜架平面)的位置可以如上所述确定视近点。
替代性地,也可以共同地在所记录的图像中和另外的图像记录中实施眼镜架位置的确定。为了确定眼镜架(特别是镜架镜圈和因此眼镜镜片),该图像的和另外的图像记录的共同处理进一步提高了该方法的可靠性。
在使用相机单元的这种程序的情况下,例如可以通过借助于另外的相机的物体跟踪或通过与相机装置的机械连接来确定空间中视近点的位置,所述机械连接设有传感器。这样的物体跟踪在以下文件中进行了描述,例如T.Dedek,“Entwurf und Implementierungeiner Objektverfolgung unter Verwendung einer Smart-Camera mit PTZ-Funktionalität [使用具有PTZ功能的智能相机设计和实现物体跟踪]”,2009年学士学位论文,https://www.ipi.uni-hannover.de/fileadmin/institut/pdf/Abschlussarbeiten/Bachelorarbeit_Dedek_2009.pdf。
在这种情况下,可以通过基于图像确定三维中瞳孔的位置、然后根据视近目标的位置和瞳孔的位置之差来确定观看方向。在这种情况下,瞳孔的位置可以通过上述申请中确定的方法来确定。
上述眼睛转动中心(COR)可以借助已知的经验数据(参见例如Bennett, A.,Rabbetts, R.:Clinical Visual Optics [临床视觉光学],第三版,牛津(1998),第143/144页)或者考虑瞳孔后面屈光依赖的位置来确定,并且从而可以指明其相对于眼镜架位置的位置并且由此指明镜架镜圈。以这种方式可以通过常规方法进行确定。
在另一个实施例中,通过并入视近目标中的相机来实施图像的记录,并且视近目标的取向以及因此相机的取向通过视近目标中的倾斜度传感器来确定。然后在所记录的图像中确定眼睛的瞳孔位置。在从相机的规格得出的相机的图像角度和分辨率的情况下,如根据第一方面所指示的,可以为瞳孔指明相对于相机的对称轴的方向(通常对应于相机的光轴)。所述对称轴的方向从视近目标的所确定的倾斜度中得出。因此,在本实施例中,可以直接确定两只眼睛的观看方向,并且如上所说明的,基于朝向视近目标的观看方向,确定每只眼睛的视近点。
如果人直接观看相机,那么在此可以指明瞳孔的方向。在其他的示例性实施例中,视近目标可以包括显示区域。在这种情况下,显示区域应理解为指可以显示信息的区域,例如,屏幕。在这种情况下,信息可以是图像、图、文本或验光字体(例如,兰道环)。在平板计算机和智能手机的情况下,显示区域例如是所谓的平板或智能手机的显示屏。
显示区域可以被布置为与相机相距一定距离。在人观看显示区域的情况下,观看方向的确定此外以视近目标的相机与显示区域或在其上显示信息的显示区域部分之间的距离为基础。因此,可以进一步提高该方法的准确性;因此,可以考虑到以下事实,即观看与相机相距一定距离的显示区域导致实际观看方向不同于如上所述仅基于相机的图像角度和分辨率确定的观看方向。
这里,在这样的校正的情况下,考虑了人正在观看显示区域而不是直接观看相机的事实,在确定观看方向时可以考虑视近目标与人之间的距离。于是,这些校正是基于简单的几何考虑。在其他的实施例中,人可以观看相机,即相机本身用作视近目标。
视近目标的相机可以从内在进行校准,以便校正图像场畸变。从内在上校准是指测量并且然后校正该图像场畸变。这提高该视近目标的确定的准确度。如果即使不进行这样的校准,该确定的准确度也是足够的(例如,因为该畸变小于10%),那么也可以省略对视近目标的固有校准。
优选地,在这种情况下,平板电脑或智能手机被用作视近目标。带有前置相机的这种装置具有适合的相机并且具有内置的倾斜度传感器和用于显示例如有待阅读的文本或有待观察的图像的显示器,其结果是,根据本发明的方法在此可以通过简单的程序来实现。然后可以直接在该平板或智能手机上评估所记录的图像和所测量的倾斜度,或者借助相交点(如其同样通常存在的)可以以有线或无线的方式发送给计算单元,以用于进一步评估。
该方法另外可以包括所确定的观看方向和/或所确定的视近点的校正,从而使得操作员(比如配镜师)可以执行这些变量(即观看方向和/或视近点)的校正,例如,如果他/她认为在记录图像期间要检查的人没有采取正确的头部姿势。以此方式,由这种不正确的头部姿势造成的不准确仍然可以得到校正。
在上述一些方法中,如所描述的,在所记录的图像中识别眼镜架,并且由此确定的眼镜架的位置用于确定视近点。为此目的,在记录图像期间,人戴着眼镜架。
在其他的实施例中,使用人的头部的虚拟模型、特别是3D模型。眼镜架的模型可以适于该3D模型。
在一些示例性实施例中,3D模型可以基于同一相机单元的记录来确定,该相机单元如上文和下文所说明的用于本发明的各个方面的示例性实施例。这可以具有如此确定的3D模型可以更容易地与相机单元的记录进行比较的优点。
基于这些模型(头部的模型和眼镜架的适合模型)并且基于如上所述确定的观看方向,然后可以进而确定视近点,原因在于可以从戴着眼镜架的适合模型的头部的3D模型中推断出眼镜镜片平面的位置和眼睛转动中心。也可以从不戴着眼镜架的3D模型的头部3D模型推断出眼睛转动中心。
在一些示例性实施例中,眼睛转动中心可以作为元数据被存储。
元数据应理解为指包含关于模型的特征而不是模型本身的信息。特别地,元数据可以提供关于模型的附加信息和/或包含基于相应模型的显著点或曲线,例如眼睛转动中心,其可以基于模型计算,但不是模型的一部分。例如,在模型中可以识别角膜并且基于角膜的空间布置确定眼睛转动中心。截至2018年6月7日,德语“Metadaten”维基百科文章也对元数据进行了一般性解释。
使用模型的优点在于,可以快速在不同的眼镜架之间进行更换,而不必再次实施图像记录。在此假设,在观看视近目标时的观看方向独立于所配戴的眼镜架。
模型(特别是3D模型)应理解为是指在存储介质(例如,计算机的存储器或数据载体)中作为数据集存在的真实物体的表示,在3D模型的情况下,是三维表示。例如,这种三维表示可以是3D网,其由3D点(由被称为顶点)集和这些点之间的连接(这些连接又被称为边缘)组成。在最简单的情况下,这种连接形成三角形的网。这种3D网表示只描述物体的表面,而不描述体积。该网不一定必须闭合。因此,例如如果以网格的形式描述头部,则它看起来就像是面具。关于这种3D模型的详细信息可以在以下文章中找到:Rau J-Y,Yeh P-C,“ASemi-Automatic Image-Based Close Range 3D Modeling Pipeline Using a Multi-Camera Configuration [使用多相机配置的半自动基于图像的近距离3D建模管线]”,传感器(Sensors)(瑞士巴塞尔),2012;12(8):11271-11293. doi:10.3390/s120811271(特别是第11289页,附图“图16”)。
表示体积型表示的体素网格是用于表示3D模型的另外的选项。在此,空间被分成小立方体或长方体,这些被称为体素。在最简单的情况下,要表示的物体的存在或不存在以每个体素的二进制值(1或0)的形式被存储。在体素的边缘长度为1 mm且体积为300 mm ×300 mm × 300 mm的情况下,其表示头部的典型体积,因此获得了总共2700万个这种体素。在例如以下文章中描述了这种体素网格:M.Nießner,M.Zollhöfer,S.Izadi和M.Stamminger,“Real-time 3D reconstruction at scale using voxel hashing [使用体素哈希的大规模实时3D重建]”,ACM Trans,图32、6,第169条(2013年11月),DOI:https://doi.org/10.1145/2508363.2508374。
眼镜镜片平面表示接近相应的(通常是弯曲的)眼镜镜片的位置的平面。特别地,它可以是与相应的眼镜镜片的镜架边缘具有最小偏差(例如,根据最小二乘法的标准)的平面。镜架边缘可以如EP 17153651.9中所述进行识别。替代性地,可以使用根据DIN EN ISO13666:2012; 17.1的镜片形状平面作为眼镜镜片平面。然而,如DIN EN ISO 13666:2012标准所述,确定这个镜片形状平面的前提是了解虚拟镜片的形状,而在上述定义的情况下,仅需要镜架边缘的位置。
在此,可以如在US 2003/0123026 A1、US 2002/105530 A1、US 2016/0327811 A1或欧洲专利申请号17173929.5中所述的实施眼镜架的模型与头部模型的适配。
一个实施例包括确定在观看视近目标时的头部姿势相对于观看远处时的头部姿势的变化。这可以通过如上所述的一个或多个图像来实施,其中在这种情况下,在记录一个或多个图像期间人不必戴着眼镜。然后,可以根据头部姿势的变化使头部的3D模型倾斜或者其在多个相机的情况下可以基于图像来创建。通过识别记录图像中相互对应的特征,然后可以在考虑已知记录位置的情况下创建模型(参见,例如H.Hirschmüller,“StereoProcessing by Semiglobal Matching and Mutual Information [半整体匹配与互信息立体处理]”,电气电子工程师学会会刊模式分析和机器智能学报(IEEE Transactions onPattern Analysis and Machine Intelligence),第30卷,第2期,第328至第341页,2008年2月,doi:10.1109/TPAMI.2007.1166)。通过如上所述确定的在观看视近目标时的观看方向,在对眼镜架模型进行虚拟适配之后,即可已知视远点和视近点的位置,因为例如,由此根据镜架边缘从模型中得知眼睛转动中心和眼镜镜片平面的相对位置。
另一个实施例包括借助于图像记录确定针对视远方向和视近方向在空间中瞳孔的位置。于是头部的模型可以与另外的视点的位置一起被带至与在观看视近目标时人的头部姿势对应的位置。由于这些点相对于瞳孔的相对位置在移动期间几乎没有变化,所以鼻尖或耳朵上的点可以用作另外的视点。否则,如上所述确定视近点。
替代性地,在观看视近目标时头部姿势的变化也只能基于在观看远处和观看视近目标时所记录的头部的侧面图像来实现。通过识别侧面图像中的对应特征(例如,如上述Hirschmüller等人的参考文献所述),于是可以确定头部倾斜度的变化并且将其应用到3D模型中。
头部的侧面图像是可以从侧面(基本上沿头部的太阳穴区域)看到的头部的图像。换言之,在侧面图像的情况下,图像记录基本上沿头部的耳朵之间的连接线来实现。在侧面图像中仅可看到人的一只眼睛。
相比之下,正面图像是其中图像记录基本上垂直于由眼睛和嘴限定的平面来实现的图像。通常,两只眼睛、鼻子和嘴在此被成像。
因此,存在用于基于头部和眼镜架的模型确定视近点的位置的各种可能性。
(真实)眼镜架在图像记录中的使用也可以与头部和眼镜架的模型的使用相结合。在这种情况下,首先如所描述的针对真实眼镜架来确定视近点。这种确定的结果,比如头部姿势和观看方向,然后可以应用于模型的使用。因此,视近点的结果可以通过其模型应用于其他眼镜架,而无须再次记录图像。
视近目标的位置和/或取向也可以(例如使用米尺)手动地确定并且随后手动地输入。还可以估计瞳孔的位置。
根据另外的实施例,提供一种计算机程序,该计算机程序具有程序代码,当在计算机单元上被执行时,该程序代码可以引起提供上述方法之一。
根据另外的方面,提供一种用于确定视近点的装置,该装置包括:
- 可移动视近目标,
- 图像记录单元,该图像记录单元用于在人观看视近目标时确定人的头部的图像,
- 位置检测单元,该位置检测单元用于确定视近目标的位置和/或取向,以及
- 计算机单元,该计算机单元用于基于该图像以及基于该视近目标的位置和/或向确定视近点。
如以上所描述的相应方法,这个装置能够自由地定位视近目标,并因此能够在确定视近点时采用自然头部姿势,并且能够在不用测量支架的情况下确定视近点。
该装置可以被配置为执行上述方法之一。特别地,为此目的,如上所述的图像记录单元包括两个或更多个相机,借助这些相机能够同时记录正面图像和一个或多个侧面图像。而且,如上所述,视近目标可以包括相机单元和/或作为位置检测单元的位置传感器。同样如上所述的位置检测单元可以包括机械传感器或一个或多个相机。上述计算机程序可以被存储在该装置中,以便通过该计算机单元被执行。
附图说明
下文将参照图中的附图来更详细地说明本发明的示例性实施例。在附图中:
图1示出了根据现有技术用于确定视远点的装置,基于该装置可以实现本发明,
图2示出了图1的装置的平面视图,
图3A和图3B示出了用于确定视远点的说明图,
图4示出了根据本发明的一个示例性实施例的、用于确定视近点的图1的装置的扩展,
图5A和图5B示出了根据本发明的示例性实施例的用于说明视近点的确定的图,
图6示出了根据一个示例性实施例的视近目标的示意图,以及
图7示出了根据一个示例性实施例的方法的流程图。
具体实施方式
图1示出了如在已经引用的欧洲专利申请17 153 559.4和17 153 556.0中更详细地描述的装置的侧视图。本发明可以在该装置的基础上作为扩展来实现。图2示出了图1的装置的平面视图。该装置包括装配在立柱12上的相机单元13。相机单元13包括多个相机,尤其是用于记录要检查的人10的头部11的正面图像的正面相机、以及还有用于记录头部11的侧面图像的侧面相机。在图1和图2中,人10具有用于确定视远点的头部姿势,即人基本上是水平向前直视在该装置中所提供的目标。计算机单元14与用于评估所记录的图像的装置相连接,特别是以便确定视远点。
如在上述欧洲专利申请中更详细地说明的,在确定视远点的过程中,确定人10在头部11上戴着的眼镜架的位置以及人的瞳孔的位置。在这种情况下,同样如所描述的,眼镜架或至少其镜架边缘的位置和瞳孔和/或角膜的位置可以通过在所展示的图像中标记眼镜架和瞳孔来手动地实现或通过图像处理算法来自动地实现。如果眼睛(例如,眼睛的角膜)由于其被眼镜镜腿遮掩住而不能在侧面图像中准确识别出,也可以此外插入不戴眼镜架的头部的图像,以便能够确定瞳孔和/或角膜的位置。在这种情况下,如前所述,对于在眼睛未被眼镜架遮掩住的情况,同样可以以自动方式执行角膜和/或瞳孔的位置的确定。
在这种情况下,可以基于人的头部的3D模型提供不戴眼镜架的头部的图像作为另外的侧面图像。可以基于相机单元13的多个相机的图像记录(即基于如引言中说明的多个图像记录)来创建头部的所述3D模型。所述3D模型在此可以被创建为不带眼镜架,即在人未戴眼镜架的情况下,用于创建3D模型的图像记录。
为此,使用图像合成(渲染)技术基于头部的3D模型产生另外的侧面图像,就好像观察者从记录侧面图像的(例如相机单元13的)相机所在的位置观看由其产生3D模型的头部一样。换言之,记录侧面图像时的记录方向与关于另外的侧面图像的观看方向相对应。图像合成在此通常被理解为是指从一个模型产生图形,参见德语维基百科文章“Bildsynthese”。
然后,使侧面图像和该另外的侧面图像全等,即在大小、位置和取向上彼此适配。为此目的,可以通过传统图像处理方法在侧面图像和另外的侧面图像中识别特定的点或图像区域,然后使其全等,即将所述点或区域带至相同的位置。适合的点包括鼻尖或下巴尖。适合的图像区域包括前额或下巴。下面更具体详细地描述了这方面的一种可能的变型:
从头部的3D模型的初始位置开始,头部的3D模型可以通过平移和旋转的变换而被带至头部的结束位置。头部的这种变换也被称为取向。
在这种情况下,初始位置可以通过3D模型的坐标原点和坐标方向(例如,头部固定轴垂直/水平横向/水平正向)的选择来预先限定。
变换应理解为是指测量保留的坐标变换,例如,以最多三个空间角度旋转并且沿最多三个坐标轴平移。
平移的参数T、即平移的幅度和方向(例如,用沿三个坐标轴的位移表示),旋转的参数R、即旋转的幅度(例如,用围绕这三个坐标轴的旋转角度表示)可以以自动方式或手动地确定。
为此目的,在自动确定和手动确定的情况下,可以在侧面图像、或者基于3D模型的另外的侧面图像的其他图像记录、或者基于3D模型产生的人的其他图像中识别特征区域(例如,特征点、轮廓或者区域),戴眼镜或者不戴眼镜都可识别,并且在理想情况下不受面部表情的影响。这些特征区域可以是例如:从侧面看到的耳根、鼻子、额头/鼻子/下巴的轮廓。然而,其他的特征区域也是可能的。在自动取向期间,所选择的特征可以交由算法。可以反复地实施取向。在第一步骤中可以通过质心确定,例如通过确定3D模型的坐标的至少一部分的质心或者如上所述创建戴着眼镜架的人的第二3D模型并且同样确定第二3D模型的质心来实施平移。然后,平移的参数T可以被确定为第一和第二3D模型的质心的向量差,或者可以将所述参数T用作用于例如手动地或通过另外的算法更准确地确定参数T的初始值。
对应地可以通过第二取向基于侧面图像和另外的侧面图像确定旋转的参数R。在这种情况下,可以再次确定特征区域的位置,并且因此可以推断头部的旋转及其侧向倾斜度。
在一些示例性实施中,特别是如果3D模型是用与侧面图像相同的相机单元13创建的,那么另外的侧面图像具有与该侧面图像相同的大小。如果合适,通过图像合成产生该另外的侧面图像的虚拟相机的距离和/或图像角度可以相应地与该3D模型适配。因此,在此不需要缩放。
在其他的示例性实施例中,例如通过缩放3D模型或由其产生的图像(像该另外的侧面图像一样),可以适配由该3D模型产生的图像(像该另外的侧面图像一样)的表示的大小。
所确定的变换也可以应用于3D模型的元数据,例如眼睛转动中心。对于3D模型中的眼睛转动中心Pi,以下对于所变换后的位置Pi'成立:
Pi' = (T + R)Pi。
基于眼睛转动中心的变换后的位置Pi',视近点于是可以被确定为附加到眼睛转动中心(即观看方向被视为向量)的观看方向向量与眼镜镜片平面之间的相交点。
特别地,即使人的眼睛在侧面图像中例如如上所述被鼻子和眼镜镜腿遮掩住,通过使用如上文所讨论的存在于该侧面图像和在该另外的侧面图像中的点和图像区域,使其全等也是可能的。因此,可以基于该另外的侧面图像确定人的角膜和/或瞳孔的位置,因为这个位置在3D模型中并且因此也在该另外的侧面图像中是已知的。可以以自动方式实施此确定。
然后,所确定的角膜和/或瞳孔的位置可以此外在该侧面图像中被表示,其结果是,配镜师可以确定和/或校正所确定的位置。同样,配镜师也可以不拒绝所确定的位置并重复测量。为此目的,可选地,可以将整个另外的侧面图像显示为叠加在该侧面图像上,或者可以仅将该另外的侧面图像的区域(例如表示角膜和/或瞳孔的区域)放置在该侧面图像上。特别地,对于这种表示,该侧面图像的至少一个部分被该另外的侧面图像的对应部分来代替,该对应部分包括瞳孔和/或角膜。在这种情况下,对应部分是示出了头部的相同部分的部分。
特别地,对于表示和/或进一步处理,例如通过前述用于确定瞳孔和/或角膜位置的自动方法,可以用该另外的侧面图像的像素替换该侧面图像的至少一部分像素。
而且,如上所说明的,估计眼睛转动中心的位置。在这些测量之后,因此已知眼睛转动中心相对于眼镜架的相对位置、以及还有眼镜镜片的形状。在这种情况下,眼镜架的位置决定眼镜镜片的位置,并且从而决定眼镜镜片所在的平面(又称为镜片平面)的位置。利用这些数据,然后可以用上述欧洲专利申请中描述的方式确定视远点。
然后,在所描述的示例性实施例中使用此信息来确定一个或两个视近点。而且,可以如欧洲专利申请中所述确定视远点。在图3A和图3B中对此进行了示意性图示。图3A在侧视图中示出了从眼睛30的眼睛转动旋转31开始的观看方向33的视远点34的位置,作为观看方向33与眼镜镜片32的相交点。图3B示出了两只眼睛的平面图,其中左眼的附图标记各自附有A,并且右眼的附图标记各自附有B,并且以其他方式与图3A的侧视图中的附图标记相对应。
在这种情况下,眼镜镜片32的位置从在图像记录中识别的眼镜架、特别是其镜架边缘中得出。
图4示出了根据本发明的用于确定视近点的图1的增大的装置的侧视图。在这里,除了图1的装置之外,还为人10提供了视近目标40,所述视近目标具有要阅读的文本并且也被称为阅读目标。在这种情况下,视近目标40可以被人10移动,以便使其移动到对应于舒适的阅读姿势的位置。附图标记41表示人10在阅读文本时的观看方向。在图4的示例性实施例中,视近目标40通过包括一个或多个传感器的可移动机械连接42与立柱12连接。通过这些传感器检测视近目标40的位置。在这种情况下,该至少一个传感器被配置为基于可移动机械连接42的位置向计算单元14提供信号。此外,通过相机单元13在图4所示的位置上执行头部11的图像记录。进而在所述图像记录中识别眼镜架。这可以在图1的记录或在这之后与眼镜架识别一起执行,在后一种情况下使用在图1中确定的眼镜架作为基础。举例来说,欧洲专利申请17 153 538.8中所述的眼镜架模型在此可以用作边界条件。
作为对图1中的常规装置的补充,计算单元14随后也被编程以确定双眼的视近点。在这种情况下,于在图1中的位置确定视远点期间所确定的眼睛转动中心相对于镜架的相对位置应用于眼镜架的随后确定的位置,并且所述眼睛转动中心的位置与视近目标40的位置之差被用作观看方向。从而确定观看方向41。从眼睛转动中心开始的观看方向41随后与眼镜镜片在视近点处相交,眼镜镜片的位置由眼镜架的位置限定。在图5A和图5B中对此进行了示意性图示。在这种情况下,图5A和图5B图示了与图3A和图3B相对应的视图,用于确定图5A中的视近点51和图5B中的视近点51A、51B。观看方向50(左眼和右眼的观看方向50A、50B)与眼镜镜片32A、32B在视近点51A、51B处相交,这些视近点如从图5A、图5B与图3A、图3B的比较中明显看出地不同于视远点。
如开篇已说明的,替代于视近目标40的位置确定和由相机单元13进行的图像记录,通过视近目标和视近目标的取向的确定可以实现图像记录。在图6中图示了对应的视近目标。
图6示出了具有内置相机62的视近目标60。相机62具有对应于相机62的光轴的对称轴63。另外,视近目标60具有倾斜度传感器61。在这种情况下,视近目标60是通常具有倾斜度传感器和内置相机的平板计算机或智能手机。在图6中的实施例的情况下,在人观看视近目标60时,通过相机62来确定人的头部的图像。于是从由倾斜度传感器61确定的视近目标60的取向、和由此从对称轴63的取向、相机62的特性(图像角度和分辨率)以及所记录的图像中可以如所述的确定人的观看方向,并且于是基于该观看方向可以如所述的确定视近点。
图7示出了根据一个示例性实施例的方法的流程图。为了更好地阐明,将参照图1至图6所示的装置来说明图7中的方法。
在步骤70中,要检查的人采用视远方向,例如在图1和图2中所示的用户水平向前直视的位置。在步骤71中,然后在图1和图2的情况下,通过相机单元13实现针对视远方向的图像记录。从这些图像记录中,在步骤72中,如所述的确定眼镜架的位置、瞳孔的位置和由此眼睛转动中心(COR)相对于眼镜架的相对位置。此外,在步骤72中,如在图3A和图3B所说明的确定视远点。
在步骤73中,然后人观看视近目标(如在图4中针对视近目标40所示)或观看图6的视近目标60。在步骤74中,然后可以实现针对视近方向的一个或多个图像记录,例如,通过图4的相机单元13的多个图像记录或通过图6的视近目标60的相机62的一个图像记录。步骤75包括确定视近目标的取向(例如通过位置传感器61)和/或位置(例如通过图4的连接42的传感器)。在步骤76中,从如此确定的数据中如所描述的确定视近方向。可选地,在步骤76中,可以此外由比如配镜师等用户校正视近方向。这种校正可以在不同的方向上实现,例如,如果在图像记录时人没有采用自然的头部姿势。然后,在步骤77中,如这在图5A和图5B所示,通过使从眼睛转动中心开始的视近方向与眼镜镜片相交来确定视近点。
在这种情况下,相机单元13具有从内在和从外在被校准的相机,即已知这些相机相对于彼此的位置及其方向和特性,并且例如可以以计算方式提取图像场畸变。
以下指明至少一些可能的示例性实施例:
第1条 一种用于确定视近点(51)的方法,包括:
在该人正在观看该视近目标(40;60)时记录该人的头部的图像,其中
其特征在于,
该视近目标(40;60)是可移动的;并且其中该方法进一步包括:
确定该视近目标(40;60)的位置和/或取向,以及
基于该图像以及基于该视近目标(40;60)的位置和/或取向确定该视近点(51)。
第2条 根据第1条所述的方法,进一步包括:
基于该图像确定该人在观看该视近目标时的观看方向,其中基于该观看方向确定该视近点。
第3条 根据第2条所述的方法,进一步包括确定眼镜架相对于该人的眼睛转动中心的相对位置,
其中通过确定从该眼睛转动中心开始的观看方向上的线与眼镜镜片平面(32)的由该眼镜架的位置所限定的位置的相交点来确定该视近点。
第4条 根据第3条所述的方法,其中基于另外的图像记录确定该眼镜架相对于该眼睛转动中心的相对位置。
第5条 根据第4条所述的方法,进一步包括基于这些另外的图像记录确定视远点。
第6条 根据第4或5条所述的方法,进一步包括基于这些另外的图像记录确定该眼镜架的位置。
第7条 根据第6条所述的方法,进一步包括确定在所记录的图像中该眼镜架的位置,其中基于在所记录的图像中该眼镜架的位置确定该视近点。
第8条 根据第7条所述的方法,其中基于确定在这些另外的图像记录中该眼镜架的位置或者在确定在这些另外的图像记录中该眼镜架的位置的同时确定在所记录的图像中该眼镜架的位置。
第9条 根据第5至8条中任一条所述的方法,其中通过图像记录单元(13;62)来记录该图像,其中通过与用于记录该图像相同的图像记录单元(13;62)来执行这些另外的图像记录。
第10条 根据第2至8条中任一条所述的方法,其中通过并入在该视近目标中的相机来记录该图像,其中基于该视近目标的取向和所记录的图像来确定在观看该视近目标时的观看方向。
第11条 根据第2至10条中任一条所述的方法,其中该方法包括校正所确定的观看方向和/或校正所确定的视近点。
第12条 根据第2至11条中任一条所述的方法,其中基于所确定的观看方向和该头部的模型来确定该视近点,眼镜架的模型适配于该头部的模型。
第13条 一种具有程序代码的计算机程序,当在处理器上被执行时,该程序代码使得实施根据第1至12条中任一条所述的方法。
第14条 一种用于确定视近点的装置,包括:
视近目标(40;60),以及
图像记录单元(13;62),该图像记录单元用于在该人正在观看该视近目标时记录该人的头部的图像,
其特征在于,其中该视近目标(40;60)是可移动的;并且其中该装置进一步包括:
用于确定该视近目标的位置和/或取向的位置检测单元(42;61)、以及基于该图像和该视近目标(40;60)的位置和/或取向确定该视近点的计算机单元(14)。
第15条 根据第14条所述的装置,其特征在于,该视近目标(60)包括该图像记录单元(62)和该位置检测单元(61)。
Claims (39)
1.一种用于确定视近点(51)的方法,包括:
记录人的头部的图像,其中在该人观看视近目标(40;60)并且戴着眼镜架或没有戴着眼镜架时,通过并入该视近目标(40;60)中的相机(62)记录该图像,
其中该图像示出了眼睛的瞳孔位置和/或角膜位置,
其中该视近目标(40;60)是可移动的;并且其中该方法进一步包括:
确定该视近目标(40;60)的取向,
基于该图像确定该人在观看该视近目标时的观看方向,其特征在于,
基于该图像、基于该观看方向和眼镜架的位置来确定该视近点(51),其中如果该人戴着该眼镜架,那么根据该图像确定该眼镜架的位置,以及如果该人没有戴着该眼镜架,那么基于模型虚拟地确定该眼镜架的位置,并且其中
基于这些眼睛的瞳孔位置和/或角膜位置相对于该相机(62)的对称轴(63)的位置和该相机(62)的图像角度和分辨率确定该观看方向,其中该对称轴(63)的方向由该视近目标(40;60)的取向决定。
2.如权利要求1所述的方法,其中该视近目标(40;60)包括显示区域,其中当该人观看该视近目标(40;60)的显示区域时执行该记录,并且其中此外基于该相机(62)与该显示区域之间的距离确定该观看方向。
3.一种用于确定视近点(51)的方法,包括:
记录人的头部的图像,其中在该人观看视近目标(40;60)并且戴着眼镜架或没有戴着眼镜架时,通过并入该视近目标(40;60)中的相机(62)记录该图像,
其中该图像示出了眼睛的瞳孔位置和/或角膜位置,
其中该视近目标(40;60)是可移动的;并且其中该方法进一步包括:
确定该视近目标(40;60)的取向,
基于该图像确定该人在观看该视近目标时的观看方向,其特征在于,
基于该图像、并且基于该观看方向以及基于眼镜架的位置确定该视近点(51),
其中,其中如果该人戴着该眼镜架,那么根据该图像确定该眼镜架的位置,以及如果该人没有戴着该眼镜架,那么基于模型虚拟地确定该眼镜架的位置,并且其中
确定该观看方向包括:识别该瞳孔位置和/或角膜位置在该图像中的位置,并且通过在从相机(62)观看时物体与该相机(62)的对称轴(63)之间的角度与该物体以像素出现的一个像素或多个像素之间的固定关系确定相对于该相机(62)的对称轴(63)的观看方向,该关系由该相机(62)的分辨率和图像角度给出。
4.如权利要求1至3中任一项所述的方法,其特征在于,该方法进一步包括:
记录该人的头部的第一侧面图像,
基于该头部的3D模型产生该人的头部的第二侧面图像,
其中基于该第一侧面图像和该第二侧面图像确定该瞳孔位置和/或角膜位置相对于该相机的对称轴的位置。
5.如权利要求1至3中任一项所述的方法,其特征在于,该方法进一步包括:
基于该瞳孔位置和/或角膜位置确定眼睛转动中心,其中此外基于该眼睛转动中心确定该观看方向。
6.如权利要求1至3中任一项所述的方法,其特征在于,该视近目标(40;60)包括显示区域,其中当该人观看该视近目标(40;60)的显示区域时执行该记录,并且其中此外基于该相机(62)与该显示区域之间的距离确定该观看方向。
7.如权利要求1至3中任一项所述的方法,进一步包括:
确定眼镜架相对于该人的眼睛转动中心的相对位置,
其中通过确定从该眼睛转动中心开始的观看方向上的线与眼镜镜片平面(32)的由该眼镜架的位置所限定的位置的相交点来确定该视近点。
8.一种用于确定视近点(51)的方法,包括:
在人戴着眼镜架并且观看视近目标(40;60)时记录该人的头部的正面图像和第一侧面图像,其中该视近目标(40;60)是可移动的,
确定该视近目标(40;60)的位置和取向,以及
基于该正面图像和该侧面图像确定该眼镜架的位置,
确定该人在观看该视近目标时的观看方向,并且基于该观看方向和该眼镜架的位置确定该眼镜架的视近点(51),
其特征在于,
确定该观看方向包括:
基于该头部的3D模型产生该头部的第二侧面图像,
基于该第一侧面图像和该第二侧面图像确定该人的眼睛的瞳孔和/或角膜的位置,
计算该观看方向作为该视近目标(40;60)的位置和该瞳孔或该角膜的位置与该第一侧面图像之间的差。
9.如权利要求8所述的方法,其中产生该第二侧面图像,仿佛观察者从相机记录该第一侧面图像的位置观看产生该3D模型的头部一样。
10.如权利要求8或9所述的方法,其特征在于,基于该第一侧面图像和该第二侧面图像确定该瞳孔和/或该角膜的位置包括使该第一侧面图像与该第二侧面图像全等。
11.如权利要求8或9所述的方法,其特征在于,基于该第一侧面图像和该第二侧面图像确定该瞳孔和/或该角膜的位置包括通过用该第二侧面图像的对应部分来代替该第一侧面图像的部分,该对应部分包括该瞳孔和/或角膜。
12.如权利要求8或9所述的方法,进一步包括:
确定眼镜架相对于该人的眼睛转动中心的相对位置,
其中通过确定从该眼睛转动中心开始的观看方向上的线与眼镜镜片平面(32)的由该眼镜架的位置所限定的位置的相交点来确定该视近点。
13.一种使用相机装置和视近目标(40)来确定视近点(51)的方法,该方法包括:
在人观看该视近目标(40)并戴着眼镜架或没有戴着眼镜架时记录该人的头部的图像,其中该视近目标(40)是可移动的,其特征在于,该视近目标(40)具有与包括至少一个传感器的立柱(12)的可移动机械连接(42);并且该方法进一步包括:
通过该至少一个传感器确定在空间中该视近目标(40)的位置和/或取向,以及
基于该图像、基于该视近目标(40)的位置和/或取向并且基于该眼镜架的位置来确定该视近点(51),其中如果该人戴着该眼镜架,那么根据该图像确定该眼镜架的位置,以及如果该人没有戴着该眼镜架,那么基于模型虚拟地确定该眼镜架的位置。
14.如权利要求13所述的方法,其中该传感器被配置为基于该可移动机械连接(42)的位置提供信号。
15.如权利要求13所述的方法,进一步包括:
基于该图像确定该人在观看该视近目标时的观看方向,其中基于该观看方向确定该视近点。
16.如权利要求14所述的方法,进一步包括:
基于该图像确定该人在观看该视近目标时的观看方向,其中基于该观看方向确定该视近点。
17.如权利要求15所述的方法,其中通过并入在该视近目标中的相机来记录该图像,其中基于该视近目标的取向和所记录的图像来确定在观看该视近目标时的观看方向。
18.如权利要求15所述的方法,进一步包括:
确定眼镜架相对于该人的眼睛转动中心的相对位置,
其中通过确定从该眼睛转动中心开始的观看方向上的线与眼镜镜片平面(32)的由该眼镜架的位置所限定的位置的相交点来确定该视近点。
19.如权利要求17所述的方法,进一步包括:
确定眼镜架相对于该人的眼睛转动中心的相对位置,
其中通过确定从该眼睛转动中心开始的观看方向上的线与眼镜镜片平面(32)的由该眼镜架的位置所限定的位置的相交点来确定该视近点。
20.如权利要求18所述的方法,其中基于另外的图像记录确定该眼镜架相对于该眼睛转动中心的相对位置。
21.如权利要求20所述的方法,进一步包括基于这些另外的图像记录确定视远点。
22.如权利要求20所述的方法,进一步包括基于这些另外的图像记录确定该眼镜架的位置。
23.如权利要求21所述的方法,进一步包括基于这些另外的图像记录确定该眼镜架的位置。
24.如权利要求22所述的方法,进一步包括确定在所记录的图像中该眼镜架的位置,其中基于在所记录的图像中该眼镜架的位置确定该视近点。
25.如权利要求24所述的方法,其中基于确定在这些另外的图像记录中该眼镜架的位置或者在确定在这些另外的图像记录中该眼镜架的位置的同时确定在所记录的图像中该眼镜架的位置。
26.如权利要求20至24中任一项所述的方法,其中通过图像记录单元来记录该图像,其中通过与记录该图像相同的图像记录单元来执行这些另外的图像记录。
27.如权利要求13至25中任一项所述的方法,其中该方法包括校正所确定的观看方向和/或校正所确定的视近点。
28.如权利要求15至25中任一项所述的方法,其中基于所确定的观看方向和该头部的模型来确定该视近点,眼镜架的模型适配于该头部的模型。
29.一种计算机可读的存储介质,在该存储介质上存储有包括程序代码的计算机程序,当该程序代码在处理器上被执行时,该程序代码使得实施如权利要求1至28中任一项所述的方法。
30.一种用于确定视近点(51)的装置,包括:
视近目标(40;60),该视近目标是可移动的并且包括图像记录单元和位置检测单元,
其中该图像记录单元被配置为在人观看视近目标并且戴着眼镜架或没有戴着眼镜架时记录该人的图像,
其中该位置检测单元被配置为确定该视近目标的取向,以及
计算单元(14),该计算单元被配置为基于该图像确定该人在观看该视近目标时的观看方向,
其特征在于,该计算单元进一步被配置为基于该图像、基于该观看方向并且基于眼镜架的位置确定该视近点(51),其中如果该人戴着该眼镜架,那么根据该图像确定该眼镜架的位置,以及如果该人没有戴着该眼镜架,那么基于模型虚拟地确定该眼镜架的位置,其中基于眼睛的瞳孔位置相对于该图像记录单元的对称轴的位置、以及该图像记录单元的图像角度和分辨率确定该观看方向,其中通过该视近目标(40;60)的取向确定该对称轴的方向。
31.如权利要求30所述的装置,其中该装置进一步被配置为:
记录该人的头部的第一侧面图像,
基于该头部的3D模型产生该人的头部的第二侧面图像,
其中基于该第一侧面图像和该第二侧面图像确定该瞳孔位置和/或角膜位置相对于该图像记录单元的对称轴的位置。
32.一种用于确定视近点(51)的装置,包括:
视近目标(40;60),该视近目标是可移动的并且包括图像记录单元和位置检测单元,
其中该图像记录单元被配置为在人观看视近目标并且戴着眼镜架或没有戴着眼镜架时记录该人的图像,
其中该位置检测单元被配置为确定该视近目标的取向,以及
计算单元(14),该计算单元被配置为基于该图像确定该人在观看该视近目标时的观看方向,
其特征在于,该计算单元进一步被配置为基于该图像、基于该观看方向并且基于眼镜架的位置确定该视近点(51),其中如果该人戴着该眼镜架,那么根据该图像确定该眼镜架的位置,以及如果该人没有戴着该眼镜架,那么基于模型虚拟地确定该眼镜架的位置,其中确定该观看方向包括:识别瞳孔位置和/或角膜位置在该图像中的位置,并且通过在从相机(62)观看时物体与该相机(62)的对称轴(63)之间的角度与该物体以像素出现的一个像素或多个像素之间的固定关系确定相对于该相机(62)的对称轴(63)的观看方向,该关系由该相机(62)的分辨率和图像角度给出。
33.如权利要求30至32中任一项所述的装置,其特征在于,该装置被配置为实施如权利要求1至28中任一项所述的方法。
34.一种用于确定视近点(51)的装置,包括:
视近目标(40;60),其中该视近目标(40;60)是可移动的,
图像记录单元,该图像记录单元用于在人观看该视近目标并且戴着眼镜架时记录该人的头部的正面图像和第一侧面图像,
位置检测单元,该位置检测单元用于确定视近目标的位置和取向,
计算单元(14),该计算单元被配置为:
基于该正面图像和该侧面图像确定该眼镜架的位置,以及
确定该人在观看该视近目标时的观看方向,并且基于该观看方向和该眼镜架的位置确定该眼镜架的视近点(51),
其特征在于,
用于确定该观看方向的该计算单元(14)被配置为:
基于该头部的3D模型产生该头部的第二侧面图像,
基于该第一侧面图像和该第二侧面图像确定该人的眼睛的瞳孔和/或角膜的位置,
计算该观看方向作为该视近目标(40;60)的位置和该瞳孔或该角膜的位置与该第一侧面图像之间的差。
35.如权利要求34所述的装置,其中,产生该第二侧面图像,仿佛观察者从相机记录该第一侧面图像的位置观看产生该3D模型的头部一样。
36.如权利要求34或35所述的装置,其特征在于,该装置被配置为实施如权利要求1至28中任一项所述的方法。
37.一种用于确定视近点(51)的装置,包括:
视近目标(40),其中该视近目标(40)是可移动的,
图像记录单元,该图像记录单元用于在人观看该视近目标并且戴着眼镜架或没有戴着眼镜架时记录该人的头部的图像,
用于确定该视近点的计算单元(14),
其特征在于,该视近目标(40)具有与立柱(12)的可移动机械连接(42),该立柱包括用于确定该视近目标的位置和/或取向并且将该位置和取向传送到该计算单元的至少一个传感器,
该计算单元(14)被配置为基于该图像、基于该视近目标(40)的位置和/或取向并且基于该眼镜架的位置来确定该视近点(51),其中如果该人戴着该眼镜架,那么根据该图像确定该眼镜架的位置,以及如果该人没有戴着该眼镜架,那么基于模型虚拟地确定该眼镜架的位置。
38.如权利要求37所述的装置,其中该传感器被配置为基于该可移动机械连接(42)的位置提供信号。
39.如权利要求37或38所述的装置,其特征在于,该装置被配置为实施如权利要求1至28中任一项所述的方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17174925.2 | 2017-06-08 | ||
EP17174925.2A EP3413122B1 (de) | 2017-06-08 | 2017-06-08 | Verfahren, vorrichtung und computerprogramm zum bestimmen eines nah-durchblickpunktes |
PCT/EP2018/065177 WO2018224655A1 (de) | 2017-06-08 | 2018-06-08 | Verfahren, vorrichtungen und computerprogramm zum bestimmen eines nah-durchblickpunktes |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110998417A CN110998417A (zh) | 2020-04-10 |
CN110998417B true CN110998417B (zh) | 2021-08-06 |
Family
ID=59030862
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880051535.8A Active CN110998417B (zh) | 2017-06-08 | 2018-06-08 | 确定视近点的方法、装置和计算机可读的存储介质 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10890784B2 (zh) |
EP (3) | EP3413122B1 (zh) |
KR (1) | KR102195268B1 (zh) |
CN (1) | CN110998417B (zh) |
WO (1) | WO2018224655A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3443883B1 (de) | 2017-08-14 | 2020-07-29 | Carl Zeiss Vision International GmbH | Vorrichtungen und verfahren zur durchführung augenbezogener messungen |
US10685457B2 (en) | 2018-11-15 | 2020-06-16 | Vision Service Plan | Systems and methods for visualizing eyewear on a user |
FR3097336B1 (fr) * | 2019-06-11 | 2023-10-20 | Acep France | Procédé de détermination de paramètres ophtalmiques par cartographie 3D |
EP4086693A1 (en) | 2021-05-07 | 2022-11-09 | Carl Zeiss Vision International GmbH | Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer |
EP4227731A1 (en) | 2022-02-14 | 2023-08-16 | Carl Zeiss Vision International GmbH | Method and mobile device for determining a visual point of a person |
Family Cites Families (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE60030019T2 (de) * | 1999-02-22 | 2006-12-21 | Nidek Co., Ltd., Gamagori | Vorrichtung zur Messung von Augenpunkten eines Subjektes im Bezug auf ein Brillengestell |
US6807290B2 (en) | 2000-03-09 | 2004-10-19 | Microsoft Corporation | Rapid computer modeling of faces for animation |
EP1299787A4 (en) | 2000-05-18 | 2005-02-02 | Visionix Ltd | BRASS ADJUSTMENT SYSTEM AND USEFUL ADAPTATION PROCEDURES |
US7016824B2 (en) | 2001-02-06 | 2006-03-21 | Geometrix, Inc. | Interactive try-on platform for eyeglasses |
JP4536329B2 (ja) * | 2002-03-04 | 2010-09-01 | 東海光学株式会社 | アイポイントの位置決定方法及びアイポイント測定システム |
DE10300188A1 (de) | 2003-01-08 | 2004-07-22 | Ollendorf, Hans-Joachim, Dipl.-Ing. | Vorrichtung zur Nah-Pupillendistanz- und Zentrierdatenbestimmung |
JP4514030B2 (ja) | 2004-06-02 | 2010-07-28 | Hoya株式会社 | 眼鏡装用パラメータ測定装置 |
DE102005003699B4 (de) * | 2005-01-26 | 2018-07-05 | Rodenstock Gmbh | Vorrichtung und Verfahren zum Bestimmen von optischen Parametern eines Benutzers; Computerprogrammprodukt |
FR2896682B1 (fr) | 2006-01-31 | 2008-05-02 | Acep France Sarl | Dispositif de mesure de l'angle, pour un patient porteur de lunettes, entre la vision de loin et la vision de pres. |
ATE514118T1 (de) * | 2007-01-25 | 2011-07-15 | Rodenstock Gmbh | Flexibler gleitsichtglasoptimierer |
DE102011009646B4 (de) * | 2011-01-27 | 2018-02-08 | Hans-Joachim Ollendorf | Videozentriersystem und Verfahren zur Bestimmung von Zentrierdaten für Brillengläser |
FR2974722B1 (fr) * | 2011-05-06 | 2014-10-10 | Essilor Int | Procede de determination de la distance de lecture |
FR2980591B1 (fr) | 2011-09-28 | 2014-05-16 | Essilor Int | Procede de mesures de parametres morpho-geometriques d'un individu porteur de lunettes |
KR101300671B1 (ko) | 2012-07-06 | 2013-08-27 | (주)뷰아이텍 | 안경 렌즈 제작을 위해 필요한 파라미터 측정 방법 및 이를 구현하기 위한 측정 장치 |
JP5279153B1 (ja) | 2012-10-19 | 2013-09-04 | 正一 中村 | 瞳孔位置測定方法及び両用レンズの作製方法 |
US9733490B2 (en) * | 2013-02-28 | 2017-08-15 | Hoya Corporation | Spectacle lens design system, supply system, design method and manufacturing method |
CN105637512B (zh) * | 2013-08-22 | 2018-04-20 | 贝斯普客公司 | 用于创造定制产品的方法和系统 |
FR3012952B1 (fr) * | 2013-11-08 | 2015-11-06 | Essilor Int | Methode de determination d'au moins un parametre de conception optique d'une lentille ophtalmique progressive |
FR3016050B1 (fr) | 2014-01-02 | 2017-12-08 | Essilor Int | Procede d’ajustage d’une monture de lunettes predeterminee pour son utilisation par un porteur donne |
US9971172B2 (en) | 2014-01-15 | 2018-05-15 | Carl Zeiss Vision International Gmbh | Method for determining the far visual point for a spectacle lens and system therefor |
DE102014200637A1 (de) * | 2014-01-15 | 2015-07-16 | Carl Zeiss Vision International Gmbh | Anpassparameter-Bestimmung für ein Brillenglas in eine Brillenfassung |
JP6515542B2 (ja) | 2014-02-27 | 2019-05-22 | 株式会社ニデック | 眼鏡装用画像解析装置、眼鏡装用画像解析方法、及び眼鏡装用画像解析プログラム |
FR3021205B1 (fr) | 2014-05-20 | 2021-12-24 | Essilor Int | Procede de determination d'au moins un parametre comportemental |
CN107250718B (zh) | 2015-03-10 | 2019-11-15 | 豪雅镜片泰国有限公司 | 眼镜佩戴参数测量装置、眼镜佩戴参数测量程序及位置指定方法 |
WO2017064060A1 (en) * | 2015-10-15 | 2017-04-20 | Essilor International (Compagnie Generale D'optique) | Method for determining an optical system of a progressive lens |
KR102580793B1 (ko) | 2015-10-15 | 2023-09-20 | 에씰로 앙터나시오날 | 근시 또는 정시 노안 착용자를 위한 안과용 누진 가법 렌즈 및 그러한 렌즈를 제공하는 방법 |
EP3455671A1 (en) * | 2016-05-10 | 2019-03-20 | Materialise N.V. | Method of designing and placing a lens within a spectacles frame |
EP3355214A1 (de) | 2017-01-27 | 2018-08-01 | Carl Zeiss Vision International GmbH | Verfahren, recheneinrichtung und computerprogramm zum bereitstellen eines fassungsrandmodells |
EP3355100A1 (de) | 2017-01-27 | 2018-08-01 | Carl Zeiss Vision International GmbH | Vorrichtung zur bestimmung von zentrierparametern für die brillenanpassung |
EP3355102A1 (de) | 2017-01-27 | 2018-08-01 | Carl Zeiss Vision International GmbH | Computerimplementiertes verfahren zur bestimmung von zentrierparametern |
EP3355104B2 (de) | 2017-01-27 | 2022-06-01 | Carl Zeiss Vision International GmbH | Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands |
EP3410178A1 (de) | 2017-06-01 | 2018-12-05 | Carl Zeiss Vision International GmbH | Verfahren, vorrichtung und computerprogramm zum virtuellen anpassen einer brillenfassung |
-
2017
- 2017-06-08 EP EP17174925.2A patent/EP3413122B1/de active Active
-
2018
- 2018-06-08 WO PCT/EP2018/065177 patent/WO2018224655A1/de active Search and Examination
- 2018-06-08 EP EP19219216.9A patent/EP3702832B1/de active Active
- 2018-06-08 EP EP18728655.4A patent/EP3635478B1/de active Active
- 2018-06-08 CN CN201880051535.8A patent/CN110998417B/zh active Active
- 2018-06-08 KR KR1020207000203A patent/KR102195268B1/ko active IP Right Grant
-
2019
- 2019-12-09 US US16/707,112 patent/US10890784B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP3702832A1 (de) | 2020-09-02 |
EP3413122A1 (de) | 2018-12-12 |
US20200110280A1 (en) | 2020-04-09 |
EP3635478A1 (de) | 2020-04-15 |
KR102195268B1 (ko) | 2020-12-28 |
CN110998417A (zh) | 2020-04-10 |
WO2018224655A1 (de) | 2018-12-13 |
EP3702832B1 (de) | 2021-06-02 |
US10890784B2 (en) | 2021-01-12 |
EP3413122B1 (de) | 2020-03-04 |
EP3635478B1 (de) | 2020-10-21 |
KR20200006621A (ko) | 2020-01-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110998417B (zh) | 确定视近点的方法、装置和计算机可读的存储介质 | |
CA3082642C (en) | Method, device and computer program for virtually adjusting the spectacle frame | |
KR102217887B1 (ko) | 안경테를 가상으로 조정하기 위한 방법, 장치 및 컴퓨터 프로그램 | |
CN111031893B (zh) | 用于确定与眼科装置相关联的至少一个参数的方法 | |
EP3339943A1 (en) | Method and system for obtaining optometric parameters for fitting eyeglasses | |
US9265414B2 (en) | Methods and systems for measuring interpupillary distance | |
US9323075B2 (en) | System for the measurement of the interpupillary distance using a device equipped with a screen and a camera | |
US10216010B2 (en) | Determining user data based on image data of a selected eyeglass frame | |
US11448903B2 (en) | Method for correcting centering parameters and/or an axial position and corresponding computer program and methods | |
US9110312B2 (en) | Measurement method and equipment for the customization and mounting of corrective ophthalmic lenses | |
CN107250719B (zh) | 眼镜佩戴参数测量系统、测量用程序及其测量方法、以及眼镜镜片的制造方法 | |
CN113692527B (zh) | 用于测量眼镜片的局部屈光力和/或屈光力分布的方法和装置 | |
CN114830015A (zh) | 用于确定配戴着眼睛配戴物的受试者的至少一个几何形态参数的值的方法 | |
US20220395176A1 (en) | System and method for digital optician measurements | |
EP4227731A1 (en) | Method and mobile device for determining a visual point of a person | |
CN113424098B (zh) | 构造眼镜所需参数的自动确立 | |
EP4086693A1 (en) | Method, processing device and system for determining at least one centration parameter for aligning spectacle lenses in a spectacle frame to eyes of a wearer | |
KR20240040730A (ko) | 가상 안경 피팅(fitting) 방법 | |
JP6533925B2 (ja) | レンズ装着情報の算出方法、同算出方法を実行するための電子システム及び同電子システムに使用するプログラム | |
JP2024503548A (ja) | ビデオストリームにおいて、眼鏡を装着している個人の顔を検出および追跡するための方法 | |
CN117882031A (zh) | 用于进行对象的数字测量的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |