CN109313707B - 光学测量和扫描系统及使用方法 - Google Patents

光学测量和扫描系统及使用方法 Download PDF

Info

Publication number
CN109313707B
CN109313707B CN201780033609.0A CN201780033609A CN109313707B CN 109313707 B CN109313707 B CN 109313707B CN 201780033609 A CN201780033609 A CN 201780033609A CN 109313707 B CN109313707 B CN 109313707B
Authority
CN
China
Prior art keywords
subject
model
eye
glasses
image acquisition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780033609.0A
Other languages
English (en)
Other versions
CN109313707A (zh
Inventor
J·凯利
B·塔姆
L·布莱特曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vidi Pty Ltd
Original Assignee
Vidi Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from AU2016902112A external-priority patent/AU2016902112A0/en
Application filed by Vidi Pty Ltd filed Critical Vidi Pty Ltd
Publication of CN109313707A publication Critical patent/CN109313707A/zh
Application granted granted Critical
Publication of CN109313707B publication Critical patent/CN109313707B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G02OPTICS
    • G02CSPECTACLES; SUNGLASSES OR GOGGLES INSOFAR AS THEY HAVE THE SAME FEATURES AS SPECTACLES; CONTACT LENSES
    • G02C13/00Assembling; Repairing; Cleaning
    • G02C13/003Measuring during assembly or fitting of spectacles
    • G02C13/005Measuring geometric parameters required to locate ophtalmic lenses in spectacles frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Abstract

本发明涉及一种用于为受试者适配眼镜和/或用于诊断和/或监测受试者的眼病和/或眼部疾病的光学测量系统及其使用方法。所述光学测量系统包括至少一个图像采集装置,所述图像采集装置用于采集所述受试者的面部的至少一部分的至少一幅图像。所述光学测量系统还包括:至少一个可移动支架,其用于将所述图像采集装置安装在所述受试者前方并使所述图像采集装置相对于所述受试者移动;以及至少一个处理器,其操作地连接到所述图像采集装置,用于生成所述受试者的面部的至少一部分的三维(3D)模型。所述至少一个处理器还被配置用于根据所生成的3D模型来确定所述受试者的一个或多个光学测量结果。

Description

光学测量和扫描系统及使用方法
技术领域
本发明涉及一种用于适配眼镜和眼内镜片和/或巩膜镜片的测量系统及其使用方法。本发明还涉及一种用于诊断和/或监测眼病和/或眼部疾病的扫描系统及其使用方法。
背景技术
对个体适配眼镜的过程不仅仅涉及选择眼镜架和合适的处方镜片。为了正确适配眼镜,必须量身定制眼镜以适应特定个体的独特身体特性(包括头部形状和尺寸)。
必须测量例如水平瞳孔距离、竖直瞳孔高度、鼻子宽度、镜腿长度和头部宽度,以使得当对处方镜片磨边以适配眼镜架时,左处方镜片和右处方镜片的光学中心至少与个体的瞳孔位置匹配。
有时由验光师或眼科医生使用手持式尺子或带有手绘墨点的手绘刻度尺来用手粗略地进行这种测量,以对所选眼镜架进行测量。
然而,通常使用复杂的机械装置(例如瞳孔计或数字对中装置)进行测量,以便塑造正确适配的眼镜架。然而,这些复杂的机械装置通常需要全面的培训,并且在一些情况下需要雇佣经过培训的专业人员,所有这些都需要相当高的费用。
可替代地,验光师或眼科医生可以将眼镜架测量装置放置在个体上以进行测量。
然而,如上所述的手动测量或使用这些装置进行测量的固有问题是在进行的测量中可能存在误差。具体地,手动粗略得出的测量结果、装置的使用、和/或将使用那些装置进行的测量与由个体选择的眼镜架相关联中的潜在误差。
上述做法和/或装置的另一个问题在于,它们通常不能确定更复杂的测量结果,例如每只眼睛的转动中心,其在镜片设计过程中变得越来越重要。
发明内容
本发明的实施例提供了光学测量系统和使用方法,所述光学测量系统和使用方法可以最小化或克服上述问题或困难中的至少一个,或者可以为公众提供有用或商业性的选择。
根据本发明的第一方面,提供了一种用于为受试者适配眼镜的光学测量系统,所述光学测量系统包括:
至少一个图像采集装置,用于采集戴着所述眼镜的受试者的面部的至少一部分的至少一幅图像;
至少一个可移动支架,用于将所述图像采集装置安装在所述受试者前方并使所述图像采集装置相对于所述受试者移动;以及
至少一个处理器,所述处理器操作地连接到所述图像采集装置,所述处理器被配置用于:生成戴着所述眼镜的受试者的面部的所述至少一部分的三维(3D)模型,并且基于所生成的3D模型确定一个或多个光学测量结果,所述一个或多个光学测量结果包括所述受试者的每只眼睛的视轴、机械转动中心(MCOR)和光学转动中心(OCR)中的至少一个。
根据本发明的第二方面,提供了一种用于为受试者适配眼镜的光学测量系统,所述光学测量系统包括:
至少一个图像采集装置,用于采集所述眼镜的至少一部分的至少一幅图像以及戴着所述眼镜的受试者的面部的至少一部分的至少一幅图像;
至少一个可移动支架,用于将所述图像采集装置安装在所述受试者前方并使所述图像采集装置相对于所述受试者移动;以及
至少一个处理器,所述处理器操作地连接到所述至少一个图像采集装置,所述处理器被配置用于:生成所述眼镜的所述至少一部分的3D模型和戴着所述眼镜的受试者的面部的所述至少一部分的3D模型;匹配所生成的3D模型;并且基于经过匹配的所述3D模型确定一个或多个光学测量结果,所述一个或多个光学测量结果包括所述受试者的每只眼睛的视轴、MCOR和OCR中的至少一个。
根据本发明的第三方面,提供了一种用于为受试者适配眼镜的光学测量系统,所述光学测量系统包括:
至少一个机器可识别标签,所述机器可识别标签与所述眼镜相联;
至少一个图像采集装置,用于采集所述眼镜的至少一部分的至少一幅图像以及戴着所述眼镜的受试者的面部的至少一部分的至少一幅图像;
至少一个可移动支架,用于将所述图像采集装置安装在所述受试者前方并使所述图像采集装置相对于所述受试者移动;以及
至少一个处理器,所述处理器操作地连接到所述图像采集装置,所述处理器被配置用于:生成所述眼镜的所述至少一部分的3D模型和戴着所述眼镜的受试者的面部的所述至少一部分的3D模型;基于所述至少一个机器可识别标签来匹配所生成的3D模型;并且基于经过匹配的所述3D模型确定一个或多个光学测量结果,所述一个或多个光学测量结果包括所述受试者的每只眼睛的视轴、MCOR和OCR中的至少一个。
根据本发明的第四方面,提供了一种用于诊断和/或监测受试者的眼病和/或眼部疾病的光学扫描系统,所述光学扫描系统包括:
至少一个图像采集装置,用于采集所述受试者的至少眼睛区域的至少一幅图像;
至少一个可移动支架,用于将所述图像采集装置安装在所述受试者前方并使所述图像采集装置相对于所述受试者移动;以及
至少一个处理器,所述处理器操作地连接到所述图像采集装置,所述处理器被配置用于生成所述受试者的至少眼睛区域的三维(3D)模型,以便基于所生成的3D模型进行所述受试者的眼病和/或眼部疾病的所述诊断和/或所述监测。
有利地,本发明的测量系统提供用于确定测量结果并将这些测量结果与受试者选择的眼镜架相关联的精确方式。此外,通过生成所选眼镜架和/或戴着眼镜架的受试者的3D模型并且不使用某种复杂和/或笨重的适配机构,所确定的测量结果中存在误差的可能性显著降低,从而使眼镜和眼镜镜片更好的适配和功能配对。此外,通过生成所选眼镜架和/或戴着眼镜架的受试者的3D模型,本发明的光学测量系统能够容易地确定更复杂的测量结果,例如视轴、镜片倾斜度、后顶点距离、镜架表面弧度、头部角和OCR。这些测量结果超出了如今使用的绝大多数测量装置的能力,或者极其难以确定。
如本文所使用的,术语“眼镜(spectacle)”可以包括需要对处方镜片磨边和适配的任何眼镜(eyewear),例如眼镜(spectacle,eyewear,glasses,eyeglasses)、太阳镜、安全眼镜等。
通常,眼镜包括一副镜片和用于支承镜片的镜架。
镜架可以包括用于将镜片保持在受试者的眼睛前方的镜架前部。镜架前部可以包括用于保持镜片的左镜架镜框和右镜架镜框,或者可以不包括镜架镜框(如果是无框眼镜的话)。
左镜架镜框和右镜架镜框可以包括用于至少部分地接纳和保持镜片边缘的镜片凹槽或v形凹槽。
镜架前部可以进一步包括在镜架镜框(如果存在的话)之间或在镜片(如果是无框眼镜的话)之间延伸的中梁。
镜架可以包括镜腿,镜腿从镜架前部的两端延伸,以在使用时在受试者的耳朵上方和/或后方延伸,从而保持镜架处于适当位置并且因此保持镜片处于适当位置。
在对处方镜片磨边和适配之前,眼镜可以设置有由透明塑料或玻璃构成的镜片插入物。
本文所使用的术语“眼睛”是指人的眼睛。
眼睛不是完美的球体,而是融合的两件式单元。眼睛包括被称为“角膜”的较小的前部单元,角膜连接至被称为“巩膜”的较大的白色单元。角膜是透明的,并且弯曲程度比巩膜更大。
眼睛进一步包括位于巩膜内的被称为“虹膜”的有色圆形结构。虹膜同心地环绕着看起来是黑色的眼睛瞳孔。控制入射到眼睛中的光量的瞳孔大小由虹膜的扩张肌和括约肌来调节。
光穿过角膜进入眼睛,然后是瞳孔,然后穿过由睫状肌控制的晶状体。然后,光落在位于被称为“视网膜”的眼睛后部处的光敏细胞上。视网膜的光敏细胞将光转换成电信号,电信号通过视神经传递到大脑。
视网膜包括负责提供非常高的视敏度的小区域。这个小区域被称为“中央凹”。
本文所使用的术语“瞳孔轴”是指延伸穿过瞳孔中心、晶状体和视网膜的假想线。
本文所使用的术语“浦肯野像(Purkinje image)”是指物体从眼睛结构的反射。它们也被称为浦肯野反射和浦肯野-桑松(Purkinje-Sanson)像。一般而言,通常可以看到至少四个浦肯野像。“第一浦肯野像”(P1),也称为“角膜反射”或“光线反射”,是来自角膜外表面的反射。“第二浦肯野像”(P2)是来自角膜内表面的反射。“第三浦肯野像”(P3)是来自晶状体外(前)表面的反射。“第四浦肯野像”(P4)是来自晶状体内(后)表面的反射。
本文所使用的术语“视轴”是指从看到的物体通过瞳孔中心延伸到眼睛的中央凹的假象线。通常,视轴被理解为穿过眼睛的第一浦肯野像。视轴也称为“视线”。
本文所使用的术语“眼睛的机械转动中心”(MCOR)是指当眼睛在其眼眶内运动时眼睛内展现出最少运动的中心点。
本文所使用的术语“光学转动中心”(OCR)是指眼睛内由MCOR推导出并且沿着视轴定位的中心点。
一般而言,受试者的面部的至少一部分可以包括受试者面部的在确定受试者的一个或多个光学测量结果、优选地还有受试者的单眼瞳孔距离、瞳孔高度、后顶点距离、以及镜片倾斜度中的至少一个时所需的任何部分。例如,面部的至少一部分可以包括受试者面部的上部部分和/或中间部分,通常包括至少前额的下部部分、眼睛、太阳穴、鼻梁、鼻子的至少上部部分、上脸颊、和/或耳朵的至少一部分。在优选实施例中,受试者面部的至少一部分可以包括受试者面部从下巴到发际线的全高度。
类似地,眼镜的至少一部分可以包括可以辅助适配眼镜和/或辅助确定受试者的单眼瞳孔距离、瞳孔高度、后顶点距离、以及镜片倾斜度中的至少一个的任何部分。通常,眼镜的至少一部分可以包括镜架前部和/或镜腿的邻近镜架前部的至少一部分,优选地为镜架前部。
取决于眼镜的类型,在采集眼镜的至少一部分的至少一幅图像之前,可以从眼镜移除镜片插入物也可以不从眼镜移除镜片插入物。例如,对于无框和部分有框眼镜,可以不移除镜片插入物,直到在采集眼镜的至少一部分的至少一幅图像之后并且在采集戴着眼镜的受试者面部的至少一部分的至少一幅图像之前为止。
在其他实施例中,眼镜的至少一部分的图像采集可以包括左镜架镜框和右镜架镜框的成像,最优选地还包括镜片凹槽或v形凹槽(如果存在的话)的成像。
图像采集装置可以包括能够采集物体的至少一幅图像的任何合适的装置,通常用于根据所述至少一幅图像生成物体的3D模型。
至少一个图像采集装置可以具有任何合适的尺寸、形状和形式。通常,取决于图像采集装置的类型,至少一个图像采集装置能够采集多幅图像和/或视频。
例如,在一些实施例中,至少一个图像采集装置可以包括相机,优选地是数码相机,更优选地是DSLR型相机。
例如,在其他实施例中,本发明的至少一个图像采集装置可以包括飞行时间(time-of-flight)激光3D扫描仪、基于三角测距的3D扫描仪、结构光3D扫描仪或调制光3D扫描仪。在一些实施例中,至少一个图像采集装置可以包括用于对受试者的面部或眼睛区域的至少一部分进行近红外(IR)光谱分析的近IR干涉仪。例如,在另外的实施例中,至少一个图像采集装置可以包括立体系统,所述立体系统包括至少两个、三个、四个、五个、六个、七个或八个间隔开的相机或者包括具有至少两个、三个、四个、五个、六个、七个或八个间隔开的镜头的至少一个相机。
在至少一个图像采集装置包括立体系统的实施例中,所述系统可以包括间隔开的至少两个相机、优选地至少四个或至少六个相机。优选地,每个相机可以是数码相机,更优选地是DSLR型相机。
在一些实施例中,所述至少一个图像采集装置可以包括至少一个传感器。取决于图像采集装置的类型,传感器可以是至少一个探测器,例如电荷耦合装置或正电子敏感装置,或者可以是至少一个相机。
所述至少一个图像采集装置还可以包括至少一个发射器,所述发射器用于发射可见光、近红外线(IR)、IR线或X射线形式的辐射或用于发射超声波形式的声波。
在使用时,所述至少一个发射器可以发射辐射或声波,辐射或声波可以从眼镜的至少一部分和/或戴着眼镜的受试者的面部的至少一部分反射,并且由至少一个传感器感测到,以便采集眼镜的至少一部分或戴着眼镜的面部的至少一部分的图像,以生成眼镜的至少一部分或面部的至少一部分的3D模型。
例如,如果用于在一段时间内视线跟踪或跟踪注视点(即,与眼睛相关联的视线或眼睛正在看的东西),则所发射的辐射可以从眼睛的各个边界反射并由至少一个图像采集装置进行采集。被跟踪的一种类型的反射是“光线反射”或“第一浦肯野像”。通常,当视线跟踪或跟踪注视点时,图像采集装置采集至少两个浦肯野像,例如第一浦肯野像和第四浦肯野像(P1和P4)。
在一些实施例中,至少一个图像采集装置可以包括采用发光二极管(LED)形式的至少一个发射器,用于至少部分地照射受试者和/或眼镜的一部分。优选地,至少一个LED可以是RGB LED。更优选地,至少一个图像采集装置可以包括多个RGB LED,所述多个RGB LED被排列成阵列并且被配置用于至少部分地照射受试者的面部的至少一部分、优选地照射受试者的眼睛、更优选地照射受试者的每只眼睛的角膜。
在其他实施例中,至少一个图像采集装置可以包括采用红外(IR)发射二极管或近红外发射二极管形式的至少一个发射器,以用于至少从眼睛的各个边界进行反射。有利地,IR光或近IR光可以照射眼睛而不会干扰观察者,并且被眼睛的角膜或其他部分(例如,瞳孔)很好地反射,并且因此更容易被所述至少一个图像采集装置采集。
至少一个图像采集装置可以优选地包括用于容纳至少一个传感器和至少一个发射器(如果存在的话)的本体。所述本体可以具有任何合适的尺寸、形状和构造,以便被安装到所述至少一个可移动支架上,并且优选地可拆卸地安装到所述至少一个可移动支架上。在一些实施例中,本体可以包括用于操纵至少一个图像采集装置的至少一个手柄。
通常,本体可以具有基本上三角形、矩形、正方形、圆形、半圆形或双叶形的横截面形状。本体可以优选地具有面向受试者的表面、相反的面向外的表面、相对的侧边缘、上边缘和相反的下边缘。
至少一个传感器和至少一个发射器(如果存在的话)可以各自至少部分地位于图像采集装置的面向受试者的表面中或位于图像采集装置的面向受试者的表面上。在所述至少一个图像采集装置包括具有至少两个相机的立体系统的实施例中,每个相机可以位于本体的侧边缘处或侧边缘附近,或者位于上边缘或相反的下边缘处或附近。
在一些实施例中,系统可以包括多于一个图像采集装置。例如,所述系统可以包括至少两个、至少三个、至少四个、至少五个、至少六个、至少七个或至少八个图像采集装置。
在一个这样的优选实施例中,所述系统可以包括第一图像采集装置和第二图像采集装置,所述第一图像采集装置安装到至少一个可移动支架以便采集戴着眼镜的受试者的面部的至少一部分的至少一幅图像,并且所述第二图像采集装置用于采集眼镜的至少一部分的至少一幅图像。
第二图像采集装置可以具有如上所述的任何合适的尺寸、形状和形式。例如,第二图像采集装置可以优选地是手持式3D扫描仪。
如上所述,在一些实施例中,所述系统包括与眼镜相联的至少一个机器可识别标签。
所述至少一个机器可识别标签可以具有任何合适的尺寸、形状和形式,使得当匹配眼镜的至少一部分和戴着眼镜的受试者的面部的至少一部分的3D模型时,所述机器可识别标签能够被至少一个处理器识别。所述至少一个机器可识别标签可以以任何合适的方式与眼镜相联。
例如,在一些实施例中,至少一个机器可识别标签可以包括附着到眼镜的至少一部分、优选地附着到眼镜的镜架前部的标记,例如字符或符号。标签可以缠绕或粘附或附着到眼镜的至少一部分上,优选地为粘附到眼镜的至少一部分上。
在优选实施例中,至少一个机器可识别标签可以采用粘性标签的形式,所述粘性标签具有粘性表面以及在具有标记的相反的外表面。
在一些实施例中,至少一个机器可识别标签可以包括条形码或射频识别(RFID)标签,所述条形码或射频识别标签被配置成当生成和/或匹配眼镜的至少一部分的3D模型和戴着眼镜的受试者的面部的至少一部分的3D模型时进一步由操作地与至少一个图像采集装置和/或至少一个处理器相联的读取器读取。例如,条形码或RFID标签可以编程有受试者的详细信息(即,姓名、出生日期、联系方式、处方历史等)。
在一些实施例中,所述系统可以包括多于一个机器可识别标签。例如,可以将至少两个、至少三个、至少四个、至少五个或更多个机器可识别标签与眼镜相联。每个机器可识别标签可以具有相同的标记或不同的标记。
在优选实施例中,所述系统可以包括与眼镜相联的至少三个机器可识别标签。所述至少三个机器可识别标签可以以任何合适的排列与眼镜相关联。通常,采用粘性标签形式的每个机器可识别标签可以粘附到眼镜的镜架前部的一部分上。优选地,所述至少三个机器可识别标签可以粘附到镜架前部的一部分上以形成三角形。例如,第一机器可识别标签和第二机器可识别标签可以分别粘附到眼镜的左镜架镜框和右镜架镜框的下部外部部分,第三机器可识别标签可以粘附到眼镜的中梁。有利地,形成三角形有助于之后匹配眼镜的至少一部分的3D模型和受试者的面部的至少一部分的3D模型,因为三角形形成了可与由受试者面部的至少一部分的3D模型中的相同三角形形成的平面匹配的平面。
所述系统包括用于将图像采集装置安装在受试者前方并使图像采集装置相对于受试者移动的至少一个可移动支架。支架可以具有任何合适的尺寸、形状和构造,并且由一种或多种任何合适的材料形成,所述材料通常为塑料、橡胶和/或金属材料。
所述至少一个支架可以以距受试者任何合适的距离被定位、安排或间隔开,以允许至少一个图像采集装置采集受试者的至少一部分的至少一幅图像,优选地,所述至少一个支架可以定位在受试者的前方。
例如,在一些实施例中,支架可以距受试者至少200mm、至少250mm、至少300mm、至少350mm、至少400mm、至少450mm、至少500mm、至少550mm、至少600mm、至少650mm、至少700mm、至少750mm、至少800mm、至少850mm、至少900mm、至少950mm、至少1000mm、至少1050mm、至少1100mm、至少1150mm、至少1200mm、至少1250mm、至少1300mm、至少1350mm、至少1400mm、至少1450mm、至少1500mm、至少1550mm、至少1600mm、至少1650mm、至少1700mm、至少1750mm、至少1800mm、至少1850mm、至少1900mm、至少1950mm、至少2000mm、至少2050mm、至少2100mm、至少2150mm、至少2200mm、至少2250mm、至少2300mm、至少2350mm、至少2400mm、至少2450mm、至少2500mm、至少2550mm、至少2600mm、至少2650mm、至少2700mm、至少2750mm、至少2800mm、至少2850mm、至少2900mm、至少2950mm或至少3000mm。通常,支架位于或定位在受试者前方距受试者约500mm至1500mm之间、优选地约500mm至约1125mm之间的距离。
所述支架可以包括至少一个细长支撑件、从所述至少一个细长支撑件的第一端部延伸的安装部分、以及从所述至少一个细长支撑件的相反的第二端部延伸的基座。安装部分和基座可以各自与细长支撑件一体地形成,或者可以是单独的安装件。
基座可以被配置成搁置在支撑表面(例如地板、书桌或桌子)上,并将细长支撑件保持在基本竖直的位置。基座可以固定在支撑表面上或在能够在支撑表面上移动。基座可以优选地包括至少一个移动机构,所述移动机构用于使基座移动,并且因此使支架移动,并且在图像采集装置附接到支架时使所述图像采集装置移动。这将在下文进一步详细讨论。
安装部分可以具有任何合适的尺寸、形状和形式,以便与至少一个图像采集装置连接,并且优选地与至少一个图像采集装置可拆卸地连接。
例如,在一些实施例中,安装部分可以采用固定器的形式,所述固定器被配置用于至少部分地接纳并保持至少一个图像采集装置。
在其他实施例中,安装部分可以包括基本上平坦的构件或者采用基本上平坦的构件的形式,所述基本上平坦的构件具有装置邻接表面,所述装置邻接表面被配置为抵靠图像采集装置的至少面向支架的表面,并且利用一个或多个可释放紧固件可释放地紧固到图像采集装置的至少面向支架的表面。所述一个或多个可释放紧固件可以包括一个或多个机械紧固件(例如卡扣紧固件)和/或一个或多个化学紧固件(例如湿粘合剂、干粘合剂或双面胶带)。
在另外的实施例中,安装部分和至少一个图像采集装置可以通过连接机构或连接机构的一部分来连接。例如,连接机构的与安装部分相联的第一部分可以与连接机构的第二部分配合或接合,所述连接机构的第二部分与至少一个图像采集装置、优选地至少图像采集装置的面向支架的表面相联。
连接机构可以包括联接在一起的可匹配的凸部分和凹部分,例如包括钩环型连接、螺纹连接、过盈配合(卡扣配合)连接或卡口式连接。连接机构可以包括与安装部分相联的凸结构,所述凸结构被配置成插入到与图像采集装置的面向支架表面相联的凹结构中或与该凹结构联接。相反,连接机构可以包括与安装部分相关联的凹结构,所述凹结构被配置成至少部分地接纳与图像采集装置的面向支架表面相联的凸结构或与该凸结构联接。
在使用时,所述至少一个细长支撑件可以在基本竖直的方向上从基座延伸。优选地,至少一个细长支撑件可以具有能够将图像采集装置基本定位在受试者的面部水平的位置的长度。
图像采集装置的竖直位置或高度可以是可调节的。
在一些实施例中,细长支撑件的纵向长度或高度可以是可调节的,以在使用时调节所述至少一个图像采集装置的高度。细长支撑件的纵向长度或高度可以通过任何合适的手段进行调节。
例如,在一个实施例中,细长支撑件可以采用能够在伸出位置与缩回位置之间移动的直线致动器的形式。直线致动器可以在伸出位置与缩回位置之间手动移动,或者可以被提供动力(例如,通过电机)。
例如,在另一个实施例中,细长支撑件可以包括能够在伸出位置与缩回位置之间移动的两个或更多个伸缩构件。伸缩构件可以在伸出位置与缩回位置之间手动移动,或者可以由直线致动器驱动,优选地由电机提供动力。
在其他实施例中,支架的安装部分可以相对于至少一个细长支撑件竖直地移动,以调节至少一个图像采集装置的高度。支架的安装部分可以通过任何合适的手段相对于细长支撑件竖直地移动。
例如,在一个实施例中,至少一个细长构件可以包括采用至少部分地沿细长构件的纵向长度延伸的细长通道或凹槽形式的凹结构,并且安装部分可以包括采用固位构件形式的凸结构,所述固位构件在导轨的每一端都具有扩大头部或其他类型的固位端。每个固位构件的扩大头部或其他类型的固位端可以被配置成接合并被固位在细长通道或凹槽内,并且可相对于细长通道或凹槽移动,优选地滑动。
细长通道或凹槽可以采用任何合适的横截面,例如C形或U形。
安装部分可以具有如上所述的任何合适的尺寸、形状和形式,并且可以以任何合适的方式可移动地联接到导轨,使得在安装后安装部分和至少一个图像采集装置可以在竖直方向上沿着细长构件的高度移动,优选地滑动。
在安装后,安装部分和至少一个图像采集装置可以相对于细长构件在竖直方向上手动移动,或者可以由移动机构(例如操作地与安装部分和/或细长构件相联并且包括至少一个伺服电机的一个或多个伺服机构)来提供动力。
在另一个实施例中,细长构件可以包括导轨,并且支架的安装部分可以包括一个或多个轮子或滚轮,用于沿着所述至少一个细长支撑件的纵向长度或高度移动安装部分。导轨可以具有能够防止安装部分横向移动远离导轨或与导轨分离的尺寸、形状和构造。安装部分可以沿着导轨手动移动或者可以例如由一个或多个伺服机构来驱动,所述伺服机构操作地与轮子或滚轮中的一个或多个相联并且包括至少一个伺服电机。
在又一个实施例中,安装部分可以借助于齿条与齿轮系统沿着至少一个细长支撑件的纵向长度或高度移动。所述至少一个细长支撑件可以包括沿着细长支撑件的纵向长度或高度延伸的一个或多个齿条,并且安装部分可以包括一个或多个小齿轮,每个小齿轮均可与相应的齿条接合,以使安装部分相对于至少一个细长支撑件移动。与导轨一样,每个齿条和小齿轮能够以允许安装部分沿着细长支撑件的纵向长度或高度移动并且安装部分不会横向移动远离齿条或与齿条分离的方式相接合。同样,安装部分可以沿着沿细长支撑件的纵向长度或高度延伸的一个或多个齿条手动移动,或者可以例如通过操作地与一个或多个小齿轮相联并且包括至少一个伺服电机的一个或多个伺服机构驱动。
如上所述,基座可以进一步包括至少一个移动机构,所述移动机构用于使基座移动,并且因此使支架移动,并且在图像采集装置附接到支架时使图像采集装置移动。支架和至少一个图像采集装置可以是可手动移动的,或者可以自动移动(即,自推进)。
支架和至少一个图像采集装置可以相对于受试者在任何合适的方向上移动,这可以辅助成像和3D模型的生成。例如,在一个实施例中,支架能够使图像采集装置相对于受试者横向或侧向移动。在另一个实施例中,支架能够使图像采集装置在纵向方向上朝向和远离受试者移动。
通常,支架可以是可移动的,使得至少一个图像采集装置能够对受试者的面部的至少一部分的大部分成像。例如,支架可以是可移动的,使得至少一个图像采集装置能够在围绕受试者的以下范围内对受试者的面部的至少一部分成像:至少90°、至少100°、至少110°、至少120°、至少130°、至少140°、至少150°、至少160°、至少170°、至少180°、至少190°、至少200°、至少210°、至少220°、至少230°、至少240°、至少250°、至少260°、至少270°、至少280°、至少290°、至少300°、至少310°、至少320°、至少330°、至少340°、至少350°或甚至360°,优选地至少90°。
在一些实施例中,至少一个移动机构可以包括位于基座下侧上的轮子、滚轮或轨道。轮子、滚轮或轨道能够使支架和图像采集装置横过或沿着支撑表面移动。轮子、滚轮或轨道可以手动移动或者可以例如通过一个或多个电机驱动。
在优选实施例中,所述系统可以包括沿支撑表面延伸的导轨,并且基座可以包括位于基座下侧的轮子或滚轮,以便使支架和图像采集装置相对于受试者沿着导轨移动。同样,轮子或滚轮可以手动移动或者可以例如由一个或多个电机驱动。
导轨可以包括任何形式的导向或引导输送装置。例如,导轨可以包括轨道。导轨可以具有任何合适的尺寸、形状和构造,并且可以由一种或多种任何合适的材料形成。同样地,导轨可以沿着支撑表面以有助于成像、生成3D模型和确定受试者的一个或多个光学测量结果的任何合适的方式来安排。
例如,在一些实施例中,导轨可以至少在受试者前方至少在横向方向上延伸。导轨可以至少在受试者前方在直线或曲线方向上延伸。
在一个实施例中,导轨可以是曲线的并且以曲线或弧线延伸。曲线或弧线可以至少部分地围绕至少受试者的前部延伸,使得曲线或弧线的曲率中心限定在受试者处或受试者附近。
在另一个实施例中,导轨可以是直线的。在这个实施例中,一条或多条直线导轨段可以至少部分地围绕或横过受试者的前部延伸。
在一些实施例中,所述系统可以包括至少在受试者的前方在横向方向上延伸的多于一条导轨段。
例如,在一个实施例中,所述系统可以包括至少两条平行的导轨段,这两条导轨段至少在受试者的前方在距受试者不同距离的位置处在横向方向上延伸。在另一个实施例中,所述系统可以包括至少两条平行的曲线或弧线导轨,所述至少两条平行的曲线或弧线导轨至少部分地围绕至少受试者的前方在距受试者的不同距离的位置处延伸。
在其他实施例中,所述至少一个支架可以包括:至少两个细长构件,所述至少两个细长构件在受试者的前方在横向方向上彼此间隔开,每个细长构件如上所述在基本竖直的方向上从基座延伸;导轨,所述导轨在至少两个细长构件之间延伸并可移动地联接到所述细长构件;以及安装部分,用于安装至少一个图像采集装置,所述安装部分可移动地联接到所述导轨。
导轨可以以任何合适的方式可移动地联接到至少两个细长构件,使得导轨可以在所述至少两个细长构件之间在竖直方向上移动,优选地滑动。
例如,在一个实施例中,每个细长构件可以包括采用至少部分地沿细长构件的纵向长度延伸的细长通道或凹槽形式的凹结构,并且导轨可以包括采用固位构件形式的凸结构,所述固位构件在导轨的每一端都具有扩大头部或其他类型的固位端。每个固位构件的扩大头部或其他类型的固位端可以被配置成接合并被固位在细长通道或凹槽内,并且可相对于细长通道或凹槽移动,优选地滑动。
细长通道或凹槽可以具有任何合适的横截面,例如前述C形或U形。
安装部分可以具有如上所述的任何合适的尺寸、形状和形式,并且可以以任何合适的方式可移动地联接到导轨,使得在安装后安装部分和至少一个图像采集装置可以在水平方向上沿着导轨的长度移动,优选地滑动。
例如,在一个实施例中,与所述至少两个细长构件一样,导轨可以包括上述采用细长通道或凹槽形式的凹结构,并且安装部分可以包括采用一个或多个固位构件形式的凸结构,如上所述,所述固位构件具有扩大头部或其他类型的固位端。每个固位构件的扩大头部或其他类型的固位端可以被配置成接合并被固位在细长通道或凹槽内,并且可相对于细长通道或凹槽移动,优选地滑动。
导轨可以相对于所述至少两个细长构件在竖直方向上手动移动,或者可以相对于所述至少两个细长构件在竖直方向上由移动机构(例如操作地与导轨相关联并且包括至少一个伺服电机的一个或多个伺服机构)来提供动力。
同样地,在安装后,安装部分和至少一个图像采集装置可以相对于导轨在水平方向上手动移动,或者可以相对于导轨在水平方向上由移动机构(例如操作地与安装部分或导轨相联并且包括至少一个伺服电机的一个或多个伺服机构)来提供动力。
为了改善或增强眼镜的成像,在一些实施例中,所述系统可以进一步包括用于在图像采集之前将造影剂(contrast agent)施加到眼镜上的造影剂施加器。施加器可以具有任何合适的尺寸、形状和构造,并且造影剂可以采用能够施加至眼镜以增强眼镜的成像和随后的由所述成像生成的眼镜3D模型的任何合适的类型。优选地,造影剂可以是惰性且操作安全的一种或多种干燥颗粒状材料(例如,滑石粉、玉米粉和类似的颗粒状材料)。
施加器可以采用用于将造影剂施加到眼镜上的喷嘴的形式,或者可以采用容器的形式,所述容器用于容纳造影剂并且眼镜可以至少部分地浸入到容器中。
系统的至少一个处理器可以采用任何合适的配置和类型。所述至少一个处理器可以以任何合适的方式操作地与至少一个图像采集装置和/或支架的至少一个移动机构相联。
例如,在一些实施例中,至少一个图像采集装置和/或至少一个移动机构可以包括或共享所述至少一个处理器。
在优选实施例中,所述至少一个处理器可以是外部处理装置,例如计算机、平板电脑、智能电话、智能手表或PDA。至少一个图像采集装置和/或支架的至少一个移动机构可以以任何合适的方式连接到外部处理装置。优选地,外部处理装置可以包括至少一个显示器和用户界面。
所述至少一个处理器可以优选地操作地联接到存储器存储介质,以便运行存储在存储器存储介质上的一个或多个操作程序(即,3D模型生成和匹配)、访问存储在存储器存储介质上的图像、和/或确定一个或多个测量结果。
通常,至少一个图像采集装置和/或至少一个移动机构可以各自包括或共享用于连接到外部处理装置的通信模块。
在一些实施例中,通信模块可以采用端口或接入点(例如,USB或迷你USB端口)的形式,使得至少一个图像采集装置和/或至少一个移动机构可以使用合适的电缆连接到外部处理装置。
在其他实施例中,通信模块可以采用无线通信模块(例如无线网络接口控制器)的形式,使得至少一个图像采集装置和/或至少一个移动机构可以通过无线网络(例如,Wi-Fi(WLAN)通信、RF通信、红外通信或BluetoothTM)无线地连接到外部处理装置。
所述系统可以进一步包括电源,所述电源用于为至少一个图像采集装置、支架的至少一个移动机构和/或至少一个处理器供电。电源可以包括一个或多个机载电源,例如一个或多个电池。可替代地,电源可以包括与主电源的一个或多个连接。
根据本发明的第五方面,提供了一种为受试者适配眼镜的方法,所述方法包括:
对戴着眼镜的受试者的面部的至少一部分成像,以生成戴着眼镜的受试者的面部的至少一部分的3D模型;以及
根据所生成的3D模型确定受试者的一个或多个光学测量结果,所述一个或多个光学测量结果包括受试者的每只眼睛的视轴、MCOR和OCR中的至少一个。
根据本发明的第六方面,提供了一种为受试者适配眼镜的方法,所述方法包括:
对所述眼镜的至少一部分和戴着所述眼镜的受试者的面部的至少一部分成像,以生成被成像的所述眼镜的所述至少一部分的3D模型和被成像的所述面部的所述至少一部分的3D模型;
匹配所生成的3D模型;以及
根据经过匹配的所述3D模型来确定受试者的一个或多个光学测量结果,所述一个或多个光学测量结果包括所述受试者的每只眼睛的视轴、MCOR和OCR中的至少一个。
根据本发明的第七方面,提供了一种为受试者适配眼镜的方法,所述方法包括:
将至少一个机器可识别标签与眼镜相联;
对所述眼镜的至少一部分和戴着所述眼镜的受试者的面部的至少一部分成像,以生成被成像的所述眼镜的所述至少一部分的3D模型和被成像的所述面部的所述至少一部分的3D模型;
基于所述至少一个机器可识别标签来匹配所生成的3D模型;以及
根据经过匹配的所述3D模型来确定所述受试者的一个或多个光学测量结果,所述一个或多个光学测量结果包括受试者的每只眼睛的视轴、MCOR和OCR中的至少一个。
所述方法可以包括上文所描述的测量系统的一个或多个特性。
取决于眼镜的类型,所述方法可以包括或可以不包括移除待适配的眼镜中的任何镜片插入物的初始步骤。例如,对于无框眼镜和部分有框眼镜,可以不移除镜片插入物,直到在已经对眼镜的至少一部分成像之后、优选地在对戴着眼镜的受试者的面部的至少一部分成像之前。
在一些实施例中,所述方法可以包括在成像之前将造影剂施加到眼镜的另一个初始步骤。
同样地,在一些实施例中,所述方法可以包括在成像之前将造影剂施加到受试者的每只眼睛以至少部分地增强受试者眼睛的成像的另一个初始步骤。造影剂可以是能够对每只眼睛的至少一部分着色的任何合适的试剂,优选地为发荧光。造影剂可以优选地是水溶性的。造影剂可以包括荧光素钠、玫瑰红或丽丝胺绿,优选地为荧光素钠,其能够在钴蓝色照射下发荧光。
在一些实施例中,将至少一个机器可识别标签与眼镜相联可以包括将标签粘附到眼镜的待成像的至少一部分,优选地粘附到镜架前部。
通常,所述相联可以包括将多于一个机器可识别标签与眼镜粘附在一起。
在一些实施例中,所述相联可以包括将至少三个机器可识别标签与眼镜粘附在一起,通常将第一机器可识别标签和第二机器可识别标签分别粘附到眼镜的左镜架镜框和右镜架镜框(如果存在的话)的下部外部部分,第三机器可识别标签可以粘附到眼镜的中梁。
在一些实施例中,所述方法可以进一步包括在所述成像之前利用跟踪器来跟踪眼镜的左镜架镜框和右镜架镜框(如果存在的话)。跟踪器可以采用本领域已知的任何合适的形式。例如,在一个实施例中,跟踪器可以包括采用沿着镜架镜框的内边缘延伸的针的形式的传感器,以确定左镜架镜框和右镜架镜框的参数和/或生成左镜架镜框和右镜架镜框的模型,并且优选地确定镜片凹槽或v形凹槽(如果存在的话)的参数和/或生成镜片凹槽或v形凹槽(如果存在的话)的模型。在另一个实施例中,跟踪器可以包括采用沿着部分镜圈(如果存在的话)和/或镜片插入物的外边缘延伸的杆形式的传感器,以确定眼镜架的参数和/或生成眼镜架的模型。优选地,所生成的模型可以是3D模型。
在一些实施例中,成像可以包括对眼镜的所述至少一部分成像。通常,成像可以包括对至少眼镜的镜架前部成像。优选地,成像可以包括对眼镜的镜架前部成像,尤其是对左镜架镜框和右镜架镜框成像,最优选地对镜片凹槽或v形凹槽(如果存在的话)成像。眼镜的至少一部分的成像可以优选地利用手持式3D扫描仪来执行。
然后,受试者可以戴上眼镜,并且站或坐在本发明的至少一个图像采集装置前方以便成像。通常,受试者可以以受试者头部为笔直的配置来站立或坐着,优选地使得受试者的头部保持在“直立”位置,即,最省力的位置。更优选地,受试者可以以使得与受试者头部相关联的法兰克福平面(PF)是基本上水平的配置来站立或坐着。
戴着眼镜的受试者的面部的至少一部分的成像可以优选地包括在多于一个取向、优选地在至少90°的范围内采集受试者的图像或视频。
成像可以优选地包括在使图像采集装置至少部分地围绕、环绕或横过受试者的面部的至少一部分移动的同时对受试者成像。
在一些实施例中,如上所述,图像采集装置可以支撑在位于受试者前方的支架上。在这些实施例中,图像采集装置可以经由支架至少部分地围绕、环绕或横过受试者的面部的至少一部分手动或自动地移动。
在其他实施例中,图像采集装置可以由受试者保持在受试者前方,并且至少部分地围绕、环绕或横过受试者的面部的至少一部分手动地移动。
为了帮助确定包括受试者的每只眼睛的MCOR和OCR中的至少一个的一个或多个光学测量结果,成像可以进一步包括在戴着眼镜的受试者聚焦于距受试者不同距离或长度处的物体上的同时对受试者的面部的至少一部分成像。
可以在受试者聚焦于第一距离处的物体的同时对受试者成像。在受试者聚焦于第二距离处的物体时,可以对受试者成像或可以不对受试者成像。第一距离和第二距离可以各自是任何合适的距离,优选地为不同的距离。
例如,在一些实施例中,第一距离可以是适合于确定受试者在长焦距下(例如在无限远聚焦状态或光学无限远中)的光学测量结果的距离。第一距离可以是至少5000mm、至少6000mm、至少7000mm、至少8000mm、至少9000mm、至少10000mm、至少11000mm或至少12000mm,优选地至少6000mm。物体可以是受试者能够在第一距离处聚焦的任何合适的物品,例如,物体可以是镜子或图片。
例如,在一些实施例中,第二距离可以是适合于确定受试者在短焦距下的光学测量结果的距离。第二距离可以是至少250mm、至少300mm、至少350mm、至少400mm、至少450mm或至少500mm。物体可以是使得受试者能够聚焦的任何合适的物品,例如,物体可以是平板电脑、杂志、书籍等。
例如,可以沿着或几乎沿着视线对受试者成像,或者可以在向下看时成像。
通常,当受试者聚焦于第一距离处的物体上时,可以沿着或几乎沿着视线对受试者成像。
在一些实施例中,当受试者聚焦于第二距离处的物体上时,也可以沿着或几乎沿着视线对受试者成像。例如,在一个实施例中,受试者可以将图像采集装置手动地保持在第二距离处。在另一个实施例中,受试者可以聚焦于位于第二距离处并且位于安装后的图像采集装置的上方、下方、旁边和/或略微越过图像采集装置的物体上。
在其他实施例中,可以在受试者向下看并且聚焦于第二距离处的物体上的同时对受试者成像。
受试者的面部的至少一部分的成像可以通过3D扫描仪或通过立体系统来执行,如上所述,所述立体系统包括间隔开的至少两个相机或者具有两个间隔开的镜头的至少一个相机。优选地,成像可以通过3D扫描仪或包括至少两个、至少三个、至少四个、至少五个或至少六个间隔开的相机的立体系统来执行。
在一些实施例中,成像可以进一步包括在成像的同时至少部分地照射受试者面部的至少一部分,优选地照射受试者的每只眼睛的角膜。
在一些这样的实施例中,至少部分地照射受试者的每只眼睛的角膜可以通过与图像采集装置相联的至少一个RGB LED来实现。在优选的这种实施例中,至少部分地照射可以生成一个或多个角膜反射,所述角膜反射可以帮助对受试者的每只眼睛的角膜成像。至少部分地照射还可以使造影剂(如果被施加的话)发荧光,以便由此增强至少受试者的眼睛的成像。
在其他这样的实施例中,至少部分地照射受试者的每只眼睛的角膜可以通过与图像采集装置相联的至少一个IR LED或近IR LED来实现。在优选的这种实施例中,至少部分地照射可以生成一个或多个角膜反射,所述角膜反射可以帮助在一段时间内跟踪受试者的注视点、视线、或眼睛位置、和/或受试者的每只眼睛的运动。
在一些实施例中,成像可以进一步包括在受试者注视受试者视野的边缘或极限处或附近的焦点的同时对受试者成像。有利地,采集这种图像可以增大被成像的每只眼睛的巩膜的面积,并且因此增强随后生成的3D模型的精度。
在成像后,可以生成眼镜的至少一部分和/或戴着眼镜的受试者面部的至少一部分的3D模型。
对于由3D扫描仪执行的成像,可以通过本领域中已知的任何合适的方式来生成3D模型。通常,3D模型可以由3D扫描仪产生的点云生成。
对于由至少两个间隔开的相机执行的成像,可以使用本领域中已知的一种或多种方法通过立体摄影测量术的过程来生成3D模型。
在一些实施例中,可以通过如在Bérard,P等人的位于<https://s3-us-west-1.amazonaws.com/disneyresearch/wp-content/uploads/20141203013516/H igh-Quality-Capture-of-Eyes-Pub-Paper.pdf>上并于2016年5月24日访问的“High-QualityCapture of Eyes(高品质的眼睛捕捉)”中所公开的网格分割来生成每个眼睛的3D模型,所述文献的全部内容通过引用的方式并入。
例如,可以使用k均值利用网格分割将所成像的每只眼睛的表面建模成约50mm2的集群,并且将半径为12.5mm(一般眼睛的半径)球面拟合到每个集群。可以修剪不符合拟合的球面的顶点,直到实现期望的距离阈值和正常阈值。集群化、球面拟合和修剪可以重复多次,直到实现收敛。
优选地,所有的3D模型生成都可以由可操作地与本发明的图像采集装置相联的至少一个处理器来执行。
通常,可以针对在每个焦距执行的成像来生成3D模型。例如,可以针对聚焦于第一距离的受试者来生成受试者的面部的至少一部分的第一3D模型。可以针对聚焦于第二距离的受试者来生成受试者的面部的至少一部分的第二3D模型。
在生成眼镜的至少一部分(包括由跟踪器生成的眼镜的左镜架镜框和右镜架镜框)的3D模型的实施例中,可以使眼镜的至少一部分的一个或多个3D模型与戴着眼镜的受试者的面部的至少一部分的3D模型相匹配。眼镜的至少一部分的3D模型可以被匹配成使得3D模型的眼镜基本上重叠在戴着眼镜的受试者的面部的至少一部分的3D模型的眼镜上。匹配可以自动执行或由操纵3D模型的用户手动地执行。一般而言,执行匹配直到实现如通过测量沿着来自被匹配的3D模型的眼镜的公共点之间的均方根偏差(RMSD)来确定的良好适配为止。
通常,3D模型可以由至少一个处理器自动匹配。优选地,可以基于机器可识别标签来匹配3D模型。例如,可以在要匹配的每个3D模型中识别出机器可识别标签,并且可以将眼镜的至少一部分的一个或多个3D模型重叠在戴着眼镜的受试者的面部的至少一部分的3D模型的眼镜上,以使得眼镜的至少一部分的3D模型中的每个机器可识别标签可以重叠在戴着眼镜的受试者的面部的至少一部分的3D模型的眼镜中的相应位置上。
类似地,可以至少部分地基于通过对眼镜的至少一部分的一个或多个3D模型和戴着眼镜的受试者的面部的至少一部分的3D模型中的至少三个机器可识别标签进行的三角布置形成的平面来匹配这些3D模型。
在受试者注视位于受试者的视野的边缘或极限处或附近的焦点的同时采集眼睛的额外成像的实施例中,随后生成的3D模型可以相对于对以第一距离和第二距离聚焦的受试者生成的3D模型匹配,并且至少部分地与所述对以第一距离和第二距离聚焦的受试者生成的3D模型相整合。通常,巩膜的3D模型将仅与对以第一距离和第二距离聚焦的受试者生成的3D模型整合。优选地,巩膜的多个3D模型可以相对于彼此匹配,并且在与对以第一距离和第二距离聚焦的受试者生成的3D模型整合之前进行平均。巩膜的3D模型可以通过共同特征(例如瞳孔的定位)相对于彼此匹配。
在眼睛的额外成像在一段时间内跟踪受试者的注视点、视线、或眼睛位置、和/或每只眼睛的运动的实施例中,随后生成的3D模型可以通过共同特征(例如瞳孔的定位或位置,瞳孔的位置已经被跟踪并确定)相对于彼此匹配。
一旦生成3D模型并且在一些实施例中进行匹配后,就可以确定受试者的每只眼睛的MCOR。
受试者的每只眼睛的MCOR可以通过任何合适的手段来确定。优选地,可以根据以第一距离聚焦的受试者的3D模型来确定受试者的每只眼睛的MCOR。
例如,在一个实施例中,每只眼睛的MCOR可以通过在3D模型中在受试者眼睛的巩膜上建立球体或椭球体模型并确定每个球体或椭球体的中心点来确定。
优选地,所使用的3D模型可以是如上所述的平均且整合的3D模型。有利地,通过使用平均且整合的3D模型,可以更精确地建立球体或椭球体模型。
更优选地,可以在平均且整合的3D模型中在受试者的每只眼睛的巩膜上建立多于一个球体或椭球体模型。然后,可以确定所建立的每个球体或椭球体模型的中心点,并且对中心点的位置求平均以确定与MCOR相对应的平均中心点。
通常,MCOR的确定可以重复多次,直到实现收敛。
在一些实施例中,在3D模型中在受试者眼睛的巩膜上建立一个或多个球体或椭球体的模型可以手动地进行。在其他实施例中,建立模型可以与确定中心点和/或对中心点求平均一起自动地执行。
然后,可以从MCOR推导出每只眼睛的OCR。
例如,在一些实施例中,可以通过以下方式确定每只眼睛的OCR:优选地根据在第一距离处聚焦并且在沿着视线观看时的受试者的3D模型来定位或确定每只眼睛的视轴、然后确定从MCOR到视轴的最短距离,由此确定OCR。
在一个实施例中,视轴可以根据在第一距离处聚焦并且在沿着视线观看时的受试者的3D模型来确定。然后,可以将视轴确定为沿着视线穿过瞳孔中心延伸到眼睛的后表面、优选地延伸到中央凹的假想线。在以第一距离聚焦的受试者的3D模型中,视轴可以与PF基本平行。在一个这样的实施例中,可以通过采集受试者眼睛的第一浦肯野像并将假想线穿过第一浦肯野像和瞳孔中心延伸到眼睛的后部、优选地延伸到中央凹来辅助确定视轴。
当对受试者的面部的至少一部分成像时,可以通过至少部分地照射受试者的每只眼睛的角膜来采集每只眼睛的第一浦肯野像。第一浦肯野像可以是最明亮的反射。
可以通过任何合适的手段识别每只眼睛的瞳孔。例如,在一个实施例中,一旦匹配后,就可以通过对一个或多个3D模型进行用户分析来识别每只眼睛的瞳孔。然后,用户可以在瞳孔上建立圆的模型,所述圆的中心点表示瞳孔中心。在另一个实施例中,可以自动检测每只眼睛的瞳孔并且在检测到的瞳孔上建立圆的模型。同样,圆的中心点表示瞳孔中心。
本领域技术人员将理解,OCR和视轴随着每只眼睛的注视方向的不同而不同。因此,根据在第一距离处聚焦并且在沿着视线观看时的受试者的3D模型确定的OCR和视轴将可能与根据在第二距离处聚焦并且在沿着视线观看时的受试者的3D模型确定的OCR和视轴不同。
在针对聚焦于相距第二距离的物体并沿着视线观看的受试者生成3D模型的实施例中,可以按照上述方式确定MCOR、OCR和视轴。相反地,可以通过从如上所述的注视跟踪推导出的位置信息来确定OCR和视轴。
在生成向下看相距第二距离的物体的受试者的3D模型的实施例中,仍然可以按照上述方式确定MCOR。然而,视轴可以通过以下操作来确定:(1)将来自聚焦在第一距离处的受试者的3D模型的受试者的每只眼睛匹配在聚焦在第二距离处的受试者的3D模型上;以及(2)从聚焦在第一距离处的受试者的3D模型的已匹配眼睛的视轴位置推导出俯视位于第二距离处的物体的受试者的3D模型中的视轴位置。然后,可以按照上述方式确定OCR。相反,同样可以按照上述方式根据从注视跟踪推导出的位置信息来确定OCR和视轴。
如所指出的那样,所述方法可以包括确定其他光学测量结果。例如,所述方法可以进一步包括确定单眼瞳孔距离(PD)、瞳孔高度(PH)、后顶点距离(BVD)、光学转动中心距离(OCRD)、瞳孔轴、镜片倾斜度、镜架表面弧度、以及头部角中的至少一个。
在一个实施例中,可以通过在3D模型中测量从每只眼睛的瞳孔中心到延伸穿过眼镜的中梁的竖直对称线的水平距离来确定受试者的单眼PD。在另一个实施例中,可以通过在3D模型中测量从每只眼睛的视轴到延伸穿过眼镜的中梁的竖直对称线的水平距离来确定受试者的单眼PD。
在3D模型中测量的距离可以是实际距离,或者可能需要乘以比例因子以获得实际距离。在一些实施例中,可以根据聚焦在第一距离处和第二距离处的受试者的单独的3D模型来确定受试者的单眼PD。有利地,这可以允许确定受试者的近用单眼PD和远用单眼PD。
在一个实施例中,可以通过在3D模型中测量从每只眼睛的瞳孔中心到眼镜的最下面的内侧镜架边缘(即,对于全框眼镜)或到眼镜的最下面的外侧镜架边缘(即,对于无框眼镜或部分有框眼镜)的竖直距离来确定受试者的PH。在另一个实施例中,可以通过在3D模型中测量从每只眼睛的视轴到眼镜的最下面的内侧镜架边缘(即,对于全框眼镜)或到眼镜的最下面的外侧镜架边缘(即,对于无框眼镜或部分有框眼镜)的竖直距离来确定受试者的PH。
在3D模型中测量的距离可以是实际距离,或者可能需要乘以比例因子以获得实际距离。在一些实施例中,可以根据聚焦在第一距离处和第二距离处的受试者的单独3D模型来确定受试者的PH。有利地,这可以允许确定受试者的近用PH和远用PH。
可以通过在3D模型中测量每只眼睛的角膜顶点和与眼镜中的镜片的后顶点相对应的平面之间的最短距离来确定每只眼睛的定点距离或BVD。在一些实施例中,这可能进一步需要输入镜片的倾斜(bevel)位置、眼镜镜片处方以及镜片后曲面的厚度中心和下垂度。同样,在3D模型中测量的距离可以是实际距离,或者可能需要乘以比例因子以获得实际距离。优选地,顶点距离或BVD可以根据以长焦距(例如在无限远聚焦状态或光学无限远,即,第一距离)聚焦的受试者的3D模型来确定,或者根据沿视线观看的受试者的3D模型来确定。
OCRD与从每只眼睛的OCR到镜片后顶点的距离相对应。可以通过在3D模型中测量从每只眼睛的OCR到与眼镜中的镜片的后顶点相对应的平面之间的最短距离来确定OCRD。与上述BVD一样,在一些实施例中,这可能进一步需要输入镜片的倾斜位置、眼镜镜片处方以及镜片后曲面的厚度中心和下垂度(sag)。在3D模型中测量的距离可以是实际距离,或者可能需要乘以比例因子以获得实际距离。优选地,OCRD可以根据以长焦距(例如在无限远聚焦状态或光学无限远,即,第一距离)聚焦的受试者的3D模型来确定,或者根据沿视线观看的受试者的3D模型来确定。
在一些实施例中,可以通过根据在沿视线观看时的受试者的3D模型确定角膜的顶点来确定每只眼睛的瞳孔轴。然后,可以将瞳孔轴确定为穿过角膜顶点轴向地延伸到眼睛后表面的假想水平线。
每只眼睛的角膜顶点可以通过以下方式来确定:在3D模型中在受试者的每只眼睛的巩膜和角膜上建立球体模型,并且识别从在巩膜上建立的球体模型的圆周向外延伸到在角膜上建立的球体模型的圆周的最大距离。沿着最大距离延伸的线与在角膜上建立的球体模型的圆周相交的点可以基本上对应于角膜的顶点。
在其他实施例中,可以通过根据沿着视线观看时的受试者的3D模型定位每只眼睛的瞳孔并确定每个瞳孔的中心点来确定每只眼睛的瞳孔轴。然后,可以将瞳孔轴确定为穿过每只眼睛的瞳孔的中心点延伸到眼睛后表面的假想线。
可以按照上述方式识别每只眼睛的瞳孔和每个瞳孔的中心。
可以通过在3D模型中测量与眼镜的镜架前部相对应的平面和垂直于视轴延伸的竖直平面之间的角度来确定镜片倾斜度。与确定顶点距离、BVD或OCRD一样,镜片倾斜度可以根据戴着眼镜并以长焦距(例如在无限远聚焦状态或光学无限远,即,第一距离)聚焦的受试者的3D模型来确定,或者根据沿视线观看的受试者的3D模型来确定。
可以通过在3D模型中测量与眼镜的镜架前部的左镜架镜框和右镜架镜框中的每一个相对应的平面与垂直于视轴延伸的竖直平面之间的角度来确定眼镜的镜架表面弧度或面形弧度。与确定顶点距离或BVD、OCRD和镜片倾斜度一样,镜架表面弧度或面形弧度可以根据戴着眼镜并以长焦距(例如在无限远聚焦状态或光学无限远,即,第一距离)聚焦的受试者的3D模型来确定,或者根据沿视线观看的受试者的3D模型来确定。
受试者的头部角可以通过以下方式来确定:当受试者以使得与受试者的头部相关联的法兰克福平面(PF)基本上是水平的配置站立或坐着时,在3D模型中测量受试者的头部或头部的一部分相对于受试者的视线方向或注视方向的转动或取向的水平角度。与其他测量结果一样,头部角可以根据沿视线观看的受试者的3D模型来确定。
在一些实施例中,所述方法可以进一步包括表征眼镜的左镜架镜框和右镜架镜框的镜片凹槽或v形凹槽的轮廓形状。轮廓形状可以由眼镜的至少一部分的3D模型来表征或由戴着眼镜的受试者的面部的至少一部分的3D模型来表征,并且优选地由前者来表征。有利地,准确地表征眼镜的左镜架镜框和右镜架镜框的镜片凹槽或v形凹槽的轮廓形状可以通过允许对镜片磨边以互补地适配眼镜的相应镜片凹槽或v形凹槽来辅助处方镜片的磨边和适配。
在一些实施例中,所述方法可以进一步包括将受试者和眼镜的测量结果传送给镜片制造商。
根据本发明的第八方面,提供了一种为受试者适配巩膜接触镜片的方法,所述方法包括:
对受试者的至少眼睛区域成像,以生成受试者的至少眼睛区域的3D模型;以及
根据所生成的3D模型确定受试者的眼睛的一部分的巩膜曲率。
所述方法可以包括如上文所描述的系统和/或方法的一个或多个特性。
受试者可以优选地摘下眼镜,并且站或坐在本发明的至少一个图像采集装置前方以便进行成像。通常,受试者可以以受试者头部为笔直的配置来站立或坐着,优选地以使得受试者的头部保持在“直立”位置(即,最省力的位置)的配置来站立或坐着。更优选地,受试者可以以使得与受试者头部相关联的法兰克福平面(PF)是基本上水平的配置来站立或坐着。
受试者的至少眼睛区域的成像可以通过3D扫描仪或通过立体系统来执行,如上所述,所述立体系统包括间隔开的至少两个相机或者具有两个间隔开的镜头的至少一个相机。
在一些实施例中,成像可以进一步包括在受试者注视位于受试者视野的边缘或极限处或附近的焦点的同时对受试者成像,以便更好地使受试者的每只眼睛的巩膜可视化。
一旦成像,就可以生成受试者的至少眼睛区域的3D模型。可以按照如上所述的方式生成一个或多个3D模型。
优选地,所述方法可以包括:确定巩膜的围绕眼睛角膜的周边延伸的部分的巩膜曲率。
有利地,确定眼睛的巩膜曲率可以通过允许镜片的基部曲率(base curvature)准确地匹配受试者眼睛的巩膜曲率而极大地辅助巩膜接触镜片的设计和适配。
根据本发明的第九方面,提供了一种为受试者适配眼内镜片(IOL)的方法,所述方法包括:
对受试者的至少眼睛区域成像,以生成受试者的至少眼睛区域的3D模型;
根据所生成的3D模型至少确定受试者眼睛的光学转动中心(OCR);以及
至少基于所确定的OCR来确定待为受试者适配的眼内镜片的最佳光焦度(opticalpower)。
所述方法可以包括如上文所描述的系统和/或方法的一个或多个特征。
受试者可以优选地摘下眼镜,并且站或坐在本发明的至少一个图像采集装置前方以便进行成像。通常,受试者可以以受试者头部为笔直的配置来站立或坐着,优选地以使得受试者的头部保持在“直立”位置(即,最省力的位置)的配置来站立或坐着。更优选地,受试者可以以使得与受试者头部相关联的法兰克福平面(PF)是基本上水平的配置来站立或坐着。
受试者的至少眼睛区域的成像可以通过3D扫描仪或通过立体系统来执行,如上所述,所述立体系统包括至少两个间隔开的相机或者具有两个间隔开的镜头的至少一个相机。
在一些实施例中,成像可以进一步包括在受试者注视受试者视野的边缘或极限处或附近的焦点的同时对受试者成像,以便更好地使受试者的每只眼睛的巩膜可视化。
一旦成像,就可以生成受试者的至少眼睛区域的3D模型。可以按照上述方式生成一个或多个3D模型。
优选地,所述方法包括至少确定受试者眼睛的OCR。可以根据如前所述生成的3D模型来确定OCR。在一些实施例中,还可以根据所生成的3D模型来确定受试者的眼睛的角膜曲率。
所述方法还优选地包括确定待为受试者适配的IOL的最佳光焦度。最佳光焦度将被理解为意指为受试者提供最佳光学结果或者消除或最小化屈光不正的最佳屈光力(refractive power)的量。
有利地,确定眼睛的OCR可以极大地辅助确定待为受试者适配的IOL的最佳光焦度,因为其增强了所确定的光焦度的精度。
根据本发明的第十方面,提供了一种诊断和/或监测受试者的眼病和/或眼部疾病的方法,所述方法包括:
对受试者的至少眼睛区域成像,以生成受试者的至少眼睛区域的3D模型;以及
根据所生成的3D模型诊断和/或监测受试者的眼病和/或眼部疾病。
所述方法可以包括如上文所描述的系统和/或方法的一个或多个特征。
所述方法可以用于诊断和/或监测眼病,例如眼表病变、眼表肿瘤、眼结膜和角膜皮上皮内瘤变(CIN)、鳞状细胞癌(SSCA)、黑素细胞肿瘤(眼黑变病/黑色素瘤)、结膜淋巴瘤、翼状胬肉、结膜黄斑、角膜溃疡、眼睑病变、睑板腺囊肿、睑腺炎(hordoleum)、真皮痣(dermal naevus)、脂溢性角化病、和/或发汗性囊肿。
同样地,所述方法可以用于诊断和/或监测眼部疾病,例如干眼综合征和史蒂文斯-约翰逊综合症。
在一些实施例中,所述方法可以包括将上述造影剂施加至受试者的眼睛以至少部分地增强对眼病或眼部疾病的成像的初始步骤。
受试者可以优选地摘下眼镜,并且站或坐在本发明的至少一个图像采集装置前方以便进行成像。通常,受试者可以以受试者头部为笔直的配置来站立或坐着,优选地以使得受试者的头部保持在“直立”位置(即,最省力的位置)的配置来站立或坐着。更优选地,受试者可以以使得与受试者头部相关联的法兰克福平面(PF)是基本上水平的配置来站立或坐着。
受试者的至少眼睛区域的成像可以通过3D扫描仪(或近IR干涉仪)或通过立体系统来执行,如上所述,所述立体系统包括至少两个间隔开的相机或者具有两个间隔开的镜头的至少一个相机。
在一些实施例中,成像可以进一步包括在成像的同时至少部分地照射受试者的至少眼睛区域。可以通过与图像采集装置相联的至少一个RGB LED来实现至少部分的照射。在优选的实施例中,至少部分的照射可以使造影剂发荧光,从而增强对眼病或眼部疾病的成像。
在一些实施例中,成像可以进一步包括在受试者注视受试者视野的边缘或极限处或附近的焦点的同时对受试者成像,以便更好地使眼病或眼部疾病可视化。
一旦成像,就可以生成受试者的至少眼睛区域的3D模型。可以按照上述方式生成一个或多个3D模型。
然后,可以目视检查一个或多个3D模型以诊断和/或监测眼病或眼部疾病。
例如,所述监测可以包括目视检查眼病和/或眼部疾病的周边,以判定眼病和/或眼部疾病的尺寸是增大还是减小或外观是否改变。尺寸的增大可能表明当前疗法在治疗眼病和/或眼部疾病方面不能有效地起作用。相反,尺寸的减小可以表明当前的治疗有效地起作用。
在一些实施例中,例如,所述监测可以包括将所生成的3D模型中的眼病和/或眼部疾病与所述眼病或眼部疾病的早期3D模型进行比较,以判定眼病和/或眼部疾病的尺寸或视觉外观是否发生变化。
本文所描述的任何特征可以在本发明范围内与本文所描述的其他特征中的任何一个或多个以任意组合的方式进行组合。
本说明书中对任何现有技术的引用不是并且也不应被视为对现有技术形成公知常识的一部分的承认或任何形式的暗示。
附图说明
本发明的优选特征、实施例和变化可以从以下为本领域技术人员提供用于实施本发明的充分信息的具体实施方式中变得清楚。具体实施方式不应被视为以任何方式限制前述发明内容的范围。具体实施方式将参照如下的多个附图:
图1是根据本发明的实施例的位于受试者的面部前方的光学测量系统的图示;
图2是根据本发明的另一实施例的位于受试者的面部前方的光学测量系统的图示;
图3是根据本发明的又一实施例的位于受试者的面部前方的光学测量系统的图示;
图4是流程图,示出了根据本发明的实施例的使用图1至图3所示的光学测量系统来为受试者适配眼镜的方法中的步骤;
图5是流程图,示出了根据本发明的另一实施例的使用图1至图3所示的光学测量系统来为受试者适配眼镜的方法中的步骤;
图6是流程图,示出了根据本发明的实施例的使用图1至图3所示的光学测量系统来诊断和/或监测受试者的眼病和/或眼部疾病的方法中的步骤;
图7是戴着眼镜的受试者面部的一部分的由图1至图3中的任何一个所示的系统生成的3D模型的屏幕截图;和
图8是戴着眼镜的受试者面部的一部分的由图1至图3中的任何一个所示的系统生成的另一个3D模型的屏幕截图,所述3D模型相对于眼镜的v形凹槽示出了受试者的建模眼睛。
具体实施方式
图1至图3示出了根据本发明的各实施例的用于为受试者(900)适配眼镜(800)和/或用于诊断和/或监测受试者(900)的眼病和/或眼部疾病的光学测量系统(100)。
光学测量系统(100)包括:图像采集装置(110);支架(120),所述支架用于将图像采集装置(110)安装在戴着眼镜(800)的受试者(900)前方,并且用于使图像采集装置(110)相对于受试者(900)移动;以及至少一个采用计算机形式的处理器(未示出),所述处理器用于确定:每只眼睛的机械转动中心(MCOR)、每只眼睛的光学转动中心(OCR)、每只眼睛的视轴、以及受试者(900)的单眼瞳孔距离(PD);受试者(900)的相对于眼镜(800)的瞳孔高度(PH);以及眼镜(800)相对于受试者(900)的后顶点距离(BVD)、光学转动中心距离(OCRD)、镜片倾斜度(pantoscopic tilt)和镜架表面弧度(frame wrap)。
图像采集装置(110)能够采集戴着眼镜(800)的受试者(900)的面部的至少一部分的至少一幅图像,以便生成戴着眼镜(800)的受试者(900)的面部的所述至少一部分的三维(3D)模型。
图像采集装置(110)还能够采集眼镜(800)的至少镜架前部(810)的至少一幅图像,以便生成眼镜(800)的至少镜架前部(810)的3D模型。
图像采集装置包括具有大致矩形形状的本体(112)。本体(112)具有面向受试者的表面(113)、相反的面向外的表面(114)、相对的侧边缘(115)、上边缘(116)和下表面(117)。
图像采集装置(110)包括采用相机或探测器形式的至少一个传感器(例如电荷耦合装置或正电子敏感装置),并且取决于图像采集装置的类型,可以包括用于以可见光、红外线、近红外线或X射线的形式发射辐射或以超声波形式发射声波的至少一个发射器。
例如,如果图像采集装置(110)是3D扫描仪,则图像采集装置(110)可以包括采用探测器形式的至少一个传感器和用于发射可见光辐射的至少一个发射器。图像采集装置(110)还可以包括至少一个相机。
然而,如果图像采集装置(110)是立体相机系统,则图像采集装置(110)将包括彼此间隔开的至少两个相机。
所述至少一个传感器和所述至少一个发射器(如果存在的话)位于图像采集装置(110)的本体(112)的面向受试者的表面(113)上。发射器(如果存在的话)将包括RGB LED阵列。
图像采集装置(110)经由图形采集装置(110)的本体(112)的面向外的表面(114)可拆卸地安装到支架(120)。
支架(120)位于或定位在受试者前方距受试者约500mm至约1125mm之间的距离处。
支架(120)被配置成使图像采集装置(110)相对于受试者(900)横向或侧向地移动,以允许在受试者面部的至少一部分的至少90°的范围内成像。支架(120)还被配置成使图像采集装置(110)相对于受试者(900)竖直地移动。
支架(120)包括至少一个细长支撑构件(123)、与所述至少一个细长支撑构件(123)相联的安装部分(122;不可见)、以及从所述至少一个细长支撑构件(123)的下端部分延伸的基座(124)。
基座(124)可以被配置成搁置在支撑表面(例如地板、书桌或桌子)上,并将至少一个细长支撑构件(123)保持在基本竖直的位置。在一些实施例中,基座(124)包括允许基座(124)沿支撑表面移动的移动机构。这将在下文进一步描述。
安装部分(122;不可见)基本上是平坦的并且包括装置邻接表面,所述装置邻接表面被配置成可释放地紧固到图像采集装置(110)的本体(112)的面向外的表面(114)。装置(110)利用一个或多个卡扣紧固件和/或利用粘合剂(例如,双面胶带)可释放地紧固到安装部分(122;不可见)。
现在将参照图1至图3进一步描述支架(120),这些图各自示出了支架(120)的不同实施例。
参照图1,在本实施例中,支架(120)包括在受试者(900)前方在横向方向上彼此间隔开的两个细长构件(123)。如上所述,每个细长支撑构件(123)在基本竖直的方向上从基座(124)延伸。导轨(125)在细长构件(123)之间延伸并可移动地联接到所述细长构件,使得导轨能够相对于细长构件(123)在竖直方向上滑动。安装部分(122;不可见)进而可移动地联接到导轨(125),使得安装部分(122;不可见)和所附接的图像采集装置(110)能够相对于导轨(125)在水平方向上滑动。
本实施例中的每个细长构件(123)均包括采用至少部分地沿细长构件(123)的纵向高度延伸的细长通道或凹槽形式的凹结构。
导轨(125)包括采用在导轨(125)的每个纵向端部处具有扩大头部或其他类型的固位端的固位构件形式的凸结构。
在使用时,每个固位构件的扩大头部或其他类型的固位端被配置成接合并固位在细长通道或凹槽内,并且可相对于细长通道或凹槽滑动。
类似地,导轨(125)和安装部分(122;不可见)分别包括采用细长通道或凹槽形式的凹结构和采用固位构件(所述固位构件具有扩大头部或其他类型的固位端)形式的凸结构,以允许安装部分(122;不可见)可相对于导轨(125)滑动。
导轨(125)和安装部分(122;不可见)以及所附接的图像采集装置(110)可以手动移动或者可以通过可操作地与导轨(125)和安装部分(122;不可见)中的每一个相联的一个或多个伺服机构来移动。
转到图2,在本实施例中,支架(120)包括单个细长支撑构件(123)、如上所述从细长支撑构件(123)的上端部分延伸的安装部分(122;不可见)、以及如上所述从细长支撑构件(123)的相反的下端部分延伸的基座(124)。
本实施例中的细长支撑构件(123)包括两个或更多个伸缩构件,所述伸缩构件能够在伸出位置和缩回位置之间移动以调节图像采集装置(110)相对于受试者(900)的高度。伸缩构件是通过由电机提供动力的直线致动器而在伸出位置与缩回位置之间驱动的。
在本实施例中,支架(120)的基座(124)包括位于基座(124)下侧的轮子或滚轮。轮子或滚轮使支架(120)和所附接的图像采集装置(110)沿着沿支撑表面延伸的轨道(210)移动。
如图所示,轨道(210)以围绕受试者(900)的前方的曲线或弧线延伸,从而允许支架(120)和所附接的图像采集装置(110)围绕受试者(900)的前方在至少120°的范围内移动。
位于基座(124)下侧的轮子或滚轮可以手动移动或者可以由一个或多个电机驱动。
现在转向图3,在本实施例中,除了本实施例中的轨道(210)在受试者(900)前方在横向方向上延伸之外,支架(120)与图2所示的支架(120)相同。
现在参照图1至图3、图7和图8来详细描述使用光学测量系统(100)的方法(400)。
方法(400)任选地包括移除待适配的眼镜(800)中的任何镜片插入物(lensinserts)的初始步骤。
方法(400)任选地包括在成像之前将造影剂(contrast agent)施加到眼镜(800)的另一个初始步骤。
方法(400)任选地进一步包括在成像之前利用跟踪器来跟踪眼镜(800)的左右镜架镜圈的另一个初始步骤。
在步骤410,图像采集装置(110)用于对戴着眼镜(800)的受试者(900)的面部的至少一部分成像。成像包括在戴着眼镜(800)的受试者(900)的面部的至少一部分的至少90°的水平范围内采集戴着眼镜(800)的受试者(900)的面部的至少一部分的多幅图像。这是通过使用支架(120)使图像采集装置(110)至少部分地围绕、环绕或横过戴着眼镜(800)的受试者(900)的面部的至少一部分在横向方向上移动来实现的。
成像包括在戴着眼镜(800)的受试者(900)聚焦于离受试者(900)6m的第一物体上的同时对受试者(900)的面部的至少一部分进行第一成像。沿视线对受试者(900)成像。
成像可以任选地包括在戴着眼镜(800)的受试者(900)聚焦于离受试者(900)400mm的第二物体上的同时对受试者(900)的面部的至少一部分进行第二成像。在受试者向下看第二物体的同时对受试者(900)成像。
对于所有成像,受试者(900)都处于自然姿势。对于第一成像,受试者(900)将他或她的头部保持在“直立”位置,在所述“直立”位置,与受试者(900)的头部相关联的法兰克福平面(PF)基本上是水平的。
在步骤420并且参照图7,基于所采集的图像来生成戴着眼镜(800)的受试者(900)的面部的至少一部分的3D模型。该3D模型是由可操作地连接到图像采集装置(110)的计算机生成的。
根据第一成像生成戴着眼镜(800)的受试者(900)的面部的至少一部分的第一3D模型。
可以任选地根据第二成像(如果采集的话)生成戴着眼镜(800)的受试者(900)的面部的至少一部分的第二3D模型。
如果图像采集装置(110)采用3D扫描仪的形式,则将根据由3D扫描仪生成的点云来生成3D模型。
如果图像采集装置(110)采用立体相机系统的形式,则将通过立体摄影测量术的过程来生成3D模型。
在步骤430,根据所生成的3D模型来确定一个或多个光学测量结果,包括受试者(900)的每只眼睛的MCOR、每只眼睛的OCR、每只眼睛的视轴、单眼PD、PH、BVD、OCRD、镜片倾斜度、和/或镜架表面弧度或面形弧度(face-form wrap)、以及头部角(head cape)。
首先,根据3D模型确定受试者(900)的每只眼睛的MCOR。MCOR是通过在每个3D模型中在受试者(900)的每只眼睛的巩膜上建立球体或椭球体模型并确定所述球体或椭球体的中心点来确定的。
在一些实施例中,可以在受试者(900)的每只眼睛的巩膜上建立多个球体或椭球体模型。然后,可以确定所建立的每个球体或椭球体模型的中心点,并且对中心点的位置求平均以确定与MCOR相对应的平均中心点。
通常,MCOR的确定可以重复多次,直到实现收敛。
然后,可以根据每只眼睛的MCOR以及视轴一起来推导出每只眼睛的OCR。OCR是通过定位或确定每只眼睛的视轴并确定第一3D模型中从MCOR到视轴的最短距离来确定的。
受试者(900)的每只眼睛的视轴是根据第一3D模型来确定的。视轴是通过将假想线沿着视线穿过瞳孔中心轴向地延伸到眼睛的后表面来确定的。
可以通过对3D模型的用户分析来确定每只眼睛的瞳孔中心。然后,用户可以在瞳孔上对圆进行建模,所述圆的中心点表示瞳孔中心。可替代地,可以自动检测每只眼睛的瞳孔并且在检测到的瞳孔上建立圆的模型。同样,圆的中心点表示瞳孔中心。
受试者(900)的每只眼睛的瞳孔轴是根据第一3D模型来确定的。通过确定每只眼睛的角膜顶点来定位瞳孔轴。然后,可以将瞳孔轴确定为穿过角膜顶点轴向地延伸到每只眼睛的后表面的假想水平线。
可以通过以下方式来确定每只眼睛的角膜顶点:在3D模型中在受试者的每只眼睛的巩膜和角膜上建立球体模型,然后确定从在巩膜上建立的球体模型的圆周向外延伸到在角膜上建立的球体模型的圆周的最大距离。沿着所述最大距离延伸的线与在角膜上建立的球体模型的圆周相交的点基本上对应于角膜的顶点。
由于OCR、视轴和瞳孔轴随着注视方向的不同而不同,因此还需要针对第二3D模型确定OCR、视轴和瞳孔轴。
对于第二3D模型,通过以下操作来确定视轴和/或瞳孔轴:(1)在第二3D模型上匹配(align)来自第一3D模型的受试者的每只眼睛;以及(2)根据从第一3D模型匹配的眼睛中的视轴和/或瞳孔轴的位置来推断出第二3D模型中的视轴和/或瞳孔轴的位置。然后,可以按照上述方式确定OCR。
在一个实施例中,通过在每个3D模型中测量从每只眼睛的瞳孔中心到延伸穿过眼镜的中梁(bridge)的竖直对称线的水平距离来确定受试者(900)的单眼PD。每只眼睛的瞳孔是从每个3D模型中自动检测的,并且利用在所检测出的瞳孔上拟合的圆进行建模。瞳孔中心与该圆的中心点相对应。
在另一个实施例中,受试者(900)的单眼PD是在一个实施例中通过在每个3D模型中测量从每只眼睛的视轴到延伸穿过眼镜的中梁的竖直对称线的水平距离来确定的。
根据第一3D模型确定的单眼瞳孔距离表示受试者的远用单眼PD。根据第二3D模型(如果生成的话)确定的单眼PD表示受试者的近用单眼PD。
在一个实施例中,受试者(900)的PH通过在每个3D模型中测量从每只眼睛的瞳孔中心到全框(full-rimmed)眼镜的眼镜最下面的内侧镜架边缘或者到无框眼镜或部分有框眼镜的眼镜最下面的外侧镜架边缘的竖直距离来确定。
在另一个实施例中,受试者(900)的PH通过在每个3D模型中测量从每只眼睛的视轴到全框眼镜的眼镜最下面的内侧镜架边缘或者到无框眼镜或部分有框眼镜的眼镜最下面的外侧镜架边缘的竖直距离来确定。
根据第一3D模型确定的PH表示受试者的远用PH。根据第二3D模型(如果生成的话)确定的瞳孔高度表示受试者的近用PH。
顶点距离或BVD根据所生成的第一3D模型通过测量每只眼睛的角膜顶点与同眼镜中的镜片的后顶点相对应的平面之间的距离来确定。
OCRD与从每只眼睛的OCR到眼镜的相应镜片的后顶点的距离相对应。OCRD通过在3D模型中测量从每只眼睛的OCR到与眼镜中的镜片的后顶点相对应的平面之间的最短距离来确定。
镜片倾斜度根据3D模型通过测量与眼镜的镜架前部相对应的平面与垂直于视轴延伸的竖直平面之间的角度来确定。
眼镜(800)的镜架表面弧度或面形弧度通过在第一3D模型中测量与眼镜的镜架前部的左右镜架镜框中的每一个相对应的平面与垂直于视轴延伸的竖直平面之间的角度来确定。
头部角根据第一3D模型通过以下方式确定:当受试者(900)以使得与受试者的头部相关联的法兰克福平面(PF)基本上是水平的配置站立或坐着时,测量受试者(900)的头部相对于受试者(900)的视线或注视方向的头部转动或头部取向的水平角度。
在一些实施例中,方法(400)可以进一步包括表征眼镜(800)的左右镜架镜框的镜片凹槽或v形凹槽的轮廓形状。眼镜(800)的左右镜架镜框的镜片凹槽或v形凹槽的轮廓形状可以由第一3D模型或第二3D模型(如果生成的话)来表征。有利地,准确地表征眼镜(800)的左右镜架镜框的镜片凹槽或v形凹槽的轮廓形状通过允许对镜片磨边以互补地适配眼镜(800)的相应镜片凹槽或v形凹槽而有助于处方镜片的磨边和适配。
参照图8,在受试者(900)的与眼镜(800;未示出)的v形槽(820)相关的一部分的3D模型上示出了上述单眼PD(1010)、PH(1020)、OCRD(1030)、OCR(1040)和MCOR(1050)。该图还示出了受试者的近视轴(910)和远视轴(920)。
现在参照图1至图3、图7和图8来详细描述使用光学测量系统(100)的另一种方法(500)。
与方法(400)一样,取决于眼镜(800)的类型,方法(500)可以包括移除待适配的眼镜(800)中的任何镜片插入物的初始步骤。对于无框和/或部分有框眼镜,镜片插入物直到稍后才被移除。
方法(500)任选地包括将造影剂施加到眼镜(800)上以增强眼镜(800)的成像的另一初始步骤。
方法(500)任选地包括将一个或多个机器可识别标签(610)粘附到眼镜(800)的镜架前部的另一初始步骤。机器可识别标签(610)各自采用粘性标签的形式,所述粘性标签具有粘合剂层和存在标记的相反的外层。在优选的实施例中,第一机器可识别标签和第二机器可识别标签分别粘附到眼镜(800;如果存在的话)的左右镜架镜框的下部外部部分,第三机器可识别标签610粘附到眼镜(800)的中梁。
在步骤510,使用采用手持式3D扫描仪形式的图像采集装置来对眼镜(800)的包括至少眼镜(800)的镜架前部的至少一部分成像。所述成像包括采集眼镜(800)的所述至少一部分的多幅图像。
所述成像包括对眼镜(800)的左右镜架镜框(包括镜片凹槽或v形凹槽,如果存在的话)成像。
方法(500)任选地进一步包括在进一步的成像之前利用跟踪器来跟踪眼镜(800)的左右镜架镜框的另一个初始步骤。
在步骤520,方法(500)任选地最初包括:如果眼镜(800)是无框眼镜或部分有框眼镜(800),则移除眼镜(800)的镜片插入物。
图像采集装置(110)用于对戴着眼镜(800)的受试者(900)的面部的至少一部分成像。成像包括在戴着眼镜(800)的受试者(900)的面部的至少一部分的至少90°的水平范围内采集戴着眼镜(800)的受试者(900)的面部的至少一部分的多幅图像。这通过使用支架(120)使图像采集装置(110)至少部分地围绕、环绕或横过戴着眼镜(800)的受试者(900)的面部的至少一部分在横向方向上移动来实现。
成像包括在戴着眼镜(800)的受试者(900)聚焦于离受试者(900)6m的第一物体上的同时对受试者(900)的面部的至少一部分进行第一成像。沿视线对受试者(900)成像。
成像可以任选地包括在戴着眼镜(800)的受试者(900)聚焦于离受试者(900)400mm的第二物体上的同时对受试者(900)的面部的至少一部分进行第二成像。在受试者向下看第二物体的同时对受试者(900)成像。
对于所有成像,受试者(900)都处于自然姿势。对于第一成像,受试者(900)将他或她的头部保持在“直立”位置,在所述“直立”位置,与受试者(900)的头部相关联的法兰克福平面(PF)基本上是水平的。
在步骤530并且参照图7,基于所采集的图像来生成眼镜(800)的至少一部分和戴着眼镜(800)的受试者(900)的面部的至少一部分的3D模型。3D模型由可操作地连接到图像采集装置(110)和手持式3D扫描仪的计算机生成。
根据第一成像生成戴着眼镜(800)的受试者(900)的面部的至少一部分的第一3D模型。
可以任选地根据第二成像(如果采集的话)生成戴着眼镜(800)的受试者(900)的面部的至少一部分的第二3D模型。
如果图像采集装置(110)采用3D扫描仪的形式,则将根据由3D扫描仪生成的点云来生成3D模型。
如果图像采集装置(110)采用立体相机系统的形式,则将通过立体摄影测量术的过程来生成3D模型。
在步骤540,眼镜的至少一部分的3D模型与第一3D模型和第二3D模型(如果生成的话)中的每一个匹配,以分别获得已匹配的第一3D模型和已匹配的第二3D模型。在一些实施例中,由跟踪器收集的数据可以合并到已匹配的第一3D模型和已匹配的第二3D模型中。
匹配3D模型以使得眼镜的至少一部分的3D模型基本上重叠在第一和第二3D模型中的每一个中的眼镜上。可以在计算机上自动地来执行匹配,或通过用户操纵3D模型来执行匹配。执行匹配,直到实现良好适配为止,所述良好适配通过测量眼镜的至少一部分的3D模型和第一或第二3D模型中的沿着眼镜的公共点之间的均方根偏差(RMSD)来确定。
可以基于机器可识别标签(610)(如果存在的话)自动执行匹配。计算机可以使眼镜的至少一部分的3D模型中的每个机器可识别标签(610)与第一3D模型和第二3D模型(如果生成的话)中的每一个中的相应机器可识别标签(610)匹配,以实现良好适配。
在步骤550,根据已匹配的第一3D模型和/或已匹配的第二3D模型来确定一个或多个光学测量结果,包括受试者(900)的每只眼睛的MCOR、每只眼睛的OCR、每只眼睛的视轴和/或瞳孔轴、单眼PD、PH、BVD、OCRD、镜片倾斜度、镜架表面弧度或面形弧度、和/或头部角。
首先,根据已匹配的第一和第二3D模型确定受试者(900)的每只眼睛的MCOR。MCOR通过在每个3D模型中在受试者(900)的每只眼睛的巩膜上建立球体或椭球体模型并确定所述球体或椭球体的中心点来确定。
在一些实施例中,可以在受试者(900)的每只眼睛的巩膜上建立多个球体或椭球体模型。然后,可以确定所建立的每个球体或椭球体模型的中心点,并且对中心点的位置求平均以确定与MCOR相对应的平均中心点。
通常,MCOR的确定可以重复多次,直到实现收敛。
然后,可以根据每只眼睛的MCOR以及视轴一起来推导出每只眼睛的OCR。OCR通过定位或确定每只眼睛的视轴并在已匹配的第一3D模型中确定从MCOR到视轴的最短距离来确定。
受试者(900)的每只眼睛的视轴根据已匹配的第一3D模型来确定。视轴通过将假想线沿着视线穿过瞳孔中心轴向地延伸到眼睛的后表面来确定。
可以通过对已匹配的3D模型进行用户分析来确定每只眼睛的瞳孔中心。然后,用户可以在瞳孔上建立圆的模型,所述圆的中心点表示瞳孔中心。可替代地,可以自动检测每只眼睛的瞳孔并且在检测到的瞳孔上建立圆的模型。同样,圆的中心点表示瞳孔中心。
受试者(900)的每只眼睛的瞳孔轴根据已匹配的第一3D模型来确定。通过确定每只眼睛的角膜顶点来定位瞳孔轴。然后,可以将瞳孔轴确定为穿过角膜顶点轴向地延伸到每只眼睛的后表面的假想水平线。
可以通过以下方式来确定每只眼睛的角膜顶点:在已匹配的第一3D模型中在受试者的每只眼睛的巩膜和角膜上建立球体模型,然后确定从在巩膜上建立的球体模型的圆周向外延伸到在角膜上建立的球体模型的圆周的最大距离。沿着所述最大距离延伸的线与在角膜上建立的球体模型的圆周相交的点基本上对应于角膜顶点。
同样,由于OCR、视轴和瞳孔轴随着注视方向的不同而不同,因此还需要针对已匹配的第二3D模型确定OCR、视轴和瞳孔轴。
对于已匹配的第二3D模型,视轴和/或瞳孔轴通过以下方式来确定:(1)在已匹配的第二3D模型上匹配来自已匹配的第一3D的受试者的每只眼睛;以及(2)根据已匹配的第一3D模型的已匹配眼睛中的视轴和/或瞳孔轴的位置来推断已匹配的第二3D模型中的视轴和/或瞳孔轴的位置。然后,可以按照上述方式确定OCR。
在一个实施例中,受试者(900)的单眼PD通过在每个3D模型中测量从每只眼睛的瞳孔中心到延伸穿过眼镜的中梁的竖直对称线的水平距离来确定。每只眼睛的瞳孔是从每个3D模型中自动检测的,并且利用在所检测的瞳孔上拟合的圆进行建模。瞳孔中心与该圆的中心点相对应。
在另一个实施例中,受试者(900)的单眼PD通过在每个3D模型中测量从每只眼睛的视轴到延伸穿过眼镜的中梁的竖直对称线的水平距离来确定。
根据已匹配的第一3D模型确定的单眼PD表示受试者的远用单眼PD。根据已匹配的第二3D模型(如果生成的话)确定的单眼PD表示受试者的近用单眼PD。
在一个实施例中,受试者(900)的PH通过在每个3D模型中测量从每只眼睛的瞳孔中心到全框眼镜的眼镜最下面的内侧镜架边缘或者到无框眼镜或部分有框眼镜的眼镜最下面的外侧镜架边缘的竖直距离来确定。
在另一个实施例中,受试者(900)的PH通过在每个3D模型中测量从每只眼睛的视轴到全框眼镜的眼镜最下面的内侧镜架边缘或者到无框眼镜或部分有框眼镜的眼镜最下面的外侧镜架边缘的竖直距离来确定。
根据已匹配的第一3D模型确定的PH表示受试者的远用PH。根据已匹配的第二3D模型(如果生成的话)确定的PH表示受试者的近用PH。
顶点距离或BVD根据所生成的已匹配的第一3D模型通过测量每只眼睛的角膜顶点和与眼镜中的镜片的后顶点相对应的平面之间的距离来确定。
OCRD与从每只眼睛的OCR到眼镜的相应镜片的后顶点的距离相对应。OCRD根据已匹配的第一3D模型通过在3D模型中测量从每只眼睛的OCR到与眼镜中的镜片的后顶点相对应的平面的最短距离来确定。
镜片倾斜度根据已匹配的第一3D模型通过测量与眼镜的镜架前部相对应的平面和垂直于视轴延伸的竖直平面之间的角度来确定。
眼镜(800)的镜架表面弧度或面形弧度通过在已匹配的第一3D模型中测量与眼镜的镜架前部的左右镜架镜框中的每一个相对应的平面与垂直于视轴延伸的竖直平面之间的角度来确定。
头部角根据已匹配的第一3D模型通过以下方式来确定:当受试者(900)以使得与受试者的头部相关联的法兰克福平面(PF)基本上是水平的配置站立或坐着时,测量受试者(900)相对于受试者(900)的视线或注视方向的头部头部转动或取向的水平角度。
方法(400)可以任选地进一步包括表征眼镜(800)的左右镜架镜框的镜片凹槽或v形凹槽的轮廓形状。眼镜(800)的左右镜架镜框的镜片凹槽或v形凹槽的轮廓形状可以由眼镜的至少一部分的3D模型来最佳地表征。
有利地,准确地表征眼镜(800)的左右镜架镜框的镜片凹槽或v形凹槽的轮廓形状通过允许对镜片磨边以互补地适配眼镜(800)的相应镜片凹槽或v形凹槽而有助于处方镜片的磨边和适配。
参照图8,在受试者(900)的与眼镜(800;未示出)的v形槽(820)相关的一部分的3D模型上示出了上述单眼PD(1010)、PH(1020)、OCRD(1030)、OCR(1040)和MCOR(1050)。该图还示出了受试者的近视轴(910)和远视轴(920)。
现在参照图1至图3来详细描述使用光学测量系统(100)的另一种方法(600)。
方法(600)任选地包括将水溶性造影剂(contrasting agent)施加至受试者(900)的眼睛以增强对任何眼病和/或眼部疾病的成像。
在步骤610,使用图像采集装置(110)对受试者(900)的至少眼睛区域成像。所述成像包括在至少90°的水平范围内采集受试者(900)的至少眼睛区域的多幅图像。这通过使用支架(120)使图像采集装置(110)至少部分地围绕、环绕或横过受试者(900)在横向方向上移动来实现。
对于所有成像,受试者(900)都将处于自然姿势,其中,他或她的头部处于“直立”位置,在所述“直立”位置,与受试者(900)的头部相关联的法兰克福平面(PF)基本上是水平的。
在步骤620,基于所采集的图像生成受试者(900)的至少眼睛区域的3D模型。3D模型由可操作地连接到图像采集装置(110)的计算机生成。
如果图像采集装置(110)采用3D扫描仪或近IR干涉仪的形式,则将根据由3D扫描仪或近IR干涉仪生成的点云来生成3D模型。
如果图像采集装置(110)采用立体相机系统的形式,则将通过立体摄影测量术的过程来生成3D模型。
在步骤630,可以通过目视检查所生成的3D模型来诊断和/或监测一种或多种眼病和/或眼部疾病。
在本说明书和权利要求(如果有的话)中,单词“包括(comprising)”及其包括“包括(comprises)”和“包括(comprise)”的衍生词包括所阐述的整体中的每一个,但不排除包括一个或多个其他整体。
在整个本说明书中对“一个实施例”或“实施例”的引用意味着结合该实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,在整个说明书中,短语“在一个实施例中”或“在实施例中”在各个地方的出现不一定都指的是同一实施例。另外,在一个或多个组合中,可以以任何适当的方式来组合特定特征、结构或特性。
根据法规,已经用基本特定于结构和方法的语言描述了本发明。应当理解,本发明不限于所示或所描述的具体特征,因为本文所描述的手段包括实施本发明的优选形式。因此,请求保护本发明的由本领域技术人员适当地解释的在所附权利要求(如果有的话)的适当范围内的任何形式或修改。

Claims (35)

1.一种用于为受试者适配眼镜的光学测量系统,所述光学测量系统包括:
至少一个图像采集装置,所述至少一个图像采集装置用于采集所述眼镜的至少一部分的至少一幅图像以及戴着所述眼镜的受试者的面部的至少一部分的至少一幅图像;
至少一个可移动支架,所述至少一个可移动支架用于将所述图像采集装置安装在所述受试者前方并使所述图像采集装置相对于所述受试者移动;以及
至少一个处理器,所述至少一个处理器操作地连接到所述至少一个图像采集装置,所述处理器被配置用于:生成所述眼镜的所述至少一部分的3D模型和戴着所述眼镜的受试者的面部的所述至少一部分的3D模型;匹配所生成的3D模型;以及基于经过匹配的所述3D模型确定一个或多个光学测量结果,所述一个或多个光学测量结果包括所述受试者的每只眼睛的视轴、MCOR和OCR中的至少一个。
2.一种用于为受试者适配眼镜的光学测量系统,所述光学测量系统包括:
至少一个机器可识别标签,所述至少一个机器可识别标签与所述眼镜相联;
至少一个图像采集装置,所述至少一个图像采集装置用于采集所述眼镜的至少一部分的至少一幅图像以及戴着所述眼镜的受试者的面部的至少一部分的至少一幅图像;
至少一个可移动支架,所述至少一个可移动支架用于将所述图像采集装置安装在所述受试者前方并使所述图像采集装置相对于所述受试者移动;以及
至少一个处理器,所述至少一个处理器操作地连接到所述图像采集装置,所述处理器被配置用于:生成所述眼镜的所述至少一部分的3D模型和戴着所述眼镜的受试者的面部的所述至少一部分的3D模型;基于所述至少一个机器可识别标签来匹配所生成的3D模型;以及基于经过匹配的所述3D模型确定一个或多个光学测量结果,所述一个或多个光学测量结果包括所述受试者的每只眼睛的视轴、MCOR和OCR中的至少一个。
3.如权利要求1或权利要求2所述的光学测量系统,其中,所述至少一个图像采集装置包括近红外IR干涉仪,用于对所述受试者的面部的至少一部分进行近IR光谱分析。
4.如权利要求3所述的光学测量系统,其中,所述至少一个图像采集装置还包括至少一个传感器和至少一个发射器,所述至少一个发射器能够发射从由光、红外线、近红外线、以及X射线组成的组中选择的辐射或能够发射超声波形式的声波。
5.如权利要求4所述的光学测量系统,其中,所述至少一个发射器在使用时发射辐射或声波,所述辐射或声波被从戴着所述眼镜的受试者的面部的所述至少一部分和/或所述眼镜的所述至少一部分反射,以便生成所述眼镜的所述至少一部分或所述面部的所述至少一部分的3D模型。
6.如权利要求2所述的光学测量系统,其中,所述光学测量系统包括至少三个机器可识别标签,每个所述机器可识别标签均采用粘性标签的形式,所述粘性标签被配置成以三角形排列的方式粘附到所述眼镜的镜架前部的一部分。
7.如权利要求1或2所述的光学测量系统,其中,所述至少一个可移动支架被配置用于使所述至少一个图像采集装置移动,以在至少90°的范围内对所述受试者的面部的所述至少一部分进行成像。
8.如权利要求1或2所述的光学测量系统,所述光学测量系统还包括沿着支撑表面延伸的导轨,用于使所述至少一个支架和所述至少一个图像采集装置沿着所述导轨相对于所述受试者移动。
9.如权利要求8所述的光学测量系统,其中,所述导轨在所述受试者前方至少在横向方向上延伸。
10.如权利要求8所述的光学测量系统,其中,所述导轨至少部分地围绕所述受试者的前部以曲线或弧线延伸,使得所述曲线或弧线的曲率中心限定在所述受试者处或所述受试者附近。
11.如权利要求1或2所述的光学测量系统,其中,所述至少一个处理器是从由计算机、平板电脑、智能电话、智能手表或PDA组成的组中选择的外部处理装置。
12.如权利要求11所述的光学测量系统,所述光学测量系统还包括无线通信模块,所述无线通信模块用于将所述至少一个图像采集装置无线地连接至所述外部处理装置。
13.一种为受试者适配眼镜的方法,所述方法包括:
通过至少一个可移动的图像采集装置,对所述眼镜的至少一部分和戴着所述眼镜的受试者的面部的至少一部分成像,以生成被成像的所述眼镜的所述至少一部分的3D模型和被成像的所述面部的所述至少一部分的3D模型;
匹配所生成的3D模型;以及
根据经过匹配的所述3D模型确定受试者的一个或多个光学测量结果,所述一个或多个光学测量结果包括所述受试者的每只眼睛的视轴、MCOR和OCR中的至少一个。
14.一种为受试者适配眼镜的方法,所述方法包括:
将至少一个机器可识别标签与眼镜相联;
通过至少一个可移动的图像采集装置,对所述眼镜的至少一部分和戴着所述眼镜的受试者的面部的至少一部分成像,以生成被成像的所述眼镜的所述至少一部分的3D模型和被成像的所述面部的所述至少一部分的3D模型;
基于所述至少一个机器可识别标签匹配所生成的3D模型;以及
根据经过匹配的所述3D模型确定所述受试者的一个或多个光学测量结果,所述一个或多个光学测量结果包括所述受试者的每只眼睛的视轴、MCOR和OCR中的至少一个。
15.如权利要求13或权利要求14所述的方法,其中,对戴着所述眼镜的受试者的面部的至少一部分成像包括:在使所述图像采集装置至少部分地围绕、环绕或横过所述受试者的面部的所述至少一部分移动的同时对所述受试者成像。
16.如权利要求15所述的方法,其中,所述成像还包括:在戴着所述眼镜的受试者聚焦于距所述受试者不同距离或长度的物体上的同时对所述受试者的面部的所述至少一部分成像。
17.如权利要求13或权利要求14所述的方法,其中,利用手持式3D扫描仪来执行对所述眼镜的至少一部分的成像。
18.如权利要求13或14所述的方法,其中,每只眼睛的MCOR通过在所生成的3D模型中在所述受试者的眼睛的巩膜上建立球体或椭球体模型并确定每个球体或椭球体的中心点来确定。
19.如权利要求13或14所述的方法,其中,每只眼睛的MCOR通过在平均且整合的3D模型中在所述受试者的每只眼睛的巩膜上建立多于一个球体或椭球体模型来确定,然后确定每个所建立的球体或椭球体模型的中心点并且对所述中心点的位置求平均以确定与MCOR相对应的平均中心点,其中,所述平均且整合的3D模型通过相对于彼此匹配并且在与以长焦距聚焦的受试者的3D模型整合之前求平均的巩膜的3D模型获得。
20.如权利要求13或14所述的方法,其中,所述视轴根据以长焦距聚焦的所述受试者的3D模型、通过将假想线沿着视线穿过所述眼睛的瞳孔中心而轴向地延伸至所述眼睛的后表面来确定。
21.如权利要求13或14所述的方法,其中,针对每只眼睛通过定位或确定每只眼睛的视轴、然后确定从MCOR到所述视轴的最短距离来确定OCR,从而确定所述OCR。
22.如权利要求13或14所述的方法,其中,所述确定还包括测量所述受试者的每只眼睛的单眼瞳孔距离PD。
23.如权利要求22所述的方法,其中,每只眼睛的所述瞳孔距离通过在所生成的3D模型中测量从每只眼睛的视轴到延伸穿过所述眼镜的中梁的竖直对称线的水平距离来确定。
24.如权利要求13或14所述的方法,其中,所述确定还包括测量所述受试者的每只眼睛的瞳孔高度PH。
25.如权利要求24所述的方法,其中,对于全框眼镜,每只眼睛的所述瞳孔高度通过在所生成的3D模型中测量从每只眼睛的瞳孔中心到所述眼镜的最下面的内侧镜架边缘的竖直距离来确定,对于无框眼镜或部分有框眼镜,每只眼睛的瞳孔高度通过在所生成的3D模型中测量从每只眼睛的瞳孔中心到所述眼镜的最下面的外侧镜架边缘的竖直距离来确定。
26.如权利要求13或14所述的方法,其中,所述确定还包括测量所述受试者的每只眼睛的后顶点距离BVD。
27.如权利要求26所述的方法,其中,每只眼睛的所述后顶点距离通过在所生成的3D模型中测量每只眼睛的角膜顶点和与所述眼镜的镜片的后顶点相对应的平面之间的最短距离来确定。
28.如权利要求13或14所述的方法,其中,所述确定还包括测量所述受试者的每只眼睛的光学转动中心距离OCRD。
29.如权利要求28所述的方法,其中,每只眼睛的所述光学转动中心距离通过在所生成的3D模型中测量从每只眼睛的OCR到与所述眼镜的镜片的后顶点相对应的平面的最短距离来确定。
30.如权利要求13或14所述的方法,其中,所述确定还包括测量所述受试者正戴着的所述眼镜的镜片倾斜度。
31.如权利要求30所述的方法,其中,所述镜片倾斜度通过在所生成的3D模型中测量与所述眼镜的镜架前部相对应的平面和垂直于所述视轴延伸的竖直平面之间的角度来确定。
32.如权利要求13或14所述的方法,其中,所述确定还包括测量所述受试者正戴着的所述眼镜的镜架表面弧度或面形弧度。
33.如权利要求32所述的方法,其中,所述眼镜的镜架表面弧度或面形弧度通过在所生成的3D模型中测量与所述眼镜的左镜架镜框和右镜架镜框中的每一个相对应的平面和垂直于所述视轴延伸的竖直平面之间的角度来确定。
34.如权利要求13或14所述的方法,其中,所述确定还包括测量所述受试者的头部角。
35.如权利要求34所述的方法,其中,所述头部角通过以下方式确定:当所述受试者以使得与所述受试者的头部相关联的法兰克福平面PF基本上是水平的配置站立或坐着时,在所生成的3D模型中测量所述受试者的面部的所述至少一部分与所述受试者的视线之间的头部旋转的水平角度。
CN201780033609.0A 2016-06-01 2017-05-26 光学测量和扫描系统及使用方法 Active CN109313707B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
AU2016902112A AU2016902112A0 (en) 2016-06-01 An Optical Measuring And Scanning System And Methods Of Use
AU2016902112 2016-06-01
PCT/AU2017/050493 WO2017205903A1 (en) 2016-06-01 2017-05-26 An optical measuring and scanning system and methods of use

Publications (2)

Publication Number Publication Date
CN109313707A CN109313707A (zh) 2019-02-05
CN109313707B true CN109313707B (zh) 2023-09-05

Family

ID=60479566

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780033609.0A Active CN109313707B (zh) 2016-06-01 2017-05-26 光学测量和扫描系统及使用方法

Country Status (8)

Country Link
US (1) US10997794B2 (zh)
EP (1) EP3465545A4 (zh)
JP (1) JP7021783B2 (zh)
CN (1) CN109313707B (zh)
AU (3) AU2017274570B2 (zh)
BR (1) BR112018074778A2 (zh)
CA (1) CA3024874A1 (zh)
WO (1) WO2017205903A1 (zh)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019121126A1 (en) * 2017-12-19 2019-06-27 Koninklijke Philips N.V. Determining facial metrics of a patient and identifying a custom mask for the patient therefrom
US10685457B2 (en) 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user
US11036043B2 (en) * 2019-01-17 2021-06-15 Advanced New Technologies Co., Ltd. Identity authentication using lens features
EP3730918A1 (de) * 2019-04-23 2020-10-28 Carl Zeiss Vision International GmbH Verfahren und vorrichtung zum vermessen der lokalen brechkraft und/oder der brechkraftverteilung eines brillenglases
WO2020245352A1 (en) * 2019-06-07 2020-12-10 Koninklijke Philips N.V. Patient sleep therapy mask selection tool
EP3999902A1 (en) * 2019-07-18 2022-05-25 Essilor International System and method for determining at least one feature of at least one lens mounted in a spectacle frame
CN110569829B (zh) * 2019-07-30 2023-06-13 南阳师范学院 一种配眼镜参数自动检测识别匹配系统
US20210173230A1 (en) * 2019-10-30 2021-06-10 LuxMea Studio, LLC Bespoke eyewear and system and method for manufacturing bespoke eyewear
CN110838174A (zh) * 2019-11-18 2020-02-25 四川长虹电器股份有限公司 一种面向透明物体的3d扫描方法
US20210185295A1 (en) * 2019-12-17 2021-06-17 Koninklijke Philips N.V. Device and method for assisting in 3d scanning a subject
WO2021122629A1 (en) * 2019-12-19 2021-06-24 Essilor International Method and system for determining a fitted position of an ophthalmic lens with respect to a wearer referential and method for determining a lens design of an ophthalmic lens
WO2021122826A1 (en) * 2019-12-19 2021-06-24 Essilor International Method for determining a value of at least one geometrico-morphological parameter of a subject wearing an eyewear
EP3882810B1 (en) * 2020-03-16 2023-06-07 Carl Zeiss Vision International GmbH Computer implemented methods and devices for determining dimensions and distances of head features
CN111598867B (zh) * 2020-05-14 2021-03-09 国家卫生健康委科学技术研究所 用于检测特定面部综合征的方法、装置及计算机可读存储介质
EP3944004A1 (de) 2020-07-23 2022-01-26 Carl Zeiss Vision International GmbH Computerimplementiertes verfahren zur erzeugung von daten zur herstellung mindestens eines brillenglases und verfahren zur herstellung einer brille
CN112731357A (zh) * 2020-12-30 2021-04-30 清华大学 一种激光点云里程计定位误差的实时修正方法和系统
FR3118821B1 (fr) * 2021-01-13 2024-03-01 Fittingbox Procédé de détection et de suivi dans un flux vidéo d’un visage d’un individu portant une paire de lunettes
US20230252655A1 (en) * 2022-02-09 2023-08-10 Google Llc Validation of modeling and simulation of wearable device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008009355A1 (de) * 2006-07-19 2008-01-24 Rodenstock Gmbh Vorrichtung und verfahren zum bestimmen einer trageposition einer brille, computerprogrammvorrichtung
CN102215738A (zh) * 2008-09-16 2011-10-12 卡尔蔡司外科器械有限责任公司 眼外科测量系统
CN102901617A (zh) * 2011-07-28 2013-01-30 致茂电子股份有限公司 多点式光学测量装置以及其测量方法
CN103429143A (zh) * 2011-03-18 2013-12-04 Smi创新传感技术有限公司 光学测量装置和系统
CN104161496A (zh) * 2009-02-26 2014-11-26 卡尔蔡斯视觉股份有限公司 用于确定眼睛支点位置的方法和设备
CN105451012A (zh) * 2015-11-18 2016-03-30 湖南拓视觉信息技术有限公司 三维成像系统和三维成像方法

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3166179B2 (ja) * 1991-01-22 2001-05-14 キヤノン株式会社 視線検出装置
JPH08504556A (ja) * 1992-12-10 1996-05-14 ダッソ,ジョン・エム 2次元像に3次元的効果を発生させる方法及び装置
US6523955B1 (en) * 1997-07-07 2003-02-25 Heinrich A. Eberl Method for improving optic perceptive faculty by modifying the retinal image
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
JP3650300B2 (ja) * 1999-12-13 2005-05-18 Hoya株式会社 瞳孔位置測定具
WO2001088654A2 (en) * 2000-05-18 2001-11-22 Visionix Ltd. Spectacles fitting system and fitting methods
JP4055858B2 (ja) * 2000-07-28 2008-03-05 独立行政法人産業技術総合研究所 視線検出システム
US7016824B2 (en) * 2001-02-06 2006-03-21 Geometrix, Inc. Interactive try-on platform for eyeglasses
US7434931B2 (en) * 2001-10-25 2008-10-14 Ophthonix Custom eyeglass manufacturing method
US7253766B2 (en) * 2004-09-24 2007-08-07 Battelle Memorial Institute Three-dimensional surface/contour processing based on electromagnetic radiation interrogation
DE102005003699B4 (de) * 2005-01-26 2018-07-05 Rodenstock Gmbh Vorrichtung und Verfahren zum Bestimmen von optischen Parametern eines Benutzers; Computerprogrammprodukt
FR2914173B1 (fr) * 2007-03-30 2010-02-26 Essilor Int Procede de mesure de la position suivant une direction horizontale du plan sagittal d'un point remarquable d'un oeil d'un sujet
FR2957511B1 (fr) * 2010-03-19 2021-09-24 Fittingbox Procede et dispositif de mesure de distance inter-pupillaire
FR2980681A3 (fr) * 2011-09-29 2013-04-05 Fittingbox Procede de determination des mesures oculaires et optiques d'interet pour la fabrication et le montage de verre de lunettes correcteurs, a l'aide d'une camera en contexte non controle
JP2013142597A (ja) * 2012-01-11 2013-07-22 Nikon Corp 眼鏡フィッティングパラメータ計測システム及び眼鏡フィティングパラメータ計測方法
US9311746B2 (en) * 2012-05-23 2016-04-12 Glasses.Com Inc. Systems and methods for generating a 3-D model of a virtual try-on product
US9286715B2 (en) * 2012-05-23 2016-03-15 Glasses.Com Inc. Systems and methods for adjusting a virtual try-on
JP6014931B2 (ja) * 2012-09-06 2016-10-26 公立大学法人広島市立大学 視線計測方法
FR2995411B1 (fr) * 2012-09-07 2014-09-19 Tipheret Procede et dispositif pour preparer une monture de lunettes
US9230062B2 (en) * 2012-11-06 2016-01-05 20/20 Vision Center, Llc Systems and methods for enabling customers to obtain vision and eye health examinations
EP2772795A1 (en) * 2013-02-28 2014-09-03 Shamir Optical Industry Ltd Method, system and device for improving optical measurement of ophthalmic spectacles
AU2014248404B2 (en) * 2013-04-03 2018-08-16 Alcon Inc. Automated intraocular lens injector device
EP2995241B1 (en) * 2013-05-08 2021-04-14 National University Corporation Shizuoka University Pupil detection light source device, pupil detection device and pupil detection method
CN108537628B (zh) * 2013-08-22 2022-02-01 贝斯普客公司 用于创造定制产品的方法和系统
RU2016138461A (ru) * 2014-03-13 2018-04-18 Фёрст Сенс Медикл, Ллк Прибор и способ диагностики ракового заболевания
US9645412B2 (en) * 2014-11-05 2017-05-09 Johnson & Johnson Vision Care Inc. Customized lens device and method
JP6555707B2 (ja) * 2014-11-12 2019-08-07 国立大学法人静岡大学 瞳孔検出装置、瞳孔検出方法及び瞳孔検出プログラム
US9649026B2 (en) * 2014-11-21 2017-05-16 Disney Enterprises, Inc. Coupled reconstruction of refractive and opaque surfaces
US10330958B2 (en) * 2015-04-10 2019-06-25 Bespoke, Inc. Systems and methods for creating eyewear with multi-focal lenses
DE102016106121A1 (de) * 2016-04-04 2017-10-05 Carl Zeiss Ag Verfahren und Vorrichtung zum Bestimmen von Parametern zur Brillenanpassung
FR3069687B1 (fr) * 2017-07-25 2021-08-06 Fittingbox Procede de determination d'au moins un parametre associe a un dispositif ophtalmique
US10685457B2 (en) * 2018-11-15 2020-06-16 Vision Service Plan Systems and methods for visualizing eyewear on a user
US11181978B2 (en) * 2019-06-17 2021-11-23 Hemy8 Sa System and method for gaze estimation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008009355A1 (de) * 2006-07-19 2008-01-24 Rodenstock Gmbh Vorrichtung und verfahren zum bestimmen einer trageposition einer brille, computerprogrammvorrichtung
CN102215738A (zh) * 2008-09-16 2011-10-12 卡尔蔡司外科器械有限责任公司 眼外科测量系统
CN104161496A (zh) * 2009-02-26 2014-11-26 卡尔蔡斯视觉股份有限公司 用于确定眼睛支点位置的方法和设备
CN103429143A (zh) * 2011-03-18 2013-12-04 Smi创新传感技术有限公司 光学测量装置和系统
CN102901617A (zh) * 2011-07-28 2013-01-30 致茂电子股份有限公司 多点式光学测量装置以及其测量方法
CN105451012A (zh) * 2015-11-18 2016-03-30 湖南拓视觉信息技术有限公司 三维成像系统和三维成像方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
EssilorVisioffice.《visioffice and varilux s series measurement explanations》.2012,2-6. *

Also Published As

Publication number Publication date
EP3465545A1 (en) 2019-04-10
US10997794B2 (en) 2021-05-04
BR112018074778A2 (pt) 2019-03-06
AU2022200703A1 (en) 2022-02-24
AU2017274570B2 (en) 2022-02-03
CA3024874A1 (en) 2017-12-07
AU2023100035A4 (en) 2023-05-25
AU2023100035B4 (en) 2023-06-22
US20190108687A1 (en) 2019-04-11
JP2019518545A (ja) 2019-07-04
AU2022200703B2 (en) 2023-09-21
AU2017274570A1 (en) 2018-12-20
EP3465545A4 (en) 2020-01-29
WO2017205903A1 (en) 2017-12-07
JP7021783B2 (ja) 2022-02-17
CN109313707A (zh) 2019-02-05

Similar Documents

Publication Publication Date Title
CN109313707B (zh) 光学测量和扫描系统及使用方法
CN104412149B (zh) 用于测量个人的客观眼屈光以及至少一个几何形态参数的装置和方法
JP6612831B2 (ja) 眼鏡を着用する人物の行動特性、姿勢特性、又は幾何形態特性を判定する方法
US10129450B2 (en) System and method for ophthalmological imaging adapted to a mobile processing device
US9664929B2 (en) Method for determining at least one head posture characteristic of a person wearing spectacles
CN105828702A (zh) 用于校准头戴式眼睛跟踪装置的方法
KR102053389B1 (ko) 복수의 시선 방향에 따른 피검자의 적어도 하나의 객관적인 시각굴절 매개변수를 결정하기 위한 장치와 방법
US20150015848A1 (en) Method for estimating a distance separating a pair of glasses and an eye of the wearer of the pair of glasses
CN111035356B (zh) 自动对准和调焦的眼底或眼前节成像系统及方法
CN112835213A (zh) 用于确定居中参数以便调整眼镜的装置
CN114391805A (zh) 一种实时眼球生物数据测量装置及测量方法
US20210231974A1 (en) Optical measuring and scanning system and methods of use
CN217772315U (zh) 一种实时眼球生物数据测量装置
US11583179B2 (en) Lens fitting metrology with optical coherence tomography
KR20200141230A (ko) 스테레오 비전을 이용한 안경 제작용 인체 데이터 측정장치
CN111352238A (zh) 一种色盲矫正方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant