CN113840566A - 确定被测眼睛的折射误差的一个或多个参数的装置、系统和方法 - Google Patents

确定被测眼睛的折射误差的一个或多个参数的装置、系统和方法 Download PDF

Info

Publication number
CN113840566A
CN113840566A CN202080020563.0A CN202080020563A CN113840566A CN 113840566 A CN113840566 A CN 113840566A CN 202080020563 A CN202080020563 A CN 202080020563A CN 113840566 A CN113840566 A CN 113840566A
Authority
CN
China
Prior art keywords
depth
eye
information
measured eye
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080020563.0A
Other languages
English (en)
Inventor
欧弗·莱蒙
亚历山大·兹洛特尼克
耶尔·齐特恩普隆
奥尔纳·布雷格曼·阿米泰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
6 Over 6 Vision Ltd
Original Assignee
6 Over 6 Vision Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 6 Over 6 Vision Ltd filed Critical 6 Over 6 Vision Ltd
Publication of CN113840566A publication Critical patent/CN113840566A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/028Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters
    • A61B3/036Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing visual acuity; for determination of refraction, e.g. phoropters for testing astigmatism
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/02Subjective types, i.e. testing apparatus requiring the active assistance of the patient
    • A61B3/09Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing accommodation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Electromagnetism (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

一些说明性实施方式包括确定被测眼睛的折射误差的一个或多个参数的装置、系统和/或方法。例如,计算设备可以被配置为处理深度映射信息以识别被测眼睛的深度信息;并基于被测眼睛的深度信息确定的被测眼睛的折射误差的一个或多个参数。

Description

确定被测眼睛的折射误差的一个或多个参数的装置、系统和 方法
交叉引用
本申请要求于2019年1月24日提交的题为“APPARATUS,SYSTEM AND METHOD OFDETERMINING ONE OR MORE PARAMETERS OF A REFRACTIVE ERROR OF A TESTED EYE(确定被测眼睛的折射误差的一个或多个参数的装置、系统和方法)”的第62/796,240号美国临时专利申请的权益和优先权,该美国临时专利申请全部内容在此以引用方式并入本文。
技术领域
文中描述的实施方式一般涉及确定被测眼睛的折射误差的一个或多个参数。
背景技术
折射误差(refractive error)(也称为“折光误差(refraction error)”)或屈光不正是例如由于眼睛的形状导致的眼睛的将光准确地聚焦到视网膜上的问题。
最常见的折射误差的类型是近视、远视和散光。折射误差可以通过眼镜、隐形眼镜或手术校正。
用于患者的眼睛检查可以由眼镜处方师(例如验光师或眼科医师)进行,以确定眼镜和/或隐形眼镜的一个或多个参数,从而为患者构建和/或分配适合的校正镜片。
附图说明
为了说明的简单和清楚起见,在图中所示的元件没有必要按比例绘制。例如,为了清楚起见,一些元件的尺寸可能相对于其他元件被夸大。此外,附图标记可以在图中重复以指示对应或类似的元件。下面列出了这些附图。
图1是根据一些说明性实施方式的系统的示意框图图示。
图2是可以根据一些说明性实施方式来实现的三个眼睛模型的示意图。
图3A、图3B和图3C是根据一些说明性实施方式的三个相应测量方案的示意图。
图4是根据一些说明性实施方式的旋转椭圆的示意图。
图5是可以根据一些说明性实施方式来实现的多轴深度映射器的示意图。
图6是根据一些说明性实施方式的被测眼睛的图像、被测眼睛的第一深度图和被测眼睛的第二深度图的示意图。
图7是根据一些说明性实施方式的可以在测量中实施的图案的两个图像的示意图。
图8是根据一些说明性实施方式的确定被测眼睛的折射误差的一个或多个参数的方法的示意流程图。
图9是根据一些说明性实施方式的产品的示意图。
具体实施方式
在以下详细描述中,阐述了许多具体细节以提供对一些实施方式的透彻理解。然而,本领域普通技术人员将理解,可以在没有这些具体细节的情况下实践一些实施方式。在其他情况下,没有详细描述众所周知的方法、过程、组件、单元和/或电路,以免混淆讨论。
以下详细描述的某些部分是根据对计算机存储器内的数据位或二进制数字信号的操作的算法和符号表达来呈现的。这些算法描述和表达可以是数据处理的技术领域技术人员用于将他们工作的实质传达给本领域的其他技术人员的技术。
在这里,算法通常被认为是导致预期结果一系列自洽的行为或操作。这些包括对物理量的物理操作。通常,尽管不一定,这些量以能够被存储、传输、组合、比较和以其他方式操纵的电或磁信号的形式采集。主要是出于普遍使用的原因,已经多次证明,将这些信号称为位、值、元素、符号、字符、术语、数字等。然而,应当理解,所有这些和类似的术语都将与适当的物理量相关联,并且仅仅是应用于这些量的方便的标签。
此处使用诸如“处理”、“估算”、“计算”、“确定”、“建立”、“分析”、“检查”等术语的讨论可以指计算机、计算平台、计算系统或其他电子计算设备的操纵和/或处理,其将被表示为计算机寄存器和/或存储器内的物理(例如,电子)量的数据操纵和/或转换为其他类似地被表示为计算机寄存器和/或存储器或其他信息存储介质中的物理量的数据,计算机寄存器和/或存储器或其他信息存储介质可以存储执行操作和/或处理的指令。
如本文所用,术语“多种”和“多重”例如包括“多个”或“两个或更多个”。例如,“多个项目”包括两个或更多个项目。
对“一个实施方式”、“一实施方式”、“说明性实施方式”、“各种实施方式”等的引用表明如此描述的实施方式可包括特定的特征、结构或特性,但并非每个实施方式都必须包括该特定的特征、结构或特性。此外,短语“在一个实施方式中”的重复使用不一定指代相同的实施方式,尽管它也可以指代同一个实施方式。
如本文所用,除非另有说明,否则在使用序数形容词“第一”、“第二”、“第三”等来描述一个共同的对象时,仅表示正在引用相似对象的不同示例,并且不旨在暗示如此描述的对象必须在时间、空间、排序或任何其他方式上处于给定的顺序中。
例如,一些实施方式可以具备完全硬件实施方式、完全软件实施方式或包括硬件和软件元素两者的实施方式的形式。一些实施方式可以在软件中实现,该软件包括但不限于固件、常驻软件、微码等。
此外,一些实施方式可以具备可从计算机可用介质或计算机可读介质访问的计算机程序产品的形式,该计算机可用介质或计算机可读介质提供供计算机或任何指令执行系统使用或与其结合使用的程序代码。例如,计算机可用介质或计算机可读介质可以是或者可以包括任何设备,该任何设备可以包含、存储、通信、传播或通过或结合指令执行系统、装置、或设备使用的程序。
在一些说明性实施方式中,介质可以是电子、磁、光、电磁、红外或半导体系统(或装置或设备)或传播介质。计算机可读介质的一些说明性示例可以包括半导体或固态存储器、磁带、可移动计算机软盘、随机存取存储器(RAM)、只读存储器(ROM)、闪存、硬磁盘和光盘。光盘的一些示范示例包括光盘-只读存储器(CD-ROM)、光盘-读/写(CD-R/W)和DVD。
在一些说明性实施方式中,适用于存储和/或执行程序代码的数据处理系统可以包括例如通过系统总线直接或间接耦合到存储器元件的至少一个处理器。存储器元件可以包括,例如,在程序代码的实际执行中采用的本地存储器、大容量存储器和高速缓冲存储器,高速缓冲存储器可以提供至少一些程序代码的的临时存储,以减少在执行期间必须从大容量存储中检索代码的次数。
在一些说明性实施方式中,输入/输出或I/O设备(包括但不限于键盘、显示器、指向设备等)可以直接或通过介入I/O控制器耦合到系统。在一些说明性实施方式中,网络适配器可以耦合到系统以使得数据处理系统能够耦合到其他数据处理系统或远程打印机或存储设备,例如,通过介入私有或公共网络。在一些说明性实施方式中,调制解调器、电缆调制解调器和以太网卡是网络适配器类型的说明性示例。可以使用其他合适的组件。
一些实施方式可包括一个或多个有线或无线链路,可利用无线通信的一个或多个组件,可利用无线通信的一种或多种方法或协议等。一些实施方式可以利用有线通信和/或无线通信。
一些实施方式可以结合各种设备和系统,例如,移动电话、智能电话、移动计算机、膝上型计算机、笔记本计算机、平板计算机、手持计算机、手持设备、个人数字助理(PDA)设备、手持PDA设备、移动或便携式设备、非移动或非便携式设备、蜂窝电话、无线电话、具有一个或多个内部天线和/或外部天线的设备、无线手持设备等。
现在参考图1,其示意性地示出了根据一些说明性实施方式的系统100的框图。
如图1所示,在一些说明性实施方式中,系统100可以包括计算设备102。
在一些说明性实施方式中,设备102可以使用合适的硬件组件和/或软件组件,例如处理器、控制器、存储器单元、存储单元、输入单元、输出单元、通信单元、操作系统、应用程序等。
在一些说明性实施方式中,设备102可以包括例如计算设备、移动设备、移动电话、智能电话、蜂窝电话、笔记本电脑、移动电脑、膝上型电脑、笔记本电脑、平板电脑、掌上电脑、手持设备、PDA设备、手持PDA设备、无线通信设备等。
在一些说明性实施方式中,设备102可以包括,例如,处理器191、输入单元192、输出单元193、存储器单元194和/或存储单元195中的一个或多个。设备102可以任选地包括其他合适的硬件组件和/或软件组件。在一些说明性实施方式中,设备102中的一个或多个的一些或所有组件可以被封闭在公共外壳或包装中,并且可以使用一个或多个有线或无线链接互连或可操作地关联。在其他实施方式中,一个或多个设备102的组件可以分布在多个或单独的设备中。
在一些说明性实施方式中,处理器191可包括,例如,中央处理单元(CPU)、数字信号处理器(DSP)、一个或多个处理器核、单核处理器、双核处理器、多重核心处理器、微处理器、主机处理器、控制器、多个处理器或控制器、芯片、微芯片、一个或多个电路、电路系统、逻辑单元、集成电路(IC)、专用IC(ASIC)、或任何其他合适的多用途或特定处理器或控制器。处理器191可以执行例如设备102的操作系统(OS)和/或的一个或多个适合的应用指令。
在一些说明性实施方式中,输入单元192可以包括例如键盘、键台、鼠标、触摸屏、触摸板、轨迹球、触笔、麦克风或其他合适的指向设备或输入设备。输出单元193可以包括例如监视器、屏幕、触摸屏、平板显示器、发光二极管(LED)显示单元、液晶显示器(LCD)显示单元、等离子显示单元、一个或多个音频扬声器或耳机、或其他合适的输出设备。
在一些说明性实施方式中,存储器单元194包括例如随机存取存储器(RAM)、只读存储器(ROM)、动态RAM(DRAM)、同步DRAM(SD-RAM)、闪存、易失性存储器、非易失性存储器、高速缓存存储器、缓冲器、短期存储单元、长期存储单元或其他合适的存储器单位。存储单元195可以包括例如硬盘驱动器、固态驱动器(SSD)或其他合适的可移动或不可移动存储单元。存储器单元194和/或存储单元195例如可存储由设备102处理的数据。
在一些说明性实施方式中,设备102可以被配置为经由无线和/或有线网络103与一个或多个其他设备通信。
在一些说明性实施方式中,网络103可以包括有线网络、局域网(LAN)、无线LAN(WLAN)网络、无线电网络、蜂窝网络、无线保真(WiFi)网络、IR网络、蓝牙(BT)网络等。
在一些说明性实施方式中,设备102可以允许一个或多个用户与设备102的一个或多个进程、应用和/或模块交互,例如,如本文所述。
在一些说明性实施方式中,设备102可以被配置为执行和/或执行一个或多个操作、模块、过程、程序等。
在一些说明性实施方式中,设备102可以被配置为确定例如用户和/或患者的被测眼睛的折光误差(也称为“折射误差”)的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,折射误差可以包括被测眼睛的例如将光准确地聚焦到被测眼睛的视网膜上的问题(例如,由被测眼睛的形状导致)。
在一些说明性实施方式中,折射误差可以包括例如近视眼(也称为“近视”)、远视眼(也称为“远视”)和/或散光。
在一个示例中,被测眼睛的折射误差可以用针对被测眼睛的眼科镜片或手术来校正。
例如,眼科镜片可以包括被配置为改善视力的镜片。
在一个示例中,眼科镜片可以被组装或被配置为组装在例如患者、设备102的用户和/或任何其他用户的眼镜中。
在另一个示例中,眼科镜片可以包括隐形眼镜、人工晶状体、游泳镜镜片等。
在另一个示例中,眼科镜片可以包括任何其他光学镜片(例如,处方镜片)或被配置为改善视力任何其他镜片。
在一些说明性实施方式中,可由眼镜处方师(诸如验光师或眼科医生)进行眼科检查,例如以确定眼科镜片的一个或多个光学参数,例如以构造和/或分配例如适合患者的校正镜片。
在一些说明性实施方式中,校正镜片的一个或多个光学参数可以包括校正镜片的球镜度数、柱镜度数、柱镜轴向、和/或任何其他参数。
在一些说明性实施方式中,近视或远视的程度可以与例如被测眼睛的晶状体的焦距和被测眼睛的视网膜之间的距离差相关,例如,如下所述。
参考图2,其示意性地示出了可以根据一些说明性实施方式来实现的三种眼睛模型。
在一些说明性实施方式中,三个眼睛模型可以使用眼睛模型,例如简化的眼睛模型,包括晶状体202和视网膜204,例如,其可以替代一些或全部眼睛光学组织。
在一些说明性实施方式中,如图2所示,被引导到晶状体202上的光束207可以会聚到点209,例如斑点,例如,其对应于晶状体202的焦距。
例如,光束207可以由位于无限远处的光源提供,例如,光源位于晶状体202的光轴上,光轴例如垂直于被测眼睛的角膜。
在一些说明性实施方式中,点209可以位于距晶状体202的焦距213处,焦距213表示为f'。
在一些说明性实施方式中,第一眼睛模型200可以说明正常的眼睛视觉,例如,如下所述。
在一些说明性实施方式中,根据眼睛模型200,例如,晶状体202和视网膜204之间的距离203(表示为L')可以等于焦距213。例如,焦距213和距离203之间的距离差可以等于零。
在一些说明性实施方式中,第二眼睛模型210可以说明具有近视或近视眼的眼睛,例如,如下所述。
在一些说明性实施方式中,根据眼睛模型210,例如,晶状体202和视网膜204之间的距离212可能比焦距213长,这可能导致近视或近视眼。例如,在焦距213和距离212之间可能存在距离差215(表示为ΔL)。
在一些说明性实施方式中,第三眼睛模型220可以说明具有远视或远视眼的眼睛,例如,如下所述。
在一些说明性实施方式中,根据到眼模型220,例如,晶状体202和视网膜204之间的距离222可以比焦距213短,这可能导致远视或远视眼。例如,晶状体202的焦距213和距离222之间可能存在距离差225(表示为ΔL)。
返回参照图1,在一些演示实施方式中,系统100可以被配置为确定被测眼睛的折射误差的一个或多个参数,例如,即使不使用任何辅助的光学装置,例如,如下面所描述的。
在一个示例中,系统100可以被配置为确定被测眼睛的折射误差的一个或多个参数,例如,甚至不使用检影镜、自动验光仪和/或任何其他辅助机器或元件。
在一些说明性实施方式中,被测眼睛的折射误差的一个或多个参数可以包括用于校正近视、远视的校正因子,和/或用于校正散光的多个校正因子,例如,如下所述。
在一些说明性实施方式中,系统100可以包括至少一种服务、模块、控制器和/或应用160,其被配置为确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以包括和/或可以执行自动验光仪或自动验光器的功能,例如,自动验光仪或自动验光器被配置为执行被测眼睛的折射误差分析,例如,如下所述。
在一些说明性实施方式中,应用160可以包括或可以实现为软件、软件模块、应用程序、程序、子例程、指令、指令集、计算代码、字、值、符号等。
在一些说明性实施方式中,应用160可以包括将由设备102执行的本地应用程序。例如,存储器单元194和/或存储单元195可以存储导致应用160的指令,和/或处理器191可以被配置为执行导致应用160和/或执行应用160的一个或多个计算和/或进程,例如,如下所述。
在其他实施方式中,应用160可以包括将由任何合适的计算系统(例如,服务器170)执行的远程应用。
在一些说明性实施方式中,服务器170可以包括至少一个远程服务器、基于Web的服务器、云服务器和/或任何其他服务器。
在一些说明性实施方式中,服务器170可以包括合适的存储器和/或存储单元174,其上存储有产生应用160的指令,以及合适的处理器171以执行指令,例如,如下所述。
在一些说明性实施方式中,应用160可以包括远程应用和本地应用的组合。
在一个示例中,设备102的用户可以从另一计算系统例如服务器170下载和/或接收应用160,使得应用160可以由设备102的用户在本地执行。例如,例如,在被设备102的处理器191执行之前,指令可以被例如临时地接收和存储在设备102的存储器或任何合适的短期存储器或缓存中。
在另一示例中,应用160可以包括要由设备102本地执行的前端,以及由服务器170执行的后端。例如,前端可以包括和/或可以被实现为本地应用、web应用、网站、web客户端,例如超文本标记语言(HTML)Web应用等。
例如,确定被测眼睛的折射误差的一个或多个参数的一个或多个第一操作可以例如由设备102在本地执行,和/或确定被测眼睛的折射误差的一个或多个参数的一个或多个第二操作可以例如由服务器170远程执行,例如,如下所述。
在其他实施方式中,应用160可以包括任何其他合适的计算布置和/或方案。
在一些说明性实施方式中,系统100可以包括接口110(例如,用户接口)以在设备102的用户和系统100的一个或多个元件(例如应用160)之间进行联系。
在一些说明性实施方式中,接口110可以使用任何合适的硬件组件和/或软件组件来实现,例如处理器、控制器、存储器单元、存储单元、输入单元、输出单元、通信单元、操作系统和/或应用程序。
在一些实施方式中,接口110可以被实现为系统100的任何合适的模块、系统、设备或组件的一部分。
在其他实施方式中,接口110可以被实现为系统100的单独元件。
在一些说明性实施方式中,接口110可被实现为设备102的一部分。例如,接口110可以与设备102的一部分相关联和/或被包括作为设备102的一部分。
在一个示例中,接口110可以被实现为例如中间件和/或设备102的任何合适应用的一部分。例如,接口110可以被实现为应用160的一部分和/或作为设备102的OS的一部分。
在一些说明性实施方式中,接口110可以被实现为服务器170的一部分。例如,接口110可以与服务器170相关联和/或被包括为服务器170的一部分。
在一个示例中,接口110可以包括或可以是基于Web的应用、网站、网页、插件、ActiveX控件、丰富内容组件,例如Flash或Shockwave组件等。
在一些说明性实施方式中,接口110可以关联和/或可以包括例如网关(GW)112和/或应用程序接口(API)114,例如以在元件之间传送信息和/或在系统100的元件之间进行通信和/或将信息通信至一个或多个其他例如内部或外部的各方、用户、应用程序和/或系统。
在一些实施方式中,接口110可以包括任何合适的图形用户界面(GUI)116和/或任何其他合适的界面。
在一些说明性实施方式中,应用160可以被配置为确定被测眼睛的折射误差的一个或多个参数(例如,基于被测眼睛的深度映射信息),例如,如下所述。
在一些说明性实施方式中,设备102可以包括被配置成采集、创建、和/或确定环境的深度映射信息的深度信息采集设备118或任何其它装置或系统。
在一个示例中,应用160可以被配置为本地确定被测眼睛的折射误差的一个或多个参数(例如,如果应用160由设备102本地实现的话)。根据这个示例,深度信息采集设备118可以被配置为创建深度映射信息,并且应用160可以被配置为例如从深度信息采集设备118接收深度映射信息,并且确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在另一示例中,应用160可以被配置为远程确定被测眼睛的折射误差的一个或多个参数(例如,如果应用160由服务器170实现的话,或者在应用160的后端由服务器170实现,例如,同时应用160的前端通过设备102实现的情况下)。根据本实施方式,深度信息采集设备118可以被配置以创建深度映射信息;应用160的前端可被配置成接收深度映射信息;服务器170和/或应用160的后端可以被配置为例如基于从应用160的前端接收的信息来确定被测眼睛的折射误差的一个或多个参数。
在一个示例中,设备102和/或应用160的前端可以被配置为将深度映射信息(以及任选地,额外的信息,例如,如下所述)发送到服务器170(例如,经由网络103);和/或服务器170和/或应用160的后端可以被配置为接收深度映射信息,并且例如基于来自设备102的深度映射信息来确定被测眼睛的折射误差的一个或多个参数。
在一些说明性实施方式中,深度映射信息可以包括至少一个深度图,例如,如下所述。
在一些说明性实施方式中,深度映射信息可以包括一个或多个被采集图像的图像信息,例如,红绿蓝(RGB)图像信息和/或任何其他类型的图像信息,例如,如下所述。
在另一个示例中,深度映射信息可以包括可以适合于生成深度图的任何其他附加的或替代的信息。
在一些说明性实施方式中,深度信息采集设备118可以包括深度映射器,深度映射器被配置为提供环境的深度图,例如,如下所述。
在一个示例中,深度映射信息可以包括例如来自深度映射器的至少一个深度图。
在一些说明性实施方式中,深度映射器可以包括照明器或投影仪,以及深度传感器。
在一些说明性实施方式中,深度信息采集设备118可以包括结构光系统,例如,包括用于投射光结构的结构光投影仪和用于采集光结构的相机。
在一些说明性实施方式中,深度信息采集设备118可以包括结构光立体相机,例如,包括用于投射光结构的结构光投影仪和双相机。
在一些说明性实施方式中,深度信息采集设备118可以包括例如结构光系统中的红外(IR)源和IR传感器。
在一些说明性实施方式中,深度信息采集设备118可以包括飞行时间(ToF)深度传感器,飞行时间(ToF)深度传感器可以被配置为根据飞行时间测量确定深度映射信息,例如,如下所述。
在其他实施方式中,深度信息采集设备118可以包括被配置为创建环境的深度图的任何其他设备或系统。
在一些说明性实施方式中,深度信息采集设备118可以包括多相机设备,例如,如下所述。
在一个示例中,深度信息采集设备118可以提供包括例如来自多相机设备的图像信息的深度映射信息。
在一些说明性实施方式中,深度信息采集设备118可以包括多相机设备,例如,包括两个或更多个相机,例如双相机、立体相机、多重相机或多重相机的任何其他布置。
在一个示例中,深度信息采集设备118可以被配置为以从多个各自的相机采集并产生多个图像。例如,深度信息采集设备118可以通过第一相机采集第一图像并且通过第二相机采集第二图像。根据该示例,应用160和/或深度信息采集设备118可以被配置为例如基于第一图像和第二图像例如使用图像处理算法、方法等确定深度图。
在一些说明性实施方式中,深度信息采集设备118可以包括多轴深度映射器系统,例如,包括多个深度映射器,例如,如下所述。
在一些说明性实施方式中,深度信息采集设备118可以包括多轴多相机系统,例如,包括多个多相机设备,例如,如下所述。
在一些说明性实施方式中,深度信息采集设备118可以包括可以被配置为创建环境的深度映射信息的任何其他附加的或替代的传感器、元件和/或组件。
在一个示例中,本文描述的一个或更多的计算可以适用于通过多个的不同类型的深度信息采集设备118实现。例如,一个或多个计算可以针对不同类型进行配置和/或调整,例如,基于IR波长和/或可见光光谱。
在一些说明性实施方式中,应用160可以被配置为确定被测眼睛的折射误差的一个或多个参数,例如,基于由深度信息采集设备118采集的深度映射信息,例如,当深度信息采集设备118面向或瞄准被测眼睛时,例如类似采集“自拍”,以采集被测眼睛的深度映射信息。
在一个示例中,通过深度映射信息采集设备118创建深度映射信息可以基于从不同坐标(例如,在现实世界中)采集或投影的点的视差。
在一些说明性实施方式中,应用160可以被配置为使用被测眼睛的深度信息和/或深度数据(例如,如由深度信息采集设备118采集),例如,来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为处理由深度信息采集设备118采集的深度映射信息,例如,以检测和/或识别被测眼睛的深度信息,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为处理深度映射信息以识别被测眼睛的深度信息,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于被测眼睛的深度信息确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,折射误差可以包括例如包括柱镜度数和/或柱镜轴向的近视、远视、散光、和/或任何其他折射误差,例如,如下所述。
在一些说明性实施方式中,被测眼睛的折射误差的一个或多个参数可以包括例如用于校正被测眼睛的晶状体的晶状体度数的度数校正因子,例如,如下所述。
在一些说明性实施方式中,深度映射信息可以包括来自深度映射器(例如,由深度信息采集设备118实现的深度映射器)的至少一个深度图,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如通过将深度信息处理为结构光深度测量(例如,来自由深度信息采集设备118实现的结构光深度传感器)的深度信息来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为通过将深度信息处理为ToF测量(例如,来自由深度信息采集设备118实现的ToF深度传感器)的深度信息来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,深度映射信息可以包括来自多相机设备的图像信息,例如,当深度信息采集设备118包括多相机设备时,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如通过将深度信息处理为多相机深度测量(例如,来自由深度信息采集设备118实现的多相机设备)的深度信息来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于被测眼睛的深度值来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于深度映射信息识别经由被测眼睛的晶状体采集的深度值,并且例如基于深度值确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,经由被测眼睛的晶状体采集的深度值可以包括例如对应于被测眼睛的视网膜的深度值,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于被测眼睛和深度信息采集设备118之间的距离来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于深度映射信息来确定被测眼睛和深度信息采集设备118之间的距离,例如如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于深度映射信息识别与被测眼睛的预定义区域对应的深度值,并例如基于与预定义区域对应的深度值确定被测眼睛与深度信息采集设备118之间的距离,例如,如下所述。
在一些说明性实施方式中,被测眼睛的预定义区域可以包括被测眼睛的巩膜、被测眼睛的瞳孔周围的不透明区域和/或被测眼睛的任何其他区域,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于与深度信息采集设备118的位置对应的位置信息确定被测眼睛与深度信息采集设备118之间的距离,例如,如下所述。
在一个示例中,位置信息可以例如从设备102的定位传感器(例如加速度计、惯性测量单元,和/或类似设备)接收。
在一些说明性实施方式中,应用160可以被配置为例如通过确定度数校正因子(表示为ΔP)来确定被测眼睛的折射误差的一个或多个参数,例如,度数校正因子如下:
Figure BDA0003257660760000151
其中u'表示深度值(例如,基于深度映射信息),d表示距离值(例如,基于被测眼睛与深度信息采集设备118之间的距离),例如,如下所述。
在一个示例中,深度值u'可以包括对应于被测眼睛的视网膜的深度值,该深度值可以经由被测眼睛的晶状体采集,例如,如下所述。
在一些说明性实施方式中,被测眼睛与深度信息采集设备118之间的距离可包括例如预先定义的距离,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为使用户界面110指示设备102的用户定位深度信息采集设备118(例如,在距被测眼睛预定距离处)以采集深度映射信息,例如,如下所述。
在一个示例中,用户界面110可以例如使用可以出现在设备102的屏幕(例如移动电话上显示器)上的指导指令指示用户。
在另一个示例中,用户界面110可以例如使用语音指令来指导用户。
在另一个示例中,用户界面110可以使用任何其他附加或替代方法来指示用户。
在一些说明性实施方式中,应用160可以被配置为例如基于不同的第一深度值和第二深度值来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为识别与被测眼睛的第一区域对应的第一深度值(例如,基于深度映射信息),例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为识别与被测眼睛的第二区域对应的第二深度值(例如基于深度映射信息),例如,如下所述。
在一些说明性实施方式中,第一区域可以包括被测眼睛的瞳孔,和/或第二区域可以包括被测眼睛的瞳孔周围的区域,例如,如下所述。
在其他实施方式中,第一区域和/或第二区域可以包括任何其他区域。
在一些说明性实施方式中,应用160可以被配置为例如基于第一深度值和第二深度值确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于多个不同的第一深度值和多个不同的第二深度值确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于深度映射信息识别与被测眼睛的第一区域对应的多个第一深度值,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于深度映射信息识别与被测眼睛的第二区域对应的多个第二深度值,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于多个第一深度值和多个第二深度值来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于多个第一深度值确定距离值,例如,如下所述。
在一个示例中,应用160可以例如基于多个第一深度值确定被测眼睛与深度信息采集设备118之间的距离值d。
在一些说明性实施方式中,应用160可以被配置为例如基于多个第二深度值来确定深度值,例如,如下所述。
在一个示例中,应用160可以例如基于多个第二深度值确定与被测眼睛的视网膜对应的深度值u',其可经由被测眼睛的晶状体采集。
在一些说明性实施方式中,应用160可以被配置为例如基于深度值和距离值来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一个示例中,应用160可以例如基于距离值d和深度值u'例如根据等式1确定被测眼睛的折射误差的一个或多个参数,例如,如上所述。
在一些说明性实施方式中,深度映射信息可以是经由镜子采集,例如,以增加被测眼睛和深度信息采集设备118之间的距离,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为致使用户界面110指示设备102的用户将深度信息采集设备118定位成面向镜子,例如,使得深度映射信息可由深度信息采集设备118经由镜子采集,例如,如下所述。
在一些说明性实施方式中,设备102的用户可以使用用于视觉的眼科镜片(例如,隐形眼镜或眼镜的镜片),因此,深度信息可以包括经由眼科镜片采集的深度信息,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为通过将深度信息处理为经由眼科镜片采集的深度信息来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如通过将深度信息处理为经由眼镜的镜片在与被测眼睛相距顶点距离处采集的深度信息来确定被测眼睛的折射误差的一个或多个参数(例如,当用户佩戴包括眼科镜片的眼镜时),例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为通过将深度信息处理为经由被测眼睛上的隐形眼镜采集的深度信息来确定被测眼睛的折射误差的一个或多个参数(例如,当用户佩戴隐形眼镜时),例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于眼科镜片的一个或多个参数来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于包括单个深度图的深度映射信息来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于包括多个不同深度映射信息输入的深度映射信息确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为处理例如与深度信息采集设备118和被测眼睛之间的多个不同的相对位置对应的多个不同的深度映射信息输入,例如,如下所述。
在一些说明性实施方式中,多个不同的深度映射信息输入可以至少包括第一深度映射信息输入和第二深度映射信息输入,例如,如下所述。
在一些说明性实施方式中,第一深度映射信息输入可以例如在深度信息采集设备118和被测眼睛之间的第一相对位置处被采集,例如,如下所述。
在一些说明性实施方式中,可以例如在深度信息采集设备118和被测眼睛之间的不同于第一相对位置的第二相对位置处采集第二深度映射信息输入,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为致使用户界面110指示用户改变深度信息采集设备118和被测眼睛之间的相对定位,例如,以用于在第一相对位置采集第一深度映射信息输入并在第二相对位置采集第二深度映射信息输入,例如,如下所述。
在一些说明性实施方式中,第一相对位置可以包括,例如,深度信息采集设备118和被测眼睛之间的第一相对距离,例如,如下所述。
在一些说明性实施方式中,第二相对位置可以包括,例如,深度信息采集设备118和被测眼睛之间的不同于第一相对距离的第二相对距离,例如,如下所述。
在一些说明性实施方式中,第一相对位置可以包括深度采集子午线和被测眼睛的垂直子午线之间的第一相对角度,例如,如下所述。
在一些说明性实施方式中,第二相对位置可以包括在深度采集子午线和被测眼睛的垂直子午线之间的不同于第一相对角度的第二相对角度,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为处理例如与多个不同的深度采集设118对应的多个不同的深度映射信息输入,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于用于采集第一深度映射信息输入的第一深度信息采集设备的第一深度采集子午线与用于采集第二深度映射信息输入的第二深度信息采集设备的第二深度采集子午线之间的角度来处理第一深度映射信息输入和第二深度映射信息输入,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于多个不同的深度映射信息输入确定被测眼睛的柱镜轴向和/或被测眼睛的柱镜度数,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为减少被测眼睛的调节误差(例如,当深度映射信息被采集时),例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为使得例如输出193的图形显示器显示被配置为减少被测眼睛的调节误差的预定义图案,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为指示设备102的用户采集深度映射信息,例如,包括被测眼睛的深度信息,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为指示设备102的用户放置和/或定位设备102,使得深度信息采集设备118面向或指向被测眼睛,例如,以使应用160能够检测和/或识别被测眼睛的深度信息(例如,在深度映射信息中)。
在一些说明性实施方式中,深度信息采集设备118的相机可以被配置为采集被测眼睛的眼睛图像(例如,RGB图像和/或任何其他图像),例如,当深度映射信息由深度信息采集设备118采集时,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于深度映射信息和被测眼睛的眼睛图像之间的比较和/或相关性检测和/或识别被测眼睛的深度信息,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于被测眼睛的深度映射信息以及与深度信息采集设备118和被测眼睛之间的距离对应的距离信息确定被测眼睛的折射误差的一个或多个参数(例如,当深度映射信息被深度信息采集设备118采集时),例如,如下所述。
在一些说明性实施方式中,被测眼睛的深度映射信息可以由深度信息采集设备118通过被测眼睛的晶状体(例如晶状体202(图2))采集,例如,如下所述。
在一些说明性实施方式中,由深度信息采集设备118采集的被测眼睛的深度映射信息可以经由眼科镜片采集,例如,如下所述。
在一些说明性实施方式中,被测眼睛的深度信息可以与通过被测眼睛的晶状体采集的被测眼睛的视网膜对应,例如,如下所述。
在一些说明性实施方式中,例如,当采集到深度映射信息时,深度信息采集设备118和被测眼睛之间的距离可以包括预定义距离,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为指示设备102的用户放置和/或定位设备102,使得深度信息采集设备118与被测眼睛处于预定义距离处,例如,如下所述。
在一些说明性实施方式中,例如,当深度映射信息被采集时,深度信息采集设备118和被测眼睛之间的距离可以被确定和/或计算,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于深度信息来确定深度信息采集设备118和被测眼睛之间的距离,例如,如下所述。
在一个示例中,应用160可以例如基于被测眼睛的瞳孔周围区域的深度信息来确定深度信息采集设备118和被测眼睛之间的距离,例如,如下所述。
在另一个示例中,应用160可以例如基于被测眼睛的不透明物体(例如巩膜或任何其他物体)的深度信息来确定深度信息采集设备118和被测眼睛之间的距离。
在另一个示例中,应用160可以例如基于对被测眼睛的深度映射信息的分析来确定深度信息采集设备118和被测眼睛之间的距离,例如,以识别被测眼睛的巩膜或任何其他对象,例如,如下所述。
在另一个示例中,应用160可以例如基于设备102的一个或多个传感器(例如,加速度计和/或任何其他传感器)确定深度信息采集设备118和被测眼睛之间的距离,例如,如下所述。
在另一个示例中,应用160可以基于任何其他附加或替代算法和/或方法确定深度信息采集设备118和被测眼睛之间的距离。
在一些说明性实施方式中,应用160可以被配置为确定与被测眼睛的视网膜(例如,被测眼睛的视网膜上的反射)对应的深度信息(例如,深度值),例如,以确定被测眼睛的折射误差的一个或更多参数,例如,如下所述。
在另一个示例中,应用160可以例如基于对被测眼睛的深度映射信息的分析来确定视网膜上的反射的深度信息,例如,如下所述。
在一些说明性实施方式中,被测眼睛的折射误差的一个或多个参数可以包括用于校正被测眼睛的晶状体的晶状体度数的度数校正因子(例如,在与深度信息采集设备118的平面对应的被测眼睛的眼子午线中),例如,如下所述。
在一些说明性实施方式中,例如,当被应用于校正镜片时,度数校正因子可以将点源的图像移动到视网膜上,这可以导致例如使用校正镜片的基本正常的眼睛视力。例如,当被应用于校正镜片时,度数校正因子例如可以将眼睛模型210和/或220的点209(图2)朝向视网膜204(图2)移动,例如,如上所述。
在一些说明性实施方式中,例如,当折射误差包括近视和/或远视时,将度数校正因子应用至用于被测眼睛的校正镜片可以允许通过校正镜片实现正常眼睛视力,例如,因为当折射误差包括近视和/或远视时,被测眼睛的晶状体的晶状体度数在被测眼睛的所有子午线上可能是相等的。
在一些说明性实施方式中,与被测眼睛的多个子午线对应的多个度数校正因子可被应用于校正镜片(例如,当折射误差包括柱镜误差时),例如,如下所述。
在一个示例中,被表示为ΔPθi的度数校正因子(例如最佳度数校正)可以被配置为校正被测眼睛在例如来自一组可能的子午线(表示为{6i}i)的某一子午线(表示为θi)处的晶状体度数(表示为Pθi)。例如,可以相对于被测眼睛的垂直子午线测量子午线θi。根据该示例,如果将度数校正因子ΔPθi应用于被测眼睛的角膜或隐形眼镜平面,则被测眼睛的总校正度数可以被确定为ΔPθ+Pθi
例如,度数校正因子ΔPθi可以满足一个条件,即被测眼睛在某一子午线θi处的总焦距(例如,被测眼睛的总校正度数ΔPθ+Pθi)可以精确匹配被测眼睛的眼球长度(例如被测眼睛的视网膜和晶状体之间的长度),例如,长度212和/或222(图2)。例如,例如,度数校正因子ΔPθi可以将焦平面调节(例如,带回)到视网膜。
在一些说明性实施方式中,被测眼睛的有效焦距f'可以基于被测眼睛的一些或甚至所有眼睛折射表面和几何结构的组合,例如角膜的屈光力、晶状体或人工晶状体(IOL)度数等。
在一些说明性实施方式中,应用160可以被配置为确定度数校正因子ΔPθi,例如,即使在任何给定子午线处,对于被测眼睛的给定焦距,这可以提供增加的,例如最佳的视敏度。
在一些说明性实施方式中,应用160可以例如基于来自被测眼睛的视网膜的反射光确定度数校正因子,例如,甚至在任何给定子午线处,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如以可提供最佳视敏度的方式例如通过使用对来自被测眼睛的视网膜的反射光的分析确定被测眼睛的有效焦距Pθ的光学度数校正因子ΔPθi,例如,以匹配被测眼睛的眼球长度,例如,如下所述。
参考图3A、图3B和图3C,这些图示意性地说明了根据一些示意性实施方式三个相应的测量方案。
在一些说明性实施方式中,图3A、图3B和图3C的测量方案可用于测量三种不同眼睛视觉的度数校正因子,例如,如下所述。
在一些说明性实施方式中,如图3A、图3B和图3C所示,测量方案可以包括深度映射器318,深度映射器318包括投影仪或照明器312、以及深度传感器314。例如,深度信息采集设备118(图1)可以被配置为执行深度映射器318的一个或多个操作、深度映射器318的功能和/或充当深度映射器318的角色。
在一些说明性实施方式中,如图3A、图3B和图3C所示,投影仪312可以被配置为朝向被测眼睛的晶状体302投射光束308,并且深度传感器314可以被配置为感测被建模为点的特征(表示为q)的反射,该特征可能对应于光束308在被测眼睛的视网膜304上的反射。
在一个示例中,特征q可以包括光束308在视网膜304上的反射,或任何其他反射和/或特征。
在一些说明性实施方式中,深度传感器314可以被配置为确定特征q的被感测深度(表示为u'),例如,当特征q经由晶状体302被感测时,例如,如下所述。
在一些说明性实施方式中,图3A的测量方案可以对应于被测眼睛的正常眼睛视觉。
在一些说明性实施方式中,如图3A所示,被测眼睛的晶状体302的焦距307(表示为f')(例如,有效焦距长度)可以等于被测眼睛的晶状体302和视网膜304之间的距离305。
根据这些实施方式,特征q的反射可被深度映射器318的深度传感器314感测以出现在位置309。
在一些说明性实施方式中,如图3A所示,位置309可以被深度映射器318感测以出现在例如正常眼睛视觉的视网膜304上。
在一些说明性实施方式中,如图3B所示,焦距307可能短于晶状体302和视网膜304之间的长度315(表示为L'),这可能导致近视视觉,例如近视眼。
在一些说明性实施方式中,应用160(图1)可以被配置为确定用于近视视觉的校正因子313(表示为delta_L'),例如,如下所述。
在一些说明性实施方式中,校正因子313可以被配置为将焦距307与晶状体302和视网膜304之间的长度315匹配,例如,如下所述。
在一些说明性实施方式中,如图3C所示,焦距307可能比晶状体302和视网膜304之间的长度325(表示为L')长,这可能导致远视视觉,例如远视眼。
在一些说明性实施方式中,应用160(图1)可以被配置为确定用于远视视觉的校正因子323(表示为delta_L'),例如,如下所述。
在一些说明性实施方式中,校正因子323可以被配置为将焦距307与晶状体302和视网膜304之间的长度325匹配,例如,如下所述。
在一些说明性实施方式中,例如,当深度信息被深度映射器318采集时,应用160(图1)可以被配置为基于深度映射器318和晶状体302之间的距离(表示为d)确定校正因子(例如校正因子313和/或323),例如,如下所述。
在一些说明性实施方式中,应用160(图1)可以被配置为基于感测到的深度u'(其可以由深度映射器318感测)来确定校正因子,例如,校正因子313和/或323,例如,如下所述。
在一些说明性实施方式中,校正因子(例如校正因子313和/或323)可以基于特征q在X轴333(例如,深度映射器318的光轴)上的点x处的聚散(表示为Verge'x)。
在一些说明性实施方式中,聚散值可以描述光波前的曲率。例如,聚散值对于收敛可以是正的和/或对于发散可以是负的。聚散值可以基于介质的折射率(表示为n)和从点源到波前的距离(表示为r)。例如,聚散值可以被定义的为n/r。在一个示例中,例如,为了计算的简单,可以假定介质的折射指数n可以等于1(例如,n=1)。在另一示例中,可以使用折射指数n的其他值。
在一些说明性实施方式中,深度映射器318的传感器314可被配置为确定所感测到的深度u',对应于经由晶状体302采集的特征q,例如,如下所述。
在一些说明性实施方式中,校正因子(例如,校正因子313和/或323)可以基于特征q在X轴333上的第一点处的第一聚散,以及特征q在X轴333上的第二点处的第二聚散。
在一些说明性实施方式中,第一聚散可以包括特征q在X轴331上的点303
Figure BDA0003257660760000255
处的聚散(表示为
Figure BDA0003257660760000251
),点303非常靠近晶状体302的第一侧,例如,在距晶状体302的右侧距离ε处。
在一些说明性实施方式中,第二聚散可以包括特征q在X轴331上的点301
Figure BDA0003257660760000256
处的聚散(表示为
Figure BDA0003257660760000252
),点301非常靠近晶状体302的第二侧,例如,在距晶状体302的左侧距离ε处。
在一些说明性实施方式中,特征q在传感器314的一个位置处的传感器聚散度(表示为Verge'sensor)可以基于对所感测到的深度u',深度u'可能在一个理论位置(表示为q_thorethical),例如,如下:
Figure BDA0003257660760000253
在一个示例中,如图3B中所示,感测到的深度u'可以对应于理论上的位置q_thorethical,其位于位置319处。
在一个示例中,如图3C中所示,感测到的深度u'可以对应于理论上的位置q_thorethical,其位于位置329处。
因此,可以例如如下确定第二聚散,例如在点301处:
Figure BDA0003257660760000254
可以例如如下确定特征q在点301和303处的实际聚散:
Figure BDA0003257660760000261
Figure BDA0003257660760000262
例如,等式4和等式5可以组合,例如,以形成薄透镜等式,例如,如下:
Figure BDA0003257660760000263
在一些说明性实施方式中,度数校正
Figure BDA0003257660760000264
(例如度数正因子313和/或323)可以被配置为将被测眼睛的焦距307匹配至被测眼睛的眼球L'的物理长度,例如,以将焦距307分别匹配至长度315和/或长度325,例如,如下所示:
Figure BDA0003257660760000265
例如,度数校正
Figure BDA0003257660760000266
可以通过将等式7代入等式6来确定,例如,如下:
Figure BDA0003257660760000267
Figure BDA0003257660760000268
在一些说明性实施方式中,按照等式9,被测眼睛的度数校正因子
Figure BDA0003257660760000269
可以例如基于深度映射器318和晶状体302之间的距离d以及例如由深度映射器318感测的特征q的感测到的深度u'确定。
在一些说明性实施方式中,深度映射器318可以被配置为采集被测眼睛的深度映射信息;应用160(图1)可以被配置为检测深度图中特征q的感测深度u';应用160(图1)可以被配置为例如基于深度映射信息和/或基于任何其他距离信息来确定距离d;和/或应用160(图1)可以被配置为例如根据等式9使用距离d和感测到的深度u'来确定被测眼睛的度数校正因子
Figure BDA0003257660760000271
在一些说明性实施方式中,例如,可以使用一个或多个测试用例来验证等式9,例如,如下所述。
在一个示例中,第一种测试情况(例如,极端测试情况)可以被应用到等式9,在第一种测试情况中,被测眼睛的眼球是名义上的,例如,正常视觉。根据这个示例,晶状体302和视网膜304之间的长度可能等于焦距307,例如,L'=f',例如,如图3A所示,并且因此,等式9可以导致零值,这意味着不需要度数校正因子,例如,如下:
Figure BDA0003257660760000272
在另一示例中,第二种测试情况(例如,极端的试验情况)可以被应用到等式9,在第二种测试情况中,被测眼睛的晶状体的度数等于零。根据这个示例,焦距307可以等于无穷远,例如,
Figure BDA0003257660760000274
例如,如下:
Figure BDA0003257660760000273
根据等式11,需要有效焦距等于晶状体302和视网膜304之间的长度L'的晶状体,即,具有EFL=L'的晶状体。
返回参考图1,在一些说明性实施方式中,例如,当确定校正因子的测量是经由眼科镜片进行时,应用160可以被配置为确定校正因子,例如,校正因子313和/或323(图3),例如,如下所述。
在一些说明性实施方式中,应用160可以将来自深度信息采集设备118的深度映射信息处理为经由眼科镜片采集的深度信息,例如,如下所述。
在一些说明性实施方式中,眼科镜片可包括隐形眼镜、眼镜镜片或任何其他镜片。
在一些说明性实施方式中,例如,当患者在被测眼睛上佩戴眼镜或隐形眼镜(例如,包括眼科镜片)时,例如,在确定校正因子的折光测量期间,应用160可以被配置为确定校正因子,例如,如下所述。
在一些说明性实施方式中,有效焦距f'可包括附加度数(表示为“ΔPextθi”),这可能是由眼科镜片的度数引起的。
因此,度数校正因子ΔPθi可以由被测眼睛的晶状体的有效焦距和眼科镜片的附加度数校正因子ΔPextθi共同构造,例如,如下所述。
在一些说明性实施方式中,附加度数ΔPextθi可从度数校正因子
Figure BDA0003257660760000281
中减去,例如,以确定调整后的度数校正因子,例如,在没有眼科镜片的情况下的眼睛折射误差,例如,如下所述。
在一些说明性实施方式中,附加度数ΔPextθi可为用户已知的。例如,附加度数ΔPextθi可以在处方中注明,例如,包括患者的眼镜或隐形眼镜的球镜、柱镜和/或轴向。
在一些说明性实施方式中,例如,当患者佩戴眼镜或隐形眼镜时,应用160可以被配置为例如关于两个相邻的球柱透镜确定调整后的校正因子,例如,如下所述。
在一些说明性实施方式中,两个相邻的球柱透镜可包括被测眼睛的晶状体和眼科镜片。
在一个示例中,眼科镜片可以包括隐形眼镜。在另一个示例中,眼科镜片可以包括眼镜的镜片。
在一些说明性实施方式中,度数校正因子
Figure BDA0003257660760000282
可以是由被测眼睛的晶状体的有效焦距长度和眼科镜片(例如隐形眼镜或眼镜的镜片)的附加度数校正因子ΔPextθi两者构成。
在一些说明性实施方式中,应用160可以将来自深度信息采集设备118的深度映射信息处理为通过被测眼睛上的隐形眼镜采集的深度信息(例如,当用户佩戴隐形眼镜时),例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为确定调整后的校正因子(例如,当患者佩戴隐形眼镜时),例如,如下所述。
在一些说明性实施方式中,附加度数ΔPextθi可以基于眼科镜片沿子午线θ的已知度数,例如,如下:
Figure BDA0003257660760000291
在一些说明性实施方式中,应用160可以被配置为例如通过从度数校正因子
Figure BDA0003257660760000292
(例如,根据等式9确定)减去例如眼科镜片的附加度数ΔPextθi(例如,如等式12所确定)来确定调整后的校正因子,例如,在没有隐形眼镜的情况下的被测眼睛的折射误差。
在一些说明性实施方式中,应用160可以被配置为例如在患者佩戴眼镜时确定校正因子。
在一些说明性实施方式中,应用160可以将来自深度信息采集设备118的深度映射信息处理为经由与被测眼睛相距顶点距离处的眼镜镜片采集的深度信息(例如,当用户佩戴眼镜时),例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于例如被测眼睛和眼镜的镜片之间的顶点距离(表示为“dvert”)确定度数校正因子,顶点距离可以改变附加度数ΔPextθi,例如,如下:
Figure BDA0003257660760000293
在一些说明性实施方式中,顶点距离dvert可以是大约12mm或任何其他距离,并且它可以降低负透镜的度数和/或可以增加正透镜的度数。
在一些说明性实施方式中,应用160可以被配置为例如通过从度数校正因子
Figure BDA0003257660760000294
(例如,根据等式9确定)减去附加度数ΔPextθi(例如,如等式13所确定)来确定调整后的校正因子,例如,在没有隐形眼镜的情况下的被测眼睛的折射误差。
在一些说明性实施方式中,在确定度数校正因子的折光测量期间,使用眼科镜片(例如,在眼镜中或作为隐形眼镜)可以帮助克服深度映射器(例如,深度映射器318)的一个或多个固有限制,例如,如下所述。
在一个示例中,在患者的眼睛前面引入例如具有已知度数参数的正或负眼科镜片可以扩展深度测量的范围。例如,可以基于整个系统的折射误差和眼科镜片的已知度数参数,例如以直接的方式确定被测眼睛的折射误差。
在一些说明性实施方式中,应用160可以被配置为例如基于由深度信息采集设备118经由镜子(例如用于增加折射测量的距离)采集的深度映射信息来确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,深度映射信息可以包括深度信息采集设备118经由镜子采集到的用户眼睛的深度信息,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为指示用户将例如深度信息采集设备118的相机和/或传感器面向镜子放置并且经由镜子采集关于被测眼睛的深度映射信息。
在一些说明性实施方式中,经由镜子采集深度映射信息可以使应用160能够例如基于双光学距离(例如到镜子并从镜子返回)分析被测眼睛的折射误差的一个或多个参数。
在一些说明性实施方式中,应用160可以被配置为例如通过将例如来自深度信息采集设备118的深度信息处理为ToF深度测量的深度信息来确定被测眼睛的折射误差的一个或多个参数。
在一个示例中,ToF深度映射技术可以基于飞行时间原理和/或基于在现实世界中的不同坐标处采集或从现实世界中的不同坐标投影的点的差异。
在一些说明性实施方式中,ToF深度测量可以包括相移/时间延迟,其可以转换为距离测量(例如,在自由空间假设下)。
在一些说明性实施方式中,被测眼睛可以被调制后的光信号照亮,并且被成像到传感器平面(例如,使用ToF光学器件)。
在一些说明性实施方式中,对于给定像素的贡献光线(例如,除了杂散光之外)可以行进大约相同的光学距离,这可以是成像条件。
在一些说明性实施方式中,被测眼睛的晶状体可以改变贡献射线的光学距离,例如,将存在不同的一组光线离开被测眼睛。在照明路径也穿过被测眼睛的晶状体的情况下,整体路径差异(例如与无晶状体的情形相比)可能具有两条贡献光线,并且因此深度读数可能改变。
在一些说明性实施方式中,应用160可以被配置为例如基于ToF测量的变化量以及ToF测量的一个或多个配置参数来确定被测眼睛的度数校正因子。
在一些说明性实施方式中,应用160可以被配置为确定被测眼睛的完整处方,例如,包括被测眼睛的柱状度数和轴向,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为确定对应于多个定向的多个度数校正因子
Figure BDA0003257660760000311
例如,以确定被测眼睛的球镜、柱镜和/或轴向校正。
在一些说明性实施方式中,例如,当设备102旋转时,例如,当深度信息采集设备118包括被配置为产生针对单一子午线的深度映射信息时,应用160可以被配置为确定多个度数校正因子
Figure BDA0003257660760000312
例如,一维深度映射器可以被配置为沿着一条子午线(例如,深度信息采集设备118的一个光轴)测量到对象的距离。
在一些说明性实施方式中,应用160可以被配置为指示设备102的用户例如根据多个定向旋转设备102,例如,以采集多个定向θi的深度映射信息。
在一些说明性实施方式中,应用160可以被配置为例如基于多个方向θi的深度映射信息确定多个度数校正因子
Figure BDA0003257660760000313
(例如,根据等式9)。
在一些说明性实施方式中,设备102的用户可以沿着深度信息采集设备118的相机或传感器的光轴旋转设备102。
在一些说明性实施方式中,光轴可以例如通过校准阶段来预定义、预先识别和/或预先确定。
在一些说明性实施方式中,可以针对多个定向执行多个折射测量(例如,当设备102围绕深度信息采集设备118的光轴旋转时)。
在一些说明性实施方式中,可针对多个定向θi中的一些或全部确定多个度数校正因子
Figure BDA0003257660760000321
例如,每个定向θi一个度数校正因子
Figure BDA0003257660760000322
在一些说明性实施方式中,设备102的定向可以例如基于设备102的陀螺仪或任何其他传感器来确定。
在一些说明性实施方式中,应用160可以被配置为例如基于由深度信息采集设备118在设备102被旋转(例如以评估子午线处的放大率)时采集的深度映射信息来确定被测眼睛的完整处方。
例如,设备102的用户可以被应用160指示在被测眼睛的垂直子午线和深度采集子午线之间的第一相对角度与被测眼睛的垂直子午线和深度采集子午线之间的不同于第一相对角度的第二相对角度之间旋转设备102。
在一些说明性实施方式中,应用160可以被配置为将深度信息与椭圆相匹配,该椭圆可以定义被测眼睛的球镜、柱镜和/或轴向。
在一个示例中,两个或更多个不同的子午线可能适合于(例如,理论上)精确地定义椭圆,例如,以获得柱状透镜的完整处方。
参考图4,其示意性地示出了根据一些说明性实施方式的椭圆400的旋转。
如图4所示,一次或多次旋转可能适合于准确地定义椭圆400,例如,以获得被测眼睛的完整处方。
在一个示例中,5个不同的旋转(例如,对应于5条子午线)可能适合于(例如,理论上)准确地定义椭圆,例如,以得到被测晶状体的完整处方。
在另一个示例中,可以使用超过5个不同的旋转,例如,以增加处方的准确性。
在一个示例中,应用160(图1)可以被配置为指示用户改变深度信息采集设备118(图1)与被测眼睛之间的相对旋转以采集与椭圆400的多次旋转对应的多个深度映射信息输入。
返回参照图1,在一些说明性实施方式中,应用160可被配置为例如即使在没有设备102的旋转的情况下确定被测眼睛的完整处方,例如,包括被测眼睛的球镜、柱镜和/或轴向,例如,如下所述。
在一些说明性实施方式中,深度信息采集设备118可以包括多轴深度映射器,多轴深度映射器被配置为测量跨越多个预设(例如子午线)的距离。例如,多轴深度映射器可以被配置为确定跨越多个深度采集子午线的距离。例如,多轴深度映射器可以确定跨越水平轴(例如水平深度采集子午线)的第一距离、跨越垂直轴(例如垂直深度采集子午线)的第二距离、以及跨越45度轴(例如45度深度采集子午线)和/或任何其他轴的第三距离。
在一些说明性实施方式中,应用160可以被配置为例如使用多轴深度映射器的单次采集来确定被测眼睛的完整处方。例如,多轴深度映射器的单次采集可能适合于确定多个度数校正因子
Figure BDA0003257660760000331
例如,可用于确定被测眼睛的完整处方的最小的一组度数校正因子
Figure BDA0003257660760000332
(例如,假设度数根据子午线角度的缓慢变化),该完整处方包括被测眼睛的球镜、柱镜和/或轴位。
在一些说明性实施方式中,设备102可以例如沿着多轴深度映射器的光轴旋转,例如以在多个角度下采集多个深度图,例如以提高准确度,并且/或克服测量过程中的噪音。例如,采集可以包括在多个轴(例如,在多个深度采集子午线处)处的深度。
在一些说明性实施方式中,应用160可以被配置为处理第一深度映射信息输入和第二深度映射信息输入,第一深度映射信息输入对应多轴深度映射器的第一深度信息采集设备的第一深度采集子午线,第二深度映射信息输入对应多轴深度映射器的第二深度信息采集设备的第二深度采集子午线,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为例如基于第一深度信息采集设备的第一深度采集子午线和第二深度信息采集设备的第二深度采集子午线之间的角度来处理第一深度映射信息输入和第二深度映射信息输入,例如,如下所述。
参考图5,其示意性地图示了可以根据一些说明性实施方式来实现的多轴深度映射器500。
在一些说明性实施方式中,如在图5中所示,多轴深度映射器500可以包括多个深度映射器,例如,多个一维度深度映射器。例如,多个深度映射器中的深度映射器可以包括例如立体相机系统或双相机系统、照明器和传感器、或深度信息采集设备的任何其他配置。
在一些说明性实施方式中,多个深度映射器中的深度映射器可以被配置为提供与深度映射器的轴角(例如深度映射器的深度采集子午线)对应的深度信息。例如,包括投影仪-传感器对(表示为A1和A2)的第一深度映射器503可以被配置成提供沿第一轴角510(例如,垂直轴)的第一深度信息;和/或包括投影仪-传感器对(表示为B1和B2)的第二深度映射器507可以被配置为提供沿着第二轴角520(例如45度角)的第二深度信息。
在一些说明性实施方式中,应用160(图1)可以被配置为处理对应于第一深度映射器503的第一深度映射信息输入和对应于第二深度映射器507的第二深度映射信息输入。
在一些说明性实施方式中,应用160(图1)可以被配置为例如基于第一轴角510和第二轴角520之间的角度来处理第一深度映射信息输入和第二深度映射信息输入。
回到图1,在一些说明性实施方式中,深度信息采集设备118可以被配置为提供深度信息以确定被测眼睛的子午线的度数校正因子,该子午线对应于深度信息采集设备118的轴角。
在一些说明性实施方式中,应用160可以被配置为例如基于由深度信息采集设备118采集的深度信息来确定感测到的深度u',例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为使用来自深度映射器的深度信息,深度映射器包括照明器和深度传感器,例如,如下所述。
在一些说明性实施方式中,感测到的深度u'可以对应于被测眼睛的视网膜上的特征(例如,特征q)的反射的深度。
在一些说明性实施方式中,例如,当来自视网膜的反射对深度信息采集设备118的深度传感器来说是明显的时,可以采集到视网膜上的反射的感测到的深度u'。
在一些说明性实施方式中,应用160可以被配置为指示设备102的用户将深度信息采集设备118定位在例如一个或多个不同的距离和/或角度处,例如以使得深度信息采集设备118的深度传感器能够采集来自视网膜的反射。
在一些说明性实施方式中,应用160可以指示用户相对于被测眼睛定位深度信息采集设备118(例如,根据一种可以被配置为获得来自视网膜的均匀反射的方法)。
参考图6,图6示意性地示出了被测眼睛的图像600、被测眼睛的第一深度图610和被测眼睛的第二深度图620。
在一些说明性实施方式中,如图6所示,圆圈602可以指示被测眼睛的瞳孔区域,该区域可以是被测眼睛的感兴趣区域(ROI)。
在一些说明性实施方式中,如图6所示,圆圈604可以表示瞳孔区域周围(例如圆圈602周围)的区域601。
在一些说明性实施方式中,应用160(图1)可以被配置为识别对应于区域602的多个第一深度值,识别对应于区域601的多个第二深度值,并且例如基于多个第一深度值和多个第二深度值确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160(图1)可以被配置为例如基于多个第一深度值来确定距离值,例如基于多个第二深度值确定深度值,并例如基于深度值和距离值确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,应用160(图1)可以被配置为例如基于圆圈602和圆圈604中的深度信息之间的比较确定与被测眼睛的视网膜(例如来自被测眼睛的视网膜的反射)对应的深度值对于深度信息采集设备118(图1)是否是明显的,例如,如下所述。
在一些说明性实施方式中,应用160(图1)可以被配置为例如基于区域601中的深度信息确定例如深度信息采集设备118(图1)和被测眼睛之间的距离值,例如,如下所述。
在一些说明性实施方式中,深度图610可以包括深度信息(例如,当来自视网膜的反射对于深度信息采集设备118(图1)的深度传感器不明显时)。
在一些说明性实施方式中,如深度图610所示,圆圈602内和区域601内的深度信息可能是相似的。
在一些说明性实施方式中,当来自视网膜的反射对于深度信息采集设备118(图1)的深度传感器是明显的时,深度图620可以包括深度信息。
在一些说明性实施方式中,如深度图610所示,圆圈602内的深度信息可能与区域601中的深度信息不同。
在一些说明性实施方式中,例如,当来自视网膜的反射对于深度信息采集设备118(图1)的深度传感器是明显的时,应用160(图1)可以被配置为例如基于深度图620中的圆圈602内的多个深度数据像素(例如瞳孔ROI)来确定深度值,例如深度u'。
在一些说明性实施方式中,应用160(图1)可以被配置为例如基于圆圈602内的大部分深度数据像素的平均值确定深度值,例如深度u'。
在一些说明性实施方式中,应用160(图1)可以被配置为例如基于例如区域601中的瞳孔感兴趣区域外的多个深度数据像素来确定深度信息采集设备118(图1)和被测眼睛之间的距离。
在一些说明性实施方式中,应用160(图1)可以被配置为例如基于例如区域601中的瞳孔感兴趣区域之外的大部分深度数据像素的平均值来确定深度信息采集设备118(图1)和被测眼睛之间的距离。
返回参考图1,在一些说明性实施方式中,应用160可以被配置为例如使用由包括多个相机和光源的深度信息采集设备采集的深度映射信息来确定被测眼睛的深度信息,例如,如下所述。
在一个示例中,深度信息采集设备118可以包括两个相机。根据这个示例,两个相机的结构可以定义两个相机之间的轴,根据该轴可以估计到物体的距离。
在另一示例中,深度信息采集设备118可以包括多个相机。根据该示例,多个相机的结构可以在每对相机之间定义多个轴,例如,以例如根据多个轴一次采集对象的多个深度。
在一些说明性实施方式中,轴可以与某个角度相关(例如被测眼睛的子午线),例如,根据两个相机的轴。
在一些说明性实施方式中,应用160可以被配置为例如基于多个相机的设置和/或部署来确定多个相机的轴或多个轴。
在一些说明性实施方式中,应用160可以被配置为致使界面110指示用户旋转设备102,例如,以在采集其他角度处的其他深度读数。
在一些说明性实施方式中,应用160可以被配置为基于从光源发出的光来确定深度信息,例如,反射与被测眼睛的视网膜的距离,光源可能接近相机,例如,如下所述。
在一个示例中,设备102或任何其他光源的闪光可能适合触发视网膜的反射。
在一些说明性实施方式中,反射距深度信息采集设备118的距离可以例如使用来自至少两个相机的立体手段确定。
在一些说明性实施方式中,应用160可以使用上述一种或多种方法,例如,以增加瞳孔的扩张和/或增加折射测量的准确度(例如,当使用来自深度信息采集设备118的深度映射信息时),深度信息采集设备118包括多个相机和光源,例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为减少可能由调整(accommodation)状态引起的误差(“调整折射误差”),例如,如下所述。
在一些说明性实施方式中,应用160可以被配置为致使设备102的图形显示器显示预定义图案,例如,预定义图案被配置为减少被测眼睛的调整误差,例如,如下所述。
例如,可以存在三种类型或任何其他数量的调整状态,例如,调节状态包括动态调整状态、强直调整状态和/或近端调整状态。
在一些说明性实施方式中,例如,如果在有限距离处(例如,在被测眼睛和设备102之间)执行校正因子测量,被测眼睛可能被淹没到三种类型的调整状态中的一种。
在一些说明性实施方式中,应用160可以被配置为导致或触发显示设备(例如设备102的显示器)显示图像,例如,以减少和/或抑制适应折射误差。
在一个示例中,设备102的屏幕(例如电话屏幕)上的图像可以以可被配置为放松用户的适应的方式来显示。例如,一个或多个预定义的图像可以被显示给用户,以展示光学幻像,光学幻像可放松被测眼睛的调整。例如,可以在折射测量期间同时显示图像。
参考图7,其示意性地示出了可以根据一些说明性实施方式使用的图案的两个图像。
在一些说明性实施方式中,应用160(图1)可以被配置为使得显示设备(例如设备102(图1)的显示器)显示图像710,图像710包括预定义图案,例如预定义图案可以被配置为减少和/或抑制调整折射误差。
在一些说明性实施方式中,例如,当用户被指示到停止点时,图像710中的预定义图案可以被患者感知为图像720。
回到图1,在一些说明性实施方式中,应用160可以被配置为将折射测量与另一种测量方法(例如主观测量方法)结合,例如,如下所述。
在一些说明性实施方式中,主观测量方法可以包括在设备102的显示器上显示图像,和/或分析设备102和用户的被测眼睛之间的距离,例如实际距离。
在一些说明性实施方式中,折射测量可以例如在主观测量之前应用,例如,以评估操作点,例如,以确定可能适合患者的目标的大小和/或比例。
在一些说明性实施方式中,可以例如与主观测量同时应用折射测量,例如,以提高例如折射测量方法的精度。
在一些说明性实施方式中,应用160可以被配置成例如基于由深度映射信息采集设备118例如在具有差的光条件的环境中采集的深度信息确定被测眼睛的折射误差的一个或多个参数,例如,如下所述。
在一些说明性实施方式中,例如,当深度信息采集设备118例如在差光线条件下获取深度映射信息时,被测眼睛的瞳孔可以自然地扩张和/或来自深度信息采集设备118的IR源的红外(IR)光可以不使瞳孔收缩。
在一个示例中,可以从瞳孔中的更大区域接收信号,例如,当深度图的获取是在光线不足的情况下时,这可以用于增加折射测量的准确性,和/或可以改善用户体验,例如,以定位反射角。
在另一示例中,例如,从图像处理考虑,深度图中的特征可以仅与具有更好信噪比的IR光匹配。
参考图8,其示意性地示出了根据一些说明性实施方式的确定被测眼睛的折射误差的一个或多个参数的方法。例如,图14的方法的一个或多个操作可由系统(例如系统100(图1)、设备(例如设备102(图1))、服务器(例如服务器170(图1))、和/或应用程序(例如应用160(图1))执行。
在一些说明性实施方式中,如框802所示,该方法可以包括:处理深度映射信息以识别被测眼睛的深度信息。例如,应用160(图1)可以处理深度映射信息以识别被测眼睛的深度信息,例如,如上所述。
在一些说明性实施方式中,如在框804所示,该方法可以包括:基于被测眼睛的深度信息确定被测眼睛的折射误差的一个或多个参数。例如,应用160(图1)可以基于被测眼睛的深度信息确定被测眼睛的折射误差的一个或多个参数,例如,如上所述。
参考图9,其示意性地示出了根据一些说明性实施方式的制造产品900。产品900可以包括一个或多个有形的计算机可读(“机器可读”)的非临时性存储介质902,非临时性存储介质902可包括计算机可执行指令(例如,由逻辑904执行),计算机可执行指令在由在至少一个计算机处理器执行时可操作以使至少一个计算机处理器能够在设备102(图1)、服务器170(图1)、深度信息采集设备118(图1)和/或应用160(图1)中实施操作,以使设备102(图1)、服务器170(图1)、深度信息采集设备118(图1)、和/或应用160(图1)以执行、触发和/或实现一个或多个操作和/或功能,和/或执行、触发和/或实现参照图1、图2、图3、图4、图5、图6、图7和/或图8描述的一个或多个操作和/或功能,和/或文中描述的一种或多种操作。短语“非暂时性机器可读介质”和“计算机可读非暂时性存储介质”可以被指示为包括所有计算机可读介质,唯一的例外是暂时性传播信号。
在一些说明性实施方式中,产品900和/或机器可读存储介质902可以包括能够存储数据的一种或多种类型的计算机可读存储介质,包括易失性存储器、非易失性存储器、可移动或不可移动存储器、可擦除或不可擦除存储器、可写或可重写存储器等。例如,机器可读存储介质1502可以包括RAM、DRAM、双倍数据速率DRAM(DDR-DRAM)、SDRAM、静态RAM(SRAM)、ROM、可编程ROM(PROM)、可擦除可编程ROM(EPROM)、电可擦可编程ROM(EEPROM)、高密度盘ROM(CD-ROM)、可记录高密度盘(CD-R)、可重写高密度盘(CD-RW)、闪存(例如NOR orNAND闪存),内容可寻址存储器(CAM)、聚合物存储器、相变存储器、铁电存储器、氧化硅-氮化物-氧化硅(SONOS)存储器、磁盘、固态驱动器(SSD)、软盘、硬盘驱动器、光盘、磁光盘、卡、磁卡、光卡、磁带、盒式磁带等。计算机可读存储介质可以包括涉及通过通信链路(例如调制解调器)、无线电或网络连接从远程计算机向请求计算机下载或传输计算机程序的任何合适的介质,该计算机程序由包含在载波或其他传播介质中的数据信号承载。
在一些说明性实施方式中,逻辑904可以包括指令、数据、和/或代码,其中,如果由一个机器执行,可能会导致该机器以执行如本文描述的方法、过程和/或操作。该机器可以包括例如任何合适的处理平台、计算平台、计算设备、处理设备、计算系统、处理系统、计算机、处理器等,并且可以使用硬件、软件、固件等的任何合适组合来实现。
在一些说明性实施方式中,逻辑904可以包括或者可以被实现为:软件、软件模块、应用、程序、子例程、指令、指令集、计算代码、字、值、符号等等。指令可以包括任何合适类型的代码,例如源代码、编译代码、解释代码、可执行代码、静态代码、动态代码等等。指令可以根据预定义的计算机语言、方式或语法来实现,用于指示处理器执行特定功能。指令可以使用任何合适的高级、低级、面向对象、可视化、编译和/或解释的编程语言来实现,例如C、C++、Java、BASIC、Matlab、Pascal、Visual BASIC、汇编语言、机器代码等。
示例
以下示例涉及进一步的实施方式。
示例1包括一种产品,该产品包括一个或多个有形计算机可读非暂时性存储介质,该存储介质包括计算机可执行指令,该指令在由至少一个计算机处理器执行时可操作以使该至少一个计算机处理器能够使计算设备处理深度映射信息以识别被测眼睛的深度信息;根据被测眼睛的深度信息,确定被测眼折射误差的一个或多个参数。
示例2包括示例1的主题,并且可选地,其中指令在被执行时使计算设备基于深度映射信息识别通过被测眼睛的晶状体采集的深度值,并基于深度值确定被测眼睛的折射误差的一个或多个参数。
示例3包括示例2的主题,并且可选地,其中经由被测眼睛的晶状体采集的深度值包括对应于被测眼睛的视网膜的深度值。
示例4包括示例1至3中任一项的主题,并且可选地,其中指令在被执行时使计算设备基于被测眼睛和采集深度映射信息的深度信息采集设备之间的距离确定被测眼睛的折射误差的一个或多个参数。
示例5包括示例4的主题,并且可选地,其中指令在被执行时使计算设备基于深度映射信息确定被测眼睛与深度信息采集设备之间的距离。
示例6包括示例4或5的主题,并且可选地,其中指令在被执行时使计算设备基于深度映射信息识别与被测眼睛的预定义区域对应的深度值,根据与被测眼睛的预定义区域对应的深度值确定被测眼睛与深度信息采集设备之间的距离。
示例7包括示例6的主题,并且可选地,其中被测眼睛的预定义区域包括被测眼睛的巩膜或被测眼睛的瞳孔周围的不透明区域。
示例8包括示例4至7中任一项的主题,并且可选地,其中指令在被执行时使计算设备基于与深度信息采集设备的位置对应的位置信息确定被测眼睛与深度信息采集设备之间的距离。
示例9包括示例4至8中任一项的主题,并且可选地,其中指令在被执行时使计算设备通过确定度数校正因子(表示为ΔP)来确定被测眼睛的折射误差的一个或多个参数,如下所示:
Figure BDA0003257660760000421
其中u'表示基于深度映射信息的深度值,d表示基于被测眼睛和深度信息采集设备之间的距离的距离值。
示例10包括示例1至9中任一项的主题,并且可选地,其中指令在被执行时使计算设备使用户界面指示用户将深度信息采集设备定位成面向镜子,使得深度映射信息将通过镜子被采集。
示例11包括示例1至10中任一项的主题,并且可选地,其中指令在被执行时使计算设备基于深度映射信息识别与被测眼睛的第一区域对应的第一深度值和与被测眼睛的第二区域对应的第二深度值,并基于第一深度值和第二深度值来确定被测眼睛的折射误差的一个或多个参数。
示例12包括示例11的主题,并且可选地,其中指令在被执行时使计算设备基于深度映射信息识别对应于被测眼睛的第一区域的多个第一深度值,基于深度映射信息识别对应于被测眼睛的第二区域的多个第二深度值,并基于多个第一深度值和多个第二深度值确定被测眼睛的折射误差的一个或多个参数。
示例13包括示例12的主题,并且可选地,其中指令在被执行时使计算设备基于多个第一深度值确定距离值,基于多个第二深度值确定深度值,并基于深度值和距离值确定被测眼睛的折射误差的一个或多个参数。
示例14包括示例11至13中任一项的主题,并且任选地,其中被测眼睛的第一区域包括被测眼睛的瞳孔,并且被测眼睛的第二区域包括被测眼睛的瞳孔周围的区域。
示例15包括示例1至14中任一项的主题,并且可选地,其中指令在被执行时使计算设备使用户界面指示用户定位深度信息采集设备以采集距被测眼睛预定距离处的深度映射信息。
示例16包括示例1至15中任一项的主题,并且可选地,其中指令在被执行时使计算设备处理被测眼睛的图像的图像信息,并基于图像信息识别被测眼睛的深度信息。
示例17包括示例1至16中任一项的主题,并且可选地,其中指令在被执行时使计算设备通过将深度信息处理为通过眼科镜片采集的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例18包括示例17的主题,并且可选地,其中指令在被执行时使计算设备通过将深度信息处理为通过眼镜镜片在距被测眼睛顶点距离处采集的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例19包括示例17的主题,并且可选地,其中指令在被执行时使计算设备通过将深度信息处理为通过被测眼睛上的隐形眼镜采集的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例20包括示例17至19中任一项的主题,并且可选地,其中指令在被执行时使计算设备基于眼科镜片的一个或多个参数确定被测眼睛的折射误差的一个或多个参数。
示例21包括示例1至20中任一项的主题,并且可选地,其中指令在被执行时使计算设备基于多个不同深度映射信息输入确定被测眼睛的折射误差的一个或多个参数。
示例22包括示例21的主题,并且可选地,其中多个不同的深度映射信息输入至少包括第一深度映射信息输入和第二深度映射信息输入,第一深度映射信息输入在深度信息采集设备和被测眼睛之间的第一相对位置处被采集,第二深度映射信息输入在深度信息采集设备和被测眼睛之间的不同于第一位置的第二相对位置处被采集。
示例23包括示例22的主题,并且任选地,其中,第一相对位置包括深度信息采集设备和被测眼睛之间的第一相对距离,第二相对位置包括深度信息采集设备和被测眼睛之间的不同于第一相对距离的第二相对距离。
示例24包括示例22或23的主题,并且可选地,其中第一相对位置包括被测眼睛的深度采集子午线和垂直子午线之间的第一相对角度,并且第二相对位置包括被测眼睛的深度采集子午线和垂直子午线之间的不同于第一相对角度的第二相对角度。
示例25包括示例24的主题,并且可选地,其中指令在被执行时使计算设备基于用于采集第一深度映射信息输入的第一深度信息采集设备的第一深度采集子午线之间与用于采集第二深度映射信息输入的第二深度信息采集设备的第二深度采集子午线之间的角度来处理第一深度映射信息输入和第二深度映射信息输入。
示例26包括示例22至25中任一项的主题,并且可选地,其中指令在被执行时使计算设备使用户界面指示用户改变深度信息采集设备与被测眼睛之间的相对位置,以在第一相对位置处采集第一深度映射信息输入和在第二相对位置处采集第二深度映射信息输入。
示例27包括示例21至26中任一项的主题,并且可选地,其中指令在被执行时使计算设备基于多个不同的深度映射信息输入来确定被测眼睛的柱状轴向或被测眼睛的柱状度数中的至少一个。
示例28包括示例1至20中任一项的主题,并且可选地,其中指令在被执行时使计算设备基于包括单个深度图的深度映射信息确定被测眼睛的折射误差的一个或多个参数。
示例29包括示例1至28中任一项的主题,并且可选地,其中指令在被执行时使计算设备使图形显示器显示被配置为减少被测眼睛的调节误差的预定义图案。
示例30包括示例1至29中任一项的主题,并且可选地,其中指令在被执行时使计算设备通过将深度信息处理为结构光深度测量的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例31包括示例1至29中任一项的主题,并且可选地,其中指令在被执行时使计算设备通过将深度信息处理为多相机深度测量的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例32包括示例1至29中任一项的主题,并且可选地,其中指令在被执行时使计算设备通过将深度信息处理为飞行时间(ToF)测量的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例33包括示例1至32中任一项的主题,并且可选地,其中深度映射信息包括来自深度映射器的至少一个深度图。
示例34包括示例1至32中任一项的主题,并且可选地,其中深度映射信息包括来自多相机设备的图像信息。
示例35包括示例1至34中任一项的主题,并且可选地,其中被测眼睛的折射误差的一个或多个参数包括用于校正被测眼睛的晶状体的晶状体度数的度数校正因子。
示例36包括示例1至35中任一项的主题,并且可选地,其中折射误差包括包含柱镜度数和柱镜轴向的近视、远视或散光中的至少一种。
示例37包括一种装置,该装置包括:用于生成深度映射信息的深度信息采集设备;和处理器,处理器被配置为:处理深度映射信息以识别被测眼睛的深度信息,并且基于被测眼睛的深度信息确定被测眼睛的折射误差的一个或多个参数。
示例38包括示例37的主题,并且可选地,其中处理器被配置为基于深度映射信息识别经由被测眼睛的晶状体采集的深度值,并且基于深度值确定被测眼睛的折射误差的一个或多个参数。
示例39包括示例38的主题,并且可选地,其中经由被测眼睛的晶状体采集的深度值包括对应于被测眼睛的视网膜的深度值。
示例40包括示例37至39中任一项的主题,并且可选地,其中处理器被配置为基于被测眼睛与深度信息采集设备之间的距离来确定被测眼睛的折射误差的一个或多个参数。
示例41包括示例40的主题,并且可选地,其中处理器被配置为基于深度映射信息确定被测眼睛与深度信息采集设备之间的距离。
示例42包括示例40或41的主题,并且可选地,其中处理器被配置为基于深度映射信息识别对应于被测眼睛的预定义区域的深度值,并且基于对应于被测眼睛的预定义区域的深度值确定被测眼睛和深度信息采集设备之间的距离。
示例43包括示例42的主题,并且可选地,其中被测眼睛的预定义区域包括被测眼睛的巩膜或被测眼睛的瞳孔周围的不透明区域。
示例44包括示例40至43中任一项的主题,并且可选地,其中处理器被配置为基于与深度信息采集设备的位置对应的位置信息确定被测眼睛与深度信息采集设备之间的距离。
示例45包括示例40至44中任一项的主题,并且可选地,其中处理器被配置为通过根据如下等式确定度数校正因子(表示为ΔP)来确定被测眼睛的折射误差的一个或多个参数:
Figure BDA0003257660760000461
其中u'表示基于深度映射信息的深度值,d表示基于被测眼睛与深度信息采集设备之间的距离的距离值。
示例46包括示例37至45中任一项的主题,并且可选地,其中处理器被配置为使用户界面指示用户将深度信息采集设备定位成面向镜子,使得深度映射信息将通过镜子采集。
示例47包括示例37至46中任一项的主题,并且可选地,其中处理器被配置为基于深度映射信息识别与被测眼睛的第一区域对应的第一深度值和与被测眼睛的第二区域对应的第二深度值,并基于第一深度值和第二深度值确定被测眼睛的折射误差的一个或多个参数。
示例48包括示例47的主题,并且可选地,其中处理器被配置为基于深度映射信息识别对应于被测眼睛的第一区域的多个第一深度值,基于深度映射信息识别对应于被测眼睛的第二区域的多个第二深度值,并以基于多个第一深度值和多个第二深度值确定被测眼睛的折射误差的一个或多个参数。
示例49包括示例48的主题,并且可选地,其中处理器被配置为基于多个第一深度值确定距离值,基于多个第二深度值确定深度值,并根据深度值和距离值确定被测眼睛的折射误差的一个或多个参数。
示例50包括示例47至49中任一个的主题,并且任选地,其中被测眼睛的第一区域包括被测眼睛的瞳孔,并且被测眼睛的第二区域包括被测眼睛的瞳孔周围的区域。
示例51包括示例37至50中任一项的主题,并且可选地,其中处理器被配置为使用户界面指示用户定位深度信息采集设备以在距被测眼睛预定义距离处采集深度映射信息。
示例52包括示例37至51中任一项的主题,并且可选地,其中处理器被配置为处理被测眼睛的图像的图像信息,并确定基于图像信息识别被测眼睛的深度信息。
示例53包括示例37至52中任一项的主题,并且可选地,其中处理器被配置为通过将深度信息处理为经由眼科镜片采集的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例54包括示例53的主题,并且可选地,其中处理器被配置为通过将深度信息处理为通过眼镜镜片在距被测眼睛的顶点距离处采集的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例55包括示例53的主题,并且可选地,其中处理器被配置为通过将深度信息处理为通过被测眼睛上的隐形眼镜采集的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例56包括示例53至55中任一项的主题,并且可选地,其中处理器被配置为基于眼科镜片的一个或多个参数确定被测眼睛的折射误差的一个或多个参数。
示例57包括示例37至56中任一项的主题,并且可选地,其中处理器被配置为基于多个不同的深度映射信息输入来确定被测眼睛的折射误差的一个或多个参数。
示例58包括示例57的主题,并且可选地,其中多个不同的深度映射信息输入至少包括第一深度映射信息输入和第二深度映射信息的输入,第一深度映射信息输入在深度信息采集设备和被测眼睛之间的第一相对位置处采集,第二深度映射信息输入在深度信息采集设备和被测眼睛之间的不同于第一位置的第二相对位置处采集。
示例59包括示例58的主题,并且可选地,其中,第一相对位置包括深度信息采集设备与被测眼睛之间的第一相对距离,第二相对位置包括深度信息采集设备与被测眼睛之间的不同于第一相对距离的第二相对距离。
示例60包括示例58或59的主题,并且可选地,其中,第一相对位置包括被测眼睛的深度采集子午线和垂直子午线之间的第一相对角度,并且第二相对位置包括被测眼睛的深度采集子午线和垂直子午线之间的不同于第一相对角度的第二相对角度。
示例61包括示例60的主题,并且可选地,其中,处理器被配置为基于用于采集第一深度映射信息输入的第一深度信息采集设备的第一深度采集子午线和用于采集第二深度映射信息输入的第二深度信息采集设备的第二深度采集子午线之间的角度来处理第一深度映射信息输入和第二深度映射信息输入。
示例62包括示例58至61中任一项的主题,并且可选地,其中处理器被配置为使用户界面指示用户改变深度信息采集设备和被测眼睛之间的相对定位以在第一个相对位置处采集第一深度映射信息输入,并在第二个相对位置处采集第二深度映射信息输入。
示例63包括示例57至62中任一项的主题,并且可选地,其中处理器被配置为基于多个不同深度映射信息输入确定被测眼睛的柱镜轴位或被测眼睛的柱镜度数中的至少一个。
示例64包括示例37至56中任一项的主题,并且任选地,其中处理器被配置以基于包含单个深度图的深度映射信息确定被测眼睛的折射误差的一个或多个参数。
示例65包括示例37至64中任一项的主题,并且可选地,其中处理器被配置为使图形显示器显示预定义图案,预定义图案被配置为减少被测眼睛的调节误差。
示例66包括示例37至65中任一项的主题,并且可选地,其中处理器被配置为通过将深度信息处理为结构光深度测量的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例67包括示例37至65中任一项的主题,并且可选地,其中处理器被配置为通过将深度信息处理为多相机深度测量的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例68包括示例37至65中任一项的主题,并且可选地,其中处理器被配置为通过将深度信息处理为飞行时间(ToF)测量的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例69包括示例37至68中任一项的主题,并且可选地,其中深度映射信息包括来自深度映射器的至少一个深度图。
示例70包括示例37至68中任一项的主题,并且可选地,其中深度映射信息包括来自多相机设备的图像信息。
示例71包括示例37至70中任一项的主题,并且可选地,其中被测眼睛的折射误差的一个或多个参数包括用于校正被测眼睛的晶状体的晶状体度数的度数校正因子。
示例72包括示例37至71中任一项的主题,并且任选地,其中折射误差包括近视、远视、或散光中的至少一个,其包括柱镜度数和柱镜轴位。
示例73包括一种确定被测眼睛的折射误差的一个或多个参数的方法,该方法包括处理深度映射信息以识别被测眼睛的深度信息;并根据被测眼睛的深度信息确定被测眼睛的折射误差的一个或多个参数。
示例74包括示例73的主题,并且可选地,包括基于深度映射信息识别经由被测眼睛的晶状体采集的深度值,并且基于深度值确定被测眼睛的折射误差的一个或多个参数。
示例75包括示例74的主题,并且可选地,其中经由被测眼睛的晶状体采集的深度值包括对应于被测眼睛的视网膜的深度值。
示例76包括示例73至75中任一项的主题,并且任选地,包括基于被测眼睛与采集深度映射信息的深度信息采集设备之间的距离确定被测眼睛的折射误差的一个或多个参数。
示例77包括示例76的主题,并且可选地,包括基于深度映射信息确定被测眼睛与深度信息采集设备之间的距离。
示例78包括示例76或77的主题,并且可选地,包括基于深度映射信息识别与被测眼睛的预定义区域对应的深度值,以及基于与被测眼睛的预定义区域对应的深度值确定被测眼睛与深度信息采集设备之间的距离。
示例79包括示例78的主题,并且可选地,其中被测眼睛的预定义区域包括被测眼睛的巩膜或被测眼睛的瞳孔周围的不透明区域。
示例80包括示例76至79中任一项的主题,并且可选地,包括基于与深度信息采集设备的位置对应的位置信息确定被测眼睛与深度信息采集设备之间的距离。
示例81包括示例76至80中任一项的主题,并且可选地,包括通过根据如下等式确定度数校正因数(表示为ΔP)来确定被测眼睛的折射误差的一个或多个参数:
Figure BDA0003257660760000491
其中u'表示基于深度映射信息的深度值,d表示基于被测眼睛与深度信息采集设备之间的距离的距离值。
示例82包括示例73至81中任一项的主题,并且可选地,包括使用户界面指示用户将深度信息采集设备面向镜子定位,从而通过镜子采集深度映射信息。
示例83包括示例73至82中任一个的主题,并且可选地,包括基于深度映射信息识别对应于被测眼睛的第一区域的第一深度值和对应于被测眼睛的第二区域第二深度值,并且基于第一深度值和第二深度值确定被测眼睛的折射误差的一个或多个参数。
示例84包括示例83的主题,并且可选地,包括基于深度映射信息识别对应于被测眼睛第一区域的多个第一深度值,基于深度映射信息识别对应于被测眼睛第二区域的多个第二深度值,并基于多个第一深度值和多个第二深度值确定被测眼睛的折射误差的一个或多个参数。
示例85包括示例84的主题,并且可选地,包括基于多个第一深度值确定距离值,基于多个第二深度值确定深度值,以及基于深度值和距离值确定被测眼睛的折射误差的一个或多个参数。
示例86包括示例83至85中任一项的主题,并且可选地,其中被测眼睛的第一区域包括被测眼睛的瞳孔,并且被测眼睛的第二区域包括被测眼睛的瞳孔周围的区域。
示例87包括示例73至86中任一项的主题,并且可选地,包括使用户界面指示用户定位深度信息采集设备以在距被测眼睛预定义距离处采集深度映射信息。
示例88包括示例73至87中任一项的主题,并且可选地,包括处理被测眼睛的图像的图像信息,并根据图像信息识别被测眼睛的深度信息。
示例89包括示例73至88中任一项的主题,并且可选地,包括通过将深度信息处理为通过眼科镜片采集的深度信息确定被测眼睛的折射误差的一个或多个参数。
示例90包括示例89的主题,并且可选地,包括:通过将深度信息处理为在距被测眼睛顶点距离处由眼镜镜片采集的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例91包括示例89的主题,并且可选地,包括通过将深度信息处理为经由被测眼睛上的隐形眼镜采集的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例92包括示例89至91中任一项的主题,并且可选地,包括基于眼科镜片的一个或多个参数确定被测眼睛的折射误差的一个或多个参数。
示例93包括示例73至92中任一项的主题,并且任选地,包括基于多个不同的深度映射信息输入确定被测眼睛的折射误差的一个或多个参数。
示例94包括示例93的主题,并且可选地,其中多个不同的深度映射信息输入至少包括第一深度映射信息输入和第二深度映射信息输入,第一深度映射信息输入在深度信息采集设备和被测眼睛之间的第一相对位置处采集,第二深度映射信息输入在深度信息采集设备和被测眼睛之间的不同于第一位置的第二相对位置处采集。
示例95包括示例94的主题,并且可选地,其中第一相对位置包括深度信息采集设备与被测眼睛之间的第一相对距离,第二相对位置包括深度信息采集设备与被测眼睛之间的不同于第一相对距离的第二相对距离。
示例96包括示例94或95的主题,并且可选地,其中第一相对位置包括被测眼睛的深度采集子午线和垂直子午线之间的第一相对角度,第二相对位置包括被测眼睛的深度采集子午线和垂直子午线之间的不同于第一相对角度的第二相对角度。
示例97包括示例96的主题,并且可选地,包括基于用于采集第一深度映射信息输入的第一深度信息采集设备的第一深度采集子午线与用于采集第二深度映射信息输入的第二深度信息采集设备的第二深度采集子午线之间的夹角来处理第一深度映射信息输入和第二深度映射信息输入。
示例98包括示例94至97中任一项的主题,并且可选地,包括使用户界面指示用户改变深度信息采集设备和被测眼睛之间的相对位置,以在第一相对位置处采集第一深度映射信息输入并在第二相对位置处采集第二深度映射信息输入。
示例99包括示例93至98中任一项的主题,并且可选地,包括基于多个不同的深度映射信息输入来确定被测眼睛的柱镜轴位或被测眼睛的柱状度数中的至少一个。
示例100包括示例73至92中任一项的主题,并且可选地,包括基于包括单个深度图的深度映射信息确定被测眼睛的折射误差的一个或多个参数。
示例101包括示例73至100中任一项的主题,并且可选地,包括使图形显示器显示被配置为减少被测眼睛的调节误差的预定义图案。
示例102包括示例73至101中任一项的主题,并且可选地,包括通过将深度信息处理为结构光深度测量的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例103包括示例73至101中任一项的主题,并且可选地,包括通过将深度信息处理为多相机深度测量的深度信息来确定被测眼睛的折射误差的一个或多个参数。
示例104包括示例73至101中任一项的主题,并且可选地,包括通过将深度信息处理为飞行时间(ToF)测量的深度信息来确定被测眼睛的折射误差的一个或多个参数.
示例105包括示例73至104中任一项的主题,并且可选地,其中深度映射信息包括来自深度映射器的至少一个深度图。
示例106包括示例73至104中任一项的主题,并且可选地,其中深度映射信息包括来自多相机设备的图像信息。
示例107包括示例73至106中任一项的主题,并且可选地,其中被测眼睛的折射误差的一个或多个参数包括用于校正被测眼睛的晶状体的晶状体度数的度数校正因子。
示例108包括示例73至107中任一项的主题,并且可选地,其中折射误差包括近视、远视或散光中的包括柱镜度数和柱镜轴位的至少一种。
示例109包括一种确定被测眼睛的折射误差的一个或多个参数的装置,该装置包括用于处理深度映射信息以识别被测眼睛的深度信息的装置;和用于基于被测眼睛的深度信息确定被测眼睛的折射误差的一个或多个参数的装置。
示例110包括示例109的主题,并且可选地,包括用于基于深度映射信息识别经由被测眼睛的晶状体采集的深度值并且基于深度值确定被测眼睛的折射误差的一个或多个参数的装置。
示例111包括示例110的主题,并且可选地,其中经由被测眼睛的晶状体采集的深度值包括对应于被测眼睛的视网膜的深度值。
示例112包括示例109至111中任一项的主题,并且可选地,包括用于基于被测眼睛与采集深度映射信息的深度信息采集设备之间的距离确定被测眼睛的折射误差的一个或多个参数。
示例113包括示例112的主题,并且可选地,包括用于基于深度映射信息确定被测眼睛与深度信息采集设备之间的距离的装置。
示例114包括示例112或113的主题,并且可选地,包括用于基于深度映射信息识别与被测眼睛的预定义区域对应的深度值并基于与被测眼睛的预定义区域对应深度值确定被测眼睛和深度信息采集设备之间的距离。
示例115包括示例114的主题,并且可选地,其中被测眼睛的预定义区域包括被测眼睛的巩膜或被测眼睛的瞳孔周围的不透明区域。
示例116包括示例112至115中任一项的主题,并且可选地,包括用于基于与深度信息采集设备的位置对应的位置信息确定被测眼睛与深度信息采集设备之间的距离的装置。
示例117包括示例112至116中任一项的主题,并且可选地,包括用于通过根据如下等式确定度数校正因数(表示为ΔP)来确定被测眼睛的折射误差的一个或多个参数的装置:
Figure BDA0003257660760000531
其中u'表示基于深度映射信息的深度值,d表示基于被测眼睛与深度信息采集设备之间的距离的距离值。
示例118包括示例109至117中任一项的主题,并且可选地,包括用于使用户界面指示用户将深度信息采集设备定位成面向镜子以使得深度映射信息将经由镜子采集的装置。
示例119包括示例109至118中任一项的主题,并且可选地,包括用于基于深度映射信息识别与被测眼睛的第一区域对应的第一深度值,基于深度映射信息识别与被测眼睛的第二区域对应的第二深度值,并基于第一深度值和第二深度值确定被测眼睛的折射误差的一个或多个参数的装置。
示例120包括示例119的主题,并且可选地,包括用于基于深度映射信息识别对应于被测眼睛的第一区域的多个第一深度值,基于深度映射信息识别对应于被测眼睛的第二区域的多个第二深度值,并基于对多个第一深度值和多个第二深度值确定被测眼睛的折射误差的一个或多个参数的装置。
示例121包括示例120的主题,并且可选地,包括用于基于多个第一深度值确定距离值,基于多个第二深度值确定深度值,并基于深度值和距离值确定被测眼睛的折射误差的一个或多个参数的装置。
示例122包括示例119至121中任一项的主题,并且任选地,其中被测眼睛的第一区域包括被测眼睛的瞳孔,并且被测眼睛的第二区域包括被测眼睛的瞳孔周围的区域。
示例123包括示例109至122中任一项的主题,并且可选地,包括用于使用户界面指示用户定位深度信息采集设备以在距被测眼睛预定距离处采集深度映射信息的装置。
示例124包括示例109至123中任一项的主题,并且可选地,包括用于处理被测眼睛的图像的图像信息并基于图像信息识别被测眼睛的深度信息的装置。
示例125包括示例109至124中任一项的主题,并且可选地,包括用于通过将深度信息处理为通过眼科镜片采集的深度信息确定被测眼睛的折射误差的一个或多个参数的装置。
示例126包括示例125的主题,并且任选地,包括用于通过将深度信息处理为经由距被测眼睛顶点距离处的眼镜镜片采集的深度信息来确定被测眼睛的折射误差的一个或多个参数的装置。
示例127包括示例125的主题,并且可选地,包括用于通过将深度信息处理为经由被测眼睛上的隐形眼镜采集的深度信息来确定被测眼睛的折射误差的一个或多个参数的装置。
示例128包括示例125至127中任一项的主题,并且可选地,包括用于基于眼科镜片的一个或多个参数确定被测眼睛的折射误差的一个或多个参数的装置。
示例129包括示例109至128中任一项的主题,并且可选地,包括用于基于多个不同的深度映射信息输入来确定被测眼睛的折射误差的一个或多个参数的装置。
示例130包括示例129的主题,并且可选地,其中多个不同的深度映射信息输入至少包括第一深度映射信息输入和第二深度映射信息输入,第一深度映射信息输入在深度信息采集设备和被测眼睛之间的第一相对位置处采集,第二深度映射信息输入在深度信息采集设备和被测眼睛之间的不同于第一位置的第二相对位置处采集。
示例131包括示例130的主题,并且可选地,其中第一相对位置包括深度信息采集设备与被测眼睛之间的第一相对距离,第二相对位置包括深度信息采集设备与被测眼睛之间的不同于第一相对距离的第二相对距离。
示例132包括示例130或131的主题,并且可选地,其中第一相对位置包括被测眼睛的深度采集子午线和垂直子午线的第一相对角度,第二相对位置包括被测眼睛的深度采集子午线和垂直子午线之间的与第一相对角度不同的第二相对角度。
示例133包括示例132的主题,并且可选地,包括用于基于用于采集第一深度映射信息输入的第一深度信息采集设备的第一深度采集子午线与用于采集第二深度映射信息输入的第二深度信息采集设备的第二深度采集子午线之间的夹角处理第一深度映射信息输入和第二深度映射信息输入的装置。
示例134包括示例130至133中任一项的主题,并且可选地,包括用于使用户界面指示用户改变深度信息采集设备和被测眼睛之间的相对位置以在第一相对位置处采集第一深度映射信息输入并在第二个相对位置处采集第二深度映射信息输入的装置。
示例135包括示例129至134中任一项的主题,并且任选地,包括装置用于基于多个不同的深度映射信息输入确定被测眼睛的柱镜轴位和被测眼睛的柱镜度数中的至少一个。
示例136包括示例109至128中任一项的主题,并且可选地,包括用于基于包括用于单个深度图的手段的深度映射信息确定被测眼睛的折射误差的一个或多个参数的装置。
示例137包括示例109至136中任一项的主题,并且任选地,包括用于使图形显示来显示被配置为减少被测眼睛的调节误差的预定义图案的装置。
示例138包括示例109至137中任一项的主题,并且可选地,包括用于通过将深度信息处理为结构光深度测量的深度信息来确定被测眼睛的折射误差的一个或多个参数的装置。
示例139包括示例109至137中任一项的主题,并且可选地,包括用于通过将深度信息处理为多相机深度测量的深度信息来确定被测眼睛的折射误差的一个或多个参数的装置。
示例140包括示例109至137中任一项的主题,并且任选地,包括:用于通过将深度信息处理为飞行时间(TOF)测量的深度信息来确定被测眼睛的折射误差的一个或多个参数的装置。
示例141包括示例109至140中任一项的主题,并且可选地,其中深度映射信息包括来自深度映射器的至少一个深度图。
示例142包括示例109至140中任一项的主题,并且可选地,其中深度映射信息包括来自多相机设备的图像信息。
示例143包括示例109至142中任一项的主题,并且可选地,其中被测眼睛的折射误差的一个或多个参数包括用于校正被测眼睛的晶状体的晶状体度数的度数校正因子。
示例144包括示例109至143中任一项的主题,并且可选地,其中折射误差包括近视、远视或散光中的至少一种,包括用于柱镜度数和柱镜轴位的装置。
本文中参照一个或多个实施方式的功能、操作、组件和/或特征,可以与文中参照一个或多个其它实施方式所描述的一个或多个其它功能、操作、组件和/或特征组合或组合使用,或反之亦然。
虽然文中对某些特征进行了说明和描述,本领域技术人员可以想到许多修改、替换、改变和等同物。因此,应当理解,所附权利要求旨在涵盖落入本公开的真实精神内的所有此类修改和变化。

Claims (40)

1.一种产品,所述产品包括一个或多个有形计算机可读非暂时性存储介质,所述有形计算机可读非暂时性存储介质包括计算机可执行指令,所述计算机可执行指令在由至少一个计算机处理器执行时可操作以使得所述至少一个计算机处理器致使计算设备:
处理深度映射信息以识别被测眼睛的深度信息;和
基于所述被测眼睛的深度信息确定所述被测眼睛的折射误差的一个或多个参数。
2.如权利要求1所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于所述深度映射信息识别经由所述被测眼睛的晶状体采集的深度值,并且基于所述深度值确定所述被测眼睛的折射误差的一个或多个参数。
3.如权利要求2所述的产品,其中,通过所述被测眼睛的晶状体采集的深度值包括与所述被测眼睛的视网膜对应的深度值。
4.如权利要求1所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于所述被测眼睛与采集所述深度映射信息的深度信息采集设备之间的距离确定所述被测眼睛的折射误差的一个或多个参数。
5.如权利要求4所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于所述深度映射信息确定被测眼睛与所述深度信息采集设备之间的距离。
6.如权利要求4所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于所述深度映射信息识别与所述被测眼睛的预定义区域对应的深度值,并基于与所述被测眼睛的预定义区域对应的深度值确定所述被测眼睛与所述深度信息采集设备之间的距离。
7.如权利要求6所述的产品,其中,所述被测眼睛的预定义区域包括所述被测眼睛的巩膜或所述被测眼睛的瞳孔周围的不透明区域。
8.如权利要求4所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于与所述深度信息采集设备的位置对应的位置信息来确定所述被测眼睛与所述深度信息采集设备之间的距离。
9.如权利要求4所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备通过确定被表示为ΔP的度数校正因子来确定所述被测眼睛的折射误差的一个或多个参数,所述度数校正因子满足:
Figure FDA0003257660750000021
其中,u'表示基于所述深度映射信息的深度值,d表示基于所述被测眼睛与所述深度信息采集设备之间的距离的距离值。
10.如权利要求1所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备致使用户界面指示用户将深度信息采集设备定位为面向镜子,使得将经由所述镜子采集所述深度映射信息。
11.如权利要求1所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于所述深度映射信息识别与所述被测眼睛的第一区域对应的第一深度值和与所述被测眼睛的第二区域对应的第二深度值,并基于所述第一深度值和所述第二深度值确定所述被测眼睛的折射误差的一个或多个参数。
12.如权利要求11所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备:基于所述深度映射信息识别与所述被测眼睛的第一区域对应的多个第一深度值,基于所述深度映射信息识别与所述被测眼睛的第二区域对应的多个第二深度值,并基于所述多个第一深度值和所述多个第二深度值确定所述被测眼睛的折射误差的一个或多个参数。
13.如权利要求12所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备:基于所述多个第一深度值确定距离值,基于多个第二深度值确定深度值,并基于所述深度值和所述距离值确定所述被测眼睛的折射误差的一个或多个参数。
14.如权利要求11所述的产品,其中,所述被测眼睛的第一区域包括所述被测眼睛的瞳孔,所述被测眼睛的第二区域包括所述被测眼睛的瞳孔周围是区域。
15.如权利要求1所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备致使用户界面指示用户定位深度信息采集设备以在距所述被测眼睛预定距离处采集所述深度映射信息。
16.如权利要求1所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备处理所述被测眼睛的图像的图像信息,并基于所述图像信息识别所述被测眼睛的深度信息。
17.如权利要求1所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备通过将所述深度信息处理为经由眼科镜片采集的深度信息来确定所述被测眼睛的折射误差的一个或多个参数。
18.如权利要求17所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备通过将所述深度信息处理为经由距所述被测眼睛顶点距离处的眼镜的镜片采集的深度信息来确定所述被测眼睛的折射误差的一个或多个参数。
19.如权利要求17所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备通过将所述深度信息处理为经由所述被测眼睛上的隐形镜片采集的深度信息来确定所述被测眼睛的折射误差的一个或多个参数。
20.如权利要求17所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于所述眼科镜片的一个或多个参数来确定所述被测眼睛的折射误差的一个或多个参数。
21.如权利要求1至20中任一项所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于多个不同的深度映射信息输入来确定所述被测眼睛的折射误差的一个或多个参数。
22.如权利要求21所述的产品,其中,所述多个不同的深度映射信息输入至少包括在第一深度映射信息输入和第二深度映射信息输入,所述第一深度映射信息输入在深度信息采集设备和所述被测眼睛之间的第一相对位置处被采集,所述第二深度映射信息输入在所述深度信息采集设备和所述被测眼睛之间的与所述第一相对位置不同的第二相对位置处被采集。
23.如权利要求22所述的产品,其中,所述第一相对位置包括所述深度信息采集设备和所述被测眼睛之间的第一相对距离,所述第二相对位置包括所述深度信息采集设备和所述被测眼睛之间的与所述第一相对距离不同的第二相对距离。
24.如权利要求22所述的产品,其中,所述第一相对位置包括所述被测眼睛的垂直子午线之间和深度采集子午线之间的第一相对角度,并且所述第二相对位置包括所述被测眼睛的所述垂直子午线与所述深度采集子午线之间的不同于所述第一相对角度的第二相对角度。
25.如权利要求24所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于第一深度信息采集设备的用于采集所述第一深度映射信息输入的第一深度采集子午线与第二深度信息采集设备的用于采集所述第二深度映射信息输入的第二深度采集子午线之间的角度来处理所述第一深度映射信息输入和所述第二深度映射信息输入。
26.如权利要求22所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备致使用户界面指示用户改变所述深度信息采集设备和所述被测眼睛之间的相对定位以在所述第一个相对位置处采集所述第一深度映射信息输入,并在所述第二相对位置处采集所述第二深度映射信息输入。
27.如权利要求21所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于所述多个不同的深度映射信息输入来确定所述被测眼睛的柱镜轴位或所述被测眼睛的柱镜度数中的至少一个。
28.如权利要求1至20中任一项所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备基于包括单个深度图的深度映射信息来确定所述被测眼睛的折射误差的一个或多个参数。
29.如权利要求1至20中任一项所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备致使图形显示器显示被配置为减少所述被测眼睛的调整误差的预定义图案。
30.如权利要求1至20中任一项所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备通过将所述深度信息处理为结构光深度测量的深度信息来确定所述被测眼睛的折射误差的一个或多个参数。
31.如权利要求1至20中任一项所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备通过将所述深度信息处理为多相机深度测量的深度信息来确定所述被测眼睛的折射误差的一个或多个参数。
32.如权利要求1至20中任一项所述的产品,其中,所述计算机可执行指令在被执行时使得所述计算设备来通过将所述深度信息处理为飞行时间(ToF)测量的深度信息来确定所述被测眼睛的折射误差的一个或多个参数。
33.如权利要求1至20中任一项所述的产品,其中,所述深度映射信息包括来自深度映射器的至少一个深度图。
34.如权利要求1至20中任一项所述的产品,其中,所述深度映射信息包括来自多相机设备的图像信息。
35.如权利要求1至20中任一项所述的产品,其中,所述被测眼睛的折射误差的一个或多个参数包括用于校正所述被测眼睛的晶状体的晶状体度数的度数校正因子。
36.如权利要求1至20中任一项所述的产品,其中,所述折射误差包括包含柱镜度数和柱镜轴位的近视、远视或散光中的至少一种。
37.一种装置,包括:
深度信息采集设备,用于产生深度映射信息;和
处理器,被配置为处理所述深度映射信息以识别所述被测眼睛的深度信息,并基于所述被测眼睛的深度信息确定所述被测眼睛的折射误差的一个或多个参数。
38.如权利要求37所述的装置,其中,所述处理器被配置为基于所述被测眼睛与所述深度信息采集设备之间的距离来确定所述被测眼睛的折射误差的一个或多个参数。
39.一种确定被测眼睛的折射误差的一个或多个参数的方法,所述方法包括:
处理深度映射信息以识别所述被测眼睛的深度信息;和
基于所述被测眼睛的深度信息确定所述被测眼睛的折射误差的一个或多个参数。
40.如权利要求39所述的方法,包括基于所述深度映射信息识别经由所述被测眼睛的晶状体采集的深度值,并且基于所述深度值确定所述被测眼睛的折射误差的一个或多个参数。
CN202080020563.0A 2019-01-24 2020-01-23 确定被测眼睛的折射误差的一个或多个参数的装置、系统和方法 Pending CN113840566A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962796240P 2019-01-24 2019-01-24
US62/796,240 2019-01-24
PCT/IB2020/050536 WO2020152621A1 (en) 2019-01-24 2020-01-23 Apparatus, system and method of determining one or more parameters of a refractive error of a tested eye

Publications (1)

Publication Number Publication Date
CN113840566A true CN113840566A (zh) 2021-12-24

Family

ID=71733088

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080020563.0A Pending CN113840566A (zh) 2019-01-24 2020-01-23 确定被测眼睛的折射误差的一个或多个参数的装置、系统和方法

Country Status (12)

Country Link
US (1) US11426065B2 (zh)
EP (1) EP3914144A4 (zh)
JP (1) JP2022523041A (zh)
CN (1) CN113840566A (zh)
AU (1) AU2020211433A1 (zh)
BR (1) BR112021014577A2 (zh)
CA (1) CA3127571A1 (zh)
GB (1) GB2595188B (zh)
IL (1) IL285096A (zh)
MX (1) MX2021008923A (zh)
WO (1) WO2020152621A1 (zh)
ZA (1) ZA202106069B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020195865A1 (zh) * 2019-03-26 2020-10-01
JP2023515517A (ja) 2020-02-21 2023-04-13 ディット テクノロジーズ インコーポレイテッド ライブフィッティングを含む眼鏡フレームのフィッティング
EP3991634A1 (en) * 2020-10-29 2022-05-04 Carl Zeiss Vision International GmbH Method and device for determining a refractive error
EP4046566A1 (en) * 2021-02-17 2022-08-24 Carl Zeiss Vision International GmbH Apparatus and method for determining the refractive error of an eye
EP4371469A1 (en) 2022-11-21 2024-05-22 Carl Zeiss Vision International GmbH Computer-implemented method and devices for determining at least one astigmatism parameter of at least one eye of a person

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5975699A (en) 1998-04-29 1999-11-02 Carl Zeiss, Inc. Method and apparatus for simultaneously measuring the length and refractive error of an eye
JP4832310B2 (ja) * 2003-11-14 2011-12-07 オフソニックス・インコーポレーテッド レンズメータ及び波面センサ及び収差測定方法
MY165552A (en) * 2007-03-28 2018-04-03 Holden Brien Vision Inst Characterising eye-related optical systems
US9277863B2 (en) * 2008-12-01 2016-03-08 Perfect Vision Technology (Hk) Ltd. Methods and systems for automated measurement of the eyes and delivering of sunglasses and eyeglasses
ES2653970T3 (es) * 2009-07-14 2018-02-09 Wavetec Vision Systems, Inc. Determinación de la posición efectiva de la lente de una lente intraocular utilizando potencia refractiva afáquica
EP2560543B1 (en) * 2010-04-22 2018-08-01 Massachusetts Institute of Technology Near eye tool for refractive assessment
JP5762712B2 (ja) * 2010-09-30 2015-08-12 株式会社ニデック 眼科観察システム
CN105764405B (zh) * 2013-06-06 2018-12-18 6超越6视觉有限公司 基于主观距离计量测量眼睛屈光不正的系统和方法
WO2014198678A1 (en) * 2013-06-10 2014-12-18 Essilor International (Compagnie Generale D'optique) Method for determining wave-front aberration data of a to-be-tested optical system
JP5689208B1 (ja) * 2013-12-09 2015-03-25 株式会社ユニバーサルビュー コンタクトレンズの組み合わせシリーズ及びその選定方法。
DE102014223341B4 (de) * 2014-11-14 2021-09-23 Carl Zeiss Vision International Gmbh Optische Sehhilfe, Verwendung einer optischen Sehhilfe, Verfahren, Computerprogramm und System für das Ermitteln einer gesuchten Parametrisierung der dioptrischen Wirkung einer optischen Sehhilfe
JP6831171B2 (ja) * 2015-03-02 2021-02-17 株式会社ニデック 眼軸長測定装置、眼球形状情報取得方法、および眼球形状情報取得プログラム
AU2016233280B2 (en) * 2015-03-16 2021-03-25 Magic Leap, Inc. Augmented reality pulse oximetry
US10548473B2 (en) * 2015-06-23 2020-02-04 Essilor International Optometry measuring scale
WO2018021561A1 (ja) * 2016-07-29 2018-02-01 株式会社ニデック 眼科装置、およびiol度数決定プログラム
US10206566B2 (en) * 2016-10-17 2019-02-19 EyeQue Corporation Optical method to assess the refractive properties of an optical system
WO2020144619A1 (en) * 2019-01-10 2020-07-16 6 Over 6 Vision Ltd. Apparatus, system, and method of determining one or more parameters of a lens

Also Published As

Publication number Publication date
EP3914144A1 (en) 2021-12-01
EP3914144A4 (en) 2022-11-02
JP2022523041A (ja) 2022-04-21
ZA202106069B (en) 2023-06-28
US11426065B2 (en) 2022-08-30
GB2595188A (en) 2021-11-17
US20200237210A1 (en) 2020-07-30
AU2020211433A1 (en) 2021-09-16
WO2020152621A1 (en) 2020-07-30
GB202112076D0 (en) 2021-10-06
IL285096A (en) 2021-09-30
MX2021008923A (es) 2022-01-04
CA3127571A1 (en) 2020-07-30
BR112021014577A2 (pt) 2021-10-05
GB2595188B (en) 2022-12-14

Similar Documents

Publication Publication Date Title
CN109313102B (zh) 确定镜片的一个或多个光学参数的装置、系统和方法
CN113840566A (zh) 确定被测眼睛的折射误差的一个或多个参数的装置、系统和方法
US10876921B2 (en) Apparatus, system and method of determining one or more optical parameters of a lens
CN107847128B (zh) 确定瞳孔距离的装置、系统和方法
KR20160108394A (ko) 번쩍임의 광원에의 매핑
US11852559B2 (en) Apparatus, system, and method of determining one or more parameters of a lens
US20220280035A1 (en) Device and method for mapping of visual scene onto projection surface
US20220151488A1 (en) Computer-implemented method and system for interactively measuring ocular refractive errors, addition and power of reading glasses
RU2820013C2 (ru) Устройство, система и способ определения одного или более параметров рефракционной аномалии исследуемого глаза
US20200201070A1 (en) System and method of utilizing computer-aided optics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination