CN114269224A - 改进型眼像差计系统和方法 - Google Patents

改进型眼像差计系统和方法 Download PDF

Info

Publication number
CN114269224A
CN114269224A CN202080058353.0A CN202080058353A CN114269224A CN 114269224 A CN114269224 A CN 114269224A CN 202080058353 A CN202080058353 A CN 202080058353A CN 114269224 A CN114269224 A CN 114269224A
Authority
CN
China
Prior art keywords
wavefront sensor
eye
aberration measurement
alignment deviation
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080058353.0A
Other languages
English (en)
Inventor
M·霍尔
T·帕德瑞克
E·J·萨弗尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alcon Inc
Original Assignee
Alcon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alcon Inc filed Critical Alcon Inc
Publication of CN114269224A publication Critical patent/CN114269224A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/1015Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for wavefront analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0041Operational features thereof characterised by display arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/15Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing
    • A61B3/152Arrangements specially adapted for eye photography with means for aligning, spacing or blocking spurious reflection ; with means for relaxing for aligning
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/05Surgical care

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Ophthalmology & Optometry (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Primary Health Care (AREA)
  • Pathology (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

披露了用于提供改进的眼像差测量的系统和方法的技术。眼像差测量系统(100)包括被配置为提供与由眼像差测量系统(100)监测的光学目标(102)相关联的波前传感器数据的波前传感器(120)和被配置为与波前传感器(120)通信的逻辑装置(140)。逻辑装置(140)被配置为接收(502)至少包括由波前传感器(120)提供的波前传感器数据的眼像差测量输出数据,至少部分地基于所接收的眼像差测量输出数据来确定(504)与由眼像差测量系统(100)监测的光学目标(102)的相对位置和/或取向相对应的估计的眼对准偏差,以及至少部分地基于估计的眼对准偏差来生成(508)对应于所接收的眼像差测量输出数据的用户反馈。

Description

改进型眼像差计系统和方法
技术领域
本披露内容的一个或多个实施例总体上涉及眼像差测量,更具体地例如涉及用于改进临床或术中眼像差测量的系统和方法。
背景技术
眼睛手术可以包括重塑眼睛的角膜和/或表面、插入和/或更换眼内装置和/或人造眼内透镜(IOL)、和/或眼睛的有源光学部件的其他手术操纵。为了获得最佳的术后视觉结果,良好的术前临床评估和手术计划以及对手术计划执行的术中监测是至关重要的。
由眼像差计执行的眼像差测量典型地是用于在手术前表征眼睛、监测手术进展、以及评估手术成功的通用方法。常规的眼像差计经常存在与眼睛运动和/或像差计本身的未对准和光学像差相关联的各种测量误差,这可能导致手术计划不准确和患者的手术或视力结果次优。
因此,本领域需要用于改进临床和/或术中眼像差测量的系统和方法,从而为患者带来优化的手术或视力结果。
发明内容
披露了用于提供改进的眼像差测量的系统和方法的技术。根据一个或多个实施例,眼像差测量系统可以包括被配置为提供与由眼像差测量系统监测的光学目标相关联的波前传感器数据的波前传感器和被配置为与波前传感器通信的逻辑装置。逻辑装置可以被配置为至少部分地基于与眼像差测量系统相关联的像差计模型和/或眼睛模型来确定用于眼像差测量系统的复杂分析引擎,其中,像差计模型和眼睛模型是至少部分地基于由波前传感器提供的波前传感器数据。逻辑装置还可以被配置为至少部分地基于所确定的复杂分析引擎来生成用于眼像差测量系统的紧凑分析引擎
在其他实施例中,一种方法可以包括至少部分地基于与眼像差测量系统相关联的像差计模型和/或眼睛模型来确定用于眼像差测量系统的复杂分析引擎,其中,像差计模型和眼睛模型是至少部分地基于由眼像差测量系统的波前传感器提供的波前传感器数据;以及至少部分地基于所确定的复杂分析引擎来生成用于眼像差测量系统的紧凑分析引擎。
根据一些实施例,一种非暂时性机器可读介质可以包括多个机器可读指令,当被一个或多个处理器执行时,这些指令适于使一个或多个处理器执行方法。该方法可以包括至少部分地基于与眼像差测量系统相关联的像差计模型和/或眼睛模型来确定用于眼像差测量系统的复杂分析引擎,其中,像差计模型和眼睛模型是至少部分地基于由眼像差测量系统的波前传感器提供的波前传感器数据;以及至少部分地基于所确定的复杂分析引擎来生成用于眼像差测量系统的紧凑分析引擎。
在进一步的实施例中,眼像差测量系统可以包括被配置为提供与由眼像差测量系统监测的光学目标相关联的波前传感器数据的波前传感器和被配置为与波前传感器通信的逻辑装置。逻辑装置可以被配置为接收至少包括由波前传感器提供的波前传感器数据的眼像差测量输出数据,至少部分地基于所接收的眼像差测量输出数据来确定对应于由眼像差测量系统监测的光学目标的相对位置和/或取向的估计的眼对准偏差,以及至少部分地基于估计的眼对准偏差来生成对应于所接收的眼像差测量输出数据的用户反馈。
在其他实施例中,方法可以包括从包括波前传感器的眼像差测量系统接收眼像差测量输出数据,其中,眼像差测量输出数据至少包括与由眼像差测量系统监测的光学目标相关联的波前传感器数据,至少部分地基于所接收的眼像差测量输出数据来确定对应于由眼像差测量系统监测的光学目标的相对位置和/或取向的估计的眼对准偏差,以及至少部分地基于估计的眼对准偏差来生成对应于所接收的眼像差测量输出数据的用户反馈。
根据一些实施例,一种非暂时性机器可读介质可以包括多个机器可读指令,当被一个或多个处理器执行时,这些指令适于使一个或多个处理器执行方法。方法可以包括从包括波前传感器的眼像差测量系统接收眼像差测量输出数据,其中,眼像差测量输出数据至少包括与由眼像差测量系统监测的光学目标相关联的波前传感器数据,至少部分地基于所接收的眼像差测量输出数据来确定对应于由眼像差测量系统监测的光学目标的相对位置和/或取向的估计的眼对准偏差,以及至少部分地基于估计的眼对准偏差来生成对应于所接收的眼像差测量输出数据的用户反馈。
本发明的范围由权利要求限定,这些权利要求通过引用并入本部分。通过考虑以下对一个或多个实施例的详细描述,本领域技术人员可以更全面地理解本发明的实施例,并且可以实现本发明的附加优点。将参考将首先简要描述的附图的所附页。
附图说明
图1图示了根据本披露内容的实施例的眼像差测量系统的框图。
图2A至图2B图示了根据本披露内容的实施例的眼像差测量系统的像差测量表征目标的框图。
图3图示了根据本披露内容的实施例的眼像差测量系统的框图。
图4图示了根据本披露内容的实施例的表征眼像差测量系统的过程的流程图。
图5图示了根据本披露内容的实施例的操作眼像差测量系统的过程的流程图。
图6图示了根据本披露内容的实施例的多层神经网络的图。
通过参考下面的具体实施方式,可以最好地理解本发明的实施例及其优点。应当理解,相同的附图标记用于识别在一个或多个图中图示的相同的元素。
具体实施方式
根据本披露内容的各种实施例,眼像差测量系统和方法提供了对患者的眼睛的像差的基本上实时的测量和监测,减少了常规系统中典型的系统和测量误差。例如,当患者的眼睛在眼像差测量或检查期间注视时,眼睛会自然漂移。这种注视漂移包括眼睛的翻眼、斜看、扭转,以及x、y和z位置的变化。这些对准偏差会导致在对眼睛的波前表征像差的计算中出现误差。如果这些对准偏差的平均值接近于零,则对检查图像流的各个帧的波前像差测量值进行平均就足以消除大部分由未对准引起的误差。当已知检查序列的对准偏差的平均值不接近零、或者无法确认对准偏差具有接近零的均值时,可以使用本文所述的各种策略来减少测量误差或噪声,包括平均波前传感器数据(例如,由泽尼克多项式展开表示)之一或其组合,其中对准偏差不超过预设阈值,使用(本文所述的)复杂分析方法来校正波前传感器数据中的基于未对准的误差,基于应用于一系列波前测量值的聚类分析和/或基于眼球跟踪仪数据来确定眼睛的注视状态(例如,针对每个波前测量值)。估计的对准偏差和/或其对波前测量值的影响可以被减小到眼对准偏差度量,并且作为具有对应图形的显示视图被提供给眼像差测量系统的用户,或者用于使眼像差测量系统忽略来自检查图像序列的图像或中止和/或重新开始检查。如此,实施例提供了基本上实时的监测反馈,同时提供比常规系统更可靠和准确的像差测量测量值,比如通过降低由于在检查图像序列期间眼睛运动而导致的在临床和术中眼像差测量检查中的可变性。
在本披露内容的附加实施例中,眼像差测量系统和方法提供了一种平台和技术来准确地表征系统像差并校正波前传感器数据,否则这些数据将被与患者的眼睛相关联的对准偏差劣化。例如,为了考虑由系统像差引起或在眼睛运动期间产生的可能误差,本文所述的眼像差测量系统可以采用两种独特的校准形式中的一种或多种形式来进行准确的高阶像差(HOA)分析:系统表征过程、以及复杂分析训练过程。
对于系统表征过程,眼像差测量系统可以用于测量由模型目标生成的一系列参考干涉图(例如,波前传感器数据的形式),该模型目标被配置为向具有基本上零对准偏差的眼像差测量系统呈现基本上单一类型的可变像差(例如,散焦像差)。参考干涉图可以用于表征和/或量化特定眼像差测量系统的任何系统像差,这可以用于校正由该特定眼像差测量系统的波前传感器提供的波前传感器数据,比如通过在随后的分析之前去除系统像差。
对于复杂分析训练过程,眼像差测量系统可以用于捕获使用模型目标生成的波前测量值组,该模型目标被配置为向在模型目标的像差元素的翻眼、斜看、扭转以及x、y和z位置中具有可变对准偏差的眼像差测量系统呈现不同类型和变化强度的像差选择(例如,泽尼克展开系数高达6阶)。波前测量值组可以用于训练和/或改进由眼像差测量系统执行的复杂分析引擎,并且例如被配置为基于未校正的波前传感器数据来生成基本上准确的估计的对准偏差和/或校正的波前传感器数据、或未校正的波前传感器数据与如本文所述的眼球跟踪仪数据的组合。如此,实施例提供比常规系统更可靠和准确的像差测量测量值,比如通过由于减少由系统像差和离轴或偏斜眼像差测量测量值导致的误差而增加像差测量测量值的精度和准确度。而且,实施例通过增加可以被准确地补偿或校正并且因此包括在特定检查中(例如,在检查图像序列的给定图像中存在和/或检测到)的对准偏差的范围来提供更稳健(例如,可靠和快速)的像差测量系统。
图1图示了根据本披露内容的实施例的眼像差测量系统100的框图。在图1所示的实施例中,眼像差测量系统100可以被实现以提供对光学目标102(例如,患者的眼睛)基本上实时的(例如,30Hz更新)监测,同时连续地补偿常见的表征误差,比如患者运动、系统光学像差、热变化、振动和/或其他表征误差,否则将劣化由眼像差测量系统100提供的眼像差测量。
如图1所示,眼像差测量系统100包括生成探测束111的信标110,该信标用于为眼像差测量系统100的波前传感器120和/或其他元件照亮光学目标102。眼像差测量系统100还可以包括各种其他传感器特定信标和/或光源,比如用于为眼球跟踪仪130照亮光学目标102的发光二极管(LED)阵列132、以及用于生成OCT探测束124以便为OCT传感器122照亮光学目标102的OCT信标123。分束器112-116用于向光学目标102提供探测束111并生成来源于光学目标102的相关联传感器束113、115、117(例如,探测束111、OCT探测束124、以及由LED阵列132生成、被光学目标102反射的光的一部分)。信标110、OCT信标123、LED阵列132、以及眼像差测量系统100的每个传感器元件可以由控制器140控制(例如,通过通信链路141-144),并且控制器140也可以用作在信标110、OCT信标123、LED阵列132、和眼像差测量系统100的传感器元件与眼像差测量系统100的其他元件之间的接口,这些其他元件包括用户接口146、服务器150、分布式服务器154和如图所示的其他模块148(例如,通过可选的通信链路145、149和155访问)。
在典型的操作中,控制器140初始化波前传感器120、可选的OCT传感器122、和可选的眼球跟踪仪130中的一个或多个,控制信标110、OCT信标123、和/或LED阵列132以照亮光学目标102,并且接收来自眼像差测量系统100的各种传感器元件的眼像差测量输出数据(例如,波前传感器数据、眼球跟踪仪数据、OCT传感器数据)。如本文所述,控制器140可以处理眼像差测量输出数据本身(例如,以检测或校正对准偏差和/或从波前传感器数据中提取像差参数)或可以将眼像差测量输出数据提供给服务器150和/或分布式服务器系统154(例如,通过网络152)来进行处理。控制器140和/或服务器150可以被配置为在用户接口146处接收用户输入(例如,以控制眼像差测量系统100的操作)和/或生成用户反馈以经由用户接口146的显示器向用户显示,比如本文所述的眼像差测量输出数据和/或眼像差测量输出数据的特征的显示视图。控制器140、服务器150、和/或分布式服务器系统154可以被配置为存储、处理、和/或以其他方式操纵与眼像差测量系统100的操作和/或表征相关联的数据,例如,包括机器学习和/或训练复杂分析引擎(例如,基于神经网络的分类和/或回归引擎)以表征眼像差测量系统100的系统像差、检测与光学目标102相关联的对准偏差、和/或校正如本文所述的波前传感器数据和/或相关联的像差分类系数。在各种实施例中,眼像差测量系统100可以被配置为提供对光学目标102的光学像差测量的基本上实时的监测和用户反馈(例如,30Hz或更高频率更新),同时连续地补偿如本文所述的常见的表征误差,这使眼像差测量系统100特别适用于临床和术中检查。
信标110可以通过激光源(例如,产生显著相干光)和/或超辐射发光二极管(例如,产生相对低的相干光的“SLD”)来实现,它们可以由控制器140控制以产生主要用于波前传感器120的探测束111。OCT信标123可以通过激光源和/或超辐射发光二极管(例如,产生相对低的相干光,其特别适用于OCT传感器122)来实现,它们可以由控制器140控制以产生主要用于OCT传感器122的OCT探测束124。在各种实施例中,OCT信标可以与OCT传感器122集成,如图所示,可以与例如信标110集成,和/或可以被实现为它自己的独立信标,类似于信标110(例如,使用适当的分束器布置)。LED阵列132可以通过成形或图案化的LED阵列来实现,其可以由控制器140控制以照亮主要用于眼球跟踪仪130的目标102。分束器112-116可以通过多个光学部件(例如,薄膜分束器、镜像表面)中的任何一个来实现,这些光学部件被配置为将探测束111瞄准和/或穿过光学目标102并使探测束111的至少一部分和/或由光学目标102生成的源束(例如,探测束111或124和/或从LED阵列132发射的光的反射部分)转向眼像差测量系统100的各种传感器元件以形成传感器束113-117(例如,传感器束)。光学目标102可以是例如患者眼睛,或者可以通过单程(探测束111关闭而光学目标102生成其自身的照明)或双程(例如,探测束111开启的正常操作)模型目标来实现,例如,如本文所述。
波前传感器120可以被实现为装置或装置架构中的任何一个或组合,其被配置为测量光学波前(比如通过探测束111从光学目标102的至少一个反射生成的传感器束117的光学波前)的像差,并且波前传感器120可以被配置为提供相关联的波前传感器数据。例如,波前传感器120可以被实现为夏克-哈特曼(Shack-Hartmann)波前传感器、相移纹影技术波前传感器、波前曲率传感器、金字塔波前传感器、共路径干涉仪、多边剪切干涉仪、Ronchi测试仪、剪切干涉仪、和/或其他能够被配置用于眼科的波前传感器中的任何一个或组合。由波前传感器120提供的波前传感器数据可以以多种格式来表示,包括泽尼克系数,例如,傅立叶、余弦或哈特莱变换(Hartley transform),或在圆柱或笛卡尔坐标中的泰勒多项式(Taylor polynomial),或作为干涉图。
OCT传感器122可以被实现为被配置为使用相对低的相干光和低相干干涉测量法来从光学散射介质(比如光学目标102)内捕获微米和/或亚微米分辨率的二维和三维图像的装置或装置架构中的任何一个或组合,并且被配置为提供相关联的OCT传感器数据。例如,OCT传感器122可以被实现为能够被配置用于眼科的OCT传感器架构中的任何一个或组合。眼球跟踪仪130可以被实现为被配置为跟踪光学目标102的取向和/或位置和/或光学目标102的特征(例如,视网膜、瞳孔、虹膜、角膜、晶状体)的装置或装置架构中的任何一个或组合,包括常规的眼球跟踪仪或眼底相机,并且被配置为提供相关联的眼球跟踪仪数据。在一些实施例中,眼球跟踪仪130可以被配置为捕获与目标102相关联的一种或多种类型的浦肯野反射的图像。
控制器140可以被实现为可以适于执行、存储、和/或接收适当的指令的任何适当的逻辑装置(例如,处理装置、微控制器、处理器、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、存储器存储装置、存储器读取器或其他装置或装置的组合),这些指令是比如实现控制回路或过程以用于控制例如眼像差测量系统100和/或眼像差测量系统100的元件的各种操作的软件指令。这种软件指令还可以实现用于处理传感器信号、确定传感器信息、提供用户反馈(例如,通过用户接口146)、查询装置的操作参数、选择装置的操作参数、或执行本文所述的各种操作(例如,由眼像差测量系统100的各种装置的逻辑装置执行的操作)中的任一个的方法。
此外,机器可读介质可以被提供用于存储用于加载到控制器140中并由该控制器执行的非暂时性指令。在这些和其他实施例中,控制器140可以在适当的情况下用其他部件来实现,比如易失性存储器、非易失性存储器、一个或多个接口、和/或用于与眼像差测量系统100的装置连接的各种模拟和/或数字部件。例如,控制器140可以适于例如随着时间的推移存储传感器信号、传感器信息、复杂分析参数、校准参数、校准点组、训练数据、参考数据、和/或其他操作参数,并且将这种存储的数据提供给眼像差测量系统100的其他元件。在一些实施例中,控制器140可以与用户接口146集成。
用户接口146可以被实现为显示器、触摸屏、键盘、鼠标、控制杆、旋钮、虚拟现实头戴式设备和/或任何能够接受用户输入和/或向用户提供反馈的其他装置中的一个或多个。在各种实施例中,用户接口146可以适于向眼像差测量系统100的其他装置(比如控制器140)提供用户输入。用户接口146还可以被实现为具有一个或多个逻辑装置,逻辑装置可以适于执行指令、比如软件指令,从而实现本文所述的各种过程和/或方法中的任何一个。例如,用户接口146可以适于形成通信链路、发送和/或接收通信(例如,传感器数据、控制信号、用户输入和/或其他信息)、确定一个或多个操作的参数、和/或执行本文所述的各种其他过程和/或方法。
在一些实施例中,用户接口146可以适于接受用户输入,例如,以形成通信链接(例如,到服务器150和/或分布式服务器系统154)、选择用于眼像差测量系统100的操作的特定参数、选择处理传感器数据的方法、调整铰接式模型目标的位置和/或取向、和/或以其他方式促进眼像差测量系统100和眼像差测量系统100内的装置的操作。一旦用户接口146接受了用户输入,用户输入就可以通过一个或多个通信链路被传输到系统100的其他装置。在一个实施例中,用户接口146可以适于显示各种传感器数据和/或其他参数的时间序列,作为包括这种数据和/或参数的图表或地图的显示的一部分。在一些实施例中,用户接口146可以适于接受用户输入,从而例如修改控制器140的控制回路或过程参数、或眼像差测量系统100的任何其他元件的控制回路或过程参数。
其他模块148可以包括传感器和/或装置中的任何一个或组合,传感器和/或装置被配置为方便眼像差测量系统100的操作。例如,其他模块148可以包括被配置为测量与眼像差测量系统100的一个或多个元件的操作相关联的一个或多个温度的温度传感器、被配置为测量眼像差测量系统100周围的环境湿度的湿度传感器、被配置为测量与眼像差测量系统100的操作相关联的振动幅度和/或存在的振动传感器、被配置为测量患者供应光学目标102的姿势、运动或其他表征的患者传感器、和/或其他能够提供有助于方便眼像差测量系统100的操作和/或校正眼像差测量系统100的操作中典型的常见系统误差的传感器数据的传感器。在附加实施例中,其他模块148可以包括附加照明与相机系统,类似于LED阵列132和眼球跟踪仪130的组合,该照明与相机系统被配置为捕获与目标102相关联的一种或多种类型的浦肯野反射的图像。
例如,服务器150可以类似于控制器140来实现,并且可以包括个人计算机或服务器计算机的各种元件,这些元件用于存储、处理和/或以其他方式操纵与一个或多个患者相关联的相对较大的数据组,例如,包括如本文所述的相对较大的训练数据组,以训练神经网络或实现其他类型的机器学习。例如,分布式服务器系统154可以被实现为控制器140和/或服务器150的多个实施例的分布式组合,并且可以包括联网和存储装置以及被配置为方便对相对较大的数据组(包括如本文所述的相对较大的训练数据组)进行存储、处理和/或其他操纵的能力,以训练神经网络或在分布式事物中实现其他类型的机器学习。网络152可以被实现为有线和/或无线网络、局域网、广域网、互联网、蜂窝网络、和/或根据其他网络协议和/或拓扑结构中的一个或多个。
图2A至图2B图示了根据本披露内容的实施例的用于眼像差测量系统100的像差测量表征目标202A-B的框图。在图2A所示的实施例中,像差测量表征目标202A可以被实现为单程模型目标,该单程模型目标被配置为表征与眼像差测量系统100相关联的光学像差。如图2A所示,像差测量表征目标/单程模型目标202A包括激光器或SLD源260,其通过透镜系统262生成源束211并且沿着光学像差系统100的光轴被定向(例如,与离开分束器116的探测束111对准)。在各种实施例中,例如,源260可以被配置为生成具有可控聚散度焦度的发散球面波前、具有可控聚散度焦度的会聚球面波前、或具有零焦度的平面波。透镜系统262经由安装座265联接到线性运动致动器264,这允许透镜系统262沿其光轴移动以改变单程模型目标202A的散焦像差以生成多个参考干涉图和对应的波前传感器数据(例如,由波前传感器120提供)。例如,这种参考干涉图和/或对应的波前传感器数据可以被聚合并存储为图3的像差计模型360,并且用于校正如本文所述的与眼像差测量系统100相关联的系统像差。
在一些实施例中,透镜系统262可以被实现为美国国家标准与技术研究院(NIST)的可跟踪透镜,并且线性运动致动器264可以被实现为相对高精度的致动器台,该致动器台被配置为将透镜系统262定位在与源260间隔开的一组位置处以生成具有已知和预定义散焦焦度(例如,散焦像差)的源束211,这些散焦焦度比如为-12至6屈光度或0至+-5屈光度,例如步长为5.0D或以更高分辨率的步长,根据由眼像差测量系统100监测的患者通常经历的散焦像差的范围。所得像差计模型360可以用于补偿各种系统像差,这些系统像差包括可归因于散粒噪声、热变化、和振动的系统像差。
如图2B所示,像差测量表征目标/双程模型目标202B包括可互换的眼像差模型270,该眼像差模型经由一个或多个安装座273被可释放地联接到六自由度(6DOF)运动致动器272,其中6DOF运动致动器272被配置为改变可互换的眼像差模型270的位置和/或取向以生成多个选定的(例如,已知的)对准偏差(例如,相对于眼像差测量系统100的光轴)和对应的多个波前传感器数据组。例如,这种对准偏差和对应的波前传感器数据可以被聚合并存储为图3的眼睛模型370,并且用于训练如本文所述的复杂分析引擎或紧凑分析引擎,以检测与眼目标102相关联的对准偏差并且校正对应的波前传感器数据。
在一些实施例中,可互换的眼像差模型270可以形成一组可互换的眼像差模型中的一个元素,每个模型形成有精确量的预定义眼像差(例如,由精确和预定义的泽尼克系数幅度表示,比如以微米为单位表示的泽尼克展开到6阶的幅度)。在一个实施例中,可以使用透明聚(甲基丙烯酸甲酯)(PMMA)在隐形眼镜车床上切割这种可互换的眼像差模型。更一般地,这种可互换的眼像差模型可以由具有可追溯性至NIST的第3方轮廓仪来测量,用于与由眼像差测量系统100执行的测量值进行地面真值比较。在各种实施例中,6DOF运动致动器272可以被配置为提供可互换的眼像差模型270沿着x、y和z轴的微米分辨率定位、和可互换的眼像差模型270关于θy(翻眼)、θx(斜看)和θz(扭转)方向的微弧度定向,如代表性坐标系280A-B所示。
在一般操作中,该组(例如,一组10个或更多换人)中的每个可互换的眼像差模型270可以依次被安装到6DOF运动致动器272,并且控制器140可以被配置为控制6DOF运动致动器272以将可互换的眼像差模型270定位或定向在由眼像差测量系统100监测的患者通常经历的对准偏差范围内的一组相对位置和/或取向(例如,相对于眼像差测量系统100的光轴)处。在一个实施例中,对准偏差组可以包括大约40,000个不同的对准偏差。在各种实施例中,将对准偏差组和(例如,由波前传感器120提供的)对应的波前传感器数据组组合可以形成受监督数据组(例如,眼睛模型370),该受监督数据组可以用于确定如本文所述的复杂或紧凑的分析引擎。这种分析引擎可以用于补偿光学目标102的对准偏差,这些对准偏差也可以由眼球跟踪仪130来测量。更一般地,由像差测量表征目标202A-B执行的表征的组合可以用于补偿或校正由光学目标102的未对准引起的波前传感器数据中的系统像差和误差两者。
图3图示了根据本披露内容的实施例的眼像差测量系统300的框图。在图3所示的实施例中,眼像差测量系统300可以被配置为使用由眼像差测量系统100通过像差测量表征目标202A-B生成的表征数据来生成复杂分析引擎350和/或紧凑分析引擎340,这些引擎可以在眼像差测量系统100的操作期间被用于提供对光学目标102的光学像差测量的基本上实时的监测和用户反馈(例如,30Hz或更高频率更新),同时连续地补偿如本文所述的常见的表征误差。
如图3所示,眼像差测量系统300类似于眼像差测量系统100,但是具有关于在眼像差测量系统100或300的操作中使用的各种数据结构和可执行程序指令的附加细节。例如,控制器140被示出被实现为具有紧凑分析引擎340现,并且服务器150和分布式服务器系统154各自被示出为被实现为具有或存储像差计模型360、眼睛模型370、训练数据392、受监督学习引擎390、复杂分析/神经网络引擎350、和紧凑分析引擎340中的一个或多个。虚线通常指示特定元件的可选存储和/或实现,但是在各种实施例中,控制器140、服务器150和分布式服务器系统154中的每一个可以实现或存储任何所识别的元件和/或如本文所述的附加元件。
一般而言,像差计模型360可以通过聚合与单程模型目标202A的使用相关联的传感器数据来生成以表征眼像差测量系统100,眼睛模型370可以通过聚合与双程模型目标202B的使用相关联的传感器数据来生成以表征与光学目标102相关联的参数空间,训练数据392可以通过结合像差计模型360和/或眼睛模型370和/或通过生成和聚合模拟的训练数据组来生成,如本文关于图6的元素描述的。受监督学习引擎350可以被实现为静态学习引擎和/或根据被配置为使用训练数据392生成复杂分析引擎350的程序生成学习引擎(例如,遗传算法可更新学习引擎)。例如,复杂分析引擎350可以被实现为深度神经网络,和/或可以使用其他复杂分析方法论来实现,包括其他各种神经网络架构或复杂分析方法论,包括用于如本文所述的分类和/或回归的密集K最近邻(k-NN)数据库。紧凑分析引擎340可以被实现为复杂分析引擎350的紧凑形式,比如更适合于由控制器140执行的相对低资源但高性能的形式,并且如此可以被实现为深度神经网络和/或其他复杂分析方法论。在特定实施例中,紧凑分析引擎340可以被实现为具有比复杂分析引擎350更少的隐藏层和/或神经元/层的神经网络。
图4图示了根据本披露内容的实施例的表征眼像差测量系统100和/或300的过程400的流程图。应当理解,过程400的任何步骤、子步骤、子过程或框可以以不同于图4所示实施例的顺序或布置来执行。例如,在其他实施例中,一个或多个框可以从过程中省略或添加到过程中。此外,框输入、框输出、各种传感器信号、传感器信息、校准参数、和/或其他操作参数可以在移动到对应过程的后续部分之前被存储到一个或多个存储器中。虽然过程400是参考参考图1至图3所述的系统、过程、控制回路和图像来描述的,但过程400可以通过不同于那些系统、过程、控制回路和图像并且包括例如电子装置、传感器、组件、移动结构和/或移动结构属性的不同选择的其他系统来执行。
在框402中,生成与眼像差测量系统相关联的像差计模型。例如,控制器140、服务器150、和/或分布式服务器系统154可以被配置为控制单程模型目标202A(被布置为由眼像差测量系统100监测的光学目标102)的源260,以通过透镜系统262生成源束211以照亮眼像差测量系统100的波前传感器120和/或其他元件。例如,控制器140可以被配置为根据多个选定的散焦焦度来改变单程模型目标202A的散焦像差,以生成由波前传感器120提供的多个波前传感器数据组。控制器140、服务器150、和/或分布式服务器系统154可以被配置为至少部分地基于由波前传感器120提供的多个波前传感器数据组来确定与眼像差测量系统100相关联的系统像差。系统像差和/或相关联的波前传感器数据组可以被存储(例如,在服务器150和/或分布式服务器系统154上)作为像差计模型360。
在框404中,生成与眼像差测量系统相关联的眼睛模型。例如,控制器140、服务器150、和/或分布式服务器系统154可以被配置为控制眼像差测量系统100的信标110以生成探测束111以照亮双程模型目标202B(被布置为由眼像差测量系统100监测的光学目标102),这样依次照亮(例如,经由探测束111的反射)眼像差测量系统100的波前传感器120、眼球跟踪仪130、OCT传感器122、和/或其他元件中的一个或多个元件。例如,控制器140可以被配置为根据多个选定的对准偏差来改变双程模型目标202B的可互换眼像差模型270相对于眼像差测量系统100的光轴111的位置和/或取向,以生成由波前传感器120提供的对应的多个波前传感器数据组。多个选定的对准偏差和/或对应的多个波前传感器数据组可以被存储(例如,在服务器150和/或分布式服务器系统154上)作为眼睛模型370。类似的技术可以用于将来自眼球跟踪仪130的眼球跟踪仪数据和来自OCT传感器122的OCT传感器数据合并到眼睛模型370中。
在框406中,确定复杂分析引擎。例如,控制器140、服务器150、和/或分布式服务器系统154可以被配置为至少部分地基于在框402中生成的像差计模型360和/或在框404中生成的眼睛模型370来确定复杂分析引擎350。在一些实施例中,控制器140、服务器150、和/或分布式服务器系统154可以被配置为形成深度神经网络600,该深度神经网络包括输入层620、输出层640和联接在输入层620与输出层640之间的至少一个隐藏层630-639,每个层都包括多个神经元。控制器140、服务器150、和/或分布式服务器系统154可以被配置为经由受监督学习引擎390来训练与神经网络600的输入、输出和隐藏层的每个神经元相关联的至少一个可训练加权矩阵W,使用眼睛模型370的对准偏差作为地面真值输出数据和使用眼睛模型370的对应波前传感器数据组作为如本文所述的训练输入数据。所得深度神经网络可以被存储并用作复杂分析引擎350。在其他实施例中,控制器140、服务器150、和/或分布式服务器系统154可以被配置为至少部分地基于与在像差计模型360中的眼像差测量系统相关联的系统像差生成对应于眼睛模型370的多个选定对准偏差的多个校正的波前传感器数据组,然后形成神经网络600并使用受监督学习引擎390训练神经网络600的一个或多个复杂分析参数以确定如本文所述的复杂分析引擎350。
在框408中,生成紧凑分析引擎。例如,控制器140、服务器150、和/或分布式服务器系统154可以被配置为形成紧凑神经网络600(包括输入层620、输出层640和联接在输入层620与输出层640之间的单个隐藏层630),并且至少部分地基于与多个复杂分析引擎350的隐藏层630-639相关联的一个或多个复杂分析参数来生成与紧凑神经网络600的输入、输出和/或隐藏层的每个神经元相关联的加权矩阵W。在生成时,紧凑分析引擎340可以被存储或以其他方式与控制器140集成或由该控制器实现,该控制器可以使用紧凑分析引擎340来生成对如本文所述的光学目标102的眼对准偏差、眼像差和/或其他特征的基本上实时的(例如,30帧/秒)用户反馈(例如,包括各种图形的显示视图)和可靠且准确的监测。
图5图示了根据本披露内容的实施例的操作眼像差测量系统100和/或300的过程500的流程图。应当理解,过程500的任何步骤、子步骤、子过程或框可以以不同于图5所示实施例的顺序或布置来执行。例如,在其他实施例中,一个或多个框可以从过程中省略或添加到过程中。此外,框输入、框输出、各种传感器信号、传感器信息、校准参数、和/或其他操作参数可以在移动到对应过程的后续部分之前被存储到一个或多个存储器中。虽然过程500是参考参考图1至图3所述的系统、过程、控制回路和图像来描述的,但过程500可以通过不同于那些系统、过程、控制回路和图像并且包括例如电子装置、传感器、组件、移动结构和/或移动结构属性的不同选择的其他系统来执行。
在框502中,接收眼像差输出。例如,控制器140、服务器150、和/或分布式服务器系统154可以被配置为接收至少包括由波前传感器120提供的波前传感器数据的眼像差测量输出数据。更一般地,眼像差测量输出数据可以包括如本文所述的由波前传感器120提供的波前传感器数据、由OCT传感器122提供的OCT传感器数据、由眼球跟踪仪130提供的眼球跟踪仪数据、和/或由眼像差测量系统100提供的其他输出数据中的任何一个或多个。
在框504中,确定估计的眼对准偏差。例如,控制器140、服务器150、和/或分布式服务器系统154可以被配置为至少部分地基于在框502中接收的眼像差测量输出数据来确定对应于由眼像差测量系统100监测的光学目标102(例如,患者的眼睛)的相对位置和/或取向的估计的眼对准偏差。在一些实施例中,控制器140、服务器150、和/或分布式服务器系统154可以被配置为至少部分地基于在框502中接收的眼球跟踪仪传感器数据来确定估计的眼对准偏差。在其他实施例中,在框502中接收的波前传感器数据包括波前传感器测量值的时间序列,并且控制器140、服务器150、和/或分布式服务器系统154可以被配置为通过针对每个波前传感器测量值确定对应于波前传感器测量值的波前估计眼对准偏差来确定估计的眼对准偏差。
例如,在一个实施例中,控制器140、服务器150、和/或分布式服务器系统154可以被配置为通过以下方式来确定估计的眼对准偏差:通过针对每个波前传感器测量值确定光学目标102的对应的估计相对位置和/或取向(例如,光学目标102的估计的眼对准)、至少部分地基于一个或多个预设或自适应簇阈值来识别光学目标的估计相对位置和/或取向的一个或多个簇、至少部分地基于一个或多个识别的簇中最大一个簇的质心来确定注视对准、以及至少部分地基于在注视对准与对应于波前传感器测量值的光学目标的估计相对位置和/或取向之间的差异(例如,在注视对准与对应于波前传感器测量值的时间序列的光学目标102的估计眼对准之间的差异)来为每个波前传感器测量值确定估计的眼对准偏差。在相关实施例中,其中眼像差测量系统100包括眼球跟踪仪130、控制器140、服务器150、和/或分布式服务器系统154,该眼球跟踪仪、控制器、服务器和/或分布式服务器系统可以被配置为通过以下方式来确定估计的眼对准偏差:通过至少部分地基于注视阈值参数和对应于波前传感器测量值的眼球跟踪仪传感器数据来针对每个波前传感器测量值确定光学目标的对应的注视状态并且省略波前传感器测量值的子组,然后至少部分地基于所确定的对应的注视状态来确定光学目标102的对应的估计相对位置和/或取向。例如,这种技术可以消除在光学目标102被检测为(如通过眼球跟踪仪130检测的)未固定时获取的波前传感器测量值。
在框506中,确定校正的眼像差测量输出数据。例如,控制器140、服务器150、和/或分布式服务器系统154可以被配置为至少部分地基于在框504中确定的估计的眼对准偏差和/或在框502中接收的波前传感器数据来确定校正的眼像差测量输出数据。在一些实施例中,其中波前传感器数据包括波前传感器测量值的时间序列,控制器140、服务器150、和/或分布式服务器系统154可以被配置为通过以下方式来确定校正的眼像差测量输出数据:通过针对每个波前传感器测量值确定与波前传感器测量值相关联的估计的眼对准偏差,并且至少部分地基于具有等于或小于预设最大允许偏差的相关联估计的眼对准偏差的每个波前传感器测量值来生成平均波前传感器测量值作为校正的波前传感器测量值。这种预设最大允许偏差可以由眼像差测量系统100的制造商和/或用户选择或设定。
在其他实施例中,控制器140、服务器150、和/或分布式服务器系统154可以被配置为通过以下方式来确定校正的眼像差测量输出数据:通过针对每个波前传感器测量值确定与波前传感器测量值相关联的估计的眼对准偏差、至少部分地基于波前传感器测量值和/或相关联的估计的眼对准偏差针对具有等于或小于预设最大允许偏差的相关联估计的眼对准偏差的每个波前传感器测量值确定校正的波前传感器测量值、以及至少部分地基于校正的波前传感器测量来生成平均波前传感器测量值。例如,控制器140、服务器150、和/或分布式服务器系统154可以被配置为通过以下方式来确定校正的波前传感器测量值:通过将眼像差测量系统100的复杂分析引擎350或紧凑分析引擎340应用于每个波前传感器测量值以生成如本文所述的对应的波前估计眼对准偏差和/或校正的波前传感器测量值。
在框508中,生成用户反馈。例如,控制器140、服务器150、和/或分布式服务器系统154可以被配置为至少部分地基于在框504中确定的估计的眼对准偏差来生成对应于在框502中接收的眼像差测量输出数据的用户反馈。在一些实施例中,控制器140、服务器150、和/或分布式服务器系统154可以被配置为通过以下方式来生成用户反馈:通过至少部分地基于估计的眼对准偏差来确定眼对准偏差度量、并且经由眼像差测量系统100的用户接口146报告眼对准偏差度量。在其他实施例中,控制器140、服务器150、和/或分布式服务器系统154可以被配置为至少部分地基于在框504中确定的估计的眼对准偏差和/或在框506中确定的校正的眼像差测量输出数据来生成用户反馈。在各种实施例中,这种用户反馈可以包括至少部分地基于在框504中确定的估计的眼对准偏差的眼对准偏差度量的基本上实时的显示视图、至少部分地基于在框504中确定的校正的眼像差测量输出数据的眼像差地图的基本上实时的显示视图、和/或指示至少一个估计的眼对准偏差大于如本文所述的预设最大允许偏差的听觉和/或视觉警报。
因此,本披露内容的实施例可以提供如本文所述的对光学目标102的眼对准偏差、眼像差和/或其他特征的基本上实时的(例如,30帧/秒)用户反馈(例如,包括各种图形的显示视图)和可靠且准确的监测。这种实施例可以用于辅助各种类型的临床和术中眼科检查并帮助提供改进的手术结果。
图6图示了根据本披露内容的实施例的多层或“深度”神经网络(DNN)600的图。在一些实施例中,神经网络600可以表示用于实现结合系统100和/或300描述的一个或多个模型和/或分析引擎中的每一个的神经网络。神经网络600使用输入层620来处理输入数据610。在各种实施例中,如本文所述,输入数据610可以对应于提供给一个或多个模型和/或分析引擎以生成和/或训练该一个或多个模型和/或分析模型的像差测量输出数据和/或训练数据。在一些实施例中,输入层620可以包括多个神经元或节点,这些神经元或节点用于通过缩放、偏置、过滤、范围限制和/或以其他方式调节输入数据610以供神经网络600的其余部分处理来调节输入数据610。在其他实施例中,输入层620可以被配置为回波输入数据610(例如,其中输入数据610已经被适当地缩放、偏置、过滤、范围限制和/或以其他方式调节)。输入层620中的每个神经元生成提供给隐藏层630中的神经元/节点的输出。隐藏层630包括处理来自输入层620的输出的多个神经元/节点。在一些实施例中,隐藏层630中的每个神经元生成输出,这些输出然后被传播通过一个或多个附加的隐藏层(以隐藏层639结束)。隐藏层639包括处理来自前一隐藏层的输出的多个神经元/节点。在图6所示的实施例中,隐藏层639的输出被送到输出层640。在各种实施例中,输出层640包括一个或多个神经元/节点,神经元/节点可以用于通过缩放、偏置、过滤、范围限制和/或以其他方式调节来自隐藏层639的输出以形成输出数据650来调节来自隐藏层639的输出。在替代实施例中,神经网络600可以根据不同的神经网络或其他处理架构来实现,包括仅具有一个隐藏层的神经网络、具有循环层的神经网络、和/或其他各种神经网络架构或复杂的分析方法论,包括用于分类和/或回归的K最近邻(k-NN)数据库。
在一些实施例中,输入层620、隐藏层631-639、和/或输出层640中的每一个包括一个或多个神经元。在一个实施例中,输入层620、隐藏层631-639和/或输出层640中的每一个可以包括相同数量或不同数量的神经元。在特定实施例中,神经网络600可以包括总共大约6个层,每层中具有多达2-4千个神经元。在各种实施例中,这种组成神经元中的每一个神经元可以被配置为接收其输入x的组合(例如,使用可训练加权矩阵/向量W生成的加权和)、接收可选的可训练偏置b、以及应用激活函数f以生成输出a,比如根据等式a=f(Wx+b)。例如,激活函数f可以被实现为修正线性单元激活函数,或者具有上限和/或下限的激活函数、log-sigmoid函数、双曲正切函数的任何一个或组合和/或根据其他激活函数形式。这种网络中的每个神经元可以被配置为根据如本文所述的相同或不同的激活函数和/或不同类型的激活函数来操作。在特定实施例中,对应于回归应用,仅输出层640的神经元可以被配置为应用这种线性激活函数来生成它们各自的输出。
在各种实施例中,神经网络600可以使用监督学习(例如,被实现为受监督学习引擎390)来训练,比如通过系统地向神经网络600提供选定的训练数据(例如,训练数据392)组,其中每组训练数据包括一组输入训练数据和一组对应的地面真值(例如,预期的)输出数据(例如,像差计模型360和眼睛模型370的组合),然后确定和/或以其他方式比较在所得输出数据650(例如,由神经网络600提供的训练输出数据)与地面真值输出数据(例如,“训练误差”)之间的差异。在一些实施例中,训练误差可以被反馈到神经网络600以调整神经网络600的各种可训练权重、偏差和/或其他复杂分析参数。在一些实施例中,这种训练误差可以使用一种或多种反向传播技术(包括例如随机梯度下降技术和/或其他反向传播技术)作为反馈被提供给神经网络网络600。在一个或多个实施例中,相对较大的一群组选定的训练数据组可以被多次呈现给神经网络600,直到总损失函数(例如,基于每组训练数据的差异的均方误差)收敛达到或低于预设最大允许损失阈值。
在附加的实施例中,受监督学习引擎390可以被配置为包括半监督学习、弱受监督学习、主动学习、结构化预测和/或其他通用机器学习技术,以帮助训练如本文所述的神经网络600的复杂分析参数(例如,并且生成复杂分析引擎350)。例如,受监督学习引擎390可以被配置为生成模拟训练数据组,每组包括模拟输入训练数据和对应的模拟地面真值输出数据组,并且至少部分地基于模拟训练数据组来执行受监督学习。模拟的输入训练数据和地面真值数据组中的每一个可以通过以下方式来生成:通过修改输入训练数据(例如,调整与模拟双程模型目标相关联的像差参数和/或对准偏差)和内插非模拟地面真值数据以生成对应的模拟地面真值数据。在各种实施例中,受监督学习引擎390可以被配置为模拟一个或数百万个模拟训练数据组,每组至少略微偏离对应于眼睛模型370的训练数据组,并且根据一个或数百万个这种模拟训练数据组来训练神经网络600。
在适用的情况下,可以使用硬件、软件或硬件与软件的组合来实现由本披露内容提供的各种实施例。同样,在适用的情况下,在不脱离本披露内容的精神的情况下,本文中阐述的各种硬件部件和/或软件部件可以被组合成包括软件、硬件和/或两者的复合部件。在适用的情况下,在不脱离本披露内容的精神的情况下,本文阐述的各种硬件部件和/或软件部件可以被分成包括软件、硬件或两者的子部件。此外,在适用的情况下,可设想的是,软件部件可以被实现为硬件部件,反之亦然。
根据本披露内容的软件,比如非暂时性指令、程序代码和/或数据,可以被存储在一个或多个非暂时性机器可读介质上。还可设想的是,本文所识别的软件可以使用一个或多个通用或专用计算机和/或联网的和/或其他方式的计算机系统来实现。在适用的情况下,本文所述的各个步骤的顺序可以被改变、组合成复合步骤和/或被分成子步骤以提供本文所述的特征。
上文描述的实施例是展示性的并且不限制本发明。还应理解的是,根据本发明的原理的许多修改和变化是可能的。因此,本发明的范围仅由以下权利要求限定。

Claims (20)

1.一种眼像差测量系统,包括:
波前传感器,所述波前传感器被配置为提供与由所述眼像差测量系统监测的光学目标相关联的波前传感器数据;以及
逻辑装置,所述逻辑装置被配置为与所述波前传感器通信,其中,所述逻辑装置被配置为:
接收至少包括由所述波前传感器提供的波前传感器数据的眼像差测量输出数据;
至少部分地基于所接收的眼像差测量输出数据,确定与所述眼像差测量系统监测的所述光学目标的相对位置和/或取向相对应的估计的眼对准偏差;以及
至少部分地基于所述估计的眼对准偏差,生成与所接收的眼像差测量输出数据相对应的用户反馈。
2.如权利要求1所述的眼像差测量系统,其中:
所接收的眼像差测量输出数据包括由所述眼像差测量系统的眼球跟踪仪提供的眼球跟踪仪传感器数据;
确定所述估计的眼对准偏差至少部分基于所接收的眼球跟踪仪传感器数据;以及
生成所述用户反馈包括至少部分地基于所述估计的眼对准偏差确定眼对准偏差度量,以及通过所述眼像差测量系统的用户接口报告所述眼对准偏差度量。
3.如权利要求1所述的眼像差测量系统,其中,所述逻辑装置被配置为:
至少部分地基于所述估计的眼对准偏差和/或所接收的波前传感器数据来确定校正的眼像差测量输出数据;以及
至少部分地基于所述估计的眼对准偏差和/或所述校正的眼像差测量输出数据生成所述用户反馈。
4.如权利要求3所述的眼像差测量系统,其中,所述用户反馈包括:
至少部分地基于所述估计的眼对准偏差的眼对准偏差度量的基本上实时显示视图;
至少部分地基于所述校正的眼像差测量输出数据的眼像差地图的基本上实时显示视图;和/或
指示所述估计的眼对准偏差大于预设最大允许偏差的声音和/或视觉警报。
5.如权利要求3所述的眼像差测量系统,其中,所述波前传感器数据包括波前传感器测量值的时间序列,并且其中,确定所述校正的眼像差测量输出数据包括:
针对每个波前传感器测量值,确定与所述波前传感器测量值相关联的估计的眼对准偏差;以及
至少部分地基于具有等于或小于预设最大允许偏差的相关联估计的眼对准偏差的每个波前传感器测量值来生成平均波前传感器测量值。
6.如权利要求3所述的眼像差测量系统,其中,所述波前传感器数据包括波前传感器测量值的时间序列,并且其中,确定所述校正的眼像差测量输出数据包括:
针对每个波前传感器测量值,确定与所述波前传感器测量值相关联的估计的眼对准偏差;
针对具有等于或小于预设最大允许偏差的相关联估计的眼对准偏差的每个波前传感器测量值,至少部分地基于所述波前传感器测量值和/或所述相关联估计的眼对准偏差确定校正的波前传感器测量值;以及
至少部分地基于所述校正的波前传感器测量值生成平均波前传感器测量值。
7.如权利要求6所述的眼像差测量系统,其中,确定所述校正的波前传感器测量值包括:
将所述眼像差测量系统的复杂分析引擎或紧凑分析引擎应用于所述波前传感器测量值以生成对应的波前估计的眼对准偏差和/或所述校正的波前传感器测量值。
8.如权利要求1所述的眼像差测量系统,其中,所述波前传感器数据包括波前传感器测量值的时间序列,并且其中,确定所述校正的眼对准偏差包括:
针对每个波前传感器测量值,确定与所述波前传感器测量值相对应的波前估计的眼对准偏差。
9.如权利要求1所述的眼像差测量系统,其中,所述波前传感器数据包括波前传感器测量值的时间序列,并且其中,确定所述校正的眼对准偏差包括:
针对每个波前传感器测量值,确定所述光学目标的对应估计的相对位置和/或取向;
至少部分地基于一个或多个预设或自适应聚类阈值来识别所述光学目标的估计的相对位置和/或取向的一个或多个聚类;
至少部分地基于一个或多个识别的聚类中的最大聚类的质心来确定注视对准;以及
针对每个波前传感器测量值,至少部分地基于所述注视对准与对应于所述波前传感器测量的所述光学目标的估计的相对位置和/或取向之间的差异来确定估计的眼对准偏差。
10.如权利要求9所述的眼像差测量系统,其中,所接收的眼像差测量输出数据包括由所述眼像差测量系统的眼球跟踪仪提供的眼球跟踪仪传感器数据;并且其中,确定所述估计的眼对准偏差包括:
针对每个波前传感器测量,至少部分地基于与所述波前传感器测量值相对应的注视阈值参数和眼球跟踪仪传感器数据,确定所述光学目标的对应注视状态;以及
在至少部分地基于所确定的对应注视状态确定所述光学目标的对应估计的相对位置和/或取向之前,省略所述波前传感器测量值的子集。
11.一种方法,包括:
从包括波前传感器的眼像差测量系统接收眼像差测量输出数据,其中,所述眼像差测量输出数据至少包括与由所述眼像差测量系统监测的光学目标相关联的波前传感器数据;
至少部分地基于所接收的眼像差测量输出数据,确定与所述眼像差测量系统监测的所述光学目标的相对位置和/或取向相对应的估计的眼对准偏差;以及
至少部分地基于所述估计的眼对准偏差,生成与所接收的眼像差测量输出数据相对应的用户反馈。
12.如权利要求11所述的方法,其中:
所接收的眼像差测量输出数据包括由所述眼像差测量系统的眼球跟踪仪提供的眼球跟踪仪传感器数据;
确定所述估计的眼对准偏差至少部分基于所接收的眼球跟踪仪传感器数据;以及
生成所述用户反馈包括至少部分地基于所述估计的眼对准偏差确定眼对准偏差度量,以及通过所述眼像差测量系统的用户接口报告所述眼对准偏差度量。
13.如权利要求11所述的方法,进一步包括:
至少部分地基于所估计的眼对准偏差和/或所接收的波前传感器数据来确定校正的眼像差测量输出数据;以及
至少部分地基于所估计的眼对准偏差和/或所校正的眼像差测量输出数据生成所述用户反馈。
14.如权利要求13所述的方法,其中,所述用户反馈包括:
至少部分地基于所述估计的眼对准偏差的眼对准偏差度量的基本上实时显示视图;
至少部分地基于所述校正的眼像差测量输出数据的眼像差地图的基本上实时显示视图;和/或
指示所述估计的眼对准偏差大于预设最大允许偏差的声音和/或视觉警报。
15.如权利要求3所述的方法,其中,所述波前传感器数据包括波前传感器测量值的时间序列,并且其中,确定所述校正的眼像差测量输出数据包括:
针对每个波前传感器测量值,确定与所述波前传感器测量值相关联的估计的眼对准偏差;以及
至少部分地基于具有等于或小于预设最大允许偏差的相关联估计的眼对准偏差的每个波前传感器测量值来生成平均波前传感器测量值。
16.如权利要求13所述的方法,其中,所述波前传感器数据包括波前传感器测量值的时间序列,并且其中,确定所述校正的眼像差测量输出数据包括:
针对每个波前传感器测量值,确定与所述波前传感器测量值相关联的估计的眼对准偏差;
针对具有等于或小于预设最大允许偏差的相关联估计的眼对准偏差的每个波前传感器测量值,至少部分地基于所述波前传感器测量值和/或所述相关联估计的眼对准偏差确定校正的波前传感器测量值;以及
至少部分地基于所述校正的波前传感器测量值生成平均波前传感器测量值。
17.如权利要求16所述的方法,其中,确定所述校正的波前传感器测量值包括:
将所述眼像差测量系统的复杂分析引擎或紧凑分析引擎应用于所述波前传感器测量值以生成对应的波前估计的眼对准偏差和/或所述校正的波前传感器测量值。
18.如权利要求11所述的方法,其中,所述波前传感器数据包括波前传感器测量值的时间序列,并且其中,确定所述校正的眼对准偏差包括:
针对每个波前传感器测量值,确定与所述波前传感器测量值相对应的波前估计的眼对准偏差。
19.如权利要求11所述的方法,其中,所述波前传感器数据包括波前传感器测量值的时间序列,并且其中,确定所述校正的眼对准偏差包括:
针对每个波前传感器测量值,确定所述光学目标的对应估计的相对位置和/或取向;
至少部分地基于一个或多个预设或自适应聚类阈值来识别所述光学目标的估计的相对位置和/或取向的一个或多个聚类;
至少部分地基于一个或多个识别的聚类中的最大聚类的质心来确定注视对准;以及
针对每个波前传感器测量值,至少部分地基于所述注视对准与对应于所述波前传感器测量的所述光学目标的估计的相对位置和/或取向之间的差异来确定估计的眼对准偏差。
20.如权利要求19所述的方法,其中,所接收的眼像差测量输出数据包括由所述眼像差测量系统的眼球跟踪仪提供的眼球跟踪仪传感器数据;并且其中,确定所述估计的眼对准偏差包括:
针对每个波前传感器测量,至少部分地基于与所述波前传感器测量相对应的注视阈值参数和眼球跟踪仪传感器数据,确定所述光学目标的对应注视状态;以及
在至少部分地基于所确定的对应注视状态确定所述光学目标的对应估计的相对位置和/或取向之前,省略所述波前传感器测量值的子集。
CN202080058353.0A 2019-09-30 2020-09-25 改进型眼像差计系统和方法 Pending CN114269224A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962908388P 2019-09-30 2019-09-30
US62/908,388 2019-09-30
PCT/IB2020/059017 WO2021064537A1 (en) 2019-09-30 2020-09-25 Improved ocular aberrometer systems and methods

Publications (1)

Publication Number Publication Date
CN114269224A true CN114269224A (zh) 2022-04-01

Family

ID=72752965

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080058353.0A Pending CN114269224A (zh) 2019-09-30 2020-09-25 改进型眼像差计系统和方法

Country Status (7)

Country Link
US (1) US20210093190A1 (zh)
EP (1) EP4037543A1 (zh)
JP (1) JP2022550158A (zh)
CN (1) CN114269224A (zh)
AU (1) AU2020358046A1 (zh)
CA (1) CA3143563A1 (zh)
WO (1) WO2021064537A1 (zh)

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6619799B1 (en) * 1999-07-02 2003-09-16 E-Vision, Llc Optical lens system with electro-active lens having alterably different focal lengths
US6577447B1 (en) * 2000-10-20 2003-06-10 Nikon Corporation Multi-lens array of a wavefront sensor for reducing optical interference and method thereof
ATE521276T1 (de) * 2002-02-11 2011-09-15 Amo Mfg Usa Llc Bestimmung von relativen positions- und drehversätzen
JP3958239B2 (ja) * 2003-03-31 2007-08-15 松下電器産業株式会社 マイクロコントローラ
US20050256807A1 (en) * 2004-05-14 2005-11-17 Brewington James G Apparatus, system, and method for ultraviolet authentication of a scanned document
US8820929B2 (en) * 2006-01-20 2014-09-02 Clarity Medical Systems, Inc. Real-time measurement/display/record/playback of wavefront data for use in vision correction procedures
US9107608B2 (en) * 2006-01-20 2015-08-18 Clarity Medical Systems, Inc. Apparatus and method for operating a real time large diopter range sequential wavefront sensor
WO2007127291A2 (en) * 2006-04-24 2007-11-08 Physical Sciences, Inc. Stabilized retinal imaging with adaptive optics
CN105473056B (zh) * 2013-07-02 2018-10-26 麻省理工学院 确定眼处方的装置和方法
JP2019512109A (ja) * 2016-02-22 2019-05-09 ソン, ジェイSONG, Jay 裸眼光学立体スクリーン
US10599215B2 (en) * 2016-04-26 2020-03-24 Facebook Technologies, Llc Off-axis eye tracker
EP3468445A1 (en) * 2016-06-14 2019-04-17 Plenoptika, Inc. Tunable-lens-based refractive examination
KR102412525B1 (ko) * 2016-07-25 2022-06-23 매직 립, 인코포레이티드 광 필드 프로세서 시스템
US10772494B1 (en) * 2018-03-20 2020-09-15 Facebook Technologies, Llc Systems and methods for reducing eye-related aberrations

Also Published As

Publication number Publication date
US20210093190A1 (en) 2021-04-01
WO2021064537A1 (en) 2021-04-08
AU2020358046A1 (en) 2022-02-03
JP2022550158A (ja) 2022-11-30
EP4037543A1 (en) 2022-08-10
CA3143563A1 (en) 2021-04-08

Similar Documents

Publication Publication Date Title
US11730355B2 (en) Ocular aberrometry recovery systems and methods
US20120069298A1 (en) Ocular modeling methods and apparatus
US9743832B2 (en) Apparatus for corneal shape analysis and method for determining a corneal thickness
EP2268192A1 (en) Apparatus for corneal shape analysis and method for determining a corneal thickness
US20240081637A1 (en) Dry eye mitigation for ocular aberrometry systems and methods
KR101776842B1 (ko) 눈의 변화들에 응답하는 레이저 처치의 조정
US11950844B2 (en) Ocular aberrometer characterization systems and methods
US20210093190A1 (en) Ocular aberrometer systems and methods
JP7402262B2 (ja) 機器の作動方法、システム、およびコンピュータプログラム製品
Versaci et al. Instrumentation for Diagnosis of Keratoconus
US20240099576A1 (en) Vitreous floater characterization using aberrometry
US20230119409A1 (en) Refractive index determination by multi-directional ophthalmic image processing
WO2023278855A1 (en) Evaluation and control system for corneal and intraocular refractive surgery
Liang et al. High Resolution Retinal Imaging Based on Ocular Aberration Measurement and Compensation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination