CN114269223A - 对眼科诊断装置中的测量的患者引发性触发 - Google Patents

对眼科诊断装置中的测量的患者引发性触发 Download PDF

Info

Publication number
CN114269223A
CN114269223A CN202080057234.3A CN202080057234A CN114269223A CN 114269223 A CN114269223 A CN 114269223A CN 202080057234 A CN202080057234 A CN 202080057234A CN 114269223 A CN114269223 A CN 114269223A
Authority
CN
China
Prior art keywords
eye
image
gaze
orientation
patient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080057234.3A
Other languages
English (en)
Inventor
S·比尔克纳
M·格鲁恩迪格
P·泽格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alcon Inc
Original Assignee
Alcon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alcon Inc filed Critical Alcon Inc
Publication of CN114269223A publication Critical patent/CN114269223A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/101Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for examining the tear film
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/102Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for optical coherence tomography [OCT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/107Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining the shape or measuring the curvature of the cornea
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • A61B3/145Arrangements specially adapted for eye photography by video means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10101Optical tomography; Optical coherence tomography [OCT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Molecular Biology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

用于在眼科程序期间跟踪眼睛的位置和状况的系统和方法包括:眼科装置,该眼科装置被配置用于测量眼睛的特性;眼睛跟踪器,该眼睛跟踪器被配置用于捕捉眼睛图像流;以及逻辑装置,该逻辑装置被配置用于:分析该图像流以确定眼睛是否在注视目标物体;检测该第一图像流中的预定眨眼序列;延迟预定的泪稳定时间段,开始稳定泪膜时间区间;以及在该稳定泪膜时间区间期间,当眼睛在注视时,使用该眼科装置来捕捉眼睛的至少一个测量值。该眨眼序列可以包括连续多次眨眼;并且检测该眨眼序列可以包括:通过神经网络来处理这些图像,该神经网络被训练过以检测睁眼和/或闭眼。

Description

对眼科诊断装置中的测量的患者引发性触发
发明背景
技术领域
本公开总体上涉及眼睛诊断系统及方法,并且更具体地涉及例如用于在成像、诊断、和/或手术系统中跟踪眼睛的位置、取向和/或状况的系统及方法。
背景技术
多种多样的眼科装置被用于对患者的眼睛进行成像、测量、诊断、跟踪、手术矫正和/或手术修复。眼科装置、比如断层扫描装置、角膜曲率测量装置、波前分析器或测量眼睛各方面(例如,光学、几何等)的其他装置的操作通常是基于这样的假设:眼睛相对于诊断装置被维持在限定的位置和取向。眼科装置的人类操作者(human operator)可以让患者定位并指示其例如看向装置中的目标物体(例如,注视灯)以将患者的视线(例如,人看着事物所沿着的轴线)对准眼科装置的光轴。如果患者没有恰当地注视,读数可能不准确和/或系统可能不能恰当发挥作用。
为了确保准确的数据采集,眼科装置的人类操作者通常负责在数据采集期间监测患者、引导患者完成初始化程序、和/或监测来自该装置的反馈,以确定患者是否已经恰当地注视目标物体而对准了眼睛。一种已知的技术包括依靠患者的合作来按照装置操作者(deviceoperator)的指示注视目标物体。然而,现有的途径具有许多缺点,包括患者试图注视时的人为误差(例如,老年患者可能无法维持眼睛位置,患者可能缺乏足够的注意力来让眼睛注视,患者可能无法直视目标物体等)和在该程序期间监视着患者的操作者的人为误差和变化性。在另一种途径中,可以使用视网膜扫描与成像分析来跟踪患者的眼睛位置和取向,但视网膜成像系统的操作可能干扰诊断程序。因此,在使用眼科装置进行的诊断程序期间,经常要关掉视网膜扫描与成像系统或以其他方式使其无法用于眼睛跟踪。
常规系统的其他缺点包括患者可能不知道测量何时开始并且可能丢失注视、眨眼或以其他方式移动,从而影响测量的可靠性。可能会要求患者长时间注视,这可能会使患者感到不舒服并导致眼睛处于次优状态。操作者还可能需要确定对于进行测量而言的眼睛最佳状态。例如,在测量程序过程中,眼睛可能会变得干燥,并且每次患者眨眼时水分可能会更新,从而导致眼睛的反射率不断变化。
鉴于前述内容,本领域持续需要用于在眼科程序期间确定和/或跟踪患者眼睛的位置、取向以及状况的改进的技术。
发明内容
本公开总体上涉及包括患者控制眼睛诊断数据采集的系统和方法。本文提供的系统和方法可以用于确定眼睛准备好进行测量的最佳时间。
在一个或多个实施例中,一种系统包括:眼科装置,该眼科装置被配置用于测量眼睛的特性;眼睛跟踪器,该眼睛跟踪器被配置用于捕捉眼睛的第一图像流;以及逻辑装置,该逻辑装置被配置用于:分析第一图像流以确定眼睛是否在注视目标物体;检测该第一图像流中的预定眨眼序列;在预定的泪稳定时间段之后开始稳定泪膜时间区间;以及在所述稳定泪膜时间区间期间,当所述眼睛在注视所述目标物体时,使用所述眼科装置来捕捉所述眼睛的至少一个测量值。该眨眼序列可以包括连续多次眨眼;并且检测该眨眼序列可以包括:通过神经网络来处理这些图像,该神经网络被训练过以检测睁眼和/或闭眼。
在一些实施例中,该眼睛跟踪器被配置用于:从第一位置捕捉眼睛的第一图像并且从第二位置捕捉眼睛的第二图像;并且该逻辑装置进一步被配置用于从第一图像检测第一多个眼睛特性,这些眼睛特性具有对应的第一图像坐标;从第二图像检测第二多个眼睛特性,这些眼睛特性具有对应的第二图像坐标;以及至少部分地基于对应的第一图像坐标、对应的第二图像坐标、第一位置、和第二位置来确定校准偏离量和校准增益。该逻辑装置可以进一步被配置为至少部分地基于对应的第一图像坐标和/或对应的第二图像坐标来确定相对于眼睛跟踪器的光轴而言的眼睛注视位置和取向。
在一些实施例中,该逻辑装置被配置用于:至少部分地基于所确定的眼睛注视位置和取向来估计眼睛注视参数;接收来自眼睛跟踪器的第一图像流;以及通过分析第一图像流中的至少一个图像以确定相对于眼睛注视参数的当前眼睛位置和取向来跟踪当前眼睛位置和取向,其中眼睛注视参数包括眼睛注视时的参考位置和取向。
该逻辑装置可以进一步被配置用于通过构建并分析检测到的眼睛位置和取向的直方图来确定相对于眼睛跟踪器的光轴的注视位置,其中,分析直方图进一步包括确定相对最大值的坐标是否包含注视位置和取向;并且其中,确定相对最大值的坐标是否包含注视位置和取向进一步包括将相对最大值与阈值和/或直方图的平均坐标值进行比较。
在一些实施例中,该系统进一步包括:视网膜成像系统,该视网膜成像系统包括光学相干断层扫描(OCT)扫描仪,其被配置用于进行视网膜扫描;其中,眼睛跟踪器进一步被配置用于在视网膜扫描期间捕捉眼睛的图像流;其中视网膜成像系统进一步被配置用于捕捉眼睛的多个视网膜图像;检测中央凹是否存在于眼睛的多个视网膜图像中的一个或多个图像中;以及从眼睛的多个视网膜图像中识别具有检测到的中央凹的第一视网膜图像;并且其中该逻辑装置进一步被配置用于从这些图像流中确定与第一视网膜图像在时间上接近的对应图像;并且分析对应图像以确定眼睛注视参数。
在一些实施例中,该逻辑装置被配置用于:跟踪眼睛位置和取向并且计算与眼睛注视参数的偏离量并确定偏离量是否小于阈值;其中,当偏离量小于阈值时,确定眼睛在注视,并且该控制处理器生成注视指示;并且其中,当偏离量大于阈值时,确定眼睛未对准,并且该控制处理器生成未注视指示。
逻辑装置可以进一步被配置用于进行眼睛诊断程序并且在眼睛诊断程序期间使用眼睛跟踪器来跟踪眼睛位置。该系统可以进一步包括诊断装置,该诊断装置被配置用于在使用眼睛跟踪器来跟踪眼睛的位置和取向时进行眼睛诊断程序,其中,该诊断装置被配置为至少部分地基于表示眼睛注视参数的数据和所跟踪到的眼睛位置来修改眼睛诊断程序。
在多个不同的实施例中,一种方法包括:使用眼睛跟踪器来捕捉眼睛的第一图像流;分析第一图像流以确定眼睛是否在注视目标物体;检测该第一图像流中的预定眨眼序列;在预定的泪稳定时间段之后跟踪稳定泪膜时间区间;以及在稳定泪膜时间区间期间,当眼睛在注视目标物体时,使用眼科装置来捕捉眼睛的至少一个测量值。该眨眼序列可以包括连续多次眨眼;并且检测第一图像流中的预定眨眼序列包括:通过神经网络来处理这些图像,该神经网络被训练过以检测睁眼和/或闭眼。
该方法可以进一步包括:从第一位置捕捉眼睛的第一图像;从与第一位置不同的第二位置捕捉眼睛的第二图像;从第一图像检测第一多个眼睛特性,这些眼睛特性具有对应的第一图像坐标;从第二图像检测第二多个眼睛特性,这些眼睛特性具有对应的第二图像坐标;以及至少部分地基于对应的第一图像坐标、对应的第二图像坐标、第一位置、和第二位置来确定校准偏离量和校准增益。
该方法可以进一步包括:捕捉眼睛的图像流;至少部分地基于检测到的眼睛特性的坐标、校准偏离量和校准增益来检测这些图像流中的眼睛位置和取向;以及确定相对于光轴而言的眼睛注视位置和取向。该方法可以进一步包括:至少部分地基于所确定的眼睛注视位置和取向来估计眼睛注视参数;以及通过分析所述图像流中的一个或多个图像以确定相对于所述眼睛注视参数的眼睛位置和取向,来跟踪所述眼睛位置和取向,其中,眼睛注视参数包括眼睛在注视时的参考位置和取向。该方法可以进一步包括:对神经网络进行训练以接收图像流并且输出对眼睛位置和/或泪膜状态的确定。
在一些实施例中,该方法进一步包括:通过构建并分析检测到的眼睛位置和取向的直方图来检测相对于光轴的注视位置;其中,分析直方图进一步包括确定相对最大值。
该方法可以进一步包括:使用光学相干断层扫描(OCT)扫描仪来进行眼睛的视网膜成像扫描;通过视网膜成像扫描来捕捉眼睛的多个视网膜图像;使用成像装置来捕捉图像流,该成像装置被配置用于对眼睛的表面进行成像;检测中央凹是否存在于多个视网膜图像中的一个或多个图像中;从该多个视网膜图像中识别具有检测到的中央凹的第一视网膜图像;从该图像流中确定与第一视网膜图像在时间上接近的对应图像;以及分析对应图像以确定眼睛注视参数。
在一些实施例中,该方法进一步包括:跟踪眼睛位置和取向并且计算与眼睛注视参数的偏离量并确定偏离量是否小于阈值;其中,当偏离量小于阈值时,确定眼睛在注视,并且该控制处理器生成注视指示;并且其中,当偏离量大于阈值时,确定眼睛未对准,并且该控制处理器生成未注视指示。
该方法可以进一步包括:在使用图像捕捉装置来跟踪眼睛的位置和取向时进行眼睛诊断程序;以及至少部分地基于表示眼睛注视参数的数据和所跟踪到的眼睛位置来修改眼睛诊断程序。
本公开的范围由权利要求限定,权利要求通过援引并入本部分中。通过考虑以下对一个或多个实施例的详细描述,本领域技术人员将获得更完整的理解并实现其额外的优点。将参考将首先简要描述的附图的所附页。
附图说明
参考以下附图和随后的详细描述,可以更好地理解本公开的方面及其优点。应了解的是,相同的附图标记用于标识一个或多个图中所示的相同元件,其中的显示是为了展示本公开的实施例而不是为了限制本公开。附图中的部件不一定按比例绘制,而是将重点放在清楚地展示本公开的原理上。
图1A和图1B展示了根据本公开的一个或多个实施例的示例性眼睛跟踪与成像系统。
图2展示了根据本公开的一个或多个实施例的具有自动初始化和校准的示例性眼睛跟踪与成像系统。
图3展示了根据本公开的一个或多个实施例的示例性眼睛跟踪与成像系统。
图4展示了根据本公开的一个或多个实施例的示例性神经网络。
图5展示了根据本公开的一个或多个实施例的示例性计算系统。
图6A展示了根据本公开的一个或多个实施例的自动初始化与校准系统的示例性操作。
图6B展示了根据本公开的一个或多个实施例的眼睛跟踪器系统的示例性操作。
图7展示了根据本公开的一个或多个实施例的用于估计绝对眼睛位置的方法。
图8展示了根据本公开的一个或多个实施例的使用眼睛跟踪器检测到的眼睛位置和取向的示例性热图。
图9展示了根据本公开的一个或多个实施例的由使用眼睛跟踪器检测到的眼睛位置和取向数据构建的示例性直方图。
图10展示了根据本公开的一个或多个实施例的用于实施图7的方法的示例性系统。
图11展示了根据本公开的一个或多个实施例的示例性测量过程。
具体实施方式
本公开提供了一种用于在眼科程序期间跟踪眼睛的位置、取向、和/或状况的系统和方法。
为了获得高品质诊断数据以进行眼科诊断,在测量期间眼睛应处于明确的位置和状态。例如,对于许多眼科装置,当患者的眼睛沿着目标装置的光轴(例如,沿着该轴线和/或在测量可接受的误差范围内的偏离)注视并且患者的眼睛具有完好的泪膜时,进行测量序列。在多个不同的实施例中,改进的系统和方法包括对眼睛跟踪装置的自动校准、准确的眼睛位置和注视确定、改进的眼睛跟踪程序、绝对注视位置确定和估计的绝对注视位置确定、以及基于注视状态和/或泪膜状态来改进测量数据采集的时序。
完好的泪膜通常是基于反射的诊断装置(如角膜曲率计或地形仪)的先决条件,这些装置使用角膜表面的反射进行操作。在许多应用中,干燥的角膜区域不允许基于反射的最佳测量。泪膜还是可以被某些诊断装置(比如波前测量装置)使用的折射表面。每当患者眨眼时,泪膜就会恢复,因为眼睑会将泪液分布在眼睛上。泪膜在t1秒(例如,0.5-2秒)后稳定,保持完好持续t2秒(例如,1-3秒),然后干燥直到下一次眨眼。这些持续时间(t1&t2)可能因患者而异,并且可以通过例如临床研究针对患者库估计。
除了完好的泪膜外,眼睛的稳定注视确保患者的视轴与诊断装置的光轴对准。如果患者未注视或不充分地注视,后果可能包括测量不准确、测量不可靠或装置无法进行测量等。长时间注视在静态固定目标上可能对患者具有挑战性。患者能够准确注视的时间也因患者而异。在本文公开的多个不同的实施例中,系统和方法跟踪眼睛的位置和取向(例如,眼睛是否恰当地注视)和眼睛状况(例如,泪膜是否完好)以识别可以进行准确可靠的测量的时间间隔。
在一些眼科系统中,所采集数据的品质可能取决于操作者的技能和意识。在这些系统中,操作者可以确定眼睛的位置、取向和状况何时适合测量,从而导致不同操作者进行的测量存在差异。对于使用自动测量的系统,测量可以独立于患者是否准备好进行测量而发生,这可能导致在患者未注视和/或泪膜不稳定(例如,在t2之外)时进行采集。患者可能还需要在不知道测量开始的确切时间点的长测量序列期间注视。例如,在一种途径中,操作者可以将患者定位成使患者的眼睛与诊断系统的光轴对准。可以指示患者注视已知目标点以对准患者的视线,直至操作者和装置准备好进行测量。
在确定患者在注视后,操作者可以指示患者眨眼以建立泪膜。然后,患者在该程序期间尝试维持注视着目标点。然后,操作者和/或装置可以捕捉患者眼睛的测量值。然而,可能在泪膜稳定之前(例如,在时间段t1期间)、在泪膜已经稳定的时间段期间(在时间段t2期间)、或在泪膜开始退化之后捕捉测量值。因此,捕捉的测量值是在未知的泪膜状态期间的,而导致测量不可靠。本公开的改进允许在泪膜稳定时进行数据采集,由此提高诊断准确性。在一些实施例中,改进的系统可以独立于操作者起作用,并且减少了需要患者注视的时间。
本文公开的系统和方法进一步包括眼科系统对患者自己眼睛的改进的初始化和校准、改进的眼睛跟踪、改进的绝对注视位置和取向确定、以及优于常规系统的其他改进和优点。本文公开的改进的初始化和校准技术允许获得对患者眼睛的更准确测量并且可以用于以下诊断系统中:该诊断系统确定患者的视线(在本文中还称为患者的视轴)是否与诊断系统的光轴对准。患者的视线/视轴可以是患者的眼睛被定向为看着物体时所沿着的轴线。本文公开的系统和方法允许更简单、更短且更准确的系统初始化和校准以及更准确的注视确定。根据本文公开的系统及方法所采集的诊断数据比通过常规途径采集的数据更有意义且更准确。如果患者在测量期间没有恰当地注视并且没有考虑到这一点,则读数的准确性可能会受到严重影响。对于许多实施方式,人进行注视时的准确性(主动控制对静态目标的凝视)可以为约1度左右,但可能比取决于眼睛状况(例如,严重的白内障)的准确性显著更差。本文公开的系统和方法通过在测量期间确定并使用患者眼睛的凝视曲线来提高准确性。使用患者的凝视曲线可以消除由眼睛凝视运动和无法稳定注视引起的读数中的测量噪声。
参见图1A和图1B,现在根据一个或多个实施例来描述与眼科装置一起使用的示例性眼睛跟踪系统。跟踪眼睛凝视的一种方式是通过分析相机图像以将图像中瞳孔的位置与从相对于观察相机在空间中固定的照明源产生的角膜反射的位置进行比较。图1A和图1B所示的系统包括校准程序,在校准程序期间,指示患者注视已知注视点以允许系统校准观察眼的细节。如图所示,眼睛跟踪系统100包括图像捕捉部件(例如,可见光相机)和照明源112A(例如,一个或多个发光二极管(LED)),该照明源处于相对于图像捕捉部件的已知固定位置。眼睛跟踪系统100被配置用于通过捕捉并分析眼睛102A的图像流、比如示例性相机图像120A来对眼睛102A进行成像和跟踪。
分析相机图像120A以识别眼睛102A的一个或多个特性,比如角膜122A、瞳孔124A、和照明源112A反射126A的图像。通过识别相机图像120A中的一个或多个眼睛特性,可以确定关于眼睛102A的位置和取向的信息,比如眼睛凝视方位角GA和眼睛凝视仰角GE。可以分析相机图像120A以确定在程序期间眼睛的对准坐标和/或偏离位置。例如,可以分析相机图像120A以确定照明的角膜反射126A(CR)的图像坐标[CRx,CRy]和/或瞳孔124A的图像坐标[PCx,PCy](例如,瞳孔PC的中心)。
可以如下来计算角膜反射CR与瞳孔中心PC之间的图像坐标差:
Dx=CRx-PCx
Dy=CRy-PCy
这些图像坐标差与眼睛凝视的方位角(GA)和仰角(GE)成比例:
Dx~GA
Dy~GE
为了更准确地用Dx和Dy推导出眼睛凝视方位角GA和眼睛凝视仰角GE,可以分别对每个图像坐标x和y应用偏离量(ax,ay)和增益(bx,by):
GA=ax+bx*Dx
GE=ay+by*Dy
变量a和b可能取决于各种各样的因素,例如包括被成像的特定眼睛的解剖结构、相机和照明源的设置、以及相机的光学器件。在一些实施例中,a和b的确定可以包括初始化程序,在该初始化程序期间,要求被跟踪患者注视刺激限定的眼睛凝视的一组目标(例如,注视点网格)。例如,图1A展示了以下场景:要求患者聚焦第一已知注视点,例如靠近眼睛跟踪系统100的光轴或与其对准的点。图1B展示了以下场景:眼睛102B在观察第二已知注视点,例如靠近相机的点。相机图像120B可以包括角膜122B、瞳孔124B、和照明源112A反射126B的图像。由于相机位置和取向、眼睛位置和取向、以及注视点的位置在注视期间是已知的,因此可以知道或估计针对每个注视点的眼睛凝视方位角GA和眼睛凝视仰角GE。分别分析两个相机图像120A和120B以确定每个图像中的一个或多个眼睛特性(例如,图像中瞳孔的中心、图像中的反射位置)的坐标x和y。然后可以求解方程组,用于a和b初始化并校准用于眼睛跟踪的系统。
参见图1A和图1B描述的初始化程序实施起来可能很繁琐、和/或对一些患者来说容易出错。例如,可能要指示患者分别注视5个或更多个注视点的网格,以通过统计学分析或其他数学分析(例如,最小二乘分析)来计算a和b的值。要求患者注视多个目标需要大量的患者合作,并且患者凝视任何一个点都容易出错。
现在将参照图2来描述本公开的另外的实施例。图2展示了眼睛跟踪系统200,该眼睛跟踪系统包括自动初始化和校准部件和程序,用于允许在用于角膜曲率测量、角膜断层扫描、像差测量和其他用途的诊断系统中进行准确的眼睛凝视跟踪。虽然图2所展示的系统和方法可以是完全自动化的、并且减少/消除了患者要完成繁琐的初始化程序的需要,但是各方面可以与手动和/或其他自动眼睛跟踪初始化和校准程序(包括操作者引导患者注视一系列已知注视点的程序)一起使用。
眼睛跟踪系统200可以在使用眼睛的准确注视的任何装置中实施。例如,许多眼科装置(比如角膜曲率计、地形仪和像差仪)在诊断程序期间依赖于准确的眼睛注视。在采集诊断数据期间具有关于实际眼睛凝视的准确信息可以允许过滤掉不充分注视的读数、通过考虑实际凝视取向来补偿不充分注视的读数、和/或更准确地比较在不同时间点获得的诊断读数(例如,角膜地形图)并在比较读数时考虑凝视差异。
眼睛跟踪系统200包括具有第一照明源202的第一图像捕捉装置201和具有第二照明源212的第二图像捕捉装置210。第一图像捕捉装置201和第一照明源202可以被配置为例如单一相机眼睛跟踪器,其适于捕捉患者眼睛220的图像。第一图像捕捉装置201可以包括可见光谱图像捕捉部件,这些部件被布置用于沿着眼科装置的光轴来捕捉患者眼睛220的表面的图像。第二图像捕捉装置210可以包括可见光谱图像捕捉部件,这些部件被布置用于从已知角度α(例如,在第一图像捕捉装置210上方20度)捕捉患者眼睛220的表面的图像。在一些实施例中,第二图像捕捉装置210是与第一图像捕捉装置210相同类型的成像装置(例如,包括相同或相似的部件、相同的装置型号等)、并且布置在距眼睛220大致相同的距离处以产生第二相机图像214,该第二相机图像具有与第一相机图像204类似的图像特性。
处理系统230控制眼睛跟踪系统200的操作、并且可以包括控制部件232、成像处理部件234、眼睛跟踪部件236、和系统初始化部件238。处理系统230可以包括通过硬件、固件和/或软件的组合实施的一个或多个系统或装置。在一些实施例中,控制部件232被配置用于管理第一图像捕捉装置201和第二图像捕捉装置210的操作,包括提供使图像捕捉装置201和210的图像捕捉操作同步的指令。取决于系统构型,可以指示第一图像捕捉装置201和第二图像捕捉装置210同时、和/或以图像之间的短间隔按顺序地捕捉图像(例如,定时捕捉眼睛220在同一位置的两个图像)。图像处理部件234被配置用于分析捕捉的图像,以确定图像中的一个或多个眼睛特性,比如瞳孔中心、角膜位置和/或反射位置。眼睛跟踪部件236被配置为基于在一个或多个图像中识别的眼睛特性的校准测量值来跟踪眼睛位置。
系统初始化部件238被配置用于将测量等式初始化,以根据捕捉的图像数据来准确地计算眼睛凝视方位角GA和眼睛凝视仰角GE。在多个不同的实施例中,指示患者注视诊断装置的光轴附近的已知注视点。操作者可以使用用户接口来与眼睛跟踪系统200相互作用以开启眼睛跟踪程序并引导使用者完成初始化处理。在一些实施例中,图像捕捉装置201和210中的每一个在患者注视已知点时捕捉图像。在系统初始化例程中使用第一图像捕捉装置201捕捉的第一相机图像204和第二图像捕捉装置210捕捉的第二相机图像214。例如,可以基于操作者的判断,即,使用视网膜成像系统检测中央凹、通过对相对于瞳孔中心的反射位置的图像分析、通过对随时间的推移而捕捉的多个图像的统计学分析、和/或通过其他技术来确定眼睛注视。
通过图像处理部件234对这两个图像204和214进行处理以确定每个图像的眼睛特性。这两组眼睛特性代表当眼睛220注视着已知注视点时进行的两种不同测量。然后可以使用两组等式来求解校准偏离量a和增益b,以用于根据图像数据来确定眼睛凝视方位角GA和眼睛凝视仰角GE。通过使用第二相机从第二个角度对眼睛进行成像,可以获得眼睛针对单一注视点的两个图像和测量值,以允许确定偏移量和增益而无需繁琐的多注视点初始化程序。在其他实施例中,可以在其他角度提供一个或多个额外的相机,和/或可以根据需要使用多于一个注视点以进一步将误差最小化。
校准偏离量和增益可以在基于捕捉的图像来确定眼睛位置和取向的过程中使用。在一些实施例中,校准偏离量和增益可以立即被眼睛跟踪系统200使用。在一些实施例中,校准偏移量和增益被存储在数据库或查找表244中的存储装置242(例如,随机存取存储器、硬盘驱动器、闪存、云存储等)中。例如,查找表可以存储患者标识符以及与患者眼睛相关联的校准偏离量和增益。还可以存储其他信息,例如相机类型、相机位置、和测量日期。在操作中,眼睛跟踪系统200可以使用查找表、根据从眼睛跟踪器200采集的图像测量的瞳孔中心和角膜反射的像素位置来确定眼睛的绝对取向。
处理系统230还可以包括泪膜状态部件240,该泪膜状态部件被配置用于分析捕捉的图像以检测眼睛睁开和眼睛闭上事件,并且跟踪泪膜的状态,包括患者最近是否眨眼、泪膜是否在稳定时被测量、和/或眼睛是否干燥和泪膜是否需要更新。连同本文公开的校准和初始化过程以及绝对眼睛位置确定和注视跟踪,使用泪膜状态允许获得更准确的眼睛诊断。
现在将参考图3至图11来进一步详细地描述本公开的多个不同的示例性实施例。参见图3,根据一个或多个实施例的系统300包括可通信地联接的眼睛跟踪模块310(在此还称为“眼睛跟踪器”)和可选的视网膜成像系统330。眼睛跟踪模块310被配置用于跟踪眼睛302的取向并且可以包括第一成像装置312、第二成像装置313、以及一个或多个照明部件314。在一些实施例中,第一成像装置312和第二成像装置313是数码相机或其他数码成像装置,其被配置用于对眼睛的某些特征比如瞳孔和角膜缘(角膜与眼白、即巩膜之间的边界)、以及来自一个或多个照明部件314的反射进行成像。在一些实施例中,例如,照明部件314可以包括围绕相机光学器件定位的发光二极管(LED)环(例如,围绕成像装置的同轴照明),使得环的中心类似于角膜的曲率中心。
系统300包括控制逻辑318,其可以包括执行所存储的程序指令的逻辑装置、比如处理器,所述程序指令被配置为执行本文公开的功能。在一些实施例中,控制逻辑318对由第一成像装置312捕捉的多个图像执行测量序列。测量序列通过使用图像数据(例如眼睛跟踪数据316)中眼睛302的可检测特征(例如瞳孔、角膜缘和虹膜特征)的位置来确定眼睛302的位置和取向。测量序列还可以确定照明系统在角膜处的反射(例如包括被照明元件的圆形图案的反射317)的位置。在一些实施例中,在测量序列期间,使用捕捉的图像来连续确定眼睛302的位置和取向。控制逻辑318还可以进行初始化和校准部件318A(例如,参见图2描述的序列),包括根据成像装置312和313分别捕捉的患者眼睛302的一对图像来计算校准偏离量和增益。可以使用校准偏离量和增益、根据在捕捉的图像数据中识别的眼睛特性的像素位置来准确地计算绝对眼睛位置和取向。
控制逻辑318可以进一步包括被配置用于跟踪眼睛302是否恰当地注视和/或偏离注视位置的注视跟踪部件318B、和被配置用于检测并跟踪眼睛302上泪膜的状态的泪膜状态部件318C。可以基于注视状态和/或泪膜状态进行眼睛测量。例如,泪膜状态部件318C可以包括帮助在测量期间维持完好的泪膜的程序。在多个不同的实施例中,可以指示患者眨眼或以其他方式睁开和闭上眼睛302以向眼睛302提供水分。泪膜状态组件318C可以检测眼睛的闭上和重新睁开,并跟踪直到泪膜稳定为止的时间。当泪膜不再稳定而被测量时(例如,眼睛干燥),可以指示患者再次眨眼以重复该过程。
控制逻辑318可以实施在眼睛跟踪模块310、视网膜成像系统330和/或其他系统部件中。控制逻辑318被配置为在眼睛跟踪模块310的操作期间检测相对眼睛运动,这可以包括根据捕捉的图像和对照明源位置的了解来检测并跟踪眼睛特征(例如,检测瞳孔)。例如,检测并计算瞳孔中心的偏离量和角膜曲率的偏离量可以提供关于眼睛的相对凝视的信息。
可选的视网膜成像系统330可以包括用于对眼睛302的视网膜进行成像的任何装置或系统。视网膜成像系统330可以实施为视网膜光学相干断层扫描(OCT)系统、视网膜光学系统或用于对视网膜进行成像的类似系统。在一些实施例中,视网膜成像系统330和/或控制逻辑318被配置用于在整个测量序列期间检测患者的中央凹至少一次。因此,视网膜成像系统330不需要在整个诊断序列期间是工作的(例如,出于技术或安全原因)并且可以在需要时关停或暂停。
如果患者正在注视,则中央凹存在于视网膜成像数据中。中央凹通常看起来像视网膜中的凹陷,其在某些视网膜成像系统中可以被检测到。在多个不同的实施例中,视网膜成像系统330生成视网膜成像数据332,比如视网膜OCT图像334和/或眼底图像336。视网膜成像系统330可以包括视网膜OCT扫描系统、眼底成像系统、或其他类似的装置。如果患者在注视与系统300相关联的目标物体,则中央凹将存在于视网膜成像装置的光轴的中心。视网膜成像装置可能仅需要扫描该装置的光轴周围的中心部分。在一些实施例中,视网膜成像装置被配置用于对眼睛的后部成像以进行中央凹检测。如果系统需要对眼睛的不同部分成像(例如,对角膜的高分辨率扫描),则中央凹在图像中将不可见,并且眼睛跟踪模块310将用于跟踪眼睛位置和旋转。
系统300协调对来自眼睛跟踪模块310的成像装置312和313的眼睛取向相关信息(例如眼睛跟踪数据316,包括从每个图像捕捉部件捕捉的检测到的照明源反射317)的处理。系统300可以进一步协调眼睛跟踪数据316与来自可选的视网膜成像系统330的信息(比如视网膜成像数据332)。在操作中,如果系统300(例如,经由视网膜成像系统330和/或控制逻辑318)在视网膜成像数据332的某个区域中检测到中央凹,则系统300将知晓眼睛的对应取向。利用这个信息,系统300可以进一步确定甚至在视网膜成像不可获得的测量阶段中患者是否在正确地注视。眼睛跟踪模块310可以使用注视信息来识别用于初始化和校准过程的图像(例如,眼睛注视时的图像)。然后可以使用经校准的眼睛跟踪模块310来准确地计算捕捉图像的绝对眼睛位置和取向。
眼睛跟踪模块310可以被配置为与视网膜成像同时地对眼睛位置和眼睛旋转进行成像和跟踪。在一些实施例中,捕捉的图像包括相关联的时间特性,比如时间戳、帧参考值(例如,10帧以前)或允许将视网膜图像和从第一成像装置312和第二成像装置313捕捉的图像同步的其他信息。在检测到中央凹之后,可以向控制逻辑318、眼睛跟踪模块310和/或其他系统部件提供中央凹检测信息,该信息可以包括对应的时间特性和是否检测到中央凹的指示。
在一些实施例中,对眼睛302的位置和取向的分析包括以下方法:将在视网膜成像系统可看到中央凹时眼睛的取向/位置与当前眼睛跟踪数据进行比较。例如,系统300可以在包括测量序列的诊断程序中使用。通过在程序期间使用眼睛跟踪模块310来跟踪眼睛位置和取向,可以收集测量数据并与对应的眼睛跟踪数据一起进行分析。在一个实施例中,在眼睛302注视时(例如,当眼睛位置在注视位置的可接受偏离范围内时)采集的测量数据被认为是有效的,并被用于进一步诊断/分析,而在眼睛302未注视时采集的测量数据(例如,当眼睛位置超出注视位置的可接受偏离量时)可以被忽略和/或丢弃。
在多个不同的实施例中,系统300使用中央凹检测信息来建立参考注视信息,该参考注视信息可以包括瞳孔相对于角膜的某种取向。眼睛跟踪模块310可以接收中央凹检测信息(例如,在特定时间或其他时间参考值时确定的注视)、调用来自同一时间帧的一个或多个对应的图像、并且分析所捕捉的(多个)图像以确定在注视期间瞳孔与角膜中心之间的特定关系。可以使用捕捉的图像来初始化并校准系统以确定校准偏离量和增益,从而获得更准确的测量结果。然后,可以通过将新捕捉的图像中的眼睛位置和取向与参考图像中的眼睛位置和取向进行比较来跟踪眼睛位置。这允许视网膜成像系统330在眼睛跟踪模块310确认了眼睛正在注视时对眼睛302的另一部分进行成像(或在需要时操作其他眼科设备)。眼睛跟踪模块310可以向视网膜成像系统330提供注视信息,指示当前扫描是否是在眼睛正注视(相对于参考数据在误差范围内)时进行的,或当前扫描是否是在未注视时、比如在当前眼睛位置与参考眼睛位置之间的偏离量超过阈值时进行的。
在系统300的操作期间,视网膜成像系统330可以在诊断或其他程序期间关停,从而不再生成视网膜成像数据332。如果视网膜成像系统330先前已经检测到中央凹至少一次,则甚至在不可获得视网膜成像的程序阶段期间,系统300仍可以继续向装置操作者提供关于患者眼睛注视的信息。例如,系统300可以将使用眼睛跟踪模块310所捕捉的当前眼睛位置和取向与视网膜成像系统330检测到中央凹时确定的眼睛位置和取向进行比较。眼睛跟踪模块310可以通过一种或多种视觉提示(例如,指示灯、显示屏上的状态信息)或听觉提示(例如,蜂鸣声)向装置操作者提供指示。眼睛跟踪模块310还可以向系统300的其他部件提供注视信息,例如,以控制需要眼睛注视的操作和/或验证采集的数据有效/无效。应了解的是,图3中描述的系统及方法是各种实施例的示例性实现方式,并且本公开的教导内容可以用于其他眼睛跟踪系统中,例如使用了产生浦肯野反射的照明系统和捕捉眼睛的数字图像的相机的系统或装置中。
为了帮助确定眼睛是否在注视,控制逻辑318可以被配置为确定眼睛的当前位置和取向并且计算偏离量以确定眼睛是否充分注视着期望的物体。在一个实施例中,可以确定一个或多个阈值,并且任何低于对应于阈值的偏离量将确定眼睛在注视。在一些实施例中,注视的确定和阈值取决于应用,并且不同的实现方式可以接受不同的偏离量。
在一些实施例中,视网膜成像系统330识别检测到中央凹的时间帧(例如,一段时间段、一个或多个图像、顺序索引值等),以允许眼睛跟踪器识别在同一时间或大约同一时间获取的对应眼睛跟踪图像。然后,眼睛跟踪模块310和/或控制逻辑318可以进行初始化和校准过程以确定校准偏离量和增益,其可以用于准确地计算捕捉图像的眼睛位置和取向。眼睛跟踪模块310然后可以确定与注视位置相关联的眼睛参考位置,包括瞳孔和角膜的相对位置。系统300可以立即使用该眼睛注视信息来跟踪眼睛位置和取向和/或将其存储并调用来供系统300稍后使用。例如,可以针对患者来确定并存储眼睛注视信息并调用其来供系统300(或类似系统)用于患者的后续程序或用于对捕捉的图像进行离线分析。
当视网膜成像系统330在进行其他扫描和/或其他眼科部件在操作中时,眼睛跟踪模块310捕捉图像流并参考从(多个)参考图像中确定的位置和取向来分析眼睛位置和对准。此分析可以在程序期间实时进行和/或离线进行(例如,在分析先前捕捉的数据时)。将当前图像与(多个)参考图像进行比较并计算偏离量。如果偏离量小于阈值,则眼睛在注视并且对应的视网膜图像是准确的。如果偏离量大于阈值,则眼睛未注视并且对应的视网膜图像可以被标记出、丢弃或采取其他动作。这些图像还可以与其他信息(包括泪膜状态)同步,这些信息可以与时间参考值一起存储,以允许稍后与存储的图像进行同步并处理。
在一些实施例中,眼睛跟踪模块310在整个程序中连续地对眼睛进行成像。对于每一帧,可以至少部分地基于在图像流中检测到反射的位置来检测图像中的瞳孔位置。在多个不同的实施例中,所跟踪和记录的信息可以包括以下中的一种或多种:图像、从图像中提取的图像特征、图像特性、图像中的瞳孔位置和/或反射位置。眼睛跟踪系统和视网膜成像系统是同步的,使得对于扫描的每个视网膜图像,可以识别对应的一个或多个眼睛跟踪器图像。在一个实施例中,存在一一对应。在其他实施例中,通过时间戳或与捕捉的图像相关联的其他同步数据来使这些图像同步。
应了解的是,虽然眼睛跟踪模块310和可选的视网膜成像系统330被描述为单独的部件,但是系统300可以包括具有各种子部件的诊断装置,子部件包括眼睛跟踪模块310、视网膜成像系统330、以及其他子部件。在一些实施例中,可以提供中央处理器来控制系统300的操作、同步并控制这两个系统之间的通信、以及执行其他系统功能。对眼睛位置和取向的分析可以由系统300实时进行,或者在程序完成之后进行。上线时,系统300可以向患者和操作者提供反馈。离线时,系统300和/或其他系统可以执行更复杂的分析以获得更准确的扫描和结果。
在一些实施例中,系统300可以包括较大的诊断装置,该诊断装置包括两个或更多个相机(例如,用于对眼睛表面进行成像)和用于测量视网膜的第二部件。系统300可以包括被配置用于对眼睛进行成像以创建3-D眼睛模型的多个传感器。第一传感器系统可以包括用于恢复角膜形状并进行眼睛跟踪的两个或更多个相机。第二传感器系统可以包括测量眼睛的波前(眼睛的光学参数)的波前传感器。第三传感器可以包括可以测量眼睛的不同屈光表面之间的距离的OCT系统。OCT可以包括多种模式和分辨率,包括全眼模式、半眼模式(眼睛前部)和角膜模式(具有较高分辨率)。
传感器数据可以被提供给处理器(例如,如图5所示),该处理器收集数据并将数据存储在存储器中。该处理器可以使用融合算法来推导出眼睛的3D模型,该模型包括结合了各种传感器数据的参数化模型。3D模型可以用于例如白内障和角膜屈光手术规划。该数据可以用于光线跟踪,以辅助将人工晶状体(IOL)植入物放置在眼睛中等。本文描述的中央凹检测和眼睛跟踪的创新技术可以与包括用于扫描视网膜的装置的任何诊断装置或仪器一起使用。眼睛跟踪可以在角膜曲率计、生物测量计、波前测量装置以及包括数码相机和照明件的其他装置中实现。
在多个不同的实施例中,绝对眼睛取向利用了扫描视网膜的装置、比如OCT装置,该装置可以包括生物测量计和(i)提供视网膜扫描和其他诊断模式的其他装置、以及(ii)执行其他输入功能的其他传感器。在多个不同的实施例中,本文公开的系统可以与更多部件、不同的部件和更少部件一起使用。
本领域技术人员将理解本申请的优点。本文公开的系统和方法提供了针对患者眼睛校准的眼睛跟踪信息的自动初始化和校准。眼睛跟踪可以在患者注视着和未注视时独立于患者(例如,不依赖于患者的合作)进行、并且可以包括跟踪眼睛的泪膜状态。眼睛跟踪信息被收集并提供给逻辑装置,以实现进一步分析。可以采集其他传感器数据并通过回溯数据来进行验证,以基于眼睛跟踪数据来调整已知或投影的取向。例如,可以确定眼睛位置并将其提供给视网膜成像系统以用于分析扫描数据。标记出患者是在注视还是未注视的能力对于许多系统操作都很有价值,并且本公开的初始化和校准所提供的准确性允许系统更准确地确定注视时间/区间和/或调整计算的偏移量。确定注视程度的能力允许系统适于在各种实现方式中使用。存储所捕捉的数据以供后续调用并分析将允许例如通过使用复杂的神经网络或其他分析过程进行进一步的离线计算和更复杂的分析和选择。
在一个实施例中,控制逻辑被配置为具有参考点和阈值,以用于过滤掉不可靠的传感器数据。例如,系统可以被配置为使得小的凝视变化(例如,0.03度的偏离)可能没问题,但是较大的凝视变化将指示应被过滤掉的不可靠数据。在一些实施例中,在注视期间采集的传感器数据可以一起被平均或以其他方式组合。在其他实施例中,可以通过在采集期间使用计算出的偏离量和针对参考点的已知眼睛位置和取向来计算眼睛位置,来分析采集的数据以及眼睛位置和取向信息。在一些实施例中,可以使用融合引擎来处理各种传感器和数据输入和计算以生成期望的输出数据。
在多个不同的实施例中,可以使用一个或多个神经网络来进行图像和数据分析,以确定眼睛是否在注视目标物体。图4是根据一些实施例的示例性多层神经网络400的图。神经网络400可以表示用于实施本文描述的逻辑、图像分析、和/或眼睛注视确定逻辑中的至少一些的神经网络。神经网络400使用输入层420来处理输入数据410。在一些示例中,输入数据410可以对应于图像捕捉数据和捕捉到的视网膜图像数据,如本文先前描述的。在一些实施例中,输入数据对应于用于训练神经网络400来作出注视、取向和/或其他确定的输入训练数据。
输入层420包括用于通过缩放、范围限制、和/或类似方式来调节输入数据410的多个神经元。输入层420中的每个神经元生成被馈送至隐藏层431的输入端的输出。隐藏层431包括处理来自输入层420的输出的多个神经元。在一些示例中,隐藏层431中的每个神经元生成输出,所述输出接着统一被传播经过一个或多个额外的隐藏层(以隐藏层439结束),如图所示。隐藏层439包括处理来自前一个隐藏层的输出的多个神经元。隐藏层439的输出被馈送至输出层440。输出层440包括用于通过缩放、范围限制、和/或类似方式来调节来自隐藏层439的输出的一个或多个神经元。应理解的是,神经网络400的架构仅是代表性的,并且其他架构是可能的,包括具有仅一个隐藏层的神经网络、没有输入层和/或输出层的神经网络、具有递归层的神经网络等。
在一些示例中,输入层420、隐藏层431-439、和/或输出层440中的每一者包括一个或多个神经元。在一些示例中,输入层420、隐藏层431-439、和/或输出层440中的每一者可以包括相同数量或不同数量的神经元。在一些示例中,每个神经元将其输入x进行组合(例如,使用可训练加权矩阵W获得的加权和)、加上可选的可训练偏置量b、并且应用激活函数f来生成输出a,如等式a=f(Wx+b)所示。在一些示例中,激活函数f可以是线性激活函数、具有上限和/或下限的激活函数、对数s形(log-sigmoid)函数、双曲正切函数、修正线性单元函数等。在一些示例中,每个神经元可以具有相同或不同的激活函数。
在一些示例中,可以使用监督学习来训练神经网络400,其中训练数据的组合包括输入数据和标准真值(ground truth)(例如,预期的)输出数据的组合。可以将所生成的输出数据450与标准真值输出数据之间的差异反馈到神经网络400中,以对各个可训练的权重和偏置量进行校正。在一些示例中,可以通过使用随机梯度下降算法的反向传播技术等来反馈这些差异。在一些示例中,可以将一大组的训练数据组合多次呈现给神经网络400,直到总损失函数(例如,基于每个训练组合的差异的均方误差)收敛到可接受的水平为止。经训练的神经网络可以存储在眼科装置(例如,图3的系统300)中并在其中实施以对捕捉的图像进行实时分类(例如,注视或未注视)、和/或存储在离线系统中并在其中实施以分析所捕捉的数据。
图5展示了示例性计算系统,该计算系统可以包括系统100、200和300的一个或多个部件和/或装置,包括眼睛跟踪模块310和可选的视网膜成像系统330的实现方式。计算系统500可以包括彼此电通信的一个或多个装置,包括计算装置510,该计算装置包括处理器512、存储器514、多个通信部件522、以及用户接口装置534。
处理器512可以经由总线或其他硬件布置(例如,一个或多个芯片组)联接至各个系统部件。存储器514可以包括只读存储器(ROM)、随机存取存储器(RAM)和/或其他类型的存储器(例如,PROM、EPROM、FLASH-EPROM和/或任何其他存储芯片或盒)。存储器514可以进一步包括与处理器512直接连接、与之紧邻、或集成为其一部分的高速存储器的缓存。计算装置510可以通过缓存来访问存储在ROM、RAM、和/或一个或多个存储装置524中的数据以供处理器512进行高速访问。
在一些示例中,存储器514和/或存储装置524可以存储一个或多个软件模块(例如,软件模块516、518和/或520),其可以控制和/或被配置用于控制处理器512执行各种动作。虽然计算装置510被示出为具有仅一个处理器512,但是应理解的是,处理器512可以代表一个或多个中央处理器(CPU)、多核处理器、微处理器、微控制器、数字信号处理器(DSP)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)、图形处理单元(GPU)、张量处理单元(TPU)等。在一些示例中,计算装置510可以被实施为独立式子系统、和/或实施为添加至计算装置的板、或实施为虚拟机。
为了使得使用者能够与系统500交互,计算装置510包括一个或多个通信部件522和/或促进用户输入/输出(I/O)的一个或多个用户接口装置534。在一些示例中,该一个或多个通信部件522可以包括一个或多个网络接口、网络接口卡等,以根据一个或多个网络和/或通信总线标准来提供通信。在一些示例中,该一个或多个通信部件522可以包括经由网络580(比如局域网、无线网络、因特网或其他网络)与计算装置510通信的接口。在一些示例中,该一个或多个用户接口装置534可以包括一个或多个用户接口装置(比如,键盘、定点/选择装置(例如,鼠标、触摸板、滚轮、轨迹球、触摸屏)、音频装置(例如,麦克风和/或扬声器)、传感器、致动器、显示装置、和/或其他输入/输出装置。
根据一些实施例,用户接口装置534可以提供图形用户接口(GUI),其适合于辅助使用者(例如,外科医生和/或其他医务人员)执行本文公开的过程。GUI可以包括关于要执行的下一动作的指令、带注释和/或无注释的解剖结构图(比如眼睛的术前和/或术后图像)、输入请求等。在一些示例中,GUI可以显示解剖学结构的真彩色图像和/或假彩色图像等。
存储装置524可以包括比如由硬盘、光学介质、固态驱动器等提供的非暂态非易失性存储装置。在一些示例中,存储装置524可以与计算装置510(例如,本地存储装置)位于同一地点、和/或远离系统500(例如,云存储装置)。
计算装置510可以联接至一个或多个诊断装置、成像装置、手术装置和/或供医务人员使用的其他装置。在所展示的实施例中,系统500包括眼科装置550、眼睛跟踪器560以及可选的视网膜成像器570,它们可以实施在一个或多个计算系统(包括计算装置510)中。眼科装置550包括用户接口554,用于控制操作者在患者的眼睛552上进行程序和/或向操作者提供反馈。眼科装置550可以包括用于对患者的眼睛552进行成像、测量、诊断、跟踪和/或手术矫正和/或修复的装置。
眼科装置550可通信地联接至眼睛跟踪器560(比如图3的眼睛跟踪模块310),该眼睛跟踪器从眼科装置接收眼睛成像数据、并且在程序期间提供眼睛552的位置和对准的状态信息。眼睛跟踪器560包括两个或更多个成像器(例如,成像器A和成像器B),这些成像器位于相对于眼科装置550的光轴的已知位置处。眼睛跟踪器560被配置用于进行可以完全或部分自动化的初始化与校准程序。该校准程序包括指示成像器A和成像器B中的每一个在眼睛进行注视时捕捉眼睛552的一个或多个图像,并计算校准偏离量和增益。接着,眼睛跟踪器560可以捕捉眼睛552的图像、分析所捕捉图像的一个或多个眼睛特性、并使用校准偏离量和增益来计算眼睛凝视方位角GA和眼睛凝视仰角GE。可选的视网膜成像器570可通信地联接至眼科装置550和眼睛跟踪器560二者,并且被配置用于捕捉眼睛552的视网膜图像以用于眼科程序中以及用于检测中央凹从而在注视跟踪中使用。
在多个不同的实施例中,存储器514包括可选的视网膜图像分析模块516、眼睛跟踪器模块518、泪膜状态模块519、以及眼科程序模块520。视网膜图像分析模块516包括用于指示处理器512使用视网膜成像器570捕捉视网膜图像和/或分析所捕捉的视网膜图像的程序指令。视网膜图像分析模块516可以包括神经网络,该神经网络被训练过以接收所捕捉的一个或多个视网膜图像(例如,捕捉的图像、实时视网膜图像流、存储的视网膜图像等)、提取相关的图像特征、并检测中央凹的存在或不存在(例如,输出指示中央凹检测的分类、输出恰当眼睛位置和/或对准的概率等)。
眼睛跟踪器模块518包括用于指示处理器512使用眼睛跟踪器560捕捉眼睛552的图像和/或分析所捕捉的图像的程序指令。眼睛跟踪器模块518可以包括一个或多个神经网络,这些神经网络被训练来接收所捕捉的一个或多个图像(例如,捕捉的图像、来自眼睛跟踪器560的眼睛图像的实时流、来自图像A和图像B的图像对、存储的眼睛图像等)、提取相关的图像特征、并输出眼睛跟踪信息(例如,输出眼睛对准的指示、输出恰当眼睛位置和/或对准的概率、输出眼睛与恰当位置和对准的偏离量等)。
在多个不同的实施例中,眼睛跟踪器模块518被配置为基于在眼睛552注视着已知注视点期间接收到的对准数据来确定参考眼睛位置。例如,眼睛跟踪器模块518可以从视网膜图像分析模块516接收中央凹检测信息,该信息用于识别来自眼睛跟踪器560的、显示眼睛552恰当对准的对应图像。眼睛跟踪器模块518可以接收来自其他源的注视信息,包括系统500可获得的操作者反馈、统计学分析、图像分析、和其他源。眼睛跟踪器模块518进一步被配置用于通过以下过程来自动地校准患者眼睛的眼睛位置计算:包括在注视期间捕捉成像器A的图像、在注视期间捕捉成像器B的图像、确定每个图像中的至少一个眼睛特性、将这两个图像中的(多个)眼睛特性的图像坐标进行比较、以及计算患者眼睛552的校准偏离量和增益以用于未来的眼睛位置计算。眼睛跟踪器模块518进一步被配置用于分析由眼睛跟踪器560捕捉的图像,并参照参考图像和/或计算处的位置来输出眼睛跟踪信息。
泪膜状态模块519被配置为分析由眼睛跟踪器560捕捉的图像,例如来自与装置的光轴对准的相机(例如,成像器A)的图像。泪膜状态模块519从眼睛跟踪器接收图像序列并分析这些图像以确定一个或多个泪膜状态事件,这些事件可以包括眨眼、睁眼事件和闭眼事件等。例如,可能需要区分无意眨眼和患者尝试开始的测量序列。在一些实施例中,眨眼序列被定义为连续两次或更多次眨眼,泪膜状态模块519可以检测一次或多次故意眨眼或长时间眨眼,在此期间患者确保眼睛闭上的时间段。在一种途径中,泪膜状态模块519检测图像序列中的一个或多个眼睛特性(例如,瞳孔中心、照明源的反射)(例如,睁眼)、检测该一个或多个眼睛特性的阻碍(例如,闭眼)、并且随后检测该一个或多个眼睛特性的存在(例如,再次睁眼)。在多个不同的实施例中,泪膜状态模块519可以包括一个或多个经训练的神经网络,其被配置为接收图像流并输出泪膜状态事件。
在一些实施例中,泪膜状态模块519与一个或多个用户接口装置534对接以辅助该过程。例如,泪膜状态模块519可以指示用户接口装置534(例如,扬声器)产生蜂鸣声或其他声音以指示已经检测到眨眼。当已经检测到眨眼和/或眨眼序列并且正在进行测量过程时,泪膜状态模块519可以进一步指示用户接口装置534产生第二声音,例如两声蜂鸣声。在这种途径中,患者被告知测量过程已经开始,这加强了患者注视的必要性。
眼科程序模块520包括用于指示处理器512进行眼科程序的程序指令,并且可以包括在程序期间通过用户接口554进行用户输入和输出、以及对捕捉数据进行分析。在一些实施例中,眼科程序模块520包括用于分析在程序期间捕捉的数据的经训练的神经网络。眼科程序模块520接收来自眼睛跟踪器模块518的眼睛跟踪信息,该信息可以包括可接受偏离量阈值内的对准状态、偏离量数据和/或其他信息。在一些实施例中,眼科程序模块520被配置为在患者的眼睛552处于可接受的对准位置和泪膜状态时工作、并且通过用户接口554向患者提供程序已经开始的指示(例如,蜂鸣声等声音、闪光灯等视觉指示等等)。眼科程序模块550可以进一步向操作者提供患者眼睛未对准和/或泪膜状态需要更新的指示。
系统500可以存储所捕捉的视网膜数据、眼睛跟踪数据、泪膜数据、和眼科程序数据以便稍后处理,包括在线处理(例如,在后续程序期间)和离线处理。存储装置524可以存储针对患者捕捉的视网膜图像数据526,其可以包括患者标识符、捕捉的图像流、时间信息(例如,时间戳、顺序索引等)和/或关于是否在图像中检测到中央凹的信息。存储装置524还可以存储眼睛跟踪器数据528,其可以包括患者标识符、捕捉的图像流、时间信息(例如,时间戳、顺序索引等)、捕捉的图像是否与检测到的注视时间段相对应和/或提供了眼睛在注视期间的参考位置的信息、和/或校准偏离量和增益信息。存储装置524还可以存储在程序期间针对患者捕捉的程序数据530,包括患者标识符、在程序期间捕捉的数据流(例如,图像、数据读数、数据计算结果等)、时间信息(例如,时间戳、顺序索引等)、针对在程序中某个时间点时的眼睛位置所计算的偏离量信息、和/或眼睛在程序期间的某个时刻是否在注视。
计算装置510可以与向该计算装置提供一种或多种应用服务的一个或多个网络服务器582通信。在一些实施例中,网络服务器582包括神经网络训练模块584,用于使用训练数据集586来训练其中一个或多个神经网络,该训练数据集可以包括被标记图像。例如,视网膜图像分析模块516可以包括使用一组被标记来识别中央凹的存在和/或不存在的视网膜图像所训练过的神经网络。眼睛跟踪器模块518可以进一步包括使用捕捉的一组眼睛图像和参考数据所训练过的神经网络,这些眼睛图像和参考数据被标记来识别图像相对于参考数据的偏离量。眼科程序模块520可以包括使用代表在程序期间捕捉的数据的一组数据所训练过的神经网络,该数据包括来自眼睛跟踪器模块518的对准和/或偏离量数据。
参见图6A,现在描述用于初始化并校准眼科装置的过程600的示例性实施例。在步骤610中,使患者位于眼科系统处并且引导其聚焦在目标物体上而将患者的视线与眼科装置的对准轴线对准。在一个实施例中,分析患者的视网膜以确认患者恰当地注视。例如,系统可以包括视网膜成像系统,该视网膜成像系统被配置用于扫描视网膜、采集扫描的视网膜数据、并分析采集的数据以检测中央凹。在一些实施例中,系统操作者可以基于操作者对患者是否在注视的确定来向系统提供反馈。在其他途径中,可以在注视程序期间采集图像数据并对其进行分析以确定注视(例如,通过分析直方图或其他图像数据)。
在步骤620中,用被布置来从至少两个已知位置捕捉图像的对应成像装置来捕捉眼睛表面的多个图像。例如,在图2和图3的系统中,使用两个相机来捕捉眼睛的一对图像,每个图像来自不同的已知位置。在多个不同的实施例中,在短时间区间内同时或按顺序地捕捉图像以捕捉眼睛的当前位置和取向。
在步骤630中,分析捕捉的图像以确定一个或多个眼睛特性的图像坐标。眼睛特性可以包括在图像中检测到的瞳孔中心、在图像中检测到的角膜中心、在图像中检测到的照明源的反射位置、或其他眼睛特性。在一些实施例中,图像坐标表示每个图像内的像素位置的(x,y)坐标,其可以映射到真实世界的位置以确定眼睛位置和取向。
在步骤640中,根据成像装置的已知位置和眼睛特性的图像坐标来计算校准偏离量和增益。例如,两个眼睛特性(例如,瞳孔中心PC与角膜反射CR位置)之间的图像坐标差可以对应于眼睛凝视的方位角(Dx=CRx-PCx)和仰角(Dy=CRy-PCy)。为了用坐标差(例如,Dx和Dy)更准确地推导出眼睛凝视方位角GA和眼睛凝视仰角GE,可以使用校准偏离值和增益值:
GA=ax+bx*Dx
GE=ay+by*Dy
使用来自两个成像装置的方程组来求解校准偏离值a和校准增益值b。
在步骤650中,系统在眼科程序期间进行眼睛跟踪。眼睛跟踪包括用一个或多个成像装置来捕捉图像流、分析这些图像以确定检测到的眼睛特性的图像坐标、以及使用计算出的图像坐标和校准偏离值和增益值来计算眼睛位置和旋转。在一些实施例中,患者眼睛的校准偏离量和增益以及患者标识符被存储在查找表或其他存储装置中,并且可以在后续眼科程序中被访问和使用。
参见图6B,现在根据一个或多个实施例来描述用于操作诊断系统的示例性过程660。在步骤670中,使患者位于眼科系统处并且引导其聚焦在目标物体上而将患者的视线与眼科装置的对准轴线对准。在步骤672中,系统检测眼睛注视,这可以由操作者通过视网膜图像系统检测中央凹、通过直方图或其他统计学分析、或通过另一过程来进行。在一个实施例中,该眼科系统包括视网膜成像系统(比如图3的视网膜成像系统330),该视网膜成像系统被配置用于扫描视网膜、采集扫描的视网膜数据、并分析采集的数据以检测中央凹。在一些实施例中,如果眼睛在注视,则在OCT图像的中心可看到中央凹。在步骤674中,确定与注视检测相关联的时间特性。在多个不同的实施例中,时间特性可以包括时间戳、顺序图像索引、或允许检测到的眼睛注视与眼睛跟踪系统捕捉到的被捕捉图像流同步的其他指标。
同时,眼睛跟踪系统在步骤680中捕捉眼睛的图像流,并且在步骤682中使用捕捉到的图像数据来跟踪眼睛运动。在步骤684中,识别并分析与该时间特性匹配的一个或多个所捕捉图像,以确定眼睛在注视目标物体时的位置和取向。
在步骤686中,眼睛跟踪器分析捕捉的针对注视位置(例如,参考位置)的图像流并确定眼睛是否在误差阈值内恰当地注视。可以存储这些图像和注视信息(例如,在存储装置688中)以便稍后处理。同时,在步骤690中,确定泪膜状态。在一个实施例中,分析由眼睛跟踪器捕捉的图像以检测眨眼或其他睁眼/闭眼/睁眼事件。例如,可以分析这些图像以确定指示眼睛睁开的一个或多个眼睛特性的存在、指示眼睛闭上的一个或多个眼睛特性的阻碍、以及图像流中指示眼睛睁开的一个或多个眼睛特性的再度出现。泪膜状态可以包括检测眨眼事件、等待延迟时间段、进入稳定泪膜状态持续一段时间、然后退出稳定泪膜状态。泪膜数据可以被存储(例如,在存储装置691中)以便稍后处理。
如果眼睛恰当地注视并且泪膜状态稳定(步骤692),则在步骤694中进行诊断,其可以包括眼睛测量值和其他诊断数据。在一些实施例中,由视网膜成像系统来进行对视网膜的分析(步骤672)和对与检测到的中央凹相关联的时间特性的确定(步骤674),视网膜成像系统在步骤694的眼睛诊断期间禁用。因此,在诊断程序期间视网膜成像系统不用于跟踪眼睛位置。
在步骤694的测量期间,眼睛跟踪系统在步骤686中跟踪眼睛的位置和取向以确定眼睛在测量期间是否被恰当定位并对准。在一些实施例中,眼睛跟踪系统聚焦在角膜的前侧或室内侧。眼睛跟踪系统可以在诊断期间分析所捕捉的眼睛图像(步骤694)并且基于所捕捉的图像来确定当前位置和旋转。将当前位置和旋转与注视位置和旋转进行比较以确定偏离量。如果偏离量低于误差阈值,则确定眼睛处于适合于测量的恰当位置和对准。如果偏离量高于误差阈值,则可以告知诊断过程和/或系统操作者:眼睛未对准,从而允许操作者暂停诊断程序并指示患者重新定位眼睛、允许确定相关联的测量数据是有效/无效的、或允许采取其他动作。在一些实施例中,在眼睛诊断程序(步骤694)期间采集的数据被存储在存储装置696中以便后续处理和分析。
视网膜成像信息和/或中央凹检测信息可能并不总是可用于眼睛跟踪。例如,一些眼科装置不包括OCT视网膜扫描仪。在一些程序中,在程序开始之前可能没有可靠地检测到中央凹(例如,患者没有恰当注视、没有以令人满意的确定程度在图像中检测到中央凹、操作者或系统误差等等)。在这些实施例中,可以至少部分地基于对由眼睛跟踪器捕捉的图像(例如,眼睛表面的图像)的分析来确定绝对注视位置。在其他实施例中,可以通过操作者反馈、详细的初始化程序、图像分析、统计学分析和/或其他方法中的一种或多种来确定绝对注视位置。
在多个不同的实施例中,如下进行注视分析:检测由相机捕捉的图像流中的眼睛位置并分析结果以估计绝对注视位置。该分析可以包括使用从这些捕捉的图像中确定的眼睛位置的直方图进行的统计分析。如果根据分析,直方图显示出明显的最大值,则该方法可以估计绝对注视位置。如果直方图没有显示出明显的最大值,则该方法可以指示没有检测到注视。在一些实施例中,对捕捉的图像的分析可以包括在患者的眼睛与在已知位置的其他眼睛之间进行比较(例如,使用通过一组被标记的训练图像训练过的神经网络)、患者的历史注视信息、图像分析(包括容差/阈值)、和/或对可用信息的其他分析。在一些实施例中,该方法可以依靠操作者和患者来使患者的眼睛恰当地注视。在一些实施例中,该方法可以解决操作者和/或患者误差(例如,如果患者有意注视错误的斑点,或者操作者没有恰当地指示和/或监视患者)导致图像没有反映注视的情况。
现在将参考图7至图10来描述用于眼睛跟踪的系统和方法的实施例,其中在程序之前不可获得视网膜OCT扫描和/或没有可靠地检测到中央凹。如先前所讨论的,使用眼科装置对眼睛进行准确测量可以始于将患者的视线(患者的视轴)对准眼科装置的某个光轴。在此背景下,视线可以是患者看着事物时所沿着的轴线。在患者没有恰当注视期间,所得的诊断数据和/或该眼科程序的其他结果可能不可靠。
眼科装置可以使用绝对眼睛注视位置来向装置操作者提供关于患者在程序(例如,测量程序)期间是否在注视(或未恰当注视)诊断装置的某个光轴的反馈。眼科装置可以在程序期间使用绝对眼睛注视位置来识别患者在恰当注视时的时间段。该系统还可以使用绝对眼睛注视位置、至少部分地基于在数据采集期间确定患者是否在注视,来确定在程序期间采集的数据是可靠的和/或不可靠的数据。
参见图7,现在将描述用于估计绝对眼睛注视的方法700的实施例。方法700是使用计算装置和成像系统来进行的,该成像系统可以包括用于对患者眼睛的表面进行成像的相机和照明系统(例如,图3的成像装置312和313以及照明部件314)。该方法利用图像中眼睛的可检测特征(例如瞳孔、角膜缘、虹膜特征等)的位置和照明系统在角膜处的反射的位置来确定眼睛的位置和取向。在程序期间、或期望患者恰当地定位并且参照眼科装置的光轴进行注视的其他时间期间,确定眼睛的位置。操作者可以通过提供反馈(例如,通过按压一个或多个按钮)来开始该过程和/或操作者可以开始该序列,接着由患者来跟随。可选地,操作者可以提供关于患者遵照该程序的确认。
方法700展示了由可以包括视网膜OCT成像装置的眼科装置的计算装置实施的实施例。为了确定绝对注视位置,计算系统确定中央凹检测信息是否可获得(步骤702)。例如,如果眼科装置包括视网膜成像装置,则中央凹检测信息可以是可获得的,该视网膜成像装置在患者恰当注视时扫描患者的眼睛。如果中央凹检测信息可获得,则该方法进行到步骤704,此时计算系统识别与检测到的中央凹数据相对应的眼睛跟踪图像(例如,如上文参见图3所描述的)。在步骤706中,系统校准偏离量和增益并使用对应的图像来计算绝对注视参数。然后可以在程序期间使用眼睛跟踪图像、注视参数和经校准的等式来跟踪患者的眼睛。
回到步骤702,如果中央凹检测不可获得,则该方法使用捕捉的眼睛图像(例如,眼睛表面的图像)来估计绝对注视参数。在步骤720中,计算装置从相机接收捕捉的图像流、使用从布置在已知位置处的不同相机捕捉的至少一对图像来校准偏离值和增益值、并确定多个图像中的每个图像中眼睛的位置和取向。计算装置可以处理每个接收到的图像或所接收图像的子集(例如,根据处理的约束条件)。当分析所捕捉的数据时,可以在程序之前/期间和/或程序之后接收图像。
在针对一系列所捕捉图像确定了眼睛的位置和取向之后,在步骤730中生成所确定的位置和取向的直方图。在一些实施例中,位置和取向信息包括每个图像中瞳孔中心的像素位置,将其用于构建(x,y)坐标的二维直方图。位置和取向信息可以包括从每个图像中确定的眼睛的绝对位置和取向,将其用于构建二维直方图。在本方法中,还可以使用位置和取向数据的其他表示(例如,热图)。在一些实施例中,可以使用操作者反馈来指示其中已经让患者注视的图像、和/或指示患者是否尚未注视,并且可以将相应的图像添加到分析中或从分析中丢弃。可以进行以下程序:其中系统的操作者在测量序列期间指示患者注视物体。
参见图8,展示了热图800,示出了患者所看着的注视点的示例性分布。该图可以是彩色编码的、三维的、或以其他方式包括用于跟踪患者注视某些斑点的频率的标志。可以使用其他指示符(例如,接近背景颜色的颜色)来指示短时间地注视该斑点。在所展示的实施例中,热图的区域810示出了最常见的坐标、并且可以指示患者眼睛在恰当注视目标物体时的位置和取向。虚线圆圈820指示的位置和取向在取决于程序或分析所需的精度水平时将选择用于注视确定的阈值偏离量以内。
图9展示了绘制从捕捉的图像中检测到的眼睛坐标的示例性直方图900。此分布910的最大值可以用于估计在注视的眼睛的位置和取向(例如,通过识别患者最常注视时的位置和取向)。此估计出的位置和取向可以用作进一步眼睛注视确定的参考位置。例如,对在测量序列中获取的医学数据的分析可以仅使用当眼睛的取向和位置在相对于参考位置(例如,其至少部分基于直方图的最大值)的可接受偏离量以内(例如,如圆圈920所示)时采集的数据点。
如先前所讨论的,直方图900可以通过绘制从捕捉的图像中确定的注视点来构建。例如,直方图可以将眼睛位置跟踪为检测到的瞳孔或以其他方式识别的眼睛中心的一系列像素位置(例如,根据反射或其他测量值所确定的)。随着图像序列被接收并分析,可以显现出指示患者最常注视时的位置的图案。在一些实施例中,直方图中的值可以包括相邻像素的平均值和/或纳入其他的平滑化。
返回参见图7的方法700,在步骤740中,分析直方图以检测注视位置。如先前所讨论的,注视位置可以与直方图的满足特定分析指标的最大值有关。例如,可以基于各种各样的因素来选择最大值,包括最大值超过平均值的程度、针对给定数量的图像超过阈值的程度等。在一些实施例中,在程序期间眼睛跟踪继续进行,并且可以随着更多图像被分析而实时更新最大值/注视位置。
参见步骤750,如果没有找到可接受的最大值(或满足其他注视点指标),则通过此过程无法获得眼睛注视信息。在一些实施例中,在程序期间眼睛跟踪继续进行,并且可以随着更多图像被分析而实时识别和/或更新最大值/注视位置。
在步骤760中,基于检测到的注视信息来确定校准偏离量和增益以及估计的注视参数(例如,程序可接受的注视位置和偏离半径)。然后可以在步骤708中在程序期间使用眼睛跟踪图像和估计的注视参数来跟踪患者的眼睛。
参见图10,现在将讨论用于实施图7至图9的方法的示例性系统1000。计算装置1002(例如图5的计算装置510)可通信地联接至眼科设备1060、并且被配置用于进行与眼睛跟踪器1030、泪膜分析1050和眼科程序1040相关联的过程。计算装置1002可以被配置为使用眼科设备1060的视网膜成像装置(如果可获得)来进行视网膜图像分析(通过视网膜图像分析模块1010)、并存储视网膜图像数据1012。计算装置1002进一步包括注视分析模块1020,用于进行图7所展示的方法和用于估计绝对注视参数的其他方法的实施。在一个实施例中,注视分析模块1020接收并分析由眼睛跟踪器1030的一个或多个相机(例如,成像器A和成像器B)捕捉的眼睛图像流、构建并分析注视位置的直方图、并且确定参考位置和相关联的半径。注视数据(包括直方图数据)可以保存在存储装置1022(例如,存储器或存储装置)中。
在一些实施例中,计算装置1002包括被配置用于执行被存储在存储器中的程序指令的逻辑装置,该逻辑装置可以包括注视分析模块1020、可选的视网膜图像分析模块1010、眼睛跟踪器1030、泪膜分析模块1050、以及与眼科程序相关联的过程1040。计算装置1002还可以联接至存储装置1032,该存储装置用于存储眼睛跟踪器数据、图像、参考信息、和其他数据。
注视分析模块1020可以被配置用于使用由眼睛跟踪器1030捕捉的图像来分析患者眼睛的相对凝视。注视分析模块1020可以使用从不同相机捕捉的一对图像来校准测量值,以推导出校准偏离量和增益,这允许根据眼睛特性的图像像素坐标来准确地确定眼睛位置和取向。注视分析模块1020可以构建跟踪凝视取向直方图(例如,眼睛的上下运动和偏转、相对向上/向下和向左/向右偏离、曲率/旋转等)并分析直方图的峰值(例如,每个位置时的数据值数量)以获得绝对参考值的估计值。在一些实施例中,注视分析模块1020估计眼睛的光轴和与眼睛跟踪器相机的交点,以跟踪凝视取向。
眼睛跟踪器1030可以被配置用于捕捉、存储并处理患者眼睛的图像。眼睛跟踪器1030可以被配置用于根据捕捉的一个或多个图像来确定患者眼睛的位置和取向,以便通过注视分析模块1020来进一步分析。在一些实施例中,所分析的每个图像可以包括表示眼睛位置和取向(例如,围绕x轴和y轴的旋转)的x,y位置。眼睛跟踪器可以结合绝对注视位置(例如,通过视网膜图像分析1010确定的)或估计的绝对注视位置(例如,通过注视分析模块1020确定的)来使用关于从一个图像到另一图像的相对取向变化的信息。在一些实施例中,注视分析模块1020基于以下假设进行操作:患者大部分时间都在尝试注视,并且可以通过构建x和y旋转的直方图并确定最主要的凝视取向来确定估计的绝对注视位置。在多个不同的实施例中,直方图可以由像素坐标、围绕x和/或y的旋转、偏离值或其他数据构建。每个图像可以提供表示计算出的眼睛凝视取向的坐标对,该坐标对被添加到直方图中。
在一些实施例中,注视分析模块1020被配置用于通过检测一个不同的峰(例如,被多个较小峰环绕的主峰)并确定已经检测到注视位置的置信水平来分析直方图。如果没有检测到明显的峰值,则置信水平可能低。可以使用检测到的峰值周围的半径(例如,人类可以注视正/负0.5度)。峰值比平均值的阈值和/或半径的大小可以取决于系统和程序的要求而改变。
计算装置1002可以包括一个或多个神经网络,该神经网络被训练来作出本文公开的一种或多种确定,包括分析直方图数据以确定是否可以确定眼睛注视位置。在一些实施例中,注视分析可以进一步包括针对该患者和/或其他患者将已知眼睛跟踪图像和/或眼睛注视参数进行比较。例如,可以将一个或多个图像输入到使用历史数据训练过的神经网络中,以确定图像中的眼睛是否正在注视。
参见图11,现在将描述用于跟踪患者泪膜状态的示例性方法。方法1100包括患者引发性触发,在各种系统中,该触发可以被实施为(i)患者按压用户输入装置上的按钮,(ii)系统检测到患者何时眨眼,以及(iii)系统检测到注视状态在注视与未注视之间变化。
在一些实施例中,系统被配置用于检测患者何时眨眼以及患者何时注视,从而可以在泪膜状态和注视状态有利时进行测量。在一个实施例中,系统被配置用于通过用眼睛跟踪器或其他系统部件跟踪眼睛来检测患者眨眼。这可以通过基于视频的系统或其他成像方法(例如光学相干断层扫描)、一个或多个经训练的神经网络、专家系统和/或其他系统和部件来实现。要求患者以某种方式眨眼,例如眨两次、用力眨眼等。系统被配置用于检测该事件并在泪膜稳定后触发测量结果的采集。
该装置可以向用户提供反馈(例如,可以在每次检测到眨眼时发出哔声)。通过适当的眨眼次数、眨眼持续时间、和在最后一次眨眼后定义的采集延迟,可以实现明确定义的测量条件,以识别稳定泪膜状态。此方法可以在包括成像系统的各种各样的眼科诊断装置中实施。
在操作中,在步骤1110中,操作者将患者相对于装置定位。在步骤1120中指示患者注视目标物体以将患者的一只眼睛与装置的光轴对准,并且患者在整个程序过程中尝试注视目标物体。在步骤1130中,指示患者眨眼或执行另一睁眼/闭眼序列以更新眼睛的泪膜。在步骤1132中,患者按照指示眨眼。在一些实施例中,指示患者以某种方式眨眼(例如,连续两次)以更新泪膜并向装置发出已经进行眨眼的信号。在步骤1134中,装置检测在步骤1132中进行的眨眼。在一些实施例中,使用眼睛跟踪器来对患者的眼睛进行成像以捕捉眼睛表面的视觉表示。分析图像流(例如视频流)以检测眨眼序列。例如,眨眼检测部件可以进行图像分析以检测眼睛的瞳孔、照明源反射离开眼睛、或其他眼睛特性。例如,可以分析图像序列以确定睁眼状态和闭眼状态。可以通过搜索短时间段内的眨眼序列(例如,在三秒内眨眼两次)(例如,睁眼状态→闭眼状态→睁眼状态)来检测眨眼模式。在一些实施例中,经训练的神经网络可以用于检测捕捉的图像的睁眼状态和闭眼状态。
如果在步骤1134中检测到眨眼序列,则在步骤1140中开始延迟时间段以允许泪膜稳定。在一些实施例中,通过听得见的蜂鸣声或其他指示来通知患者。在过去t1秒后,装置进入持续t2的稳定泪膜状态,在此期间装置可以捕捉测量值。在稳定泪膜状态期间1140,患者继续注视目标物体(步骤1120)。在一些实施例中,装置使用眼睛跟踪器或其他装置部件来检测患者是否恰当地注视。眼睛跟踪器可以捕捉眼睛的图像并将当前位置与参考位置进行比较以确定眼睛是否在可接受的偏离范围内注视。在稳定泪膜状态t2期间和注视状态期间,在步骤1142中可以捕捉一个或多个测量值。在稳定泪膜时间段(步骤1140)后,假定泪膜已经退化到使捕捉的测量值不可靠的水平(步骤1150)。在这种状态下,患者可以停止注视以结束该程序。在一些实施例中,该序列在2-6秒内完成,并且可以重复以更新泪膜以获得额外的测量机会。
在多个不同的实施例中,在数据采集期间,甚至在视网膜成像数据不可获得(例如,不是系统的一部分和/或在程序之前中央凹检测不可获得)时,也可以向操作者提供关于患者是否在注视此轴线的反馈。本文公开的系统及方法提供了适合与使用如本文描述的图像捕捉装置和照明系统的眼科诊断装置一起使用的具有成本效益的解决方案。
本领域技术人员应理解的是,所展示实施例的方法提供了用于在操作期间独立地验证患者的眼睛是否在恰当地注视目标物体的改进的技术。通过在特定时间点检测中央凹,系统可以确定患者的视线/视轴位于何处。此信息允许系统确定患者在测量序列或其他诊断或校正程序期间当前是否在注视。此方法将对视网膜进行成像的系统和使用表面信息来跟踪眼睛的系统相结合。根据视网膜图像中的中央凹位置,系统可以确定眼睛跟踪位置,并确定眼睛是向左还是向右/向上还是向下运动。根据本公开,系统可以跟踪用户凝视、计算偏离量、确定当前眼睛位置和取向、作出关于眼睛注视的确定、确定数据有效性、以及提供其他特征。
根据上述实施例的方法可以实施为存储在非暂态有形机器可读介质上的可执行指令。这些可执行指令在被一个或多个处理器(例如,处理器512)运行时可以致使该一个或多个处理器执行本文公开的一个或多个过程。实施根据这些公开内容的方法的装置可以包括硬件、固件和/或软件,并且可以采用各种各样的形状因子中的任一种。这样的形状因子的典型示例包括膝上型计算机、智能电话、小型个人计算机、个人数字助理等。本文描述的功能的一部分也可以体现在外围设备和/或附加卡中。通过进一步示例,此类功能还可以在单一装置中的不同芯片或在其中执行的不同过程之间、在电路板上实施。
虽然已经示出和描述了展示性实施例,但是在前述公开中设想了各种各样的修改、改变和替换,并且在一些情况下,可以采用实施例的一些特征而不相应地使用其他特征。本领域普通技术人员应认识到许多变型、替代方案和修改。因此,本发明的范围应仅由以下权利要求来限制,并且恰当的是,应以与本文公开的实施例的范围一致的方式广义地解释权利要求。

Claims (20)

1.一种系统,包括:
眼科装置,所述眼科装置被配置用于测量眼睛的特性;
眼睛跟踪器,所述眼睛跟踪器被配置用于捕捉所述眼睛的第一图像流;以及
逻辑装置,所述逻辑装置被配置用于:
分析所述第一图像流以确定所述眼睛是否在注视目标物体;
检测所述第一图像流中的预定眨眼序列;
在预定的泪稳定时间段之后,开始稳定泪膜时间区间;以及
在所述稳定泪膜时间区间期间,当所述眼睛在注视所述目标物体时,使用所述眼科装置来捕捉所述眼睛的至少一个测量值。
2.如权利要求1所述的系统,其中,所述眨眼序列包括连续多次眨眼;以及
其中,检测所述第一图像流中的预定眨眼序列包括:通过神经网络来处理所述图像,所述神经网络被训练过以检测睁眼和/或闭眼。
3.如权利要求1所述的系统,其中,所述眼睛跟踪器被配置用于从第一位置捕捉所述眼睛的第一图像并且从第二位置捕捉所述眼睛的第二图像;以及
其中,所述逻辑装置进一步被配置用于:
从所述第一图像检测第一多个眼睛特性,这些眼睛特性具有对应的第一图像坐标;
从所述第二图像检测第二多个眼睛特性,这些眼睛特性具有对应的第二图像坐标;以及
至少部分地基于所述对应的第一图像坐标、所述对应的第二图像坐标、所述第一位置和所述第二位置来确定校准偏离量和校准增益。
4.如权利要求3所述的系统,其中,所述逻辑装置进一步被配置用于:
至少部分地基于所述对应的第一图像坐标和/或所述对应的第二图像坐标来确定相对于所述眼睛跟踪器的光轴而言的眼睛注视位置和取向。
5.如权利要求1所述的系统,其中,所述逻辑装置进一步被配置用于:
至少部分地基于所确定的眼睛注视位置和取向来估计眼睛注视参数;
接收来自所述眼睛跟踪器的第一图像流;以及
通过分析所述第一图像流中的至少一个图像以确定相对于所述眼睛注视参数的当前眼睛位置和取向,来跟踪所述当前眼睛位置和取向;
其中,所述眼睛注视参数包括所述眼睛在注视时的参考位置和取向。
6.如权利要求1所述的系统,其中,所述逻辑装置进一步被配置用于通过构建并分析检测到的眼睛位置和取向的直方图来确定相对于所述眼睛跟踪器的光轴的注视位置;
其中,分析所述直方图进一步包括确定相对最大值的坐标是否包含注视位置和取向;以及
其中,确定所述相对最大值的坐标是否包含注视位置和取向进一步包括将所述相对最大值与阈值和/或所述直方图的平均坐标值进行比较。
7.如权利要求1所述的系统,进一步包括:
视网膜成像系统,所述视网膜成像系统包括光学相干断层扫描(OCT)扫描仪,其被配置用于进行视网膜扫描;
其中,所述眼睛跟踪器进一步被配置用于在所述视网膜扫描期间捕捉所述眼睛的图像流;
其中,所述视网膜成像系统进一步被配置用于:
捕捉所述眼睛的多个视网膜图像;
检测中央凹是否存在于所述眼睛的多个视网膜图像中的一个或多个图像中;以及
从所述眼睛的多个视网膜图像中识别具有所检测到的中央凹的第一视网膜图像;以及
其中,所述逻辑装置进一步被配置用于:
从所述图像流中确定与所述第一视网膜图像在时间上接近的对应图像;以及
分析对应图像以确定眼睛注视参数。
8.如权利要求1所述的系统,其中,所述逻辑装置被配置用于跟踪所述眼睛位置和取向并且计算与眼睛注视参数的偏离量并确定所述偏离量是否小于阈值;
其中,当所述偏离量小于所述阈值时,确定所述眼睛在注视,并且所述逻辑装置生成注视指示;以及
其中,当所述偏离量大于所述阈值时,确定所述眼睛未对准,并且所述控制处理器生成未注视指示。
9.如权利要求1所述的系统,其中,所述逻辑装置进一步被配置用于进行眼睛诊断程序并且在所述眼睛诊断程序期间使用所述眼睛跟踪器来跟踪眼睛位置。
10.如权利要求1所述的系统,进一步包括诊断装置,所述诊断装置被配置用于在使用所述眼睛跟踪器来跟踪所述眼睛的位置和取向时进行眼睛诊断程序;其中,所述诊断装置被配置为至少部分地基于表示眼睛注视参数的数据和所跟踪到的眼睛位置来修改眼睛诊断程序。
11.一种方法,包括:
使用眼睛跟踪器来捕捉眼睛的第一图像流;
分析所述第一图像流以确定所述眼睛是否在注视目标物体;
检测所述第一图像流中的预定眨眼序列;
在预定的泪稳定时间段之后跟踪稳定泪膜时间区间;以及
在所述稳定泪膜时间区间期间,当所述眼睛在注视所述目标物体时,使用眼科装置来捕捉所述眼睛的至少一个测量值。
12.如权利要求11所述的方法,其中,所述眨眼序列包括连续多次眨眼;以及
其中,检测所述第一图像流中的预定眨眼序列包括:通过神经网络来处理所述图像,该神经网络被训练过以检测睁眼和/或闭眼。
13.如权利要求11所述的方法,进一步包括:
从第一位置捕捉眼睛的第一图像;
从与所述第一位置不同的第二位置捕捉所述眼睛的第二图像;
从所述第一图像检测第一多个眼睛特性,这些眼睛特性具有对应的第一图像坐标;
从所述第二图像检测第二多个眼睛特性,这些眼睛特性具有对应的第二图像坐标;以及
至少部分地基于所述对应的第一图像坐标、所述对应的第二图像坐标、所述第一位置和所述第二位置来确定校准偏离量和校准增益。
14.如权利要求13所述的方法,进一步包括:
捕捉所述眼睛的图像流;
至少部分地基于所述检测到的眼睛特性的坐标、所述校准偏离量和所述校准增益来检测所述图像流中的眼睛位置和取向;以及
确定相对于光轴而言的眼睛注视位置和取向。
15.如权利要求14所述的方法,进一步包括:
至少部分地基于所确定的眼睛注视位置和取向来估计眼睛注视参数;以及
通过分析所述图像流中的一个或多个图像以确定相对于所述眼睛注视参数的眼睛位置和取向,来跟踪所述眼睛位置和取向;
其中,所述眼睛注视参数包括所述眼睛在注视时的参考位置和取向。
16.如权利要求11所述的方法,进一步包括对神经网络进行训练以接收所述图像流并且输出对眼睛位置的确定。
17.如权利要求11所述的方法,进一步包括通过构建并分析检测到的眼睛位置和取向的直方图来检测相对于装置的光轴的注视位置;
其中,分析所述直方图进一步包括确定相对最大值。
18.如权利要求11所述的方法,进一步包括:
使用光学相干断层扫描(OCT)扫描仪来进行所述眼睛的视网膜成像扫描;
通过所述视网膜成像扫描来捕捉眼睛的多个视网膜图像;
使用成像装置来捕捉图像流,所述成像装置被配置用于对所述眼睛的表面进行成像;
检测中央凹是否存在于所述多个视网膜图像中的一个或多个图像中;
从所述多个视网膜图像中识别具有所检测到的中央凹的第一视网膜图像;
从所述图像流中确定与所述第一视网膜图像在时间上接近的对应图像;以及
分析所述对应图像以确定眼睛注视参数。
19.如权利要求11所述的方法,进一步包括跟踪眼睛位置和取向并且计算与眼睛注视参数的偏离量并确定所述偏离量是否小于阈值;
其中,当所述偏离量小于所述阈值时,确定所述眼睛在注视,并且生成注视指示;以及
其中,当所述偏离量大于所述阈值时,确定所述眼睛未对准,并且生成未注视指示。
20.如权利要求11所述的方法,进一步包括在使用图像捕捉装置来跟踪所述眼睛的位置和取向时进行眼睛诊断程序;以及
至少部分地基于表示眼睛注视参数的数据和所跟踪到的眼睛位置来修改所述眼睛诊断程序。
CN202080057234.3A 2019-09-27 2020-09-18 对眼科诊断装置中的测量的患者引发性触发 Pending CN114269223A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201962906755P 2019-09-27 2019-09-27
US62/906,755 2019-09-27
PCT/IB2020/058691 WO2021059096A1 (en) 2019-09-27 2020-09-18 Patient-induced trigger of a measurement for ophthalmic diagnostic devices

Publications (1)

Publication Number Publication Date
CN114269223A true CN114269223A (zh) 2022-04-01

Family

ID=72659826

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080057234.3A Pending CN114269223A (zh) 2019-09-27 2020-09-18 对眼科诊断装置中的测量的患者引发性触发

Country Status (7)

Country Link
US (1) US20210093193A1 (zh)
EP (1) EP4033961A1 (zh)
JP (1) JP2022549561A (zh)
CN (1) CN114269223A (zh)
AU (1) AU2020355335A1 (zh)
CA (1) CA3146511A1 (zh)
WO (1) WO2021059096A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023075678A1 (en) * 2021-10-27 2023-05-04 Medios Technologies Pte Ltd Retinal image capturing

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7425067B2 (en) * 2003-11-14 2008-09-16 Ophthonix, Inc. Ophthalmic diagnostic instrument
US7281801B2 (en) * 2004-09-15 2007-10-16 University Of Rochester Tear dynamics measured with optical coherence tomography
GB0722079D0 (en) * 2007-11-09 2007-12-19 Univ Bristol Detecting driver impairment
US20090189830A1 (en) * 2008-01-23 2009-07-30 Deering Michael F Eye Mounted Displays
WO2010117386A1 (en) * 2009-04-10 2010-10-14 Doheny Eye Institute Ophthalmic testing methods, devices and systems
EP2507742A2 (en) * 2009-12-02 2012-10-10 Tata Consultancy Services Limited A cost effective and robust system and method for eye tracking and driver drowsiness identification
US9504376B2 (en) * 2009-12-22 2016-11-29 Amo Wavefront Sciences, Llc Optical diagnosis using measurement sequence
DE102010017837A1 (de) * 2010-04-22 2011-10-27 Carl Zeiss Meditec Ag Anordnung zur Erzielung hochgenauer Messwerte am Auge
EP2649932A4 (en) * 2010-12-08 2017-06-14 National University Corporation Shizuoka University Method for detecting point of gaze and device for detecting point of gaze
CN103501406B (zh) * 2013-09-16 2017-04-12 北京智谷睿拓技术服务有限公司 图像采集系统及图像采集方法
KR20190026651A (ko) * 2016-04-08 2019-03-13 비짜리오 인코포레이티드 사람의 비전 성능에 접근하기 위해 비전 데이터를 획득, 집계 및 분석하기 위한 방법 및 시스템

Also Published As

Publication number Publication date
EP4033961A1 (en) 2022-08-03
US20210093193A1 (en) 2021-04-01
AU2020355335A1 (en) 2022-02-03
WO2021059096A1 (en) 2021-04-01
JP2022549561A (ja) 2022-11-28
CA3146511A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
CN109310314B (zh) 用于眼位偏斜测量的移动装置应用
CA2487411C (en) Tracking torsional eye orientation and position
US11786119B2 (en) Instant eye gaze calibration systems and methods
EP2467053B1 (en) Apparatus and method for automatically determining a strabismus angle
US20230329548A1 (en) Eye tracking fixation monitoring systems and methods
US20030163122A1 (en) Ophthalmic apparatus
US11766171B2 (en) Method for the continuous control of the fixation of a patient's eye during the detection of biometric measurement data of the patient's eye
KR101776842B1 (ko) 눈의 변화들에 응답하는 레이저 처치의 조정
US20210093193A1 (en) Patient-induced trigger of a measurement for ophthalmic diagnostic devices
US11712161B2 (en) Eye tracking fixation monitoring systems and methods
CN114980802A (zh) 视网膜成像系统
WO2022024104A1 (en) Eye tracking systems and methods

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination