CN113939221A - 用于使用图像捕获设备来确定受试者的眼睛的屈光特征的方法和系统 - Google Patents

用于使用图像捕获设备来确定受试者的眼睛的屈光特征的方法和系统 Download PDF

Info

Publication number
CN113939221A
CN113939221A CN202080042726.5A CN202080042726A CN113939221A CN 113939221 A CN113939221 A CN 113939221A CN 202080042726 A CN202080042726 A CN 202080042726A CN 113939221 A CN113939221 A CN 113939221A
Authority
CN
China
Prior art keywords
photograph
retina
eye
subject
refractive
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080042726.5A
Other languages
English (en)
Inventor
S·鲍缇嫩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
EssilorLuxottica SA
Original Assignee
Essilor International Compagnie Generale dOptique SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Essilor International Compagnie Generale dOptique SA filed Critical Essilor International Compagnie Generale dOptique SA
Publication of CN113939221A publication Critical patent/CN113939221A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/11Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils
    • A61B3/112Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for measuring interpupillary distance or diameter of pupils for measuring diameter of pupils
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06T5/60
    • G06T5/73
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

本发明涉及一种用于使用图像捕获设备(2)来确定受试者(12)的眼睛(13)的屈光特征的方法。所述方法包括以下步骤:‑获取受试者(12)的眼睛(13)的视网膜的至少一张照片,以及‑基于视网膜的所述获取的照片的模糊水平而确定所述屈光特征。

Description

用于使用图像捕获设备来确定受试者的眼睛的屈光特征的方 法和系统
技术领域
本发明涉及用于确定受试者的眼睛的屈光特征的方法和系统。
背景技术
许多文件描述了用于确定这种屈光特征的设备和方法。
特别地,用于确定受试者的屈光的客观值的自动验光方法是已知的。这些方法复杂,并且有时费时。这些方法通常意味着使用需要有资质的人员操纵的大型且昂贵的设备。
特别地,这些方法需要使用具有放置在同一平面上的相机和多个光源的特定仪器。
因此,对这些自动验光方法的获取是有限的,并且大部分世界人口没有从它们当中受益。
发明内容
因此,本发明的一个目的是提供一种用于确定受试者的眼睛的屈光特征的新方法,该方法将被简化,因为该方法不需要特定材料的使用或有资质人员的干预。
更确切地说,本发明在于一种用于使用图像捕获设备来确定受试者的眼睛的屈光特征的方法。所述方法包括以下步骤:
-获取受试者的眼睛的视网膜的至少一张照片;以及
-基于视网膜的所述获取的照片的模糊水平而确定所述屈光特征,照片的模糊水平是使用与所述照片相关联的点扩展函数的值来确定的,所述屈光特征是通过计算与视网膜的所述获取的照片的初始模糊水平相比具有降低的模糊水平的经修改的照片来确定的。
这种方法可以由受试者自身实现,并且只使用智能电话或平板计算机进行而不需要添加光学部件或使用增强现实显示器进行。因此,这种方法可以被广泛范围的人群获取,包括被排除在对现有方法的获取之外的一些人群。
该方法的其他有利特征是以下特征:
-所述屈光特征是通过使用将视网膜的所获取的照片的所述模糊水平与屈光特征相关的模型来确定的;
-该方法进一步包括至少获取受试者的眼睛的瞳孔的照片的步骤,确定所述屈光特征的步骤取决于从瞳孔的所述照片中确定的瞳孔直径;
-模糊水平是使用卷积神经网络来确定的;
-神经网络是使用多对图像的数据集来训练的,每对图像与特定屈光特征相关联;
-该方法进一步包括通过使用用多对图像的数据集进行的神经网络的训练来确定与视网膜的所获取的照片相关联的点扩展函数的值的步骤;
-该方法进一步包括通过使用用多对图像的数据集进行的神经网络的训练来确定与视网膜的所获取的照片相关联的屈光特征的步骤;
-经修改的照片是使用视网膜的所获取的照片的盲反卷积方法来计算的;
-盲反卷积方法基于点扩展函数的值的数据集,点扩展函数的每个值与特定屈光特征相关联;
-经修改的照片是通过在点扩展函数的所述值的数据集中选择点扩展函数的最佳值来确定的,点扩展函数的最佳值对应于经修改的照片中与视网膜的所获取的照片的初始对比度水平相比提高的对比度水平;
-视网膜的照片是在无限远的焦距下获取的;
-受试者的眼睛与图像捕获设备之间的距离大于20mm;并且
-该方法进一步包括获取受试者的眼睛的视网膜的另一照片的步骤,所述另一照片是在包含在视网膜的所述获取的照片的焦距与眼睛的瞳孔的所述照片的焦距之间的另一焦距下获取的,所述屈光特征还取决于视网膜的所述另一照片,所述另一获取的照片适合于确定屈光特征的符号,屈光特征的符号是通过在视网膜的所述另一获取的照片与视网膜的所述获取的照片之间比较模糊水平来确定的。
本发明还包括一种用于确定受试者的眼睛的屈光特征的系统,包括:
-图像捕获设备,该图像捕获设备适合于获取受试者的眼睛的视网膜的至少一张照片;以及
-数据处理器,该数据处理器适合于基于视网膜的所述获取的照片的模糊水平而确定所述屈光特征,照片的模糊水平是使用与所述照片相关联的点扩展函数的值来确定的,所述屈光特征是通过计算与视网膜的所述获取的照片的初始模糊水平相比具有降低的模糊水平的经修改的照片来确定的。
该系统进一步包括适合于容纳所述图像捕获设备和所述数据处理器的壳体。
该系统进一步包括适合于容纳所述图像捕获设备的壳体,所述壳体还包括适合于将视网膜的所述获取的照片发送到数据处理器以及从数据处理器接收所述屈光特征的电子实体。
该系统进一步包括适合于照射受试者的眼睛的瞳孔的光源。
具体实施方式
结合通过非限制性示例方式给出的附图给出的以下说明将允许理解组成本发明的内容及如何才能实施本发明。
在附图中:
-图1示出了根据本发明的适于确定受试者的眼睛的屈光特征的示例性系统;
-图2示出了根据本发明的适于确定受试者的眼睛的屈光特征的另一个示例性系统;
-图3示出了对应于根据本发明的用于确定受试者的眼睛的屈光特征的方法的第一示例性流程图;
-图4是系统确定受试者的眼睛的屈光特征的配置的示意图;以及
-图5示出了对应于根据本发明的用于确定受试者的眼睛的屈光特征的方法的第二示例性流程图。
图1和图2示出了适于确定受试者12(图4)的眼睛13的屈光特征的示例性系统1、10。在本说明书中,可以确定的屈光特征包括受试者的眼睛的屈光不正的球镜度Sph、此屈光不正的柱镜度C以及对应柱镜的轴位的取向θ。
在下文中,由系统1、10的两个示例共享的元件具有相同附图标记,并且仅被描述一次。
系统1、10包括图像捕获设备2和数据处理器4。可选地,系统1、10包括光源8。
图像捕获设备2是小型通用数字相机。图像捕获设备2适合于获取受试者12的眼睛13的视网膜的至少一张照片。
图像捕获设备2例如位于系统1、10的朝受试者12的方向定向的面上。图像捕获设备2通常包括例如由光轴限定的镜头。图像捕获设备2例如是系统1、10中所包含的相机。图像捕获设备2包括例如电动聚焦设备(未示出),该电动聚焦设备允许在拍摄照片的同时改变焦距。
可选的光源8包括例如一个或若干个LED(“发光二极管”)或小的电弧灯。光源8适合于照射受试者12的眼睛13的瞳孔。
可选的光源8位于图像捕获设备2附近,特别是位于所述图像捕获设备2的镜头的光轴附近。在相机的情况下,可选的光源8可以是相机中所包括的内置闪光灯。
优选地,光源8使用近红外光以避免瞳孔反射并保持受试者12的眼睛13的瞳孔的良好直径。作为替代,光源8可以使用白光或红色波长。
数据处理器4适合于基于由图像捕获设备2获取的照片而确定屈光特征。数据处理器4与存储器(未示出)相关联。存储器存储指令,在这些指令由数据处理器4执行时,这些指令允许系统1、10实现如下所述的用于确定受试者12的眼睛13的屈光特征的方法。
根据图1所示的示例性系统1,系统1包括壳体5。此壳体5适合于容纳图像捕获设备2和数据处理器4。在这种情况下,壳体例如是便携式电子设备,比如智能电话或平板计算机。
根据图2所示的另一个示例性系统10,系统10包括壳体7。壳体7适合于容纳图像捕获设备2。在这种情况下,数据处理器4位于系统10的壳体7的外部。
此处,壳体7还包括电子实体6。此电子实体6适合于将所获取的受试者12的眼睛13的照片发送到数据处理器4,并且适合于从数据处理器4接收屈光特征(在其确定之后)。在这种情况下,壳体7例如是便携式电子设备,比如基本相机。
作为替代,系统可以包括附加镜头9。此附加镜头9的光轴在这里与图像捕获设备2的镜头的光轴对准。此附加镜头9用于增大由图像捕获设备2获取的照片的视场。
图1和图2所示并且先前描述的系统1、10适合于执行用于确定受试者12的眼睛13的屈光特征的方法。图3和图5示出了对应于根据本发明的用于确定受试者12的眼睛13的屈光特征的方法的示例性流程图。
图3描述了用于确定受试者12的眼睛13的屈光特征的方法的第一实施例的主要步骤的示意图。图5描述了用于确定受试者12的眼睛13的屈光特征的方法的第二实施例的主要步骤的示意图。
在下文中,两个实施例共享的步骤具有相同附图标记,并且仅被描述一次。
如图3所示,该方法的第一实施例始于步骤S2,在该步骤中,受试者12将系统1的壳体5、7布置在其面部之前。特别地,图像捕获设备2的方向被确定成使得图像捕获设备可以直接获取受试者12的眼睛13(视网膜和瞳孔)的照片。图4中示出了这种配置。实际上,系统1的壳体5、7可以由受试者12或支撑物(未示出)固持。
实际上,图像捕获设备2位于受试者12的眼睛13附近。受试者12的眼睛13与图像捕获设备2之间的距离D典型地大于20毫米(mm),例如,介于20mm到100mm之间。
如图3中可见,该方法接着包括步骤S4:照射受试者12的眼睛13的瞳孔。实际上,照射适于避免瞳孔的小直径。优选地,照射来自光源8的弱光或室内照明。
该方法继续进行步骤S6:获取在先前步骤S4中被照射的受试者12的眼睛13的至少一张照片。为了减少眼睛13的调节,受试者12在此步骤中向前看得很远。
在此步骤S6期间,在子步骤S6a,获取受试者12的眼睛13的视网膜的至少一张照片。优选地,这里,获取受试者12的眼睛13的视网膜的两张不同照片。
视网膜的第一照片(在下文中又称为“视网膜的参考照片”)是在无限远的焦距下获取的。为了获取视网膜的此参考照片,图像捕获设备2位于距受试者12的眼睛13的大焦距处,例如,位于大于4m的焦距处。
受试者12的眼睛13的视网膜的第二照片是以介于视网膜的所获取的参考照片的焦距与图像捕获设备2之间的另一焦距获取的。
步骤S6还包括子步骤S6b:至少获取受试者12的眼睛13的瞳孔的照片。受试者12的眼睛13的瞳孔的照片是以比获取眼睛13的视网膜的照片的焦距小的焦距获取的。
作为示例,图像捕获设备2中所包含的电动聚焦设备可以用于改变焦距,以便获取眼睛13的瞳孔的照片、参考照片和视网膜的第二照片。
这里,三张照片的序列(组合子步骤S6a和S6b)是在短时间间隔(例如,小于0.5秒(s))内拍摄的。此短时间间隔确保了三张照片的相同条件,并因此提高了进一步分析的精度。
参考先前所述的获取照片的不同焦距,实际上,对于此步骤S6,可以将电动聚焦设备定位在第一焦距处(例如,最近焦距或最远焦距),并且获取照片,接着将电动聚焦设备移动到第二焦距(例如,中间焦距),并且获取另一照片,最后再次将电动聚焦设备移动到最后焦距,并且获取最后照片(不超过时间限制)。
如图3所示,该方法接着包括步骤S8。在此步骤期间,将所获取的照片传输到数据处理器4以便进行分析。
这里,分析(以及因此屈光特征的确定)是基于视网膜的参考照片的模糊水平。
在本说明书中,照片的表述“模糊水平”与图像的聚焦程度的度量相关联,例如如S.Petruz、D.Puig、M.A.Garcia的文章“Analysis of focus measure operators inshape-from-focus[用于聚焦形貌恢复的聚焦度量算子的分析]”(图案识别,46,2013,1415-1432)中所介绍。高聚焦程度与低模糊水平相关(因此,图像清晰)。
作为替代,照片的对比度水平可以与模糊水平相关联。对比度水平例如是使用傅立叶变换分析来确定的。高对比度水平与低模糊水平相关(因此,图像清晰)。作为示例,可以逐个像素地确定照片的对比度水平。
有利地,由于本发明,模糊水平的确定使得能够导出屈光特征,比如受试者12的眼睛13的屈光不正的球镜度Sph。
实际上,照片的模糊水平是使用与照片相关联的点扩展函数(又称为PSF)的值来确定的。事实上,点扩展函数的表面(又称为“扩展”)与模糊水平直接相关,因为点扩展函数取决于眼睛的屈光不正。扩充点扩展函数是指相关联的图像非常模糊,而窄点扩展函数与清晰图像相关。
然而,屈光特征无法以经典方式容易且直接地从点扩展函数的值导出。点扩展函数的多个值存储在数据处理器4的存储器中。点扩展函数的这多个值例如理论上是从如下所述的任意屈光特征确定的。
经典的球柱镜特征(球镜S、柱镜C、取向θ)通常由正交值(Sph、J0、J45)的三元组表示,该三元组被定义为球镜度
Figure BDA0003403609910000081
和两个杰克逊交叉柱镜,这两个杰克逊交叉柱镜一个在轴位0°,具有光焦度J0=C×cos(2θ),并且另一个在轴位45°,具有光焦度J45=C×sin(2θ),作为散光(C,θ)的极坐标形式的散光分解。
正交值(Sph、J0、J45)的这种三元组接着用于确定泽尼克系数:
Figure BDA0003403609910000082
其中R是光瞳光线。最后,从这些泽尼克系数,可以如下导出波前W(ρ,θ)的表达式:
Figure BDA0003403609910000083
接着,通过确定傅里叶变换和平方模数,理论上直接从波前计算点扩展函数的值。接着,在执行根据本发明的方法之前,确定点扩展函数的多个理论值。
在这里,在步骤S10,使用点扩展函数的所确定的多个理论值和对应的屈光特征,确定受试者12的眼睛13的视网膜的参考照片的点扩展函数的测量值。
有利地,根据图3所示的方法的第一实施例,使用卷积神经网络确定与视网膜的参考照片相关联的点扩展函数的测量值。
正如经典方法一样,卷积神经网络在使用前经过训练。在这里,卷积神经网络是在执行根据本发明的方法之前训练的。
卷积神经网络是使用给定瞳孔直径的多对图像的数据集来训练的。每对图像包括受试者的眼睛的视网膜的模糊图像和相关联的不模糊图像。实际上,不模糊图像对应于与相关联的模糊图像的初始模糊水平相比具有降低的模糊水平的经修改的照片。实际上,经修改的照片呈现更好的聚焦程度或更好的对比度水平。
每对图像都与点扩展函数的特定值相关联,并因此与特定屈光特征相关联。视网膜的不同对图像用模型模拟,因此允许产生许多对图像。对于训练部分,使用与用相关联的点扩展函数卷积的不模糊图像生成模糊图像。
在这里,卷积神经网络例如是使用该对图像中的模糊图像作为输入数据并使用点扩展函数的相关联的值作为输出数据来训练的。
在步骤S10,将受试者12的眼睛13的视网膜的参考照片作为卷积神经网络的输入引入。由于先前执行的训练,在卷积神经网络的输出处获得了与视网膜的这个参考照片相关联的点扩展函数的测量值。
在通过在步骤S6b中获取的受试者12的眼睛13的瞳孔的照片而知道受试者12的瞳孔直径的情况下,继而可以例如通过使用泽尼克系数而提取屈光特征。实际上,此步骤S10包括最小化点扩展函数的测量值与存储在数据处理器4的存储器中的点扩展函数的多个理论值之一之间的差值的步骤。最小差值允许确定点扩展函数的对应理论值,并因此确定相关联的屈光特征。
作为替代,卷积神经网络可以是使用该对图像中的模糊图像作为输入数据并使用相关联的屈光特征作为输出数据来训练的。在步骤S10,通过在卷积神经网络中引入受试者12的眼睛13的视网膜的参考照片,在卷积神经网络的输出处直接获得屈光特征。
作为另一个替代,卷积神经网络可以是使用该对图像中的模糊图像作为输入并使用该对图像中的不模糊图像作为输出来训练的。在这种情况下,通过在卷积神经网络中引入视网膜的参考照片,在卷积神经网络的输出处获得与视网膜的参考照片的初始模糊水平相比具有降低的模糊水平的相关联的经修改的照片。因为根据定义,受试者12的眼睛13的视网膜的参考照片是通过经修改的照片和点扩展函数的相关联的值的反卷积来确定的,所以这个值可以使用传统的反卷积方法从两个图片导出。于是可以例如通过使用如前所述的泽尼克系数,使用瞳孔直径来提取屈光特征。
最后,在步骤S12中,使用受试者12的眼睛13的视网膜的所获取的第二照片来阐明屈光特征。特别地,视网膜的此第二照片适合于确定屈光特征的符号,并因此确定屈光不正的符号(以便识别近视眼或远视眼)。因为点扩展函数的值对于正和负屈光不正参数都是相同的,所以由于视网膜的此第二照片,屈光异常被完全识别。
屈光特征的符号是通过在视网膜的第二照片与视网膜的参考照片之间比较例如基于对比度水平的模糊水平来确定的。如果视网膜的第二照片的模糊水平高于视网膜的参考照片的模糊水平,那么识别出近视眼。如果视网膜的第二照片的模糊水平低于参考照片的模糊水平,那么屈光不正与远视眼有关联。
作为另一个示例,如果壳体7是智能电话,那么焦距范围在70mm与无限远之间。因为视网膜的图像是在与球镜度的倒数相反的焦距处形成的,所以此参数为正。
图5描述了用于确定受试者12的眼睛13的屈光特征的方法的第二实施例的主要步骤的示意图。
如图5所示,用于确定受试者12的眼睛13的屈光特征的方法的此第二实施例还包括先前描述的步骤S2到S8。
如前所述,这里,分析(以及因此屈光特征的确定)是基于视网膜的参考照片的模糊水平的分析。
有利地,通过本发明,模糊水平的确定使得能够导出屈光特征,比如受试者12的眼睛13的屈光不正的球镜度。
在该方法的此第二实施例中,参考照片的模糊水平是使用与此照片相关联的点扩展函数的值来确定的。因此,在步骤S20,确定受试者12的眼睛13的视网膜的参考照片的点扩展函数的值。
有利地,根据图5所示的方法的第二实施例,视网膜的参考照片的点扩展函数的此值是使用盲反卷积方法来确定的。将这种盲反卷积方法应用于视网膜的参考照片,以便同时确定与视网膜的参考照片的初始模糊水平相比具有降低的模糊水平的经修改的照片以及点扩展函数的相关联的值。这里使用的盲反卷积方法是例如迭代方法,比如Lucy-Richardson反卷积方法或Bayesian法反卷积方法。作为另一个示例,盲反卷积方法可以是非迭代方法,比如SeDDaRa反卷积方法或基于倒谱的方法。
这里,反卷积方法基于点扩展函数的值的数据集。针对给定瞳孔直径的不同屈光特征,计算点扩展函数的不同值。事实上,这里,数据集的点扩展函数的每个值都与特定屈光特征相关联。
通过在点扩展函数的值的数据集中确定点扩展函数的最佳值,导出在该方法的输出处获得的经修改的照片。换句话说,通过在点扩展函数的值的数据集中优化点扩展函数的值来获得经修改的照片。
这里,点扩展函数的最佳值是考虑到与视网膜的参考照片的初始对比度水平相比具有提高的对比度水平的经反卷积的照片来确定的。又被称为“经修改的照片”的此照片因此比视网膜的参考照片清晰(其模糊水平因此较低)。
一旦确定了点扩展函数的值,并且通过在步骤S6b获取的受试者12的眼睛13的瞳孔的照片而知道了受试者12的瞳孔直径,就可以例如通过使用如前所述的泽尼克系数来提取屈光特征。
最后,在步骤S22(类似于先前描述的步骤S12),使用受试者12的眼睛13的视网膜的所获取的第二照片来阐明屈光特征,以便确定屈光特征的符号,并且因此确定屈光不正的符号(以便识别近视眼或远视眼)。
已结合被认为是最实用且优选的实施例的内容描述了本发明。应理解,本发明不限于所披露的实施例,而是旨在涵盖包含在最广泛的解释和等同布置的精神和范围内的各种布置。

Claims (14)

1.一种用于使用图像捕获设备(2)确定受试者(12)的眼睛(13)的屈光特征的方法,
所述方法包括以下步骤:
-获取所述受试者(12)的眼睛(13)的视网膜的至少一张照片;以及
-基于所述视网膜的所述获取的照片的模糊水平而确定所述屈光特征,照片的模糊水平是使用与所述照片相关联的点扩展函数的值来确定的,所述屈光特征是通过计算与所述视网膜的所述获取的照片的初始模糊水平相比具有降低的模糊水平的经修改的照片来确定的。
2.根据权利要求1所述的方法,其中,所述屈光特征是通过使用将所述视网膜的所获取的照片的所述模糊水平与所述屈光特征相关的模型来确定的。
3.根据权利要求1或2所述的方法,进一步包括至少获取所述受试者(12)的眼睛(13)的瞳孔的照片的步骤,所述确定所述屈光特征的步骤取决于从所述瞳孔的所述照片中确定的瞳孔直径。
4.根据权利要求1至3中任一项所述的方法,其中,所述模糊水平是使用卷积神经网络来确定的。
5.根据权利要求4所述的方法,其中,所述神经网络是使用多对图像的数据集来训练的,每对图像与特定屈光特征相关联。
6.根据权利要求5所述的方法,进一步包括通过使用用所述多对图像的数据集进行的所述神经网络的训练来确定与所述视网膜的所获取的照片相关联的点扩展函数的值的步骤。
7.根据权利要求5所述的方法,进一步包括通过使用用所述多对图像的数据集进行的所述神经网络的训练来确定与所述视网膜的所获取的照片相关联的所述屈光特征的步骤。
8.根据权利要求1至3中任一项所述的方法,其中,所述经修改的照片是使用所述视网膜的所获取的照片的盲反卷积方法来计算的。
9.根据权利要求8所述的方法,其中,所述盲反卷积方法基于所述点扩展函数的值的数据集,所述点扩展函数的每个值与特定屈光特征相关联。
10.根据权利要求9所述的方法,其中,所述经修改的照片是通过在所述点扩展函数的所述值的数据集中选择所述点扩展函数的最佳值来确定的,所述点扩展函数的最佳值对应于所述经修改的照片中与所述视网膜的所获取的照片的初始对比度水平相比提高的对比度水平。
11.根据权利要求1至10中任一项所述的方法,其中,所述视网膜的照片是在无限远的焦距下获取的。
12.根据权利要求1至11中任一项所述的方法,其中,所述受试者(12)的眼睛(13)与所述图像捕获设备(2)之间的距离大于20mm。
13.根据权利要求1至12中任一项所述的方法,进一步包括获取所述受试者(12)的眼睛(13)的视网膜的另一照片的步骤,所述另一照片是在包含在所述视网膜的所述获取的照片的焦距与所述眼睛的瞳孔的所述照片的焦距之间的另一焦距下获取的,所述屈光特征还取决于所述视网膜的所述另一照片,所述另一获取的照片适合于确定所述屈光特征的符号,所述屈光特征的符号是通过在所述视网膜的所述另一获取的照片与所述视网膜的所述获取的照片之间比较所述模糊水平来确定的。
14.一种用于确定受试者(12)的眼睛(13)的屈光特征的系统(1,10),包括:
-图像捕获设备(2),所述图像捕获设备适合于获取所述受试者(12)的眼睛(13)的视网膜的至少一张照片;以及
-数据处理器(4),所述数据处理器适合于基于所述视网膜的所述获取的照片的模糊水平而确定所述屈光特征,照片的模糊水平是使用与所述照片相关联的点扩展函数的值来确定的,所述屈光特征是通过计算与所述视网膜的所述获取的照片的初始模糊水平相比具有降低的模糊水平的经修改的照片来确定的。
CN202080042726.5A 2019-06-13 2020-06-11 用于使用图像捕获设备来确定受试者的眼睛的屈光特征的方法和系统 Pending CN113939221A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP19305754.4 2019-06-13
EP19305754 2019-06-13
PCT/EP2020/066211 WO2020249679A1 (en) 2019-06-13 2020-06-11 Method and system for determining a refraction feature of an eye of a subject using an image-capture device

Publications (1)

Publication Number Publication Date
CN113939221A true CN113939221A (zh) 2022-01-14

Family

ID=67003404

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080042726.5A Pending CN113939221A (zh) 2019-06-13 2020-06-11 用于使用图像捕获设备来确定受试者的眼睛的屈光特征的方法和系统

Country Status (8)

Country Link
US (1) US20220301294A1 (zh)
EP (1) EP3983933A1 (zh)
JP (1) JP2022536762A (zh)
KR (1) KR20220018973A (zh)
CN (1) CN113939221A (zh)
BR (1) BR112021024872A2 (zh)
MX (1) MX2021015343A (zh)
WO (1) WO2020249679A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD1026316S1 (en) * 2020-04-22 2024-05-07 Dongguan Kangroad Electrical Technology Co., Ltd. Mini hair straightener
EP4046566A1 (en) 2021-02-17 2022-08-24 Carl Zeiss Vision International GmbH Apparatus and method for determining the refractive error of an eye
JP7455445B1 (ja) 2023-09-13 2024-03-26 InnoJin株式会社 情報処理システム、情報処理方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6511180B2 (en) * 2000-10-10 2003-01-28 University Of Rochester Determination of ocular refraction from wavefront aberration data and design of optimum customized correction

Also Published As

Publication number Publication date
EP3983933A1 (en) 2022-04-20
BR112021024872A2 (pt) 2022-04-12
KR20220018973A (ko) 2022-02-15
WO2020249679A1 (en) 2020-12-17
JP2022536762A (ja) 2022-08-18
MX2021015343A (es) 2022-01-24
US20220301294A1 (en) 2022-09-22

Similar Documents

Publication Publication Date Title
JP7257448B2 (ja) 固定具なしのレンズメータ及びその操作方法
EP3496383A1 (en) Image processing method, apparatus and device
CN113939221A (zh) 用于使用图像捕获设备来确定受试者的眼睛的屈光特征的方法和系统
CN109429060B (zh) 瞳孔距离测量方法、可穿戴眼部设备及存储介质
RU2672502C1 (ru) Устройство и способ для формирования изображения роговицы
AU2019360254B2 (en) Fixtureless lensmeter system
JP2016530000A (ja) 顔特徴を測定するシステム及び方法
WO2019104670A1 (zh) 深度值确定方法和装置
US11199472B2 (en) Fixtureless lensmeter system
Zhao et al. Adaptive light estimation using dynamic filtering for diverse lighting conditions
CN111105370B (zh) 图像处理方法、图像处理装置、电子设备和可读存储介质
Marrugo et al. Anisotropy-based robust focus measure for non-mydriatic retinal imaging
CN115049643A (zh) 近眼显示模组夹层异物检测方法、装置、设备及存储介质
Fang et al. Perceptual quality assessment of HDR deghosting algorithms
Lin et al. Learning lens blur fields
CN101828899A (zh) 一种视力测试的方法和装置
CN116642670B (zh) 一种用于微型显示器检测的光学成像方法和装置
Tung et al. Extending depth of field in noisy light field photography
Masoudifar et al. Quality assessment based coded apertures for defocus deblurring
Besrour et al. The conception and implementation of a local HDR fusion algorithm depending on contrast and luminosity parameters
CN117456100A (zh) 3d打印方法、装置、设备及存储介质
Shilston Blur perception: an evaluation of focus measures
Park et al. Just noticeable differences in perceived image contrast with changes in displayed image size
Shilston et al. Preliminary subjective focus assessment results

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination