CN110575132A - 一种基于偏心摄影的斜视程度的计算方法 - Google Patents

一种基于偏心摄影的斜视程度的计算方法 Download PDF

Info

Publication number
CN110575132A
CN110575132A CN201910678120.XA CN201910678120A CN110575132A CN 110575132 A CN110575132 A CN 110575132A CN 201910678120 A CN201910678120 A CN 201910678120A CN 110575132 A CN110575132 A CN 110575132A
Authority
CN
China
Prior art keywords
pupil
image
degree
deep learning
strabismus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910678120.XA
Other languages
English (en)
Inventor
谭国凯
李斌
何昱
陈治霖
李森
李自羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Enos Technology Co Ltd
Original Assignee
Beijing Enos Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Enos Technology Co Ltd filed Critical Beijing Enos Technology Co Ltd
Priority to CN201910678120.XA priority Critical patent/CN110575132A/zh
Publication of CN110575132A publication Critical patent/CN110575132A/zh
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/14Arrangements specially adapted for eye photography

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Signal Processing (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供了一种基于偏心摄影的斜视程度的计算方法,所述方法执行以下步骤:步骤1:获得基于偏心摄影验光得到的被检者的瞳孔图像;步骤2:对瞳孔图像中的瞳孔及角膜映光点进行第一深度学习处理,以获得瞳孔及角膜映光点的清晰图像;步骤3:提取角膜映光点,并判断瞳孔图像中的角膜映光点是否位于瞳孔的中心,若是,则执行步骤5,若否,则执行步骤4;步骤4:对角膜映光点及瞳孔的中心进行第二深度学习处理,以确定角膜映光点与瞳孔的中心之间的偏移距离与瞳孔的半径的比值,并根据偏移距离与瞳孔的半径的比值计算被检者的斜视程度;步骤5:结束对被检者的斜视程度的计算。此方法摆脱了传统验光仪笨重不易携带这一缺点,更加方便快捷。

Description

一种基于偏心摄影的斜视程度的计算方法
技术领域
本发明涉及屈光检测技术领域,特别涉及一种基于偏心摄影的斜视程度的计算方法。
背景技术
随着现代经济的发展,教育的进步,各种智能设备的普及,近视的人数逐年增多,而且不断向低龄化发展,所以低成本的、可以普及的近视诊断方法的重要性不言而喻,尤其是对于青少年而言。通常,在眼科医院和配镜中心,验光师可以利用专业的设备,通过测量屈光度判断人眼球是否近视及斜视程度。但是,一般情况下,人们是在发现眼睛出现问题的时候才决定去专业的机构去验光。所以如果有方法可以让青少年平时就可以方便的检测是否斜视,对于预防青少年斜视的意义是巨大的。同时,经常测量屈光度也可以帮助已经斜视的人控制斜视的发展。
现有的屈光度检测方式有三种,即主觉验光、检影验光和电脑验光。准确程度依次递减。在医院或配镜中心,通常用电脑验光初检,主觉验光确定实际的屈光度。主觉验光利用一系列不同屈光度的透镜,在病人的配合下,反复尝试不同屈光度的透镜,使得病人通过透镜恢复正常的视觉敏度。主觉验光需要配合视力表使用,病人需要和视力表保持一定距离,具体数值取决于视力表和计算方法,通常为六米,而且房间的光线要舒适。检影法是用检影镜将一束光线投射到患者眼屈光系统直达视网膜,再由视网膜的反射光抵达检影镜,穿过检影镜窥孔(简称检影孔),被验光师观察到。这视网膜反射光即“红光反射”,是检影分析的主要依据。患者屈光状态不同,其由红光反射而形成的顺动、逆动也不同。验光师分析这不同的影动,在标准镜片箱中取出相应镜片来消解影动,直到找到中和点。用来找到中和点的标准镜片与患者的屈光状态密切相关。检影法又称视网膜检影法,检影镜又称视网膜镜。电脑验光属于客观验光法,其原理与视网膜检影法基本相同,采用红外线光源及自动雾视装置达到放松眼球调节的目的,采用光电技术及自动控制技术检查屈光度。因此,现有的三种方式的共同特征为:需要专门的设备,需要专业人士辅助,由此可见,现有的屈光度检测方式便利性较差。
发明内容
本发明提供一种基于偏心摄影的斜视程度的计算方法,用以摆脱传统验光仪笨重不易携带这一缺点。
本发明提供了一种基于偏心摄影的斜视程度的计算方法,所述方法执行以下步骤:
步骤1:获得基于偏心摄影验光得到的被检者的瞳孔图像;
步骤2:对所述瞳孔图像中的瞳孔及角膜映光点进行第一深度学习处理,以获得所述瞳孔及所述角膜映光点的清晰图像;
步骤3:提取所述角膜映光点,并判断所述角膜映光点是否位于所述瞳孔的中心,若是,则执行步骤5,若否,则执行步骤4;
步骤4:对所述角膜映光点及所述瞳孔的中心进行第二深度学习处理,以确定所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值,并根据所述偏移距离与所述瞳孔的半径的比值计算所述被检者的斜视程度;
步骤5:结束对所述被检者的斜视程度的计算。
进一步地,在所述步骤2中,在对所述瞳孔图像中的瞳孔及角膜映光点进行第一深度学习处理之前,还包括对所述瞳孔图像进行图像归一化处理、单通道分量提取处理、图像滤波处理、图像增强处理或边缘检测处理的步骤。
进一步地,在所述步骤2中,对所述瞳孔图像中的瞳孔及角膜映光点进行所述第一深度学习处理执行以下步骤:
步骤S201:对所述瞳孔图像进行降噪处理和锐化处理;
步骤S202:基于锐化处理后的所述瞳孔图像,确定所述瞳孔图像的预设边界,并基于所述预设边界获取对应的矩形区域,其中,所述矩形区域中包括所述瞳孔图像及所述角膜映光点的所有待识别信息,并且所述矩形区域包括所述瞳孔图像的预设边界;
步骤S203:采用第一深度学习模型,对所述矩形区域内的所述瞳孔图像进行关于图像分辨率的图像处理,获得所述瞳孔及所述角膜映光点的清晰图像。
进一步地,所述第一深度学习模型和/或所述第二深度学习模型包括神经网络模型、最小二乘法模型、回归模型中的至少一种。
进一步地,在所述步骤201中,对所述瞳孔图像进行降噪处理执行以下步骤:
步骤S2011:获取所述瞳孔图像的亮度分布信息,并基于所述亮度分布信息,将所述瞳孔图像划分为具有不同图像纹理分布状态的若干不同纹理区域;
步骤S2012:计算所述若干不同纹理区域中的每一个纹理区域对应的亮度分量和/或纹理分量,并根据所述亮度分量和/或所述纹理分量将所述瞳孔图像中的所有像素点划分为第一类型像素点和第二类型像素点;
步骤S2013:对所述第一类型像素点和所述第二类型像素点分别执行适应性的滤波降噪处理。
进一步地,在所述步骤201中,对所述瞳孔图像进行锐化处理执行以下步骤:
步骤S2011':通过Sobel算子对经过所述降噪处理后得到的降噪图像进行图像模糊化转换;
步骤S2012':确定经所述图像模糊化转换后的模糊化图像的边缘区域,其中,所述边缘区域至少包括所述模糊化图像的边界以及所述边界内外预设距离范围对应的区域;
步骤S2013':获取关于所述边缘区域对应的模糊特征,以此计算得到所述边缘区域对应的模糊核,其中,所述模糊特征包括模糊方向、模糊轨迹和模糊角度中的至少一者。
进一步地,在所述步骤4中,对所述角膜映光点及所述瞳孔的中心进行第二深度学习处理,以确定所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值,并根据所述偏移距离与所述瞳孔的半径的比值计算所述被检者的斜视程度执行以下步骤:
步骤S401:建立第二深度学习模型;
步骤S402:输入训练数据,以训练所述第二深度学习模型;
步骤S403:将测试数据输入所述第二深度学习模型,调节参数使得所述第二深度学习模型最优化,得到最终的第二深度学习模型;
步骤S404:基于所述最终的第二深度学习模型,计算所述被检者的斜视程度。
进一步地,所述训练数据包括若干个由患有斜视的试验人员的所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值及其斜视程度组成的集合,其中,
所述试验人员的斜视程度采用主觉验光的方法确定。
进一步地,在所述步骤4中,提取所述角膜映光点执行以下步骤:
步骤S401':根据所述瞳孔图像获取所述瞳孔的强度轮廓信息;
步骤S402':根据所述强度轮廓信息提取所述角膜映光点。
进一步地,在所述步骤4中,基于PSF算法、光学传递函数算法、LSF算法及斯特列尔比算法中的至少一个,以根据所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值计算所述被检者的斜视程度。
本发明实施例提供的一种基于偏心摄影的斜视程度的计算方法,具有以下有益效果:对基于偏心摄影验光得到的瞳孔图像进行处理,获得被检者的斜视程度,摆脱了传统验光仪笨重不易携带这一缺点,更加方便快捷。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点可通过在所写的说明书、权利要求书、以及附图中所特别指出的结构来实现和获得。
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1为本发明实施例中一种基于偏心摄影的斜视程度的计算方法的流程示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
偏心摄影验光原理是采用近红外发光二极管组成光源阵列,光线以特定角度射向一定距离外的被检瞳孔进入视网膜,被视网膜反射,期间光线经由眼球屈光系统两次折射(入眼和出眼均被折射)后,从瞳孔区域发出而被相机摄取。因此被检眼的屈光状态和调节状态决定了被检眼瞳孔区光影的形态和亮度。通过对瞳孔光影图像的处理和分析,得到对应的视力检测结果。
本发明实施例提供了一种基于偏心摄影的斜视程度的计算方法,如图1所示,所述方法执行以下步骤:
步骤1:获得基于偏心摄影验光得到的被检者的瞳孔图像;
步骤2:对所述瞳孔图像中的瞳孔及角膜映光点进行第一深度学习处理,以获得所述瞳孔及所述角膜映光点的清晰图像;
步骤3:提取所述角膜映光点,并判断所述角膜映光点是否位于所述瞳孔的中心,若是,则执行步骤5,若否,则执行步骤4;
步骤4:对所述角膜映光点及所述瞳孔的中心进行第二深度学习处理,以确定所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值,并根据所述偏移距离与所述瞳孔的半径的比值计算所述被检者的斜视程度;
步骤5:结束对所述被检者的斜视程度的计算。
上述技术方案的工作原理为:获得基于偏心摄影验光得到的被检者的瞳孔图像后,对瞳孔图像中的瞳孔及角膜映光点进行第一深度学习处理,判断角膜映光点是否位于所述瞳孔的中心;提取角膜映光点,并对角膜映光点及角膜的中心进行第二深度学习处理,以确定偏移距离与所述瞳孔的半径的比值,并根据该比值计算被检者的斜视程度。
如果瞳孔图像中的角膜映光点位于瞳孔的中心,则提示被检者不斜视,结束对被检者的斜视程度的计算。
所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值越大,所述被检者的斜视程度越高;所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值越小,所述被检者的斜视程度越低。
上述技术方案的有益效果为:对基于偏心摄影验光得到的瞳孔图像进行处理,获得被检者的斜视程度,摆脱了传统验光仪笨重不易携带这一缺点,更加方便快捷。
在一个实施例中,在所述步骤2中,在对所述瞳孔图像中的瞳孔及角膜映光点进行第一深度学习处理之前,还包括对所述瞳孔图像进行图像归一化处理、单通道分量提取处理、图像滤波处理、图像增强处理或边缘检测处理的步骤。
上述技术方案的工作原理为:经过图像归一化、单通道分量提取、图像滤波、图像增强或边缘检测处理后,可以提高瞳孔图像的清晰度,便于对瞳孔图像的进一步分析。
上述技术方案的有益效果为:可以提高瞳孔图像的清晰度。
在一个实施例中,在所述步骤2中,对所述瞳孔图像中的瞳孔及角膜映光点进行所述第一深度学习处理执行以下步骤:
步骤S201:对所述瞳孔图像进行降噪处理和锐化处理;
步骤S202:基于锐化处理后的所述瞳孔图像,确定所述瞳孔图像的预设边界,并基于所述预设边界获取对应的矩形区域,其中,所述矩形区域中包括所述瞳孔图像及所述角膜映光点的所有待识别信息,并且所述矩形区域包括所述瞳孔图像的预设边界;
步骤S203:采用第一深度学习模型,对所述矩形区域内的所述瞳孔图像进行关于图像分辨率的图像处理,获得所述瞳孔及所述角膜映光点的清晰图像。
上述技术方案的工作原理为:对瞳孔图像进行降噪处理和锐化处理;然后基于锐化处理后的瞳孔图像获取瞳孔图像对应的矩形区域;采用第一深度学习模型,对矩形区域内的瞳孔图像进行关于图像分辨率的图像处理,获得瞳孔及角膜映光点的清晰图像。
上述技术方案的有益效果为:通过第一深度学习处理,可以获得瞳孔及角膜映光点的清晰图像。
在一个实施例中,所述第一深度学习模型和/或所述第二深度学习模型包括神经网络模型、最小二乘法模型、回归模型中的至少一种。
上述技术方案的工作原理为:深度学习是机器学习中的一个分支,是以人工神经网络为主要基础架构,对大量数据进行表征学习的一种算法。深度学习假设数据的观测值的不同的因子之间的作用过程可以被分成为多个不同的层次,其代表了对数据观测值的多层不同的抽象。数据观测值不同层数与层的规模可用于不同程度的抽象中。
在深度学习中,通过使用这种分层抽象,可以从低级概念中学习更高级别的概念。一种常见的方法是使用贪婪算法逐层构建此层次结构,并从中选择提取某些相关信息,以帮助提高机器学习效率。
深度学习模型可以是基于人工神经网络算法建立的训练模型。人工神经网络的基本结构由非线性变化单元构成,神经网络参数可以包括中间层数、各层之间的处理单元数以及学习系数。对深度学习模型训练的过程可以是调整各神经网络参数的过程,经过不断的训练,获得最优的神经网络参数,具有最优神经网络参数的设定深度学习模型即为最终要获得的模型。
具体的,在获得多张图像样本后,使用多张图像样本对设定深度学习模型进行训练,不断调整设定深度学习中的神经网络参数,使得设定深度学习模型具有在输入的图像中准确识别出满足识别条件的图像的能力,从而获得对应的深度学习模型。
所述第一深度学习模型包括神经网络模型、最小二乘法模型、回归模型中的至少一种,并且所述第二深度学习模型包括神经网络模型、最小二乘法模型、回归模型中的至少一种。
上述技术方案的有益效果为:通过对深度模型进行训练,获取到已经训练好的第一深度学习模型和/或第二深度学习模型。
在一个实施例中,在所述步骤201中,对所述瞳孔图像进行降噪处理执行以下步骤:
步骤S2011:获取所述瞳孔图像的亮度分布信息,并基于所述亮度分布信息,将所述瞳孔图像划分为具有不同图像纹理分布状态的若干不同纹理区域;
步骤S2012:计算所述若干不同纹理区域中的每一个纹理区域对应的亮度分量和/或纹理分量,并根据所述亮度分量和/或所述纹理分量将所述瞳孔图像中的所有像素点划分为第一类型像素点和第二类型像素点;
步骤S2013:对所述第一类型像素点和所述第二类型像素点分别执行适应性的滤波降噪处理。
上述技术方案的工作原理为:在步骤S2011中,获取所述瞳孔图像的亮度分布信息,并基于所述亮度分布信息,将所述瞳孔图像划分为具有不同图像纹理分布状态的若干不同纹理区域具体包括,
获取该图像的亮度分布信息和色调分布信息,根据该亮度分布信息和该色调分布信息,计算关于该图像在整个图像区域对应的亮度-色调关联信息;
根据在整个图像区域对应的该亮度-色调关联信息,确定该图像在整个图像区域对应的图像纹理分布状态,其中,该图像纹理分布状态至少包括关于图像的明暗条纹分布信息和/或关于图像的三基色分布信息;
根据该图像纹理分布状态,将该图像划分为若干不同纹理区域。
在该步骤S2012中,根据该亮度分量和/或该纹理分量将该图像中的所有像素点划分为第一类型像素点和第二类型像素点具体包括,
根据该亮度分量和该纹理分量,计算该图像中的每一像素点对应的亮度-纹理干扰系数,将该亮度-纹理干扰系数与预设干扰系数范围进行对比处理;
若该亮度-纹理干扰系数处于该预设干扰系数范围内,则确定对应的像素点为第一类型像素点,若该亮度-纹理干扰系数不处于该预设干扰系数范围内,则确定对应的像素段为第二类型像素点,其中,该第一类型像素点为噪声类型像素点,该第二类型像素点为非噪声类型像素点。
在该步骤S2013中,对所述第一类型像素点和所述第二类型像素点分别执行适应性的滤波降噪处理具体包括:
对所述第一类型像素点中全像素区域执行高斯滤波处理或者卡尔曼滤波处理,以使所述第一类型像素点的噪声系数符合预设条件;
对所述第二类型像素点中的高频像素区域执行平滑化滤波处理,以使所述第二类型像素点的噪声系数符合预设条件。
上述技术方案的有益效果为:对瞳孔图像进行降噪处理,有利于获得瞳孔的清晰图像。
在一个实施例中,在所述步骤201中,对所述瞳孔图像进行锐化处理执行以下步骤:
步骤S2011':通过Sobel算子对经过所述降噪处理后得到的降噪图像进行图像模糊化转换;
步骤S2012':确定经所述图像模糊化转换后的模糊化图像的边缘区域,其中,所述边缘区域至少包括所述模糊化图像的边界以及所述边界内外预设距离范围对应的区域;
步骤S2013':获取关于所述边缘区域对应的模糊特征,以此计算得到所述边缘区域对应的模糊核,其中,所述模糊特征包括模糊方向、模糊轨迹和模糊角度中的至少一者。
上述技术方案的工作原理为:通过Sobel算子对降噪图像进行图像模糊化转换;确定模糊化图像的边缘区域;获取关于边缘区域对应的模糊特征,以此计算得到边缘区域对应的模糊核,可以确定图像的模糊化信息。
上述技术方案的有益效果为:瞳孔图像经锐化处理后,便于采用第一深度学习模型,对瞳孔图像进行关于图像分辨率的图像处理,进而获得瞳孔图像的清晰图像。
在一个实施例中,在所述步骤4中,对所述角膜映光点及所述瞳孔的中心进行第二深度学习处理,以确定所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值,并根据所述偏移距离与所述瞳孔的半径的比值计算所述被检者的斜视程度执行以下步骤:
步骤S401:建立第二深度学习模型;
步骤S402:输入训练数据,以训练所述第二深度学习模型;
步骤S403:将测试数据输入所述第二深度学习模型,调节参数使得所述第二深度学习模型最优化,得到最终的第二深度学习模型;
步骤S404:基于所述最终的第二深度学习模型,计算所述被检者的斜视程度。
上述技术方案的工作原理为:使用机器学习的方式需要使用大量训练数据来构建模型。将测试数据输入第二深度学习模型,调节参数使得第二深度学习模型最优化,得到最终的第二深度学习模型;基于最终的第二深度学习模型,计算被检者的斜视程度。
上述技术方案的有益效果为:可以基于第二深度学习处理,确定角膜映光点与瞳孔的中心之间的偏移距离与瞳孔的半径的比值,进而根据该比值计算被检者的斜视程度。
在一个实施例中,所述训练数据包括若干个由患有斜视的试验人员的所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值及其斜视程度组成的集合,其中,
所述试验人员的斜视程度采用主觉验光的方法确定。
上述技术方案的工作原理为:采用主觉验光的方法获得的斜视程度的准确性相对较高,作为训练数据,可以获得理想的第二深度学习模型。
上述技术方案的有益效果为:可以获得理想的第二深度学习模型。
在一个实施例中,在所述步骤4中,提取所述角膜映光点执行以下步骤:
步骤S401':根据所述瞳孔图像获取所述瞳孔的强度轮廓信息;
步骤S402':根据所述强度轮廓信息提取所述角膜映光点。
上述技术方案的工作原理为:根据瞳孔图像获取瞳孔的强度轮廓信息,进而根据强度轮廓信息提取角膜映光点。
上述技术方案的有益效果为:提供了提取角膜映光点的方法。
在一个实施例中,在所述步骤4中,基于PSF算法、光学传递函数算法、LSF算法及斯特列尔比算法中的至少一个,以根据所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值计算所述被检者的斜视程度。
上述技术方案的工作原理为:可以基于PSF(Point Spread Function,点扩散函数)算法、光学传递函数算法、LSF(Line Spread Function,线扩散函数)算法及斯特列尔比(Strehl Ratio)算法中的至少一个来确定角膜映光点与瞳孔的中心之间的偏移距离与瞳孔的半径的比值与被检者的斜视程度之间的关系。
上述技术方案的有益效果为:可以基于PSF算法、光学传递函数算法、LSF算法及斯特列尔比算法,来根据角膜映光点与瞳孔的中心之间的偏移距离与瞳孔的半径的比值计算斜视程度。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种基于偏心摄影的斜视程度的计算方法,其特征在于,所述方法执行以下步骤:
步骤1:获得基于偏心摄影验光得到的被检者的瞳孔图像;
步骤2:对所述瞳孔图像中的瞳孔及角膜映光点进行第一深度学习处理,以获得所述瞳孔及所述角膜映光点的清晰图像;
步骤3:提取所述角膜映光点,并判断所述角膜映光点是否位于所述瞳孔的中心,若是,则执行步骤5,若否,则执行步骤4;
步骤4:对所述角膜映光点及所述瞳孔的中心进行第二深度学习处理,以确定所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值,并根据所述偏移距离与所述瞳孔的半径的比值计算所述被检者的斜视程度;
步骤5:结束对所述被检者的斜视程度的计算。
2.如权利要求1所述的基于偏心摄影的斜视程度的计算方法,其特征在于,在所述步骤2中,在对所述瞳孔图像中的瞳孔及角膜映光点进行第一深度学习处理之前,还包括对所述瞳孔图像进行图像归一化处理、单通道分量提取处理、图像滤波处理、图像增强处理或边缘检测处理的步骤。
3.如权利要求1所述的基于偏心摄影的斜视程度的计算方法,其特征在于,在所述步骤2中,对所述瞳孔图像中的瞳孔及角膜映光点进行所述第一深度学习处理执行以下步骤:
步骤S201:对所述瞳孔图像进行降噪处理和锐化处理;
步骤S202:基于锐化处理后的所述瞳孔图像,确定所述瞳孔图像的预设边界,并基于所述预设边界获取对应的矩形区域,其中,所述矩形区域中包括所述瞳孔图像及所述角膜映光点的所有待识别信息,并且所述矩形区域包括所述瞳孔图像的预设边界;
步骤S203:采用第一深度学习模型,对所述矩形区域内的所述瞳孔图像进行关于图像分辨率的图像处理,获得所述瞳孔及所述角膜映光点的清晰图像。
4.如权利要求1所述的基于偏心摄影的斜视程度的计算方法,其特征在于,所述第一深度学习模型和/或所述第二深度学习模型包括神经网络模型、最小二乘法模型、回归模型中的至少一种。
5.如权利要求2所述的基于偏心摄影的斜视程度的计算方法,其特征在于,在所述步骤201中,对所述瞳孔图像进行降噪处理执行以下步骤:
步骤S2011:获取所述瞳孔图像的亮度分布信息,并基于所述亮度分布信息,将所述瞳孔图像划分为具有不同图像纹理分布状态的若干不同纹理区域;
步骤S2012:计算所述若干不同纹理区域中的每一个纹理区域对应的亮度分量和/或纹理分量,并根据所述亮度分量和/或所述纹理分量将所述瞳孔图像中的所有像素点划分为第一类型像素点和第二类型像素点;
步骤S2013:对所述第一类型像素点和所述第二类型像素点分别执行适应性的滤波降噪处理。
6.如权利要求2所述的基于偏心摄影的斜视程度的计算方法,其特征在于,在所述步骤201中,对所述瞳孔图像进行锐化处理执行以下步骤:
步骤S2011':通过Sobel算子对经过所述降噪处理后得到的降噪图像进行图像模糊化转换;
步骤S2012':确定经所述图像模糊化转换后的模糊化图像的边缘区域,其中,所述边缘区域至少包括所述模糊化图像的边界以及所述边界内外预设距离范围对应的区域;
步骤S2013':获取关于所述边缘区域对应的模糊特征,以此计算得到所述边缘区域对应的模糊核,其中,所述模糊特征包括模糊方向、模糊轨迹和模糊角度中的至少一者。
7.如权利要求1所述的基于偏心摄影的斜视程度的计算方法,其特征在于,在所述步骤4中,对所述角膜映光点及所述瞳孔的中心进行第二深度学习处理,以确定所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值,并根据所述偏移距离与所述瞳孔的半径的比值计算所述被检者的斜视程度执行以下步骤:
步骤S401:建立第二深度学习模型;
步骤S402:输入训练数据,以训练所述第二深度学习模型;
步骤S403:将测试数据输入所述第二深度学习模型,调节参数使得所述第二深度学习模型最优化,得到最终的第二深度学习模型;
步骤S404:基于所述最终的第二深度学习模型,计算所述被检者的斜视程度。
8.如权利要求1所述的基于偏心摄影的斜视程度的计算方法,其特征在于,
所述训练数据包括若干个由患有斜视的试验人员的所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值及其斜视程度组成的集合,其中,
所述试验人员的斜视程度采用主觉验光的方法确定。
9.如权利要求1所述的基于偏心摄影的斜视程度的计算方法,其特征在于,在所述步骤4中,提取所述角膜映光点执行以下步骤:
步骤S401':根据所述瞳孔图像获取所述瞳孔的强度轮廓信息;
步骤S402':根据所述强度轮廓信息提取所述角膜映光点。
10.如权利要求1所述的基于偏心摄影的斜视程度的计算方法,其特征在于,在所述步骤4中,基于PSF算法、光学传递函数算法、LSF算法及斯特列尔比算法中的至少一个,以根据所述角膜映光点与所述瞳孔的中心之间的偏移距离与所述瞳孔的半径的比值计算所述被检者的斜视程度。
CN201910678120.XA 2019-07-25 2019-07-25 一种基于偏心摄影的斜视程度的计算方法 Pending CN110575132A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910678120.XA CN110575132A (zh) 2019-07-25 2019-07-25 一种基于偏心摄影的斜视程度的计算方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910678120.XA CN110575132A (zh) 2019-07-25 2019-07-25 一种基于偏心摄影的斜视程度的计算方法

Publications (1)

Publication Number Publication Date
CN110575132A true CN110575132A (zh) 2019-12-17

Family

ID=68810620

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910678120.XA Pending CN110575132A (zh) 2019-07-25 2019-07-25 一种基于偏心摄影的斜视程度的计算方法

Country Status (1)

Country Link
CN (1) CN110575132A (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113116292A (zh) * 2021-04-22 2021-07-16 上海交通大学医学院附属第九人民医院 基于眼部外观图像的眼位测量方法、装置、终端和设备
CN115409774A (zh) * 2022-07-13 2022-11-29 广州视景医疗软件有限公司 一种基于深度学习的眼检测方法及斜视筛查系统
CN115414002A (zh) * 2022-07-13 2022-12-02 广州视景医疗软件有限公司 一种基于视频流的眼检测方法及斜视筛查系统
CN116725479A (zh) * 2023-08-14 2023-09-12 杭州目乐医疗科技股份有限公司 一种自助式验光仪以及自助验光方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102961117A (zh) * 2012-11-06 2013-03-13 温州医学院 基于移动平台的斜视诊断装置
CN104068827A (zh) * 2014-06-25 2014-10-01 深圳市斯尔顿科技有限公司 一种自助式眼睛综合检测方法及检测设备
CN107007248A (zh) * 2017-04-17 2017-08-04 广州视景医疗软件有限公司 一种基于人工智能的斜视筛查方法、服务器及系统
CN206659789U (zh) * 2016-12-22 2017-11-24 首都医科大学附属北京同仁医院 一种角膜映光法斜视度测量装置
WO2018100589A1 (en) * 2016-11-30 2018-06-07 Secretary, Department Of Biotechnology Ocular screening

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102961117A (zh) * 2012-11-06 2013-03-13 温州医学院 基于移动平台的斜视诊断装置
CN104068827A (zh) * 2014-06-25 2014-10-01 深圳市斯尔顿科技有限公司 一种自助式眼睛综合检测方法及检测设备
WO2018100589A1 (en) * 2016-11-30 2018-06-07 Secretary, Department Of Biotechnology Ocular screening
CN206659789U (zh) * 2016-12-22 2017-11-24 首都医科大学附属北京同仁医院 一种角膜映光法斜视度测量装置
CN107007248A (zh) * 2017-04-17 2017-08-04 广州视景医疗软件有限公司 一种基于人工智能的斜视筛查方法、服务器及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘帅: "《基于分块搜索的虹膜定位算法》", 《计算机工程与应用》 *
毛顺兵: "《Hough变换和轮廓匹配相结合的瞳孔精确检测算法》", 《计算机应用》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113116292A (zh) * 2021-04-22 2021-07-16 上海交通大学医学院附属第九人民医院 基于眼部外观图像的眼位测量方法、装置、终端和设备
CN115409774A (zh) * 2022-07-13 2022-11-29 广州视景医疗软件有限公司 一种基于深度学习的眼检测方法及斜视筛查系统
CN115414002A (zh) * 2022-07-13 2022-12-02 广州视景医疗软件有限公司 一种基于视频流的眼检测方法及斜视筛查系统
CN116725479A (zh) * 2023-08-14 2023-09-12 杭州目乐医疗科技股份有限公司 一种自助式验光仪以及自助验光方法
CN116725479B (zh) * 2023-08-14 2023-11-10 杭州目乐医疗科技股份有限公司 一种自助式验光仪以及自助验光方法

Similar Documents

Publication Publication Date Title
CN110575132A (zh) 一种基于偏心摄影的斜视程度的计算方法
CN110575134A (zh) 一种基于偏心摄影的近视度数的计算方法
US9603516B2 (en) Objective quality metric for ocular wavefront measurements
CN110279391B (zh) 便携红外相机视力检测算法
CN110448267B (zh) 一种多模眼底动态成像分析系统及其方法
CN109345469A (zh) 一种基于条件生成对抗网络的oct成像中散斑去噪方法
CN111616800B (zh) 眼科手术导航系统
JP2022542473A (ja) 視力を予測するための眼の画像を処理するための深層学習の使用
US10881294B2 (en) Ophthalmic apparatus
Sousa de Almeida et al. Computer-aided methodology for syndromic strabismus diagnosis
CN117577319A (zh) 一种糖尿病视网膜病变日常监测及预警方法
Garcia-Marin et al. Patch-based CNN for corneal segmentation of AS-OCT images: Effect of the number of classes and image quality upon performance
CN113854957A (zh) 一种基于眼部图像的人工智能屈光度精准测量方法
CN115836838A (zh) 一种屈光度精准评估的方法及应用
Fang et al. Lens structure segmentation from AS-OCT images via shape-based learning
US20220151482A1 (en) Biometric ocular measurements using deep learning
Sabina et al. Convolutional Neural Network Analysis of Fundus for Glaucoma Diagnosis
Carnimeo et al. Monitoring of retinal vessels for diabetic patients in home care assistance
CN117503043B (zh) 一种基于oct的离焦量智能识别的方法及装置
Ibragimova et al. Algorithm of segmentation of OCT macular images to analyze the results in patients with age-related macular degeneration
Arabi et al. Computer-aided diagnosis of age-related macular degeneration by OCT, fundus image analysis
Ahmed College of Graduate Studies
Chazi-Solis et al. A Computer Vision Approach Based on the Retinal Nerve Fiber Thickness Analysis to Estimate the Risk of Suffering Glaucoma
Brás Characterization and diagnostics of corneal transparency by OCT imaging and machine learning
KHAING et al. Optic disc segmentation applied to retinal images with glaucoma, diabetic retinopathy, and optic disc edema

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20191217