CN113854957A - 一种基于眼部图像的人工智能屈光度精准测量方法 - Google Patents

一种基于眼部图像的人工智能屈光度精准测量方法 Download PDF

Info

Publication number
CN113854957A
CN113854957A CN202111105151.XA CN202111105151A CN113854957A CN 113854957 A CN113854957 A CN 113854957A CN 202111105151 A CN202111105151 A CN 202111105151A CN 113854957 A CN113854957 A CN 113854957A
Authority
CN
China
Prior art keywords
diopter
image
model
eye
fundus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111105151.XA
Other languages
English (en)
Inventor
王雁
邹昊翰
石珅达
贺新
赵新恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huahuijian Tianjin Technology Co ltd
TIANJIN EYE HOSPITAL
Original Assignee
Huahuijian Tianjin Technology Co ltd
TIANJIN EYE HOSPITAL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huahuijian Tianjin Technology Co ltd, TIANJIN EYE HOSPITAL filed Critical Huahuijian Tianjin Technology Co ltd
Priority to CN202111105151.XA priority Critical patent/CN113854957A/zh
Publication of CN113854957A publication Critical patent/CN113854957A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/103Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining refraction, e.g. refractometers, skiascopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/0016Operational features thereof
    • A61B3/0025Operational features thereof characterised by electronic signal processing, e.g. eye models
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/12Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for looking at the eye fundus, e.g. ophthalmoscopes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开一种基于眼部图像的人工智能屈光度精准测量方法,步骤如下:采集有Placido环投影的眼表图像和清晰的眼底图像作为模型训练数据;对所有数据进行预处理和扩增;确定并构建分类和回归模型使用的网络架构,分别对两类模型训练、测试和验证,达到最优性能;采用集成学习投票方法将两个最优模型融合,构建混合模型计算并输出最优解;输出结果为屈光度。本发明是基于客观眼部图像借助AI方法计算测量人眼屈光度,避免了因调节等引起的误差,针对具体应用实例进行有效总体方案设计、流程优化及算法参数设置,解决了当前儿童及青少年视力筛查和眼科临床工作中,因人群广、耗时长、要求高等限制造成的真实屈光度获取难度较大的瓶颈问题。

Description

一种基于眼部图像的人工智能屈光度精准测量方法
技术领域
本发明属于眼科医疗技术领域,涉及人工智能技术,尤其是一种基于眼部图像的人工智能屈光度精准测量方法。
背景技术
未校正的屈光不正作为视力损害的主要因素影响着全球近一半人口。特别是近视,在我国患病人数达5.5亿,高中、大学生患病率已逾80%。近年来引起国家和政府高度重视。为患者提供精准、高效的屈光度测量结果是诊断和矫正屈光不正及其他一系列眼科操作的基本。现阶段,眼科临床工作中常用的屈光度测量方法主要是电脑验光和通过调试透镜组获得屈光度的主觉验光。而睫状肌麻痹后的主觉验光虽然被作为诊断金标准,但其耗时长、需要散大瞳孔以及受到验光师和患者认知以及心理影响,消耗较大的人力、物力,十分不便。即便是客观检影验光又十分需要验光师的经验。电脑验光作为常用的方法可快速获得屈光度,虽然有自动雾视功能,但其诱导的人眼调节导致近视过矫和远视欠矫等情况始终存在。此外,睫状肌麻痹所引起的患者在数小时甚至几天内视物模糊不清和存在的潜在风险等问题必须在相关医疗机构才能开展,大规模筛查可操作性不强。特别是当前国家号召全国中小学生需要视力普查,以及社区医院、乡镇卫生院等眼科资源缺乏地区难以实现,造成诸多屈光不正患者无法及时发现和自我监测。
屈光不正主要是指近视、远视和散光,多数由于眼球形态的改变所致,包括角膜形态和眼轴及所造成的眼底改变。专利公开文献CN201510340549.X公开了一种手持式自主视力测量装置及视力测量方法,利用多个透镜组和光学公式计算,需要搭建复杂光路并仍需要患者散瞳后测量。专利公开文献CN202020522549.8公开了一种手持式眼底照相机,将普通LED集成到眼底相机内,通过光纤将光源导入到眼底镜内,使色温均匀性、显色指数均匀性获得较大的提高,实现更小的体积,但无法获得全面的眼部信息,也无法实现对屈光度的测量。随着人工智能技术的发展,针对屈光度测量的新方法手段也有报道,包括基于单纯人眼波前像差计算的和基于单纯眼底照相的预测方法,但均受到设备、条件和技术原理等的限制,如:基于波前像差的测量方法仅关注到人眼各光学介质的不均一性,且受到不同波长光线和外界环境影响;基于眼底影像的测量方法没有关注到角膜和眼表的特征,仅能计算输出等效球镜度,结果比较片面,无法全面反映患者的屈光度信息。
根据屈光不正的形成原理,开发基于眼表和眼底的全面眼部特征的非散瞳智能屈光不正精准评估方法,以实现在大规模人群筛查、社区、校园及医疗资源缺乏地区的应用十分迫切。
发明内容
本发明目的在于克服当前现有方法中屈光度测量不够精准、便捷和高效的不足之处,提供一种基于眼部图像的人工智能屈光度精准测量方法。
本发明解决其技术问题所采用的技术方案是:
一种基于眼部图像的人工智能屈光度精准检测方法,步骤如下:
步骤1:采集具有Placido环投影的眼表图像和清晰的眼底图像作为模型学习使用的数据,将视光医师测量的患者散瞳后主觉验光数据作为标签特征;
步骤2:对所采集图像质量进行评估,按照二分类划分为优秀、良好,对质量良好的图像进行去噪处理和增强处理;对所有数据进行旋转、翻转和位移变换操作,以增加数据量;
其中,所述优秀为满足以下全部标准,所述良好为不满足以下其中任意一个或多个标准:
眼表图像的标准为:完整角膜表面最小4mm区域内的完整Placido环图像;
眼底图像的标准为:无伪影,曝光正常,视杯、视盘、黄斑、血管的解剖结构清晰可见,以视盘和黄斑中央位置为中心,包括视网膜后极部、近周边部和远周边部的,具有相同放大率的格式统一的图像视为优秀;
步骤3:根据数据特征,确定并构建分类模型和回归模型使用的网络架构,分别对两类模型进行训练、测试和验证,直到达到最优性能,即经过多次计算发现达到某一高度后无法进一步提升即为最优,得两个最优模型;
步骤4:采用集成学习投票方法Voting将上述两个最优模型融合,所采用的加权融合投票方式,公式如下:
Figure BDA0003271980440000021
其中,R:回归模型结果;P:患者病例数;p:可能性参数,preg+pcls=1;
分别对球镜和柱镜计算不同的可能性,以构建混合模型计算并输出最优解;
步骤5:输出结果的形式为:球镜/柱镜*轴向,即得屈光度。
进一步地,所述步骤1中具有Placido环投影的眼表图像,通过将同心圆环投影到角膜上,获得完整角膜中心最小4mm区域内的完整反射图像;所述眼底照相为借助45°眼底照相机拍摄的解剖结构清晰可见的完整、无伪影的图像,要求具有相同放大率和统一的格式。
进一步地,所述步骤2中去噪处理和增强处理的具体步骤包括:
(1)最大内切圆:去除无效像素的比例,保留眼表和眼底为区域内最大的内切圆;
(2)最大内接正方形:明确整个眼表和眼底最大内切正方形,保留最多中间信息;利用霍夫变换寻找眼底的最优边界,得到标准圆的圆心和半径,构造出最大的内切圆和最大的内接正方形;
(3)采用限制对比度自适应直方图均衡化方法提取图像的红色和绿色通道以突出血管结构并增强对比度。
进一步地,所述步骤3中分类模型的构建和确定步骤为:
采用数据驱动的Auto-Machine Learning算法,筛选适合该分类问题的模型架构Resnet-34和DenseNet-121,并分别在球镜和柱镜的分类任务使用。
进一步地,在Cross-Entropy损失函数的基础上引用Focal Loss着重训练小样本类。
进一步地,所述步骤3中回归模型的构建和确定步骤为:
采用神经网络和梯度提升树相结合的方式,采用迁移学习的神经网络作为特征提取器,提取Resnet-34和Densenet-121输出的高维特征,作为训练标签输入梯度提升回归树模型,用特征向量和回归标量训练模型,使用交叉验证集进行超参数调节并测试;基于梯度下降法,在每次迭代时向损失函数负梯度方向移动获得最小损失函数。
进一步地,所述步骤4中采用集成学习的投票方法,将两个不同类别模型集成,构建混合模型;通过集成降低方差;基于少数服从多数原则对两模型的结果投票判断并计算最终结果。
本发明取得的优点和积极效果为:
1、本发明方法是基于客观的眼部图像(包括眼表Placido环像(下述为眼表图像)及眼底照相)通过人工智能算法精准评估人眼屈光度,针对具体应用实例进行了有效的总体方案设计、流程优化及算法参数设置,达到临床应用标准。解决了当前儿童及青少年视力筛查和眼科临床工作中,因人群广、耗时长、要求高等条件限制造成的真实屈光度获取难度较大的瓶颈问题。
2、本发明方法采用的眼表和眼底图像,是能够客观、全面反映人眼屈光状态的图像,具有临床病理学理论支持。眼底图像能反映球镜度的特点,如高度近视患者眼底出现的豹纹状改变,视杯视盘处的萎缩弧等;具有Placido投影的眼表图像能够反映散光和轴向的特点,如与散光轴垂直的方向各个圆环间的间距变窄等。同时,两者间的潜在形态和位置关系可以反映整个眼球的形态特点,这些为模型的计算提供有效的支持。
3、本发明所提出的基于眼表和眼底图像的智能解决方案,一方面能够实现对于球镜度的有效精准评估,另一方面也可以实现对散光和轴向的精准量化。
4、本发明方法能够实现在患者接受眼部照相后,既能观察眼表和眼底健康状况,同时又能获得精准屈光度,避免了由于调节引起的误差,省去临床诊疗过程中散瞳主觉验光的流程,极大提升医生临床工作效率和准确度,缩减了患者就诊次数和时间。
附图说明
图1为本发明方法的一种流程图;
图2为本发明中图像处理方法架构图;
图3为本发明中屈光度精准测量的混合模型结构图。
具体实施方式
下面详细叙述本发明的实施例,需要说明的是,本实施例是叙述性的,不是限定性的,不能以此限定本发明的保护范围。
本发明中所使用的原料,如无特殊说明,均为常规的市售产品;本发明中所使用的方法,如无特殊说明,均为本领域的常规方法。
一种基于眼部图像的人工智能屈光度精准检测方法,步骤如下:
步骤1:采集具有Placido环投影的眼表图像和清晰的眼底图像作为模型学习使用的数据,将视光医师的主觉验光数据作为标签特征;
步骤2:对所采集图像质量进行评估,按照二分类划分为优秀、良好,对质量良好的图像进行去噪处理和增强处理;对所有数据进行旋转、翻转和位移变换操作,以增加数据量;
其中,所述优秀为满足以下全部标准,所述良好为不满足以下其中任意一个或多个标准:
眼表图像的标准为:完整角膜表面最小4mm区域内的完整Placido环图像;
眼底图像的标准为:无伪影,曝光正常,视杯、视盘、黄斑、血管的解剖结构清晰可见,以视盘和黄斑中央位置为中心,包括视网膜后极部、近周边部和远周边部的,具有相同放大率的TIFF格式图像视为优秀;
步骤3:根据数据特征,确定并构建分类模型和回归模型使用的网络架构,分别对两类模型进行训练、测试和验证,直到达到最优性能,即经过多次计算发现达到某一高度后无法进一步提升即为最优,得两个最优模型;
步骤4:采用集成学习投票方法Voting将上述两个最优模型融合,所采用的加权融合投票方式,公式如下:
Figure BDA0003271980440000051
其中,R:回归模型结果;P:患者病例数;p:可能性参数,preg+pcls=1;
分别对球镜和柱镜计算不同的可能性,以构建混合模型计算并输出最优解;
步骤5:输出结果的形式为球镜/柱镜*轴向,即得屈光度。
进一步地,所述步骤1中具有Placido环投影的眼表图像,通过将同心圆环投影到角膜上,获得完整角膜中心最小4mm区域内的完整反射图像;所述眼底照相为借助45°眼底照相机拍摄的解剖结构清晰可见的完整、无伪影的图像,要求具有相同放大率和统一的格式。
较优地,所述步骤2中去噪处理和增强处理的具体步骤包括:
(1)最大内切圆:去除无效像素的比例,保留眼表和眼底为区域内最大的内切圆;
(2)最大内接正方形:明确整个眼表和眼底最大内切正方形,保留最多中间信息;利用霍夫变换寻找眼底的最优边界,得到标准圆的圆心和半径,构造出最大的内切圆和最大的内接正方形;
(3)采用限制对比度自适应直方图均衡化方法提取图像的红色和绿色通道以突出血管结构并增强对比度。
较优地,所述步骤3中分类模型的构建和确定步骤为:
采用数据驱动的Auto-Machine Learning算法,筛选适合该分类问题的模型架构Resnet-34和DenseNet-121,并分别在球镜和柱镜的分类任务使用。
较优地,在Cross-Entropy损失函数的基础上引用Focal Loss着重训练小样本类,以缓解数据偏态效应带来的正负样本和简单困难样本重要性不均衡的问题。
较优地,所述步骤3中回归模型的构建和确定步骤为:
采用神经网络和梯度提升树相结合的方式,采用迁移学习的神经网络作为特征提取器,提取Resnet-34和Densenet-121输出的高维特征,作为训练标签输入梯度提升回归树模型,用特征向量和回归标量训练模型,使用交叉验证集进行超参数调节并测试;基于梯度下降法,在每次迭代时向损失函数负梯度方向移动获得最小损失函数。
较优地,所述步骤4中采用集成学习的投票方法,将两个不同类别模型集成,构建混合模型;通过集成降低方差,从而提高模型的鲁棒性;基于少数服从多数原则对两模型的结果投票判断并计算最终结果。
具体地,相关制备及检测如下:
一种基于眼部图像的人工智能屈光度精准测量方法,可以如图1所示,步骤包括:
1、所述眼部图像采集过程包括:(1)眼表图像的采集:获取基于Placido盘投射的眼表图像,通过Placido环可以对投射到角膜表面的同心圆环像进行拍摄,要求获得完整角膜表面最小4mm区域内的完整Placido环图像;(2)眼底图像的采集:拍摄统一尺寸大小的清晰的眼底图像,要求无伪影,曝光正常,视杯、视盘、黄斑、血管等解剖结构清晰可见,以视盘和黄斑中央位置为中心,包括视网膜后极部、近周边部和远周边部的,具有相同放大率和统一格式的图像以及质量不合格图像。
2、进一步地,所述图像处理过程包括:(1)对采集到的眼部图像筛选和判断。将由医生标注后的质量合格与不合格的眼表和眼底照相图像分别作为训练、验证和测试数据,此过程中医生需要对采集到的图像质量进行判断(标准参见1(2));(2)进一步地,对数万张带有标准验光结果标注的用于训练模型的眼表和眼底图像进行处理和扩增。
3、进一步地,所述屈光度测量算法模型构建过程包括;(1)采用数据驱动的自动机器学习(Auto-Machine Learning,Auto-ML)算法寻找适合此数据特征的最佳分类模型Resnet-34和Densenet-121;(2)进一步地,采用迁移学习提取ResNets-34和DenseNet-121的输出向量作为输入图像特征,采用特征向量与回归标量训练梯度提升树(GradientBoosting)模型,以此构建回归模型;(3)进一步地,分别对此分类和回归模型训练、验证和测试后获得最佳收敛;(4)进一步地,采用投票机制对所建立的回归和分类网络集成,计算并判别最优解作为该模型的最终输出形式为“球镜*柱镜/轴向”的结果。
较优地,如图2、图3所示,上述图像处理和算法模型网络架构包括:
1、图像处理方法架构,基于医生标注的眼表Placido环投影图像和标准眼底照相为训练标签,采用以下两种方法对原始图像进行预处理:(1)最大内切圆:去除无效像素的比例,保留眼表和眼底为区域内最大的内切圆;(2)最大内接正方形:明确整个眼表和眼底最大内切正方形,保留最多中间信息。利用霍夫变换寻找眼底的最优边界,得到标准圆的圆心和半径,构造出最大的内切圆和最大的内接正方形;(3)进一步地,采用限制对比度自适应直方图均衡化(contrast limited adaptive histogram equalization,CLAHE)方法提取图像的红色和绿色通道以突出血管结构并增强对比度;(4)进一步地,针对训练数据,采用旋转、翻转和位移的方法对现有图像进行扩增,以增加训练数据量提升模型性能。
2、屈光度精准测量的混合模型结构,包括以屈光度作为空间中离散变量的分类标签进行训练的分类模型和作为连续变量训练的回归模型。(1)以眼表的Placido环投影图像和眼底图像作为输入,在构建分类模型时采用数据驱动的Auto-Machine Learning算法,以找到适合该数据分类问题的模型架构,明确性能较优的模型(球镜和柱镜分别使用Resnet-34和DenseNet-121),使得网络连接方式、特征提取结构、网络的深度等在不降低性能的前提下将参数控制在最小,使算力消耗最少,运算速度最快。在Cross-Entropy损失函数基础上引用Focal Loss着重训练小样本数据以解决数据偏态效应带来的样本分布不均问题,以此构建分类模型;(2)进一步地,对回归模型采用集成学习方法。计算图像RGB三通道的均值和标准差,对图像进行归一化矩阵处理。采用迁移学习,提取ResNets-34和DenseNet-121全局平均池化层的输出向量作为输入图像的特征,然后用特征向量与回归标量训练梯度提升树(Gradient boosting)模型.使用交叉验证数据集对梯度提升树进行超参数调节,将多次收敛后的回归树在测试集中测试,以此构建回归模型;(3)进一步地,在后续模型集成阶段,采用投票机制(Voting)计算两个模型集成后的最优解,增加模型整体准确率,降低方差提高鲁棒性;(4)进一步地,对于散光轴向问题,以每15°为一个类进行12分类,通过欠采样的方法减少类别之间差异,类似于上述分类模型,但使用标准交叉熵函数作为损失函数,输出轴向结果。
基于已经训练完成的模型,在外部测试集中对模型进行测试。以下将通过具体实施例对比说明通过该发明方法获得的结果:
Figure BDA0003271980440000071
Figure BDA0003271980440000072
如上表所示,通过大量临床实例测试,证明本发明方法的评估准确度已达到临床应用标准。
尽管为说明目的公开了本发明的实施例,但是本领域的技术人员可以理解:在不脱离本发明及所附权利要求的精神和范围内,各种替换、变化和修改都是可能的,因此,本发明的范围不局限于实施例所公开的内容。

Claims (7)

1.一种基于眼部图像的人工智能屈光度精准检测方法,其特征在于:步骤如下:
步骤1:采集具有Placido环投影的眼表图像和清晰的眼底图像作为模型学习使用的数据,将视光医师测量的患者散瞳后主觉验光数据作为标签特征;
步骤2:对所采集图像质量进行评估,按照二分类划分为优秀、良好,对质量良好的图像进行去噪处理和增强处理;对所有数据进行旋转、翻转和位移变换操作,以增加数据量;
其中,所述优秀为满足以下全部标准,所述良好为不满足以下其中任意一个或多个标准:
眼表图像的标准为:完整角膜表面最小4mm区域内的完整Placido环图像;
眼底图像的标准为:无伪影,曝光正常,视杯、视盘、黄斑、血管的解剖结构清晰可见,以视盘和黄斑中央位置为中心,包括视网膜后极部、近周边部和远周边部的,具有相同放大率的格式统一的图像视为优秀;
步骤3:根据数据特征,确定并构建分类模型和回归模型使用的网络架构,分别对两类模型进行训练、测试和验证,直到达到最优性能,即经过多次计算发现达到某一高度后无法进一步提升即为最优,得两个最优模型;
步骤4:采用集成学习投票方法Voting将上述两个最优模型融合,所采用的加权融合投票方式,公式如下:
Figure FDA0003271980430000011
其中,R:回归模型结果;P:患者病例数;p:可能性参数,preg+pcls=1;
分别对球镜和柱镜计算不同的可能性,以构建混合模型计算并输出最优解;
步骤5:输出结果的形式为:球镜/柱镜*轴向,即得屈光度。
2.根据权利要求1所述的基于眼部图像的人工智能屈光度精准检测方法,其特征在于:所述步骤1中具有Placido环投影的眼表图像,通过将同心圆环投影到角膜上,获得完整角膜中心最小4mm区域内的完整反射图像;所述眼底照相为借助45°眼底照相机拍摄的解剖结构清晰可见的完整、无伪影的图像,要求具有相同放大率和统一的格式。
3.根据权利要求1所述的基于眼部图像的人工智能屈光度精准检测方法,其特征在于:所述步骤2中去噪处理和增强处理的具体步骤包括:
(1)最大内切圆:去除无效像素的比例,保留眼表和眼底为区域内最大的内切圆;
(2)最大内接正方形:明确整个眼表和眼底最大内切正方形,保留最多中间信息;利用霍夫变换寻找眼底的最优边界,得到标准圆的圆心和半径,构造出最大的内切圆和最大的内接正方形;
(3)采用限制对比度自适应直方图均衡化方法提取图像的红色和绿色通道以突出血管结构并增强对比度。
4.根据权利要求1所述的基于眼部图像的人工智能屈光度精准检测方法,其特征在于:所述步骤3中分类模型的构建和确定步骤为:
采用数据驱动的Auto-Machine Learning算法,筛选适合该分类问题的模型架构Resnet-34和DenseNet-121,并分别在球镜和柱镜的分类任务使用。
5.根据权利要求4所述的基于眼部图像的人工智能屈光度精准检测方法,其特征在于:在Cross-Entropy损失函数的基础上引用Focal Loss着重训练小样本类。
6.根据权利要求1所述的基于眼部图像的人工智能屈光度精准检测方法,其特征在于:所述步骤3中回归模型的构建和确定步骤为:
采用神经网络和梯度提升树相结合的方式,采用迁移学习的神经网络作为特征提取器,提取Resnet-34和Densenet-121输出的高维特征,作为训练标签输入梯度提升回归树模型,用特征向量和回归标量训练模型,使用交叉验证集进行超参数调节并测试;基于梯度下降法,在每次迭代时向损失函数负梯度方向移动获得最小损失函数。
7.根据权利要求1至6任一项所述的基于眼部图像的人工智能屈光度精准检测方法,其特征在于:所述步骤4中采用集成学习的投票方法,将两个不同类别模型集成,构建混合模型;通过集成降低方差;基于少数服从多数原则对两模型的结果投票判断并计算最终结果。
CN202111105151.XA 2021-09-22 2021-09-22 一种基于眼部图像的人工智能屈光度精准测量方法 Pending CN113854957A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111105151.XA CN113854957A (zh) 2021-09-22 2021-09-22 一种基于眼部图像的人工智能屈光度精准测量方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111105151.XA CN113854957A (zh) 2021-09-22 2021-09-22 一种基于眼部图像的人工智能屈光度精准测量方法

Publications (1)

Publication Number Publication Date
CN113854957A true CN113854957A (zh) 2021-12-31

Family

ID=78993026

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111105151.XA Pending CN113854957A (zh) 2021-09-22 2021-09-22 一种基于眼部图像的人工智能屈光度精准测量方法

Country Status (1)

Country Link
CN (1) CN113854957A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114813588A (zh) * 2022-06-28 2022-07-29 华慧健(天津)科技有限公司 通用型多光谱采集与检测处理系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114813588A (zh) * 2022-06-28 2022-07-29 华慧健(天津)科技有限公司 通用型多光谱采集与检测处理系统

Similar Documents

Publication Publication Date Title
Hogarty et al. Smartphone use in ophthalmology: what is their place in clinical practice?
JP6072798B2 (ja) 幼児や小児における瞳孔赤色反射検査と眼の角膜光反射スクリーニングを文書化し記録するためのシステムおよび方法
CN109528155B (zh) 一种适用于高度近视并发开角型青光眼的智能筛查系统及其建立方法
CN111986211A (zh) 一种基于深度学习的眼科超声自动筛查方法及系统
CN109998477A (zh) 一种高度近视白内障手术预后智能预判系统
CN109464120A (zh) 一种糖尿病视网膜病变筛查方法、装置及存储介质
JP2022526867A (ja) 眼検査
CN110575132A (zh) 一种基于偏心摄影的斜视程度的计算方法
CN110575134A (zh) 一种基于偏心摄影的近视度数的计算方法
Rim et al. Deep learning for automated sorting of retinal photographs
Manassakorn et al. GlauNet: glaucoma diagnosis for OCTA imaging using a new CNN architecture
CN116705326A (zh) 一种终末期肾病疗效评估与并发症风险预测系统
CN111700582A (zh) 一种基于智能终端的常见眼表疾病诊断系统
CN113854957A (zh) 一种基于眼部图像的人工智能屈光度精准测量方法
Vilela et al. Smartphone eye examination: artificial intelligence and telemedicine
Triyadi et al. Deep learning in image classification using vgg-19 and residual networks for cataract detection
CN112220445A (zh) 一种基于移动终端的白内障和后发性白内障的分析系统和装置
Camara et al. A comprehensive review of methods and equipment for aiding automatic glaucoma tracking
Nair et al. Multi-labelled ocular disease diagnosis enforcing transfer learning
Lavric et al. Keratoconus detection algorithm using convolutional neural networks: challenges
CN113197543B (zh) 基于矢量像差理论的屈光手术后视觉质量评价方法和系统
Grałek et al. Application of artificial intelligence in pediatric ophthalmic practice
CN115836838A (zh) 一种屈光度精准评估的方法及应用
Haloi Towards ophthalmologist level accurate deep learning system for OCT screening and diagnosis
CN214484464U (zh) 基于移动终端的白内障和后发性白内障的分析系统和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination