CN116682564B - 基于机器学习的近视牵引性黄斑病变风险预测方法及装置 - Google Patents
基于机器学习的近视牵引性黄斑病变风险预测方法及装置 Download PDFInfo
- Publication number
- CN116682564B CN116682564B CN202310930626.1A CN202310930626A CN116682564B CN 116682564 B CN116682564 B CN 116682564B CN 202310930626 A CN202310930626 A CN 202310930626A CN 116682564 B CN116682564 B CN 116682564B
- Authority
- CN
- China
- Prior art keywords
- eyeball
- index
- myopia
- machine learning
- center
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 208000002780 macular degeneration Diseases 0.000 title claims abstract description 66
- 208000035719 Maculopathy Diseases 0.000 title claims abstract description 63
- 238000000034 method Methods 0.000 title claims abstract description 52
- 208000001491 myopia Diseases 0.000 title claims abstract description 50
- 238000010801 machine learning Methods 0.000 title claims abstract description 29
- 210000005252 bulbus oculi Anatomy 0.000 claims abstract description 86
- 230000004379 myopia Effects 0.000 claims abstract description 31
- 208000017442 Retinal disease Diseases 0.000 claims abstract description 26
- 206010038923 Retinopathy Diseases 0.000 claims abstract description 26
- 238000012549 training Methods 0.000 claims abstract description 25
- 230000004402 high myopia Effects 0.000 claims abstract description 24
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 238000003062 neural network model Methods 0.000 claims abstract description 21
- 238000012360 testing method Methods 0.000 claims abstract description 20
- 238000007637 random forest analysis Methods 0.000 claims abstract description 13
- 238000012216 screening Methods 0.000 claims abstract description 10
- 210000001508 eye Anatomy 0.000 claims description 25
- 238000003776 cleavage reaction Methods 0.000 claims description 19
- 230000007017 scission Effects 0.000 claims description 19
- 230000002207 retinal effect Effects 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 12
- 230000003902 lesion Effects 0.000 claims description 11
- 206010038848 Retinal detachment Diseases 0.000 claims description 10
- 230000004264 retinal detachment Effects 0.000 claims description 10
- 241000219095 Vitis Species 0.000 claims description 8
- 235000009754 Vitis X bourquina Nutrition 0.000 claims description 8
- 235000012333 Vitis X labruscana Nutrition 0.000 claims description 8
- 235000014787 Vitis vinifera Nutrition 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 8
- 230000008961 swelling Effects 0.000 claims description 8
- 206010039705 Scleritis Diseases 0.000 claims description 6
- 210000004087 cornea Anatomy 0.000 claims description 5
- 238000012937 correction Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 claims description 5
- 206010025421 Macule Diseases 0.000 claims description 3
- 238000012952 Resampling Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 claims description 3
- 238000009499 grossing Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000004590 computer program Methods 0.000 claims description 2
- 230000000306 recurrent effect Effects 0.000 claims 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 15
- 238000013528 artificial neural network Methods 0.000 description 5
- 210000001525 retina Anatomy 0.000 description 5
- 230000011218 segmentation Effects 0.000 description 5
- 238000012014 optical coherence tomography Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008034 disappearance Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000004880 explosion Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000013140 knowledge distillation Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004515 progressive myopia Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 201000004569 Blindness Diseases 0.000 description 1
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 1
- 208000010415 Low Vision Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000005713 exacerbation Effects 0.000 description 1
- 230000004418 eye rotation Effects 0.000 description 1
- 230000004303 low vision Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004423 myopia development Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000004393 prognosis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000002636 symptomatic treatment Methods 0.000 description 1
- 238000012876 topography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/197—Matching; Classification
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H70/00—ICT specially adapted for the handling or processing of medical references
- G16H70/60—ICT specially adapted for the handling or processing of medical references relating to pathologies
Abstract
本发明公开了一种基于机器学习的近视牵引性黄斑病变风险预测方法及装置。该预测方法包括如下步骤:采集高度近视患者的临床病例数据,建立数据集;采用深度神经网络模型自动分割高度近视眼球和眼底病灶,进行计算后得到眼球后表面的综合变形指数和视网膜病变指数;采用随机森林模型筛选特征变量,构建分布式梯度增强库和随机森林模型,并通过训练集的数据进行训练后获得预测模型;采用测试集的数据对预测模型的准确性进行测试评估;通过预测模型计算待预测用户的相关数据,得到近视牵引性黄斑病变风险预测概率。该预测方法可以辅助医生对患者近视牵引性黄斑病变进展风险做出准确判断,并进一步制定随访和治疗方案。
Description
技术领域
本发明涉及一种基于机器学习的近视牵引性黄斑病变风险预测方法,同时也涉及相应的近视牵引性黄斑病变风险预测装置,属于医疗保健信息学技术领域。
背景技术
近视牵引性黄斑病变(myopic traction maculopathy)简称为MTM,是与牵拉因素关系最为密切的一种高度近视引起的病变,也是导致低视力和失明的重要原因。目前,对于引起近视牵引性黄斑病变发生和发展高危因素缺乏准确的预测方法,所以,此类疾病的随访周期和治疗时机选择均无明确标准。近视牵引性黄斑病变是否进展的风险预测主要依赖医务人员根据阅片情况和临床经验的主观判断,判断的一致性和可重复性较差。定期复查和对于已出现病变的对症治疗是目前临床的主要治疗方式,对近视牵引性黄斑病变治疗时机的选择和预后的预测能力均比较薄弱。随着高度近视发病率的上升和就医人群的增加,对近视牵引性黄斑病变进展风险的评估和预测提出了准确、高效和迫切的要求。
在专利号为ZL 202011429632.1的中国发明专利中,公开了一种高度近视眼底病变图像识别装置。该识别装置基于卷积神经网络及知识蒸馏的高度近视眼底病变风险预测方法实现,相应的预测方法包括:获取眼底图像,随机划分训练集和测试集的数据;对训练集采取随机翻转、裁剪、色彩抖动、归一化等预处理,对测试集仅进行归一化预处理;利用知识蒸馏方法进行分类网络模型的训练,将训练数据分别送入预训练好的教师网络和待训练的学生网络;将教师网络输出的软标签值与真实标签值作为监督信息,分别与学生网络输出的预测值计算KL Loss和Focal Loss;将两种不同的 Loss值加权求和,作为最终的损失函数,用于学生网络的参数更新;训练好的学生网络可以对眼底图像测试集进行正常、低风险高度近视眼底病变、高风险高度近视眼底病变的三分类预测。
发明内容
本发明所要解决的首要技术问题在于提供一种基于机器学习的近视牵引性黄斑病变风险预测方法。
本发明所要解决的另一技术问题在于提供一种基于机器学习的近视牵引性黄斑病变风险预测装置。
为了实现上述目的,本发明采用以下的技术方案:
根据本发明实施例的第一方面,提供一种基于机器学习的近视牵引性黄斑病变风险预测方法,包括如下步骤:
(1)采集高度近视患者的临床病例数据,建立包括训练集和测试集在内的数据集;
(2)采用深度神经网络模型自动分割高度近视眼球和眼底病灶,进行计算后得到眼球后表面的综合变形指数和视网膜病变指数;其中,所述眼球后表面的综合变形指数的计算过程如下:
(21)利用深度神经网络模型获取眼球后部形状,并计算眼球后表面球度;
(22)计算眼球后巩膜葡萄肿的凸起指数;
(23)通过如下公式,计算眼球后表面的综合变形指数:
其中,Dvar为眼球后表面球度,E为眼球后巩膜葡萄肿的凸起指数,S为眼球后表面的综合变形指数;
(3)采用随机森林模型筛选特征变量,构建分布式梯度增强库和随机森林模型,并通过所述训练集的数据进行训练后获得预测模型;
(4)采用所述测试集的数据对所述预测模型的准确性进行测试评估;
(5)通过所述预测模型计算待预测用户的数据,得到近视牵引性黄斑病变的风险预测概率。
其中较优地,步骤(2)中,采用 U-net神经网络模型对数据集提供的3D MRI眼部图像中高度近视眼球组织进行自动分割处理,将眼球组织与眶内其余组织区别并提取出来。
其中较优地,步骤(21)中包括如下子步骤:
(211)对3D MRI眼部图像进行分割标记,其中属于眼球的部分标记为255,其余区域标记为0,然后遍历每层MRI眼部图像得到三维重构的眼球结构;
(212)对分割后的图像进行预处理,包括切片重采样、眼球表面平滑、去除孤岛和联通区域;
(213)对眼球表面进行坐标化及其校正;
(214)通过如下公式计算所述眼球后表面球度:
其中,Di 为眼球表面散点到眼球中心的距离;n为选取的若干眼球边缘至拟合球面的点数。
其中较优地,步骤(213)中,眼球表面坐标系的校正方法包括如下子步骤:
寻找眼球中心:求取眼球内切球的球心并将原点O移动到该球心O’;计算眼球表面及内部任一点到眼球表面的距离,获取该距离的最大值;对眼球表面及内部所有点遍历以上过程,获取多个所述最大值;多个所述最大值中的最小值对应的坐标点即为该眼球中心;
寻找角膜中心:基于眼球表面三维散点寻找Z轴正半轴上距离中心的最远点;获取最远点到眼球前节表面的最远距离,该最远距离对应的坐标点即为角膜中心P点;
旋转坐标系:基于向量PO旋转原坐标系,使向量PO与新坐标系Z轴重合,P点在新坐标系的Z轴负半轴上,基于旋转矩阵实现;
移动原点:在新的坐标系下,在Z轴上移动原点O,使OP=12mm,使新的原点距离角膜中心12mm;
实现120°视角:对后表面散点进行筛选,使原点与后表面散点连线组成的向量与Z轴正半轴的最大夹角为60°,使视角为120°。
其中较优地,步骤(22)中包括如下子步骤:
(221)确定参考球面,在后巩膜葡萄肿的区域内,选择一个球面作为参考球面,并将球心设置在该区域的凸起中心;
(222)计算局部高度差,对于参考球面上的每个点,计算该点到实际表面的距离作为局部高度差;
(223)确定凸起高度,从局部高度差中选择最大值作为凸起高度;
(224)计算半峰宽度,从最高点向两侧找到高度差为凸起高度一半的点,计算该两点之间的距离作为凸起的半峰宽度;
(225)通过如下公式计算眼球后巩膜葡萄肿的凸起指数:
E=H/W
其中,E为凸起指数,H为凸起高度,W为半峰宽度。
其中较优地,步骤(2)中,所述视网膜病变指数的计算方法包括如下子步骤:
在以距离黄斑中心凹为中心的 6×6 mm范围内,利用神经网络模型分别分割出视网膜劈裂和脱离的范围,根据计算得到的视网膜劈裂体积和视网膜脱离体积,按照指定的权重系数,所述视网膜病变指数的计算如下:
其中,S(χ)为视网膜病变指数,χ为视网膜病变基数,w1和w2分别是视网膜劈裂和脱离的权重系数,RS为视网膜劈裂体积,RD为视网膜脱离体积,b1和b2为常数项。
其中较优地,步骤(3)中,通过随机森林模型从眼球后表面球度、后巩膜葡萄肿凸起指数、综合变形指数和视网膜病变指数,以及年龄、眼轴、等效球镜等变量中筛选特征变量,并根据重要性排序筛选特征,分别为综合变形指数、眼球后表面球度、眼轴、视网膜病变指数、后巩膜葡萄肿凸起指数、视网膜脱离体积、视网膜脱离面积、年龄、视网膜劈裂体积、视网膜劈裂面积、等效球镜;采用筛选后的变量构建分布式梯度增强库和随机森林模型,并通过训练集进行训练获得预测模型。
其中较优地,步骤(1)中,纳入所述数据集的患者包括高度近视合并近视牵引性黄斑病变最近5年内病变无明显进展和高度近视合并近视牵引性黄斑病变最近5年内病变有进展的两类患者,二者的纳入数量比例为1:1;所述数据集按照8:2的比例将数据分为训练集和测试集。
根据本发明实施例的第二方面,提供一种基于机器学习的近视牵引性黄斑病变风险预测装置,包括处理器和存储器;所述存储器用于存储计算机程序,当该计算机程序被所述处理器执行时,实现上述的基于机器学习的近视牵引性黄斑病变风险预测方法。
与现有技术相比较,本发明所提供的近视牵引性黄斑病变风险预测方法,通过采用机器学习的方式将与近视牵引性黄斑病变进展相关的因素,包括眼球形状、视网膜劈裂和视网膜脱离的体积、面积等特征自动提取和分类,构建并训练预测模型,采用该预测模型实现对近视牵引性黄斑病变进展风险概率的准确预测。本发明所提供的基于机器学习的近视牵引性黄斑病变风险预测方法,可以辅助医生对患者近视牵引性黄斑病变进展风险做出准确判断,并进一步制定随访和治疗方案。
附图说明
图1为本发明提供的基于机器学习的近视牵引性黄斑病变进展风险预测方法的流程总图;
图2为本发明实施例中,U-net神经网络模型的结构示意图;
图3为本发明实施例中,计算眼球后表面的综合变形指数的工作流程图;
图4为本发明实施例中,3D MRI眼部图像、纳入点到标准球面的最短距离Dmin以及120°眼球后表面视角的示意图;
图5为本发明实施例中,基于机器学习的近视牵引性黄斑病变进展风险预测装置的结构框图。
具体实施方式
下面结合附图和具体实施例对本发明的技术内容进行详细具体的说明。
如图1所示,本发明实施例提供的一种基于机器学习的近视牵引性黄斑病变风险预测方法,至少包括以下步骤:
S1:从医院数据库中采集高度近视患者的临床病例数据,具体包括三维磁共振(Three-Dimensional Magnetic Resonance Imaging,简写为3D MRI)、光相干成像(Optical Coherence Tomography,简写为OCT)、眼轴、年龄、等效球镜等,建立相应的数据集。该数据集包括训练集和测试集。
S2:采用U-net深度神经网络模型自动分割高度近视眼球和眼底病灶,并进行相关计算得到眼球后表面的综合变形指数和视网膜病变指数。
S3:采用随机森林模型筛选特征变量,构建分布式梯度增强库(XGBoost)和随机森林模型,通过训练集进行训练,获得预测模型。
S4: 采用测试集的数据对预测模型的准确性进行测试评估。
S5:通过预测模型计算待预测用户的相关数据,得到近视牵引性黄斑病变风险预测概率,即获得标签值。
在本发明的一个实施例中,采集高度近视患者的临床病例数据,可以从多家医院数据库获取。所采集的数据包括三维磁共振(3D MRI)、光相干成像(OCT)、眼轴、年龄、等效球镜等。纳入数据采集的患者包括高度近视合并近视牵引性黄斑病变最近5年内病变无明显进展(即ATN分型不变)和高度近视合并近视牵引性黄斑病变最近5年内病变有进展(即ATN分型加重)的两类患者,二者的纳入数量比例为1:1,建立数据集,并按照8:2的比例将数据分为训练集和测试集,训练集样本的标签包括近视牵引性黄斑病变无进展和近视牵引性黄斑病变进展。
在本发明的一个实施例中,采用 U-net神经网络模型对数据集提供的3D MRI眼部图像中高度近视眼球组织进行自动分割。U-net神经网络模型的结构如图2所示,包括左半部分下采样的编码器(Subsampling)和右半部分上采样(Upsampling)的解码器,整体结构呈“U”型。在本实施例中需要对U-net神经网络中的模块进行如下的改良设计。
将U-net神经网络中编码和解码普通的CBR模块替换为残差网络。编码和解码每层的结构中包含两个卷积层和一个中间的残差模块,每个卷积均采用3×3的卷积核,每个卷积层后面均连接了批量归一化层和激活函数ReLU层,可以更加准确的分析眼球形态的影像学信息。3D MRI眼部图像中的眼球分割实际上是对图像中的每个像素进行二分类,优化器选择Nadam,学习率设置为lr=0.02,自动将眼球组织影像信息与眶内其余组织区别并提取出来。
残差网络的设计相对于CBR模块,其解决的问题是网络退化以及梯度消失/爆炸这两个主要问题,采用残差网络的设计后,可以更深更好地训练深度神经网络。在传统的深度神经网络中,随着网络层数的增加,模型的复杂度也随之增加,但同时也会遇到梯度消失和梯度爆炸等问题,导致深度神经网络无法收敛。残差网络通过引入跳跃连接(SkipConnection)和残差块的设计,使得模型可以直接从某一层开始学习,从而能够更好地保留输入的信息,并且在后续的层中进行增量学习,避免了梯度消失和梯度爆炸等问题,使得深度网络可以更好地收敛,提高了模型的准确性。
在完成眼球组织分割后,根据眼球后表面地形图和眼球容积的特点,进行相关计算,得到综合变形指数和视网膜病变指数。
首先,计算眼球后表面的综合变形指数。
因高度近视眼球的变异度较大,目前,业内尚未形成对眼球综合变形指数的标准计算方法。在本发明的一个实施例中,如图3所示,将通过如下方法计算眼球综合变形指数。
S21:利用U-net神经网络模型获取眼球后部形状并计算眼球后表面球度。具体计算过程分为如下四个步骤。
S211:对3D MRI眼部图像进行分割标记。
使用3D Slicer软件针对每个患者的头部3D MRI眼部图像选择15-20张包含不同大小的眼球进行标记。标记图像是与原图像相对应并且大小相同的二值图像,图像中包含0和255两种值,标记图像中属于眼球的部分标记为255,为正类,其余区域标记为0,为负类。
采用Python 3.11.2软件通过改良的U-net网络模型,遍历每层MRI眼部图像得到三维重构的眼球结构。
S212:对分割后的图像进行预处理。
对分割与校正后的眼部图像进行预处理,包括切片重采样、眼球表面平滑、去除孤岛和联通区域等。
S213:对眼球表面进行坐标化及校正。
对分割后的图像预处理后,需要对眼球表面进行参数化的处理,通过眼球表面三维散点建立空间直角坐标系,左眼颞侧-右眼颞侧为大致的X轴方向,眼球下侧-上侧为大致的Y轴方向,角膜-黄斑为大致的Z轴方向,需要对初步建立的空间直角坐标系进行校正。具体内容如下:
(1)寻找眼球中心:即求取眼球内切球的球心并将原点O移动到该中心O’。计算眼球表面及内部任一点到眼球表面的距离,获取该距离的最大值Dmax;对眼球表面及内部所有点遍历以上过程,获取多个Dmax;多个Dmax中的最小值对应的坐标点即为该眼球的中心,即内切球的球心。
(2)寻找角膜中心:考虑到在采集受试者头部MRI眼部图像时,受试者可能会存在眼球转动的情况(即不是正视状态),因此需要获取正确的角膜中心。实现方式是,首先基于眼球表面三维散点寻找Z轴正半轴上距离中心的最远点;其次获取最远点到眼球前节表面的最远距离,该最远距离对应的坐标点即为角膜中心P(x, y, z)。
(3)旋转坐标系:基于向量PO旋转原坐标系,使PO与新坐标系Z轴重合,即P点在新坐标系的Z轴负半轴上,基于旋转矩阵实现。
(4)移动原点:在新的坐标系下,在Z轴上移动原点O,使OP=12mm,即新的原点距离角膜中心12mm。
(5)120°后表面视角:对后表面散点进行筛选,使原点与后表面散点连线组成的向量与Z轴正半轴的最大夹角为60°,即视角为120°。
S214:眼球后表面球度参数计算。
以眼球中心O为中心建立半径为12mm的标准球,所有散点分别到标准球面的最短距离为Dmin,即Dmin =Di-12mm,通过下述计算每一位受试者的眼球后表面球度Dvar。
(1)
其中,Di 为眼球表面散点到眼球中心O的距离;n为点数即选取的若干眼球边缘至拟合球面的点。
上述计算过程纳入不少于10000点进行计算。在上述计算过程中如图4所示,患者的头部3D MRI眼部图像见图4中的右侧所示,纳入点到标准球面的最短距离Dmin见图4中的中部所示,120°眼球后表面视角见图4中的左侧所示。
S22:计算眼球后巩膜葡萄肿的凸起指数。具体计算过程分为如下S221~S225共五个步骤。
S221:确定参考球面。
在后巩膜葡萄肿的区域内,选择一个球面作为参考球面,可以选择该区域的平均曲率作为球面的半径,并将球心设置在该区域的凸起中心。
S222:计算局部高度差。
对于参考球面上的每个点,计算该点到实际表面的距离,即局部高度差。
S223:确定凸起高度H。
从局部高度差中选择最大值,以该最大值作为凸起高度H。
S224:计算半峰宽度W。
从最高点向两侧查找,找到高度差为凸起高度一半的点,这两个点之间的距离即为凸起的半峰宽度W。
S225:计算眼球后巩膜葡萄肿的凸起指数E。凸起指数E的计算公式如下:
E=H/W (2)
其中,H为凸起高度,W为半峰宽度。
S23:计算眼球后表面的综合变形指数S。综合变形指数S的计算公式如下:
(3)
其中,E为凸起指数,Dvar为眼球后表面球度。
通过公式3计算得到的综合变形指数越大,表示变形越明显,综合情况越差。
其次,计算视网膜病变指数。
在以距离黄斑中心凹为中心的 6×6 mm范围内,利用U-net神经网络模型分别分割出视网膜劈裂和脱离的范围,根据计算得到的视网膜劈裂体积RS和视网膜脱离体积RD,按照指定的权重系数计算视网膜病变指数。具体计算公式如下:
(4)
(5)
其中,S(χ)为视网膜病变指数,χ为视网膜病变基数,w1和w2分别是视网膜劈裂和脱离的权重系数,b1和b2是常数项。
通过公式4和公式5计算得到视网膜病变指数S(χ)。当计算得到的S(χ)越大时,表示视网膜病变越严重。
在本发明的一个实施例中,步骤S3是通过随机森林模型从眼球后表面球度、后巩膜葡萄肿凸起指数、综合变形指数和视网膜病变指数,以及年龄、眼轴、等效球镜等变量中筛选特征变量。根据重要性排序筛选特征,分别为综合变形指数、眼球后表面球度、眼轴、视网膜病变指数、后巩膜葡萄肿凸起指数、视网膜脱离体积、视网膜脱离面积、年龄、视网膜劈裂体积、视网膜劈裂面积、等效球镜。使用筛选后的变量构建分布式梯度增强库和随机森林模型,并通过训练集进行训练,获得预测模型。
在本发明的一个实施例中,步骤S4的模型测试评估,是通过测试集的数据来评估模型的预测能力,对于每个样本,将其真实标签与模型的预测标签进行比较,并计算评估指标,包括准确率、精确率、召回率或F1分数。具体计算方法为:
(1)准确率(Accuracy):分类正确的样本数除以总的样本数。
准确率=(TP+TN) / (TP+TN+FP+FN)
其中,TP表示真正例,TN表示真反例,FP表示假正例,FN表示假反例。
(2)精确率(Precision):真正例的数量除以真正例和假正例的总数。
精确率=TP / (TP+FP)
(3)召回率(Recall):真正例的数量除以真正例和假反例的总数。
召回率=TP / (TP+FN)
(4)F1分数:综合考虑了精确率和召回率,是一个综合评价指标。
F1分数=2 * (精确率 * 召回率) / (精确率+召回率)
其中,TP、TN、FP、FN分别代表真正例、真反例、假正例、假反例的数量。
统计和比较模型在测试集上的表现,以确定模型的预测能力和泛化能力。通过上述指标证实模型的预测能力良好。
步骤S5的风险预测是通过预测模型计算待预测用户(即就诊患者)数据,得到近视牵引性黄斑病变风险预测概率,即获得标签值。如果标签值为1,则表示该患者近视牵引性黄斑病变进展风险较高,如果标签值为0,则表示该患者近视牵引性黄斑病变进展风险较低。这个标签值可以被解释为近视牵引性黄斑病变进展的预测概率。
例如,某患者在医院完成眼部3D MRI、OCT、眼轴、屈光度的测量并记录年龄,将上述数据输入预处理模块,运行预处理程序;将预处理后的数据放入模型中,运行预测程序后输出预测结果。某患者使用该模型的预测结果为1,表明其具有近视牵引性黄斑病变进展风险。
以上对本发明实施例提供的基于机器学习的近视牵引性黄斑病变风险预测方法进行了详细说明。需要说明的是,上述实施例是采用了U-net神经网络模型对高度近视眼球和眼底病灶进行自动分割处理,在本发明的其他实施例中,步骤S2也可以采用其他的可用于医学图像处理的神经网络模型,例如3D U-Net、Residual U-Net、Attention U-Net、Recurrent U-Net、Dense-U-Net、U-net++神经网络模型中的一种,对高度近视眼球和眼底病灶进行自动分割处理,并进行相关计算得到眼球后表面的综合变形指数和视网膜病变指数。
基于上述近视牵引性黄斑病变风险预测方法,本发明实施例提供一种基于机器学习的近视牵引性黄斑病变风险预测装置。如图5所示,该近视牵引性黄斑病变风险预测装置包括一个或多个处理器和存储器。其中,存储器与处理器耦接,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如上述实施例中基于机器学习的近视牵引性黄斑病变风险预测方法。
其中,处理器用于控制该近视牵引性黄斑病变风险预测装置的整体操作,以完成上述近视牵引性黄斑病变风险预测方法的全部或部分步骤。该处理器模块可以是中央处理器(CPU)、图形处理器(GPU)、现场可编程逻辑门阵列(FPGA)、专用集成电路(ASIC)、数字信号处理(DSP)芯片等。存储器用于存储各种类型的数据以支持在该近视牵引性黄斑病变风险预测装置的操作, 这些数据例如可以包括用于在近视牵引性黄斑病变风险预测装置上操作的任何应用程序或方法的指令,以及应用程序相关的数据。该存储器模块可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,例如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器等。
综上所述,与现有技术相比较,本发明所提供的基于机器学习的近视牵引性黄斑病变风险预测方法,通过采用机器学习的方式,将与近视牵引性黄斑病变进展相关的因素,包括眼球形状、视网膜劈裂和视网膜脱离的体积、面积等特征自动提取和分类,构建并训练预测模型,采用该预测模型实现对近视牵引性黄斑病变进展风险概率的准确预测。同时,对眼球后表面的综合变形指数等相关参数的计算方面,提出了一套详细的计算方法。本发明所提供的基于机器学习的近视牵引性黄斑病变风险预测方法,对于临床而言,可以辅助医生对患者近视牵引性黄斑病变进展风险做出准确判断,并进一步制定随访和治疗方案。
需要说明的是,上述多个实施例只是举例,各个实施例的技术方案之间可以进行组合,均在本发明的保护范围内。
需要说明的是,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
上面对本发明提供的基于机器学习的近视牵引性黄斑病变风险预测方法及装置进行了详细的说明。对本领域的一般技术人员而言,在不背离本发明实质内容的前提下对它所做的任何显而易见的改动,都将构成对本发明专利权的侵犯,将承担相应的法律责任。
Claims (8)
1.一种基于机器学习的近视牵引性黄斑病变风险预测方法,其特征在于包括如下步骤
(1)采集高度近视患者的临床病例数据,建立包括训练集和测试集在内的数据集;
(2)采用深度神经网络模型自动分割高度近视眼球和眼底病灶,进行计算后得到眼球后表面的综合变形指数和视网膜病变指数;其中,所述眼球后表面的综合变形指数的计算过程如下:
(21)利用深度神经网络模型获取眼球后部形状,并计算眼球后表面球度;
(22)计算眼球后巩膜葡萄肿的凸起指数;
(23)通过如下公式,计算眼球后表面的综合变形指数:
其中,Dvar为眼球后表面球度,E为眼球后巩膜葡萄肿的凸起指数,S为眼球后表面的综合变形指数;
所述视网膜病变指数的计算方法如下:
在以距离黄斑中心凹为中心的预定范围内,利用神经网络模型分别分割出视网膜劈裂和脱离的范围,根据计算得到的视网膜劈裂体积和视网膜脱离体积,按照指定的权重系数,计算所述视网膜病变指数:
其中,S(χ)为视网膜病变指数,χ为视网膜病变基数,w1和w2分别是视网膜劈裂和脱离的权重系数,RS为视网膜劈裂体积,RD为视网膜脱离体积,b1和b2为常数项;
(3)构建分布式梯度增强库和随机森林模型,并通过所述训练集的数据进行训练后获得预测模型;包括如下子步骤:通过随机森林模型从眼球后表面球度、后巩膜葡萄肿凸起指数、综合变形指数和视网膜病变指数,以及年龄、眼轴、等效球镜中筛选特征变量,并根据重要性排序筛选特征,分别为综合变形指数、眼球后表面球度、眼轴、视网膜病变指数、后巩膜葡萄肿凸起指数、视网膜脱离体积、视网膜脱离面积、年龄、视网膜劈裂体积、视网膜劈裂面积、等效球镜;采用筛选后的变量构建分布式梯度增强库和随机森林模型,并通过训练集进行训练获得预测模型;
(4)采用所述测试集的数据对所述预测模型的准确性进行测试评估;
(5)通过所述预测模型计算待预测用户的数据,得到近视牵引性黄斑病变的风险预测概率。
2.如权利要求1所述的基于机器学习的近视牵引性黄斑病变风险预测方法,其特征在于:
所述步骤(2)中,采用 U-net神经网络模型对数据集提供的3D MRI眼部图像中高度近视眼球组织进行自动分割处理,将眼球组织与眶内其余组织区别并提取出来。
3.如权利要求2所述的基于机器学习的近视牵引性黄斑病变风险预测方法,其特征在于:
所述U-net神经网络模型由3D U-Net、Residual U-Net、Attention U-Net、RecurrentU-Net、Dense-U-Net、U-net++神经网络模型中的任意一种替代。
4.如权利要求1所述的基于机器学习的近视牵引性黄斑病变风险预测方法,其特征在于步骤(21)中包括如下子步骤:
(211)对3D MRI眼部图像进行分割标记,其中属于眼球的部分标记为255,其余区域标记为0,然后遍历每层MRI眼部图像得到三维重构的眼球结构;
(212)对分割后的图像进行预处理,包括切片重采样、眼球表面平滑、去除孤岛和联通区域;
(213)对眼球表面进行坐标化及其校正;
(214)通过如下公式计算所述眼球后表面球度:
其中,Di为眼球表面散点到眼球中心的距离;n为选取的若干眼球边缘至拟合球面的点数。
5.如权利要求4所述的基于机器学习的近视牵引性黄斑病变风险预测方法,其特征在于步骤(213)中眼球表面坐标系的校正方法包括如下子步骤:
寻找眼球中心:求取眼球内切球的球心并将原点O移动到该球心;计算眼球表面及内部任一点到眼球表面的距离,获取该距离的最大值;对眼球表面及内部所有点遍历以上过程,获取多个所述最大值;多个所述最大值中的最小值对应的坐标点即为眼球中心;
寻找角膜中心:基于眼球表面三维散点寻找Z轴正半轴上距离中心的最远点;获取最远点到眼球前节表面的最远距离,该最远距离对应的坐标点即为角膜中心P;
旋转坐标系:基于向量PO旋转原坐标系,使向量PO与新坐标系Z轴重合,P点在新坐标系的Z轴负半轴上,基于旋转矩阵实现;
移动原点:在新的坐标系下,在Z轴上移动原点O,使 =12mm,使新的原点距离角膜中心12mm;
实现120°视角:对后表面散点进行筛选,使原点与后表面散点连线组成的向量与Z轴正半轴的最大夹角为60°,使视角为120°。
6.如权利要求1所述的基于机器学习的近视牵引性黄斑病变风险预测方法,其特征在于步骤(22)中包括如下子步骤:
(221)确定参考球面,在后巩膜葡萄肿的区域内,选择一个球面作为参考球面,并将球心设置在该区域的凸起中心;
(222)计算局部高度差,对于参考球面上的每个点,计算该点到实际表面的距离作为局部高度差;
(223)确定凸起高度,从局部高度差中选择最大值作为凸起高度;
(224)计算半峰宽度,从最高点向两侧找到高度差为凸起高度一半的点,计算该两点之间的距离作为凸起的半峰宽度;
(225)通过如下公式计算眼球后巩膜葡萄肿的凸起指数:
E=H/W
其中,E 为凸起指数,H为凸起高度,W为半峰宽度。
7.如权利要求1所述的基于机器学习的近视牵引性黄斑病变风险预测方法,其特征在于:
所述步骤(1)中,纳入所述数据集的患者包括高度近视合并近视牵引性黄斑病变最近5年内病变无明显进展和高度近视合并近视牵引性黄斑病变最近5年内病变有进展的两类患者,二者的纳入数量比例为1:1;所述数据集按照8:2的比例将数据分为训练集和测试集。
8.一种基于机器学习的近视牵引性黄斑病变风险预测装置,其特征在于包括处理器和存储器;所述存储器用于存储计算机程序,当该计算机程序被所述处理器执行时,实现权利要求1~7中任意一项所述基于机器学习的近视牵引性黄斑病变风险预测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310930626.1A CN116682564B (zh) | 2023-07-27 | 2023-07-27 | 基于机器学习的近视牵引性黄斑病变风险预测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310930626.1A CN116682564B (zh) | 2023-07-27 | 2023-07-27 | 基于机器学习的近视牵引性黄斑病变风险预测方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116682564A CN116682564A (zh) | 2023-09-01 |
CN116682564B true CN116682564B (zh) | 2023-10-27 |
Family
ID=87791269
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310930626.1A Active CN116682564B (zh) | 2023-07-27 | 2023-07-27 | 基于机器学习的近视牵引性黄斑病变风险预测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116682564B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117437231B (zh) * | 2023-12-21 | 2024-04-26 | 依未科技(北京)有限公司 | 近视眼底结构改变的定位方法及装置、图像处理方法 |
CN117611585A (zh) * | 2024-01-22 | 2024-02-27 | 天津医科大学眼科医院 | 一种基于图像处理的眼球壁形变分析方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2622759C1 (ru) * | 2016-06-08 | 2017-06-19 | федеральное государственное бюджетное образовательное учреждение высшего образования "Тюменский государственный медицинский университет" Министерства здравоохранения Российской Федерации (ФГБОУ ВО Тюменский ГМУ Минздрава России) | Способ лечения морфометрических изменений макулярной области при полиморбидных соматических состояниях |
WO2020140370A1 (zh) * | 2019-01-04 | 2020-07-09 | 平安科技(深圳)有限公司 | 眼底出血点的自动检测方法、装置及计算机可读存储介质 |
CN111938569A (zh) * | 2020-09-17 | 2020-11-17 | 南京航空航天大学 | 基于深度学习的眼底多病种分类的检测方法 |
CN112233087A (zh) * | 2020-10-14 | 2021-01-15 | 武汉楚精灵医疗科技有限公司 | 一种基于人工智能的眼科超声疾病诊断方法和系统 |
CN112545452A (zh) * | 2020-12-07 | 2021-03-26 | 南京医科大学眼科医院 | 高度近视眼底病变风险预测方法 |
CN112786203A (zh) * | 2021-03-03 | 2021-05-11 | 天津医科大学 | 一种机器学习糖尿病视网膜病变发病风险预测方法及应用 |
-
2023
- 2023-07-27 CN CN202310930626.1A patent/CN116682564B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2622759C1 (ru) * | 2016-06-08 | 2017-06-19 | федеральное государственное бюджетное образовательное учреждение высшего образования "Тюменский государственный медицинский университет" Министерства здравоохранения Российской Федерации (ФГБОУ ВО Тюменский ГМУ Минздрава России) | Способ лечения морфометрических изменений макулярной области при полиморбидных соматических состояниях |
WO2020140370A1 (zh) * | 2019-01-04 | 2020-07-09 | 平安科技(深圳)有限公司 | 眼底出血点的自动检测方法、装置及计算机可读存储介质 |
CN111938569A (zh) * | 2020-09-17 | 2020-11-17 | 南京航空航天大学 | 基于深度学习的眼底多病种分类的检测方法 |
CN112233087A (zh) * | 2020-10-14 | 2021-01-15 | 武汉楚精灵医疗科技有限公司 | 一种基于人工智能的眼科超声疾病诊断方法和系统 |
CN112545452A (zh) * | 2020-12-07 | 2021-03-26 | 南京医科大学眼科医院 | 高度近视眼底病变风险预测方法 |
CN112786203A (zh) * | 2021-03-03 | 2021-05-11 | 天津医科大学 | 一种机器学习糖尿病视网膜病变发病风险预测方法及应用 |
Non-Patent Citations (1)
Title |
---|
近视牵引性黄斑病变手术治疗的进展;夏惠娟;何玉萍;樊莹;;眼科新进展(03);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN116682564A (zh) | 2023-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lavric et al. | KeratoDetect: keratoconus detection algorithm using convolutional neural networks | |
CN116682564B (zh) | 基于机器学习的近视牵引性黄斑病变风险预测方法及装置 | |
Hogarty et al. | Current state and future prospects of artificial intelligence in ophthalmology: a review | |
US20220230300A1 (en) | Using Deep Learning to Process Images of the Eye to Predict Visual Acuity | |
Zhang et al. | A survey on computer aided diagnosis for ocular diseases | |
US20210319556A1 (en) | Method and system for analysing images of a retina | |
Xiong et al. | An approach to evaluate blurriness in retinal images with vitreous opacity for cataract diagnosis | |
CN110246158B (zh) | 眼疾检测装置、方法、电子终端、及存储介质 | |
CN113768461B (zh) | 一种眼底图像分析方法、系统和电子设备 | |
CN113962311A (zh) | 知识数据和人工智能驱动的眼科多病种识别系统 | |
CN112700858B (zh) | 一种儿童青少年近视预警方法及设备 | |
Jeong et al. | Ocular axial length prediction based on visual interpretation of retinal fundus images via deep neural network | |
CN113397475A (zh) | 基于oct图像的阿尔茨海默症风险的预测方法、系统及介质 | |
Giancardo | Automated fundus images analysis techniques to screen retinal diseases in diabetic patients | |
WO2021046418A1 (en) | Systems and methods for detection and grading of diabetic retinopathy | |
US20230157811A1 (en) | Systems and methods for vitreous disease severity measurement | |
CN111369499A (zh) | 一种眼底图像的处理方法及装置 | |
Galveia et al. | Computer aided diagnosis in ophthalmology: Deep learning applications | |
Thanh et al. | A Real-Time Classification Of Glaucoma from Retinal Fundus Images Using AI Technology | |
CN111951219B (zh) | 基于眼眶ct图像的甲状腺眼病筛查方法、系统及设备 | |
EP1052928A1 (en) | Automated photorefractive screening | |
Fang et al. | Lens structure segmentation from AS-OCT images via shape-based learning | |
Saleh et al. | Artificial intelligence in corneal topography | |
Nagaraj et al. | A Comparative Analysis of Retinal Disease Image Classification for OCT Using Deep Learning Techniques | |
Otuna-Hernández et al. | Diagnosis and degree of evolution in a keratoconus-type corneal ectasia from image processing |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |