CN112712122A - 基于神经网络模型的角膜溃疡的分类检测方法及系统 - Google Patents
基于神经网络模型的角膜溃疡的分类检测方法及系统 Download PDFInfo
- Publication number
- CN112712122A CN112712122A CN202011638346.6A CN202011638346A CN112712122A CN 112712122 A CN112712122 A CN 112712122A CN 202011638346 A CN202011638346 A CN 202011638346A CN 112712122 A CN112712122 A CN 112712122A
- Authority
- CN
- China
- Prior art keywords
- image
- corneal ulcer
- corneal
- neural network
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 201000007717 corneal ulcer Diseases 0.000 title claims abstract description 66
- 206010064996 Ulcerative keratitis Diseases 0.000 title claims abstract description 64
- 238000001514 detection method Methods 0.000 title claims abstract description 34
- 238000003062 neural network model Methods 0.000 title claims abstract description 34
- 210000004087 cornea Anatomy 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims abstract description 30
- 238000012706 support-vector machine Methods 0.000 claims abstract description 18
- 238000012545 processing Methods 0.000 claims abstract description 9
- 239000007850 fluorescent dye Substances 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 32
- 230000008569 process Effects 0.000 claims description 12
- 230000000877 morphologic effect Effects 0.000 claims description 10
- 238000003064 k means clustering Methods 0.000 claims description 9
- 239000011159 matrix material Substances 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 5
- 238000006467 substitution reaction Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 238000004043 dyeing Methods 0.000 claims description 2
- 238000002372 labelling Methods 0.000 claims description 2
- 239000013589 supplement Substances 0.000 claims description 2
- 238000004519 manufacturing process Methods 0.000 abstract description 4
- 201000010099 disease Diseases 0.000 abstract description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 abstract description 3
- 210000005252 bulbus oculi Anatomy 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 201000004569 Blindness Diseases 0.000 description 3
- 238000003709 image segmentation Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 208000024891 symptom Diseases 0.000 description 2
- 208000009043 Chemical Burns Diseases 0.000 description 1
- 208000003556 Dry Eye Syndromes Diseases 0.000 description 1
- 206010013774 Dry eye Diseases 0.000 description 1
- XQFRJNBWHJMXHO-RRKCRQDMSA-N IDUR Chemical compound C1[C@H](O)[C@@H](CO)O[C@H]1N1C(=O)NC(=O)C(I)=C1 XQFRJNBWHJMXHO-RRKCRQDMSA-N 0.000 description 1
- 206010061274 Malocclusion Diseases 0.000 description 1
- 208000010011 Vitamin A Deficiency Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 244000052616 bacterial pathogen Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 208000021921 corneal disease Diseases 0.000 description 1
- 230000007797 corrosion Effects 0.000 description 1
- 238000005260 corrosion Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000011282 treatment Methods 0.000 description 1
- 238000011269 treatment regimen Methods 0.000 description 1
- 230000004382 visual function Effects 0.000 description 1
- 230000004393 visual impairment Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
-
- G06T5/94—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Abstract
本发明公开了基于神经网络模型的角膜溃疡的分类检测方法及系统,涉及角膜溃疡的分类检测和疾病判别领域。主要方法包括:利用多个摄像头多角度采集被测者荧光染色后的角膜图像;制作并对角膜图像添加掩膜,提取有效部分;进一步处理提取的有效角膜图像,将其作为网络输入;使用经过大量有效数据训练后的Inception‑ResNet‑V2神经网络模型完成对点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡的初步分类;利用训练后的支持向量机处理不同角度的角膜图像检测结果,做出最终的分类判断;本发明提供的系统可实现较高准确率的角膜溃疡类型检测,且数据可上传至云端服务器供进一步分析。
Description
技术领域
本发明涉及角膜溃疡的分类检测和疾病判别技术领域,尤其是涉及基于神经网络模型的角膜溃疡的分类检测方法及系统。
背景技术
角膜溃疡是角膜疾病中最常见的症状。作为眼球最前面的一层透明的薄膜,角膜经常暴露在空气里,接触病菌机会多,因此提高了角膜溃疡的患病率。除此以外,缺乏维生素A,化学灼伤,长期使用隐形眼镜,干眼或疱疹等因素也会造成角膜溃疡。角膜溃疡对人类的身体,尤其是视觉功能有着很大的危害,没有及时正确的治疗,会导致视力下降,甚至致盲,医学上称之为角膜盲。
随着医疗水平的逐步提高,越来越多有效的角膜溃疡治疗方案被提出,但在判断患者的角膜溃疡具体类型时,较为原始的主观经验判断被大部分医师采用。考虑到不同医师之间专业知识以及经验的差异,最终判断的结果和花费的时间可能会存在一定的差异。1956年人工智能这一概念被首次提出,60多年来在各行各业发展迅速。近些年在医疗行业深度学习等AI技术更是在国内外被广泛应用,在某些方面效果丝毫不比专业医生差,甚至要更好。在这种情况下,通过合理有效的使用深度学习技术对角膜溃疡的病情进行分类就显得更加方便有效。
Inception-ResNet-V2是谷歌提出的一种深度学习模型,将有着良好的性能且计算量低的Inception结构和残差连接(Residual Connection)相结合,极大地加速了网络的收敛,同时Inception-ResNet-V2凭借着更大规模的网络模型也提高了网络的性能,在Top-5错误率上达到了4.9%,对于角膜图片的分类可以实现很好的效果。
发明内容
为解决现有技术的不足,通过Inception-ResNet-V2神经网络模型,实现对点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡进行分类,并根据多角度图像分类结果对被测者做出最终的角膜溃疡类型判断的目的,本发明采用如下的技术方案:
基于神经网络模型的角膜溃疡的分类检测方法,包括如下步骤:
S10,通过多个摄像头多角度采集被测者荧光染色后的角膜图像;
S20,通过形态学操作,制作并添加掩膜,提取角膜图像的有效部分;
S30,对提取的有效角膜图像进行预处理,标注数据类型;
S40,设置神经网络模型的训练参数,将已有标注好的角膜图像输入模型进行训练;
S50,保存训练完成后的模型,完成对点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡的分类;
S60,将不同角度的角膜图像检测结果作为输入,在模型后添加支持向量机(Support Vector Machine,SVM),自动赋予不同角度不同的权重,输出最终检测结果。
进一步的,所述步骤S10中使用多个摄像头多角度采集角膜图像,通过白光光源进行补光,拍摄角度包括平角、仰/俯角45°、左/右前侧45°。
进一步的,所述步骤S20中通过形态学操作,K-Means聚类方法制作掩膜并添加至采集到的角膜图像中,提取有效图像区域,提高整个系统的检测与识别效率,利用形态学操作中的闭运算即先膨胀后腐蚀操作,填充采集到的角膜图像中的细小孔洞,断开狭窄的间断和消除细小的突出物,提高后面的图像分割效率,选择经典的基于划分的K-Means聚类算法进行图像切割,该算法最大优势为简洁且快速,本系统旨在区分点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡,同时考虑到眼球周边较暗的区域,故算法中K值取为3,即将图像样本集分为3个类别,算法中样本集为D={X1,X2,…,Xm},聚类中心集合为U={U1,U2,…,Uk},簇的集合为C={C1,C2,…,Ck},算法中选择目标函数为:
进一步的,所述步骤S30中,步骤S20提取的有效图像中细节不够突出,故使用自适应直方图均衡(Adaptive Histogram Equalization,AHE)手段,对提取的图像进一步进行处理,进一步提高整个系统的检测与识别效率,和普通的直方图均衡算法不同,AHE算法通过计算图像的局部直方图,然后重新分布亮度来改变图像对比度,更适合于改进图像的局部对比度以及获得更多的图像细节,算法原理:移动模板M在图像P上逐行移动,并且模板M的中心c(x0,y0)对应图像上的点f(x0,y0),计算模板M区域的直方图均衡化变化关系:
g(x,y)=T(f(x,y))
计算模板中心点c(x0,y0)的均衡化对应像素值:g(x0,y0)=T(f(x0,y0)),用g(x0,y0)替代f(x0,y0),逐行计算得到整幅图像的自适应直方图均衡化图像。
进一步的,所述步骤S40中,选用tensorflow框架搭建Inception-ResNet-V2神经网络模型,根据角膜图像数据和尝试训练效果对网络参数进行合理调整,在模型中,选择线性整流函数(Rectified Linear Unit,ReLU)作为激活函数,ReLu函数表达式为:
最后采用softmax函数输出三类分类情况,softmax函数的表达式为:
式中,Si为第i种类别的输出,本发明中为三种分类,xi为上一层单元的输出;
训练过程中采用随机梯度下降算法(Stochastic gradient descent,SGD)作为优化算法,SGD公式为:
θ=θ-η*▽θJ(θ;xi;yi)
式中,η表示学习率,决定以多大的步长更新参数,▽θJ(θ;xi;yi)表示损失函数在每一条数据上对参数θ计算一阶导数;
由于训练数据分布不均衡,故选择进行加权修改的交叉熵损失函数(Categoricalcrossentropy function)作为训练Inception-ResNet-V2的多分类损失函数,权重计算和加权后的交叉熵损失函数计算公式如下所示
式中,N为类型数量,Nall为样本总数量,Nx,x=0,1,2共三类病症,为对应类别的样本数量,Y、P为样本实际标签矩阵与概率矩阵,M为计算样本数量;
监测指标为准确率(acc),同时训练过程中设置回调函数对学习率进行动态调整,适时保存模型参数。
进一步的,Inception-ResNet-V2神经网络模型的初始训练参数包括:学习率LR=0.0001,训练次数EPOCH=500,训练批次大小BATCH_SIZE=64,图像输入尺寸SIZE=299×299×3。
进一步的,所述步骤S50中,保存训练完成后的神经网络模型,向神经网络模型中输入步骤S30处理后的角膜图像,实现点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡的自动分类。
进一步的,所述步骤S60中,将不同角度在步骤S50得到的分类结果作为最后支持向量机的输入,赋予不同角度不同的权重,输出最终检测结果。
进一步的,选择一对多的方式使SVM实现多分类,训练时依次把某个类别的样本归为一类,其他剩余的样本归为另一类,即根据3个类别的样本构造3个SVM,分类速度较快。
基于神经网络模型的角膜溃疡的分类检测系统,包括依次连接的图像采集模块、掩膜添加模块、图像处理模块、模型分类模块和综合判断模块;
所述图像采集模块,摄像头多角度采集被测者荧光染色后的角膜图像;
所述掩膜添加模块,进行掩膜制作与添加,提取图像有效部分;
所述图像处理模块,对提取后的有效角膜图像进行预处理;
所述模型分类模块,使用训练后的模型对所采集的角膜图像进行各类角膜溃疡的自动识别与检测;
所述综合判断模块,通过支持向量机处理不同角度的多个检测结果,得出最终检测结果。
本发明的优势和有益效果在于:
本发明通过多摄像图多角度采集角膜图像搭配Inception-ResNet-V2神经网络模型和SVM分类,最终较为准确的区分点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡。同时通过形态学操作,K-Means聚类方法制作并添加掩膜和AHE等操作,在一定程度上提高了整体系统的准确率和使用效率。本发明能够方便地移植开发到多类平台,系统采集、处理的中间以及最终数据可上传至云端服务器,可方便的分析被测者的角膜溃疡的具体情况。
附图说明
图1是本发明的方法流程图。
图2是本发明的系统框图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
本发明实例提供的角膜溃疡分类检测方法,是利用Inception-ResNet-V2神经网络模型和SVM对采集并处理过的角膜图像进行点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡的分类识别。同时本实例也提供了一种基于上述方法实现的角膜溃疡分类检测系统。为了更加透彻的理解本发明的目的、方案,以下结合附图对本发明实例的具体实施方式进行详细说明。
如图1所示,一种基于Inception-ResNet-V2神经网络模型的角膜溃疡的分类检测方法,具体包括以下步骤:
S10,通过多个摄像头多角度采集被测者荧光染色后的角膜图像;
S20,通过形态学操作,K-Means聚类方法制作掩膜,添加掩膜提取角膜图像的有效部分;
S30,通过AHE手段对提取的有效角膜图像进行预处理,标注数据类型;
S40,设置Inception-ResNet-V2神经网络模型的训练参数,将已有标注好的角膜图像输入模型进行训练;
S50,保存训练完成后的模型,完成对点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡的分类;
S60,将不同角度的角膜图像检测结果作为输入,在模型后添加SVM层,自动赋予不同角度不同的权重,输出最终检测结果。
如图2所示,一种基于Inception-ResNet-V2神经网络模型的角膜溃疡的分类检测系统具体包括以下模块:图像采集模块1、掩膜添加模块2、图像处理模块3、模型分类模块4、综合判断模块5。图像采集模块使用多个摄像头从多个角度采集被测者荧光染色后的角膜图像。掩膜添加模块,通过形态学操作,K-Means聚类方法制作掩膜,对采集到的角膜图像添加掩膜,提取有效部分。图像处理模块,使用AHE对提取后的有效角膜图像进行预处理。模型分类模块,使用训练后的模型对所采集的角膜图像进行各类角膜溃疡的自动识别与检测。综合判断模块通过SVM处理不同角度的角膜图像检测结果,自动赋予不同角度不同的权重,得出最终检测结果。
本发明提出一种基于Inception-ResNet-V2神经网络模型的角膜溃疡的分类检测方法及系统。考虑到图2中的系统基于图1中的方法构建,故根据该系统框图对本申请实例的具体实施方式进行介绍。
图像采集模块1,通过多个摄像头多角度采集角膜图像,为获得具有较好特征的图像,被测者需提前对角膜进行荧光染色,若有必要可自行拉开眼睑,注视方向为正前方。系统配有白光光源进行补光,拍摄角度包括但不限于平角、仰(俯)角45°、左(右)前侧45°等。
掩膜添加模块2通过形态学操作,K-Means聚类方法制作掩膜,添加掩膜提取角膜图像的有效部分。具体步骤如下:
1.利用形态学操作中的闭运算即先膨胀后腐蚀操作,填充采集到的角膜图像中的细小孔洞,断开狭窄的间断和消除细小的突出物,提高图像分割效率。
2.使用K-Means聚类算法对角膜图像进行切割。考虑到角膜图像中存在角膜溃疡区域、眼球区域和周边无用区域,故算法中K值取为3,即将图像样本集分为3个类别。
算法中样本集为D={X1,X2,…,Xm},聚类中心集合为U={U1,U2,…,Uk},簇的集合为C={C1,C2,…,Ck}。算法中选择目标函数为
3.根据K-Means聚类得到对应的掩膜,将掩膜添加至角膜图像中,删去眼球周边的无用区域,实现眼球区域和角膜溃疡主体区域的提取。
图像处理模块3通过AHE对添加掩膜后的角膜图像进一步处理,改进图像的局部对比度,获得更多的图像细节,提高之后模型训练的效率和准确率。
算法原理:移动模板M在图像P上逐行移动,并且模板M的中心c(x0,y0)对应图像上的点f(x0,y0)。计算模板M区域的直方图均衡化变化关系:
g(x,y)=T(f(x,y))
计算模板中心点c(x0,y0)的均衡化对应像素值:g(x0,y0)=T(f(x0,y0))。用g(x0,y0)替代f(x0,y0)。逐行计算得到整幅图像的自适应直方图均衡化图像。
模型分类模块4选用tensorflow框架搭建Inception-ResNet-V2神经网络模型。先对模型对已有数据进行训练,保存训练后的模型,将其用于角膜溃疡类型的分类。
训练模型过程中,根据角膜图像数据和尝试训练效果对网络参数进行合理调整。在模型中,选择线性整流函数(ReLU)作为激活函数,最后采用softmax函数输出三类分类情况。训练过程中采用随机梯度下降算法(SGD)作为优化算法,由于训练数据分布不均衡,故选择进行加权修改的交叉熵损失函数(Categorical crossentropy function)作为训练Inception-ResNet-V2的多分类损失函数。权重计算和加权后的交叉熵损失函数计算公式如下所示
式中,N为类型数量,Nall为样本总数量,Nx(x=0,1,2共三类病症)为对应类别的样本数量。Y、P为样本实际标签矩阵与概率矩阵,M为计算样本数量。
监测指标为准确率(acc)。同时训练过程中设置回调函数对学习率进行动态调整,适时保存模型参数。Inception-ResNet-V2神经网络模型的初始训练参数包括:学习率LR=0.0001,训练次数EPOCH=500,训练批次大小BATCH_SIZE=64,图像输入尺寸SIZE=299×299×3。
保存训练完成后的Inception-ResNet-V2模型,向模型中输入步骤S30处理后的角膜图像,实现点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡的自动分类。
综合判断模块5中将不同角度采集到的角膜图像在经过上述处理后得到的分类结果作为最后SVM层的输入,和训练Inception-ResNet-V2神经网络模型相似,SVM通过对已有的多角度分类数据进行训练从而确定不同角度图像对应分类结果的权值,实现对不同角度结果的综合判断,输出最终的分类结果。此模块中选择使用一对多的方式使SVM实现多分类,训练时依次把某个类别的样本归为一类,其他剩余的样本归为另一类,即根据3个类别的样本构造3个SVM,实验表明此时分类速度较快,准确率也较高。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的范围。
Claims (10)
1.基于神经网络模型的角膜溃疡的分类检测方法,其特征在于包括如下步骤:
S10,通过多个摄像头多角度采集被测者荧光染色后的角膜图像;
S20,通过形态学操作,制作并添加掩膜,提取角膜图像的有效部分;
S30,对提取的有效角膜图像进行预处理,标注数据类型;
S40,设置神经网络模型的训练参数,将已有标注好的角膜图像输入模型进行训练;
S50,保存训练完成后的模型,完成对点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡的分类;
S60,将不同角度的角膜图像检测结果作为输入,在模型后添加支持向量机,自动赋予不同角度不同的权重,输出最终检测结果。
2.如权利要求1所述的基于神经网络模型的角膜溃疡的分类检测方法,其特征在于所述步骤S10中使用多个摄像头多角度采集角膜图像,通过白光光源进行补光,拍摄角度包括平角、仰/俯角45°、左/右前侧45°。
4.如权利要求1所述的基于神经网络模型的角膜溃疡的分类检测方法,其特征在于所述步骤S30中,使用自适应直方图均衡手段,对提取的图像进一步进行处理,算法原理:移动模板M在图像P上逐行移动,并且模板M的中心c(x0,y0)对应图像上的点f(x0,y0),计算模板M区域的直方图均衡化变化关系:
g(x,y)=T(f(x,y))
计算模板中心点c(x0,y0)的均衡化对应像素值:g(x0,y0)=T(f(x0,y0)),用g(x0,y0)替代f(x0,y0),逐行计算得到整幅图像的自适应直方图均衡化图像。
5.如权利要求1所述的基于神经网络模型的角膜溃疡的分类检测方法,其特征在于所述步骤S40中,选用tensorflow框架搭建Inception-ResNet-V2神经网络模型,根据角膜图像数据和尝试训练效果对网络参数进行合理调整,在模型中,选择线性整流函数作为激活函数,ReLu函数表达式为:
最后采用softmax函数输出三类分类情况,softmax函数的表达式为:
式中,Si为第i种类别的输出,xi为上一层单元的输出;
训练过程中采用随机梯度下降算法作为优化算法,公式为:
选择进行加权修改的交叉熵损失函数作为训练Inception-ResNet-V2的多分类损失函数,权重计算和加权后的交叉熵损失函数计算公式如下所示
式中,N为类型数量,Nall为样本总数量,Nx,x=0,1,2共三类病症,为对应类别的样本数量,Y、P为样本实际标签矩阵与概率矩阵,M为计算样本数量;
监测指标为准确率,同时训练过程中设置回调函数对学习率进行动态调整。
6.如权利要求5所述的基于神经网络模型的角膜溃疡的分类检测方法,其特征在于Inception-ResNet-V2神经网络模型的初始训练参数包括:学习率LR=0.0001,训练次数EPOCH=500,训练批次大小BATCH_SIZE=64,图像输入尺寸SIZE=299×299×3。
7.如权利要求1所述的基于神经网络模型的角膜溃疡的分类检测方法,其特征在于所述步骤S50中,保存训练完成后的神经网络模型,向神经网络模型中输入步骤S30处理后的角膜图像,实现点样型角膜溃疡、点片状混合型角膜溃疡和片状型角膜溃疡的自动分类。
8.如权利要求1所述的基于神经网络模型的角膜溃疡的分类检测方法,其特征在于所述步骤S60中,将不同角度在步骤S50得到的分类结果作为最后支持向量机的输入,赋予不同角度不同的权重,输出最终检测结果。
9.如权利要求8所述的基于神经网络模型的角膜溃疡的分类检测方法,其特征在于选择一对多的方式使SVM实现多分类,训练时依次把某个类别的样本归为一类,其他剩余的样本归为另一类,即根据3个类别的样本构造3个SVM。
10.基于神经网络模型的角膜溃疡的分类检测系统,包括依次连接的图像采集模块(1)、掩膜添加模块(2)、图像处理模块(3)、模型分类模块(4)和综合判断模块(5),其特征在于:
所述图像采集模块(1),摄像头多角度采集被测者荧光染色后的角膜图像;
所述掩膜添加模块(2),进行掩膜制作与添加,提取图像有效部分;
所述图像处理模块(3),对提取后的有效角膜图像进行预处理;
所述模型分类模块(4),使用训练后的模型对所采集的角膜图像进行各类角膜溃疡的自动识别与检测;
所述综合判断模块(5),通过支持向量机处理不同角度的多个检测结果,得出最终检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011638346.6A CN112712122A (zh) | 2020-12-31 | 2020-12-31 | 基于神经网络模型的角膜溃疡的分类检测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011638346.6A CN112712122A (zh) | 2020-12-31 | 2020-12-31 | 基于神经网络模型的角膜溃疡的分类检测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112712122A true CN112712122A (zh) | 2021-04-27 |
Family
ID=75547945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011638346.6A Pending CN112712122A (zh) | 2020-12-31 | 2020-12-31 | 基于神经网络模型的角膜溃疡的分类检测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112712122A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408575A (zh) * | 2021-05-12 | 2021-09-17 | 桂林电子科技大学 | 一种基于判别性区域定位的图像数据增广方法 |
CN114332547A (zh) * | 2022-03-17 | 2022-04-12 | 浙江太美医疗科技股份有限公司 | 医学目标分类方法和装置、电子设备和存储介质 |
CN114399465A (zh) * | 2021-12-08 | 2022-04-26 | 紫东信息科技(苏州)有限公司 | 良恶性溃疡识别方法及系统 |
-
2020
- 2020-12-31 CN CN202011638346.6A patent/CN112712122A/zh active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113408575A (zh) * | 2021-05-12 | 2021-09-17 | 桂林电子科技大学 | 一种基于判别性区域定位的图像数据增广方法 |
CN114399465A (zh) * | 2021-12-08 | 2022-04-26 | 紫东信息科技(苏州)有限公司 | 良恶性溃疡识别方法及系统 |
CN114399465B (zh) * | 2021-12-08 | 2022-11-25 | 紫东信息科技(苏州)有限公司 | 良恶性溃疡识别方法及系统 |
CN114332547A (zh) * | 2022-03-17 | 2022-04-12 | 浙江太美医疗科技股份有限公司 | 医学目标分类方法和装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Li et al. | Automatic detection of diabetic retinopathy in retinal fundus photographs based on deep learning algorithm | |
CN109191457B (zh) | 一种病理图像质量有效性识别方法 | |
WO2020259209A1 (zh) | 眼底图像识别方法、装置、设备和存储介质 | |
Khan et al. | Cataract detection using convolutional neural network with VGG-19 model | |
CN112712122A (zh) | 基于神经网络模型的角膜溃疡的分类检测方法及系统 | |
CN111476283A (zh) | 基于迁移学习的青光眼眼底图像识别方法 | |
CN106530295A (zh) | 一种视网膜病变的眼底图像分类方法和装置 | |
CN112967285B (zh) | 一种基于深度学习的黄褐斑图像识别方法、系统和装置 | |
CN109635846A (zh) | 一种多类医学图像判断方法和系统 | |
CN111079620B (zh) | 基于迁移学习的白细胞图像检测识别模型构建方法及应用 | |
CN111986211A (zh) | 一种基于深度学习的眼科超声自动筛查方法及系统 | |
CN111242242B (zh) | 一种基于置信度选择的宫颈组织病理全玻片图像自动分类方法 | |
CN111461218B (zh) | 糖网病眼底图像的样本数据标注系统 | |
CN113159227A (zh) | 一种基于神经网络的痤疮图像识别方法、系统和装置 | |
CN110781953B (zh) | 基于多尺度金字塔卷积神经网络的肺癌病理切片分类方法 | |
CN110473167A (zh) | 一种基于深度学习的尿沉渣图像识别系统及方法 | |
CN113889267A (zh) | 基于眼象识别的糖尿病诊断模型的构建方法和电子设备 | |
CN115281602B (zh) | 一种用于青光眼的研究瞳孔对光反射障碍的动态分析系统 | |
CN115393351B (zh) | 一种基于朗格汉斯细胞判断角膜免疫状态的方法及装置 | |
CN113284136A (zh) | 一种双损失函数训练的残差网络和XGBoost的医学图像分类方法 | |
CN111160431B (zh) | 一种基于多维特征融合的圆锥角膜识别方法及装置 | |
Miao et al. | Classification of Diabetic Retinopathy Based on Multiscale Hybrid Attention Mechanism and Residual Algorithm | |
US11717151B2 (en) | Method for early diagnosis of keratoconus based on multi-modal data | |
CN112806957B (zh) | 一种基于深度学习的圆锥角膜和亚临床圆锥角膜检测系统 | |
CN113902743A (zh) | 一种基于云端计算的糖尿病视网膜病变的识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |