CN112862782A - 一种基于R-Unet的人眼玻璃体混浊程度分级方法 - Google Patents

一种基于R-Unet的人眼玻璃体混浊程度分级方法 Download PDF

Info

Publication number
CN112862782A
CN112862782A CN202110167013.8A CN202110167013A CN112862782A CN 112862782 A CN112862782 A CN 112862782A CN 202110167013 A CN202110167013 A CN 202110167013A CN 112862782 A CN112862782 A CN 112862782A
Authority
CN
China
Prior art keywords
human eye
unet
vitreous
opacity
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110167013.8A
Other languages
English (en)
Inventor
熊红莲
郭学东
曾亚光
韩定安
黄铭斌
许祥丛
覃楚渝
刘明迪
王陆权
梁婷婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan University
Original Assignee
Foshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan University filed Critical Foshan University
Priority to CN202110167013.8A priority Critical patent/CN112862782A/zh
Publication of CN112862782A publication Critical patent/CN112862782A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Geometry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Surgery (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明提供了一种基于R‑Unet的人眼玻璃体混浊程度分级方法,包括如下步骤:采集人眼玻璃体图像;对人眼玻璃体图像进行预处理,并根据预处理后的人眼玻璃体图像获取训练数据集;构建R‑Unet卷积神经网络,利用R‑Unet卷积神经网络对训练集以及验证集进行训练验证以获取R‑Unet卷积神经网络模型;利用R‑Unet卷积神经网络模型对人眼玻璃体图像的混浊灶区域以及腔梯形区域进行分割;计算混浊灶区域与腔梯形区域的面积比例,并根据面积比例对人眼玻璃体混浊程度进行分级。本发明可以自动对人眼玻璃体混浊程度进行分级判断,能够帮助医生快速作出临床诊断与干预,辅助医生作出治疗方案,加快了对玻璃体混浊程度的辨别速度,减少了医生主观因素导致的误诊情况的发生。

Description

一种基于R-Unet的人眼玻璃体混浊程度分级方法
技术领域
本发明涉及医学图像处理技术领域,具体而言,涉及一种基于R-Unet的人眼玻璃体混浊程度分级方法。
背景技术
玻璃体混浊指的是玻璃体呈现丝状、絮状、云片状、尘状、条索状。玻璃体混浊并不是一种独立眼病,而是眼科常见的一种临床症状。严重的玻璃体混浊患者可能会出现牵拉性视网膜脱离等一些严重的并发症,甚至可能导致患者致盲。伴随人口老龄化、青少年屈光不正人数不断增加,出现了玻璃体混浊人数也在不断增加,因此,眼科界越来越重视玻璃体混浊研究与诊断。
目前玻璃体混浊程度诊断方法一般是先通过B超仪器采集患者的超声人眼玻璃体图像,然后医生在超声人眼玻璃体图像的基础上,结合自身医学专业知识和经验对患者玻璃体混浊程度情况进行检测诊断。
此种诊断方法具有一定主观性,依赖于超声医师医学专业知识和经验,容易导致误诊情况的发生。
发明内容
基于此,为了解决现有玻璃体混浊程度诊断方法具有一定主观性,依赖于超声医师医学专业知识和经验,容易导致误诊情况的发生的问题,本发明提供了一种基于R-Unet的人眼玻璃体混浊程度分级方法,其具体技术方案如下:
一种基于R-Unet的人眼玻璃体混浊程度分级方法,包括如下步骤:
采集人眼玻璃体图像;
对所述人眼玻璃体图像进行预处理,并根据预处理后的所述人眼玻璃体图像获取训练数据集,所述训练数据集包括训练集以及验证集;
构建R-Unet卷积神经网络,利用所述R-Unet卷积神经网络对所述训练集以及所述验证集进行训练验证以获取R-Unet卷积神经网络模型;
利用所述R-Unet卷积神经网络模型对人眼玻璃体图像的混浊灶区域以及腔梯形区域进行分割;
计算所述混浊灶区域与所述腔梯形区域的面积比例,并根据所述面积比例对人眼玻璃体混浊程度进行分级。
上述基于R-Unet的人眼玻璃体混浊程度分级方法通过训练好的R-Unet卷积神经网络对人眼玻璃体图像的混浊灶区域以及腔梯形区域进行分割,然后计算混浊灶区域与所述腔梯形区域的面积比例并根据所述面积比例对人眼玻璃体混浊程度进行分级,可以自动对人眼玻璃体混浊程度进行分级判断,能够帮助医生快速作出临床诊断与干预,辅助医生作出治疗方案,加快了对玻璃体混浊程度的辨别速度,减少了医生主观因素导致的误诊情况的发生。
进一步地,对所述人眼玻璃体图像进行预处理的具体方法包括如下步骤:
对所述人眼玻璃体图像进行双边滤波处理;
对双边滤波处理后的所述人眼玻璃体图像进行归一化处理。
进一步地,所述双边滤波的距离模板为
Figure BDA0002935253870000021
所述双边滤波的值域模板为
Figure BDA0002935253870000022
其中,(k,l)为模板窗口的中心坐标,(i,j)为模板窗口的其它系数的坐标,σd以及σr为高斯函数的标准差,f(x,y)表示图像在点(x,y)处的像素值。
进一步地,所述归一化处理为最大最小值归一化处理。
进一步地,在计算所述混浊灶区域与所述腔梯形区域的面积比例前,先对分割出混浊灶区域以及腔梯形区域的人眼玻璃体图像进行后处理。
进一步地,所述后处理的具体方法包括如下步骤:
设定像素阈值;
根据所述像素阈值对所述混浊灶区域以及所述腔梯形区域进行二值化处理;
对二值化处理后的所述混浊灶区域以及所述腔梯形区域进行形态学处理。
进一步地,所述面积比例的公式为X=XH/XT,其中XH为所述混浊灶区域的面积,XT为所述腔梯形区域的面积。
进一步地,所述训练数据集还包括测试集。
进一步地,所述R-Unet卷积神经网络模型包括卷积层、批量归一化层以及池化层。
本发明还提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时实现如上述所述的基于R-Unet的人眼玻璃体混浊程度分级方法。
附图说明
从以下结合附图的描述可以进一步理解本发明。图中的部件不一定按比例绘制,而是将重点放在示出实施例的原理上。在不同的视图中,相同的附图标记指定对应的部分。
图1是本发明一实施例中一种基于R-Unet的人眼玻璃体混浊程度分级方法的整体流程示意图;
图2是本发明一实施例中一种基于R-Unet的人眼玻璃体混浊程度分级方法的人眼玻璃体图像预处理前的效果示意图;
图3是本发明一实施例中一种基于R-Unet的人眼玻璃体混浊程度分级方法的人眼玻璃体图像预处理后的效果示意图;
图4是本发明一实施例中一种基于R-Unet的人眼玻璃体混浊程度分级方法对人眼玻璃体图像的晶状体区域、混浊灶区域以及腔梯形区域的效果示意图;
图5是本发明一实施例中一种基于R-Unet的人眼玻璃体混浊程度分级方法对人眼玻璃体图像的晶状体区域、混浊灶区域以及腔梯形区域进行分割的效果示意图。
具体实施方式
为了使得本发明的目的、技术方案及优点更加清楚明白,以下结合其实施例,对本发明进行进一步详细说明。应当理解的是,此处所描述的具体实施方式仅用以解释本发明,并不限定本发明的保护范围。
需要说明的是,当元件被称为“固定于”另一个元件,它可以直接在另一个元件上或者也可以存在居中的元件。当一个元件被认为是“连接”另一个元件,它可以是直接连接到另一个元件或者可能同时存在居中元件。本文所使用的术语“垂直的”、“水平的”、“左”、“右”以及类似的表述只是为了说明的目的,并不表示是唯一的实施方式。
除非另有定义,本文所使用的所有的技术和科学术语与属于本发明的技术领域的技术人员通常理解的含义相同。本文中在本发明的说明书中所使用的术语只是为了描述具体的实施方式的目的,不是旨在于限制本发明。本文所使用的术语“及/或”包括一个或多个相关的所列项目的任意的和所有的组合。
本发明中所述“第一”、“第二”不代表具体的数量及顺序,仅仅是用于名称的区分。
如图1所示,本发明一实施例中的一种基于R-Unet的人眼玻璃体混浊程度分级方法,包括如下步骤:
采集人眼玻璃体图像;
如图2以及图3所示,对所述人眼玻璃体图像进行预处理,并根据预处理后的所述人眼玻璃体图像获取训练数据集,所述训练集数据集包括训练集以及验证集;
构建R-Unet卷积神经网络,利用所述R-Unet卷积神经网络对所述训练集以及所述验证集进行训练验证以获取R-Unet卷积神经网络模型;
如图5所示,利用所述R-Unet卷积神经网络模型对人眼玻璃体图像的混浊灶区域以及腔梯形区域进行分割;
计算所述混浊灶区域与所述腔梯形区域的面积比例,并根据所述面积比例对人眼玻璃体混浊程度进行分级。
具体而言,利用所述R-Unet卷积神经网络对所述训练集以及所述验证集进行训练验证,而后根据所述训练验证结果来获取R-Unet卷积神经网络模型。
上述基于R-Unet的人眼玻璃体混浊程度分级方法通过R-Unet卷积神经网络模型对人眼玻璃体图像的混浊灶区域以及腔梯形区域进行分割,然后计算混浊灶区域与所述腔梯形区域的面积比例并根据所述面积比例对人眼玻璃体混浊程度进行分级,可以自动对人眼玻璃体混浊程度进行分级判断,能够帮助医生快速作出临床诊断与干预,辅助医生作出治疗方案,加快了对玻璃体混浊程度的辨别速度,减少了医生主观因素导致的误诊情况的发生。
在其中一个实施例中,对所述人眼玻璃体图像进行预处理的具体方法包括如下步骤:
对所述人眼玻璃体图像进行双边滤波处理;
对双边滤波处理后的所述人眼玻璃体图像进行归一化处理。
通过对所述人眼玻璃体图像进行双边滤波处理,能够平滑所述人眼玻璃体图像,减少人眼玻璃体图像的噪声,改善人眼玻璃体图像的质量。
对双边滤波处理后的所述人眼玻璃体图像进行归一化处理,可以统一基本度量单位,简化图像数据的计算量,加快所述R-Unet卷积神经网络模型的学习速度。
即是说,通过对所述人眼玻璃体图像预处理,可以消除所述人眼玻璃体混浊程度分级方法的误差,减轻工作量,提高工作效率。
在其中一个实施例中,对所述人眼玻璃体图像进行预处理的具体方法还包括对人眼玻璃体图像的混浊灶区域以及腔梯形区域进行标注,所述训练数据集中人眼玻璃体图像的像素大小为650×400。
在其中一个实施例中,采用随机下降法更新网络参数,利用所述训练数据集对所述R-Unet卷积神经网络模型进行训练,在迭代预设次数后,获取训练好的所述R-Unet卷积神经网络模型。
在其中一个实施例中,所述双边滤波的滤波器由两个函数构成,两个所述函数分别为定义域核函数,所述双边滤波的距离模板为
Figure BDA0002935253870000071
所述双边滤波的值域模板为
Figure BDA0002935253870000072
将距离模板与值域模板点乘,即可得出所述双边滤波的模板(权重函数):
Figure BDA0002935253870000073
所述双边滤波的输出为
Figure BDA0002935253870000074
其中,(k,l)为模板窗口的中心坐标,(i,j)为模板窗口的其它系数的坐标,σd以及σr为高斯函数的标准差,f(x,y)表示图像在点(x,y)处的像素值。
在其中一个实施例中,所述归一化处理为最大最小值归一化处理,所述最大最小值归一化处理的公式为
Figure BDA0002935253870000075
xi,j表示人眼玻璃体图像的像素点值,min(x)表示人眼玻璃体图像的像素强度最小值,max(x)表示人眼玻璃体图像的像素强度最大值。
在其中一个实施例中,在计算所述混浊灶区域与所述腔梯形区域的面积比例前,先对分割出混浊灶区域以及腔梯形区域的人眼玻璃体图像进行后处理。
在其中一个实施例中,所述后处理的具体方法包括如下步骤:
设定像素阈值;
根据所述像素阈值对所述混浊灶区域以及所述腔梯形区域进行二值化处理,即将所述人眼玻璃体图像的像素分为大于T以及小于T的两部分,并将两部分的像素强度置1和置0;
对二值化处理后的所述混浊灶区域以及所述腔梯形区域进行形态学处理。
具体而言,两部分的像素强度置1和置0的公式为
Figure BDA0002935253870000081
所述形态学处理包括腐蚀、膨胀、开运算以及闭运算。通过对二值化处理后的所述混浊灶区域以及所述腔梯形区域进行形态学处理,能够消除利用因所述R-Unet卷积神经网络模型分割错误而产生的小面积区域,提高所述基于R-Unet的人眼玻璃体混浊程度分级方法对人眼玻璃体图像的混浊灶区域以及腔梯形区域分割的精度。
在其中一个实施例中,所述面积比例的公式为X=XH/XT,其中XH为所述混浊灶区域的面积,XT为所述腔梯形区域的面积。
在其中一个实施例中,所述训练数据集还包括测试集,利用所述测试集对所述R-Unet卷积神经网络模型进行测试。
在其中一个实施例中,所述R-Unet卷积神经网络模型包括卷积层、激活函数、批量归一化层以及池化层。
具体而言,所述人眼玻璃体图像输入到卷积层后,卷积核滑动直至遍历完整张人眼玻璃体图像,并在滑动过程进行卷积核与输入图像对应的感受野区域的计算,以此提取特征。而在不断遍历图像提取特征的过程中,卷积核的权重也在不断通过学习进行变化,以学习真正感兴趣的目标特征。卷积的公式为:
Figure BDA0002935253870000091
其中,h(x)表示完成卷积后的图像,f(t)表示图像矩阵,g(x-t)表示一个翻转的卷积核。图像矩阵和翻转的卷积核对应位置的权重相乘并累加,即f(t)与g(x-t)相乘并将值相加得到卷积结果图h(x)。
在其中一个实施例中,所述激活函数为Relu函数。Relu函数用来加入非线性因素,其能解决线性模型所不能解决的问题,不仅能够提高所述Dense-Unet神经网络对模型的表达能力,计算简单、效率提高,还可以解决模型梯度消失或梯度爆炸的问题。所述Relu函数的表达式为:f=max(0,x)。
在其中一个实施例中,所述池化层为平均池化层,所述平均池化层的运算公式为:
Figure BDA0002935253870000092
其中,m指的是人眼玻璃体图像中特定的方形区域内的像素点个数,xi指的是原始人眼玻璃体图像中第i个像素点的强度值,y指的是池化后人眼玻璃体图像的像素强度值。
具体而言,平均池化的方法为:将人眼玻璃体图像按照预设大小网格进行分割,计算网格内所有像素的平均值,并以所述平均值作为池化后人眼玻璃体图像的像素强度值。
在其中一个实施例中,所述R-Unet卷积神经网络还包括Residual block残差网络。
在其中一个实施例中,对所述人眼玻璃体图像进行预处理的具体方法还包括对人眼玻璃体图像的晶状体区域进行标注,并基于标注好晶状体区域、混浊灶区域以及腔梯形区域的人眼玻璃体图像获取训练数据集,
如图4以及图5所示,通过对晶状体区域进行标注,可以避免出现所述R-Unet卷积神经网络将晶状体区域误认为腔梯形区域而导致混浊灶区域分割错误的问题,提高了所述基于R-Unet的人眼玻璃体混浊程度分级方法的准确率。
在其中一个实施例中,本发明还提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时实现如上述所述的基于R-Unet的人眼玻璃体混浊程度分级方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。

Claims (10)

1.一种基于R-Unet的人眼玻璃体混浊程度分级方法,其特征在于,包括如下步骤:
采集人眼玻璃体图像;
对所述人眼玻璃体图像进行预处理,并根据预处理后的所述人眼玻璃体图像获取训练数据集,所述训练数据集包括训练集以及验证集;
构建R-Unet卷积神经网络,利用所述R-Unet卷积神经网络对所述训练集以及所述验证集进行训练验证以获取R-Unet卷积神经网络模型;
利用所述R-Unet卷积神经网络模型对人眼玻璃体图像的混浊灶区域以及腔梯形区域进行分割;
计算所述混浊灶区域与所述腔梯形区域的面积比例,并根据所述面积比例对人眼玻璃体混浊程度进行分级。
2.如权利要求1所述的一种基于R-Unet的人眼玻璃体混浊程度分级方法,其特征在于,对所述人眼玻璃体图像进行预处理的具体方法包括如下步骤:
对所述人眼玻璃体图像进行双边滤波处理;
对双边滤波处理后的所述人眼玻璃体图像进行归一化处理。
3.如权利要求2所述的一种基于R-Unet的人眼玻璃体混浊程度分级方法,其特征在于,所述双边滤波的距离模板为
Figure FDA0002935253860000011
所述双边滤波的值域模板为
Figure FDA0002935253860000012
其中,(k,l)为模板窗口的中心坐标,(i,j)为模板窗口的其它系数的坐标,σd以及σr为高斯函数的标准差,f(x,y)表示图像在点(x,y)处的像素值。
4.如权利要求3所述的一种基于R-Unet的人眼玻璃体混浊程度分级方法,其特征在于,所述归一化处理为最大最小值归一化处理。
5.如权利要求4所述的一种基于R-Unet的人眼玻璃体混浊程度分级方法,其特征在于,在计算所述混浊灶区域与所述腔梯形区域的面积比例前,先对分割出混浊灶区域以及腔梯形区域的人眼玻璃体图像进行后处理。
6.如权利要求5所述的一种基于R-Unet的人眼玻璃体混浊程度分级方法,其特征在于,所述后处理的具体方法包括如下步骤:
设定像素阈值;
根据所述像素阈值对所述混浊灶区域以及所述腔梯形区域进行二值化处理;
对二值化处理后的所述混浊灶区域以及所述腔梯形区域进行形态学处理。
7.如权利要求6所述的一种基于R-Unet的人眼玻璃体混浊程度分级方法,其特征在于,所述面积比例的公式为X=XH/XT,其中XH为所述混浊灶区域的面积,XT为所述腔梯形区域的面积。
8.如权利要求7所述的一种基于R-Unet的人眼玻璃体混浊程度分级方法,其特征在于,所述训练数据集还包括测试集。
9.如权利要求8所述的一种基于R-Unet的人眼玻璃体混浊程度分级方法,其特征在于,所述R-Unet卷积神经网络模型包括卷积层、批量归一化层以及池化层。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,当所述计算机程序被处理器执行时实现如上述权利要求1至9中任意一项所述的基于R-Unet的人眼玻璃体混浊程度分级方法。
CN202110167013.8A 2021-02-05 2021-02-05 一种基于R-Unet的人眼玻璃体混浊程度分级方法 Pending CN112862782A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110167013.8A CN112862782A (zh) 2021-02-05 2021-02-05 一种基于R-Unet的人眼玻璃体混浊程度分级方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110167013.8A CN112862782A (zh) 2021-02-05 2021-02-05 一种基于R-Unet的人眼玻璃体混浊程度分级方法

Publications (1)

Publication Number Publication Date
CN112862782A true CN112862782A (zh) 2021-05-28

Family

ID=75988857

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110167013.8A Pending CN112862782A (zh) 2021-02-05 2021-02-05 一种基于R-Unet的人眼玻璃体混浊程度分级方法

Country Status (1)

Country Link
CN (1) CN112862782A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024013681A1 (en) * 2022-07-13 2024-01-18 Alcon Inc. Machine learning to assess the clinical significance of vitreous floaters

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170065173A1 (en) * 2014-05-07 2017-03-09 Edwin Ryan Device and method to quantify vitreous opacity impairment
CN109961848A (zh) * 2019-04-02 2019-07-02 上海鹰瞳医疗科技有限公司 黄斑图像分类方法和设备
CN110428421A (zh) * 2019-04-02 2019-11-08 上海鹰瞳医疗科技有限公司 黄斑图像区域分割方法和设备
CN111986211A (zh) * 2020-08-14 2020-11-24 武汉大学 一种基于深度学习的眼科超声自动筛查方法及系统
CN112233087A (zh) * 2020-10-14 2021-01-15 武汉楚精灵医疗科技有限公司 一种基于人工智能的眼科超声疾病诊断方法和系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170065173A1 (en) * 2014-05-07 2017-03-09 Edwin Ryan Device and method to quantify vitreous opacity impairment
CN109961848A (zh) * 2019-04-02 2019-07-02 上海鹰瞳医疗科技有限公司 黄斑图像分类方法和设备
CN110428421A (zh) * 2019-04-02 2019-11-08 上海鹰瞳医疗科技有限公司 黄斑图像区域分割方法和设备
CN111986211A (zh) * 2020-08-14 2020-11-24 武汉大学 一种基于深度学习的眼科超声自动筛查方法及系统
CN112233087A (zh) * 2020-10-14 2021-01-15 武汉楚精灵医疗科技有限公司 一种基于人工智能的眼科超声疾病诊断方法和系统

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MD ZAHANGIR ALOM等: "Recurrent residual U-Net for medical image segmentation", 《JOURNAL OF MEDICAL IMAGING》 *
S.HAGAGG等: "A CNN-BASED FRAMEWORK FOR AUTOMATIC VITREOUS SEGEMNTATION FROM OCT IMAGES", 《2019 IEEE INTERNATIONAL CONFERENCE ON IMAGING SYSTEMS AND TECHNIQUES(IST)》 *
YUKUN GUO等: "Development and validation of a deep learning algorithm for distinguishing the nonperfusion area from signal reduction artifacts on OCT angiography", 《BIOMEDICAL OPTICS EXPRESS》 *
曾锟等: "基于U-Net神经网络眼底图像的视盘分割研究", 《仪器仪表用户》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024013681A1 (en) * 2022-07-13 2024-01-18 Alcon Inc. Machine learning to assess the clinical significance of vitreous floaters

Similar Documents

Publication Publication Date Title
CN110399929B (zh) 眼底图像分类方法、装置以及计算机可读存储介质
Kumar et al. An automated early diabetic retinopathy detection through improved blood vessel and optic disc segmentation
CN110010219B (zh) 光学相干层析图像视网膜病变智能检测系统及检测方法
Dey et al. FCM based blood vessel segmentation method for retinal images
CN112883962B (zh) 眼底图像识别方法、装置、设备、存储介质以及程序产品
CN111986211A (zh) 一种基于深度学习的眼科超声自动筛查方法及系统
CN106886991A (zh) 一种基于彩色眼底图的模糊度自动分级方法
CN111079620A (zh) 基于迁移学习的白细胞图像检测识别模型构建方法及应用
Sharma et al. Machine learning approach for detection of diabetic retinopathy with improved pre-processing
Naz et al. Automated segmentation of RPE layer for the detection of age macular degeneration using OCT images
Sikder et al. Early blindness detection based on retinal images using ensemble learning
Chaudhary et al. Detection of diabetic retinopathy using machine learning algorithm
Sheeba et al. Glaucoma detection using artificial neural network
CN117764957A (zh) 基于人工神经网络的青光眼图像特征提取的训练系统
Choudhary et al. ANN glaucoma detection using cup-to-disk ratio and neuroretinal rim
CN112862782A (zh) 一种基于R-Unet的人眼玻璃体混浊程度分级方法
Dhakal et al. Detection and classification of diabetic retinopathy using adaptive boosting and artificial neural network
Gou et al. A novel retinal vessel extraction method based on dynamic scales allocation
Jadhav et al. Detection of blood vessels in retinal images for diagnosis of diabetics
Niranjana et al. Resourceful Retinal Vessel segmentation for Early Exposure of Vision Threatening Diseases
US20230135258A1 (en) Prediction of geographic-atrophy progression using segmentation and feature evaluation
Kazi et al. Processing retinal images to discover diseases
Mathias et al. Categorization of Diabetic Retinopathy and Identification of Characteristics to Assist Effective Diagnosis
Saranya et al. Detection of exudates from retinal images for non-proliferative diabetic retinopathy detection using deep learning model
Joans Identification and classification of eye disease using deep learning

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20210528

RJ01 Rejection of invention patent application after publication