CN113362346B - 基于机器学习双区域轮廓演化模型的视盘和视杯分割方法 - Google Patents

基于机器学习双区域轮廓演化模型的视盘和视杯分割方法 Download PDF

Info

Publication number
CN113362346B
CN113362346B CN202110772630.0A CN202110772630A CN113362346B CN 113362346 B CN113362346 B CN 113362346B CN 202110772630 A CN202110772630 A CN 202110772630A CN 113362346 B CN113362346 B CN 113362346B
Authority
CN
China
Prior art keywords
video
cup
disc
video disc
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110772630.0A
Other languages
English (en)
Other versions
CN113362346A (zh
Inventor
方玲玲
张丽榕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Liaoning Normal University
Original Assignee
Liaoning Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Liaoning Normal University filed Critical Liaoning Normal University
Priority to CN202110772630.0A priority Critical patent/CN113362346B/zh
Publication of CN113362346A publication Critical patent/CN113362346A/zh
Application granted granted Critical
Publication of CN113362346B publication Critical patent/CN113362346B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/155Segmentation; Edge detection involving morphological operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开一种基于机器学习双区域轮廓演化模型的视盘和视杯分割方法,首先对视网膜图像进行了预处理,通过机器学习算法构建了视盘和视杯的边缘引导模型;最后根据边缘引导模型和基于视盘和视杯的强度、区域以及边缘特征构建的能量函数,提出了双区域轮廓演化模型,进而得到视盘和视杯区域。具有如下优点:一是将基于机器学习的分割算法和基于能量泛函模型的分割算法相结合,解决了机器学习方法对标签数据较敏感和能量泛函会陷入局部极小值的问题,得到准确的分割结果;二是在视网膜图像分割中可以同时分割视盘和视杯,有效提高了分割效率。

Description

基于机器学习双区域轮廓演化模型的视盘和视杯分割方法
技术领域
本发明涉及视网膜图像分割领域,尤其是一种基于机器学习双区域轮廓演化模型的视盘和视杯分割方法。
背景技术
青光眼是一种伴有不可逆失明的慢性眼病,很难进行早期诊断。杯盘比是青光眼筛查的一个重要诊断指标,因此对视盘和视杯的分割对青光眼的诊断至关重要。由于视网膜成像设备差异、人体内部结构复杂等因素,在获取视网膜图像时通常会出现灰度分布不均匀、边缘模糊、噪声强度大等特点,现有视盘和视杯的分割方法分为基于形状方法、主动轮廓方法和机器学习(ML)方法。
基于形状方法是使用圆形或椭圆变换来拟合视网膜图像中提取的边缘。BirendraBiswal等人采用平稳小波变换和最大血管像素和算法(SWT-MVPS)对视盘和视杯进行分割。该算法首先创建一个自动感兴趣的区域,然后利用逆极性变换来分割视盘,它可以处理感兴趣区域的水平系数。此外,整个光学杯通过将边缘延伸到鼻侧来提取视杯区域。然而,由于实际的视盘和视杯形状不是圆形或椭圆形的规则,严格的拟合不能满足其原来的结构。
主动轮廓方法利用具有空间图像信息的模糊区域能量来驱动水平集的演化。AsifAzizMemon等人提出了一种基于自适应权重的混合主动轮廓(AWHAC)的异构视盘和视杯分割的主动轮廓模型。该方法通过混合能量泛函结合了视盘和视杯的局部和全局强度,除此之外还可以有效地平滑视盘和视杯的轮廓。但是分割结果很大程度上依赖于初始轮廓的设置,准确性差。
Shuang Yu等人提出了一种机器学习方法分割视盘和视杯。首先,采用多层次的Gabor滤波来提取纹理特征,并采用支持向量机来对视网膜图像进行分割。然而,在视杯区域模糊而且具有较复杂血管结构时,视杯无法准确进行分割。
发明内容
本发明是为了解决现有技术所存在的上述技术问题,提供一种基于机器学习双区域轮廓演化模型的视盘和视杯分割方法。
本发明的技术解决方案是:一种基于机器学习双区域轮廓演化模型的视盘和视杯分割方法,依次按照如下步骤进行:
步骤1:对视网膜图像进行预处理
步骤1.1按照公式(1)提取视网膜图像亮度通道L,
式中,max和min分别为通道R、G和B的最大值和最小值;
步骤1.2:在亮度通道L上进行形态学处理;
步骤1.3:按照公式(2)的高斯核卷积算法对视网膜图像亮度通道L进行处理:
式中:
所述ρ是宽度参数,x和y分别是图像中像素点的水平坐标和垂直坐标,Λ(x,y)是经过形态处理的图像矩阵;n*n是高斯核函数的窗口大小;
步骤2:构造基于机器学习的边缘引导模型
步骤2.1:通过手动标记图像中视盘和视杯中的任意位置,建立参考区域;
步骤2.2:将参考区域定义为训练样本或标签,构造机器学习训练模型得到概率矩阵ω;
步骤2.3:通过概率矩阵ω得到视盘和视杯的近似区域,并按照公式(4)计算对应的概率值:
式中τ代表disc或cup;Kτ表示视盘或视杯的区域,Ktotal表示整幅图像的区域;i,j为所对应图像区域的索引值;
步骤2.4:根据概率值构造模糊决策向量μ如公式(5)所示:
步骤2.5:获得基于模糊决策向量θτ∈[0,1]的边缘引导模型如公式(6)所示:
步骤3:构造分割视盘和视杯的双区域活动轮廓能量函数
步骤3.1:根据视盘和视杯的参考区域建立视盘或视杯的初始轮廓,在初始轮廓所限定的区域内分别提取了视盘和视杯的强度、区域以及边缘三种特征;
步骤3.2:构建视盘或视杯的演化曲线如公式(7)所示:
其中是视盘或视杯的水平集函数,σ是人为设定的时间变量;
步骤3.3:根据提取的视盘或视杯的强度、区域和边缘特征,得到相应的能量函数的定义如下:
其中ξp是通过势函数ξp(κ)=p'(κ)/κ导出;δε是近似的狄拉克函数;α,β,λ是常数;
步骤4.用得到的边缘引导模型θτ(μ)和能量函数Eτ进行演化曲线的控制,得到双区域活动轮廓演化模型如公式(9)所示:
Fτ=θτ(μ)Eτ (9)
通过双区域活动轮廓演化模型Fτ的推动,双区域轮廓开始演化,直至Fτ=0时,演化停止,得到视盘和视杯区域。
本发明首先通过颜色空间转换、形态学操作以及高斯核卷积算法对视网膜图像进行了预处理,通过机器学习算法构建了视盘和视杯的边缘引导模型;最后根据边缘引导模型和基于视盘和视杯的强度、区域以及边缘特征构建的能量函数,提出了双区域轮廓演化模型,进而得到视盘和视杯区域。具有如下优点:一是将基于机器学习的分割算法和基于能量泛函模型的分割算法相结合,解决了机器学习方法对标签数据较敏感和能量泛函会陷入局部极小值的问题,得到准确的分割结果;二是在视网膜图像分割中可以同时分割视盘和视杯,有效提高了分割效率。尤其是能很好地分割模糊且复杂的视网膜图像中的视盘和视杯,同时有效保留视盘和视杯区域的特征信息,为医生进行青光眼诊断的准确性提供了可靠的保障。
附图说明
图1为本发明实施例对视网膜图像进行预处理过程示意图。
图2为本发明实施例的高斯核卷积过程示意图。
图3为本发明实施例对视网膜图像进行视盘和视杯分割过程示意图。
图4为本发明实施例与现有技术对视网膜图像视盘和视杯分割的效果对比图。
图5为本发明实施例与现有技术对视网膜图像视盘和视杯分割的Jaccard、Dice和Accuracy的统计结果图。
具体实施方式
本发明的一种基于机器学习双区域轮廓演化模型的视盘和视杯分割方法,依次按照如下步骤进行:
步骤1:对视网膜图像进行预处理
步骤1.1按照公式(1)提取视网膜图像亮度通道L,
式中,max和min分别为通道R、G和B的最大值和最小值;
步骤1.2:在亮度通道L上进行形态学处理;
步骤1.3:按照公式(2)的高斯核卷积算法对视网膜图像亮度通道L进行处理:
式中:
所述ρ是宽度参数,x和y分别是图像中像素点的水平坐标和垂直坐标,Λ(x,y)是经过形态处理的图像矩阵;n*n是高斯核函数的窗口大小;
对视网膜图像进行预处理过程如图1所示。图1中(a)原始图像;(b)亮度通道L;(c)形态学处理;(d)高斯核卷积处理。
高斯核卷积的过程如图2所示。图2中(a)随机选择像素的形态处理后的图像;(b)对应的矩阵;(c)高斯核卷积窗口;(d)已获得的平滑图像。
步骤2:构造基于机器学习的边缘引导模型
步骤2.1:通过手动标记图像中视盘和视杯中的任意位置,建立参考区域;
步骤2.2:将参考区域定义为训练样本或标签,构造机器学习训练模型得到概率矩阵ω;
步骤2.3:通过概率矩阵ω得到视盘和视杯的近似区域,并按照公式(4)计算对应的概率值:
式中以及下各式中的τ均代表disc(视盘)或cup(视杯);Kτ表示视盘或视杯的区域,Ktotal表示整幅图像的区域;i,j为所对应图像区域的索引值;
步骤2.4:根据概率值构造模糊决策向量μ如公式(5)所示:
步骤2.5:获得基于模糊决策向量θτ∈[0,1]的边缘引导模型如公式(6)所示:
步骤3:构造分割视盘和视杯的双区域活动轮廓能量函数
步骤3.1:根据视盘和视杯的参考区域建立视盘或视杯的初始轮廓,在初始轮廓所限定的区域内分别提取了视盘和视杯的强度、区域以及边缘三种特征;
步骤3.2:构建视盘或视杯的演化曲线如公式(7)所示:
其中是视盘或视杯的水平集函数,σ是人为设定的时间变量;
步骤3.3:根据提取的视盘或视杯的强度、区域和边缘特征,得到相应的能量函数的定义如下:
其中ξp是通过势函数ξp(κ)=p'(κ)/κ导出;δε是近似的狄拉克函数;α,β,λ是常数;
步骤4.用得到的边缘引导模型θτ(μ)和能量函数Eτ进行演化曲线的控制,得到双区域活动轮廓演化模型如公式(9)所示:
Fτ=θτ(μ)Eτ (9)
通过双区域活动轮廓演化模型Fτ的推动,双区域轮廓开始演化,直至Fτ=0时,演化停止,得到视盘和视杯区域。
本发明实施例对视网膜图像进行视盘和视杯分割过程如图3所示。图3中:(a)原始图像;(b)预处理后的图像;(c)参考区域;(d)高斯核卷积轮廓;(e)双区域轮廓演化的初始轮廓;(f)-(g)双区域演化过程;(h)最终分割结果。
本发明与机器学习、FEBAC、AWHAC及SWT-MVPS测试了三个数据集中的6幅典型的视网膜图像,对视网膜图像视盘和视杯分割的效果对比图如图4所示。计算了Jaccard、Dice和Accuracy的平均值,得到的结果如图5及表1所示。
表1不同算法的Jaccard、Dice和Accuracy的平均值统计数据结果
结果表明,本发明能有效保留源图像的特征信息,分割结果明显优于现有技术的其它算法。

Claims (1)

1.一种基于机器学习双区域轮廓演化模型的视盘和视杯分割方法,其特征在于依次按照如下步骤进行:
步骤1:对视网膜图像进行预处理
步骤1.1按照公式(1)提取视网膜图像亮度通道L,
式中,max和min分别为通道R、G和B的最大值和最小值;
步骤1.2:在亮度通道L上进行形态学处理;
步骤1.3:按照公式(2)的高斯核卷积算法对视网膜图像亮度通道L进行处理:
式中:
所述ρ是宽度参数,x和y分别是图像中像素点的水平坐标和垂直坐标,Λ(x,y)是经过形态处理的图像矩阵;n*n是高斯核函数的窗口大小;
步骤2:构造基于机器学习的边缘引导模型
步骤2.1:通过手动标记图像中视盘和视杯中的任意位置,建立参考区域;
步骤2.2:将参考区域定义为训练样本或标签,构造机器学习训练模型得到概率矩阵ω;
步骤2.3:通过概率矩阵ω得到视盘和视杯的近似区域,并按照公式(4)计算对应的概率值:
式中τ代表disc或cup;Kτ表示视盘或视杯的区域,Ktotal表示整幅图像的区域;i,j为所对应图像区域的索引值;
步骤2.4:根据概率值构造模糊决策向量μ如公式(5)所示:
步骤2.5:获得基于模糊决策向量θτ∈[0,1]的边缘引导模型如公式(6)所示:
步骤3:构造分割视盘和视杯的双区域活动轮廓能量函数
步骤3.1:根据视盘和视杯的参考区域建立视盘或视杯的初始轮廓,在初始轮廓所限定的区域内分别提取了视盘和视杯的强度、区域以及边缘三种特征;
步骤3.2:构建视盘或视杯的演化曲线如公式(7)所示:
其中是视盘或视杯的水平集函数,σ是人为设定的时间变量;
步骤3.3:根据提取的视盘或视杯的强度、区域和边缘特征,得到相应的能量函数的定义如下:
其中ξp是通过势函数ξp(κ)=p'(κ)/κ导出;δε是近似的狄拉克函数;α,β,λ是常数;
步骤4.用得到的边缘引导模型θτ(μ)和能量函数Eτ进行演化曲线的控制,得到双区域活动轮廓演化模型如公式(9)所示:
Fτ=θτ(μ)Eτ (9)
通过双区域活动轮廓演化模型Fτ的推动,双区域轮廓开始演化,直至Fτ=0时,演化停止,得到视盘和视杯区域。
CN202110772630.0A 2021-07-08 2021-07-08 基于机器学习双区域轮廓演化模型的视盘和视杯分割方法 Active CN113362346B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110772630.0A CN113362346B (zh) 2021-07-08 2021-07-08 基于机器学习双区域轮廓演化模型的视盘和视杯分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110772630.0A CN113362346B (zh) 2021-07-08 2021-07-08 基于机器学习双区域轮廓演化模型的视盘和视杯分割方法

Publications (2)

Publication Number Publication Date
CN113362346A CN113362346A (zh) 2021-09-07
CN113362346B true CN113362346B (zh) 2023-08-11

Family

ID=77538931

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110772630.0A Active CN113362346B (zh) 2021-07-08 2021-07-08 基于机器学习双区域轮廓演化模型的视盘和视杯分割方法

Country Status (1)

Country Link
CN (1) CN113362346B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116269198B (zh) * 2023-05-11 2023-11-14 深圳市眼科医院(深圳市眼病防治研究所) 基于卷积神经网络的眼球旋转角测量方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292868A (zh) * 2017-05-31 2017-10-24 瑞达昇科技(大连)有限公司 一种视盘定位方法及装置
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法
CN109658423A (zh) * 2018-12-07 2019-04-19 中南大学 一种彩色眼底图的视盘视杯自动分割方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
SG10201407330UA (en) * 2009-11-16 2015-01-29 Agency Science Tech & Res Obtaining data for automatic glaucoma screening, and screening and diagnostic techniques and systems using the data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107292868A (zh) * 2017-05-31 2017-10-24 瑞达昇科技(大连)有限公司 一种视盘定位方法及装置
CN108520522A (zh) * 2017-12-31 2018-09-11 南京航空航天大学 基于深度全卷积神经网络的视网膜眼底图像分割方法
CN109658423A (zh) * 2018-12-07 2019-04-19 中南大学 一种彩色眼底图的视盘视杯自动分割方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于多特征融合的彩色眼底图像视杯分割方法;吴骏;尚丹丹;肖志涛;耿磊;张芳;;天津工业大学学报(第06期);全文 *

Also Published As

Publication number Publication date
CN113362346A (zh) 2021-09-07

Similar Documents

Publication Publication Date Title
Lim et al. Integrated optic disc and cup segmentation with deep learning
Xiong et al. An approach to locate optic disc in retinal images with pathological changes
Esmaeili et al. Automatic detection of exudates and optic disk in retinal images using curvelet transform
Zhu et al. Detection of the optic disc in images of the retina using the Hough transform
CN109829877A (zh) 一种视网膜眼底图像杯盘比自动评估方法
Eadgahi et al. Localization of hard exudates in retinal fundus image by mathematical morphology operations
CN104463140A (zh) 一种彩色眼底图像视盘自动定位方法
CN107480644A (zh) 眼底图像中视盘的定位与分割方法、装置和存储介质
CN106780439B (zh) 一种筛选眼底图像的方法
Xiao et al. Retinal hemorrhage detection by rule-based and machine learning approach
CN107066957A (zh) 可见光眼部图像中的虹膜定位方法和装置
CN106960199B (zh) 一种真彩色眼象图白睛区域的完整提取方法
CN116503422A (zh) 一种基于注意力机制与多尺度特征融合的视杯视盘分割方法
Saleh et al. Automated segmentation of optic disc in fundus images
CN113362346B (zh) 基于机器学习双区域轮廓演化模型的视盘和视杯分割方法
Uribe-Valencia et al. Automated Optic Disc region location from fundus images: Using local multi-level thresholding, best channel selection, and an Intensity Profile Model
Ghassabi et al. A unified optic nerve head and optic cup segmentation using unsupervised neural networks for glaucoma screening
Chakour et al. Blood vessel segmentation of retinal fundus images using dynamic preprocessing and mathematical morphology
CN104573673A (zh) 一种人脸图像年龄的识别方法
Zhou et al. A novel approach for red lesions detection using superpixel multi-feature classification in color fundus images
Frucci et al. Using contrast and directional information for retinal vessels segmentation
Luangruangrong et al. Automatic exudates detection in retinal images using efficient integrated approaches
Soares et al. Exudates dynamic detection in retinal fundus images based on the noise map distribution
Maity et al. Fusion of entropy-based thresholding and active contour model for detection of exudate and optic disc in color fundus images
KR102282334B1 (ko) 시신경 유두 분류 방법

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant