CN113537298A - 一种视网膜图像分类方法及装置 - Google Patents

一种视网膜图像分类方法及装置 Download PDF

Info

Publication number
CN113537298A
CN113537298A CN202110697599.9A CN202110697599A CN113537298A CN 113537298 A CN113537298 A CN 113537298A CN 202110697599 A CN202110697599 A CN 202110697599A CN 113537298 A CN113537298 A CN 113537298A
Authority
CN
China
Prior art keywords
image
blood vessel
gray
retina
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110697599.9A
Other languages
English (en)
Inventor
杨小红
彭庆晟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong General Hospital
Original Assignee
Guangdong General Hospital
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong General Hospital filed Critical Guangdong General Hospital
Priority to CN202110697599.9A priority Critical patent/CN113537298A/zh
Publication of CN113537298A publication Critical patent/CN113537298A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种视网膜图像分类方法及装置,所述方法包括:先根据视网膜图像得到视网膜灰度图;再将所述视网膜灰度图输入至血管分割模型中,以使所述血管分割模型从所述视网膜灰度图中提取中间层特征图,并将所述中间层特征图进行池化操作后得到血管特征向量;最后将所述血管特征向量输入到逻辑回归分类器模型中,输出得到所述视网膜图像的分类结果。采用本发明实施例能避免无关生物特征的影响,提高了视网膜图像的分类准确度和精度。

Description

一种视网膜图像分类方法及装置
技术领域
本发明图像处理技术领域,尤其涉及一种视网膜图像分类方法及装置。
背景技术
在利用视网膜图像进行分类预测的研究中,例如利用视网膜图像对心血管手术指标的风险分类和心脏病严重性分类预测等,由于视网膜图像中有效的特征区域仅为血管,而其他视网膜图像中血管以外如视盘、色素、微动脉瘤等无效生物标记无疑加大模型的学习难度,因此通过单个模型对视网膜图像进行分类后所得到的分类结果的精度和准确度都不高。
发明内容
本发明实施例提供一种视网膜图像分类方法及装置,避免了无关生物特征的影响,提高了视网膜图像的分类准确度和精度。
本申请实施例的第一方面提供了一种视网膜图像分类方法,包括:
根据视网膜图像得到视网膜灰度图;
将视网膜灰度图输入至血管分割模型中,以使血管分割模型从视网膜灰度图中提取中间层特征图,并将中间层特征图进行池化操作后得到血管特征向量;
将血管特征向量输入到逻辑回归分类器模型中,输出得到视网膜图像的分类结果。
在第一方面的一种可能的实现方式中,血管分割模型的训练方法,具体为:
从训练数据集中获取第一图片,将第一图片上的黑边进行掩膜处理以提取最大矩形的感兴趣区域后,进行灰度化处理得到第二图片;其中,训练数据集为视网膜图像的集合;
将第二图片的分辨率设置为预设分辨率后,进行数据增强处理得到第三图片;
将第三图片作为样本图片输入神经网络模型中进行训练,以得到血管分割模型。
在第一方面的一种可能的实现方式中,根据视网膜图像得到视网膜灰度图,具体为:
将视网膜图像进行灰度处理,得到第一灰度图;
将第一灰度图分割成多个子图像,并对多个子图像进行直方图均衡化处理后,进行拼接得到视网膜灰度图。
在第一方面的一种可能的实现方式中,还包括:
根据中间层特征图,得到血管灰度图;
根据逻辑回归分类器模型的特征系数得到类别激活映射图;
将类别激活映射图的尺寸设置为预设尺寸后得到第一热度图;
将血管灰度图作为掩膜叠加在所述第一热度图上,得到第二热度图。
在第一方面的一种可能的实现方式中,根据中间层特征图,得到血管灰度图,具体为:
根据中间层特征图,得到第二灰度图;
将第二灰度图进行二值化处理,得到血管二值图;
根据血管二值图获取血管连通域的不合格像素点,将不合格像素点进行过滤后得到血管灰度图。
本申请实施例的第二方面提供了一种视网膜图像分类装置,包括:第一获取模块、第二获取模块和分类模块;
其中,第一获取模块用于根据视网膜图像得到视网膜灰度图;
第二获取模块用于将视网膜灰度图输入至血管分割模型中,以使血管分割模型从视网膜灰度图中提取中间层特征图,并将中间层特征图进行池化操作后得到血管特征向量;
分类模块用于将血管特征向量输入到逻辑回归分类器模型中,输出得到视网膜图像的分类结果。
在第二方面的一种可能的实现方式中,血管分割模型的训练方法,具体为:
从训练数据集中获取第一图片,将第一图片上的黑边进行掩膜处理以提取最大矩形的感兴趣区域后,进行灰度化处理得到第二图片;其中,训练数据集为视网膜图像的集合;
将第二图片的分辨率设置为预设分辨率后,进行数据增强处理得到第三图片;
将第三图片作为样本图片输入神经网络模型中进行训练,以得到血管分割模型。
在第二方面的一种可能的实现方式中,根据视网膜图像得到视网膜灰度图,具体为:
将视网膜图像进行灰度处理,得到第一灰度图;
将第一灰度图分割成多个子图像,并对多个子图像进行直方图均衡化处理后,进行拼接得到视网膜灰度图。
在第二方面的一种可能的实现方式中,还包括:热度生成模块;
热度生产模块用于根据中间层特征图,得到血管灰度图;根据逻辑回归分类器模型的特征系数得到类别激活映射图;将类别激活映射图的尺寸设置为预设尺寸后得到第一热度图;将血管灰度图作为掩膜叠加在所述第一热度图上,得到第二热度图。
在第二方面的一种可能的实现方式中,根据中间层特征图,得到血管灰度图,具体为:
根据中间层特征图,得到第二灰度图;
将第二灰度图进行二值化处理,得到血管二值图;
根据血管二值图获取血管连通域的不合格像素点,将不合格像素点进行过滤后得到血管灰度图。
相比于现有技术,本发明实施例提供的一种视网膜图像分类方法及装置,本发明实施例的分类方法,先根据视网膜图像得到视网膜灰度图;再将所述视网膜灰度图输入至血管分割模型中,以使所述血管分割模型从所述视网膜灰度图中提取中间层特征图,并将所述中间层特征图进行池化操作后得到血管特征向量;最后将所述血管特征向量输入到逻辑回归分类器模型中,输出得到所述视网膜图像的分类结果。上述方法通过两个模型的结合使用来进行对视网膜图像的分类,具体为:在根据视网膜图像得到视网膜灰度图后、通过血管分割模型提取了视网膜灰度图中的血管特征向量,由于血管特征向量中仅包括血管特征、而不包括其他无关生物特征,于是将血管特征向量输入至逻辑回归分类器模型中,能够有效地使逻辑回归分类器模型只关注视网膜图像中的有效特征区域——血管特征,从而在分类过程中避免了无关生物特征的影响,提高了视网膜图像的分类准确度和精度。
其次,由于视网膜灰度图是通过直方图均衡化处理后生成的,能够增强血管的清晰度且能够减小不同图像之间的曝光度的差异性,有利于分割模型根据视网膜灰度图提取血管特征向量。
再者,血管分割模型不仅能够提取视网膜灰度图中的特征向量后进行视网膜图像的分类,还能用于在提取视网膜灰度图中的血管灰度图后,结合逻辑回归分类器模型的特征系数生成具有像素级别细粒度的热度图,极大提高算法的可解释性。其中,所述具有像素级别细粒度的热度图能够使医务人员直接得到视网膜图像中血管特征的重要性。医生通过观察血管分割模型生成的血管灰度图则能了解系统学习到的特征的好坏情况,极大地增强血管分割模型的可解释性。
最后,血管分割模型是使用公开的血管分割数据集进行训练后形成的,通过使用公开的血管分割数据集能够节约大量人工标注的人力成本。
附图说明
图1是本发明一实施例提供的一种视网膜图像分类方法的流程示意图;
图2是本发明一实施例提供的血管分割模型的训练方法的流程示意图;
图3是本发明一实施例提供的一种视网膜热度图生成方法的流程示意图;
图4是本发明一实施例提供的第一视网膜热度图效果示意图;
图5是本发明一实施例提供的第二视网膜热度图效果示意图;
图6是本发明一实施例提供的第三视网膜热度图效果示意图;
图7是本发明一实施例提供的第四视网膜热度图效果示意图;
图8是本发明一实施例提供的第五视网膜热度图效果示意图;
图9是本发明一实施例提供的第六视网膜热度图效果示意图;
图10是本发明一实施例提供的第七视网膜热度图效果示意图;
图11是本发明一实施例提供的第八视网膜热度图效果示意图;
图12是本发明一实施例提供的血管灰度图的效果示意图;
图13是本发明一实施例提供的一种视网膜图像分类装置的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参照图1,图1是本发明一实施例提供的一种视网膜图像分类方法的流程示意图,包括:
S101:根据视网膜图像得到视网膜灰度图。
其中,所述视网膜图像为RGB图像。
S102:将视网膜灰度图输入至血管分割模型中,以使血管分割模型从视网膜灰度图中提取中间层特征图,并将中间层特征图进行池化操作后得到血管特征向量。
在本实施例中,所述中间层特征图是通过血管分割模型前面多层卷积层和激活层所计算得到的,所述中间层特征图包含了血管的特征信息,不仅能够用于生成血管特征向量,还能够用于生成血管灰度图。其中,所述血管特征向量仅包括血管特征。
在本实施例中,所述将中间层特征图进行池化操作后得到血管特征向量,可由以下公式表示:
Figure BDA0003128468420000061
其中,fk(x,y)表示第k个中间层特征图,N为中间层特征图的像素总数,Fk为第k个中间层特征图经过全局平均池化后的全局特征表示,即所述血管特征向量。
其中,所述血管分割模型为具有编码器-解码器的U型网络结构的血管分割模型。
S103:将血管特征向量输入到逻辑回归分类器模型中,输出得到视网膜图像的分类结果。
在本实施例中,所述根据视网膜图像得到视网膜灰度图,具体为:将所述视网膜图像进行灰度处理,得到第一灰度图;将所述第一灰度图分割成多个子图像,并对多个所述子图像进行直方图均衡化处理后,进行拼接得到所述视网膜灰度图。
在一具体实施例中,用预设尺寸的窗口对第一灰度图进行分割,得到多个子图像后,对每个所述子图像进行直方图均衡化处理,得到多个灰度直方图,可由下述公式进行表示:
Figure BDA0003128468420000062
Figure BDA0003128468420000063
h(k)=nk k=0,1,…,L-1
其中,sk表示原灰度值k归一化后的灰度级,其值在0到1之间;ni是子图像中灰度级为i的像素的个数;N表示子图像中像素的总数;nk是子图像中灰度级为k的像素个数;Pr(k)为灰度级为k的像素的出现频率;h(k)为各灰度级子图像的个数的集合。
将归一化后的灰度图与原灰度级范围相乘,得到直方图均衡化后的子图像后,将直方图均衡化后的子图像按照原位置进行拼接得到视网膜灰度图。
上述处理能够使第一灰度图的对比度增强,解决了视网膜图像中的血管不清晰以及图像之间曝光度不一致等问题,有利于分割模型提取中间层特征图。
为了进一步说明血管分割模型的训练过程,请参照图2,图2为本发明一实施例提供的血管分割模型的训练方法,包括:
S201:从训练数据集中获取第一图片,将第一图片上的黑边进行掩膜处理以提取最大矩形的感兴趣区域后,进行灰度化处理得到第二图片。
其中,所述训练数据集为视网膜图像的集合。
S202:将第二图片的分辨率设置为预设分辨率后,进行数据增强处理得到第三图片。
S203:将第三图片作为样本图片输入神经网络模型中进行训练,以得到血管分割模型。
在本实施例中,所述训练数据集包括:HRF数据集,DRIVE数据集和STARE数据集。由于HRF数据集,DRIVE数据集和STARE数据集这三个公开的血管分割数据集只用于模型的训练,因此重新对训练数据集进行整理与划分,优选地,分别从STARE数据集随机选出18张视网膜图像、从DRIVE数据集中选出36张视网膜图、从HRF数据集随机选出40张视网膜图像后,组合作为训练数据集。
由于训练数据集中的视网膜图像存在黑边,所以从训练数据集中获取第一图片后需要对其黑边进行掩膜处理以提取最大矩形的感兴趣区域。然后对第一图片进行灰度化处理后,得到第二图片。由于第二图片都是经过灰度化处理而生成的,所以能够降低由于第一图片来自不同数据集而产生的差异性。
将第二图片的分辨率设置为预设分辨率,具体可以为:将第二图片统一缩放为256*256个像素的分辨率。通过统一第二图片的的分辨率,能够进一步降低不同数据集的图片之间的差异性。
对设置好分辨率的第二图片进行数据增强处理得到第三图片,具体为:对设置好分辨率的第二图片进行旋转、平移等数据增强处理得到第三图片,以增加训练样本的多样性。
最后将所述第三图片输入神经网络模型中进行训练,便得到所述血管分割模型。其中,所述神经网络模型为U型结构和残差结构的神经网络模型(ResUnet神经网络模型)。
为了进一步介绍血管分割模型的作用,请参照图3,图3是本发明一实施例提供的一种视网膜热度图生成方法的流程示意图,包括:
S301:将视网膜灰度图输入至血管分割模型中,以使血管分割模型从视网膜灰度图中提取中间层特征图。
S302:根据中间层特征图,得到血管灰度图。
在一具体实施例中,所述根据中间层特征图,得到血管灰度图,具体为:
根据所述中间层特征图,得到第二灰度图;将所述第二灰度图进行二值化处理,得到血管二值图;根据所述血管二值图获取血管连通域的不合格像素点,将所述不合格像素点进行过滤后得到所述血管灰度图。
在一具体实施例中,由于血管二值图有很好的血管完整性,先寻找血管上所有的连通域并对所在同一连通域的像素点进行标注,然后遍历每个连通域并记录连通域的总像素点数量,最后设置阈值记录下连通域过小的像素位置,通过上述方法能够在血管二值图上把标记为连通域过小的像素点过滤掉,从而生成精度高的血管灰度图。
S303:根据逻辑回归分类器模型的特征系数得到类别激活映射图。
在一具体实施例中,所述逻辑回归分类器模型的特征系数得到类别激活映射图,可由下述公式表示:
Figure BDA0003128468420000081
其中,fk(x,y)表示第k个中间层特征图;
Figure BDA0003128468420000082
表示第k个中间层特征图对于类别c的贡献程度,即所述逻辑回归分类器模型的特征系数;Mc(x,y)表示通过多个中间层特征图加权叠加后生成的类别激活映射图。
所述逻辑回归分类器模型的特征系数可表示为对应特征的权重值,而每个特征可映射到视网膜图像中对应的子区域,为后续生成热度图提供更直观的依据。
S304:将类别激活映射图的尺寸设置为预设尺寸后得到第一热度图。
在本实施例中,所述第一热度图为区域级别的注意力热度图。所述第一热度图能反馈视网膜图像中对分类有作用的位置区域,但未能具体定位到像素级别的精度。
S305:将血管灰度图作为掩膜叠加在第一热度图上,得到第二热度图。
在本实施例中,由于将血管灰度图作为掩膜叠加在区域级别的注意力热度图上,得到第二热度图,并使所述第二热度图只关注视网膜图像中的血管像素信息,于是所述第二热度图为具有像素级别细粒度的注意力热度图。
由上述可得,血管分割模型不仅能够提取视网膜灰度图中的特征向量后进行视网膜图像的分类,还能用于在提取视网膜灰度图中的血管灰度图后,结合逻辑回归分类器模型的特征系数生成具有像素级别细粒度的热度图。
为了进一步说明具有像素级别细粒度的注意力热度图的效果,请参照图4至图11,图4至图11分别是本发明一实施例提供的第一视网膜热度图效果示意图至第八视网膜热度图效果示意图。
其中,图4至图11的左半边图片均是视网膜灰度图、右半边图片均是所述视网膜灰度图相应的具有像素级别细粒度的视网膜热度图。由图4至图11的左半边图片可得,所述视网膜灰度图的血管分布各异、血管姿态具备多样性,而且血管特征不清晰、具有大量的无效生物标记;由图4至图11的右半边图片可得,视网膜热度图的血管特征清晰、具不存在除了血管之外的无效生物标记。
由此可得,本发明实施例提供的视网膜热度图生成方法所生成的视网膜热度图,是具备像素级别细粒度的,以使医生在查看视网膜热度图时能够直观地关注到血管特征以及血管特征的重要性,而避免了无关标记对医生观察血管特征的干扰。就比如在图4至图11的右半边图片中,当视网膜热度图为灰度图时,医生可以根据血管区域内的亮度分布判断血管特征的重要性:亮度越高代表注意力越高、重要性就越大;当视网膜热度图为彩色图时,医生可以根据血管区域内的不同颜色的分布情况判断血管特征的重要性,该判断流程为本领域常用技术手段,在此便不再赘述。
此外,由图4至图11的左半边图片可得,作为输入的视网膜灰度图的血管分布各异、血管姿态具备多样性;但由图4至图11的右半边图片可得,作为输出的视网膜热度图均为具有像素级别细粒度的热度图,即均具备同一水准的质量和效果,证明了本发明实施例提供的视网膜热度图生成方法具备很高的稳定性和准确性,无论输入的视网膜灰度图中血管的分布和姿态如何,都能排除无关生物标记的干扰,输出像素级别细粒度的热度图。
为了进一步说明血管灰度图的效果,请参照图12,图12是本发明一实施例提供的血管灰度图的效果示意图。
图12中,从左到右分别是视网膜图像、第二灰度图和血管灰度图。由图12可得,对第二灰度图进行二值化处理后,再将不合格像素点进行过滤后才得到所述血管灰度图,所以血管灰度图的精度很高,血管分布清晰,没有其他无关的生物标记。
为了进一步说明视网膜图像分类装置,请参照图13,图13是本发明一实施例提供的一种视网膜图像分类装置的结构示意图,包括:第一获取模块501、第二获取模块502和分类模块503。
其中,所述第一获取模块501根据视网膜图像得到视网膜灰度图。
在本实施例中,所述根据视网膜图像得到视网膜灰度图,具体为:将所述视网膜图像进行灰度处理,得到第一灰度图;将所述第一灰度图分割成多个子图像,并对多个所述子图像进行直方图均衡化处理后,进行拼接得到所述视网膜灰度图。
所述第二获取模块502用于将所述视网膜灰度图输入至血管分割模型中,以使所述血管分割模型从所述视网膜灰度图中提取中间层特征图,并将所述中间层特征图进行池化操作后得到血管特征向量。
所述分类模块503用于将所述血管特征向量输入到逻辑回归分类器模型中,输出得到所述视网膜图像的分类结果。
具体地,所述血管分割模型的训练方法,具体为:
从训练数据集中获取第一图片,将所述第一图片上的黑边进行掩膜处理以提取最大矩形的感兴趣区域后,进行灰度化处理得到第二图片;其中,所述训练数据集为视网膜图像的集合;
将所述第二图片的分辨率设置为预设分辨率后,进行数据增强处理得到第三图片;
将所述第三图片作为样本图片输入神经网络模型中进行训练,以得到所述血管分割模型。
在一具体实施例中,所述视网膜图像分类装置还包括热度图生成模块,所述热度图生成模块用于根据所述中间层特征图,得到血管灰度图;根据所述逻辑回归分类器模型的特征系数得到类别激活映射图;将所述类别激活映射图的尺寸设置为预设尺寸后得到第一热度图;将所述血管灰度图作为掩膜叠加在所述第一热度图上,得到第二热度图。
在一具体实施例中,所述根据所述中间层特征图,得到血管灰度图,具体为:根据所述中间层特征图,得到第二灰度图;将所述第二灰度图进行二值化处理,得到血管二值图;根据所述血管二值图获取血管连通域的不合格像素点,将所述不合格像素点进行过滤后得到所述血管灰度图。
本发明实施例先通过第一获取模块501根据视网膜图像得到视网膜灰度图;再通过第二获取模块502将所述视网膜灰度图输入至血管分割模型中,以使所述血管分割模型从所述视网膜灰度图中提取中间层特征图,并将所述中间层特征图进行池化操作后得到血管特征向量;最后通过分类模块503将所述血管特征向量输入到逻辑回归分类器模型中,输出得到所述视网膜图像的分类结果。
本发明实施例通过两个模型的结合使用来进行对视网膜图像的分类,具体为:在根据视网膜图像得到视网膜灰度图后、通过血管分割模型提取了视网膜灰度图中的血管特征向量,由于血管特征向量中仅包括血管特征、而不包括其他无关生物特征,于是将血管特征向量输入至逻辑回归分类器模型中,能够有效地使逻辑回归分类器模型只关注视网膜图像中的有效特征区域——血管特征,从而在分类过程中避免了无关生物特征的影响,提高了视网膜图像的分类准确度和精度。
其次,由于视网膜灰度图是通过直方图均衡化处理后生成的,能够增强血管的清晰度且能够减小不同图像之间的曝光度的差异性,有利于分割模型根据视网膜灰度图提取血管特征向量。
再者,血管分割模型不仅能够提取视网膜灰度图中的特征向量后进行视网膜图像的分类,还能用于在提取视网膜灰度图中的血管灰度图后,结合逻辑回归分类器模型的特征系数生成具有像素级别细粒度的热度图,极大提高算法的可解释性。其中,所述具有像素级别细粒度的热度图能够使医务人员直接得到视网膜图像中血管特征的重要性。医生通过观察血管分割模型生成的血管灰度图则能了解系统学习到的特征的好坏情况,极大地增强血管分割模型的可解释性。
最后,通过公开的血管分割数据集对血管分割模型进行训练,能够节约大量人工标注的人力成本。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (10)

1.一种视网膜图像分类方法,其特征在于,包括:
根据视网膜图像得到视网膜灰度图;
将所述视网膜灰度图输入至血管分割模型中,以使所述血管分割模型从所述视网膜灰度图中提取中间层特征图,并将所述中间层特征图进行池化操作后得到血管特征向量;
将所述血管特征向量输入到逻辑回归分类器模型中,输出得到所述视网膜图像的分类结果。
2.根据权利要求1所述的一种视网膜图像分类方法,其特征在于,所述血管分割模型的训练方法,具体为:
从训练数据集中获取第一图片,将所述第一图片上的黑边进行掩膜处理以提取最大矩形的感兴趣区域后,进行灰度化处理得到第二图片;其中,所述训练数据集为视网膜图像的集合;
将所述第二图片的分辨率设置为预设分辨率后,进行数据增强处理得到第三图片;
将所述第三图片作为样本图片输入神经网络模型中进行训练,以得到所述血管分割模型。
3.根据权利要求2所述的一种视网膜图像分类方法,其特征在于,所述根据视网膜图像得到视网膜灰度图,具体为:
将所述视网膜图像进行灰度处理,得到第一灰度图;
将所述第一灰度图分割成多个子图像,并对多个所述子图像进行直方图均衡化处理后,进行拼接得到所述视网膜灰度图。
4.根据权利要求1-3中任意一项所述的一种视网膜图像分类方法,还包括:
根据所述中间层特征图,得到血管灰度图;
根据所述逻辑回归分类器模型的特征系数得到类别激活映射图;
将所述类别激活映射图的尺寸设置为预设尺寸后得到第一热度图;
将所述血管灰度图作为掩膜叠加在所述第一热度图上,得到第二热度图。
5.根据权利要求4所述的一种视网膜图像分类方法,其特征在于,所述根据所述中间层特征图,得到血管灰度图,具体为:
根据所述中间层特征图,得到第二灰度图;
将所述第二灰度图进行二值化处理,得到血管二值图;
根据所述血管二值图获取血管连通域的不合格像素点,将所述不合格像素点进行过滤后得到所述血管灰度图。
6.一种视网膜图像分类装置,其特征在于,包括:第一获取模块、第二获取模块和分类模块;
其中,所述第一获取模块根据视网膜图像得到视网膜灰度图;
所述第二获取模块用于将所述视网膜灰度图输入至血管分割模型中,以使所述血管分割模型从所述视网膜灰度图中提取中间层特征图,并将所述中间层特征图进行池化操作后得到血管特征向量;
所述分类模块用于将所述血管特征向量输入到逻辑回归分类器模型中,输出得到所述视网膜图像的分类结果。
7.根据权利要求6所述的一种视网膜图像分类装置,其特征在于,所述血管分割模型的训练方法,具体为:
从训练数据集中获取第一图片,将所述第一图片上的黑边进行掩膜处理以提取最大矩形的感兴趣区域后,进行灰度化处理得到第二图片;其中,所述训练数据集为视网膜图像的集合;
将所述第二图片的分辨率设置为预设分辨率后,进行数据增强处理得到第三图片;
将所述第三图片作为样本图片输入神经网络模型中进行训练,以得到所述血管分割模型。
8.根据权利要求7所述的一种视网膜图像分类装置,其特征在于,所述根据视网膜图像得到视网膜灰度图,具体为:
将所述视网膜图像进行灰度处理,得到第一灰度图;
将所述第一灰度图分割成多个子图像,并对多个所述子图像进行直方图均衡化处理后,进行拼接得到所述视网膜灰度图。
9.根据权利要求6-8中任意一项所述的一种视网膜图像分类装置,还包括:热度图生成模块;
所述热度图生成模块用于根据所述中间层特征图,得到血管灰度图;根据所述逻辑回归分类器模型的特征系数得到类别激活映射图;将所述类别激活映射图的尺寸设置为预设尺寸后得到第一热度图;将所述血管灰度图作为掩膜叠加在所述第一热度图上,得到第二热度图。
10.根据权利要求9所述的一种视网膜图像分类装置,其特征在于,所述根据所述中间层特征图,得到血管灰度图,具体为:
根据所述中间层特征图,得到第二灰度图;
将所述第二灰度图进行二值化处理,得到血管二值图;
根据所述血管二值图获取血管连通域的不合格像素点,将所述不合格像素点进行过滤后得到所述血管灰度图。
CN202110697599.9A 2021-06-23 2021-06-23 一种视网膜图像分类方法及装置 Pending CN113537298A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110697599.9A CN113537298A (zh) 2021-06-23 2021-06-23 一种视网膜图像分类方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110697599.9A CN113537298A (zh) 2021-06-23 2021-06-23 一种视网膜图像分类方法及装置

Publications (1)

Publication Number Publication Date
CN113537298A true CN113537298A (zh) 2021-10-22

Family

ID=78125644

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110697599.9A Pending CN113537298A (zh) 2021-06-23 2021-06-23 一种视网膜图像分类方法及装置

Country Status (1)

Country Link
CN (1) CN113537298A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615051A (zh) * 2018-04-13 2018-10-02 博众精工科技股份有限公司 基于深度学习的糖尿病视网膜图像分类方法及系统
CN109635862A (zh) * 2018-12-05 2019-04-16 合肥奥比斯科技有限公司 早产儿视网膜病plus病变分类方法
CN110276356A (zh) * 2019-06-18 2019-09-24 南京邮电大学 基于r-cnn的眼底图像微动脉瘤识别方法
CN111489328A (zh) * 2020-03-06 2020-08-04 浙江工业大学 一种基于血管分割和背景分离的眼底图像质量评价方法
CN111968107A (zh) * 2020-08-31 2020-11-20 合肥奥比斯科技有限公司 基于不确定度的早产儿视网膜病plus病变分类系统
CN113011340A (zh) * 2021-03-22 2021-06-22 华南理工大学 一种基于视网膜图像的心血管手术指标风险分类方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615051A (zh) * 2018-04-13 2018-10-02 博众精工科技股份有限公司 基于深度学习的糖尿病视网膜图像分类方法及系统
US20200234445A1 (en) * 2018-04-13 2020-07-23 Bozhon Precision Industry Technology Co., Ltd. Method and system for classifying diabetic retina images based on deep learning
CN109635862A (zh) * 2018-12-05 2019-04-16 合肥奥比斯科技有限公司 早产儿视网膜病plus病变分类方法
CN110276356A (zh) * 2019-06-18 2019-09-24 南京邮电大学 基于r-cnn的眼底图像微动脉瘤识别方法
CN111489328A (zh) * 2020-03-06 2020-08-04 浙江工业大学 一种基于血管分割和背景分离的眼底图像质量评价方法
CN111968107A (zh) * 2020-08-31 2020-11-20 合肥奥比斯科技有限公司 基于不确定度的早产儿视网膜病plus病变分类系统
CN113011340A (zh) * 2021-03-22 2021-06-22 华南理工大学 一种基于视网膜图像的心血管手术指标风险分类方法及系统

Similar Documents

Publication Publication Date Title
Pan et al. Physics-based generative adversarial models for image restoration and beyond
Han et al. Two-stage learning to predict human eye fixations via SDAEs
Zhou et al. Semantic-supervised infrared and visible image fusion via a dual-discriminator generative adversarial network
D’Andrès et al. Non-parametric blur map regression for depth of field extension
Vu et al. Illumination-robust face recognition using retina modeling
Shi et al. Low-light image enhancement algorithm based on retinex and generative adversarial network
CN107818554A (zh) 信息处理设备和信息处理方法
CN113205509B (zh) 一种基于位置卷积注意力网络的血管斑块ct影像分割方法
Sahu et al. Trends and prospects of techniques for haze removal from degraded images: A survey
CN111223110A (zh) 一种显微图像增强方法、装置及计算机设备
Feng et al. Low-light image enhancement algorithm based on an atmospheric physical model
You et al. A simple and effective multi-focus image fusion method based on local standard deviations enhanced by the guided filter
Guo et al. Multi-focus image fusion based on fully convolutional networks
Wali et al. Recent Progress in Digital Image Restoration Techniques: A Review
CN117495718A (zh) 一种多尺度自适应的遥感图像去雾方法
Liu et al. Dual UNet low-light image enhancement network based on attention mechanism
CN112150494A (zh) 一种太赫兹人体安检图像显示增强方法及系统
Zheng et al. Near-infrared Image Enhancement Method in IRFPA Based on Steerable Pyramid.
CN109165551B (zh) 一种自适应加权融合显著性结构张量和lbp特征的表情识别方法
CN113537298A (zh) 一种视网膜图像分类方法及装置
CN110020986A (zh) 基于欧氏子空间群两重映射的单帧图像超分辨率重建方法
CN114066850A (zh) 一种基于分类框架的图像二值化方法
Huang et al. HRN: Haze-Relevant Network Using Multi-Object Constraints for Single Image Dehazing
CN111192274A (zh) 一种空间敏感的视盘视杯联合分割方法、系统和可读存储介质
KR20200125135A (ko) 인공지능 기반 뇌 영역 분류 시스템

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20211022