CN109376782A - 基于眼部影像特征的支持向量机白内障分级方法及装置 - Google Patents

基于眼部影像特征的支持向量机白内障分级方法及装置 Download PDF

Info

Publication number
CN109376782A
CN109376782A CN201811261751.3A CN201811261751A CN109376782A CN 109376782 A CN109376782 A CN 109376782A CN 201811261751 A CN201811261751 A CN 201811261751A CN 109376782 A CN109376782 A CN 109376782A
Authority
CN
China
Prior art keywords
eye image
fractionated
image
feature
cataract
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811261751.3A
Other languages
English (en)
Other versions
CN109376782B (zh
Inventor
牛凯
贺志强
熊晏民
许昕
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN201811261751.3A priority Critical patent/CN109376782B/zh
Publication of CN109376782A publication Critical patent/CN109376782A/zh
Application granted granted Critical
Publication of CN109376782B publication Critical patent/CN109376782B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/45Analysis of texture based on statistical description of texture using co-occurrence matrix computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Probability & Statistics with Applications (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)
  • Evolutionary Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明实施例提供了一种基于眼部影像特征的支持向量机白内障分级方法及装置,其中方法包括:基于获取的待分级眼部影像的初步血管图进行去除白色环形边缘,得到去除边缘后血管图;分别对待分级眼部影像及该去除边缘后血管图去除白色孤立噪声点后得到的待提取特征血管图进行纹理特征提取,对应得到第二特征向量以及第一特征向量;将基于第一特征向量和第二特征向量得到的待分级眼部影像的多维度特征向量输入至已训练支持向量机模型,通过支持向量机模型得到待分级眼部影像的白内障级别,该支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量进行训练得到的。

Description

基于眼部影像特征的支持向量机白内障分级方法及装置
技术领域
本发明涉及图像处理领域和人工智能领域,特别是涉及一种基于眼部影像特征的支持向量机白内障分级方法及装置。
背景技术
随着社会的发展,人工实现一项任务,会花费较多的时间。比如,传统的白内障的分级方法,需要医生等专业人员根据经验识别眼部影像所属的白内障级别。具体的白内障级别根据实际需求决定。示例性的,根据因晶状体混浊导致免散瞳正位眼底像模糊的程度将白内障共分为6级。其中,眼底各种结构清晰可辦为0级;眼底清晰度不佳,但视网膜小血管均可见为1级;眼底清晰度不佳,视网膜中小血管(3级以下血管)隐见为2级;眼底模糊不清,视网膜大血管(1、2级血管)隐见为3级;眼底非常模糊,视网膜血管不能分辨,仅隐约见视盘为4级,眼底完全看不见为5级。
在专业人员根据经验识别眼部影像时,专业人员需要具备专业的识别知识,借助拍摄的眼部影像进行识别;如果眼部影像中存在如拍摄质量不佳导致的噪声,则专业人员需要花费较多的时间,排除此干扰或者无法排除此干扰,导致白内障级别出现识别偏差。
发明内容
本发明实施例的目的在于提供一种基于眼部影像特征的支持向量机白内障分级方法及装置,用以解决现有技术中专业人员需要花费较多的时间,排除此干扰或者无法排除此干扰,导致白内障级别出现识别偏差的技术问题。具体技术方案如下:
第一方面,本发明实施提供了一种基于眼部影像特征的支持向量机白内障分级方法包括:
获取待分级眼部影像的初步血管图,其中,所述初步血管图是从所述待分级眼部影像的红色通道、绿色通道、蓝色通道中提取所述绿色通道的图像,作为所述待分级眼部影像的灰度图,基于对所述灰度图进行滤波,获得高频分量,并对所述高频分量进行线检测核滤波得到的;
去除所述初步血管图中的白色环形边缘,得到去除边缘后血管图;
采用腐蚀操作将所述去除边缘后血管图中的白色孤立噪声点进行去噪,得到待提取特征血管图;
对所述待提取特征血管图进行纹理特征提取,得到所述待提取特征血管图的第一特征向量;
对所述待分级眼部影像进行纹理特征提取,得到所述待分级眼部影像的第二特征向量;
基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量;
将所述多维度特征向量输入至已训练支持向量机模型,通过所述已训练支持向量机模型得到所述待分级眼部影像的白内障级别,其中,所述已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。
进一步的,所述获取待分级眼部影像的初步血管图,包括:
获取待分级眼部影像;
将所述待分级眼部影像的红色通道、绿色通道、蓝色通道中提取所述绿色通道的图像,作为所述待分级眼部影像的灰度图;
基于对所述灰度图进行滤波,获得高频分量;所述高频分量包括:待分级眼部影像的血管纹路;
通过线检测核滤波方法以不同线检测核滤波的方向,对所述高频图进行滤波,得到各线检测核滤波的方向的滤波后图像,其中所述线检测核滤波方法用于保留具有线性结构的待分级眼部影像的血管纹路,过滤非线性结构;
将所述各线检测核滤波的方向的滤波后图像,对应位置像素点的像素值取均值,得到初步血管图。
进一步的,所述去除所述初步血管图中的白色环形边缘,得到去除边缘后血管图,包括:
基于所述初步血管图中的红色通道下的边缘对比度最强且血管纹路对比度最小,求取红色通道图像;
基于所述红色通道图像进行腐蚀操作,获得关键区域图像;
将所述关键区域图像与所述初始血管图对应位置像素点的像素值相乘,得到去除边缘后血管图。
进一步的,所述对所述待提取特征血管图进行纹理特征提取,得到所述待提取特征血管图的第一特征向量,包括:
按照用于求取灰度共生矩阵的多个预设方向,求取所述待提取特征血管图的灰度共生矩阵;
基于每个预设方向得到的灰度共生矩阵,分别计算每一纹理特征值,得到所述第一特征向量。
进一步的,目标图像为待提取特征血管图或者所述目标图像为待分级眼部影像;
在所述目标图像为待提取特征血管图的情况下,所述第一特征向量包括第一纹理特征值至第六纹理特征值中至少一个纹理特征值;
在所述目标图像为待分级眼部影像的情况下,所述第二特征向量包括第一纹理特征值至第六纹理特征值中至少一个纹理特征值;
针对每个预设方向下得到的灰度共生矩阵,基于不同预设方向下得到的灰度共生矩阵,采用以下公式,分别计算所述第一纹理特征值至所述第六纹理特征值:
采用如下第一公式:
得到所述目标图像的对比度,作为第一纹理特征值;
其中,G(i,j)为灰度共生矩阵的i行j列元素,CON为所述目标图像的对比度;
采用如下第二公式:
得到所述目标图像的角二阶距,作为第二纹理特征值;
其中,ASM为所述目标图像的角二阶矩;
采用如下第三公式:
得到所述目标图像的熵,作为第三纹理特征值;
其中,ENT为所述目标图像的熵;
采用如下第四公式:
得到所述目标图像的逆差矩,作为第四纹理特征值;
其中,IDM为所述目标图像的逆差矩;
采用如下第五公式:
得到所述目标图像的自相关,作为第五纹理特征值;
其中,COR为所述目标图像的自相关,ui、uj、si及sj分别为中间变量;
采用如下第六公式:
得到所述目标图像的能量,作为第六纹理特征值;
其中,Energy为所述目标图像的能量。
进一步的,在所述基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量之前,所述方法还包括:
将所述待分级眼部影像作为已训练的神经网络的输入,利用所述已训练的神经网络,从所述已训练的神经网络的中间层提取出待分级眼部影像的特征向量,作为待分级眼部影像的第三特征向量,其中,所述已训练的神经网络是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及所述眼部影像数据集中的各个眼部影像,输入至神经网络训练得到的;
所述基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量,包括:
对所述第一特征向量、所述第二特征向量和所述第三特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量。
进一步的,所述已训练支持向量机模型可以采用如下步骤训练得到:
获取已标注白内障级别的眼部影像数据集;
将所述眼部影像数据集中的已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,送入支持向量机中进行有监督的训练,得到已训练支持向量机模型。
第二方面,本发明实施提供了一种基于眼部影像特征的支持向量机白内障分级装置包括:
获取模块,用于获取待分级眼部影像的初步血管图,其中,所述初步血管图是从所述待分级眼部影像的红色通道、绿色通道、蓝色通道中提取所述绿色通道的图像,作为所述待分级眼部影像的灰度图,基于对所述灰度图进行滤波,获得高频分量,并对所述高频分量进行线检测核滤波得到的;
去除边缘模块,用于去除所述初步血管图中的白色环形边缘,得到去除边缘后血管图;
去噪模块,用于采用腐蚀操作将所述去除边缘后血管图中的白色孤立噪声点进行去噪,得到待提取特征血管图;
第一提取模块,用于对所述待提取特征血管图进行纹理特征提取,得到所述待提取特征血管图的第一特征向量;
第二提取模块,用于对所述待分级眼部影像进行纹理特征提取,得到所述待分级眼部影像的第二特征向量;
拼接模块,用于基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量;
分级模块,用于将所述多维度特征向量输入至已训练支持向量机模型,通过所述已训练支持向量机模型得到所述待分级眼部影像的白内障级别,其中,所述已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。
进一步的,所述装置还包括:第三提取模块,用于在所述基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量之前,将所述待分级眼部影像作为已训练的神经网络的输入,利用所述已训练的神经网络,从所述已训练的神经网络的中间层提取出待分级眼部影像的特征向量,作为待分级眼部影像的第三特征向量,其中,所述已训练的神经网络是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及所述眼部影像数据集中的各个眼部影像,输入至神经网络训练得到的;
所述拼接模块,具体用于:
对所述第一特征向量、所述第二特征向量和所述第三特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量。
进一步的,所述装置还包括:第一训练模块,用于采用如下步骤训练得到所述已训练支持向量机模型:
获取已标注白内障级别的眼部影像数据集;
将所述眼部影像数据集中的已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,送入支持向量机中进行有监督的训练,得到已训练支持向量机模型。
第三方面,本发明实施提供了一种电子设备,包括处理器、通信接口、存储器和通信总线,其中,处理器,通信接口,存储器通过通信总线完成相互间的通信;
存储器,用于存放计算机程序;
处理器,用于执行存储器上所存放的程序时,实现第一方面所述的方法步骤。
第四方面,本发明实施提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当其在计算机上运行时,使得计算机执行上述第一方面任一的方法。
第五方面,本发明实施还提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述第一方面任一的方法。
本发明实施例提供的一种基于眼部影像特征的支持向量机白内障分级方法及装置,基于获取的待分级眼部影像的初步血管图进行去除该初步血管图中的白色环形边缘,得到去除边缘后血管图;分别对待分级眼部影像及去噪该去除边缘后血管图中的白色孤立噪声点得到的待提取特征血管图进行纹理特征提取,得到待提取特征血管图的第一特征向量以及待分级眼部影像的第二特征向量;将基于第一特征向量和第二特征向量,得到的待分级眼部影像的多维度特征向量输入至已训练支持向量机模型,通过已训练支持向量机模型得到待分级眼部影像的白内障级别,该已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。
相较于现有技术,由于在获取待提取特征血管图时,去除了与判定白内障级别无关的噪声,减少了噪声的干扰;并且,该已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。由于大量的已标注白内障级别的眼部影像数据集的存在,将待分级眼部影像的多维度特征向量输入至已训练支持向量机模型中,可以利用已训练支持向量机模型,得到待分级眼部影像的白内障级别相较于现有技术中具有噪声的眼部影像,更加准确。
当然,实施本发明的任一产品或方法并不一定需要同时达到以上所述的所有优点。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于眼部影像特征的支持向量机白内障分级方法的流程示意图;
图2是本发明实施例的得到初步血管图的流程示意图;
图3是本发明实施例的求取高频图的流程示意图;
图4是本发明实施例的待分级眼部影像的绿色通道示意图;
图5是本发明实施例的初步血管图的示意图;
图6为本发明实施例的提取关键区域图像的流程示意图;
图7为本发明实施例的待分级眼部影像的红色通道示意图;
图8为本发明实施例的提取关键区域图像的示意图;
图9为本发明实施例的求取待提取特征血管图的流程示意图;
图10为本发明实施例的待提取特征血管图的示意图;
图11是本发明实施例的求取第二特征向量流程示意图;
图12是本发明实施例的神经网络训练的流程示意图;
图13是本发明实施例的确定多维度特征向量的流程示意图;
图14是本发明实施例的训练SVM模型的流程示意图;
图15是本发明实施例的得到最终的分级结果的流程示意图;
图16为本发明实施例提供的基于眼部影像特征的支持向量机白内障分级装置名称的结构示意图;
图17为本发明实施例提供的电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
针对解决现有技术中专业人员需要花费较多的时间,排除此干扰或者无法排除此干扰,导致白内障级别出现识别偏差的技术问题,本发明实施例提供一种基于眼部影像特征的支持向量机白内障分级方法及装置,基于获取的待分级眼部影像的初步血管图进行去除该初步血管图中的白色环形边缘,得到去除边缘后血管图;分别对待分级眼部影像及去噪该去除边缘后血管图中的白色孤立噪声点得到的待提取特征血管图进行纹理特征提取,得到待提取特征血管图的第一特征向量以及待分级眼部影像的第二特征向量;将基于第一特征向量和第二特征向量,得到的待分级眼部影像的多维度特征向量输入至已训练支持向量机模型(Support Vector Machine,简称SVM),通过已训练支持向量机模型得到待分级眼部影像的白内障级别,该已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。
由此可见,由于在获取待提取特征血管图时,去除了与判定白内障级别无关的噪声,减少了噪声的干扰;并且,该已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。由于大量的已标注白内障级别的眼部影像数据集的存在,将待分级眼部影像的多维度特征向量输入至已训练支持向量机模型中,可以利用已训练支持向量机模型,得到待分级眼部影像的白内障级别相较于现有技术中具有噪声的眼部影像,更加准确。
首先,为了方便理解本发明实施例,在此先介绍一下本发明实施例中下文的使用术语“待分级眼部影像”、“第一特征向量”、“第二特征向量”、“第三特征向量”及“多维度特征向量”等。
待分级眼部影像是指还未确定眼部影像的白内障级别,需要进行处理,从而得到待分级眼部影像的白内障级别,也就是直接获取的原始眼部影像。
第一特征向量是对待提取特征血管图进行纹理特征提取,得到待提取特征血管图的特征向量;第二特征向量是对待分级眼部影像进行纹理特征提取,得到待分级眼部影像的特征向量;第二特征向量与第一特征向量的纹理特征的提取方法相同。第三特征向量是利用已训练的神经网络对待分级眼部影像进行特征提取,得到待分级眼部影像的特征向量;这里的诸如第一和第二等之类的关系术语仅仅用来将“第一特征向量”、“第二特征向量”及“第三特征向量”进行区分,并不一定要求或者暗示“第一特征向量”、“第二特征向量”及“第三特征向量”之间存在任何这种实际的关系或者顺序。具体“第一特征向量”、“第二特征向量”及“第三特征向量”是否有顺序,可以根据实际情况去限定。
多维度特征向量是由第一特征向量和第二特征向量进行拼接得到的或者由第一特征向量、第二特征向量及第三特征向量进行拼接得到的。
下面再对本发明实施例提供的基于眼部影像特征的支持向量机白内障分级方法进行介绍。
本发明实施例所提供的一种基于眼部影像特征的支持向量机白内障分级方法,应用于医疗设备领域,比如医疗眼科设备领域。
参见图1,图1为本发明实施例提供的基于眼部影像特征的支持向量机白内障分级方法的流程示意图。该方法可以包括如下步骤:
步骤110,获取待分级眼部影像的初步血管图,其中,初步血管图是从待分级眼部影像的红色通道、绿色通道、蓝色通道中提取绿色通道的图像,作为待分级眼部影像的灰度图,基于对灰度图进行滤波,获得高频分量,并对高频分量进行线检测核滤波得到的。
对于上述待分级眼部影像,也就是直接获取的原始眼部影像。获取待分级眼部影像的方式包括:从内存中,读取待分级眼部影像;或者通过图像采集设备,拍摄待分级眼部影像,该图像采集设备包括:摄影机、摄像机及医疗眼科设备中的一种或多种。前者方便从内存中直接读取,后者方便实时采集。
上述原始眼部影像常存在因图像采集设备拍摄过程的晃动、图像采集设备镜头不洁净或者拍摄室光线不合适等问题引入的一些干扰因素。为了后续能够提取更加精确的特征向量,也是为了最终能够训练得到准确率更高的SVM模型,需要采取相应必要措施将噪声尽可能滤除掉,因此需要对直接获取的原始眼部影像进行图像处理,而得到的图像处理后的图像,作为初步血管图,则结合图1所示的实施例以及参见图2,在一种可能的实现方式中,上述步骤110,可以采用如下处理的步骤111至步骤115的步骤,得到初步血管图:
步骤111,获取待分级眼部影像。步骤112,将待分级眼部影像的红色通道、绿色通道、蓝色通道中提取绿色通道的图像,作为待分级眼部影像的灰度图。步骤113,基于对灰度图进行滤波,获得高频分量;高频分量包括:待分级眼部影像的血管纹路。
由于血管纹路属于图像纹理特征的已知条件,包含在灰度图的高频分量中。本步骤113通过如下方式基于对灰度图进行滤波,获得高频分量:首先,针对从颜色分量中的绿色分量中分离出的灰度图,采用大尺度均值滤波对灰度图进行滤波,获取灰度图的低频分量,其中,低频分量用于主要对整幅灰度图的强度的综合度量;然后,将该灰度图与该灰度图的低频分量作差,获取该灰度图的高频图。这种方式通过将该灰度图与该灰度图的低频分量逐像素点作差,来去掉灰度图中的低频分量,从而得到获取该灰度图的高频图,高频分量主要是对灰度图边缘和轮廓的度量。这样不直接提取高频分量是为了尽量保留住尽可能多的对白内障分级有用的信息,而此方法恰能够保证只去除低频部分。
参见图3,上述方式的具体实现过程如下:
步骤31,将待分级眼部影像的红色R通道、绿色G通道、蓝色B通道中提取绿色通道的图像,作为待分级眼部影像的灰度图,该待分级眼部影像的灰度图如图4所示,以最大限度保留血管纹路信息。
步骤32,采用大尺度均值滤波对灰度图进行滤波,获取灰度图的低频分量。
步骤33,将灰度图与灰度图的低频分量对应位置像素点的像素值做差,去掉低频分量,得到灰度图的高频图。
定义以像素点(i,j)为中心,i为二维图像的第i行像素的行数,j为二维图像的第j列像素的列数,窗口大小为(2n+1)×(2n+1)的区域为“局部区域”,其中n为整数。则灰度图的低频分量,即图像局部均值mx(i,j)可由下式求出:
其中,mx(i,j)中的下标x为即x(k,l),即mx为一体,表示像素点的局部均值,x(k,l)为二维图像的k行l列像素点的像素值,k为二维图像的第k行像素点的行数,l为二维图像的第l列像素点的列数。
在本发明实施例中,示例性的,选取整数n=14,即窗口大小为29×29,具体操作为将灰度图经过滤波器核大小为29×29的大尺度均值滤波,从而得到灰度图对应的低频分量。这样可以将图像局部均值mx(i,j),作为灰度图的低频分量,从而得到灰度图的低频分量。
最后,通过将灰度图与灰度图的低频分量对应位置像素点的像素值做差操作,获取灰度图的高频图,完成提取高频分量。
步骤114,通过线检测核滤波方法以不同线检测核滤波的方向,对高频图进行滤波,得到各线检测核滤波的方向的滤波后图像,其中线检测核滤波方法用于保留具有线性结构的待分级眼部影像的血管纹路,过滤非线性结构。
鉴于血管纹路属于线状结构,所以采用线检测核滤波方法用于保留线状结构,同时过滤掉非线性结构。线检测核可选取多个线检测核滤波的方向对高频图进行滤波操作,每个线检测核滤波的方向得到一张滤波后图像。这样可以对该高频图中待分级眼部影像的血管纹路进行滤波,用于去除其他非血管结构引入的干扰。
在本实施例中,线检测核滤波方法选用0°,45°,90°,135°这四个线检测核滤波的方向对高频图进行滤波操作。其中线检测核滤波方法中的0°线检测核滤波的方向对应的线检测核为[-1,-1,-1;2,2,2;-1,-1,-1],45°线检测核为[-1,-1,2;-1,2,-1;2,-1,-1],90°线检测核滤波的方向对应的线检测核为[-1,2,-1;-1,2,-1;-1,2,-1],135°线检测核滤波的方向对应的线检测核为[2,-1,-1;-1,2,-1;-1,-1,2]。
步骤115,将各线检测核滤波的方向的滤波后图像,对应位置像素点的像素值取均值,得到初步血管图。本步骤115,得到的初步血管图如图5所示。
考虑到医疗眼科设备对白内障的分级是基于待分级眼部影像中血管等眼部结构的清晰程度来划分的,因此本发明实施例,采用提取灰度图的高频图中高频分量、对该高频图中待分级眼部影像的血管纹路进行滤波等一些列措施,实现对待分级眼部影像中血管纹路的提取,得到初步血管图。
步骤120,去除初步血管图中的白色环形边缘,得到去除边缘后血管图。
本步骤120具体包括:从待分级眼部影像中提取得到的关键区域(region ofinterest,简称ROI)图像,来去除白色环形边缘。具体如下:
本步骤120采用如下步骤得到去除边缘后血管图:基于如下步骤121至步骤127得到关键区域图像之后,将关键区域图像与初始血管图对应位置像素点的像素值相乘,得到去除边缘后血管图。鉴于在红色通道下,圆形边缘对比度强且血管对比度小,参见图6,上述步骤120中采用如下步骤121至步骤127得到关键区域图像:步骤121,基于初步血管图中的红色通道下的边缘对比度最强且血管纹路对比度最小,求取红色通道图像,该红色通道图像如图7所示;具体的可以采用如下步骤122至步骤127,实现基于红色通道图像进行腐蚀操作,获得关键区域图像的过程:步骤122,对红色通道图像进行阈值二值化,得到二值化图像;步骤123,对二值化图像进行开运算,步骤124,对开运算的结果进行闭运算,得到结果图像;步骤125,对上述结果图像进行腐蚀操作,得到腐蚀后的图像,步骤126,判断腐蚀后的图像中黑白边界是否为圆形,如是,则执行步骤127;如否,则返回执行步骤125;步骤127,将腐蚀后的图像,确定为关键区域图像。该关键区域图像参见图8所示。
在本实施例中,对红色通道图像得到二值化图像所设定的阈值为腐蚀操作所选取圆形结构。
步骤130,采用腐蚀操作将去除边缘后血管图中的白色孤立噪声点进行去噪,得到待提取特征血管图。
经过上述步骤120之后,发现上述去除边缘后血管图中仍存在多处的白色孤立噪声点,针对此类噪声相对于背景而言颜色较浅的特性,因此上述步骤130可以采用腐蚀操作去噪该去除边缘后血管图中的白色孤立噪声点,得到待提取特征血管图。具体的,参见图9,上述步骤130可以采用如下步骤,得到待提取特征血管图:
步骤131,基于初步血管图中的红色通道下的边缘对比度最强且血管纹路对比度最小,求取红色通道图像;基于红色通道图像进行腐蚀操作,获得关键区域图像;步骤132,获取初步血管图;步骤133,将关键区域图像与初始血管图对应位置像素点的像素值相乘,得到去除边缘后血管图;步骤134,采用腐蚀操作将去除边缘后血管图中的白色孤立噪声点进行去噪,得到待提取特征血管图。这样可以利用将去除边缘后血管图与初步血管图相乘的方法,有效去除图像中的白色环形边缘。在上述发明实施例中,此处腐蚀操作选取矩形结构[0 1 0;1 1 1;0 1 0]。
经过上述步骤110至步骤130处理之后,最终获得血管图,该血管图相对于待分级眼部影像质量较高,将这个相对于待分级眼部影像质量较高的血管图作为待提取特征血管图。该待提取特征血管图如图10所示,该待提取特征血管图包含了待分级眼部影像中关于血管纹理等信息,为进一步特征提取提供有效信息。
步骤140,对待提取特征血管图进行纹理特征提取,得到待提取特征血管图的第一特征向量。
其中,纹理特征是指从待提取特征血管图中提取的对白内障分级有用的特征。
通过上述步骤110至步骤130,可以得到的待提取特征血管图,而待提取特征血管图本身就是单通道图像,因此可以从待提取特征血管图中提取到对白内障分级有用的特征,本步骤140包括:首先,按照用于求取灰度共生矩阵的多个预设方向,求取待提取特征血管图的灰度共生矩阵。其次,基于每个预设方向得到的灰度共生矩阵,分别计算每一纹理特征值,得到所述第一特征向量。
鉴于白内障分级关注于血管等纹理特征,采用从待提取特征血管图中计算得到灰度共生矩阵(Gray-Level Co-occurrence Matrix,简称GLCM)的方法,将有效信息通过矩阵表征出来。灰度共生矩阵是像素距离和角度的矩阵函数,它通过计算待提取特征血管图中一定距离和一定方向的两点灰度之间的相关性,来反映待提取特征血管图在方向、间隔、变化幅度及快慢上的综合信息。
一张待提取特征血管图在不同方向上可以得到不同的灰度共生矩阵,为了尽量减小计算复杂度,因此不直接应用计算的灰度共生矩阵,而是将灰度共生矩阵作为一个中间变量,在此基础上计算每一纹理特征值,如,对比度(contrast)、角二阶矩(Angular SecondMoment,简称ASM)、熵(Entropy,简称ENT)、逆差矩(Inverse Differential Moment,简称IDM)、自相关(Correlation)、能量(Energy)。
结合图1所示的实施例,由于上述步骤110至步骤130,得到的待提取特征血管图,本身就是单通道图像,可以直接按照如下步骤进行相应操作,得到待提取特征血管图的灰度共生矩阵;而待分级眼部影像为三通道图像,RGB三通道中各包含不同信息,为充分利用各通道信息,将原始眼部影像的三通道分别进行如下操作,最后将三个通道分别求取的对应特征值取平均值,构成特征向量,作为从待分级眼部影像中通过纹理特征提取所得的第二特征向量。
首先,计算单通道图像的灰度共生矩阵。取大小为N×N的图像中任意一点(x,y)及偏离此点的另一点(x+a,y+b),设两点所构成的像素对的灰度值为(g1,g2)。令点(x,y)在整个图像上移动,则会得到各自对应的(g1,g2)值,设灰度值的级数k,则(g1,g2)的组合共k的平方种。对于整个图像,统计出每一种(g1,g2)值出现的次数,然后排列成一个方阵,再用(g1,g2)出现的总次数将它们归一化为出现的概率P(g1,g2),这样的方阵称为灰度共生矩阵。距离差分值(a,b)取不同的数值组合,可以得到不同情况下的联合概率矩阵。
其中,(a,b)取值要根据纹理周期分布的特性来选择,通过设定不同的(a,b)可以获得不同预设方向上的灰度共生矩阵。如当选取a=1,b=0时,像素对是水平的,即0°扫描;当a=0,b=1时,像素对是垂直的,即90°扫描;当a=1,b=1时,像素对是右对角线的,即45°扫描;当a=-1,b=1时,像素对是左对角线的,即135°扫描。
在本实施例中,选取0°、30°、60°、90°、120°、150°六个预设方向进行求取单通道图像的灰度共生矩阵;并选取步距d=1,即中心像元同与之直接相邻的像元做运算和比较。
在计算得到各个预设方向的灰度共生矩阵G之后,在每个预设方向所得的灰度共生矩阵上分别计算纹理特征值。
步骤150,对待分级眼部影像进行纹理特征提取,得到待分级眼部影像的第二特征向量。
上述待分级眼部影像为三通道图像,也就是,RGB三通道图像或者YVU三通道图像,该三通道图像即以三原色表示的彩色图像,可以分解为R(red红色)G(green绿色)B(蓝色blue)三个通道图像;YVU三通道图像即以三原色表示的彩色图像,可以分解为Y(亮度)U(色差)V(色差)三个通道图像。三通道图像中各包含不同信息,为充分利用各通道信息。对于三通道图像的每个通道图像,也是属于单通道图像,因为为了得到待分级眼部影像的第二特征向量,参见图11,上述步骤150具体包括:步骤151,将待分级眼部影像的三通道图像分别求灰度共生矩阵,也就是每次对一个单通道图像求灰度共生矩阵;步骤152,利用灰度共生矩阵,将三个通道图像求取特征向量;步骤153,将三个通道图像求取的特征向量对应位置像素点的像素值取均值,作为从待分级眼部影像中,通过纹理特征提取得到的第二特征向量。
为了多维度特征向量能够涵盖尽量丰富的信息,因此采用纹理特征提取与神经网络模型特征提取相结合的方法,获取多维度特征向量。下述步骤160之前,所述方法还包括:
将待分级眼部影像作为已训练的神经网络的输入,利用已训练的神经网络,从已训练的神经网络的中间层提取出待分级眼部影像的特征向量,作为待分级眼部影像的第三特征向量,其中,已训练的神经网络是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及眼部影像数据集中的各个眼部影像,输入至神经网络训练得到的。该预设数量张可以根据用户需求设置的数值。
上述已训练的神经网络可以采用如下步骤进行训练得到:
首先,本发明实施例可以但不限于选取18层的残差网络作为神经网络模型,将已标注白内障级别的眼部影像数据集,进行经过足够多迭代次数的有监督的神经网络模型训练,得到已训练的神经网络。具体的,参见图12,可以采用如下步骤训练神经网络:
步骤21,获取迭代次数X,该迭代次数X是预先设置的;步骤22,获取输入的第一批已标注白内障级别的眼部影像数据集;步骤23,更新模型参数;步骤24,判断是否遍历完所有眼部影像,如果否,则执行步骤25,如果是,则执行步骤26;
步骤25,获取下一批输入的已标注白内障级别的眼部影像数据集,并返回执行步骤23;
步骤26,判断本次迭代次数x是否小于迭代次数X,如是,则返回执行步骤22;如果否,则执行步骤27;
步骤27,得到已训练的神经网络,为了后期可以从已训练的神经网络的中间层提取特征向量。
由于第二特征向量的得到方式与第一特征向量的得到方式相同,因此结合图1所示的实施例,为了得到步骤140中得到待提取特征血管图的第一特征向量和步骤150中的得到待分级眼部影像的第二特征向量,本发明实施例可以采用如下步骤得到:
目标图像为待提取特征血管图或者目标图像为待分级眼部影像;
在目标图像为待提取特征血管图的情况下,第一特征向量包括如下至少之一的纹理特征值,但不限于第一纹理特征值至第六纹理特征值;也就是说,第一特征向量可以由第一纹理特征值至第六纹理特征值中的一个纹理特征值组成,也可以由第一纹理特征值至第六纹理特征值中的多个纹理特征组组成,具体情况根据实际需求而定。其他能够形成第一特征向量的纹理特征值,均属于本发明实施例的保护范围。
在目标图像为待分级眼部影像的情况下,第二特征向量包括如下至少之一的纹理特征值,但不限于第一纹理特征值至第六纹理特征值;第二特征向量的形成方式与第一特征向量的形成方式除处理对象不同以外,其他形成方式相同。同样,其他能够形成第二特征向量的纹理特征值,均属于本发明实施例的保护范围。
针对每个预设方向下得到的灰度共生矩阵,基于不同预设方向下得到的灰度共生矩阵,采用以下公式,分别计算第一纹理特征值至第六纹理特征值。基于灰度共生矩阵计算得到的不仅限于第一纹理特征值至第六纹理特征值等纹理特征值,还可以包含其他纹理特征值,任何可以基于灰度共生矩阵计算得到的纹理特征值,均为本发明实施例的保护范围。具体的,可以采用以下公式,分别计算第一纹理特征值至第六纹理特征值:
采用如下第一公式:
得到所述目标图像的对比度,作为第一纹理特征值;
其中,G(i,j)为灰度共生矩阵的i行j列元素,CON为目标图像的对比度;这样利用上述第一公式的纹理特征的沟纹越深,其对比度越大,视觉效果越清晰。灰度共生矩阵中远离对角线的元素值越大,则CON越大。由此可知,CON越大图像越清晰。
采用如下第二公式:
得到所述目标图像的角二阶距,作为第二纹理特征值;
其中,ASM为目标图像的角二阶矩;这样利用上述第二公式的角二阶矩是目标图像的灰度分布均匀程度和纹理粗细的一种度量方式。当目标图像的纹理特征较细致、灰度分布均匀时,ASM值较大。
采用如下第三公式:
得到所述目标图像的熵,作为第三纹理特征值;
其中,ENT为目标图像的熵;这样利用上述第三公式的熵是衡量图像信息量多少的一种度量方式,表明目标图像的复杂程度,当复杂程度高时,熵值较大。
采用如下第四公式:
得到所述目标图像的逆差矩,作为第四纹理特征值;
其中,IDM为目标图像的逆差矩;利用第四公式的逆差矩反映图像纹理的同质性,度量图像纹理局部变化的多少。图像纹理的不同区域间差异不明显,则逆差矩值较大。
采用如下第五公式:
得到所述目标图像的自相关,作为第五纹理特征值;
其中,COR为目标图像的自相关,ui、uj、si及sj分别为中间变量;利用第五公式的自相关反应了目标图像的纹理特征的一致性。如果目标图像中有水平方向纹理特征,则水平方向矩阵的COR大于其余矩阵的COR值。COR用于度量空间灰度共生矩阵元素在行或列方向上的相似程度,因此自相关大小反映了目标图像中局部灰度相关性。当矩阵元素值均匀相等时,自相关较大。
采用如下第六公式:
得到所述目标图像的能量,作为第六纹理特征值;
其中,Energy为目标图像的能量;这样利用上述第六公式的能量,对角二阶矩ASM开平方根,即可得到Energy。
鉴于上述纹理特征提取所得的特征向量仅包含眼部影像中的纹理信息,因此采用结合神经网络特征提取向量的方法进一步为白内障分级补充依据。
最终将纹理特征提取的特征向量与已训练的神经网络提取出的特征向量拼接在一起,共同作为支持向量机的分级依据。
步骤160,基于第一特征向量和第二特征向量进行拼接,得到待分级眼部影像的多维度特征向量。
由于上述通过步骤110至步骤140,经待提取特征血管图仍然存在少量干扰因素,同时也会因拍摄质量不佳等问题使得部分血管结构在预处理过程中被滤除掉,此处将原始眼部影像同样进行纹理特征提取,在一定程度上弥补预处理误除掉的部分有用信息。
本步骤160具体可以包括:将对第一特征向量和第二特征向量进行顺序拼接,得到高维度的特征向量,即为待分级眼部影像的多维度特征向量,这样可以得到待分级眼部影像的多维度特征向量。为了得到更高维度的特征向量,使得最终得到的白内障级别更加准确,参见图13,步骤160具体可以包括:对第一特征向量、第二特征向量和第三特征向量进行拼接,得到待分级眼部影像的多维度特征向量。将待分级眼部影像的多维度特征向量,作为SVM模型进行白内障分级的判定依据。
步骤170,将多维度特征向量输入至已训练支持向量机模型,通过已训练支持向量机模型得到待分级眼部影像的白内障级别,其中,已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。为了得到待分级眼部影像的分级结果,即待分级眼部影像的白内障级别,需要将待分级眼部影像的多维特征向量,输入到已训练SVM模型中,输出待分级眼部影像的分级结果。
在结合图1的基础上,参见图14,上述已训练SVM模型可以采用如下步骤训练得到:
步骤171,获取已标注白内障级别的眼部影像数据集。
步骤172,将眼部影像数据集中的已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,送入支持向量机中进行有监督的训练,得到已训练SVM模型。
参见图15,步骤161,将待分级的眼部影像的多维度特征向量输入到已训练SVM模型中;步骤162,使用已训练SVM模型,已训练SVM模型输出此眼部影像的白内障级别,作为最终的分级结果,完成白内障分级任务。
与现有白内障分级方式相比较,本发明实施例的待分级眼部影像的分级结果在一定程度上减弱了待分级眼部影像中噪声的影响,且使用已标注白内障级别的眼部影像数据集进行训练,最终获得可信度颇高的已训练SVM模型。而且,白内障分级过程中不存在主观因素,使得待分级眼部影像的分级结果更加稳定、客观;同时使得医疗眼科领域的白内障分级工作效率大大提升,省时省力。为实现国家医疗领域智能化作出贡献,具有良好的推广应用前景。
本发明实施例中,由于在获取待提取特征血管图时,去除了与判定白内障级别无关的噪声,减少了噪声的干扰;并且,该已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。由于大量的已标注白内障级别的眼部影像数据集的存在,将待分级眼部影像的多维度特征向量输入至已训练支持向量机模型中,可以利用已训练支持向量机模型,得到待分级眼部影像的白内障级别相较于现有技术中具有噪声的眼部影像,更加准确。
下面继续对本发明实施例提供的一种基于眼部影像特征的支持向量机白内障分级装置进行介绍。
如图16所示,本发明实施例还提供一种基于眼部影像特征的支持向量机白内障分级装置,包括:
获取模块41,用于获取待分级眼部影像的初步血管图,其中,初步血管图是从待分级眼部影像的红色通道、绿色通道、蓝色通道中提取绿色通道的图像,作为待分级眼部影像的灰度图,基于对灰度图进行滤波,获得高频分量,并对高频分量进行线检测核滤波得到的;
去除边缘模块42,用于去除初步血管图中的白色环形边缘,得到去除边缘后血管图;
去噪模块43,用于采用腐蚀操作将去除边缘后血管图中的白色孤立噪声点进行去噪,得到待提取特征血管图;
第一提取模块44,用于对待提取特征血管图进行纹理特征提取,得到待提取特征血管图的第一特征向量;
第二提取模块45,用于对待分级眼部影像进行纹理特征提取,得到待分级眼部影像的第二特征向量;
拼接模块46,用于基于第一特征向量和第二特征向量进行拼接,得到待分级眼部影像的多维度特征向量;
分级模块47,用于将多维度特征向量输入至已训练支持向量机模型,通过已训练支持向量机模型得到待分级眼部影像的白内障级别,其中,已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。
在一种可能的实现方式中,获取模块,用于:
获取待分级眼部影像;
将待分级眼部影像的红色通道、绿色通道、蓝色通道中提取绿色通道的图像,作为待分级眼部影像的灰度图;
基于对灰度图进行滤波,获得高频分量;高频分量包括:待分级眼部影像的血管纹路;
通过线检测核滤波方法以不同线检测核滤波的方向,对高频图进行滤波,得到各线检测核滤波的方向的滤波后图像,其中线检测核滤波方法用于保留具有线性结构的待分级眼部影像的血管纹路,过滤非线性结构;
将各线检测核滤波的方向的滤波后图像,对应位置像素点的像素值取均值,得到初步血管图。
在一种可能的实现方式中,去除边缘模块,用于:
基于初步血管图中的红色通道下的边缘对比度最强且血管纹路对比度最小,求取红色通道图像;
基于红色通道图像进行腐蚀操作,获得关键区域图像;
将关键区域图像与初始血管图对应位置像素点的像素值相乘,得到去除边缘后血管图。
在一种可能的实现方式中,第一提取模块,用于:
按照用于求取灰度共生矩阵的多个预设方向,求取待提取特征血管图的灰度共生矩阵;
基于每个预设方向得到的灰度共生矩阵,分别计算每一纹理特征值,得到第一特征向量。
在一种可能的实现方式中,目标图像为待提取特征血管图或者目标图像为待分级眼部影像;
在目标图像为待提取特征血管图的情况下,第一特征向量包括第一纹理特征值至第六纹理特征值中至少一个纹理特征值;
在目标图像为待分级眼部影像的情况下,第二特征向量包括第一纹理特征值至第六纹理特征值中至少一个纹理特征值;
针对每个预设方向下得到的灰度共生矩阵,基于不同预设方向下得到的灰度共生矩阵,采用以下公式,分别计算第一纹理特征值至第六纹理特征值:
采用上述第一公式,得到目标图像的对比度,作为第一纹理特征值;
采用上述第二公式,得到目标图像的角二阶距,作为第二纹理特征值;
采用上述第三公式,得到目标图像的熵,作为第三纹理特征值;
采用上述第四公式,得到目标图像的逆差矩,作为第四纹理特征值;
采用上述第五公式,得到目标图像的自相关,作为第五纹理特征值;
采用上述第六公式,得到目标图像的能量,作为第六纹理特征值。
在一种可能的实现方式中,装置还包括:第三提取模块,用于在基于第一特征向量和第二特征向量进行拼接,得到待分级眼部影像的多维度特征向量之前,将待分级眼部影像作为已训练的神经网络的输入,利用已训练的神经网络,从已训练的神经网络的中间层提取出待分级眼部影像的特征向量,作为待分级眼部影像的第三特征向量,其中,已训练的神经网络是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及眼部影像数据集中的各个眼部影像,输入至神经网络训练得到的;
拼接模块,具体用于:
对第一特征向量、第二特征向量和第三特征向量进行拼接,得到待分级眼部影像的多维度特征向量。
在一种可能的实现方式中,装置还包括:第一训练模块,用于采用如下步骤训练得到已训练支持向量机模型:
获取已标注白内障级别的眼部影像数据集;
将眼部影像数据集中的已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,送入支持向量机中进行有监督的训练,得到已训练支持向量机模型。
下面继续对本发明实施例提供的电子设备进行介绍。
本发明实施例还提供了一种电子设备,如图17所示,包括处理器51、通信接口52、存储器53和通信总线54,其中,处理器51,通信接口52,存储器53通过通信总线54完成相互间的通信,
存储器53,用于存放计算机程序;
处理器51,用于执行存储器53上所存放的程序时,实现如下步骤:
获取待分级眼部影像的初步血管图,其中,初步血管图是从待分级眼部影像的红色通道、绿色通道、蓝色通道中提取绿色通道的图像,作为待分级眼部影像的灰度图,基于对灰度图进行滤波,获得高频分量,并对高频分量进行线检测核滤波得到的;
去除初步血管图中的白色环形边缘,得到去除边缘后血管图;
采用腐蚀操作将去除边缘后血管图中的白色孤立噪声点进行去噪,得到待提取特征血管图;
对待提取特征血管图进行纹理特征提取,得到待提取特征血管图的第一特征向量;
对待分级眼部影像进行纹理特征提取,得到待分级眼部影像的第二特征向量;
基于第一特征向量和第二特征向量进行拼接,得到待分级眼部影像的多维度特征向量;
将多维度特征向量输入至已训练支持向量机模型,通过已训练支持向量机模型得到待分级眼部影像的白内障级别,其中,已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。
上述电子设备提到的通信总线可以是外设部件互连标准(Peripheral ComponentInterconnect,PCI)总线或扩展工业标准结构(Extended Industry StandardArchitecture,EISA)总线等。该通信总线可以分为地址总线、数据总线、控制总线等。为便于为,图中仅用一条粗线为,但并不为仅有一根总线或一种类型的总线。
通信接口用于上述电子设备与其他设备之间的通信。
存储器可以包括随机存取存储器(Random Access Memory,RAM),也可以包括非易失性存储器(Non-Volatile Memory,NVM),例如至少一个磁盘存储器。可选的,存储器还可以是至少一个位于远离前述处理器的存储装置。
上述的处理器可以是通用处理器,包括中央处理器(Central Processing Unit,CPU)、网络处理器(Network Processor,NP)等;还可以是数字信号处理器(Digital SignalProcessing,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
本发明实施例提供的方法可以应用于电子设备。具体的,该电子设备可以为:台式计算机、便携式计算机、智能移动终端、服务器等。在此不作限定,任何可以实现本发明的电子设备,均属于本发明的保护范围。
本发明实施例提供了一种计算机可读存储介质,存储介质内存储有计算机程序,计算机程序被处理器执行时实现上述的基于眼部影像特征的支持向量机白内障分级方法的步骤。
本发明实施例提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行上述的基于眼部影像特征的支持向量机白内障分级方法的步骤。
本发明实施例提供了一种计算机程序,当其在计算机上运行时,使得计算机执行上述的基于眼部影像特征的支持向量机白内障分级方法的步骤。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括要素的过程、方法、物品或者设备中还存在另外的相同要素。
本说明书中的各个实施例均采用相关的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置/电子设备/存储介质/包含指令的计算机程序产品/计算机程序实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内所作的任何修改、等同替换、改进等,均包含在本发明的保护范围内。

Claims (10)

1.一种基于眼部影像特征的支持向量机白内障分级方法,其特征在于,包括:
获取待分级眼部影像的初步血管图,其中,所述初步血管图是从所述待分级眼部影像的红色通道、绿色通道、蓝色通道中提取所述绿色通道的图像,作为所述待分级眼部影像的灰度图,基于对所述灰度图进行滤波,获得高频分量,并对所述高频分量进行线检测核滤波得到的;
去除所述初步血管图中的白色环形边缘,得到去除边缘后血管图;
采用腐蚀操作将所述去除边缘后血管图中的白色孤立噪声点进行去噪,得到待提取特征血管图;
对所述待提取特征血管图进行纹理特征提取,得到所述待提取特征血管图的第一特征向量;
对所述待分级眼部影像进行纹理特征提取,得到所述待分级眼部影像的第二特征向量;
基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量;
将所述多维度特征向量输入至已训练支持向量机模型,通过所述已训练支持向量机模型得到所述待分级眼部影像的白内障级别,其中,所述已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。
2.如权利要求1所述的方法,其特征在于,所述获取待分级眼部影像的初步血管图,包括:
获取待分级眼部影像;
将所述待分级眼部影像的红色通道、绿色通道、蓝色通道中提取所述绿色通道的图像,作为所述待分级眼部影像的灰度图;
基于对所述灰度图进行滤波,获得高频分量;所述高频分量包括:待分级眼部影像的血管纹路;
通过线检测核滤波方法以不同线检测核滤波的方向,对所述高频图进行滤波,得到各线检测核滤波的方向的滤波后图像,其中所述线检测核滤波方法用于保留具有线性结构的待分级眼部影像的血管纹路,过滤非线性结构;
将所述各线检测核滤波的方向的滤波后图像,对应位置像素点的像素值取均值,得到初步血管图。
3.如权利要求2所述的方法,其特征在于,所述去除所述初步血管图中的白色环形边缘,得到去除边缘后血管图,包括:
基于所述初步血管图中的红色通道下的边缘对比度最强且血管纹路对比度最小,求取红色通道图像;
基于所述红色通道图像进行腐蚀操作,获得关键区域图像;
将所述关键区域图像与所述初始血管图对应位置像素点的像素值相乘,得到去除边缘后血管图。
4.如权利要求1至3任一项所述的方法,其特征在于,所述对所述待提取特征血管图进行纹理特征提取,得到所述待提取特征血管图的第一特征向量,包括:
按照用于求取灰度共生矩阵的多个预设方向,求取所述待提取特征血管图的灰度共生矩阵;
基于每个预设方向得到的灰度共生矩阵,分别计算每一纹理特征值,得到所述第一特征向量。
5.如权利要求4所述的方法,其特征在于,目标图像为待提取特征血管图或者所述目标图像为待分级眼部影像;
在所述目标图像为待提取特征血管图的情况下,所述第一特征向量包括第一纹理特征值至第六纹理特征值中至少一个纹理特征值;
在所述目标图像为待分级眼部影像的情况下,所述第二特征向量包括第一纹理特征值至第六纹理特征值中至少一个纹理特征值;
针对每个预设方向下得到的灰度共生矩阵,基于不同预设方向下得到的灰度共生矩阵,采用以下公式,分别计算所述第一纹理特征值至所述第六纹理特征值:
采用如下第一公式:
得到所述目标图像的对比度,作为第一纹理特征值;
其中,G(i,j)为灰度共生矩阵的i行j列元素,CON为所述目标图像的对比度;
采用如下第二公式:
得到所述目标图像的角二阶距,作为第二纹理特征值;
其中,ASM为所述目标图像的角二阶矩;
采用如下第三公式:
得到所述目标图像的熵,作为第三纹理特征值;
其中,ENT为所述目标图像的熵;
采用如下第四公式:
得到所述目标图像的逆差矩,作为第四纹理特征值;
其中,IDM为所述目标图像的逆差矩;
采用如下第五公式:
得到所述目标图像的自相关,作为第五纹理特征值;
其中,COR为所述目标图像的自相关,ui、uj、si及sj分别为中间变量;
采用如下第六公式:
得到所述目标图像的能量,作为第六纹理特征值;
其中,Energy为所述目标图像的能量。
6.如权利要求1至3任一项所述的方法,其特征在于,在所述基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量之前,所述方法还包括:
将所述待分级眼部影像作为已训练的神经网络的输入,利用所述已训练的神经网络,从所述已训练的神经网络的中间层提取出待分级眼部影像的特征向量,作为待分级眼部影像的第三特征向量,其中,所述已训练的神经网络是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及所述眼部影像数据集中的各个眼部影像,输入至神经网络训练得到的;
所述基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量,包括:
对所述第一特征向量、所述第二特征向量和所述第三特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量。
7.如权利要求1至3任一项所述的方法,其特征在于,所述已训练支持向量机模型可以采用如下步骤训练得到:
获取已标注白内障级别的眼部影像数据集;
将所述眼部影像数据集中的已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,送入支持向量机中进行有监督的训练,得到已训练支持向量机模型。
8.一种基于眼部影像特征的支持向量机白内障分级装置,其特征在于,包括:
获取模块,用于获取待分级眼部影像的初步血管图,其中,所述初步血管图是从所述待分级眼部影像的红色通道、绿色通道、蓝色通道中提取所述绿色通道的图像,作为所述待分级眼部影像的灰度图,基于对所述灰度图进行滤波,获得高频分量,并对所述高频分量进行线检测核滤波得到的;
去除边缘模块,用于去除所述初步血管图中的白色环形边缘,得到去除边缘后血管图;
去噪模块,用于采用腐蚀操作将所述去除边缘后血管图中的白色孤立噪声点进行去噪,得到待提取特征血管图;
第一提取模块,用于对所述待提取特征血管图进行纹理特征提取,得到所述待提取特征血管图的第一特征向量;
第二提取模块,用于对所述待分级眼部影像进行纹理特征提取,得到所述待分级眼部影像的第二特征向量;
拼接模块,用于基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量;
分级模块,用于将所述多维度特征向量输入至已训练支持向量机模型,通过所述已训练支持向量机模型得到所述待分级眼部影像的白内障级别,其中,所述已训练支持向量机模型是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,输入至支持向量机训练得到的。
9.如权利要求8所述的装置,其特征在于,所述装置还包括:第三提取模块,用于在所述基于所述第一特征向量和所述第二特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量之前,将所述待分级眼部影像作为已训练的神经网络的输入,利用所述已训练的神经网络,从所述已训练的神经网络的中间层提取出待分级眼部影像的特征向量,作为待分级眼部影像的第三特征向量,其中,所述已训练的神经网络是基于已标注白内障级别的眼部影像数据集,将已标注的白内障级别以及所述眼部影像数据集中的各个眼部影像,输入至神经网络训练得到的;
所述拼接模块,具体用于:
对所述第一特征向量、所述第二特征向量和所述第三特征向量进行拼接,得到所述待分级眼部影像的多维度特征向量。
10.如权利要求8或9所述的装置,其特征在于,所述装置还包括:第一训练模块,用于采用如下步骤训练得到所述已训练支持向量机模型:
获取已标注白内障级别的眼部影像数据集;
将所述眼部影像数据集中的已标注的白内障级别以及提取的眼部影像数据集中各个眼部影像的多维度特征向量,送入支持向量机中进行有监督的训练,得到已训练支持向量机模型。
CN201811261751.3A 2018-10-26 2018-10-26 基于眼部影像特征的支持向量机白内障分级方法及装置 Active CN109376782B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811261751.3A CN109376782B (zh) 2018-10-26 2018-10-26 基于眼部影像特征的支持向量机白内障分级方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811261751.3A CN109376782B (zh) 2018-10-26 2018-10-26 基于眼部影像特征的支持向量机白内障分级方法及装置

Publications (2)

Publication Number Publication Date
CN109376782A true CN109376782A (zh) 2019-02-22
CN109376782B CN109376782B (zh) 2022-01-28

Family

ID=65390002

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811261751.3A Active CN109376782B (zh) 2018-10-26 2018-10-26 基于眼部影像特征的支持向量机白内障分级方法及装置

Country Status (1)

Country Link
CN (1) CN109376782B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348457A (zh) * 2019-06-25 2019-10-18 北京邮电大学 一种图像特征提取方法、提取装置、电子设备及存储介质
CN112365472A (zh) * 2020-11-12 2021-02-12 中科麦迪人工智能研究院(苏州)有限公司 血管寻径方法、装置、电子设备和存储介质
CN113361482A (zh) * 2021-07-07 2021-09-07 南方科技大学 核性白内障识别方法、装置、电子设备以及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150320510A1 (en) * 2014-05-12 2015-11-12 University Of Rochester Computer Vision Based Method And System For Evaluating And Grading Surgical Procedures
CN105426889A (zh) * 2015-11-13 2016-03-23 浙江大学 基于pca混合特征融合的气液两相流流型识别方法
CN107203769A (zh) * 2017-04-27 2017-09-26 天津大学 基于dct和lbp特征融合的图像特征提取方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150320510A1 (en) * 2014-05-12 2015-11-12 University Of Rochester Computer Vision Based Method And System For Evaluating And Grading Surgical Procedures
CN105426889A (zh) * 2015-11-13 2016-03-23 浙江大学 基于pca混合特征融合的气液两相流流型识别方法
CN107203769A (zh) * 2017-04-27 2017-09-26 天津大学 基于dct和lbp特征融合的图像特征提取方法

Non-Patent Citations (8)

* Cited by examiner, † Cited by third party
Title
ANA MARIA MENDONÇA 等: "Segmentation of Retinal Blood Vessels by Combining the Detection of Centerlines and Morphological Reconstruction", 《IEEE TRANSACTIONS ON MEDICAL IMAGING》 *
ZHIQIANG QIAO等: "Application of SVM Based on Genetic Algorithm in Classification of Cataract Fundus Images", 《2017 IEEE INTERNATIONAL CONFERENCE ON IMAGING SYSTEMS AND TECHNIQUES》 *
徐科 等: "《冶金工业出版社》", 30 October 2016 *
曾杨: "基于组合分类器的白内障眼底图像分类系统", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》 *
栾悉道 等: "《多媒体情报处理技术》", 31 May 2016, 国防工业出版社 *
范为明: "半监督算法的医学图像分类系统研究", 《中国优秀硕士学位论文全文数据库 医药卫生科技辑》 *
赵晓芳: "视网膜血管图像处理的若干关键问题研究", 《中国博士学位论文全文数据库 信息科技辑》 *
近藤直 等: "《农业机器人 1 基础与理论》", 31 May 2009, 中国农业大学出版社 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110348457A (zh) * 2019-06-25 2019-10-18 北京邮电大学 一种图像特征提取方法、提取装置、电子设备及存储介质
CN110348457B (zh) * 2019-06-25 2021-09-21 北京邮电大学 一种图像特征提取方法、提取装置、电子设备及存储介质
CN112365472A (zh) * 2020-11-12 2021-02-12 中科麦迪人工智能研究院(苏州)有限公司 血管寻径方法、装置、电子设备和存储介质
CN113361482A (zh) * 2021-07-07 2021-09-07 南方科技大学 核性白内障识别方法、装置、电子设备以及存储介质

Also Published As

Publication number Publication date
CN109376782B (zh) 2022-01-28

Similar Documents

Publication Publication Date Title
CN105335725B (zh) 一种基于特征融合的步态识别身份认证方法
CN106446952B (zh) 一种乐谱图像识别方法及装置
CN104834922B (zh) 基于混合神经网络的手势识别方法
Hussin et al. Digital image processing techniques for object detection from complex background image
CN106951870B (zh) 主动视觉注意的监控视频显著事件智能检测预警方法
CN106407917A (zh) 基于动态尺度分配的视网膜血管提取方法及系统
CN108121985A (zh) 一种基于机器视觉的双指针仪表读数方法
CN110263656A (zh) 一种癌细胞识别方法、装置和系统
CN106326874A (zh) 一种人眼图像中的虹膜识别方法及其装置
CN104217221A (zh) 基于纹理特征的书画作品检测方法
CN110443128A (zh) 一种基于surf特征点精确匹配的指静脉识别方法
CN108198157A (zh) 基于显著目标区域提取和nsst的异源图像融合方法
CN109376782A (zh) 基于眼部影像特征的支持向量机白内障分级方法及装置
CN109410168A (zh) 用于确定图像中的子图块的类别的卷积神经网络模型的建模方法
CN109902715A (zh) 一种基于上下文聚合网络的红外弱小目标检测方法
CN110472479A (zh) 一种基于surf特征点提取和局部lbp编码的指静脉识别方法
CN105894513B (zh) 顾及影像对象时空变化的遥感影像变化检测方法及系统
CN107992783A (zh) 人脸图像处理方法及装置
CN112906550B (zh) 一种基于分水岭变换的静态手势识别方法
CN103995860B (zh) 一种基于颜色特征提取的图像检索系统及其方法
CN108154147A (zh) 基于视觉注意模型的感兴趣区域检测方法
CN108280483A (zh) 基于神经网络的实蝇成虫图像识别方法
CN108509870A (zh) 一种基于图像匹配的中华绒螯蟹唯一性识别方法
CN109559273A (zh) 一种面向车底图像的快速拼接方法
CN106296632B (zh) 一种基于幅度谱分析的显著目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant