CN113781514A - 一种多低级特征融合的视网膜血管分割方法 - Google Patents
一种多低级特征融合的视网膜血管分割方法 Download PDFInfo
- Publication number
- CN113781514A CN113781514A CN202111075434.4A CN202111075434A CN113781514A CN 113781514 A CN113781514 A CN 113781514A CN 202111075434 A CN202111075434 A CN 202111075434A CN 113781514 A CN113781514 A CN 113781514A
- Authority
- CN
- China
- Prior art keywords
- feature
- low
- image
- level
- retinal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30041—Eye; Retina; Ophthalmic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Eye Examination Apparatus (AREA)
Abstract
本发明提出了一种多低级特征融合的视网膜血管分割方法,包括:S1.获取原始眼底图像集,分别提取若干低级特征图像;S2.将若干低级特征图像堆栈在一起,形成包含背景和血管特征的特征向量;S3.获取人工标注好的眼底图像集,与特征向量一起作为训练视网膜血管分割模型的输入,完成模型的训练;S4.将待分割的眼底图像经过上述S1、S2的处理后,输入训练好的视网膜血管分割模型,得到仅包含血管和背景的分割图像。本发明充分考虑了视网膜血管图像特性的多个低级特征,可以有效地保留丰富的视网膜血管特征,分类准确度高。不依赖大量的样本数据训练,解决了眼底图像中小样本实际情况对基于深度学习方法造成的学习样本较少、效果较差的问题。
Description
技术领域
本发明涉及医学影像技术领域,尤其涉及一种多低级特征融合的视网膜血管分割方法。
背景技术
视网膜血管是人体血管的一部分,通过观察其网络结构或者血管形态的改变,如直径、角度、分支形态等,可诊断出许多眼科和心血管疾病,如青光眼、糖尿病、视网膜病变、高血压、动脉硬化等。眼底图像的计算机辅助诊断(CAD)不仅可以简化糖尿病人群的大规模筛查,而且可以使临床医生有效地利用时间。因此,眼底彩色图像中视网膜血管结构的自动检测与提取具有重要意义。在眼底图像中,视网膜血管网络错综复杂,血管的亮度随着血管的延伸而变化,使得分割具有挑战性。目前主要存在两类眼底图像的血管分割方法:一类方法是非监督学习方法,通过提取并融合彩色眼底图像的图像特征,这种方法并不能准确判断哪些特征有效;另一类方法是监督学习,由于基于深度学习的血管分割模型对数据集的依赖性较强,而且现目前缺乏视网膜血管大数据集,使这类方法的分割效果不佳。
现有技术中,有利用多特征融合和神经网络分类器来进行视网膜血管分割的研究(“基于多特征融合和随机森林的视网膜血管分割,朱承璋、崔锦恺、邹北骥、陈瑶、王俊,《计算机辅助设计与图形学学报,2017年4月,第29卷第4期》”),其主要思路为:分别提取一定数量像素点的多维特征向量,构造特征矩阵输入随机森林算法训练好的分类器,进行血管分割。其存在的问题主要如下:1、以基础像素点为中心进行半径内的图像处理和特征提取,这样可能导致对图像整体的处理有重复或遗漏部分,浪费算力且效率较低;2、多维特征的选定稍有欠缺,大部分为本领域常用的特征,因此其实现的分割效果也有限;3、其连通域的后处理方法较为复杂,这正是由于其分类结果存在较多噪声导致的。
发明内容
本发明的目的是针对现有视网膜血管分割方法的不足,提供一种基于多种低级图像特征融合的视网膜血管分割方法,避免对大量数据的依赖,在小样本的情况下仍然可以提供较高的视网膜血管分割准确率,并且减少对基础硬件的算力占用。
为了实现以上发明目的,本发明提供的技术方案为:
一种多低级特征融合的视网膜血管分割方法,包括步骤:
步骤S1.获取原始眼底图像集,分别提取若干低级特征图像;
步骤S2.将所述若干低级特征图像堆栈在一起,形成包含背景和血管特征的特征向量;
步骤S3.获取人工标注好的眼底图像集,与所述特征向量一起作为训练视网膜血管分割模型的输入,完成模型的训练;
步骤S4.将待分割的眼底图像经过上述步骤S1、S2的处理后,输入训练好的视网膜血管分割模型,得到仅包含血管和背景的分割图像。
在一些较优的实施例中,还包括:
步骤S5.对步骤S4得到的分割图像进行后处理,去除图像噪声,得到最终的视网膜血管分割图像。
在一些较优的实施例中,步骤S1所述提取若干低级特征图像包括提取颜色特征图像;所述颜色特征图像包括:
RGB颜色空间中的绿色通道特征图FGreen;HSV色彩空间中的红色和橙色掩模图FHSV。
在一些较优的实施例中,步骤S1所述提取若干低级特征图像包括亮度图像FLum;所述亮度图像FLum的提取公式为:
FLum=0.299*R+0.587*G+0.114*B;其中,R、G、B分别为RGB颜色空间眼底图像的红、绿、蓝通道亮度。
在一些较优的实施例中,步骤S1所述提取若干低级特征图像包括边缘特征图集FEdge;所述边缘特征图集FEdge的组成为:FEdge={FCanny,FSobel,FScharr};
其中,FCanny为使用Canny算子,分别利用3*3和5*5两种内核提取的边缘特征图像;
FSobel为使用Sobel算子提取的边缘特征图像;
FScharr为分别在X和Y方向使用Scharr算子,分别利用3*3和9*9两种内核提取的边缘特征图像。
在一些较优的实施例中,步骤S1所述提取若干低级特征图像包括形态学特征图像;所述形态学特征图像包括:分别利用膨胀、腐蚀、开、闭和底帽变换得到的形态学特征图像。
在一些较优的实施例中,步骤S1所述提取若干低级特征图像包括纹理特征图集FTexture;所述纹理特征图集FTexture的组成为:FTexture={FGabor,FHessian,FFrangi};
其中,FGabor为使用Gabor滤波器提取的纹理特征图像,核函数尺度为1;
FHessian为使用Hessian滤波器提取的纹理特征图像,提取步长为10;
FFrangi为使用Frangi滤波器提取的纹理特征图像,提取灵敏度系数为10,提取尺寸分别为0.002、0.002、0.004、0.008和0.01。
在一些较优的实施例中,步骤S1所述提取若干低级特征图像包括多尺度特征图像FM;所述多尺度特征图像FM的提取方法为:
根据图像灰度从0-180度建立12个等间距的高斯滤波器,对所述眼底图像进行12个方向[0°,15°,...180°]的高斯匹配滤波,对获得的掩码图进行与运算,获得多尺度特征图集FM。
在一些较优的实施例中,步骤S3所述视网膜血管分割模型是基于AdaBoost算法的分类器。
在一些较优的实施例中,步骤S5中所述后处理的方法为:通过连通区域分析,将小于20个像素点的连通区域标记为背景。
有益效果
本发明所提出的视网膜血管分割方法融合了充分考虑了视网膜血管图像特性的多个低级特征,可以有效地保留丰富的视网膜血管特征,分类准确度高。且不依赖大量的样本数据训练,解决了眼底图像中小样本实际情况对基于深度学习方法造成的学习样本较少、效果较差的问题,具有小样本学习、灵活有效等特点。
附图说明
图1为本发明中一种较优实施例的流程图;
图2为本发明中另一种较优实施例的流程图;
图3为本发明所提出的分割方法与其他部分现有方法的分割结果示意图;
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图对本发明作进一步阐述。在本发明的描述中,需要理解的是,术语“上”、“下”、“前”、“后”、“左”、“右”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
实施例1
如图1所示,本实施例提供了一种多低级特征融合的视网膜血管分割方法,包括步骤:
步骤S1.获取原始眼底图像集,分别提取若干低级特征图像;
步骤S2.将所述若干低级特征图像堆栈在一起,形成包含背景和血管特征的特征向量;
步骤S3.获取人工标注好的眼底图像集,与所述特征向量一起作为训练视网膜血管分割模型的输入,完成模型的训练;
步骤S4.将待分割的眼底图像经过上述步骤S1、S2的处理后,输入训练好的视网膜血管分割模型,得到仅包含血管和背景的分割图像。
应当理解的是,所述眼底图像中包含了多种特征,但并非所有特征都有助于提高血管检测或分割任务的性能。本领域的技术人员在进行特征选择时需要通过识别最不同的特征及其组合来提高分类精度,进一步的,这些特征中的低级特征,如灰度、颜色、强度、边缘、形态、纹理和多尺度线性特征等,容易被其他大型特征向量中的噪声特征隐藏或污染,但低级特征往往更能反映血管的细节特征。因此,对低级特征的选择和提取是本领域的重点研究对象,本领域的技术人员有众多的技术方案可以选择。
在一些较优的实施例中,如图2所示,为了消除最后分类结果中的噪声或其他杂质,需要进行去噪处理,因此,还包括:步骤S5.对步骤S4得到的分割图像进行后处理,去除图像噪声,得到最终的视网膜血管分割图像。
实施例2
本实施例是在上述实施例1的基础上展开的,本实施例给出了一种提取低级特征图像的具体实例,包括:步骤S1所述提取若干低级特征图像包括提取颜色特征图像;所述颜色特征图像包括:
RGB颜色空间中的绿色通道特征图FGreen;HSV色彩空间中的红色和橙色掩模图FHSV。
应当理解的是,获取到的眼底图像为彩色图像,其包括红色、绿色和蓝色通道特征。对于视网膜血管图像,彩色眼底图像在绿色通道分离出的图像中显示出最强的对比度,因此本实施例选择绿色特征图作为一个重要的低级特征。
另一方面,HSV颜色空间包括黑色、白色、红色、橙色、黄色、绿色、青色、蓝色和紫色,其中,在红色空间中,眼底图像的大血管显示更加清晰,而背景和小血管则是在橙色空间中显示的更清晰。因此,本实施例选择HSV色彩空间中的红色和橙色掩模图。更进一步的是,与单纯提取RGB颜色空间相比,HSV颜色空间可以直接显示颜色的类型、明暗,在彩色视网膜血管图像中血管和背景的颜色分布是明显的。因此,综合利用HSV颜色空间提取颜色信息方便、清晰。
实施例3
本实施例是在上述实施例1的基础上展开的,本实施例给出了另一种提取低级特征图像的具体实例,包括:步骤S1所述提取若干低级特征图像包括亮度图像FLum;所述亮度图像FLum的提取公式为:
FLum=0.299*R+0.587*G+0.114*B;其中,R、G、B分别为RGB颜色空间眼底图像的红、绿、蓝通道特征图像。应当理解的是,眼底图像中,各区域血管与背景亮度值不同,通过不同的阈值划分可以有效地将血管与背景分离,因此本实施例考虑将亮度值作为特征。在彩色视网膜血管图像中,不同区域的血管和背景的亮度明显不同。并且,如上述实施例2中所述,由于绿色通道能较强的反映血管特征,故本实施例对绿色通道特征设置了较大的权重参数。
实施例4
本实施例是在上述实施例1的基础上展开的,本实施例给出了另一种提取低级特征图像的具体实例,包括:步骤S1所述提取若干低级特征图像包括边缘特征图集FEdge;所述边缘特征图集FEdge的组成为:FEdge={FCanny,FSobel,FScharr};
其中,FCanny为使用Canny算子,分别利用3*3和5*5两种内核提取的边缘特征图像;在边缘检测时判断弱边缘点是否为边缘,当弱边缘点的邻域像素点存在强边缘点时,该弱边缘点可定义为强边缘点。反之亦然。因此,本实施例使用Canny算子同时考虑了邻域8个和24个像素点范围,来估计血管的边缘。
FSobel为使用Sobel算子提取的边缘特征图像;
FScharr为分别在X和Y方向使用Scharr算子,分别利用3*3和9*9两种内核提取的边缘特征图像。其中,所述内核可以理解为滤波器,本实施例为了提取更丰富的Scharr边缘特征,考虑选用不同大小的滤波器来进行边缘特征提取。
应当理解的是,视网膜血管图像边缘特征明显,血管与背景交界处有明显的灰度或其他特征值变化。因此,边缘特征对于视网膜血管分割很重要。但单独使用Sobel算子虽然可以有效提取图像边缘,但无法提取不清晰的边缘。与Sobel提取的边缘特征相比,Scharr算子FScharr提取的边缘特征图可以显着提升微小血管的信息。因此,本实施例考虑同时采用上述三种方法进行边缘特征的提取。
实施例5
本实施例是在上述实施例1的基础上展开的,本实施例给出了另一种低级特征图像的具体实例,包括:步骤S1所述提取若干低级特征图像包括形态学特征图像;所述形态学特征图像包括:分别利用膨胀、腐蚀、开、闭和底帽变换得到的形态学特征图像。本领域技术人员应当知晓,在图像处理领域形态学运算可以去除图像中的噪声,连接图像区域。本实施例在进行上述形态学处理时的算子均设置为3*3大小。其中,在另一些较优的实施例中,在进行底帽操作时,选取(80,800)、(800,80)和(800,800)三个不同结构的核对灰度图像进行运算。
实施例6
本实施例是在上述实施例1的基础上展开的,本实施例给出了另一种提取低级特征图像的具体实例,包括:步骤S1所述提取若干低级特征图像包括纹理特征图集ETexture;所述纹理特征图集FTexture的组成为:FTexture={FGabor,FHessian,FFrangi};
其中,FGabor为使用Gabor滤波器提取的纹理特征图像,其中,通过实验对比可以得出,当Gabor核函数尺度为1时,其提取效果最佳;
FHessian为使用Hessian滤波器提取的纹理特征图像,提取步长为10,具体的,当Hessian矩阵的特征值λ1和λ2分别为10时,其提取效果最佳;
FFrangi为使用Frangi滤波器提取的纹理特征图像,提取灵敏度系数为10,提取尺寸分别为0.002、0.002、0.004、0.008和0.01。
实施例7
本实施例是在上述实施例1的基础上展开的,本实施例给出了另一种低级特征图像的具体实例,包括:步骤S1所述提取若干低级特征图像包括多尺度特征图像FM;所述多尺度特征图像FM的提取方法为:
根据图像灰度从0-180度建立12个等间距的高斯滤波器,对所述眼底图像进行12个方向[0°,15°,...180°]的高斯匹配滤波,对获得的掩码图进行与运算,获得多尺度特征图集FM。
在本实施例中,根据血管的灰度分布可以从0到180度共建立12个线性检测器,作为1个低级特征。通过分析视网膜血管的横向信息,我们可以发现,视网膜血管的灰度分布符合高斯匹配滤波函数,因此,本实施例选取σ=1.5,L=9,12个方向[0°,15°,...180°]的灰度图像进行线性视网膜血管高斯匹配滤波。
实施例7
本实施例是在上述实施例1的基础上展开的,本实施例给出了一种视网膜血管分割模型的具体实例,包括:步骤S3所述视网膜血管分割模型是基于AdaBoost算法的分类器。所述AdaBoost是一种自适应监督机器学习技术,它结合了一组具有低辨别力的低级分类器(称为弱学习器)来构建一个强大的分类器。AdaBoost算法易于实现且速度相对较快,因此在与计算机视觉和医学成像相关的问题中很受欢迎。最终分类器是弱分类器的加权组合,定义为强分类器,输出血管或背景的分数。
实施例8
本实施例是在上述实施例1的基础上展开的,本实施例给出了一种后处理的具体实例,包括:步骤S5中所述后处理的方法为:通过连通区域分析,将小于20个像素点的连通区域标记为背景。
使用单一分类器对眼底图像的血管进行分割时,分割结果中多少还是会存在一些噪声或其他杂质。但是由于本申请的低级特征设置较为合理,更符合眼底图像中血管的特征,因此经过分类的图像其噪声较少,可以使用较为简单的后处理方法。当8个像素点中一个或多个像素点的灰度值与该像素点周围四个像素点的灰度值相同,则将这8个像素点的灰度值统一,以此类推,并且将小于20个像素点的连接区域标记为背景。
实验例1
在本实验例中,使用公开的用于血管分割的彩色眼底图像数据集(DRIVE)来对比评估本发明所提出的视网膜血管分割方法的性能。DRIVE数据集包含了20幅训练图像和20幅测试图像,彩色眼底图像的分辨率为584x565。同时,每幅图像还包含了专家手工标注的视网膜血管分割金标准。
本实验例采用的对比算法包括:
Random Forest:基于随机森林的视网膜血管分割方法。
Azzopardi:一种基于可训练cosfire滤波器的眼底图像视网膜血管分割方法。
Orlando:一种用于眼底图像血管分割的判别训练全连通条件随机场模型。
Li:最近提出的基于跨模态学习方法的血管分割模型。
Liskowski:利用深度神经网络建立的视网膜血管分割模型。
Yan:最近提出的联合分割水平和像素级损失的深度学习模型。
Wu:最近提出的基于多尺度跟随网络的血管分割模型。
NFN+:最先进的基于深度学习和神经网络的模型。
以上方法分为两类:传统方法和深度学习方法,具体地,Random Forest、Azzopardi、Orland和Li属于传统方法;Liskowski、Yan、Wu和NFN+属于深度学习方法。
本实验例的实验设置如下:
为了验证这些方法的有效性,本实施例应用了以下评估指标:
Accuracy(ACC):模型分割视网膜血管的准确率,其公式如下:
其中,True Positive(TP)为被模型预测为正的正样本数;True Negative(TN)为被模型预测为负的负样本数;False Positive(FP)为被模型预测为正的负样本数;FalseNegative(FN)为被模型预测为负的正样本数。
sensitivity(SE):模型的敏感度,其公式如下:
Specificity(SP):模型的特异性,其公式如下:
实验结果对比:
本实验例给出了上述所有方法在DRIVE数据集中的视网膜血管分割性能结果,所有上述方法的指标结果如下表1所示:
表1各血管分割算法的ACC、SE和SP评估指标对比结果
由上表中的实验结果数据分析可知,与其他现有的方法相比,本发明所提出的多低级特征融合的视网膜血管分割方法在DRIVE数据集上取得了竞争优势,其分割准确率优于现有的方法,包括基于深度学习的方法。本方法在样本较少的情况下,能达到高精度的效果。
此外,本实施例给出了部分方法的实际分割效果对比图,如图3所示,其中,(a)为原始图像,(b)为专家手工标注的视网膜血管分割金标准;(c)为2D匹配滤波方法的分割结果;(d)为基于随机森林的视网膜血管分割结果;(e)为本发明所提出的血管分割方法的分割结果。由图3可看出,与其他方法相比,本发明所提出的多低级特征融合方法能更加准确地分割彩色眼底图像中的视网膜血管。图3中的第三行展示了血管细节,本方法的分割结果中包含了更丰富的血管细节信息。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
Claims (10)
1.一种多低级特征融合的视网膜血管分割方法,其特征在于,包括步骤:
步骤S1.获取原始眼底图像集,分别提取若干低级特征图像;
步骤S2.将所述若干低级特征图像堆栈在一起,形成包含背景和血管特征的特征向量;
步骤S3.获取人工标注好的眼底图像集,与所述特征向量一起作为训练视网膜血管分割模型的输入,完成模型的训练;
步骤S4.将待分割的眼底图像经过上述步骤S1、S2的处理后,输入训练好的视网膜血管分割模型,得到仅包含血管和背景的分割图像。
2.如权利要求1所述的多低级特征融合的视网膜血管分割方法,其特征在于,还包括:
步骤S5.对步骤S4得到的分割图像进行后处理,去除图像噪声,得到最终的视网膜血管分割图像。
3.如权利要求1所述的多低级特征融合的视网膜血管分割方法,其特征在于,步骤S1所述提取若干低级特征图像包括提取颜色特征图像;所述颜色特征图像包括:
RGB颜色空间中的绿色通道特征图FGreen;HSV色彩空间中的红色和橙色掩模图FHSV。
4.如权利要求1所述的多低级特征融合的视网膜血管分割方法,其特征在于,步骤S1所述提取若干低级特征图像包括亮度图像FLum;所述亮度图像FLum的提取公式为:
FLum=0.299*R+0.587*G+0.114*B;其中,R、G、B分别为RGB颜色空间眼底图像的红、绿、蓝通道亮度。
5.如权利要求1所述的多低级特征融合的视网膜血管分割方法,其特征在于,步骤S1所述提取若干低级特征图像包括边缘特征图集FEdge;所述边缘特征图集FEdge的组成为:FEdge={Fcanny,FSobel,FScharr};
其中,FCanny为使用Canny算子,分别利用3*3和5*5两种内核提取的边缘特征图像;
FSobel为使用Sobel算子提取的边缘特征图像;
Fscharr为分别在X和Y方向使用Scharr算子,分别利用3*3和9*9两种内核提取的边缘特征图像。
6.如权利要求1所述的多低级特征融合的视网膜血管分割方法,其特征在于,步骤S1所述提取若干低级特征图像包括形态学特征图像;所述形态学特征图像包括:分别利用膨胀、腐蚀、开、闭和底帽变换得到的形态学特征图像。
7.如权利要求1所述的多低级特征融合的视网膜血管分割方法,其特征在于,步骤S1所述提取若干低级特征图像包括纹理特征图集FTexture;所述纹理特征图集FTexture的组成为:FTexture={FGabor,FHessian,FFrangi};
其中,FGabor为使用Gabor滤波器提取的纹理特征图像,核函数尺度为1;
FHessian为使用Hessian滤波器提取的纹理特征图像,提取步长为10;
FFrangi为使用Frangi滤波器提取的纹理特征图像,提取灵敏度系数为10,提取尺寸分别为0.002、0.002、0.004、0.008和0.01。
8.如权利要求1所述的多低级特征融合的视网膜血管分割方法,其特征在于,步骤S1所述提取若干低级特征图像包括多尺度特征图像FM;所述多尺度特征图像FM的提取方法为:
根据图像灰度从0-180度建立12个等间距的高斯滤波器,对所述眼底图像进行12个方向[0°,15°,...180°]的高斯匹配滤波,对获得的掩码图进行与运算,获得多尺度特征图集FM。
9.如权利要求1所述的多低级特征融合的视网膜血管分割方法,其特征在于,步骤S3所述视网膜血管分割模型是基于AdaBoost算法的分类器。
10.如权利要求2所述的多低级特征融合的视网膜血管分割方法,其特征在于,步骤S5中所述后处理的方法为:通过连通区域分析,将小于20个像素点的连通区域标记为背景。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111075434.4A CN113781514A (zh) | 2021-09-14 | 2021-09-14 | 一种多低级特征融合的视网膜血管分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111075434.4A CN113781514A (zh) | 2021-09-14 | 2021-09-14 | 一种多低级特征融合的视网膜血管分割方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113781514A true CN113781514A (zh) | 2021-12-10 |
Family
ID=78843761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111075434.4A Pending CN113781514A (zh) | 2021-09-14 | 2021-09-14 | 一种多低级特征融合的视网膜血管分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113781514A (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104809480A (zh) * | 2015-05-21 | 2015-07-29 | 中南大学 | 一种基于分类回归树和AdaBoost的眼底图像视网膜血管分割方法 |
CN107248161A (zh) * | 2017-05-11 | 2017-10-13 | 江西理工大学 | 一种多特征融合的有监督视网膜血管提取方法 |
-
2021
- 2021-09-14 CN CN202111075434.4A patent/CN113781514A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104809480A (zh) * | 2015-05-21 | 2015-07-29 | 中南大学 | 一种基于分类回归树和AdaBoost的眼底图像视网膜血管分割方法 |
CN107248161A (zh) * | 2017-05-11 | 2017-10-13 | 江西理工大学 | 一种多特征融合的有监督视网膜血管提取方法 |
Non-Patent Citations (1)
Title |
---|
TAO DENG 等: "MLFF: Multiple Low-Level Features Fusion Model for Retinal Vessel Segmentation", 《16TH INTERNATIONAL CONFERENCE》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108986106B (zh) | 面向青光眼的视网膜血管自动分割方法 | |
CN110276356B (zh) | 基于r-cnn的眼底图像微动脉瘤识别方法 | |
Mahiba et al. | Severity analysis of diabetic retinopathy in retinal images using hybrid structure descriptor and modified CNNs | |
CN110766643A (zh) | 一种面向眼底图像的微动脉瘤检测方法 | |
US20060257031A1 (en) | Automatic detection of red lesions in digital color fundus photographs | |
Sánchez et al. | Mixture model-based clustering and logistic regression for automatic detection of microaneurysms in retinal images | |
Razzak | Automatic detection and classification of malarial parasite | |
Aswini et al. | Retinal vessel segmentation using morphological top hat approach on diabetic retinopathy images | |
Li et al. | Vessel recognition of retinal fundus images based on fully convolutional network | |
Razzak | Malarial parasite classification using recurrent neural network | |
Anari et al. | Computer-aided detection of proliferative cells and mitosis index in immunohistichemically images of meningioma | |
Tang et al. | Retinal vessel segmentation from fundus images using DeepLabv3+ | |
CN110021019A (zh) | 一种aga临床图像的ai辅助毛发的粗细分布分析方法 | |
Vo et al. | Discriminant color texture descriptors for diabetic retinopathy recognition | |
Reddy et al. | Diabetic retinopathy through retinal image analysis: A review | |
Zhang et al. | Automatic detection of microaneurysms in fundus images based on multiple preprocessing fusion to extract features | |
Badeka et al. | Evaluation of LBP variants in retinal blood vessels segmentation using machine learning | |
Gou et al. | A novel retinal vessel extraction method based on dynamic scales allocation | |
Oprisescu et al. | Automatic pap smear nuclei detection using mean-shift and region growing | |
Zhou et al. | A novel approach for red lesions detection using superpixel multi-feature classification in color fundus images | |
Taher et al. | Extraction of sputum cells using thresholding techniques for lung cancer detection | |
Jardeleza et al. | Detection of Common Types of Eczema Using Gray Level Co-occurrence Matrix and Support Vector Machine | |
CN113781514A (zh) | 一种多低级特征融合的视网膜血管分割方法 | |
Martins | Automatic microaneurysm detection and characterization through digital color fundus images | |
Akram et al. | Microaneurysm detection for early diagnosis of diabetic retinopathy |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |