CN112700409A - 视网膜微动脉瘤自动检测方法及成像方法 - Google Patents

视网膜微动脉瘤自动检测方法及成像方法 Download PDF

Info

Publication number
CN112700409A
CN112700409A CN202011581334.4A CN202011581334A CN112700409A CN 112700409 A CN112700409 A CN 112700409A CN 202011581334 A CN202011581334 A CN 202011581334A CN 112700409 A CN112700409 A CN 112700409A
Authority
CN
China
Prior art keywords
image
microaneurysm
retinal
attention
filter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011581334.4A
Other languages
English (en)
Inventor
邹北骥
单希
杜婧瑜
程真真
杨璐璐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202011581334.4A priority Critical patent/CN112700409A/zh
Publication of CN112700409A publication Critical patent/CN112700409A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

本发明公开了一种视网膜微动脉瘤自动检测方法,包括获取原始视网膜彩色眼底图像并标记;提取通道分量和感兴趣区域;对图像数据进行图像处理得到训练数据集;以U形网络为基本架构构建视网膜微动脉瘤初步识别模型;采用训练数据集训练识别模型得到最终的视网膜微动脉瘤识别模型;采用视网膜微动脉瘤识别模型对实时获取的视网膜彩色眼底图像进行识别检测。本发明还公开了一种包括所述视网膜微动脉瘤自动检测方法的成像方法。本发明采用卷积神经网络和注意力引导滤波器训练得到深度学习模型,可以自动提取特征,相比于传统方法,省去了复杂的人工特征设计和提取过程,具有速度快、准确率高的优势,而且可靠性高、实用性好、适用范围广且易于实施。

Description

视网膜微动脉瘤自动检测方法及成像方法
技术领域
本发明属于图像处理领域,具体涉及一种视网膜微动脉瘤自动检测方法及成像方法。
背景技术
随着经济技术的发展和人们生活水平的提高,人们对于健康的关注也越来越高。视网膜图像能够较好的反映眼底的状态,是人们了解自身眼睛状态的重要检查依据。目前,随着人们对于健康的关注度越来越高,视网膜图像在医学上的需求和应用也越来越广泛。
视网膜图像中,微动脉瘤是某些病变的早期重要指示标志。因此,对于视网膜微动脉瘤的检测和识别,就成为了视网膜图像检测的研究方向之一。
视网膜微动脉瘤的检测和识别,一般采用的是专业医护人员人工识别的方式。但是,这种方式对医生的水平和经验提出了较高的要求;而且由于微动脉瘤的尺寸非常小、颜色对比度较低,加之在眼底上分布较为随机,使得人工检测的过程繁琐且耗时,而且可靠性不高。
目前,基于机器学习的方法已经逐步应用,但是传统的基于机器学习的检测方法,需要繁琐的预处理,如血管去除、视盘去除等,后续还涉及候选微动脉瘤提取、手动设计、提取特征等复杂过程,使得该类方法的普适性不高,而且方法本身也存在可靠性差和流程复杂的缺陷。
发明内容
本发明的目的之一在于提供一种可靠性高、实用性好、适用范围广且易于实施的视网膜微动脉瘤自动检测方法。
本发明的目的之二在于提供一种包括了所述视网膜微动脉瘤自动检测方法的成像方法。
本发明提供的这种视网膜微动脉瘤自动检测方法,包括如下步骤:
S1.获取原始视网膜彩色眼底图像,并进行标记;
S2.针对步骤S1获取并标记的原始视网膜彩色眼底图像,提取通道分量和感兴趣区域;
S3.对步骤S2获取的图像数据进行图像处理,从而得到训练数据集;
S4.以U形网络为基本架构,构建视网膜微动脉瘤初步识别模型;
S5.采用步骤S3得到的训练数据集,对步骤S4构建的视网膜微动脉瘤初步识别模型进行训练,从而得到最终的视网膜微动脉瘤识别模型;
S6.采用步骤S5得到的视网膜微动脉瘤识别模型,对实时获取的视网膜彩色眼底图像进行识别检测,完成视网膜微动脉瘤的自动检测。
步骤S2所述的提取通道分量和感兴趣区域,具体为采用如下步骤提取通道分量和感兴趣区域:
A.提取原始视网膜彩色眼底图像绿色通道眼底图像;
B.采用最大类间阈值分割法来自适应的计算出最佳阈值T,从而提取得到感兴趣区域:
Figure BDA0002864484580000021
式中g(x,y)为经阈值分割处理后的图像;f(x,y)为原图像;在g=w0×w1×(u0-u1)2取最大值时,对应的T取值为最佳阈值,w0为前景像素点数占整幅图像的比例,w1为背景像素点数占整幅图像的比例,u0为前景平均灰度,u1为背景平均灰度。
步骤S3所述的对步骤S2获取的图像数据进行图像处理,从而得到训练数据集,具体为采用如下步骤得到训练数据集:
a.采用限制对比度自适应直方图均衡化技术对图像进行处理:
Figure BDA0002864484580000031
式中S为对比度;N为局部子区域内总像素数目;M为图像的最大灰度值;Hist(i)为局部块内的直方图;直方图为离散函数h(rk)=nk,rk为第k级灰度值,nk为图像中灰度为rk的像素数目;
b.采用双立方插值技术统一图像尺寸:
Figure BDA0002864484580000032
式中F(i',j')为插值后对应坐标的值;F(i,j)为原图中坐标点(i,j)的值;i和j为像素点坐标;m和n为偏移量;R(x)为插值表达式且
Figure BDA0002864484580000033
c.采用高斯滤波对图像进行平滑处理:
Figure BDA0002864484580000034
式中G(x,y)为经过高斯滤波处理后的图像;σ为标准偏差,用于表示高斯函数的有效范围;
d.对图像数据集进行数据增广操作。
所述的数据增广操作,具体包括垂直镜像、水平镜像、随机翻转和亮度变化。
步骤S4所述的以U形网络为基本架构,构建视网膜微动脉瘤初步识别模型,具体为采用如下步骤构建视网膜微动脉瘤初步识别模型:
模型包括编码器和解码器;
编码器包括四个经典结构,每一个经典结构均包括三个不同大小的平行卷积核,卷积核大小分别为3×3、5×5和7×7;卷积核进行特征提取;四个经典结构均用于采样,且每次下采样时特征图的通道数加倍,特征图的大小减半;
解码器包括四个经典结构,每一个经典结构均包括三个不同大小的平行卷积核,卷积核大小分别为3×3、5×5和7×7;
编码器提取到的低层特征和解码器提取到的高层特征级联在一起;
引入注意力引导滤波器,将从低层特征提取到的结构信息转移到高层特征图中。
所述的注意力引导滤波器用于恢复空间信息,从不同分辨率层级图像合并结构信息;注意力引导滤波器的输入包括一个引导特征图I和一个滤波器特征图O,输出为一个高分辨率特征图
Figure BDA0002864484580000041
注意力引导滤波器首先对引导特征图I进行下采样得到低分辨率特征图Il,Il的大小和滤波器特征图一样;然后最小化Il和O之间的重建误差,得到注意力引导滤波器Al、Bl的参数;接下来对Al、Bl进行上采样,获得注意力引导滤波器Ah、Bh的参数,最终得到注意力引导滤波器的高分辨率输出图像。
步骤S5所述的训练,具体为训练过程中采用权重交叉熵损失:
Figure BDA0002864484580000042
式中N为训练样本数;w为权重;rn为标签分割图中的某一像素的金标准;pn为预测像素的概率值;1-pn为背景像素图的概率值。
本发明还提供了一种包括了所述视网膜微动脉瘤自动检测方法的成像方法,还包括如下步骤:
S7.根据步骤S6得到的识别检测结果,在实时获取的视网膜彩色眼底图像上,对微动脉瘤进行标记和成像。
本发明提供的这种视网膜微动脉瘤自动检测方法及成像方法,采用卷积神经网络和注意力引导滤波器训练得到深度学习模型,可以自动从海量数据中提取特征,相比于传统方法,省去了复杂的人工特征设计、提取过程,具有速度快、准确率高的优势,而且可靠性高、实用性好、适用范围广且易于实施。
附图说明
图1为本发明检测方法的方法流程示意图。
图2为本发明检测方法中原始眼底图像示意图。
图3为本发明检测方法中经过预处理后的眼底图像示意图。
图4为本发明检测方法中识别模型的结构示意图。
图5为本发明检测方法中注意力引导滤波器的结构示意图。
图6为本发明检测方法中微动脉瘤检测结果示意图。
图7为本发明成像方法的方法流程示意图。
具体实施方式
如图1所示为本发明检测方法的方法流程示意图:本发明提供的这种视网膜微动脉瘤自动检测方法,包括如下步骤:
S1.获取原始视网膜彩色眼底图像(如图2所示),并进行标记;
S2.针对步骤S1获取并标记的原始视网膜彩色眼底图像,提取通道分量和感兴趣区域;具体为采用如下步骤提取通道分量和感兴趣区域:
A.提取原始视网膜彩色眼底图像的绿色通道眼底图像;
B.采用最大类间阈值分割法来自适应的计算出最佳阈值T,从而提取得到感兴趣区域:
Figure BDA0002864484580000061
式中g(x,y)为经阈值分割处理后的图像;f(x,y)为原图像;在g=w0×w1×(u0-u1)2取最大值时,对应的T取值为最佳阈值,w0为前景像素点数占整幅图像的比例,w1为背景像素点数占整幅图像的比例,u0为前景平均灰度,u1为背景平均灰度;
S3.对步骤S2获取的图像数据进行图像处理,从而得到训练数据集;具体为采用如下步骤得到训练数据集:
a.采用限制对比度自适应直方图均衡化技术对图像进行处理,从而消除眼底图像中光照不均、微动脉瘤与背景对比度低等带来的影响:
Figure BDA0002864484580000062
式中S为对比度;N为局部子区域内总像素数目;M为图像的最大灰度值;Hist(i)为局部块内的直方图;直方图为离散函数h(rk)=nk,rk为第k级灰度值,nk为图像中灰度为rk的像素数目;
在图像局部范围内进行直方图均衡化并限制对比度,从而可以对重点关注的区域进行突出和增强,对不感兴趣和不重要的区域进行减弱或抑制处理;
b.采用双立方插值技术统一图像尺寸,从而统一训练数据的尺寸:
Figure BDA0002864484580000071
式中F(i',j')为插值后对应坐标的值;F(i,j)为原图中坐标点(i,j)的值;i和j为像素点坐标;m和n为偏移量;R(x)为插值表达式且
Figure BDA0002864484580000072
c.微动脉瘤的尺寸小且与背景的对比度低,检测过程很容易受到噪声的影响,因此采用高斯滤波对图像进行平滑处理(如图3所示):
Figure BDA0002864484580000073
式中G(x,y)为经过高斯滤波处理后的图像;σ为标准偏差,用于表示高斯函数的有效范围;
d.对图像数据集进行数据增广操作;具体包括垂直镜像、水平镜像、随机翻转和亮度变化等;扩大训练数据集,增强模型的泛化性;
S4.以U形网络为基本架构,构建视网膜微动脉瘤初步识别模型;具体为采用如下步骤构建视网膜微动脉瘤初步识别模型(如图4所示,图中AG即为注意力引导滤波器):
模型包括编码器和解码器;
编码器包括四个经典结构,每一个经典结构均包括三个不同大小的平行卷积核,卷积核大小分别为3×3、5×5和7×7;卷积核进行特征提取;四个经典结构均用于采样,且每次下采样时特征图的通道数加倍,特征图的大小减半;
解码器包括四个经典结构,每一个经典结构均包括三个不同大小的平行卷积核,卷积核大小分别为3×3、5×5和7×7;
编码器提取到的低层特征和解码器提取到的高层特征级联在一起;
引入注意力引导滤波器,将从低层特征提取到的结构信息转移到高层特征图中;
其中,所述的注意力引导滤波器(如图5所示)用于恢复空间信息,从不同分辨率层级图像合并结构信息;注意力引导滤波器的输入包括一个引导特征图I和一个滤波器特征图O,输出为一个高分辨率特征图
Figure BDA0002864484580000081
注意力引导滤波器首先对引导特征图I进行下采样得到低分辨率特征图Il,Il的大小和滤波器特征图一样;然后最小化Il和O之间的重建误差,得到注意力引导滤波器Al、Bl的参数;接下来对Al、Bl进行上采样,获得注意力引导滤波器Ah、Bh的参数,最终得到注意力引导滤波器的高分辨率输出图像;
S5.采用步骤S3得到的训练数据集,对步骤S4构建的视网膜微动脉瘤初步识别模型进行训练,从而得到最终的视网膜微动脉瘤识别模型;
在训练过程中,采用权重交叉熵损失:
Figure BDA0002864484580000082
式中N为训练样本数;w为权重;rn为标签分割图中的某一像素的金标准;pn为预测像素的概率值;1-pn为背景像素图的概率值;
S6.采用步骤S5得到的视网膜微动脉瘤识别模型,对实时获取的视网膜彩色眼底图像进行识别检测,完成视网膜微动脉瘤的自动检测;检测结果如图6所示。
如图7所示为本发明成像方法的方法流程示意图:本发明提供的这种包括了所述视网膜微动脉瘤自动检测方法的成像方法,包括如下步骤:
S1.获取原始视网膜彩色眼底图像(如图2所示),并进行标记;
S2.针对步骤S1获取并标记的原始视网膜彩色眼底图像,提取通道分量和感兴趣区域;具体为采用如下步骤提取通道分量和感兴趣区域:
A.提取原始视网膜彩色眼底图像的绿色通道眼底图像;
B.采用最大类间阈值分割法来自适应的计算出最佳阈值T,从而提取得到感兴趣区域:
Figure BDA0002864484580000091
式中g(x,y)为经阈值分割处理后的图像;f(x,y)为原图像;在g=w0×w1×(u0-u1)2取最大值时,对应的T取值为最佳阈值,w0为前景像素点数占整幅图像的比例,w1为背景像素点数占整幅图像的比例,u0为前景平均灰度,u1为背景平均灰度;
S3.对步骤S2获取的图像数据进行图像处理,从而得到训练数据集;具体为采用如下步骤得到训练数据集:
a.采用限制对比度自适应直方图均衡化技术对图像进行处理,从而消除眼底图像中光照不均、微动脉瘤与背景对比度低等带来的影响:
Figure BDA0002864484580000092
式中S为对比度;N为局部子区域内总像素数目;M为图像的最大灰度值;Hist(i)为局部块内的直方图;直方图为离散函数h(rk)=nk,rk为第k级灰度值,nk为图像中灰度为rk的像素数目;
在图像局部范围内进行直方图均衡化并限制对比度,从而可以对重点关注的区域进行突出和增强,对不感兴趣和不重要的区域进行减弱或抑制处理;
b.采用双立方插值技术统一图像尺寸,从而统一训练数据的尺寸:
Figure BDA0002864484580000101
式中F(i',j')为插值后对应坐标的值;F(i,j)为原图中坐标点(i,j)的值;i和j为像素点坐标;m和n为偏移量;R(x)为插值表达式且
Figure BDA0002864484580000102
c.微动脉瘤的尺寸小且与背景的对比度低,检测过程很容易受到噪声的影响,因此采用高斯滤波对图像进行平滑处理(如图3所示):
Figure BDA0002864484580000103
式中G(x,y)为经过高斯滤波处理后的图像;σ为标准偏差,用于表示高斯函数的有效范围;
d.对图像数据集进行数据增广操作;具体包括垂直镜像、水平镜像、随机翻转和亮度变化等;扩大训练数据集,增强模型的泛化性;
S4.以U形网络为基本架构,构建视网膜微动脉瘤初步识别模型;具体为采用如下步骤构建视网膜微动脉瘤初步识别模型(如图4所示):
模型包括编码器和解码器;
编码器包括四个经典结构,每一个经典结构均包括三个不同大小的平行卷积核,卷积核大小分别为3×3、5×5和7×7;卷积核进行特征提取;四个经典结构均用于采样,且每次下采样时特征图的通道数加倍,特征图的大小减半;
解码器包括四个经典结构,每一个经典结构均包括三个不同大小的平行卷积核,卷积核大小分别为3×3、5×5和7×7;
编码器提取到的低层特征和解码器提取到的高层特征级联在一起;
引入注意力引导滤波器,将从低层特征提取到的结构信息转移到高层特征图中;
其中,所述的注意力引导滤波器(如图5所示)用于恢复空间信息,从不同分辨率层级图像合并结构信息;注意力引导滤波器的输入包括一个引导特征图I和一个滤波器特征图O,输出为一个高分辨率特征图
Figure BDA0002864484580000111
注意力引导滤波器首先对引导特征图I进行下采样得到低分辨率特征图Il,Il的大小和滤波器特征图一样;然后最小化Il和O之间的重建误差,得到注意力引导滤波器Al、Bl的参数;接下来对Al、Bl进行上采样,获得注意力引导滤波器Ah、Bh的参数,最终得到注意力引导滤波器的高分辨率输出图像
S5.采用步骤S3得到的训练数据集,对步骤S4构建的视网膜微动脉瘤初步识别模型进行训练,从而得到最终的视网膜微动脉瘤识别模型;
在训练过程中,采用权重交叉熵损失:
Figure BDA0002864484580000112
式中N为训练样本数;w为权重;rn为标签分割图中的某一像素的金标准;pn为预测像素的概率值;1-pn为背景像素图的概率值;
S6.采用步骤S5得到的视网膜微动脉瘤识别模型,对实时获取的视网膜彩色眼底图像进行识别检测,完成视网膜微动脉瘤的自动检测;检测结果如图6所示;
S7.根据步骤S6得到的识别检测结果,在实时获取的视网膜彩色眼底图像上,对微动脉瘤进行标记和成像。
本发明的成像方法,可以直接应用于眼底图像成像的设备,该设备在每次成像并获取对应的眼底图像以后,采用本发明方法进行微动脉瘤的检测和识别,并根据检测和识别结果,可以再次对眼底图像进行对应的成像和标记操作(比如将微动脉瘤进行标记,圈出等操作)。

Claims (8)

1.一种视网膜微动脉瘤自动检测方法,包括如下步骤:
S1.获取原始视网膜彩色眼底图像,并进行标记;
S2.针对步骤S1获取并标记的原始视网膜彩色眼底图像,提取通道分量和感兴趣区域;
S3.对步骤S2获取的图像数据进行图像处理,从而得到训练数据集;
S4.以U形网络为基本架构,构建视网膜微动脉瘤初步识别模型;
S5.采用步骤S3得到的训练数据集,对步骤S4构建的视网膜微动脉瘤初步识别模型进行训练,从而得到最终的视网膜微动脉瘤识别模型;
S6.采用步骤S5得到的视网膜微动脉瘤识别模型,对实时获取的视网膜彩色眼底图像进行识别检测,完成视网膜微动脉瘤的自动检测。
2.根据权利要求1所述的视网膜微动脉瘤自动检测方法,其特征在于步骤S2所述的提取通道分量和感兴趣区域,具体为采用如下步骤提取通道分量和感兴趣区域:
A.提取原始视网膜彩色眼底图像的绿色通道眼底图像;
B.采用最大类间阈值分割法来自适应的计算出最佳阈值T,从而提取得到感兴趣区域:
Figure FDA0002864484570000011
式中g(x,y)为经阈值分割处理后的图像;f(x,y)为原图像;在g=w0×w1×(u0-u1)2取最大值时,对应的T取值为最佳阈值,w0为前景像素点数占整幅图像的比例,w1为背景像素点数占整幅图像的比例,u0为前景平均灰度,u1为背景平均灰度。
3.根据权利要求2所述的视网膜微动脉瘤自动检测方法,其特征在于步骤S3所述的对步骤S2获取的图像数据进行图像处理,从而得到训练数据集,具体为采用如下步骤得到训练数据集:
a.采用限制对比度自适应直方图均衡化技术对图像进行处理:
Figure FDA0002864484570000021
式中S为对比度;N为局部子区域内总像素数目;M为图像的最大灰度值;Hist(i)为局部块内的直方图;直方图为离散函数h(rk)=nk,rk为第k级灰度值,nk为图像中灰度为rk的像素数目;
b.采用双立方插值技术统一图像尺寸:
Figure FDA0002864484570000022
式中F(i',j')为插值后对应坐标的值;F(i,j)为原图中坐标点(i,j)的值;i和j为像素点坐标;m和n为偏移量;R(x)为插值表达式且
Figure FDA0002864484570000023
c.采用高斯滤波对图像进行平滑处理:
Figure FDA0002864484570000024
式中G(x,y)为经过高斯滤波处理后的图像;σ为标准偏差,用于表示高斯函数的有效范围;
d.对图像数据集进行数据增广操作。
4.根据权利要求3所述的视网膜微动脉瘤自动检测方法,其特征在于所述的数据增广操作,具体包括垂直镜像、水平镜像、随机翻转和亮度变化。
5.根据权利要求1~4之一所述的视网膜微动脉瘤自动检测方法,其特征在于步骤S4所述的以U形网络为基本架构,构建视网膜微动脉瘤初步识别模型,具体为采用如下步骤构建视网膜微动脉瘤初步识别模型:
模型包括编码器和解码器;
编码器包括四个经典结构,每一个经典结构均包括三个不同大小的平行卷积核,卷积核大小分别为3×3、5×5和7×7;卷积核进行特征提取;四个经典结构均用于采样,且每次下采样时特征图的通道数加倍,特征图的大小减半;
解码器包括四个经典结构,每一个经典结构均包括三个不同大小的平行卷积核,卷积核大小分别为3×3、5×5和7×7;
编码器提取到的低层特征和解码器提取到的高层特征级联在一起;
引入注意力引导滤波器,将从低层特征提取到的结构信息转移到高层特征图中。
6.根据权利要求5所述的视网膜微动脉瘤自动检测方法,其特征在于所述的注意力引导滤波器用于恢复空间信息,从不同分辨率层级图像合并结构信息;注意力引导滤波器的输入包括一个引导特征图I和一个滤波器特征图O,输出为一个高分辨率特征图
Figure FDA0002864484570000031
注意力引导滤波器首先对引导特征图I进行下采样得到低分辨率特征图Il,Il的大小和滤波器特征图一样;然后最小化Il和O之间的重建误差,得到注意力引导滤波器Al、Bl的参数;接下来对Al、Bl进行上采样,获得注意力引导滤波器Ah、Bh的参数,最终得到注意力引导滤波器的高分辨率输出图像。
7.根据权利要求6所述的视网膜微动脉瘤自动检测方法,其特征在于步骤S5所述的训练,具体为训练过程中采用权重交叉熵损失:
Figure FDA0002864484570000041
式中N为训练样本数;w为权重;rn为标签分割图中的某一像素的金标准;pn为预测像素的概率值;1-pn为背景像素图的概率值。
8.一种包括了权利要求1~7之一所述的视网膜微动脉瘤自动检测方法的成像方法,其特征在于还包括如下步骤:
S7.根据步骤S6得到的识别检测结果,在实时获取的视网膜彩色眼底图像上,对微动脉瘤进行标记和成像。
CN202011581334.4A 2020-12-28 2020-12-28 视网膜微动脉瘤自动检测方法及成像方法 Pending CN112700409A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011581334.4A CN112700409A (zh) 2020-12-28 2020-12-28 视网膜微动脉瘤自动检测方法及成像方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011581334.4A CN112700409A (zh) 2020-12-28 2020-12-28 视网膜微动脉瘤自动检测方法及成像方法

Publications (1)

Publication Number Publication Date
CN112700409A true CN112700409A (zh) 2021-04-23

Family

ID=75512847

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011581334.4A Pending CN112700409A (zh) 2020-12-28 2020-12-28 视网膜微动脉瘤自动检测方法及成像方法

Country Status (1)

Country Link
CN (1) CN112700409A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114445364A (zh) * 2022-01-25 2022-05-06 中南大学 眼底图像微动脉瘤区域检测方法及其成像方法
CN116228786A (zh) * 2023-05-10 2023-06-06 青岛市中心医院 前列腺mri图像增强分割方法、装置、电子设备与存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871798A (zh) * 2019-02-01 2019-06-11 浙江大学 一种基于卷积神经网络的遥感影像建筑物提取方法
CN109903292A (zh) * 2019-01-24 2019-06-18 西安交通大学 一种基于全卷积神经网络的三维图像分割方法及系统
CN110276356A (zh) * 2019-06-18 2019-09-24 南京邮电大学 基于r-cnn的眼底图像微动脉瘤识别方法
US10482603B1 (en) * 2019-06-25 2019-11-19 Artificial Intelligence, Ltd. Medical image segmentation using an integrated edge guidance module and object segmentation network
CN110766643A (zh) * 2019-10-28 2020-02-07 电子科技大学 一种面向眼底图像的微动脉瘤检测方法
CN111292285A (zh) * 2018-11-21 2020-06-16 中南大学 一种基于朴素贝叶斯与支持向量机的糖网病自动筛查方法
CN112102283A (zh) * 2020-09-14 2020-12-18 北京航空航天大学 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111292285A (zh) * 2018-11-21 2020-06-16 中南大学 一种基于朴素贝叶斯与支持向量机的糖网病自动筛查方法
CN109903292A (zh) * 2019-01-24 2019-06-18 西安交通大学 一种基于全卷积神经网络的三维图像分割方法及系统
CN109871798A (zh) * 2019-02-01 2019-06-11 浙江大学 一种基于卷积神经网络的遥感影像建筑物提取方法
CN110276356A (zh) * 2019-06-18 2019-09-24 南京邮电大学 基于r-cnn的眼底图像微动脉瘤识别方法
US10482603B1 (en) * 2019-06-25 2019-11-19 Artificial Intelligence, Ltd. Medical image segmentation using an integrated edge guidance module and object segmentation network
CN110766643A (zh) * 2019-10-28 2020-02-07 电子科技大学 一种面向眼底图像的微动脉瘤检测方法
CN112102283A (zh) * 2020-09-14 2020-12-18 北京航空航天大学 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SHIHAO ZHANG: "Attention Guided Network for Retinal Image Segmentation", 《MICCAI 2019: MEDICAL IMAGE COMPUTING AND COMPUTER ASSISTED INTERVENTION – MICCAI 2019》 *
接鑫等: "基于卷积神经网络的脑MRI分割模型研究", 《工业控制计算机》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114445364A (zh) * 2022-01-25 2022-05-06 中南大学 眼底图像微动脉瘤区域检测方法及其成像方法
CN114445364B (zh) * 2022-01-25 2024-05-07 中南大学 眼底图像微动脉瘤区域检测方法及其成像方法
CN116228786A (zh) * 2023-05-10 2023-06-06 青岛市中心医院 前列腺mri图像增强分割方法、装置、电子设备与存储介质
CN116228786B (zh) * 2023-05-10 2023-08-08 青岛市中心医院 前列腺mri图像增强分割方法、装置、电子设备与存储介质

Similar Documents

Publication Publication Date Title
CN110399929B (zh) 眼底图像分类方法、装置以及计算机可读存储介质
CN108198184B (zh) 造影图像中血管分割的方法和系统
CN110288597B (zh) 基于注意力机制的无线胶囊内窥镜视频显著性检测方法
CN109035172B (zh) 一种基于深度学习的非局部均值超声图像去噪方法
CN106920227A (zh) 基于深度学习与传统方法相结合的视网膜血管分割方法
CN108764342B (zh) 一种对于眼底图中视盘和视杯的语义分割方法
CN112700409A (zh) 视网膜微动脉瘤自动检测方法及成像方法
CN113643353B (zh) 眼底图像的血管管径的增强分辨率的测量方法
CN113012163A (zh) 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质
CN111340773B (zh) 一种视网膜图像血管分割方法
CN112884788A (zh) 基于丰富上下文网络的视杯视盘分割方法及成像方法
CN113066025A (zh) 一种基于增量学习与特征、注意力传递的图像去雾方法
CN110610480B (zh) 基于Attention机制的MCASPP神经网络眼底图像视杯视盘分割模型
CN114418987B (zh) 一种多阶段特征融合的视网膜血管分割方法及系统
CN111666813A (zh) 一种基于非局部信息的三维卷积神经网络的皮下汗腺提取方法
Vamsi et al. Early Detection of Hemorrhagic Stroke Using a Lightweight Deep Learning Neural Network Model.
CN108665474B (zh) 一种基于b-cosfire的眼底图像视网膜血管分割方法
CN106846301B (zh) 视网膜图像分类方法及装置
CN112861588B (zh) 一种活体检测的方法、装置
Sachdeva et al. Automatic segmentation and area calculation of optic disc in ophthalmic images
Liu et al. Retinal vessel segmentation using densely connected convolution neural network with colorful fundus images
CN111583248A (zh) 一种基于眼部超声图像的处理方法
Sathya et al. Contourlet transform and morphological reconstruction based retinal blood vessel segmentation
CN112949585A (zh) 一种眼底图像血管的识别方法、装置、电子设备及存储介质
CN114445364B (zh) 眼底图像微动脉瘤区域检测方法及其成像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20210423