CN110473188B - 一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法 - Google Patents

一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法 Download PDF

Info

Publication number
CN110473188B
CN110473188B CN201910731986.2A CN201910731986A CN110473188B CN 110473188 B CN110473188 B CN 110473188B CN 201910731986 A CN201910731986 A CN 201910731986A CN 110473188 B CN110473188 B CN 110473188B
Authority
CN
China
Prior art keywords
image
layer
enhancement
blood vessel
unet
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910731986.2A
Other languages
English (en)
Other versions
CN110473188A (zh
Inventor
潘林
朱有煌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201910731986.2A priority Critical patent/CN110473188B/zh
Publication of CN110473188A publication Critical patent/CN110473188A/zh
Application granted granted Critical
Publication of CN110473188B publication Critical patent/CN110473188B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06T5/90
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Abstract

本发明涉及一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,首先,对输入图像提取绿色分量,并利用对比度受限直方图均衡化方法在提取绿色分量后的基础上进行对比度调整;计算出调整对比度后的图像中每个像素点的Hessian矩阵;利用Hessian矩阵的特征值,在尺度因子为
Figure DEST_PATH_IMAGE002
的条件下构造Frangi血管相似性函数,并得到最大响应;将输入图像的每个像素点的RGB三个同道的像素值分别减去最大响应值与增强因子factor的乘积;然后,将经过frangi增强的图像进行灰度变换,将每个像素值进行零均值归一化操作到[0,1]之间。最后,将得到的训练图像块和标签图像块输入到注意力机制UNet网络中,进行训练。并通过测试获得分割结果。本发明,提高了模型的泛化能力。

Description

一种基于Frangi增强和注意力机制UNet的眼底图像血管分割 方法
技术领域
本发明涉及图像分析和深度学习技术领域,特别是一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法。
背景技术
眼底血管是人体血液循环系统中唯一可以非侵入直接观察的部分。研究表明眼底血管异常与冠心病、高血压、糖尿病,动脉粥样硬化和肾病等的存在和严重程度相关,如局限性视网膜动脉缩窄好转率与高血压控制程度密切相关。眼底图像中血管的提取和测量对于与之相关疾病的辅助检测和量化分析具有重要的临床意义,而血管的精确分割是上述工作的前提。由于存在个体的差异,眼底成像之后眼底图像亮度和色彩上存在差别,血管在末端与背景难以区分,使得整个眼底血管网络难以完成分割;而且在眼底血管异常的图像上伴有视网膜病变,除了新生血管之外,还伴微动脉瘤,硬性渗出、出血等小动脉病变,这些病变有的临近血管网络,有的在颜色与形状上和血管相似,给血管网络的分割带来较大的干扰。因此眼底图像中的血管分割技术一直以来都是图像分析领域的难点和热点。
近年来眼底图像中的血管分割的研究主要集中在监督学习方法领域。监督学习的方法总体上要优于无监督的方法,但在分割精度、效率等问题上仍然有待改进。随着深度学习方法的发展,在血管特征分析中,可以直接从输入数据中自动学习复杂的特征层次,许多深度学习模型应用到眼底图像血管分割中,比如FCN,UNet,ResNet(残差网络),GANs(生成对抗网络)等。但目前方法依然存在以下几个局限性:(1)容易受到眼底图像当中存在的非血管因素的影响,如噪声、病变和光照,导致血管分割效果不佳;(2)血管分割模型泛化能力不佳,一些模型在单个数据集有较好表现,但在多个数据集或者不同数据集之间进行测试时分割效果不佳。
对于眼底图像的血管分割而言,主要存在两个方面的问题:一方面,由于图像中往往存在眼底成像时因光线不足造成的各种成像伪像,例如模糊,噪声,不均匀照明等,另外还有眼底图像的病理性因素的影响,造成了血管分割的困难,尤其使细小血管的分割难度增加;另一方面,现有深度模型大多仅在单个或者两个数据集上进行算法设计,模型泛化能力有限。
发明内容
有鉴于此,本发明的目的是提出一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,通过使用Frangi增强对图像中的血管进行预处理等,有效增强眼底血管,有利于细小血管的分割,提高血管分割的灵敏度;在UNet神经网络中引入注意力模型,既能消除Frangi增强带来的血管误检,又可以较好地抑制了眼底图像中非血管区域的噪声及病变对血管分割的影响,提高了模型的泛化能力。
本发明采用以下方案实现:一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,包括以下步骤:
步骤S1:提供RGB眼底图像作为输入图像,对所述输入图像提取绿色分量,并利用对比度受限直方图均衡化方法在提取绿色分量后的图像上进行对比度调整;
步骤S2:计算出步骤S1调整对比度后的图像中每个像素点的Hessian矩阵,得到Hessian矩阵的特征值;
步骤S3:利用Hessian矩阵的特征值,在尺度因子为σ的条件下构造Frangi血管相似性函数,并得到最大响应;
步骤S4:将步骤S1中的输入图像的每个像素点的RGB三个同道的像素值分别减去最大响应值与增强因子factor的乘积,用以获得最终的血管增强并得到经过Frangi增强的图像;
步骤S5:将经过Frangi增强的图像进行灰度变换,将每个像素值进行零均值归一化(Z-Score Normalization)操作到[0,1]之间;训练时,采用一个48×48大小的采样框随机选择中心,对归一化后的图像进行重采样,每次采样生成一个训练图像块,共生成1万个训练图像块;并将训练图像的标签进行与训练图像块相同的重采样分块操作,获得标签图像块;测试时,如果测试图像长宽不是48的整数倍,则将其扩充成48的整数倍,扩充部分的像素值为0,并测试图像平均分成多个48x48的测试图像块;
步骤S6:将步骤S5中得到的训练图像块和标签图像块输入到带有注意力模型的注意力机制UNet网络中,进行训练;测试时,将步骤S5中得到的测试图像块输入到带有注意力模型的注意力机制UNet网络中进行像素点预测,网络输出即是测试图像块分割结果;随后将所有预测后的测试图像块进行重新拼接成测试图像,并删除其中扩充的像素,即得到了测试图像的最终分割结果。
进一步地,所述步骤S1提取绿色通道的计算公式定义如下:
I=a*IR+b*IG+c*IB
其中I表示输入图像,IR、IG、IB分别代表I的三个通道值,a、b、c代表各个通道的权重,其值a=0,c=0,b=1。
进一步地,所述步骤S2的具体内容为:
令步骤S1调整对比度后的图像中的一点为P(x,y),则该点的Hessian矩阵的表达式为:
Figure BDA0002160788130000041
其中,fxx、fxy、fyx和fyy分别表示该像素点P的四个高斯二阶偏导数;令矩阵H的两个特征值为λ1,λ2,且|λ1|<|λ2|则特征值计算如下:
Figure BDA0002160788130000042
式中
Figure BDA0002160788130000043
进一步地,所述步骤S3中所述Frangi血管相似性函数为:
Figure BDA0002160788130000044
上式中,
Figure BDA0002160788130000045
||H||F表示矩阵的范数;C为矩阵最大范数的一半;当尺度因子σ与血管宽度相近时,血管相似性函数获得最大响应。
进一步地,所述获得最大响应的具体内容为:通过调整σ的大小,使σ接近血管宽度时能够获得最大响应;将σ限制在[σmin,σmax]之间,均分为N个不同尺度,σ逐级增大,求出每个σ下的每个像素点的输出响应,最后用最大值法求出最大响应,如下公式:
Figure BDA0002160788130000051
v(p)为P点处的血管相似性函数最大输出响应。
进一步地,所述步骤S4中获得最终的血管增强的具体公式为:
Figure BDA0002160788130000052
上式中,lR,G,B为原图每个像素点的RGB三个通道值;L为增强后的像素值,factor为增强因子。
进一步地,所述步骤S5中零均值归一化公式如下:
Figure BDA0002160788130000053
其中,u和σ分别为数据的平均值与标准差,z为归一化后图像,x为灰度变换后的像素。
进一步地,步骤S6中所述UNet网络包含4层编码层和4层解码层;编码层每一层主要由两个3*3的卷积层,一个BN(Batch Normalization)层以及一个步数为2的2*2的池化层组成;在进行完每一个卷积操作之后,通过Relu函数进行激活,最后进行池化操作;解码层的每一层与收缩网络层次相对应,每一层扩张网络由两个3*3的卷积层,一个BN层以及一个步数为2的2*2的池化层组成,在进行每一层进行卷积之前,需要进行一次跳跃连接(SkipConnection)操作,除第一层外将来自编码层的特征与来自解码层特征传入注意力模型,并将注意力模型的输出与解码层的特征采用特征层拼接(concatenate)方法拼接融合;最后,网络的输出通过一个1×1大小的sigmiod函数进行分类。
进一步地,步骤S6中所述的注意力模型其特征在于:注意力模型的输入分别是门控信号矢量g和特征图
Figure BDA0002160788130000061
为获得输出,定义像素点i的门控系数为
Figure BDA0002160788130000062
通过生成一个注意系数α∈[0,1]重新调整输入特征
Figure BDA0002160788130000063
的大小,即
Figure BDA0002160788130000064
和α,具体公式:
Figure BDA0002160788130000065
Figure BDA0002160788130000066
式中,
Figure BDA0002160788130000067
为sigmoid激活函数,Wx、Wg、bg
Figure BDA00021607881300000610
为线性变换参数;
门控信号g和输入特征图
Figure BDA0002160788130000068
分别卷积后逐点相加;之后,经过非线性变换函数relu、1×1×1的卷积
Figure BDA0002160788130000069
sigmoid函数以及上采样获得每个像素点的注意力系数。
与现有技术相比,本发明有以下有益效果:
本发明准确率高,泛化能力强,能够在不同类型的眼底图像中获得精准的血管分割结果。通过使用Frangi增强算法,提高了血管的对比度,增加了血管之间的连续性和完整性,较大程度上提高血管分割的精度。
附图说明
图1为本发明实施例的流程图。
图2为本发明实施例的增强过程示意图,其中(a)为原图,(b)为绿色通道,(c)为CLAHE,(d)为血管最大响应,(e)为增强结果。
图3为本发明实施例的图像分快结果图。
图4为本发明实施例的注意力机制UNet网络结构图。
图5为本发明实施例的注意力模型图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
如图1所示,本实施例提供了一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,包括以下步骤:
步骤S1:提供RGB眼底图像作为输入图像,对所述输入图像提取绿色分量,并利用对比度受限直方图均衡化方法(CLAHE)在提取绿色分量后的图像上进行对比度调整;
步骤S2:计算出步骤S1调整对比度后的图像中每个像素点的Hessian矩阵,得到Hessian矩阵的特征值;
步骤S3:利用Hessian矩阵的特征值,在尺度因子为σ的条件下构造Frangi血管相似性函数,并得到最大响应;
步骤S4:将步骤S1中的输入图像每个像素点的RGB三个同道的像素值分别减去最大响应值与增强因子factor的乘积,用以获得最终的血管增强并得到经过Frangi增强的图像;
步骤S5:将经过Frangi增强的图像进行灰度变换,将每个像素值进行零均值归一化(Z-Score Normalization)操作到[0,1]之间;训练时,采用一个48×48大小的采样框随机选择中心,对归一化后的图像进行重采样,每次采样生成一个训练图像块,共生成1万个训练图像块;并将训练图像的标签进行与训练图像块相同的重采样分块操作,获得标签图像块;测试时,如果测试图像长宽不是48的整数倍,则将其扩充成48的整数倍,扩充部分的像素值为0,并测试图像平均分成多个48x48的测试图像块,如图3所示。
随后,将图像块送入注意力机制UNet网络,网络结构如图4。
步骤S6:将步骤S5中得到的训练图像块和标签图像块输入到带有注意力模型的注意力机制UNet网络中,进行训练。测试时,将步骤S5中得到的测试图像块输入到带有注意力模型的注意力机制UNet网络中进行像素点预测,网络输出即是测试图像块的分割结果。随后将预测后的测试图像块进行重新拼接成测试图像,并删除其中扩充的像素,这就得到了测试图像的最终分割结果。
在本实施例中,所述步骤S1中,提取绿色通道的计算公式定义如下:
I=a*IR+b*IG+c*IB
其中I表示输入图像,IR、IG、IB分别代表I的三个通道值,a、b、c代表各个通道的权重,其值a=0,c=0,b=1。
在本实施例中,所述步骤S2的具体内容为:
令步骤S1调整对比度后的图像中的一点为P(x,y),则该点的Hessian矩阵的表达式为:
Figure BDA0002160788130000081
其中,fxx、fxy、fyx和fyy分别表示该像素点P的四个高斯二阶偏导数;令矩阵H的两个特征值为λ1,λ2,且|λ1|<|λ2|则特征值计算如下:
Figure BDA0002160788130000082
式中
Figure BDA0002160788130000083
在本实施例中,所述步骤S3中所述Frangi血管相似性函数为:
Figure BDA0002160788130000091
上式中,
Figure BDA0002160788130000092
||H||F表示矩阵的范数;C为矩阵最大范数的一半;当尺度因子σ与血管宽度相近时,血管相似性函数获得最大响应。
在本实施例中,所述获得最大响应的具体内容为:通过调整的大小,使接近血管宽度时可获得最大响应。本实施例将限制在[σmin,σmax]之间,均分为N个不同尺度,σ逐级增大,求出每个σ下的每个像素点的输出响应,最后用最大值法求出最大响应,如下公式:
Figure BDA0002160788130000093
v(p)为P点处的血管相似性函数最大输出响应。
在本实施例中,所述步骤S4中获得最终的血管增强的具体公式为:
Figure BDA0002160788130000094
上式中,lR,G,B为原图每个像素点的RGB三个通道值;L为增强后的像素值,factor为增强因子。图2结果所使用的参数:σ为[2,6],N=9,factor=128,c=15,其中(a)原图(b)绿色通道(c)CLAHE(d)血管最大响应(e)增强结果。
在本实施例中,所述步骤S5中零均值归一化公式为:
Figure BDA0002160788130000101
其中,u和σ分别为数据的平均值与标准差,z为归一化后图像,x为灰度变换后的像素。
在本实施例中,步骤S6中所述UNet网络包含4层编码层和4层解码层;编码层每一层主要由两个3*3的卷积层,一个BN(Batch Normalization)层以及一个步数为2的2*2的池化层组成;在进行完每一个卷积操作之后,通过Relu函数进行激活,最后进行池化操作;解码层的每一层与收缩网络层次相对应,每一层扩张网络由两个3*3的卷积层,一个BN层以及一个步数为2的2*2的池化层组成,在进行每一层进行卷积之前,需要进行一次跳跃连接(Skip Connection)操作,除第一层外将来自编码层的特征与来自解码层特征传入图5的注意力模型,并将注意力模型的输出与解码层的特征采用特征层拼接(concatenate)方法进行拼接融合;最后,网络的输出通过一个1×1大小的sigmiod函数进行分类。
在本实施例中,注意力模型如图5所示,注意力模型的输入分别是门控信号矢量g和特征图
Figure BDA0002160788130000102
为获得输出,定义像素点i的门控系数为
Figure BDA0002160788130000103
通过生成一个注意系数α∈[0,1]重新调整输入特征
Figure BDA0002160788130000104
的大小,即
Figure BDA0002160788130000105
Figure BDA0002160788130000106
和α,具体公式:
Figure BDA0002160788130000107
Figure BDA0002160788130000108
式中,
Figure BDA0002160788130000109
为sigmoid激活函数,Wx、Wg、bg
Figure BDA00021607881300001010
为线性变换参数;
门控信号g和输入特征图
Figure BDA0002160788130000111
分别卷积后逐点相加;之后,经过非线性变换函数relu、1×1×1的卷积
Figure BDA0002160788130000112
sigmoid函数以及上采样获得每个像素点的注意力系数。
以上所述仅为本发明的较佳实施例,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本发明的涵盖范围。

Claims (9)

1.一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,其特征在于:包括以下步骤:
步骤S1:提供RGB眼底图像作为输入图像,对所述输入图像提取绿色分量,并利用对比度受限直方图均衡化方法在提取绿色分量后的图像上进行对比度调整;
步骤S2:计算出步骤S1调整对比度后的图像中每个像素点的Hessian矩阵,得到Hessian矩阵的特征值;
步骤S3:利用Hessian矩阵的特征值,在尺度因子为σ的条件下构造Frangi血管相似性函数,并得到最大响应;
步骤S4:将步骤S1中的输入图像的每个像素点的RGB三个通道的像素值分别减去最大响应值与增强因子factor的乘积,用以获得最终的血管增强并得到经过frangi增强的图像;
步骤S5:将经过Frangi增强的图像进行灰度变换,将每个像素值进行零均值归一化操作到[0,1]之间;训练时,采用一个48×48大小的采样框随机选择中心,对归一化后的图像进行重采样,每次采样生成一个训练图像块,共生成1万个训练图像块;将训练图像的标签进行与训练图像块相同的重采样分块操作,获得标签图像块;测试时,如果测试图像长宽不是48的整数倍,则将其扩充成48的整数倍,扩充部分的像素值为0,并将测试图像平均分成多个48x48的测试图像块;
步骤S6:将步骤S5中得到的训练图像块和标签图像块输入到带有注意力模型的注意力机制UNet网络中,进行训练;测试时,将步骤S5中得到的测试图像块输入到带有注意力模型的注意力机制UNet网络中进行像素点预测,网络输出即是测试图像块的分割结果;随后将所有预测后的测试图像块进行重新拼接成测试图像,并删除其中扩充的像素,即得到了测试图像的最终分割结果。
2.根据权利要求1所述的一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,其特征在于:所述步骤S1提取绿色通道的计算公式如下:
I=a*IR+b*IG+c*IB
其中I表示输入图像,IR、IG、IB分别代表I的三个通道值,a、b、c代表各个通道的权重,其值a=0,c=0,b=1。
3.根据权利要求1所述的一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,其特征在于:所述步骤S2的具体内容为:
令步骤S1调整对比度后的图像中的一点为P(x,y),则该点的Hessian矩阵的表达式为:
Figure FDA0003376439090000021
其中,fxx、fxy、fyx和fyy分别表示该像素点P的四个高斯二阶偏导数;令矩阵H的两个特征值为λ1,λ2,且|λ1|<|λ2|则特征值计算如下:
Figure FDA0003376439090000022
式中
Figure FDA0003376439090000023
4.根据权利要求1所述的一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,其特征在于:所述步骤S3中所述Frangi血管相似性函数为:
Figure FDA0003376439090000031
上式中,
Figure FDA0003376439090000032
||H||F表示矩阵的范数;C为矩阵最大范数的一半;当尺度因子σ与血管宽度相近时,血管相似性函数获得最大响应。
5.根据权利要求4所述的一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,其特征在于:所述获得最大响应的具体内容为:通过调整σ的大小,使σ接近血管宽度时能够获得最大响应;将σ限制在[σmin,σmax]之间,均分为N个不同尺度,σ逐级增大,求出每个σ下的每个像素点的输出响应,最后用最大值法求出最大响应,如下公式:
Figure FDA0003376439090000033
v(p)为P点处的血管相似性函数最大输出响应。
6.根据权利要求1所述的一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,其特征在于:所述步骤S4中获得最终的血管增强的具体公式为:
Figure FDA0003376439090000034
上式中,lR,G,B为原图每个像素点的RGB三个通道值;L为增强后的像素值,factor为增强因子。
7.根据权利要求1所述的一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,其特征在于:所述步骤S5中零均值归一化公式如下:
Figure FDA0003376439090000041
其中,u和σ分别为数据的平均值与标准差;z为归一化后图像;x为灰度变换后的像素。
8.根据权利要求1所述的一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,其特征在于:步骤S6中所述UNet网络包含4层编码层和4层解码层;编码层每一层主要由两个3*3的卷积层,一个BN层以及一个步数为2的2*2的池化层组成;在进行完每一个卷积操作之后,通过Relu函数进行激活,最后进行池化操作;解码层的每一层与收缩网络层次相对应,每一层扩张网络由两个3*3的卷积层,一个BN层以及一个步数为2的2*2的池化层组成,在进行每一层进行卷积之前,需要进行一次跳跃连接操作,除第一层外将来自编码层的特征与来自解码层特征传入注意力模型,并将注意力模型的输出与解码层的特征采用特征层拼接方法进行拼接融合;最后,网络的输出通过一个1×1大小的sigmiod函数进行分类。
9.根据权利要求6所述的一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法,其特征在于:步骤S6中所述注意力模型的输入分别是门控信号矢量g和特征图
Figure FDA0003376439090000042
为获得输出,定义像素点i的门控系数为
Figure FDA0003376439090000043
通过生成一个注意系数α∈[0,1]重新调整输入特征
Figure FDA0003376439090000044
的大小,即
Figure FDA0003376439090000045
Figure FDA0003376439090000046
和α,具体公式:
Figure FDA0003376439090000047
Figure FDA0003376439090000048
式中,
Figure FDA0003376439090000049
为sigmoid激活函数,Wx、Wg、bg
Figure FDA00033764390900000410
为线性变换参数;门控信号g和输入特征图
Figure FDA0003376439090000051
分别卷积后逐点相加;之后,经过非线性变换函数relu、1×1×1的卷积
Figure FDA0003376439090000052
sigmoid函数以及上采样获得每个像素点的注意力系数。
CN201910731986.2A 2019-08-08 2019-08-08 一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法 Active CN110473188B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910731986.2A CN110473188B (zh) 2019-08-08 2019-08-08 一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910731986.2A CN110473188B (zh) 2019-08-08 2019-08-08 一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法

Publications (2)

Publication Number Publication Date
CN110473188A CN110473188A (zh) 2019-11-19
CN110473188B true CN110473188B (zh) 2022-03-11

Family

ID=68511621

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910731986.2A Active CN110473188B (zh) 2019-08-08 2019-08-08 一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法

Country Status (1)

Country Link
CN (1) CN110473188B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110840428B (zh) * 2019-11-29 2022-02-01 苏州大学 基于一维U-Net网络的无创血压估计方法
CN113012093B (zh) * 2019-12-04 2023-12-12 深圳硅基智能科技有限公司 青光眼图像特征提取的训练方法及训练系统
CN111145188B (zh) * 2019-12-25 2023-06-06 西安电子科技大学 一种基于ResNet与UNet模型的图像分割方法
CN111047613B (zh) * 2019-12-30 2021-04-27 北京小白世纪网络科技有限公司 基于分支注意力及多模型融合的眼底血管分割方法
CN111524142B (zh) * 2020-03-10 2023-06-30 浙江工业大学 一种脑血管图像自动分割方法
CN111598894B (zh) * 2020-04-17 2021-02-09 哈尔滨工业大学 基于全局信息卷积神经网络的视网膜血管图像分割系统
CN111862056A (zh) * 2020-07-23 2020-10-30 东莞理工学院 一种基于深度学习的视网膜血管图像分割方法
CN111951264B (zh) * 2020-08-28 2022-03-25 浙江中烟工业有限责任公司 一种基于深度学习的卷烟包装异常检测与定位方法
CN112785598B (zh) * 2020-11-05 2022-05-13 南京天智信科技有限公司 基于注意力增强改进u型网络的超声乳腺肿瘤自动分割方法
CN112508864B (zh) * 2020-11-20 2022-08-02 昆明理工大学 基于改进UNet++的视网膜血管图像分割方法
CN112686849B (zh) * 2020-12-24 2022-08-26 山东众阳健康科技集团有限公司 一种基于三维卷积神经网络的肺叶分割系统
CN112785617B (zh) * 2021-02-23 2022-04-15 青岛科技大学 残差UNet直肠癌肿瘤磁共振图像自动分割方法
CN113012198B (zh) * 2021-03-22 2022-04-01 复旦大学 颅内外血管吻合术中的血流自动定量分析方法
CN114663421B (zh) * 2022-04-08 2023-04-28 皖南医学院第一附属医院(皖南医学院弋矶山医院) 基于信息迁移和有序分类的视网膜图像分析系统及方法
CN115761611B (zh) * 2022-12-18 2023-05-30 四川数聚智造科技有限公司 基于图像对比异常检测的多阶段多底图图像差异过滤方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154519A (zh) * 2017-12-25 2018-06-12 吉林大学 眼底图像中血管的分割方法、装置及存储介质
CN109685813A (zh) * 2018-12-27 2019-04-26 江西理工大学 一种自适应尺度信息的u型视网膜血管分割方法
CN109727253A (zh) * 2018-11-14 2019-05-07 西安大数据与人工智能研究院 基于深度卷积神经网络自动分割肺结节的辅助检测方法
CN109741344A (zh) * 2018-12-28 2019-05-10 上海联影智能医疗科技有限公司 血管分割方法、装置、医疗影像设备及存储介质

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10019796B2 (en) * 2015-10-16 2018-07-10 General Electric Company System and method for blood vessel analysis and quantification in highly multiplexed fluorescence imaging
CN105488799A (zh) * 2015-11-27 2016-04-13 天津工业大学 彩色眼底图像微动脉瘤自动检测方法
CN106504199B (zh) * 2016-09-13 2019-03-22 深圳大学 一种眼底图像增强方法及系统

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108154519A (zh) * 2017-12-25 2018-06-12 吉林大学 眼底图像中血管的分割方法、装置及存储介质
CN109727253A (zh) * 2018-11-14 2019-05-07 西安大数据与人工智能研究院 基于深度卷积神经网络自动分割肺结节的辅助检测方法
CN109685813A (zh) * 2018-12-27 2019-04-26 江西理工大学 一种自适应尺度信息的u型视网膜血管分割方法
CN109741344A (zh) * 2018-12-28 2019-05-10 上海联影智能医疗科技有限公司 血管分割方法、装置、医疗影像设备及存储介质

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"A Discriminatively Trained Fully Connected";Jos´e Ignacio Orlando.et al;《IEEE TRANSACTIONS ON BIOMEDICAL ENGINEERING》;20170131;第64卷(第1期);全文 *
"A Divide一and-Conquer Approach Towards";Weilin Fu.et al;《arXiv:1907.06194v1》;20190714;全文 *
"基于Hessian矩阵的多尺度视网膜图像增强方法";游嘉等;《计算机应用》;20110630;第31卷(第6期);全文 *
"基于尺度空间分析的眼底图像血管鲁棒检测";张晟钰;《中国优秀硕士学位论文全文数据库(电子期刊)》;20170315;全文 *

Also Published As

Publication number Publication date
CN110473188A (zh) 2019-11-19

Similar Documents

Publication Publication Date Title
CN110473188B (zh) 一种基于Frangi增强和注意力机制UNet的眼底图像血管分割方法
CN109003279B (zh) 一种基于K-Means聚类标注和朴素贝叶斯模型的眼底视网膜血管分割方法及系统
CN109345538B (zh) 一种基于卷积神经网络的视网膜血管分割方法
CN111784671B (zh) 基于多尺度深度学习的病理图像病灶区域检测方法
He et al. Image segmentation techniques
CN111815574B (zh) 一种基于粗糙集神经网络的眼底视网膜血管图像分割方法
CN109584209B (zh) 血管壁斑块识别设备、系统、方法及存储介质
CN109658422A (zh) 一种基于多尺度深监督网络的视网膜图像血管分割方法
SG184389A1 (en) A method and system for determining a stage of fibrosis in a liver
CN109816666B (zh) 对称全卷积神经网络模型构建方法、眼底图像血管分割方法、装置、计算机设备及存储介质
CN112446891A (zh) 基于U-Net网络脑胶质瘤的医学图像分割方法
CN113012093B (zh) 青光眼图像特征提取的训练方法及训练系统
Acharya et al. Swarm intelligence based adaptive gamma corrected (SIAGC) retinal image enhancement technique for early detection of diabetic retinopathy
JP2002269539A (ja) 画像処理装置、画像処理装置方法、及び画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体、並びにこれを用いた診断支援システム
CN115035058A (zh) 一种自编码网络医学图像异常检测方法
Dong et al. Supervised learning-based retinal vascular segmentation by m-unet full convolutional neural network
Bhuvaneswari et al. Contrast enhancement of retinal images using green plan masking and whale optimization algorithm
CN112767331A (zh) 基于零样本学习的图像异常检测方法
Nurrahmadayeni et al. Analysis of deep learning methods in diabetic retinopathy disease identification based on retinal fundus image
CN108629780B (zh) 基于颜色分解和阈值技术的舌图像分割方法
Huang et al. From local to global: a graph framework for retinal artery/vein classification
Siregar et al. Optic Disc Segmentation on Eye Retinal Image with U-Net Convolutional Neural Network Architecture
Morra et al. A neural network approach to unsupervised segmentation of single-channel MR images
Sandhya et al. An efficient detection of micro aneurysms from fundus images with CDLNN algorithm
Perumprath et al. Deep Learning for Segmentation of Brain Tumors using MR Images based on U-Net Architecture

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant