CN112927243A - 一种基于卷积神经网络的微出血病灶分割方法 - Google Patents
一种基于卷积神经网络的微出血病灶分割方法 Download PDFInfo
- Publication number
- CN112927243A CN112927243A CN202110348001.5A CN202110348001A CN112927243A CN 112927243 A CN112927243 A CN 112927243A CN 202110348001 A CN202110348001 A CN 202110348001A CN 112927243 A CN112927243 A CN 112927243A
- Authority
- CN
- China
- Prior art keywords
- micro
- attention
- sub
- pixel
- feature map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30096—Tumor; Lesion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30101—Blood vessel; Artery; Vein; Vascular
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明设计了一种基于卷积神经网络的甲襞微出血病灶分割方法,该方法收集、处理甲襞微出血图像;标注微出血病灶区域,得到金标准图像;构造一种基于卷积神经网络的甲襞微出血病灶分割模型;划分训练集、测试集;对训练集进行数据扩增,并用扩增后的数据训练模型;用测试集测试训练好的模型。本发明把包含通道注意力、空间注意力的双注意力机制引入到经典的U型特征提取网络中,强调关键特征,抑制无关特征,促使模型更加关注微出血病灶区域;在网络结构中增加组归一化作为正则化手段,加快模型收敛速度,防止过拟合,提高整体分割性能。本发明可以得到高精度的甲襞微出血病灶分割图像。
Description
技术领域
本发明属于医学图像处理领域,具体涉及一种基于卷积神经网络的微出血病灶分割方法。
背景技术
甲襞微循环作为反映全身末梢循环状况的窗口,对自身免疫性疾病的诊断和治疗十分重要。在临床中,医生使用甲襞毛细血管镜观察甲襞毛细血管的形态,根据微循环特征分析病情。当甲襞毛细血管内的红细胞溢出到血管周围区域,就形成微出血现象。它是微循环异常的重要表现之一,通常反映了潜在的血管损伤。相关文献表明,甲襞微出血的形成与一些疾病的临床特征有密切联系,如高血压导致的血液流变性障碍、糖尿病性视网膜病变以及青光眼视盘出血等。考虑到甲襞微出血的发生是一个长期的动态过程,且其演变在一定程度上反应了病情发展与治疗进展,开发一种精确的微出血病灶分割算法对相应疾病的诊断与研究是十分必要的。
对甲襞微循环图像进行微出血病灶分割是一项极具挑战性的任务。首先,甲襞微出血的形态较为复杂多变,大大增加了分割的难度。具体如三角形、半月形、帽状、点状或片状出血,按颜色分鲜红、紫红或黄褐色出血等,各不相同。其次,甲襞微出血与毛细血管位置相邻,特征相近,容易混淆。此外,图像的采集环节往往存在噪声过多的问题。噪声以香柏油的反光和仪器上的灰尘为主,它导致微循环图像背景明暗不均匀,对比度不高,综合质量较低。
传统的医学图像分割方法依赖手工特征提取且表达能力受限,难以应对复杂度较高的微出血病灶分割问题。近年来,深度学习在计算机视觉领域取得了巨大成功,卷积神经网络得到了深入、广泛的应用。其中,U-Net是医学图像分割领域的代表性模型,众多研究都沿用了其经典的U型设计。它采用编码器和解码器来提取不同层次的特征,并通过跳跃连接进行拼接、融合,最终实现了逐像素分类。尽管U-Net在一定程度上弥补了因下采样而导致的空间信息丢失,但它仍存在分割效率较低、分割精度不足的问题。
发明内容
本发明要解决的技术问题是:如何提高对甲襞微循环图像进行微出血病灶分割的效率和精度。为实现这一目的,本发明将双注意力机制和组归一化引入U型卷积神经网络,得到以下方案:
一种基于卷积神经网络的微出血病灶分割方法,包括以下步骤:
步骤1:收集微出血图像,对其进行感兴趣区域的剪裁与归一化预处理,得到数据集中的病理图像;
步骤2:通过标注软件对步骤1获得的病理图像进行逐像素标注,得到数据集中的金标准图像;
步骤3:针对步骤1、步骤2得到的数据集建立基于U型特征提取网络的分割模型,U型特征提取网络中嵌入组归一化层和融合双注意力模块;
步骤4:对步骤1、步骤2获得的数据集进行训练集、测试集的划分;
步骤5:对步骤4得到的训练集做数据扩增,扩增后的图像用于步骤3分割模型的训练,训练好的模型输出逐像素分类的预测图;
步骤6:将步骤4获得的测试集作为步骤5训练好的分割模型的输入,模型输出逐像素分类的预测图。
在步骤1中制作处理后的病理图像具体为:
步骤11:收集带有微出血异常的甲襞微循环图像,从中找到微出血病灶区域,选取其中心取图像邻域256*256的区域作为分割的感兴趣区域;
步骤12:将步骤11得到的图像中所有像素点的值归一化到[0,1]之间。
步骤2中所述标注软件为labelme。
步骤3中:分割模型基于U型特征提取网络,网络的左半部分为编码器路径,包含四个子模块。每一个子模块都由3*3卷积、组归一化、3*3卷积、2*2最大池化构成;网络的右半部分为解码器路径,包括四个子模块,第一个子模块包含3*3卷积、组归一化、3*3卷积以及2*2的上采样,解码器路径的后三个子模块包含3*3卷积、组归一化、3*3卷积、融合双注意力模块、3*3卷积以及2*2的上采样。
步骤3包括:
步骤31:扩增后的图像被送入U型特征提取网络的编码器路径,编码器路径的四个子模块都在卷积层之间插入一个组归一化层,并在最后接最大池化,每经历一个子模块,输出的特征图尺寸减半,通道数翻倍,产生低分辨率的特征图。
步骤32:步骤31产生的低分辨率特征图被送入解码器路径。解码器路径的后三个子模块均在上采样之后接一个融合双注意力模块,具体包括并行的通道注意力模块、空间注意力模块,以及最后的特征融合模块。同样的,解码器路径的子模块也在卷积层中插入一个组归一化层,每经历一个子模块,输出的特征图尺寸翻倍,通道数减半。
步骤33:将步骤31所述的编码器路径和步骤32所述的解码器路径通过跳跃连接结合。
步骤34:步骤32从解码器路径最后一个子模块输出的特征图经上采样和1*1卷积后,通过sigmoid得到最终预测图。
步骤31中使用的组归一化层公式为:
步骤32中,使用的通道注意力模块具体描述为:
MC(X)=σ(MLP(Avgpool(X))+MLP(Maxpool(X)))
其中,MC(X)为中间特征图X的通道注意力权重,σ为激活函数sigmoid,MLP为多层神经网络,Avgpooling为平均池化,Maxpooling为最大池化。
步骤32中,使用的空间注意力模块具体描述为:
MS(X)=σ(f7*7([Avgpool(X);Maxpool(X)]))
其中,MS(X)为中间特征图X的空间注意力权重,f7*7为卷积核大小为7*7的卷积操作。
步骤32中,使用的特征融合模块具体描述为:
其中,FC为通道注意力权重和中间特征图X逐像素相乘之后得到的通道注意力,FS为空间注意力权重和中间特征图X逐像素相乘之后得到的空间注意力。conv为卷积操作,Globalpool为全局平均池化,Ff为融合后的特征图。
步骤5中,所述数据扩增具体为翻转、平移、放大、旋转和剪切。
本发明的有益效果是:把包含通道注意力、空间注意力的双注意力机制引入到经典的U型特征提取网络中,强调关键特征,抑制无关特征,促使模型更加关注微出血病灶区域;考虑到表达层次上的不同,使用特征融合模块来进行信息的整合与交互,充分利用提取到的关键特征;在网络结构中增加组归一化作为正则化手段,加快模型收敛速度,防止过拟合,提高整体分割性能。
附图说明
图1为本发明的工作流程图。
图2为本发明的模型架构图。
图3为本发明所使用的通道注意力模块工作流程图。
图4为本发明所使用的空间注意力模块工作流程图。
图5为本发明所使用的特征融合模块工作流程图。
图6为本发明对甲襞微出血病灶区域的分割结果示意图。
具体实施方式
下面结合附图与具体实施例对本发明做进一步说明:
图1为本发明的工作流程图。基于卷积神经网络的甲襞微出血病灶分割方法包括收集、处理甲襞微出血图像,标注甲襞微出血图像,构造基于卷积神经网络的甲襞微出血病灶分割方法,划分训练集、测试集,对训练集进行数据扩增,训练网络,测试测试集等步骤。具体如下:
步骤1:收集甲襞微出血图像,对其进行感兴趣区域的剪裁与归一化预处理,得到数据集中的病理图像。
步骤11:收集带有微出血异常的甲襞微循环图像,从中找到微出血病灶区域,选取其中心取图像邻域256*256的区域作为分割的感兴趣区域。
步骤12:将步骤11得到的图像中所有像素点的值归一化到[0,1]之间。
步骤2:通过标注软件对步骤1获得的病理图像进行逐像素标注,得到数据集中的金标准图像。使用的标注软件为labelme。
步骤3:针对步骤1、步骤2得到的数据集设计一种基于卷积神经网络的甲襞微出血病灶分割方法,包括U型特征提取网络、融合双注意力模块和组归一化层三个主要组成部分。
步骤31:扩增后的图像被送入U型特征提取网络的编码器路径。编码器路径的四个子模块都在卷积层之间插入一个组归一化层,并在最后接最大池化,产生低分辨率的特征图。
步骤32:步骤31产生的低分辨率特征图被送入解码器路径。解码器路径的后三个子模块均在上采样之后接一个融合双注意力模块,具体包括并行的通道注意力模块、空间注意力模块,以及最后的特征融合模块。同样的,解码器路径的子模块也在卷积层中插入一个组归一化层。解码器路径最后产生高分辨率的特征图。
步骤33:将步骤31所述的编码器路径和步骤32所述的解码器路径通过跳跃连接结合。
步骤34:步骤32获得的特征图经上采样和1*1卷积后,通过sigmoid得到最终预测图。
步骤4:对步骤1、步骤2获得的数据集进行训练集、测试集的划分。
步骤5:对步骤4得到的训练集做数据扩增,扩增后的图像用于步骤3设计的分割模型的训练。训练好的模型输出逐像素分类的预测图。数据扩增具体为翻转、平移、放大、旋转和剪切。
步骤6:将步骤4获得的测试集作为步骤5训练好的分割模型的输入,模型输出逐像素分类的预测图。
其中,使用的组归一化层公式为:
图2为本发明的模型架构图。用于甲襞微出血的分割模型基于U型特征提取网络,网络的左半部分为编码器路径,包含四个子模块。每一个子模块都由3*3卷积、组归一化、3*3卷积、2*2最大池化构成。每经历一个子模块,输出的特征图尺寸减半,通道数翻倍。网络的右半部分为解码器路径,包括四个子模块。每一个子模块包含3*3卷积、组归一化、3*3卷积、以及2*2的上采样。特殊的,解码器路径的后三个子模块包含3*3卷积、组归一化、3*3卷积、融合双注意力模块、3*3卷积以及2*2的上采样。每经历一个子模块,输出的特征图尺寸翻倍,通道数减半。解码器路径最后一个子模块的输出经过上采样和1*1卷积后,通过sigmoid得到最终预测图。
图3为本发明所使用的通道注意力模块工作流程图。通道注意力模块具体描述为:
MC(X)=σ(MLP(Avgpool(X))+MLP(Maxpool(X)))
其中,MC(X)为中间特征图X的通道注意力权重,σ为激活函数sigmoid,MLP为多层神经网络,Avgpooling为平均池化,Maxpooling为最大池化。
图4为本发明所使用的空间注意力模块工作流程图。空间注意力模块具体描述为:
MS(X)=σ(f7*7([Avgpool(X);Maxpool(X)]))
其中,MS(X)为中间特征图X的空间注意力权重,f7*7为卷积核大小为7*7的卷积操作。
图5为本发明所使用的特征融合模块工作流程图。特征融合模块具体描述为:
F=conv([FC;FS]) (10)
其中,FC为通道注意力权重和中间特征X逐像素相乘之后得到的通道注意力,FS为空间注意力权重和中间特征X逐像素相乘之后得到的空间注意力。conv为卷积操作,Globalpool为全局平均池化,Ff为融合后获得的结果特征图。
图6为本发明对甲襞微出血病灶区域的分割结果示意图。图6第一行为数据集中的病理图像;第二行为数据集中的标签,也就是金标准图像;第三行为本发明的分割结果。
综上所述,本发明提出一种基于卷积神经网络的甲襞微出血病灶分割模型。该模型把包含通道注意力、空间注意力的双注意力机制引入到经典的U型特征提取网络中,强调关键特征,抑制无关特征,促使模型更加关注微出血病灶区域;考虑到表达层次上的不同,使用特征融合模块来进行信息的整合与交互,充分利用提取到的关键特征;在网络结构中增加组归一化作为正则化手段,加快模型收敛速度,防止过拟合,提高整体分割性能。本发明可以得到高精度的甲襞微出血病灶分割图像。
Claims (10)
1.一种基于卷积神经网络的微出血病灶分割方法,其特征在于,包括以下步骤:
步骤1:收集微出血图像,对其进行感兴趣区域的剪裁与归一化预处理,得到数据集中的病理图像;
步骤2:通过标注软件对步骤1获得的病理图像进行逐像素标注,得到数据集中的金标准图像;
步骤3:对步骤1、步骤2获得的数据集,建立U型特征提取网络,网络中嵌入组归一化层和融合双注意力模块;
步骤4:对步骤1、步骤2获得的数据集进行训练集、测试集的划分;
步骤5:对步骤4得到的训练集做数据扩增,即随机的垂直翻转、水平翻转、旋转、缩放、移位,扩增后的图像用于步骤3分割模型的训练,训练好的模型输出逐像素分类的预测图;
步骤6:将步骤4获得的测试集作为步骤5训练好的分割模型的输入,模型输出逐像素分类的预测图。
2.根据权利要求1所述的方法,其特征在于在步骤1中制作处理后的病理图像具体为:
步骤11:收集带有微出血异常的甲襞微循环图像,从中找到微出血病灶区域,选取其中心取图像邻域256*256的区域作为分割的感兴趣区域;
步骤12:将步骤11得到的图像中所有像素点的值归一化到[0,1]之间。
3.根据权利要求1所述的方法,其特征在于:步骤2中所述标注软件为labelme。
4.根据权利要求1所述的方法,其特征在于,步骤3中:分割模型基于U型特征提取网络,网络的左半部分为编码器路径,包含四个子模块。每一个子模块都由3*3卷积、组归一化、3*3卷积、2*2最大池化构成;网络的右半部分为解码器路径,包括四个子模块,第一个子模块包含3*3卷积、组归一化、3*3卷积以及2*2的上采样,解码器路径的后三个子模块包含3*3卷积、组归一化、3*3卷积、融合双注意力模块、3*3卷积以及2*2的上采样。
5.根据权利要求1-4任一项所述的方法,其特征在于步骤3包括:
步骤31:扩增后的图像被送入U型特征提取网络的编码器路径,编码器路径的四个子模块都在卷积层之间插入一个组归一化层,并在最后接最大池化,每经历一个子模块,输出的特征图尺寸减半,通道数翻倍,产生低分辨率的特征图。
步骤32:步骤31产生的低分辨率特征图被送入解码器路径。解码器路径的后三个子模块均在上采样之后接一个融合双注意力模块,具体包括并行的通道注意力模块、空间注意力模块,以及最后的特征融合模块。同样的,解码器路径的子模块也在卷积层中插入一个组归一化层,每经历一个子模块,输出的特征图尺寸翻倍,通道数减半。
步骤33:将步骤31所述的编码器路径和步骤32所述的解码器路径通过跳跃连接结合,具体是将编码器提取到的特征和解码器提取到的特征拼接到一起,弥补因最大池化带来的空间信息损失。
步骤34:步骤32所述的特征图经上采样和1*1卷积后,通过sigmoid得到最终预测图。
7.根据权利要求4所述的方法,其特征在于,步骤32中,使用的通道注意力模块具体描述为:
Mc(X)=σ(MLP(Avgpool(X))+MLp(Maxpool(X)))
其中,MC(X)为中间特征图X的通道注意力权重,σ为激活函数sigmoid,MLP为多层神经网络,Avgpooling为平均池化,Maxpooling为最大池化。
8.根据权利要求4所述的方法,其特征在于,步骤32中,使用的空间注意力模块具体描述为:
MS(X)=σ(f7*7([Avgpool(X);Maxpool(X)]))
其中,MS(X)为中间特征图X的空间注意力权重,f7*7为卷积核大小为7*7的卷积操作。
10.根据权利要求1所述的方法,其特征在于,步骤5中,所述数据扩增具体为翻转、平移、放大、旋转和剪切。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110348001.5A CN112927243B (zh) | 2021-03-31 | 2021-03-31 | 一种基于卷积神经网络的微出血病灶分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110348001.5A CN112927243B (zh) | 2021-03-31 | 2021-03-31 | 一种基于卷积神经网络的微出血病灶分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112927243A true CN112927243A (zh) | 2021-06-08 |
CN112927243B CN112927243B (zh) | 2022-12-23 |
Family
ID=76176764
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110348001.5A Active CN112927243B (zh) | 2021-03-31 | 2021-03-31 | 一种基于卷积神经网络的微出血病灶分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112927243B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113256641A (zh) * | 2021-07-08 | 2021-08-13 | 湖南大学 | 一种基于深度学习的皮肤病灶图像分割方法 |
CN113298826A (zh) * | 2021-06-09 | 2021-08-24 | 东北大学 | 一种基于LA-Net网络的图像分割方法 |
CN114219780A (zh) * | 2021-12-10 | 2022-03-22 | 东北大学 | 一种基于深度学习的甲襞微循环血管检测与分割方法 |
CN114549556A (zh) * | 2022-02-25 | 2022-05-27 | 腾讯科技(深圳)有限公司 | 一种图像分割的方法、相关装置、设备以及存储介质 |
CN117333470A (zh) * | 2023-10-20 | 2024-01-02 | 苏州大学 | 一种糖尿病视网膜病变硬渗出物分割方法及装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110189334A (zh) * | 2019-05-28 | 2019-08-30 | 南京邮电大学 | 基于注意力机制的残差型全卷积神经网络的医学图像分割方法 |
CN111401480A (zh) * | 2020-04-27 | 2020-07-10 | 上海市同济医院 | 一种基于融合注意力机制的乳腺mri自动辅助诊断新方法 |
CN112102283A (zh) * | 2020-09-14 | 2020-12-18 | 北京航空航天大学 | 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法 |
CN112132798A (zh) * | 2020-09-18 | 2020-12-25 | 浙江大学 | 基于Mini ARU-Net网络的复杂背景PCB标记点图像检测方法 |
CN112132817A (zh) * | 2020-09-29 | 2020-12-25 | 汕头大学 | 一种混合注意力机制的眼底图像视网膜血管分割方法 |
WO2021016087A1 (en) * | 2019-07-19 | 2021-01-28 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems for the generation of source models for transfer learning to application specific models |
-
2021
- 2021-03-31 CN CN202110348001.5A patent/CN112927243B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110189334A (zh) * | 2019-05-28 | 2019-08-30 | 南京邮电大学 | 基于注意力机制的残差型全卷积神经网络的医学图像分割方法 |
WO2021016087A1 (en) * | 2019-07-19 | 2021-01-28 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems for the generation of source models for transfer learning to application specific models |
CN111401480A (zh) * | 2020-04-27 | 2020-07-10 | 上海市同济医院 | 一种基于融合注意力机制的乳腺mri自动辅助诊断新方法 |
CN112102283A (zh) * | 2020-09-14 | 2020-12-18 | 北京航空航天大学 | 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法 |
CN112132798A (zh) * | 2020-09-18 | 2020-12-25 | 浙江大学 | 基于Mini ARU-Net网络的复杂背景PCB标记点图像检测方法 |
CN112132817A (zh) * | 2020-09-29 | 2020-12-25 | 汕头大学 | 一种混合注意力机制的眼底图像视网膜血管分割方法 |
Non-Patent Citations (3)
Title |
---|
SHUPENG LIU 等: "Segmenting nailfold capillaries using an improved U-net network", 《ELSEVIER》 * |
YU WENG 等: "NAS-Unet: Neural Architecture Search for Medical Image Segmentation", 《IEEE》 * |
郝晓宇 等: "融合双注意力机制3D U-Net的肺肿瘤分割", 《中国图象图形学报》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113298826A (zh) * | 2021-06-09 | 2021-08-24 | 东北大学 | 一种基于LA-Net网络的图像分割方法 |
CN113298826B (zh) * | 2021-06-09 | 2023-11-14 | 东北大学 | 一种基于LA-Net网络的图像分割方法 |
CN113256641A (zh) * | 2021-07-08 | 2021-08-13 | 湖南大学 | 一种基于深度学习的皮肤病灶图像分割方法 |
CN113256641B (zh) * | 2021-07-08 | 2021-10-01 | 湖南大学 | 一种基于深度学习的皮肤病灶图像分割方法 |
CN114219780A (zh) * | 2021-12-10 | 2022-03-22 | 东北大学 | 一种基于深度学习的甲襞微循环血管检测与分割方法 |
CN114549556A (zh) * | 2022-02-25 | 2022-05-27 | 腾讯科技(深圳)有限公司 | 一种图像分割的方法、相关装置、设备以及存储介质 |
CN117333470A (zh) * | 2023-10-20 | 2024-01-02 | 苏州大学 | 一种糖尿病视网膜病变硬渗出物分割方法及装置 |
CN117333470B (zh) * | 2023-10-20 | 2024-08-30 | 苏州大学 | 一种糖尿病视网膜病变硬渗出物分割方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112927243B (zh) | 2022-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112927243B (zh) | 一种基于卷积神经网络的微出血病灶分割方法 | |
CN111667489B (zh) | 基于双分支注意力深度学习的癌症高光谱图像分割方法及系统 | |
CN110197493B (zh) | 眼底图像血管分割方法 | |
CN111951288B (zh) | 一种基于深度学习的皮肤癌病变分割方法 | |
WO2021164640A1 (zh) | 视网膜图像识别方法及装置、电子设备、存储介质 | |
Yang et al. | SDDC-Net: A U-shaped deep spiking neural P convolutional network for retinal vessel segmentation | |
CN113420826B (zh) | 一种肝脏病灶图像处理系统及图像处理方法 | |
CN108764342B (zh) | 一种对于眼底图中视盘和视杯的语义分割方法 | |
CN113012163A (zh) | 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质 | |
US20230251199A1 (en) | Identifying auto-fluorescent artifacts in a multiplexed immunofluorescent image | |
Lei et al. | Automated detection of retinopathy of prematurity by deep attention network | |
Boubakar Khalifa Albargathe et al. | Blood vessel segmentation and extraction using H-minima method based on image processing techniques | |
US12131461B2 (en) | Systems, methods, and media for automatically transforming a digital image into a simulated pathology image | |
Zhao et al. | Attention residual convolution neural network based on U-net (AttentionResU-Net) for retina vessel segmentation | |
CN115546227A (zh) | 基于改进Unet网络的视网膜血管分割网络、分割方法、计算机设备和存储介质 | |
Doc et al. | DualA-Net: A generalizable and adaptive network with dual-branch encoder for medical image segmentation | |
Liu et al. | IMFF-Net: An integrated multi-scale feature fusion network for accurate retinal vessel segmentation from fundus images | |
Khalid et al. | FGR-Net: interpretable fundus image gradeability classification based on deep reconstruction learning | |
CN114359279B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
Kaur et al. | Automatic skin lesion segmentation using attention residual U-Net with improved encoder-decoder architecture | |
CN113160261A (zh) | 一种用于oct图像角膜层分割的边界增强卷积神经网络 | |
Sivapriya et al. | Computer aided diagnosis systems using deep learning for retinal diseases: A survey | |
Lin et al. | Automatic segmentation of glands in infrared meibomian gland image | |
Yue et al. | KFS-Net: Key Features Sampling Network for Lung Nodule Segmentation | |
CN117764985B (zh) | 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |