CN112927243A - 一种基于卷积神经网络的微出血病灶分割方法 - Google Patents

一种基于卷积神经网络的微出血病灶分割方法 Download PDF

Info

Publication number
CN112927243A
CN112927243A CN202110348001.5A CN202110348001A CN112927243A CN 112927243 A CN112927243 A CN 112927243A CN 202110348001 A CN202110348001 A CN 202110348001A CN 112927243 A CN112927243 A CN 112927243A
Authority
CN
China
Prior art keywords
micro
attention
sub
pixel
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110348001.5A
Other languages
English (en)
Other versions
CN112927243B (zh
Inventor
刘书朋
刘睿奇
陈娜
陈振宜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Shanghai for Science and Technology
Original Assignee
University of Shanghai for Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Shanghai for Science and Technology filed Critical University of Shanghai for Science and Technology
Priority to CN202110348001.5A priority Critical patent/CN112927243B/zh
Publication of CN112927243A publication Critical patent/CN112927243A/zh
Application granted granted Critical
Publication of CN112927243B publication Critical patent/CN112927243B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30101Blood vessel; Artery; Vein; Vascular
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明设计了一种基于卷积神经网络的甲襞微出血病灶分割方法,该方法收集、处理甲襞微出血图像;标注微出血病灶区域,得到金标准图像;构造一种基于卷积神经网络的甲襞微出血病灶分割模型;划分训练集、测试集;对训练集进行数据扩增,并用扩增后的数据训练模型;用测试集测试训练好的模型。本发明把包含通道注意力、空间注意力的双注意力机制引入到经典的U型特征提取网络中,强调关键特征,抑制无关特征,促使模型更加关注微出血病灶区域;在网络结构中增加组归一化作为正则化手段,加快模型收敛速度,防止过拟合,提高整体分割性能。本发明可以得到高精度的甲襞微出血病灶分割图像。

Description

一种基于卷积神经网络的微出血病灶分割方法
技术领域
本发明属于医学图像处理领域,具体涉及一种基于卷积神经网络的微出血病灶分割方法。
背景技术
甲襞微循环作为反映全身末梢循环状况的窗口,对自身免疫性疾病的诊断和治疗十分重要。在临床中,医生使用甲襞毛细血管镜观察甲襞毛细血管的形态,根据微循环特征分析病情。当甲襞毛细血管内的红细胞溢出到血管周围区域,就形成微出血现象。它是微循环异常的重要表现之一,通常反映了潜在的血管损伤。相关文献表明,甲襞微出血的形成与一些疾病的临床特征有密切联系,如高血压导致的血液流变性障碍、糖尿病性视网膜病变以及青光眼视盘出血等。考虑到甲襞微出血的发生是一个长期的动态过程,且其演变在一定程度上反应了病情发展与治疗进展,开发一种精确的微出血病灶分割算法对相应疾病的诊断与研究是十分必要的。
对甲襞微循环图像进行微出血病灶分割是一项极具挑战性的任务。首先,甲襞微出血的形态较为复杂多变,大大增加了分割的难度。具体如三角形、半月形、帽状、点状或片状出血,按颜色分鲜红、紫红或黄褐色出血等,各不相同。其次,甲襞微出血与毛细血管位置相邻,特征相近,容易混淆。此外,图像的采集环节往往存在噪声过多的问题。噪声以香柏油的反光和仪器上的灰尘为主,它导致微循环图像背景明暗不均匀,对比度不高,综合质量较低。
传统的医学图像分割方法依赖手工特征提取且表达能力受限,难以应对复杂度较高的微出血病灶分割问题。近年来,深度学习在计算机视觉领域取得了巨大成功,卷积神经网络得到了深入、广泛的应用。其中,U-Net是医学图像分割领域的代表性模型,众多研究都沿用了其经典的U型设计。它采用编码器和解码器来提取不同层次的特征,并通过跳跃连接进行拼接、融合,最终实现了逐像素分类。尽管U-Net在一定程度上弥补了因下采样而导致的空间信息丢失,但它仍存在分割效率较低、分割精度不足的问题。
发明内容
本发明要解决的技术问题是:如何提高对甲襞微循环图像进行微出血病灶分割的效率和精度。为实现这一目的,本发明将双注意力机制和组归一化引入U型卷积神经网络,得到以下方案:
一种基于卷积神经网络的微出血病灶分割方法,包括以下步骤:
步骤1:收集微出血图像,对其进行感兴趣区域的剪裁与归一化预处理,得到数据集中的病理图像;
步骤2:通过标注软件对步骤1获得的病理图像进行逐像素标注,得到数据集中的金标准图像;
步骤3:针对步骤1、步骤2得到的数据集建立基于U型特征提取网络的分割模型,U型特征提取网络中嵌入组归一化层和融合双注意力模块;
步骤4:对步骤1、步骤2获得的数据集进行训练集、测试集的划分;
步骤5:对步骤4得到的训练集做数据扩增,扩增后的图像用于步骤3分割模型的训练,训练好的模型输出逐像素分类的预测图;
步骤6:将步骤4获得的测试集作为步骤5训练好的分割模型的输入,模型输出逐像素分类的预测图。
在步骤1中制作处理后的病理图像具体为:
步骤11:收集带有微出血异常的甲襞微循环图像,从中找到微出血病灶区域,选取其中心取图像邻域256*256的区域作为分割的感兴趣区域;
步骤12:将步骤11得到的图像中所有像素点的值归一化到[0,1]之间。
步骤2中所述标注软件为labelme。
步骤3中:分割模型基于U型特征提取网络,网络的左半部分为编码器路径,包含四个子模块。每一个子模块都由3*3卷积、组归一化、3*3卷积、2*2最大池化构成;网络的右半部分为解码器路径,包括四个子模块,第一个子模块包含3*3卷积、组归一化、3*3卷积以及2*2的上采样,解码器路径的后三个子模块包含3*3卷积、组归一化、3*3卷积、融合双注意力模块、3*3卷积以及2*2的上采样。
步骤3包括:
步骤31:扩增后的图像被送入U型特征提取网络的编码器路径,编码器路径的四个子模块都在卷积层之间插入一个组归一化层,并在最后接最大池化,每经历一个子模块,输出的特征图尺寸减半,通道数翻倍,产生低分辨率的特征图。
步骤32:步骤31产生的低分辨率特征图被送入解码器路径。解码器路径的后三个子模块均在上采样之后接一个融合双注意力模块,具体包括并行的通道注意力模块、空间注意力模块,以及最后的特征融合模块。同样的,解码器路径的子模块也在卷积层中插入一个组归一化层,每经历一个子模块,输出的特征图尺寸翻倍,通道数减半。
步骤33:将步骤31所述的编码器路径和步骤32所述的解码器路径通过跳跃连接结合。
步骤34:步骤32从解码器路径最后一个子模块输出的特征图经上采样和1*1卷积后,通过sigmoid得到最终预测图。
步骤31中使用的组归一化层公式为:
Figure BDA0003001364160000021
其中N为批次大小,C为通道数目,Si为组内系数,
Figure BDA0003001364160000022
为floor操作,G为预定义的超参数。x为输入特征图,y为输出特征图。
步骤32中,使用的通道注意力模块具体描述为:
MC(X)=σ(MLP(Avgpool(X))+MLP(Maxpool(X)))
其中,MC(X)为中间特征图X的通道注意力权重,σ为激活函数sigmoid,MLP为多层神经网络,Avgpooling为平均池化,Maxpooling为最大池化。
步骤32中,使用的空间注意力模块具体描述为:
MS(X)=σ(f7*7([Avgpool(X);Maxpool(X)]))
其中,MS(X)为中间特征图X的空间注意力权重,f7*7为卷积核大小为7*7的卷积操作。
步骤32中,使用的特征融合模块具体描述为:
Figure BDA0003001364160000023
Figure BDA0003001364160000024
F=conv([FC;FS])
Figure BDA0003001364160000031
其中,FC为通道注意力权重和中间特征图X逐像素相乘之后得到的通道注意力,FS为空间注意力权重和中间特征图X逐像素相乘之后得到的空间注意力。conv为卷积操作,Globalpool为全局平均池化,Ff为融合后的特征图。
步骤5中,所述数据扩增具体为翻转、平移、放大、旋转和剪切。
本发明的有益效果是:把包含通道注意力、空间注意力的双注意力机制引入到经典的U型特征提取网络中,强调关键特征,抑制无关特征,促使模型更加关注微出血病灶区域;考虑到表达层次上的不同,使用特征融合模块来进行信息的整合与交互,充分利用提取到的关键特征;在网络结构中增加组归一化作为正则化手段,加快模型收敛速度,防止过拟合,提高整体分割性能。
附图说明
图1为本发明的工作流程图。
图2为本发明的模型架构图。
图3为本发明所使用的通道注意力模块工作流程图。
图4为本发明所使用的空间注意力模块工作流程图。
图5为本发明所使用的特征融合模块工作流程图。
图6为本发明对甲襞微出血病灶区域的分割结果示意图。
具体实施方式
下面结合附图与具体实施例对本发明做进一步说明:
图1为本发明的工作流程图。基于卷积神经网络的甲襞微出血病灶分割方法包括收集、处理甲襞微出血图像,标注甲襞微出血图像,构造基于卷积神经网络的甲襞微出血病灶分割方法,划分训练集、测试集,对训练集进行数据扩增,训练网络,测试测试集等步骤。具体如下:
步骤1:收集甲襞微出血图像,对其进行感兴趣区域的剪裁与归一化预处理,得到数据集中的病理图像。
步骤11:收集带有微出血异常的甲襞微循环图像,从中找到微出血病灶区域,选取其中心取图像邻域256*256的区域作为分割的感兴趣区域。
步骤12:将步骤11得到的图像中所有像素点的值归一化到[0,1]之间。
步骤2:通过标注软件对步骤1获得的病理图像进行逐像素标注,得到数据集中的金标准图像。使用的标注软件为labelme。
步骤3:针对步骤1、步骤2得到的数据集设计一种基于卷积神经网络的甲襞微出血病灶分割方法,包括U型特征提取网络、融合双注意力模块和组归一化层三个主要组成部分。
步骤31:扩增后的图像被送入U型特征提取网络的编码器路径。编码器路径的四个子模块都在卷积层之间插入一个组归一化层,并在最后接最大池化,产生低分辨率的特征图。
步骤32:步骤31产生的低分辨率特征图被送入解码器路径。解码器路径的后三个子模块均在上采样之后接一个融合双注意力模块,具体包括并行的通道注意力模块、空间注意力模块,以及最后的特征融合模块。同样的,解码器路径的子模块也在卷积层中插入一个组归一化层。解码器路径最后产生高分辨率的特征图。
步骤33:将步骤31所述的编码器路径和步骤32所述的解码器路径通过跳跃连接结合。
步骤34:步骤32获得的特征图经上采样和1*1卷积后,通过sigmoid得到最终预测图。
步骤4:对步骤1、步骤2获得的数据集进行训练集、测试集的划分。
步骤5:对步骤4得到的训练集做数据扩增,扩增后的图像用于步骤3设计的分割模型的训练。训练好的模型输出逐像素分类的预测图。数据扩增具体为翻转、平移、放大、旋转和剪切。
步骤6:将步骤4获得的测试集作为步骤5训练好的分割模型的输入,模型输出逐像素分类的预测图。
其中,使用的组归一化层公式为:
Figure BDA0003001364160000041
其中N为批次大小,C为通道数目,Si为组内系数,
Figure BDA0003001364160000042
为floor操作,G为预定义的超参数。x为输入特征图,y为输出特征图。
图2为本发明的模型架构图。用于甲襞微出血的分割模型基于U型特征提取网络,网络的左半部分为编码器路径,包含四个子模块。每一个子模块都由3*3卷积、组归一化、3*3卷积、2*2最大池化构成。每经历一个子模块,输出的特征图尺寸减半,通道数翻倍。网络的右半部分为解码器路径,包括四个子模块。每一个子模块包含3*3卷积、组归一化、3*3卷积、以及2*2的上采样。特殊的,解码器路径的后三个子模块包含3*3卷积、组归一化、3*3卷积、融合双注意力模块、3*3卷积以及2*2的上采样。每经历一个子模块,输出的特征图尺寸翻倍,通道数减半。解码器路径最后一个子模块的输出经过上采样和1*1卷积后,通过sigmoid得到最终预测图。
图3为本发明所使用的通道注意力模块工作流程图。通道注意力模块具体描述为:
MC(X)=σ(MLP(Avgpool(X))+MLP(Maxpool(X)))
其中,MC(X)为中间特征图X的通道注意力权重,σ为激活函数sigmoid,MLP为多层神经网络,Avgpooling为平均池化,Maxpooling为最大池化。
图4为本发明所使用的空间注意力模块工作流程图。空间注意力模块具体描述为:
MS(X)=σ(f7*7([Avgpool(X);Maxpool(X)]))
其中,MS(X)为中间特征图X的空间注意力权重,f7*7为卷积核大小为7*7的卷积操作。
图5为本发明所使用的特征融合模块工作流程图。特征融合模块具体描述为:
Figure BDA0003001364160000043
F=conv([FC;FS]) (10)
Figure BDA0003001364160000044
其中,FC为通道注意力权重和中间特征X逐像素相乘之后得到的通道注意力,FS为空间注意力权重和中间特征X逐像素相乘之后得到的空间注意力。conv为卷积操作,Globalpool为全局平均池化,Ff为融合后获得的结果特征图。
图6为本发明对甲襞微出血病灶区域的分割结果示意图。图6第一行为数据集中的病理图像;第二行为数据集中的标签,也就是金标准图像;第三行为本发明的分割结果。
综上所述,本发明提出一种基于卷积神经网络的甲襞微出血病灶分割模型。该模型把包含通道注意力、空间注意力的双注意力机制引入到经典的U型特征提取网络中,强调关键特征,抑制无关特征,促使模型更加关注微出血病灶区域;考虑到表达层次上的不同,使用特征融合模块来进行信息的整合与交互,充分利用提取到的关键特征;在网络结构中增加组归一化作为正则化手段,加快模型收敛速度,防止过拟合,提高整体分割性能。本发明可以得到高精度的甲襞微出血病灶分割图像。

Claims (10)

1.一种基于卷积神经网络的微出血病灶分割方法,其特征在于,包括以下步骤:
步骤1:收集微出血图像,对其进行感兴趣区域的剪裁与归一化预处理,得到数据集中的病理图像;
步骤2:通过标注软件对步骤1获得的病理图像进行逐像素标注,得到数据集中的金标准图像;
步骤3:对步骤1、步骤2获得的数据集,建立U型特征提取网络,网络中嵌入组归一化层和融合双注意力模块;
步骤4:对步骤1、步骤2获得的数据集进行训练集、测试集的划分;
步骤5:对步骤4得到的训练集做数据扩增,即随机的垂直翻转、水平翻转、旋转、缩放、移位,扩增后的图像用于步骤3分割模型的训练,训练好的模型输出逐像素分类的预测图;
步骤6:将步骤4获得的测试集作为步骤5训练好的分割模型的输入,模型输出逐像素分类的预测图。
2.根据权利要求1所述的方法,其特征在于在步骤1中制作处理后的病理图像具体为:
步骤11:收集带有微出血异常的甲襞微循环图像,从中找到微出血病灶区域,选取其中心取图像邻域256*256的区域作为分割的感兴趣区域;
步骤12:将步骤11得到的图像中所有像素点的值归一化到[0,1]之间。
3.根据权利要求1所述的方法,其特征在于:步骤2中所述标注软件为labelme。
4.根据权利要求1所述的方法,其特征在于,步骤3中:分割模型基于U型特征提取网络,网络的左半部分为编码器路径,包含四个子模块。每一个子模块都由3*3卷积、组归一化、3*3卷积、2*2最大池化构成;网络的右半部分为解码器路径,包括四个子模块,第一个子模块包含3*3卷积、组归一化、3*3卷积以及2*2的上采样,解码器路径的后三个子模块包含3*3卷积、组归一化、3*3卷积、融合双注意力模块、3*3卷积以及2*2的上采样。
5.根据权利要求1-4任一项所述的方法,其特征在于步骤3包括:
步骤31:扩增后的图像被送入U型特征提取网络的编码器路径,编码器路径的四个子模块都在卷积层之间插入一个组归一化层,并在最后接最大池化,每经历一个子模块,输出的特征图尺寸减半,通道数翻倍,产生低分辨率的特征图。
步骤32:步骤31产生的低分辨率特征图被送入解码器路径。解码器路径的后三个子模块均在上采样之后接一个融合双注意力模块,具体包括并行的通道注意力模块、空间注意力模块,以及最后的特征融合模块。同样的,解码器路径的子模块也在卷积层中插入一个组归一化层,每经历一个子模块,输出的特征图尺寸翻倍,通道数减半。
步骤33:将步骤31所述的编码器路径和步骤32所述的解码器路径通过跳跃连接结合,具体是将编码器提取到的特征和解码器提取到的特征拼接到一起,弥补因最大池化带来的空间信息损失。
步骤34:步骤32所述的特征图经上采样和1*1卷积后,通过sigmoid得到最终预测图。
6.根据权利要求4所述的方法,其特征在于步骤31中使用的组归一化层公式为:
Figure FDA0003001364150000011
其中N为批次大小,C为通道数目,Si为组内系数,
Figure FDA0003001364150000012
为floor操作,G为预定义的超参数。x为输入特征图,y为输出特征图。
7.根据权利要求4所述的方法,其特征在于,步骤32中,使用的通道注意力模块具体描述为:
Mc(X)=σ(MLP(Avgpool(X))+MLp(Maxpool(X)))
其中,MC(X)为中间特征图X的通道注意力权重,σ为激活函数sigmoid,MLP为多层神经网络,Avgpooling为平均池化,Maxpooling为最大池化。
8.根据权利要求4所述的方法,其特征在于,步骤32中,使用的空间注意力模块具体描述为:
MS(X)=σ(f7*7([Avgpool(X);Maxpool(X)]))
其中,MS(X)为中间特征图X的空间注意力权重,f7*7为卷积核大小为7*7的卷积操作。
9.根据权利要求4所述的方法,其特征在于,步骤32中,使用的特征融合模块具体描述为:
Figure FDA0003001364150000021
Figure FDA0003001364150000022
F=conv([FC;Fs])
Figure FDA0003001364150000023
其中,FC为通道注意力权重和中间特征图X逐像素相乘之后得到的通道注意力,FS为空间注意力权重和中间特征图X逐像素相乘之后得到的空间注意力。conv为卷积操作,Globalpool为全局平均池化,Ff为融合后的特征图。
10.根据权利要求1所述的方法,其特征在于,步骤5中,所述数据扩增具体为翻转、平移、放大、旋转和剪切。
CN202110348001.5A 2021-03-31 2021-03-31 一种基于卷积神经网络的微出血病灶分割方法 Active CN112927243B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110348001.5A CN112927243B (zh) 2021-03-31 2021-03-31 一种基于卷积神经网络的微出血病灶分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110348001.5A CN112927243B (zh) 2021-03-31 2021-03-31 一种基于卷积神经网络的微出血病灶分割方法

Publications (2)

Publication Number Publication Date
CN112927243A true CN112927243A (zh) 2021-06-08
CN112927243B CN112927243B (zh) 2022-12-23

Family

ID=76176764

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110348001.5A Active CN112927243B (zh) 2021-03-31 2021-03-31 一种基于卷积神经网络的微出血病灶分割方法

Country Status (1)

Country Link
CN (1) CN112927243B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113256641A (zh) * 2021-07-08 2021-08-13 湖南大学 一种基于深度学习的皮肤病灶图像分割方法
CN113298826A (zh) * 2021-06-09 2021-08-24 东北大学 一种基于LA-Net网络的图像分割方法
CN114219780A (zh) * 2021-12-10 2022-03-22 东北大学 一种基于深度学习的甲襞微循环血管检测与分割方法
CN114549556A (zh) * 2022-02-25 2022-05-27 腾讯科技(深圳)有限公司 一种图像分割的方法、相关装置、设备以及存储介质
CN117333470A (zh) * 2023-10-20 2024-01-02 苏州大学 一种糖尿病视网膜病变硬渗出物分割方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110189334A (zh) * 2019-05-28 2019-08-30 南京邮电大学 基于注意力机制的残差型全卷积神经网络的医学图像分割方法
CN111401480A (zh) * 2020-04-27 2020-07-10 上海市同济医院 一种基于融合注意力机制的乳腺mri自动辅助诊断新方法
CN112102283A (zh) * 2020-09-14 2020-12-18 北京航空航天大学 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法
CN112132798A (zh) * 2020-09-18 2020-12-25 浙江大学 基于Mini ARU-Net网络的复杂背景PCB标记点图像检测方法
CN112132817A (zh) * 2020-09-29 2020-12-25 汕头大学 一种混合注意力机制的眼底图像视网膜血管分割方法
WO2021016087A1 (en) * 2019-07-19 2021-01-28 Arizona Board Of Regents On Behalf Of Arizona State University Systems for the generation of source models for transfer learning to application specific models

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110189334A (zh) * 2019-05-28 2019-08-30 南京邮电大学 基于注意力机制的残差型全卷积神经网络的医学图像分割方法
WO2021016087A1 (en) * 2019-07-19 2021-01-28 Arizona Board Of Regents On Behalf Of Arizona State University Systems for the generation of source models for transfer learning to application specific models
CN111401480A (zh) * 2020-04-27 2020-07-10 上海市同济医院 一种基于融合注意力机制的乳腺mri自动辅助诊断新方法
CN112102283A (zh) * 2020-09-14 2020-12-18 北京航空航天大学 一种基于深度多尺度注意力卷积神经网络的视网膜眼底血管分割方法
CN112132798A (zh) * 2020-09-18 2020-12-25 浙江大学 基于Mini ARU-Net网络的复杂背景PCB标记点图像检测方法
CN112132817A (zh) * 2020-09-29 2020-12-25 汕头大学 一种混合注意力机制的眼底图像视网膜血管分割方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
SHUPENG LIU 等: "Segmenting nailfold capillaries using an improved U-net network", 《ELSEVIER》 *
YU WENG 等: "NAS-Unet: Neural Architecture Search for Medical Image Segmentation", 《IEEE》 *
郝晓宇 等: "融合双注意力机制3D U-Net的肺肿瘤分割", 《中国图象图形学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113298826A (zh) * 2021-06-09 2021-08-24 东北大学 一种基于LA-Net网络的图像分割方法
CN113298826B (zh) * 2021-06-09 2023-11-14 东北大学 一种基于LA-Net网络的图像分割方法
CN113256641A (zh) * 2021-07-08 2021-08-13 湖南大学 一种基于深度学习的皮肤病灶图像分割方法
CN113256641B (zh) * 2021-07-08 2021-10-01 湖南大学 一种基于深度学习的皮肤病灶图像分割方法
CN114219780A (zh) * 2021-12-10 2022-03-22 东北大学 一种基于深度学习的甲襞微循环血管检测与分割方法
CN114549556A (zh) * 2022-02-25 2022-05-27 腾讯科技(深圳)有限公司 一种图像分割的方法、相关装置、设备以及存储介质
CN117333470A (zh) * 2023-10-20 2024-01-02 苏州大学 一种糖尿病视网膜病变硬渗出物分割方法及装置
CN117333470B (zh) * 2023-10-20 2024-08-30 苏州大学 一种糖尿病视网膜病变硬渗出物分割方法及装置

Also Published As

Publication number Publication date
CN112927243B (zh) 2022-12-23

Similar Documents

Publication Publication Date Title
CN112927243B (zh) 一种基于卷积神经网络的微出血病灶分割方法
CN111667489B (zh) 基于双分支注意力深度学习的癌症高光谱图像分割方法及系统
CN110197493B (zh) 眼底图像血管分割方法
CN111951288B (zh) 一种基于深度学习的皮肤癌病变分割方法
WO2021164640A1 (zh) 视网膜图像识别方法及装置、电子设备、存储介质
Yang et al. SDDC-Net: A U-shaped deep spiking neural P convolutional network for retinal vessel segmentation
CN113420826B (zh) 一种肝脏病灶图像处理系统及图像处理方法
CN108764342B (zh) 一种对于眼底图中视盘和视杯的语义分割方法
CN113012163A (zh) 一种基于多尺度注意力网络的视网膜血管分割方法、设备及存储介质
US20230251199A1 (en) Identifying auto-fluorescent artifacts in a multiplexed immunofluorescent image
Lei et al. Automated detection of retinopathy of prematurity by deep attention network
Boubakar Khalifa Albargathe et al. Blood vessel segmentation and extraction using H-minima method based on image processing techniques
US12131461B2 (en) Systems, methods, and media for automatically transforming a digital image into a simulated pathology image
Zhao et al. Attention residual convolution neural network based on U-net (AttentionResU-Net) for retina vessel segmentation
CN115546227A (zh) 基于改进Unet网络的视网膜血管分割网络、分割方法、计算机设备和存储介质
Doc et al. DualA-Net: A generalizable and adaptive network with dual-branch encoder for medical image segmentation
Liu et al. IMFF-Net: An integrated multi-scale feature fusion network for accurate retinal vessel segmentation from fundus images
Khalid et al. FGR-Net: interpretable fundus image gradeability classification based on deep reconstruction learning
CN114359279B (zh) 图像处理方法、装置、计算机设备及存储介质
Kaur et al. Automatic skin lesion segmentation using attention residual U-Net with improved encoder-decoder architecture
CN113160261A (zh) 一种用于oct图像角膜层分割的边界增强卷积神经网络
Sivapriya et al. Computer aided diagnosis systems using deep learning for retinal diseases: A survey
Lin et al. Automatic segmentation of glands in infrared meibomian gland image
Yue et al. KFS-Net: Key Features Sampling Network for Lung Nodule Segmentation
CN117764985B (zh) 眼底图像分割模型训练方法、设备和青光眼辅助诊断系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant