CN113744279B - 一种基于FAF-Net网络的图像分割方法 - Google Patents

一种基于FAF-Net网络的图像分割方法 Download PDF

Info

Publication number
CN113744279B
CN113744279B CN202110642409.3A CN202110642409A CN113744279B CN 113744279 B CN113744279 B CN 113744279B CN 202110642409 A CN202110642409 A CN 202110642409A CN 113744279 B CN113744279 B CN 113744279B
Authority
CN
China
Prior art keywords
feature map
faf
channels
module
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110642409.3A
Other languages
English (en)
Other versions
CN113744279A (zh
Inventor
栗伟
曹仰勇
于鲲
冯朝路
Original Assignee
东北大学
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 东北大学 filed Critical 东北大学
Priority to CN202110642409.3A priority Critical patent/CN113744279B/zh
Publication of CN113744279A publication Critical patent/CN113744279A/zh
Application granted granted Critical
Publication of CN113744279B publication Critical patent/CN113744279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30061Lung

Abstract

本发明公开了一种基于FAF‑Net网络的图像分割方法,涉及图像分割技术领域。该方法包括:输入待分割图像;图像经过编码阶段得到特征图M1~M5,同时将PPM模块加入U‑Net网络的编码阶段,并将M5经过PPM模块得到MP;将FAF模块引入解码阶段,替换U‑Net中每次跳跃连接后的拼接操作,然后将MP经过解码阶段进行特征还原得到Y,根据Y得到图像的分割结果。PPM模块的加入,解决了U‑Net网络中缺少处理图像多尺度问题模块的这一问题;FAF模块解决了U‑Net网络中每次跳跃连接之后的拼接操作中的两个主体特征语义相差较大的问题,提升了网络对于CT图像中病灶分割的准确率。

Description

一种基于FAF-Net网络的图像分割方法
技术领域
本发明涉及图像分割技术领域,特别是涉及一种基于FAF-Net网络的图像分割方法。
背景技术
肺炎患者的CT图像包含丰富的图像语义,其中的病灶区域更是蕴含着纹理学、形态学、统计学等不同形式的重要特征。所以一些研究指出,了解CT图像的演变过程可为新冠肺炎的早期防控、早期诊断及治疗提供重要依据。但是研究人员研究和使用CT图像的前提条件之一是:CT图像中的病灶区域已经具有显著性标注。而如今这项工作多为医生或者专业人员进行的人工标注,重复且大量的CT图像标注工作给工作人员带来了巨大的工作量。而且人工操作一般带有标注者个人的主观思想,并且常常伴有标注者的失误操作现象,所以标注者难以保证精准地在CT图像中标注病灶区域。
2012年提出的AlexNet网络首次将卷积神经网络(CNN)应用在图像识别上。之后陆续出现了很多优秀的图像分割的网络和方法,如:FCN、SegNet、Deeplab v1&v2&v3、V-net、U-Net等。它们的出现,在进一步提高图像分割精度的同时,也大大地解放了标注者的工作。这些网络中,在医学图像中应用比较广泛,效果比较好的是U-Net网络。U-Net网络的实现思路是:首先将输入的图像不断地进行卷积、池化、激活操作,提取输入图像的特征信息,产生多个特征图,在这个过程中,特征图的大小不断缩小,通道数量不断增大,这个过程被称为“编码阶段”;然后再将编码阶段提取到的最后一个特征图作为输入,重复使用上采样、卷积、激活操作,产生多个特征图,在这个过程中,特征图的大小不断增大,通道数量不断缩小,最后一个特征图被还原至与输入图像的大小一致,这个过程被称为“解码阶段”。其中最后一个特征图中的每个点的值代表对输入图像中的每个像素点的预测值,然后设置一定大小的阈值,根据特征图中每个像素点的值与阈值之间的大小关系来确定分割的区域,以此达到了对输入图像进行分割的效果。然而因为U-Net网络在解码阶段使用了上采样技术,所以无法避免地会造成特征图信息的丢失。针对这个问题,U-Net网络认为编码阶段产生的特征图更加接近于输入图像,具有更丰富的特征信息,因此将编码阶段产生的特征图与解码阶段产生的特征图直接进行拼接操作,以此来弥补解码阶段上采样操作中的信息丢失,这个操作被称为“跳跃连接”。而近期很多文献中提出:在U-Net网络每次跳跃连接时,解码阶段的特征图一般是与其相对应的编码阶段的特征图经过若干次卷积、激活、池化、上采样操作之后得到的,因此它们之间语义上的差别较大。如果直接将它们进行拼接操作,可能会因为这种特征图间语义上的差别造成网络的分割效果下降。就像让两个年龄相差较大且素未谋面的人协同工作一样。
与此同时,在经过相关专业医生的指导之后,容易发现新冠肺炎病灶体现在CT图像上具有多尺度的特点:1、病灶的面积大小不一致。例如较小的病灶面积小于1cm2,而最大病灶的面积却接近于半个肺叶;2、病灶的形状不统一。例如磨玻璃型的病灶形态接近于一团海绵,而索条型的病灶却像一道细长的绳索。但是在U-Net网络中并没有设计专门处理图像多尺度问题的模块,因此对于CT图像中的新冠肺炎病灶,U-Net网络并不能具有很好的分割效果。
发明内容
针对上述现有技术存在的不足,本发明提供一种基于FAF-Net网络的图像分割方法,旨在对U-Net网络进行改进,在传统的U-Net网络中加入PPM模块和FAF模块构成FAF-Net网络,通过基于FAF-Net网络的图像分割方法解决基于U-Net网络的图像分割方法无法处理图像多尺度问题和每次跳跃连接之后的拼接操作中的两个主体特征语义相差较大的问题,从而提高基于U-Net网络的图像分割方法的精度。
本发明的技术方案为:
一种基于FAF-Net网络的图像分割方法,包括下述步骤:
步骤1:输入待分割图像,并根据该图像的大小将其定义为大小为T×H×W的3维特征数组,表示为:X(T×H×W);
步骤2:图像X经过编码阶段得到特征图M1~M5,同时将PPM模块加入U-Net网络的编码阶段,并将M5经过PPM模块得到MP
步骤3:首先将FAF模块引入解码阶段,替换U-Net中每次跳跃连接后的拼接操作,然后将MP经过解码阶段进行特征还原得到Y,根据Y得到图像的分割结果。
进一步地,根据所述的基于FAF-Net网络的图像分割方法,所述步骤2中所述图像X经过编码阶段得到特征图M1~M5的方法为:首先将X经过提取特征操作改变特征图通道数量,得到特征图M1(C×W×H);然后将Mi经过最大值池化操作改变Mi的特征图大小,得到再将/>经过提取特征操作,得到特征图Mi+1,其中i为特征图索引,i=1,2,3,4,所述Mi+1分别为/>
进一步地,根据所述的基于FAF-Net网络的图像分割方法,所述提取特征操作由串行的两组串行的卷积操作、数据归一化操作和激活操作构成。
进一步地,根据所述的基于FAF-Net网络的图像分割方法,所述步骤2中所述M5经过 PPM模块得到MP的具体过程为:(1)将M5经过平均值池化操作改变特征图大小,再经过卷积操作改变通道数量,得到Pi,再将Pi经过上采样操作改变特征图大小,得到该过程重复执行四次,在执行的过程中i依次取值1、2、3、4,其中依次得到P1(C×1×1)、 P2(C×2×2)、P3(C×3×3)、P4(C×6×6);(2)将M5与S1,S2,S3,S4进行拼接操作,得到/>(3)将S经过卷积操作改变通道数量,得到特征图/>
进一步地,根据所述的基于FAF-Net网络的图像分割方法,所述FAF模块的输入为两个特征图,将两个输入的特征图串行经过融合、学习、再融合三个阶段后得到融合后的输出特征图,所述FAF模块中的可变参数为FG、FR,其中FG代表FAF模块中的分组卷积操作中的分组数量,FR代表FAF模块中的第一个全连接操作中输入特征图通道数量与输出特征图通道数量的比例;假设第i个FAF模块中的可变参数为FGFR为/>并定义Ci,Hi,Wi数值上分别等于输入特征图Mi的三个维度的大小,即特征图的通道数量和特征图的大小,则第i个FAF模块的具体过程为:
在融合阶段:首先将特征图Mi分别经过分组数量为/>的分组卷积操作,得到对应的特征图A1(Ci×Hi×Wi)和A2(Ci×Hi×Wi),然后将A1与A2经过矩阵相加得到特征图A(Ci×Hi×Wi),其中矩阵相加的定义为:
A(j,k,l)=A1(j,k,l)+A2(j,k,l)
其中j,k,l为位置索引,且满足1≤j≤Ci、1≤k≤Hi、1≤l≤Wi;A(j,k,l)代表特征图A在坐标为(j,k,l)位置的值;Ci,Hi,Wi数值上分别等于输入特征图Mi的三个维度的大小,即特征图的通道数量和特征图的大小;
在学习阶段:首先将A经过池化窗口大小为Hi×Wi的平均值池化操作改变特征图大小,得到向量R(Ci×1×1),所述向量为特征图的一种特殊形式,代表原特征图大小为1×1,向量的长度为特征图的通道数量;然后将R经过输入特征图通道数量为Ci,输出特征图通道数量为的全连接操作改变特征图通道数量,得到向量/>其中/>代表向上取整运算;最后将T分别经过两个输入特征图通道数量为/>输出特征图通道数量为Ci的全连接操作改变特征图通道数量,对应地得到两个向量t1(Ci×1×1),t2(Ci×1×1);
在再融合阶段:首先将t1与t2输入softmax函数,对应地得到两个向量a1(Ci×1×1)和 a2(Ci×1×1);然后将A1与a1进行矩阵与向量相乘操作,得到S1(Ci×Hi×Wi),同时将A2与 a2进行矩阵与向量相乘操作,得到S2(Ci×Hi×Wi);最后将S1与S2经过矩阵相加得到Ui(Ci× Hi×Wi);
所述矩阵与向量相乘操作的定义为:
S1(j,k,l)=A1(j,k,l)×a1(j,1,1)
其中j,k,l为位置索引,且满足1≤j≤Ci、1≤k≤Hi、1≤l≤Wi
进一步地,根据所述的基于FAF-Net网络的图像分割方法,所述步骤3中所述将MP经过解码阶段进行特征还原得到Y的方法为:首先定义B5=MP,将Bi+1经过上采样操作改变特征图大小,得到特征图然后将/>与Mi经过第i个FAF模块,得到特征图Ui;又然后将Ui经过还原特征操作得到特征图Bi,其中i为特征图索引,i=4,3,2,1,所述Bi分别为 B1(C×H×W);最后将B1通过卷积操作得到输出Y(T× H×W)。
进一步地,根据所述的基于FAF-Net网络的图像分割方法,所述还原特征操作由串行的两组串行的卷积操作、数据归一化操作和激活操作构成。
进一步地,根据所述的基于FAF-Net网络的图像分割方法,所述上采样操作采用双线性插值算法。
与现有技术相比,本发明具有如下有益效果:
1、本发明在U-Net网络中加入PPM模块(PPM-Pyramid pooling module,金字塔池化模块),利用具有多种大小不同的感受野的特征提取模块,更好地提取不同尺度的特征,解决了 U-Net网络中缺少处理图像多尺度问题的模块这一问题,可以更加精准地分割不同尺度大小的新冠肺炎病灶。2、本发明在U-Net网络中还引入了Feature Attention Fusion(FAF,基于注意力机制的特征融合)模块替换U-Net中每次跳跃连接后的拼接操作,FAF模块的输入为两个特征图,将两个输入的特征图串行经过“融合”、“学习”、“再融合”三个阶段后得到融合后的输出特征图。FAF模块的优点有三点:a)可以极大限度地消除两个特征图之间的语义差距;b) 可以使特征图自适应地调整各通道之间的关系,使得两个特征更好地融合;c)FAF模块的输出特征图的通道数量相较于输入特征图的通道数量没有增加,从而节省了FAF-Net网络在后续操作的计算资源。FAF模块解决了U-Net网络中每次跳跃连接之后的拼接操作中的两个主体特征语义相差较大的问题,提升了网络对于CT图像中病灶分割的准确率。
附图说明
图1为本实施方式基于FAF-Net网络的图像分割方法的流程图;
图2为本实施方式的提取特征操作与还原特征操作的结构示意图;
图3为本实施方式的PPM模块的结构示意图;
图4为本实施方式的FAF模块的结构示意图;
图5(A)为从测试集中选取的一张原始CT图像;(B)为(A)图中病灶区域对应的图像;(C)为通过传统的U-Net网络对(A)图中新冠肺炎病灶分割的结果显示图;(D)为通过FAF-Net网络对(A)图中新冠肺炎病灶分割的结果显示图。
具体实施方式
下面将结合附图和具体实施方式,对本发明的具体实施方式作进一步详细描述。以下实施例仅用于说明本发明,但限制本发明的范围。
图1是本实施方式的基于FAF-Net网络的图像分割方法的流程图,所述基于FAF-Net网络的图像分割方法包括如下步骤:
步骤1:读取训练集中的一幅待分割CT图像,并根据该图像的大小将其定义为大小为 T×H×W的3维特征数组,表示为:X(T×H×W)。
在优选实施例中,根据读取的待分割CT图像的大小,将读取到的CT图像定义为大小为 1×256×256的3维特征数组,表示为:X(1×256×256),其中第一个维度为1,代表X的通道数量,第二个维度和第三个维度均为256,代表X的特征图大小。数组中的元素表示为Xi,j,k,代表3维数组X中坐标为(i,j,k)的位置的像素值。
步骤2:在U-Net网络的编码阶段加入PPM模块,输入的CT图像经过编码阶段后得到特征图MP
在本实施方式中,图像X经过编码阶段得到特征图M1~M5的方法为:首先将X经过提取特征操作改变特征图通道数量,得到特征图M1(C×W×H);然后将Mi经过最大值池化操作改变Mi的特征图大小,得到再将/>经过提取特征操作,得到特征图Mi+1,其中i为特征图索引,i=1,2,3,4,所述Mi+1分别为/>
图2是所述提取特征操作的结构示意图,所述提取特征操作,由串行的两组操作构成,其中每组所述操作由串行的卷积操作、数据归一化操作和激活操作构成;
在优选实施例中,图像X经过编码阶段得到特征图M1~M5的具体过程包括如下的步骤 2.1~2.5:
步骤2.1:对X进行特征提取,将X经过提取特征操作改变特征图通道数量,得到特征图 M1(C×W×H);
在优选实施例中,对X进行特征提取的详细过程为:先将输入X经过提取特征操作中的一组操作即串行的卷积操作(在优选实施例中所有的卷积操作中卷积核为3×3大小,步长为1,不同点在于卷积核的数量,即输出结果中特征图的通道数)、数据归一化操作和激活操作,得到特征图然后再将/>经过提取特征操作中的另一组操作即串行的卷积操作、数据归一化操作和激活操作得到特征图M1(64×256×256)。
步骤2.2:对M1进行特征提取,将M1经过最大值池化操作改变M1的特征图大小,得到再将/>经过提取特征操作,改变/>的特征图通道数量,得到特征图M2
在优选实施例中,将M1经过池化窗口大小为2×2的最大值池化操作(在本实施方式中,最大值池化操作中池化窗口大小均为2×2),改变M1的特征图大小,得到将/>经过提取特征操作,改变/>的特征图通道数量,得到特征图M2(128×128×128)。
步骤2.3:按照步骤2.2的方法,对M2进行特征提取,将M2经过最大值池化操作改变M2的特征图大小,得到再将/>经过提取特征操作,改变/>的特征图通道数量,得到特征图 M3
在优选实施例中,将M2经过最大值池化操作改变特征图大小,得到再将/>进行提取特征操作改变通道数量,得到特征图M3(256×64×64)。
步骤2.4:对M3进行特征提取,将M3经过最大值池化操作改变M3的特征图大小,得到再将/>经过提取特征操作,改变/>的特征图通道数量,得到特征图M4
在优选实施例中,将M3经过最大值池化操作改变特征图大小,得到再将/>进行提取特征操作改变通道数量,得到特征图M4(512×32×32)。
步骤2.5:对M4进行特征提取,将M4经过最大值池化操作改变M4的特征图大小,得到再将/>经过提取特征操作,但不改变/>的特征图通道数量,得到特征图M5
在优选实施例中,将M4经过最大值池化操作改变特征图大小,得到将/>进行提取特征操作,不改变通道数量,得到特征图M5(512×16×16)。
在本实施方式中,M5经过PPM模块得到MP的具体过程为:(1)将M5经过平均值池化操作改变特征图大小,再经过卷积操作改变通道数量,得到Pi,再将Pi经过上采样操作改变特征图大小,得到该过程重复执行四次,在执行的过程中i依次取值1、2、3、4,其中依次得到P1(C×1×1)、P2(C×2×2)、P3(C×3×3)、P4(C×6×6);(2)将M5与S1, S2,S3,S4进行拼接操作,得到/>(3)将S经过卷积操作改变通道数量,得到特征图
在优选实施例中,如图3所示,将M5经过PPM模块得到MP的具体过程包括:首先同时执行下面的步骤(a)至(d)得到特征图S1,S2,S3,S4
(a)将M5串行经过池化窗口大小为16×16的平均值池化操作改变特征图大小,经过卷积操作改变通道数量,得到P1(64×1×1),将P1经过上采样操作改变特征图大小,得到S1(64× 16×16)。其中上采样操作采用双线性插值算法,其功能为改变输入特征图的大小,本实施方式的上采样操作中均使用双线性插值算法;
(b)将M5串行经过的池化口大小为8×8的平均值池化操作改变特征图大小,经过卷积操作改变通道数量,得到P2(64×2×2),将P2再经过上采样操作改变特征图大小,得到S2(64× 16×16);
(c)将M5串行经过池化窗口大小为6×6的平均值池化操作改变特征图大小,经过卷积操作改变通道数量,得到P3(64×3×3),将P3再经过上采样操作改变特征图大小,得到S3(64× 16×16);
(d)将M5串行经过池化窗口大小为3×3的平均值池化操作改变特征图大小,经过卷积操作改变通道数量,得到P4(64×6×6),将P4经过上采样操作改变特征图大小,得到S4(64× 16×16);
然后,将M5与S1,S2,S3,S4进行拼接操作,得到S(768×16×16);
最后,将S经过卷积操作改变通道数量,得到特征图MP(512×16×16)。
步骤3:先将FAF模块引入解码阶段,替换U-Net中每次跳跃连接后的拼接操作,然后将MP经过解码阶段进行特征还原得到Y,Y与X相同大小,根据Y结合预设的阈值,得到图像的分割结果。
在本实施方式中,将MP经过解码阶段进行特征还原得到Y的方法为:首先定义B5=MP,将Bi+1经过上采样操作改变特征图大小,得到特征图然后将/>与Mi经过第i个FAF模块,得到特征图Ui;又然后将Ui经过还原特征操作得到特征图Bi,其中i为特征图索引,i=4,3,2,1,所述Bi分别为/>B1(C×H×W);最后将B1通过卷积操作得到输出Y(T×H×W)。
图2也是还原特征操作的结构示意图,所述还原特征操作与提取特征操作采用相同的架构,也是由串行的两组操作构成,其中每组所述操作由串行的卷积操作、数据归一化操作和激活操作构成;不同点在于二者在进行各自的卷积操作时设置的卷积核数量。
在本实施方式中,所述FAF模块的输入为两个特征图,如图4所示,将两个输入的特征图串行经过融合、学习、再融合三个阶段后得到融合后的输出特征图,所述FAF模块中的可变参数为FG、FR,其中FG代表FAF模块中的分组卷积操作中的分组数量,FR代表FAF模块中的第一个全连接操作中输入特征图通道数量与输出特征图通道数量的比例;假设第i个FAF模块中的可变参数为FGFR为/>并定义Ci,Hi,Wi数值上分别等于输入特征图Mi的三个维度的大小,即特征图的通道数量和特征图的大小,则第i个FAF模块的具体过程为:
在融合阶段:首先将特征图Mi分别经过分组数量为/>的分组卷积操作,得到对应的特征图A1(Ci×Hi×Wi)和A2(Ci×Hi×Wi),然后将A1与A2经过矩阵相加得到特征图A(Ci×Hi×Wi),其中矩阵相加的定义为:
A(j,k,l)=A1(j,k,l)+A2(j,k,l)
其中j,k,l为位置索引,且满足1≤j≤Ci、1≤k≤Hi、1≤l≤Wi;A(j,k,l)代表特征图A在坐标为(j,k,l)位置的值;Ci,Hi,Wi数值上分别等于输入特征图Mi的三个维度的大小,即特征图的通道数量和特征图的大小;
在学习阶段:首先将A经过池化窗口大小为Hi×Wi的平均值池化操作改变特征图大小,得到向量R(Ci×1×1),所述向量为特征图的一种特殊形式,代表原特征图大小为1×1,向量的长度为特征图的通道数量;然后将R经过输入特征图通道数量为Ci,输出特征图通道数量为的全连接操作改变特征图通道数量,得到向量/>其中/>代表向上取整运算;最后将T分别经过两个输入特征图通道数量为/>输出特征图通道数量为Ci的全连接操作改变特征图通道数量,对应地得到两个向量t1(Ci×1×1),t2(Ci×1×1);
在再融合阶段:首先将t1与t2输入softmax函数,对应地得到两个向量a1(Ci×1×1)和 a2(Ci×1×1);然后将A1与a1进行矩阵与向量相乘操作,得到S1(Ci×Hi×Wi),同时将A2与 a2进行矩阵与向量相乘操作,得到S2(Ci×Hi×Wi);最后将S1与S2经过矩阵相加得到Ui(Ci× Hi×Wi);
所述矩阵与向量相乘操作的定义为:
S1(j,k,l)=A1(j,k,l)×a1(j,1,1)
其中j,k,l为位置索引,且满足1≤j≤Ci、1≤k≤Hi、1≤l≤Wi
在优选实施例中,MP经过解码阶段进行特征还原得到Y包括如下具体步骤:
步骤3.1:将第四FAF模块引入解码阶段并定义B5=MP,对B5进行特征还原,得到特征图B4
在优选实施例中,对B5进行特征还原得到特征图B4的详细过程为:先将B5经过上采样操作改变特征图大小,得到特征图再将/>与M4经过第四FAF模块,得到特征图U4(512×32×32);然后将U4经过还原特征操作中的一组操作即串行的卷积操作、数据归一化操作和激活操作改变通道数量得到特征图/>再将/>经过还原特征操作中的另一组操作即串行的卷积操作、数据归一化操作和激活操作得到特征图B4(256×32× 32)。
优选实施例中,第四FAF模块的具体过程为:
设置FG=8,FR=1.5。
在融合阶段,将M4分别经过分组数量为FG=8,卷积核为3×3大小,步长为1的分组卷积操作,得到对应的特征图A1(512×32×32),A2(512×32×32)。将A1与A2经过矩阵相加得到A(512×32×32)。其中矩阵相加的定义为:
A(j,k,l)=A1(j,k,l)+A2(j,k,l)
其中j,k,l为位置索引,1≤j≤512;1≤k≤32;1≤l≤32,A(j,k,l)代表特征图A在坐标为(j,k,l)位置的值。
在学习阶段:首先将A经过池化窗口大小为32×32的平均值池化操作改变特征图大小,得到向量R(512×1×1),所述向量为特征图的一种特殊形式,代表原特征图大小为1×1,向量的长度为特征图的通道数量;然后将R经过输入特征图通道数量为512,输出特征图通道数量为的全连接操作改变特征图通道数量,得到向量T(341×1×1);最后将T分别经过两个输入特征图通道数量为341,输出特征图通道数量为512的全连接操作改变特征图通道数量,对应地得到两个向量t1(512×1×1),t2(512×1×1)。
在再融合阶段:首先将t1与t2输入softmax函数,对应地得到两个向量a1(512×1×1),a2(512×1×1);然后将A1与a1进行矩阵与向量相乘操作,得到S1(512×32×32),其中矩阵与向量相乘操作的定义为:
S1(j,k,l)=A1(j,k,l)×a1(j,1,1)
其中j,k,l为位置索引,1≤j≤512;1≤k≤32;1≤l≤32。
同时将A2与a2进行矩阵与向量相乘操作,得到S2(512×32×32);最后将S1与S2经过矩阵相加得到U4(512×32×32)。
步骤3.2:将第三FAF模块引入解码阶段,对B4进行还原特征,得到特征图B3
将B4经过上采样操作,改变特征图大小,得到特征图设置第三FAF 模块中FG=4,FR=1.5,将/>与M3经过第三FAF模块,得到特征图U3(256×64×64)。将U3进行还原特征操作,即经过两次串行的卷积操作、数据归一化操作和激活操作,改变特征图通道数,得到B3(128×64×64)。
步骤3.3:将第二FAF模块引入解码阶段,对B3进行还原特征,得到特征图B2
将B3经过上采样操作,改变特征图大小,得到特征图设置第二FAF 模块中FG=2,FR=1.5,将/>与M2经过第二FAF模块,得到特征图U2(128×128×128)。将U2进行还原特征操作,改变特征图通道数,得到B2(64×128×128)。
步骤3.4:将第一FAF模块引入解码阶段,对B2进行还原特征,得到特征图B1
将B2经过上采样操作,改变特征图大小,得到特征图设置第一FAF 模块中FG=1,FR=1.5,将/>与M1经过第一FAF模块,得到特征图U1(64×256×256)。将 U1进行还原特征操作,不改变特征图通道数,得到B1(64×256×256)。
步骤3.5:将B1通过卷积操作得到输出Y,根据Y得到图像的分割结果。
将B1经过卷积操作改变特征图通道数,得到输出Y(1×256×256),此时Y与X大小一致, Y中的元素表示为Yi,j,k,Yi,j,k代表FAF-Net网络对于原始输入图像X在坐标为(i,j,k)位置的像素值的预测值。在优选实施例中,设置阈值α=0.5,Yi,j,k>=α时,表示FAF-Net网络预测X中 (i,j,k)位置属于病灶区域;Y,j,k<α时,表示FAF-Net网络预测X中(i,j,k)位置属于非病灶区域,得到对于X中病灶区域的分割结果。
在本实施方式中,本发明方法在实验过程中所使用的数据集是在某医院经过保密采集。数据集使用了338例来自同一个医院的不同新冠病人的病例。其中每个病例被隐藏了个人信息,并且均做过PCR核酸检测且结果呈阳性。每个病例含有300张以上的CT图像,并且每张CT图像都经过了两位相关的医生进行手工标注病灶区域得到了每张CT对应的病灶图像。从中挑选出相似度较小并且图像较为清晰的4472组图像,其中一组图像代表一张CT图像和一张对应的病灶图像。首先将所有的CT图像和病灶图像大小都缩放至256×256。然后通过将所有CT图像设置窗宽WW、窗位WL为:1500HU,-450HU的方法将CT图像中的像素点的值归一化至0-255。最后将病灶图像中像素点值大于1的点的值改为1,像素点值小于0的点的值改为0,其余点的像素值不变。
将4472组图像按照14:3:3的比例分割为:训练集,验证集,测试集,并且对训练集中的每张图片进行顺时针旋转180度后作为一张新的图片加入训练集,以此进行数据增强。然后将训练集中的CT图像输入FAF-Net网络,设置每次训练时输入的图片数量为6,设置学习率为1e-4,设置优化算法为Adam,并将其中参数β1设置为0.9,β2设置为0.999,eps设置为1e- 8,weight_decay设置为1e-8,设置损失函数为LossBCE,设置迭代次数为1000次。其中LossBCE的定义如下
因为本发明进行的实验为图像分割实验,所以为了定量分析实验结果的精准度,使用 Sensitivity,Specificity,Precision,Dice,E_measure(Eφ),MAE这几个指标衡量实验结果,以此来评价网络的性能。各项指标的公式如下:
其中TP代表X1,i,j=1且Y1,i,j=1的像素点的个数,TN代表X1,i,j=0且Y1,i,j=0的像素点的个数,FP代表X1,i,j=0且Y1,i,j=1的像素点的个数,FN代表X1,i,j=0且Y1,i,j=1的像素点的个数,其中0<i,j<256且i,j为整数。
将FAF-Net网络与传统的U-Net网络分别在训练集的CT图像上进行训练,保存最后一次迭代训练的网络参数。将训练好的FAF-Net网络与U-Net网络分别在测试集的CT图像上进行测试,得到分割结果,将分割结果与测试集中的病灶图像数据作为各项指标的输入进行计算,得到结果如表1所示。
表1
网络 Sensitivity Specificity Precision Dice MAE E_measure
U-Net 0.75099 0.98073 0.5432 0.63041 0.0261 0.89163033
FAF-Net 0.71732 0.98747 0.63596 0.67419 0.0205 0.96474771
根据表中的数据定量分析,可以分析得到:FAF-Net网络在衡量图片间的相似度指标Dice上可以达到0.67419,大幅度超越U-Net网络;在衡量分割结果错误率的指标MAE上,也取得了0.0205,小于U-Net网络,表示与U-Net网络相比,FAF-Net网络对CT图像分割出的病灶图像与真实的病灶图像的差距更小。其余各项指标中,Specificity,Precision,E_measure也均达到了比U-Net网络更好的效果。
接下来再根据图5进行定性分析,图5中的(A)图为测试集中的一张原始CT图像;(B)图为与(A)图对应的病灶图像;(C)图为基于传统的U-Net网络对(A)图中新冠肺炎病灶的分割结果,可以看出U-Net网络将更多的非病灶区域分割为病灶区域,而且在病灶区域的分割结果上与真实的病灶图像也有很大的偏差,分割图像中含有更多的噪音和杂质; (D)图为基于FAF-Net网络对(A)图中新冠肺炎病灶的分割结果,可以看出基于FAF-Net 网络的图像分割结果含有更少的杂质,几乎精准的分割出完整的病灶区域。
综合上述,可以说明与传统的U-Net网络相比,基于FAF-Net网络的图像分割方法在对于CT中新冠肺炎病灶的分割上达到了更加精准的效果。
显然,上述实施例仅仅是本发明的一部分实施例,而不是全部的实施例。上述实施例仅用于解释本发明,并不构成对本发明保护范围的限定。基于上述实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,也即凡在本申请的精神和原理之内所作的所有修改、等同替换和改进等,均落在本发明要求的保护范围内。

Claims (3)

1.一种基于FAF-Net网络的图像分割方法,其特征在于,包括下述步骤:
步骤1:输入待分割图像,并根据该图像的大小将其定义为大小为T×H×W的3维特征数组,表示为:x(T×H×W);
步骤2:图像X经过编码阶段得到特征图M1~M5,同时将PPM模块加入U-Net网络的编码阶段,并将Ms经过PPM模块得到MP
步骤3:首先将FAF模块引入解码阶段,替换U-Net中每次跳跃连接后的拼接操作,然后将MP经过解码阶段进行特征还原得到Y,根据Y得到图像的分割结果;
所述图像X经过编码阶段得到特征图M1~M5的方法为:首先将X经过提取特征操作改变特征图通道数量,得到特征图M1(C×W×H);然后将Mi经过最大值池化操作改变Mi的特征图大小,得到再将/>经过提取特征操作,得到特征图Mi+1,其中i为特征图索引,i=1,2,3,4,所述Mi+1分别为/>
所述提取特征操作由串行的两组串行的卷积操作、数据归一化操作和激活操作构成;
所述M5经过PPM模块得到MP的具体过程为:(1)将M5经过平均值池化操作改变特征图大小,再经过卷积操作改变通道数量,得到Pi,再将Pi经过上采样操作改变特征图大小,得到该过程重复执行四次,在执行的过程中i依次取值1、2、3、4,其中依次得到P1(C×1×1)、P2(C×2×2)、P3(C×3×3)、P4(C×6×6);(2)将M5与S1,S2,S3,S4进行拼接操作,得到/>(3)将S经过卷积操作改变通道数量,得到特征图/>
所述FAF模块的输入为两个特征图,将两个输入的特征图串行经过融合、学习、再融合三个阶段后得到融合后的输出特征图,所述FAF模块中的可变参数为FG、FR,其中FG代表FAF模块中的分组卷积操作中的分组数量,FR代表FAF模块中的第一个全连接操作中输入特征图通道数量与输出特征图通道数量的比例;假设第i个FAF模块中的可变参数为FGFR为/>并定义Ci,Hi,Wi数值上分别等于输入特征图Mi的三个维度的大小,即特征图的通道数量和特征图的大小,则第i个FAF模块的具体过程为:
在融合阶段:首先将特征图Mi分别经过分组数量为/>的分组卷积操作,得到对应的特征图A1(Ci×Hi×Wi)和A2(Ci×Hi×Wi),然后将A1与A2经过矩阵相加得到特征图A(Ci×Hi×Wi),其中矩阵相加的定义为:
A(j,k,l)=A1(j,k,l)+A2(j,k,l)
其中j,k,l为位置索引,且满足1≤j≤Ci、1≤k≤Hi、1≤l≤Wi;A(j,k,l)代表特征图A在坐标为(j,k,l)位置的值;Ci,Hi,Wi数值上分别等于输入特征图Mi的三个维度的大小,即特征图的通道数量和特征图的大小;
在学习阶段:首先将A经过池化窗口大小为Hi×Wi的平均值池化操作改变特征图大小,得到向量R(Ci×1×1),所述向量为特征图的一种特殊形式,代表原特征图大小为1×1,向量的长度为特征图的通道数量;然后将R经过输入特征图通道数量为Ci,输出特征图通道数量为的全连接操作改变特征图通道数量,得到向量/>其中/>代表向上取整运算;最后将T分别经过两个输入特征图通道数量为/>输出特征图通道数量为Ci的全连接操作改变特征图通道数量,对应地得到两个向量t1(Ci×1×1),t2(Ci×1×1);
在再融合阶段:首先将t1与t2输入softmax函数,对应地得到两个向量a1(Ci×1×1)和a2(Ci×1×1);然后将A1与a1进行矩阵与向量相乘操作,得到S1(Ci×Hi×Wi),同时将A2与a2进行矩阵与向量相乘操作,得到S2(Ci×Hi×Wi);最后将S1与S2经过矩阵相加得到Ui(Ci×Hi×Wi);
所述矩阵与向量相乘操作的定义为:
S1(j,k,l)=A1(j,k,l)×a1(j,1,1)
其中j,k,l为位置索引,且满足1≤j≤Ci、1≤k≤Hi、1≤l≤Wi
所述将MP经过解码阶段进行特征还原得到Y的方法为:首先定义B5=MP,将Bi+1经过上采样操作改变特征图大小,得到特征图然后将/>与Mi经过第i个FAF模块,得到特征图Ui;又然后将Ui经过还原特征操作得到特征图Bi,其中i为特征图索引,i=4,3,2,1,所述Bi分别为/>B1(C×H×W);最后将B1通过卷积操作得到输出Y(T×H×W)。
2.根据权利要求1所述的基于FAF-Net网络的图像分割方法,其特征在于,所述还原特征操作由串行的两组串行的卷积操作、数据归一化操作和激活操作构成。
3.根据权利要求1所述的基于FAF-Net网络的图像分割方法,其特征在于,所述上采样操作采用双线性插值算法。
CN202110642409.3A 2021-06-09 2021-06-09 一种基于FAF-Net网络的图像分割方法 Active CN113744279B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110642409.3A CN113744279B (zh) 2021-06-09 2021-06-09 一种基于FAF-Net网络的图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110642409.3A CN113744279B (zh) 2021-06-09 2021-06-09 一种基于FAF-Net网络的图像分割方法

Publications (2)

Publication Number Publication Date
CN113744279A CN113744279A (zh) 2021-12-03
CN113744279B true CN113744279B (zh) 2023-11-14

Family

ID=78728427

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110642409.3A Active CN113744279B (zh) 2021-06-09 2021-06-09 一种基于FAF-Net网络的图像分割方法

Country Status (1)

Country Link
CN (1) CN113744279B (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210485A (zh) * 2019-05-13 2019-09-06 常熟理工学院 基于注意力机制指导特征融合的图像语义分割方法
US10482603B1 (en) * 2019-06-25 2019-11-19 Artificial Intelligence, Ltd. Medical image segmentation using an integrated edge guidance module and object segmentation network
CN111062386A (zh) * 2019-11-28 2020-04-24 大连交通大学 基于深度金字塔注意力和特征融合的自然场景文本检测方法
CN111325751A (zh) * 2020-03-18 2020-06-23 重庆理工大学 基于注意力卷积神经网络的ct图像分割系统
CN111681252A (zh) * 2020-05-30 2020-09-18 重庆邮电大学 一种基于多路径注意力融合的医学图像自动分割方法
CN112287940A (zh) * 2020-10-30 2021-01-29 西安工程大学 一种基于深度学习的注意力机制的语义分割的方法
CN112418176A (zh) * 2020-12-09 2021-02-26 江西师范大学 一种基于金字塔池化多级特征融合网络的遥感图像语义分割方法
CN112651973A (zh) * 2020-12-14 2021-04-13 南京理工大学 基于特征金字塔注意力和混合注意力级联的语义分割方法
WO2021104056A1 (zh) * 2019-11-27 2021-06-03 中国科学院深圳先进技术研究院 一种肿瘤自动分割系统、方法及电子设备
CN112927240A (zh) * 2021-03-08 2021-06-08 重庆邮电大学 一种基于改进的AU-Net网络的CT图像分割方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110210485A (zh) * 2019-05-13 2019-09-06 常熟理工学院 基于注意力机制指导特征融合的图像语义分割方法
US10482603B1 (en) * 2019-06-25 2019-11-19 Artificial Intelligence, Ltd. Medical image segmentation using an integrated edge guidance module and object segmentation network
WO2021104056A1 (zh) * 2019-11-27 2021-06-03 中国科学院深圳先进技术研究院 一种肿瘤自动分割系统、方法及电子设备
CN111062386A (zh) * 2019-11-28 2020-04-24 大连交通大学 基于深度金字塔注意力和特征融合的自然场景文本检测方法
CN111325751A (zh) * 2020-03-18 2020-06-23 重庆理工大学 基于注意力卷积神经网络的ct图像分割系统
CN111681252A (zh) * 2020-05-30 2020-09-18 重庆邮电大学 一种基于多路径注意力融合的医学图像自动分割方法
CN112287940A (zh) * 2020-10-30 2021-01-29 西安工程大学 一种基于深度学习的注意力机制的语义分割的方法
CN112418176A (zh) * 2020-12-09 2021-02-26 江西师范大学 一种基于金字塔池化多级特征融合网络的遥感图像语义分割方法
CN112651973A (zh) * 2020-12-14 2021-04-13 南京理工大学 基于特征金字塔注意力和混合注意力级联的语义分割方法
CN112927240A (zh) * 2021-03-08 2021-06-08 重庆邮电大学 一种基于改进的AU-Net网络的CT图像分割方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
A-PSPNet:一种融合注意力机制的PSPNet图像语义分割模型;高丹 等;中国电子科学研究院学报(第06期);全文 *
Fully feature fusion based neural network for COVID-19 lesion segmentation in CT images;Li, Wei 等;《Biomedical Signal Processing and Control》;全文 *
卷积神经网络图像语义分割技术;田启川 等;小型微型计算机系统(第06期);全文 *
注意力机制和特征融合的自动抠图算法;王欣 等;计算机辅助设计与图形学学报(第09期);全文 *

Also Published As

Publication number Publication date
CN113744279A (zh) 2021-12-03

Similar Documents

Publication Publication Date Title
CN111681252B (zh) 一种基于多路径注意力融合的医学图像自动分割方法
CN110889853B (zh) 基于残差-注意力深度神经网络的肿瘤分割方法
CN110889852B (zh) 基于残差-注意力深度神经网络的肝脏分割方法
CN111784671A (zh) 基于多尺度深度学习的病理图像病灶区域检测方法
CN110706214B (zh) 融合条件随机与残差的三维U-Net大脑肿瘤分割方法
CN111667445A (zh) 一种基于Attention多特征融合的图像压缩感知重建方法
CN111862136A (zh) 基于卷积神经网络的多模态核磁影像缺血性脑卒中病变分割方法
CN112396605B (zh) 网络训练方法及装置、图像识别方法和电子设备
CN113298826B (zh) 一种基于LA-Net网络的图像分割方法
CN111325750A (zh) 一种基于多尺度融合u型链神经网络的医学图像分割方法
CN110738660A (zh) 基于改进U-net的脊椎CT图像分割方法及装置
CN110930378A (zh) 基于低数据需求的肺气肿影像处理方法及系统
CN117132774B (zh) 一种基于pvt的多尺度息肉分割方法及系统
CN112950480A (zh) 一种融合多感受野和密集残差注意的超分辨率重建方法
CN113298827B (zh) 一种基于DP-Net网络的图像分割方法
CN115100165A (zh) 一种基于肿瘤区域ct图像的结直肠癌t分期方法及系统
CN108765287B (zh) 一种基于非局部均值的图像超分辨率方法
CN114565601A (zh) 基于DeepLabV3+改进的肝脏CT图像分割算法
CN113674156A (zh) 一种图像超分辨率重建的方法及系统
CN113744279B (zh) 一种基于FAF-Net网络的图像分割方法
CN117409030A (zh) 基于动态管状卷积的octa图像血管分割方法及其系统
CN112712526A (zh) 基于非对称卷积神经网络双通道的视网膜血管分割方法
CN113298825B (zh) 一种基于MSF-Net网络的图像分割方法
CN111553250A (zh) 一种基于人脸特征点的精准面瘫程度评测方法及装置
Yang et al. RSAMSR: A deep neural network based on residual self-encoding and attention mechanism for image super-resolution

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant