CN115760874A - 一种基于联合空间域的多尺度U-Net医学图像分割方法 - Google Patents

一种基于联合空间域的多尺度U-Net医学图像分割方法 Download PDF

Info

Publication number
CN115760874A
CN115760874A CN202211422825.3A CN202211422825A CN115760874A CN 115760874 A CN115760874 A CN 115760874A CN 202211422825 A CN202211422825 A CN 202211422825A CN 115760874 A CN115760874 A CN 115760874A
Authority
CN
China
Prior art keywords
medical image
segmentation
convolution
network
net
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211422825.3A
Other languages
English (en)
Inventor
饶云波
高丽
曾少宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yangtze River Delta Research Institute of UESTC Huzhou
Original Assignee
Yangtze River Delta Research Institute of UESTC Huzhou
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yangtze River Delta Research Institute of UESTC Huzhou filed Critical Yangtze River Delta Research Institute of UESTC Huzhou
Priority to CN202211422825.3A priority Critical patent/CN115760874A/zh
Publication of CN115760874A publication Critical patent/CN115760874A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于联合空间域的多尺度U‑Net医学图像分割方法,包括获取原始医学图像数据;利用极坐标中心点预测网络获得原始医学图像的中心点坐标;根据医学图像的中心点坐标,将原始医学图像转换为极坐标医学图像;构建基于联合空间域的多尺度U‑Net网络模型,利用极坐标医学图像进行模型训练;利用训练后的基于联合空间域的多尺度U‑Net网络模型生成医学图像分割结果。本发明采用多层空洞卷积编码模块实现多尺度内容融合,并利用中心点和极坐标实现了注意力机制和旋转不变性,提高了分割精度。

Description

一种基于联合空间域的多尺度U-Net医学图像分割方法
技术领域
本发明涉及医学图像分割技术领域,具体涉及一种基于联合空间域的多尺度U-Net医学图像分割方法。
背景技术
医学图像分割对于相关疾病的诊断、手术方案的制定至关重要。医学图像分割的常见应用场景是识别具有椭圆形状或类似形状分布的单个结构,例如大多数器官、皮肤病变、息肉、癌症等。其中,结直肠癌(CRC)在癌症发病率中排名第三,在全球癌症死亡率中排名第二。直肠癌的较好分割和直肠癌的分期与椭圆形直肠的分割密切相关。自U-Net在2015年的图像分割中实现了高精度,生成了大量的U-Net变体,如DENSEUNET,ResUNet提出了残差模块的U-Net结构,将U-Net模型应用于3D图像。
然而,这些网络模型忽略了对于要分割的椭圆对象,在极坐标系中具有更好的分割性能,如Dense-Unet,ResUNet,Double-Unet等。虽然一些模型包括利用了极坐标系,但却只在一个坐标系中进行训练,忽略了不同空间坐标系对最终分割结果的联合影响。正如在图1中所看到的,当直肠内部区域中的像素存在较大差异时,极坐标中的模型可以获得更好的性能,如图1(b)。然而,在某些情况下,当分割模型在类似图1(a)的笛卡尔坐标系中时,分割模型也可以产生良好的结果。结果表明,两种坐标系对最终结果都有一定的影响。DDNet考虑了两个坐标系,但将它们并行组合,损害了极坐标变换带来的注意力效应。而且这些模型的编码模块大多没有注意多尺度空间信息,导致分割精度降低。塞格迪等人仅在最后一个编码层中利用多尺度空间信息和使用包含过多参数的Inception模块来获取多尺度信息。
众所周知,在深度学习中,有两种方法可以提高模型的精度。第一种方法是加深模型的深度,即层数,但这可能会带来巨大的计算开销。第二种方法是增加网络的宽度(就像一层中卷积核的数量),但宽度过大的话会使模型具有大量的参数,在训练数据量不足时容易造成过拟合。
解决上述问题的基本方法是引入稀疏性,如GoogleNet中提出的Inception结构使用不同尺度的卷积和池化层从前一层的输出中提取特征,然后将结果组合形成网络下一层的输入,并使用1*1卷积对前一层进行特征提取,对该层的输出进行降维处理。Residualblock被Kaiming He等人提出。在ResNet中。与一般的深度神经网络相比,Residual block被定义在两层相互连接的网络上,即在Residual block中,数据不直接输入非线性变换单元,而是将元素与原始输入相加,然后进行非线性变换。这种方法的原因是允许错误一直向后传播。为了更好地加快Inception网络的训练速度,Google团队提出了Inception-ResNet。该网络结合了上述两种网络的优点,用残差连接取代了传统Inception结构中的池化层。受
Inception-ResNet和U-Net结构的启发,CE-Net提出了DAC模块,在前人的基础上增加了稠密的Atrous卷积。DAC模块可以通过多尺度空洞卷积。捕获更广泛和更深入的语义特征,并将其嵌入到U-Net编码模块的最后一层之后。然而,可以注意到,CE-Net只使用了一次DAC模块,而其他编码模块仍然是传统的残差连接模块,在多次卷积下采样后也丢失了大量的语义信息。另外,由于DAC模块的宽度较大,如果直接应用于多层编码,会带来大量的参数,容易造成过拟合。
在医学图像分割中,已经提出了极坐标网络来提高分割模型的精度。2018年,为了增强训练数据,采用极坐标变换的方法对训练数据进行增强,得到不同的极坐标原点,并对原始图像进行变换。通过这些原点将原图转换成不同的极坐标图像,从而增加了训练数据量。Kim等人设计了一种用户指导的分割方法,专家选择一个点作为极坐标原点,然后使用卷积神经网络(CNN)对变换后的图像进行分割。在分割视盘和视杯时,设计了一个神经网络M-Net.网络使用现有的自动视盘中心定位。然后基于检测到的视盘中心,将眼底图像转换为极坐标系并输入到M-Net网络中,M-Net网络是一种简单融合多尺度思想的U-Net网络。
在2019年DDNet中,提到CNN在笛卡尔域具有平移不变性,即对于图像中的任何像素,在该坐标域中通过CNN卷积学习到的特征向量是平移不变的。在极坐标域,CNN学习到的特征向量是旋转不变的。因此,为了更好地分割视盘和视杯,DDNet包含两个编码分支,一个分支将笛卡尔乘积坐标系的图像作为输入,另一个分支将极坐标变换后的相同输入图像作为输入。两个神经网络分支是并行进行的,这意味着同一层的编码结果在编码时会进行特征融合,合并成单个特征向量,然后输入到解码模块形成分割结果。但是这个网络的一个缺陷是笛卡尔坐标系分支没有得到特征的原点,从而失去了极坐标变换带来的注意效果(因为极坐标变换是基于原点得到的。目标区域的原点使得极坐标图像更关注目标区域附近),虽然可以获得分割的平移不变性,但损害了两个分支的最终融合结果。此外,在2017年提出了一种用于图像分类的极坐标变换网络,它由一个极坐标预测器和一个使用热图来预测目标原点的神经网络组成。然后,将热图的质心用作极坐标变换的原点。然而,该网络用于图像分类,因此在2021年,基于该网络,Marin等人提出了一种名为“极坐标图像变换训练”的方法。该网络还包括原点预测器,并将根据预测的原点将图像转换为极坐标。然后将其作为U-Net分割网络的输入。但该网络只利用了极坐标的特性,忽略了笛卡尔积的平移不变性。
上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
发明内容
针对现有技术中的上述不足,本发明提供了一种基于联合空间域的多尺度U-Net医学图像分割方法。
为了达到上述发明目的,本发明采用的技术方案为:
一种基于联合空间域的多尺度U-Net医学图像分割方法,包括以下步骤:
S1、获取原始医学图像数据;
S2、利用极坐标中心点预测网络获得原始医学图像的中心点坐标;
S3、根据医学图像的中心点坐标,将原始医学图像转换为极坐标医学图像;
S4、构建基于联合空间域的多尺度U-Net网络模型,利用极坐标医学图像进行模型训练;
S5、利用训练后的基于联合空间域的多尺度U-Net网络模型生成医学图像分割结果。
可选地,所述极坐标中心点预测网络具体为基于堆叠沙漏结构的编码器-解码器网络,其中每个堆栈的输出作为输入反馈到下一个堆栈。
可选地,步骤S3具体包括以下分步骤:
S31、将目标中心点重新设置为图像数据的中心点,确定转换后中心点坐标;
S32、根据极坐标系中的源样本点和目标规则网格,对直角坐标系中对应坐标点进行线性坐标变换;
S33、根据线性坐标变换参数构建网格生成器的采样网格,通过采样器利用采样网格对原始医学图像进行采样,并与原始医学图像进行拼接,得到最终的极坐标医学图像。
可选地,所述步骤S31中将目标中心点重新设置为图像数据的中心点的公式为:
d=min(x0,y0,w-x0,h-y0)
x∈(x0-d,x0+d)
y∈(y0-d,y0+d)
其中,d为待分割目标的中心点与图像四边的最小距离,(x0,y0)为原始图像的中心点坐标,w和h为原始图像的宽度和高度,(x,y)为转换后的任意像素点坐标。
可选地,所述步骤S32中对直角坐标系中对应坐标点进行线性坐标变换的公式为:
Figure BDA0003940749970000051
Figure BDA0003940749970000052
其中,
Figure BDA0003940749970000053
为极坐标系中的源样本点坐标,
Figure BDA0003940749970000054
为直角坐标系中对应坐标点。
可选地,所述基于联合空间域的多尺度U-Net网络模型具体包括:
级联的第一分割子网络和第二分割子网络;
所述第一分割子网络用于对极坐标医学图像进行图像分割,并将分割结果重新转换为直角系医学图像,与输入的极坐标医学图像进行特征融合后输入到第二分割子网络;
所述第二分割子网络用于对输入的融合医学图像进行图像分割,并将分割结果与第一分割子网络的分割结果进行特征融合,得到最终的医学图像分割结果。
可选地,所述第一分割子网络具体包括:
构成U-Net网络结构的编码器和解码器;
所述编码器包括两个并联的第一空洞卷积通道和第二空洞卷积通道,以及两个并联的第一卷积通道和第二卷积通道;
所述第一空洞卷积通道包括采用第一连续空洞率的连续卷积层,用于对输入的极坐标医学图像按照第一连续空洞率确定的感受野进行卷积计算;
所述第二空洞卷积通道包括采用第二连续空洞率的连续卷积层,用于对输入的极坐标医学图像按照第二连续空洞率确定的感受野进行卷积计算,并将卷积结果与第一空洞卷积通道的卷积结果进行拼接,得到第一拼接结果;
所述第一卷积通道包括一个卷积层,用于将卷积结果与第一拼接结果进行拼接,得到第二拼接结果;
所述第二卷积通道包括一个卷积层,用于将卷积结果与第二拼接结果进行特征融合,得到编码器的输出结果。
可选地,按照第一连续空洞率确定感受野和按照第二连续空洞率确定感受野的计算公式为:
F=2(rate-1)*(k-1)+k
其中,F为确定的感受野大小,rate为连续空洞率,k为卷积核大小。
可选地,所述基于联合空间域的多尺度U-Net网络模型采用基于深度监督的损失函数进行模型训练,表示为:
Figure BDA0003940749970000071
其中,Lout为模型的损失函数,L1loss为第一分割子网络的损失值,L2loss为第二分割子网络的损失值。
本发明具有以下有益效果:
(1)本发明提出了一种联合空间域网络模型(Joint U-Net)。它是一种级联极-笛卡尔积坐标空间分割网络。该网络不仅可以获得卷积的旋转不变性,在极坐标网下,还具有直角坐标系的卷积平移不变性。串联的网络结构可以避免直角坐标系并联时对最终分割结果的一些负面影响。
(2)本发明设计了AIR模块,它由多尺度的Atrous卷积组成,使得卷积过程具有更大的感受野,减少了参数的数量,可以获得更多的语义信息。
附图说明
图1为现有分割网络在极坐标和直角坐标系下对直肠分割结果的对比图;
图2为本发明实施例中一种基于联合空间域的多尺度U-Net医学图像分割方法的流程示意图;
图3为本发明实施例中基于联合空间域的多尺度U-Net医学图像分割过程示意图;
图4为本发明实施例中极坐标原点预测器的输出结果示意图;
图5为本发明实施例中坐标转换模块Diff-CTP的内部结构示意图;
图6为本发明实施例中AIR编码模块示意图;
图7为本发明实施例中AIR编码模块中空洞卷积效果的示意图;
图8为本发明实施例中多语义分割网络的实验结果示意图;
图9为本发明实施例中在直肠数据集上的分割结果示意图;
图10为本发明实施例中在皮肤病变数据集上的分割结果示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
如图2和图3所示,本发明实施例提供了一种基于联合空间域的多尺度U-Net医学图像分割方法,包括以下步骤S1至S5:
S1、获取原始医学图像数据;
S2、利用极坐标中心点预测网络获得原始医学图像的中心点坐标;
在本发明的一个可选实施例中,本发明采用的极坐标中心点预测网络使用一系列堆叠的编码器-解码器网络,基于堆叠沙漏结构的神经网络最初用于人体姿态估计,可以捕捉各种尺度的信息。其中每个特定堆栈的输出是预测对象中心的热图。每个堆栈的输出作为输入反馈到下一个堆栈,从而允许持续改进热图预测。网络的损失函数是每个堆栈的输出损失,然后进行平均,以便执行相应的深度监督。最终的预测热图是网络中最后一个堆栈的输出。为了预测中心点,本发明使用了8个堆叠的沙漏神经结构来预测目标区域的中心点。为了预测图像目标G(x,y)的中心点,首先需要获得对应的矩阵图像M。该矩阵的计算公式为:
Mij=∑(x,y)·xi·yj
其中,i和j表示矩阵M中的行和列。
实用下式获得图像的质心(cx,cy):
Figure BDA0003940749970000091
中心点预测网络中的八个沙漏堆栈中的每一个都将生成热图。最后一个沙漏结构输出的热图中强度最大的像素的坐标将作为最终预测目标区域的中心点。图4中示出了相应的中心点热图的示例,其中(a)是原始图像输入,(b)是相应的中心点热图。
S3、根据医学图像的中心点坐标,将原始医学图像转换为极坐标医学图像;
在本发明的一个可选实施例中,步骤S3具体包括以下分步骤:
S31、将目标中心点重新设置为图像数据的中心点,确定转换后中心点坐标;
S32、根据极坐标系中的源样本点和目标规则网格,对直角坐标系中对应坐标点进行线性坐标变换;
S33、根据线性坐标变换参数构建网格生成器的采样网格,通过采样器利用采样网格对原始医学图像进行采样,并与原始医学图像进行拼接,得到最终的极坐标医学图像。
具体而言,本发明将笛卡尔积网格上的特征映射到极坐标网格上的特征,这种变换需要使用预测的目标中心点。为了简化输入参数,利用下式将目标中心点重新设置为图像数据的中心点,
d=min(x0,y0,w-x0,h-y0)
x∈(x0-d,x0+d)
y∈(y0-d,y0+d)
其中,d为待分割目标的中心点与图像四边的最小距离,(x0,y0)为原始图像的中心点坐标,w和h为原始图像的宽度和高度,(x,y)为转换后的任意像素点坐标。转换后中心点坐标变为(w/2,h/2)。
再根据极坐标系中的源样本点
Figure BDA0003940749970000101
和目标规则网格,对直角坐标系中对应坐标点
Figure BDA0003940749970000102
进行线性坐标变换,表示为:
Figure BDA0003940749970000103
Figure BDA0003940749970000104
其中,
Figure BDA0003940749970000105
为极坐标系中的源样本点坐标,
Figure BDA0003940749970000106
为直角坐标系中对应坐标点。
图5为Diff-CTP坐标转换模块的具体结构,首先输入U依据上式得到变换参数来构建一个采样网格,其中(θ,R)对应
Figure BDA0003940749970000107
网格生成器得到映射关系T((θ,R))后,采样器利用采样网格和输入的特征图U,同时作为输入得到最终的特征图变换结果V。
S4、构建基于联合空间域的多尺度U-Net网络模型,利用极坐标医学图像进行模型训练;
在本发明的一个可选实施例中,本发明构建的基于联合空间域的多尺度U-Net网络模型具体包括:
级联的第一分割子网络和第二分割子网络;
所述第一分割子网络用于对极坐标医学图像进行图像分割,并将分割结果重新转换为直角系医学图像,与输入的极坐标医学图像进行特征融合后输入到第二分割子网络;
所述第二分割子网络用于对输入的融合医学图像进行图像分割,并将分割结果与第一分割子网络的分割结果进行特征融合,得到最终的医学图像分割结果。
其中,所述第一分割子网络具体包括:
构成U-Net网络结构的编码器和解码器;
所述编码器包括两个并联的第一空洞卷积通道和第二空洞卷积通道,以及两个并联的第一卷积通道和第二卷积通道;
所述第一空洞卷积通道包括采用第一连续空洞率的连续卷积层,用于对输入的极坐标医学图像按照第一连续空洞率确定的感受野进行卷积计算;
所述第二空洞卷积通道包括采用第二连续空洞率的连续卷积层,用于对输入的极坐标医学图像按照第二连续空洞率确定的感受野进行卷积计算,并将卷积结果与第一空洞卷积通道的卷积结果进行拼接,得到第一拼接结果;
所述第一卷积通道包括一个卷积层,用于将卷积结果与第一拼接结果进行拼接,得到第二拼接结果;
所述第二卷积通道包括一个卷积层,用于将卷积结果与第二拼接结果进行特征融合,得到编码器的输出结果。
具体而言,本发明设计的联合空间域网络模型(Joint U-Net)一共包含两个分割子网络。第一个分割子网络Multi-Content P-UNet,对输入的极坐标系下图像进行训练,它以U-Net为基础,并把U-Net中的简单编码模块替换为多尺度空间融合模块,以获得更多的语义信息。然后串联了第二个分割子网络Cart U-Net,该网络也同样使用U-Net网络结构,但是是对直角坐标系的图像进行训练。最后的分割是第一个网络的结果,第二个网络只是用来使我们的第一个网络有更好的性能,对最终的分割结果没有影响。而采用串联的网络结构是因为:
(1)第一个分割子网络输出的特征图可以通过再次获取原始输入图像和对应的分割掩码进一步进行改进。
(2)获得极坐标系下的旋转不变性以及直角坐标系下的分割结果的平移不变性。因为若该过程并联进行如DDNet,会使得直角坐标系分支没有得到该图的原点值信息,从而失去了极坐标转换时带来的注意力效果,为最终的特征融合带来负面影响。
图6显示了多尺度空间融合模块和相应的信道变化,其中编码模块结合了空洞卷积的思想[23,24,25,26],Inception[17,27,28],以及残差[19,29]。但是将Inception中的大卷积核转换为了几个连续的卷积核较小的空洞卷积。首先对输入特征图Input,利用两个并联的空洞卷积分支进行计算。两个分支的连续空洞率R分别为(1,2)和(1,2,3)。利用下式可以计算出其对应的感受野最大分别为7和15。其中rate为空洞率,k为卷积核大小,F为输出的感受野大小。而之所以要使用连续的卷积,是为了减轻空洞卷积带来的锯齿状分割结果,如图7所示,其中(a)R=1,(b)R=2,(c)R=3。
F=2(rate-1)*(k-1)+k
在进行了空洞卷积后,其卷积结果D和卷积后的输入Input将以通道拼接的方式进行组合,以保留更多的尺度信息。最后利用resBlock中的思想,将输入input和前述过程的输出结果进行像素叠加。对于第L层卷积,AIR模块的总体流程可以表示为:
outL=cat(DL,Conv(inputL))+inputL
本发明设计了多尺度空间融合模块可以像Inception编码块一样扩展感受野,而不需要大量增加参数,并且可以关注更多的尺度信息。虽然空洞卷积扩大了感受野,但仍然是3*3的卷积操作,如图7所示。
此外本发明还使用了两种方法来减轻网络过深带来的梯度丢失和增强最终的分割结果。
(1)Multi-Content P-UNet的输出经过Diff-PTC后将会重新转换为直角系下的图像,此时和原输入进行特征融合后,再输入到Cart U-Net中。第一个子网络的输出和第二个网络的输出进行特征融合后,再最终输出作为相应的分割结果。
(2)使用深度监督的思想,设计如下式所示的损失函数。其中L1loss为第一个子网络的损失值,其中L2loss为第二个子网络的损失值。Lout为最终的损失函数:
Figure BDA0003940749970000131
S5、利用训练后的基于联合空间域的多尺度U-Net网络模型生成医学图像分割结果。
下面结合具体实验数据集对本发明提供的上述基于联合空间域的多尺度U-Net医学图像分割方法的有效性进行验证。
1、实验数据集及相关指标
实验数据集由浙江邵逸夫医院提供。训练集包含219例患者的直肠MRI图像,共计2203幅图像。验证集包含来自51名患者的直肠癌的477幅MRI图像。并且训练集包含来自50个患者的直肠的468幅MRI图像,如表1所示。
表1直肠数据集信息
Figure BDA0003940749970000132
Figure BDA0003940749970000141
另外为了验证其普适性,还在ISIC 2018皮肤病变分割数据集上进行了实验,其中包含了2,694张皮肤损伤的皮肤镜检查图像。我们将每个图像的大小调整为384×512,并按照8∶1∶1的比例划分训练集集、验证集和测试集,然后将每个图像标准化为[-0.5,0.5]的范围。
为了验证AIR模块的有效性,我们在PyTorch 1.7.1和NVIDIA GeForce RTX 2090GPU上进行了相关实验。优化器为学习率为{10}^{-4}的Adam,Batch size为4,epoch为300,并在每个epoch之后使用checkpoints来存储模型,以获得最佳的验证损失。使用dice系数为损失函数,如下式所示:
Diceloss=1-(2|X∩Y|+α)/(|X|+|Y|+α)
其中X是输入图像的标签,Y是模型输出的预测值。α是平滑参数,在本实验中被设置为1。
在本实验中,我们设置了四个指标来评价模型,分别为dice系数,均交并比mIoU,精度precision和召回率recall。精度和准确度都是在像素级别上进行计算。
2、AIR编码模块实验
对于AIR模块,我们将其与U-Net相结合,并与DenseBlock+U-Net、ResBlock+U-Net等进行了比较。本实验是在极坐标网下进行的。实验结果如表2和表3所示。
表2 AIR模块和其他编码模块在直肠数据集上的比较结果
Figure BDA0003940749970000142
Figure BDA0003940749970000151
表3 AIR模块和其他编码模块在皮肤数据集上的比较结果
Figure BDA0003940749970000152
从表2和表3可以看出,我们的实验结果在DICE、MIOU和进动中达到最高。相应结果的可视化如图8所示,其中(a)U-Net(b)U-Net+resBlock(c)U-Net+DenseBlock(d)U-Net+Inception(e)U-Net+AIR。
对于实验4.2,我们总共进行了五个实验,并与最流行的编码模块DenseBlock、ResBlock和Inception进行了比较。Inception模块由1*1、3*3和5*5的卷积核和最大池化组成。从表2和表3中,我们可以分析出,与这些编码模块相比,我们的AIR模块在DICE系数、MIOU和precession上获得了了最好的结果。此外,特征图的中心点也是从标签中获得的。如果从我们训练的中心点预测网络中获取中心点,相关实验表明,分割精度一般会下降0.01到0.02左右。这一结论同样适用于实验4.3。我们对实验4.2的分割结果的可视化如图8所示,可以看到U-Net在分割边界时有明显的抖动,而ResBlock和DenseBlock会以更大的概率分割到非目标区域。我们的AIR模块在大多数情况下具有更好的分割性能,但当待分割区域的像素差异巨大时,边界分割也存在问题。
3、Joint U-Net相关实验分析
为了验证Joint U-Net的有效性,在PyTorch 1.10.0和NVIDIA GeForce RTX 3090GPU上进行了相关实验。优化器是Adam,其学习率为0.001,批量大小为6,在实验中数据集的中心点都通过相应的标签获得。
除了我们的模型是结合了极坐标系和直角坐标系外,其他实验均在极坐标系进行的训练与测试。而为了验证极坐标-直角坐标串联的有效性,我们和极坐标-极坐标串联网络Double Unet进行了对比实验,而为了保证单一变量,我们将Double Unet和我们的网络Joint U-Net中的编码结构都替换成了普通卷积。最后与主流的分割模型在直肠数据集上的对比实验结果如表4所示,在皮肤病变分割数据集上的对比实验结果如表5所示。实验包含三种不同的网络架构:U-Net,U-Net++[33]+resBlock和DeepLabV3+[34]+resBlock。
表4直肠数据集上的比较结果
Figure BDA0003940749970000161
表5皮肤病变数据集上的比较结果
Figure BDA0003940749970000162
Figure BDA0003940749970000171
在直肠数据集和皮肤病变数据集上进行了七个实验,结果如表4和表5所示。首先,在笛卡尔坐标系中进行基本网络U-Net的实验,可以发现它的效果是最差的。极坐标变换后,U-Net在直肠和皮肤病变数据集上分割精度提高了约0.07到0.10。这足以说明极坐标系可以更好地分割椭圆物体。此外,拥有共同编码结构的Double U-Net和Joint U-Net(OURS)的实验结果表明,只在极坐标系统下分割得到的信息不如在两个不同坐标系。
统下分割得到的结果好。此外,分割结果只从第一个子网络中获得,可以更好地避免由于网络深度过深而导致的分割精度损失。最后,我们将联合U-Net(OURS)的第一个子网的编码结构改为AIR,并将其与U-Net++和DeepLabv3+的编码模块为残差模块的编码结构进行了比较。实验结果证明了我们模型的有效性,相关结果如表4和表5所示。此外,图9为直肠数据集上的分割结果,其中(a)原始图像(b)标签(C)double-Unet(d)Joint U-net;图10为皮肤病变数据集上的分割结果,其中(a)原始图像(b)标签(C)double-Unet(d)Joint U-net;从图9和图10的实验结果可以看出:
(1)当待分割对象边界不清晰时,我们的网络具有较好的分割精度,如图9中的最后一行和图10中的第2、3行所示。
(2)当分割对象的边界不连续时,我们的网络可以更好地捕捉这种锯齿状的形状,如图10的第1行和第4行所示。
综上所述,医学图像分割对于相关疾病的诊断非常重要,为了减少相关医学图像的标注工作,人们提出了许多基于U-Net的模型来实现目标区域的自动分割。然而,这些模型大多只在一个坐标系中进行训练,忽略了不同空间坐标系的联合作用。此外,这些模型的编码模块大多没有关注多尺度空间信息。因此,我们提出了一种基于联合空间域的多尺度U-net分割模型来实现医学图像的分阶段分割。该模型采用自行设计的多层空洞卷积编码模块AIR(Atrous Inception Residual Block)实现多尺度内容融合。此外,利用中心点和极坐标实现了注意力机制和旋转不变性。利用笛卡尔坐标系网络对极坐标网络的输出进行再训练,实现了分割结果的平移不变性。我们的最终分割结果是从极坐标网络转换而来的。与常用的医学分割模型相比,该模型的DICE系数在直肠数据集上提高了约2%,在皮肤病变数据集上提高了约0.5%。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本发明中应用了具体实施例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (9)

1.一种基于联合空间域的多尺度U-Net医学图像分割方法,其特征在于,包括以下步骤:
S1、获取原始医学图像数据;
S2、利用极坐标中心点预测网络获得原始医学图像的中心点坐标;
S3、根据医学图像的中心点坐标,将原始医学图像转换为极坐标医学图像;
S4、构建基于联合空间域的多尺度U-Net网络模型,利用极坐标医学图像进行模型训练;
S5、利用训练后的基于联合空间域的多尺度U-Net网络模型生成医学图像分割结果。
2.根据权利要求1所述的一种基于联合空间域的多尺度U-Net医学图像分割方法,其特征在于,所述极坐标中心点预测网络具体为基于堆叠沙漏结构的编码器-解码器网络,其中每个堆栈的输出作为输入反馈到下一个堆栈。
3.根据权利要求2所述的一种基于联合空间域的多尺度U-Net医学图像分割方法,其特征在于,步骤S3具体包括以下分步骤:
S31、将目标中心点重新设置为图像数据的中心点,确定转换后中心点坐标;
S32、根据极坐标系中的源样本点和目标规则网格,对直角坐标系中对应坐标点进行线性坐标变换;
S33、根据线性坐标变换参数构建网格生成器的采样网格,通过采样器利用采样网格对原始医学图像进行采样,并与原始医学图像进行拼接,得到最终的极坐标医学图像。
4.根据权利要求3所述的一种基于联合空间域的多尺度U-Net医学图像分割方法,其特征在于,所述步骤S31中将目标中心点重新设置为图像数据的中心点的公式为:
d=min(x0,y0,w-x0,h-y0)
x∈(x0-d,x0+d)
y∈(y0-d,y0+d)
其中,d为待分割目标的中心点与图像四边的最小距离,(x0,y0)为原始图像的中心点坐标,w和h为原始图像的宽度和高度,(x,y)为转换后的任意像素点坐标。
5.根据权利要求4所述的一种基于联合空间域的多尺度U-Net医学图像分割方法,其特征在于,所述步骤S32中对直角坐标系中对应坐标点进行线性坐标变换的公式为:
Figure FDA0003940749960000021
Figure FDA0003940749960000022
其中,
Figure FDA0003940749960000023
为极坐标系中的源样本点坐标,
Figure FDA0003940749960000024
为直角坐标系中对应坐标点。
6.根据权利要求5所述的一种基于联合空间域的多尺度U-Net医学图像分割方法,其特征在于,所述基于联合空间域的多尺度U-Net网络模型具体包括:
级联的第一分割子网络和第二分割子网络;
所述第一分割子网络用于对极坐标医学图像进行图像分割,并将分割结果重新转换为直角系医学图像,与输入的极坐标医学图像进行特征融合后输入到第二分割子网络;
所述第二分割子网络用于对输入的融合医学图像进行图像分割,并将分割结果与第一分割子网络的分割结果进行特征融合,得到最终的医学图像分割结果。
7.根据权利要求6所述的一种基于联合空间域的多尺度U-Net医学图像分割方法,其特征在于,所述第一分割子网络具体包括:
构成U-Net网络结构的编码器和解码器;
所述编码器包括两个并联的第一空洞卷积通道和第二空洞卷积通道,以及两个并联的第一卷积通道和第二卷积通道;
所述第一空洞卷积通道包括采用第一连续空洞率的连续卷积层,用于对输入的极坐标医学图像按照第一连续空洞率确定的感受野进行卷积计算;
所述第二空洞卷积通道包括采用第二连续空洞率的连续卷积层,用于对输入的极坐标医学图像按照第二连续空洞率确定的感受野进行卷积计算,并将卷积结果与第一空洞卷积通道的卷积结果进行拼接,得到第一拼接结果;
所述第一卷积通道包括一个卷积层,用于将卷积结果与第一拼接结果进行拼接,得到第二拼接结果;
所述第二卷积通道包括一个卷积层,用于将卷积结果与第二拼接结果进行特征融合,得到编码器的输出结果。
8.根据权利要求7所述的一种基于联合空间域的多尺度U-Net医学图像分割方法,其特征在于,按照第一连续空洞率确定感受野和按照第二连续空洞率确定感受野的计算公式为:
F=2(rate-1)*(k-1)+k
其中,F为确定的感受野大小,rate为连续空洞率,k为卷积核大小。
9.根据权利要求8所述的一种基于联合空间域的多尺度U-Net医学图像分割方法,其特征在于,所述基于联合空间域的多尺度U-Net网络模型采用基于深度监督的损失函数进行模型训练,表示为:
Figure FDA0003940749960000041
其中,Lout为模型的损失函数,L1loss为第一分割子网络的损失值,L2loss为第二分割子网络的损失值。
CN202211422825.3A 2022-11-14 2022-11-14 一种基于联合空间域的多尺度U-Net医学图像分割方法 Pending CN115760874A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211422825.3A CN115760874A (zh) 2022-11-14 2022-11-14 一种基于联合空间域的多尺度U-Net医学图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211422825.3A CN115760874A (zh) 2022-11-14 2022-11-14 一种基于联合空间域的多尺度U-Net医学图像分割方法

Publications (1)

Publication Number Publication Date
CN115760874A true CN115760874A (zh) 2023-03-07

Family

ID=85370611

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211422825.3A Pending CN115760874A (zh) 2022-11-14 2022-11-14 一种基于联合空间域的多尺度U-Net医学图像分割方法

Country Status (1)

Country Link
CN (1) CN115760874A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908825A (zh) * 2023-03-10 2023-04-04 中国科学院宁波材料技术与工程研究所 一种基于视觉处理的类圆形结构分割方法及装置
CN117253035A (zh) * 2023-08-18 2023-12-19 湘潭大学 一种基于极坐标下注意力的单目标医学图像分割方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115908825A (zh) * 2023-03-10 2023-04-04 中国科学院宁波材料技术与工程研究所 一种基于视觉处理的类圆形结构分割方法及装置
CN117253035A (zh) * 2023-08-18 2023-12-19 湘潭大学 一种基于极坐标下注意力的单目标医学图像分割方法

Similar Documents

Publication Publication Date Title
CN106203432B (zh) 一种基于卷积神经网显著性图谱的感兴趣区域的定位系统
CN112465827B (zh) 一种基于逐类卷积操作的轮廓感知多器官分割网络构建方法
Wu et al. Dynamic filtering with large sampling field for convnets
CN115760874A (zh) 一种基于联合空间域的多尺度U-Net医学图像分割方法
CN107997778A (zh) 在计算机断层扫描血管造影术中基于深度学习的骨移除
Zhang et al. Progressive hard-mining network for monocular depth estimation
CN113012172A (zh) 一种基于AS-UNet的医学图像分割方法及系统
Du et al. Accelerated super-resolution MR image reconstruction via a 3D densely connected deep convolutional neural network
CN111325750B (zh) 一种基于多尺度融合u型链神经网络的医学图像分割方法
CN112216371B (zh) 多路多尺度并联编解码网络图像分割方法、系统及介质
CN117078692B (zh) 一种基于自适应特征融合的医疗超声图像分割方法及系统
WO2020234349A1 (en) Sampling latent variables to generate multiple segmentations of an image
CN115018809A (zh) Ct图像的靶区分割识别方法及系统
Chen et al. MBANet: Multi-branch aware network for kidney ultrasound images segmentation
Xu et al. AutoSegNet: An automated neural network for image segmentation
Li et al. Double attention U-Net for brain tumor MR image segmentation
Xu et al. Haar wavelet downsampling: A simple but effective downsampling module for semantic segmentation
CN108305268A (zh) 一种图像分割方法及装置
CN111127487A (zh) 一种实时多组织医学图像的分割方法
Xu et al. Dual-stream Representation Fusion Learning for accurate medical image segmentation
Zhao et al. MPSHT: multiple progressive sampling hybrid model multi-organ segmentation
Fu et al. TSCA-Net: Transformer based spatial-channel attention segmentation network for medical images
CN116402987A (zh) 基于扩散模型及3DTransformer的三维分割方法、系统、设备及介质
CN113538209A (zh) 一种多模态医学影像配准方法、配准系统、计算设备和存储介质
CN116129124A (zh) 一种图像分割方法、系统及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination