CN115661170A - 一种腹部三维ct图像自动分割方法、设备及介质 - Google Patents
一种腹部三维ct图像自动分割方法、设备及介质 Download PDFInfo
- Publication number
- CN115661170A CN115661170A CN202211383592.0A CN202211383592A CN115661170A CN 115661170 A CN115661170 A CN 115661170A CN 202211383592 A CN202211383592 A CN 202211383592A CN 115661170 A CN115661170 A CN 115661170A
- Authority
- CN
- China
- Prior art keywords
- image
- abdominal
- abdomen
- organ
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种腹部三维CT图像自动分割方法、设备及介质,包括获取腹部CT图像数据集进行预处理,使用改进U‑Net网络模型进行粗分割,使用SOA‑Net网络模型对依据各腹部器官的大致位置信息分成的四个区域进行细分割,按元素替换分割图像至腹部3D扫描图像中,得到腹部分割图像。通过改进U‑Net网络模型对腹部三维CT图像进行粗分割,再由用最少的参数和浮点运算量获得更好的分割精度的SOA‑Net网络模型进行细分割,得到精准的腹部器官图像,满足了临床实践中对腹部CT图像分割精确、高效的要求,解决了现有的腹部CT图像分割方法无法在临床实践中对腹部CT图像进行精确、高效分割的问题。
Description
技术领域
本发明涉及医学图像处理技术领域,具体涉及一种腹部三维CT图像自动分割方法、设备及介质。
背景技术
腹部包含着人体的许多重要器官,包括肝、胆、胰、脾、肾等。CT扫描是腹部疾病的常规检查,也是疾病诊断的重要参考手段。在腹部CT图像中,器官区域的精确自动分割在人体结构研究、手术计划和临床诊断中起着重要作用。但由于CT成像技术的局限性、患者个体差异以及腹部脏器的复杂特征,实际应用中腹部CT图像多脏器分割仍存在噪声高、背景复杂、脏器间边界模糊等技术挑战
回顾与腹部多器官分割密切相关的研究成果,基于图谱的方法最早被应用于腹部多器官分割。例如,统计形状模型和多图像标签融合。这两种方法都受限于基本图像配准算法的精度和性能,如图像的选择、可变形图像的准确配准和标签融合等因素,往往难以推广。
近年来,由于计算机性能的提高和深度学习领域的快速发展,深度神经网络在肿瘤分割,器官检测和分割中得到了广泛的应用,并取得了一定的研究成果。各种深度学习架构,如卷积神经网络(CNN),全卷积网络(FCN),U-Net和3DU-Net已被用于胰腺和肝脏等器官的高精度分割。但这些方法的缺点是对变形大、尺寸小、组织边缘模糊的器官分割效果不好。
为了提高小器官的分割效果,引入了注意机制,尽管现有技术中注意机制具有良好的性能,但这些网络复杂性高、模型规模大、计算资源大,无法满足临床实践中对模型轻量级、高效的要求。因此,将现有技术中的算法应用于临床实践是不切实际的。
发明内容
本申请所要解决的技术问题是现有的腹部CT图像分割方法在临床实践中对于腹部多器官分割不精确且效率不高,无法满足临床实践中对腹部CT图像分割精确、高效的要求,目的在于提供一种腹部三维CT图像自动分割方法、设备及介质,通过改进U-Net网络模型对腹部三维CT图像进行粗分割提高整体框架的分割效率并减少计算消耗,再由分割精度更高的SOA-Net网络模型对CT图像进行细分割,得到精准的腹部器官图像,解决了现有的腹部CT图像分割方法无法在临床实践中对腹部CT图像进行精确分割、分割效率不高的问题。
本发明通过下述技术方案实现:
本申请第一方面提供一种腹部三维CT图像自动分割方法,包括
S1、获取腹部CT图像数据集并对其进行预处理,得到腹部3D扫描图像;
S2、使用改进U-Net网络模型对3D扫描图像进行粗分割,得到各腹部器官的大致位置信息;
S3、依据各腹部器官的大致位置信息分成四个区域,使用SOA-Net网络模型对四个区域进行细分割,得到精细器官图像;
S4、将所述精细器官图像按元素替换至所述腹部3D扫描图像中,得到腹部分割图像。
上述技术方案中,采用改进U-Net网络模型对腹部三维CT图像进行粗分割,得到各腹部器官的大致位置信息。根据腹部器官的大致位置信息将肝、肾、脾、胰四个腹部器官分成四个区域,每个区域对应一个腹部器官。使用改进U-Net网络模型对腹部三维CT图像进行粗分割提高整体框架的分割效率并减少计算消耗。
再使用SOA-Net网络模型对四个区域内的腹部器官进行细分割,可以得到精细的腹部分割图像。再将精细器官图像按元素替换至原本的腹部3D扫描图像中,可以获得腹部分割图像。
由于SOA-Net网络模型是一种自调节器官感知深度网络,它可以完成更高的图像分割精度,使得腹部三维CT图像在进行细分割时更加精准,满足临床实践中对腹部CT图像分割精确的要求。
在一种可选实施例中,使用SOA-Net网络模型对四个区域进行细分割的方法如下:
SOA-Net网络模型的编码器引入MBFA模块,所述MBFA模块包括四个编码分支,每一个编码分支对应处理一个区域中的腹部器官的图像,得到腹部图像特征;
SOA-Net网络模型的解码器引入FAA模块,所述FAA模块包括两个解码分支,通过两个解码分支对腹部图像特征进行解码,得到精细器官图像。
在一种可选实施例中,每一个编码分支对应处理一个区域中的腹部器官图像的方法包括:
根据一个腹部器官的图像特征,采用多个深度卷积和多个点卷积构建一个编码分支;
通过一个编码分支对对应的腹部器图像进行特征提取,得到对应的腹部图像特征。
在一种可选实施例中,每一个编码分支对应处理一个区域中的腹部器官的图像,得到腹部图像特征之后还包括:
在所述MBFA模块的输出端引入编码调节注意力模块,所述编码调节注意力模块接收四个编码分支输出的腹部图像特征;
所述编码调节注意力模块根据腹部图像特征的多尺度自适应调整接收野的大小并对接收野范围内不同尺度的目标器官进行分割,得到最终的腹部图像特征图。
在一种可选实施例中,所述编码调节注意力模块对接收野范围内不同尺度的目标器官进行分割的方法如下:
U=U1+U2+U3+U4
S=FFC=δ(B(WZ))
V=U1a+U2b+U3c+U4d
其中,U1,U2,U3,U4表示这四个编码分支的输出;FGB代表全局平均池化;Z∈RC,ZC表示Z的第C个元素;δ是reLU激活函数;B代表批正规化;W∈Rd×C并且S∈Rd;A,B,C,D∈RC×d;AC表示A的第C行;a,b,c,d分别表示四个输出的软注意力,并且aC+bC+cC+dC=1;aC表示a的第C个元素;V表示逐个元素相加得到最终的腹部图像特征图。
在一种可选实施例中,通过两个解码分支对腹部图像特征进行解码之后还包括如下步骤:
在所述FAA模块的输出端引入解码调节注意力模块,所述解码调节注意力模块接收两个解码分支输出的特征信息;
所述解码调节注意力模块将来自两个解码分支的特征信息进行整合,得到精细器官图像的特征图。
在一种可选实施例中,所述解码调节注意力模块将来自两个解码分支的特征信息进行整合的方法如下:
U1=U1+U2
S1=FFC=δ(B(WZ1))
V1=U1a1+U2b1
在一种可选实施例中,使用SOA-Net网络模型对四个区域进行细分割之前还包括:
SOA-Net网络模型引入用于加深网络层次的残差结构;
采用特征金字塔结构对SOA-Net网络模型进行增强。
本申请第二方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现一种腹部三维CT图像自动分割方法。
本申请第三方面提供了一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现一种腹部三维CT图像自动分割方法。
本申请与现有技术相比,具有如下的优点和有益效果:
通过改进U-Net网络模型对腹部三维CT图像进行粗分割,再由用最少的参数和浮点运算量获得更好的分割精度的SOA-Net网络模型对CT图像进行细分割,得到精准的腹部器官图像,满足了临床实践中对腹部CT图像分割精确、高效的要求,解决了现有的腹部CT图像分割方法无法在临床实践中对腹部CT图像进行精确、高效分割的问题。
与现有的腹部器官分割网络相比,我们的SOA-Net网络模型的主要贡献如下:
1、为了提高腹部多器官分割的特征表示能力,提出了一种具有自调整注意机制的新型网络SOA-Net。
2、设计了四个分支的MBFA模块,对腹部的四个器官(肝、肾、脾、胰)进行分割,作为U-Net模型的编码模块。同时,在U-Net中采用了带有两个分支的FAA模块作为解码模块。这两个模块具有多个不同内核大小的分支,可以根据目标器官的多尺度来获取不同尺度的特征信息。
3、提出的3D SOA-Net框架的有效性和效率在具有挑战性的腹部多器官CT数据集中得到了证明,在该数据集中,我们以相对较低的时间成本、较少的参数和失败实现了最先进的方法。
附图说明
为了更清楚地说明本发明示例性实施方式的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本发明的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。在附图中:
图1为本申请一实施例提供的一种腹部三维CT图像自动分割方法的流程图;
图2为本申请一实施例提供的MBFA模块的结构示意图;
图3为本申请一实施例提供的FAA模块的结构示意图;
图4为本申请一实施例提供的在AbdomenCT-1K数据集上不同方法的分割表现对比图;
图5为本申请一实施例提供的在AbdomenCT-1K数据集上不同方法的腹部多器官分割结果的示例图;
图6为本申请一实施例提供的一种电子设备的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施例和附图,对本发明作进一步的详细说明,本发明的示意性实施方式及其说明仅用于解释本发明,并不作为对本发明的限定。
实施例
图1为本发明实施例1提供的一种腹部三维CT图像自动分割方法,如图1所示,包括如下步骤:
S1、获取腹部CT图像数据集并对其进行预处理,得到腹部3D扫描图像。
其中,从CT扫描体中进行采样获取腹部CT图像数据集并对腹部CT图像数据集进行预处理,从而获得腹部3D扫描图像以便后续对腹部3D扫描图像进行分割。预处理的方法可以采用现有技术的任意一种预处理方法。
S2、使用改进U-Net网络模型对3D扫描图像进行粗分割,得到各腹部器官的大致位置信息。
其中,将腹部3D扫描图像输入改进U-Net网络模型中,该改进U-Net网络模型中的编码器为特征提取器,用于学习越来越高级的表示;改进U-Net网络模型中解码器将压缩的特征分解成越来越精细的分辨率,用于预测每个目标的分割。
进一步的,编码器和解码器的每一层都有两个残差块,每一个残差块都由一个具有实例归一化(IN)和修正线性单元(ReLU)激活函数的3D卷积层组成。每一层的输入分辨率为[160,80,40,20,10]。
进一步的,残差块的加入发生在ReLU激活之前。具体而言,编码阶段包括5次卷积和4次下采样操作。在每个残差模块中使用卷积核大小为3×3×3,步幅为1×1×1的卷积层提取输入特征图。其中,上一层所提取的特征信息作为下一层的输入,帮助完成残差学习。相应的,解码阶段包括四次卷积和四次上采样操作,使用卷积核的大小为3×3×3,步幅为1×1×1。
进一步的,除左右编解码路径外,改进U-Net网络模型中使用了改进的ReduceChannel+Upsample+Add操作替换原有的concat操作,有利于减少操作参数,提高计算效率。
特别地,我们使用1×1×1卷积将特征数减少一倍,三维双线性向上采样将空间维数增加一倍,然后加上对应空间水平层的编码器输出。在解码阶段,对每一组卷积层的结果进行该操作,实现多尺度特征融合,优化粗分割结果。
S3、依据各腹部器官的大致位置信息分成四个区域,使用SOA-Net网络模型对四个区域进行细分割,得到精细器官图像。
其中,SOA-Net网络模型是对改进U-Net网络模型粗分割得出各腹部器官的大致位置信息中的腹部器官进行细分割的网络模型。与粗分割模型不同,SOA-Net分割模型采用更大的分辨率[192,96,48,24,12]来获得更精确的分割结果。
进一步的,使用SOA-Net网络模型设计该体系结构的动机是更大的网络宽度和分辨率可以提高分割精度,但与此同时,SOA-Net网络模型的引入增加了网络参数的数量和计算成本。因此,在我们的SOA-Net网络模型中,我们在编码器中引入了MBFA模块,在解码器中引入了FAA模块,在一定程度上恢复了较大的参数和计算成本。SOA-Net网络模型的具体配置如下表所示:
在上表中,在编码器中引入了MBFA模块,在解码器中引入了FAA模块,每个模块都具有多个分支,每个分支由不同的卷积构成。比如分支Branch1由ConvINReLU(1-1)、DWConvIN(3-2-1-1)和ConvINReLU(1-1)依次构成。具体的MBFA模型、FAA模型各分支的卷积构成见上表。
与编码路径相比,在不显著影响分割精度的前提下,我们在解码路径上对SOA-Net进行了一系列简化操作,降低了网络的复杂度和计算参数的数量,最终得到了一个不对称的U-Net网络模型。
该网络可以根据输入信息的多尺度自适应调整接收域的大小,实现对腹部多个器官的高效分割。
SOA-Net网络模型还引入了残差结构来加深网络层次,从而可以学习到更多的特征表示。
在一种可选实施例中,为了适应腹部多个器官(肝、肾、脾、胰)的分割任务,我们在SOA-Net网络模型的编码器引入MBFA模块,MBFA模块包括四个编码分支,每一个编码分支对应处理一个区域中的腹部器官的图像,得到腹部图像特征。
其中,MBFA模块如图2所示,MBFA模块遵循InceptionNets的概念进行设计,它由四个编码分支组成,每个编码分支具有不同的数量和参数的卷积核。这样,每个编码分支都有不同大小的感受野,这有助于自我调节和器官感知,以应对腹部四个不同大小器官的分割。
进一步的,卷积核采用深度可分离卷积代替了现有技术中采用的标准卷积。
其中,深度可分离卷积分为深度卷积和点卷积两种,深度卷积是在每个输入通道上使用单个卷积滤波器的轻量级滤波;点卷积使用1×1×1卷积,主要是通过计算输入通道的线性组合来建立新的特征。MBFA模块一共四个编码分支,第一个编码分支采用了两个ConvINReLU(1×1×1)s=2的点卷积加上SWConvIN(3×3×3)s=2的深度卷积构成,其先使用ConvINReLU(1×1×1)s=2的点卷积对输入数据进行处理,再使用SWConvIN(3×3×3)s=2的深度卷积对上一层ConvINReLU(1×1×1)s=2的点卷积所提取的特征进行处理,最后再由ConvINReLU(1×1×1)s=2的点卷积进行处理,从而识别一个特定的腹部器官。具体的MBFA模型的结构如图2所示。
研究表明,深度可分离卷积的性能与传统卷积几乎相同,但计算量和参数数大大减少。深度可分离卷积与传统卷积具有相同的接收域,但前者比后者消耗的计算量和空间少一半。并且,每个分支都具有反向的残差模块。特别地,通过点卷积扩大特征维数,然后通过深度卷积提取特征,最后通过点卷积降低输出维数。这种方法的优点是深度卷积可以提取更高维度的特征,提高特征提取能力。
在一种可选实施例中,在MBFA模块的输出端引入编码调节注意力模块,编码调节注意力模块接收四个编码分支输出的特征信息;编码调节注意力模块根据特征信息的多尺度自适应调整接收野的大小并对接收野范围内不同尺度的目标器官进行分割。编码调节注意力模块是一种有效且轻量级的注意机制。该机制可以根据输入信息的多尺度自适应调整接收野的大小,从而实现对不同尺度的目标器官的分割。
进一步的,对不同尺度的目标器官进行分割的分割方法如下:
首先,我们需要整合来自四个分支的信息。这是使用元素级的求和合并操作完成的:
U=U1+U2+U3+U4
其中,U1,U2,U3,U4表示这四个分支的输出。
然后,通过全局平均池化操作,将空间中所有点的信息平均为一个值,获得全局语义信息:
其中,FGB代表全局平均池化,Z∈RC,ZC表示Z的第C个元素。
接着,通过两个全连接层找到每个通道的比例。减少第一全连接层的通道以提高效率,然后第二层全连接层再恢复到原来的通道:
S=FFC=δ(B(WZ))
其中,δ是reLU激活函数,B代表批正规化。W∈Rd×C并且S∈Rd。
在上一步所获得的S引导下,利用跨通道软注意对不同空间尺度的信息进行自适应选择。具体来说,softmax操作符适用于通道级数字:
其中,A,B,C,D∈RC×d,AC表示A的第C行.a,b,c,d分别表示四个输出的软注意力。aC表示a的第C个元素。用A,B,C,D四个权重矩阵对四个支路的输出进行加权,并且aC+bC+cC+dC=1。然后,逐个元素相加得到最终的特征图V:
V=U1a+U2b+U3c+U4d
在一种可选实施例中,在SOA-Net网络模型的解码器引入FAA模块,所述FAA模块包括两个解码分支,通过两个解码分支对腹部图像特征进行解码,得到精细器官图像。
其中,FAA模块由一个残差卷积模块组成。FAA模块设计与MBFA模块大致相同,遵循InceptionNets的概念进行设计,对每个分支采用深度可分离卷积,减少了卷积的计算量和参数量,实现了模块的高效率。但与MBFA模块不同的是,它的网络结构更简单,如图3所示。首先,它只包含两个分支的卷积核;其次,各支路不再采用倒残差模块结构,模块的输入通道和输出通道数量一致,大大降低了网络复杂度和计算量。
进一步的,在FAA模块的输出端引入解码调节注意力模块,解码调节注意力模块接收两个解码分支输出的特征信息;解码调节注意力模块将来自两个解码分支的特征信息进行整合,得到精细器官图像的特征图。
FAA模块的调节注意机制与MBFA模块的调节注意机制原理相同,只是将支路数量由4个改为2个。因此,FAA模块的调节注意模块需要集成来自两个分支的信息。算法解释如下。
U1=U1+U2
S1=FFC=δ(B(WZ1))
V1=U1a1+U2b1
其中,U1,U2表示两个分支的输出。表示Z1的第C个元素。A,B∈RC×d,AC表示A的第C行。a,b分别表示两个输出的软注意力,表示a1中的第C个元素。利用两个权重矩阵A,B对两个支路的输出进行加权,然后逐个元素相加,得到最终的特征图V1。
S4、将精细器官图像按元素替换至所述腹部3D扫描图像中,得到腹部分割图像。
在一种可选实施例中,SOA-Net网络模型引入用于加深网络层次的残差结构并采用特征金字塔结构对SOA-Net网络模型进行增强,进而提升腹部三维CT图像分割的精度。
为了证明本技术方案中算法的优越性,我们将我们的算法与几种前沿的分割算法进行了比较定量分割结果如下表所示:
在本实施例中比较的方法包括3D U-Net、Attention U-Net、Nonlocal U-Net、ECAU-Net、EfficientSegNet和CBAM U-Net。在相同的实验条件下,在数据集上对所有比较方法进行了测试。从上表的实验结果可以看出,所有网络在肝、肾、脾器官分割均能获得较高的DSC和NSD评分。但由于胰腺体积和形状的变化,DSC和NSD评分显示胰腺的表现不理想。我们的网络对肝、肾、脾和胰腺的分割获得了最佳的DSC和NSD值,平均DSC为94.7%,NSD为86.8%。尤其在胰腺DSC和NSD方面,我们的方法优于以往方法(CBAM U-Net)近3%,这是一个较大的提升。最后,对于所有的网络,我们观察到DSC和NSD之间的显著差距,这表明目前的网络不能获得准确的边界分割,需要进一步改进。
图4展示了测试数据集上4个器官的平均DSC得分(Average_DSC)和4个器官的平均NSD得分(Average_NSD)。如图4所示,为了证明我们方法在小器官分割方面的改进,我们还展示了胰腺的平均DSC评分(Pancreas_DSC)和胰腺的平均NSD评分(Pancreas_NSD)。
从图4可以看出,本申请的腹部三维CT图像自动分割方法在平均分割性能上比3DU-Net、Attention U-Net、CBAM U-Net和Nonlocal U-Net有非常显著的提高。与ECA U-Net和EfficientSegNet相比,本申请的腹部三维CT图像自动分割方法的结果更集中于中上游。这意味着我们的方法具有较低的DSC和NSD标准差,并且我们的方法在所有不同的CT病例中是最稳定和稳健的。此外,对于小而不规则的胰腺的分割,由于器官变形大、体积小、组织边缘模糊,目前的方法往往效果不理想。但我们的方法也获得了比其他先进方法更好的分割性能。该算法得到的DSC值和NSD值是所有测试方法中最好的。
为了评估分割效率,我们列出了在腹部数据集上不同网络的每卷推理平均时间(s)、参数量(MB)和浮点运算量(GB)的结果如下表所示:
从上表可以看出,相比3D U-Net,对比的所有网络都增加了推断时间。它们都需要更多的时间来分割腹部CT图像,而我们的网络在推断过程中花费了额外的一半时间。对于参数量和浮点运算量,3D U-Net有2.4MB参数量和508GB浮点运算量,而我们的网络只有1.1MB参数量和83GB浮点运算量。这些值表明,我们的网络比所有其他网络具有最少的参数和浮点运算量。上表中的所有参数量和浮点运算量的值分别被除以10和1000,归一化为0到1得到的直方图可以表明,其他网络通常需要比3D U-Net更多的参数和浮点运算来获得分割精度的提高,而我们的网络可以用最少的参数和浮点运算量获得更好的分割精度。
我们还进行了消融研究,以显示提出的模块对于腹部多器官分割的有效性。为了评估分割性能,我们在U-Net中引入剩余块来获得一个基础U-Net。在基础U-Net中,每一层编码器和解码器都有两个残差模块。每个残差块包含一个三维卷积层,加上实例归一化(IN)和修正线性单元激活函数(ReLU)。在编码器模块中,采用3×3×3滤波器和步长为2的卷积层;在解码器模块中,采用3×3×3滤波器和步长为1的卷积层。消融分析结果如表5所示。我们可以看到,在0.14s推断时间、4.6MB参数和246.5GB浮点运算的情况下,基础U-Net实现了平均94.4%的DSC和85.6%的NSD。当我们将U-Net中的编码器和解码器模块替换为我们的MBFA模块和FAA模块时,推断时间增加了,但网络在减少参数和浮点运算的情况下提高了分割性能。特别是,我们的SOA-Net在0.29s推断时间、1.1MB参数和82.7GB浮点运算下实现了平均94.7%的DSC和86.8%的NSD。该方法虽然参数和浮点运算较少,但分割效果较好,是腹部多器官分割的理想方法。
AbdomenCT-1K数据集上不同方法的腹部多器官分割结果如图5所示。其中,红色、黄色、绿色、蓝色区域分别表示肝脏、胰腺、肾脏和脾脏。我们列出了包含有肝脏、肾脏、脾脏和胰腺的三个CT图像,以更直观的显示分割结果。这些测试图像是在我们的数据集中随机选择的。从图5可以看出,对比的方法中有很多过分割和欠分割。例如左侧图像在胰腺和肝脏上主要是分割不足,中间图像在胰腺上过分分割。此外,这些方法之间的性能差距主要体现在胰腺分割上。比较的方法在大器官(脾、肝、肾)上表现良好,而在小器官上表现不佳。在腹部多器官分割中,该方法获得了比其他方法更好的分割性能。
本申请相较现有技术而言,具有以下突破:
为应对腹部多器官分割面临的挑战,结合临床实际,在分割精度和效率的要求下,提出了一种改进的腹部多器官分割网络SOA-Net。
首先,我们的方法遵循一个基于整体的粗到细框架,以充分利用腹部CT扫描中的3D信息。粗模型的设计是为了从整个CT容积中获得目标器官的大致位置。我们的SOA-Net是一个细化网络,用于改善粗略模型得到的结果。
此外,该模型还引入了残差结构来加深网络层次,从而可以学习到更多的特征表示。为了有效应对多个器官的多尺度变化和远程信息依赖,提高较小器官的分割精度,我们采用特征金字塔结构(FPN)来增强我们的细化网络。
最后,我们改进了SK-Net中的SK模块,在我们的SOA-Net中获得了多分支特征注意(MBFA)模块和特征注意聚合(FAA)模块,以取代U-Net网络的编码和解码模块。该网络是一种三维自调节器官感知深度网络,可以根据输入信息的多尺度自适应调整接受域的大小,实现腹部多个器官的高效分割。
与现有的腹部器官分割网络相比,我们的SOA-Net网络模型的主要贡献如下:
1、为了提高腹部多器官分割的特征表示能力,提出了一种具有自调整注意机制的新型网络SOA-Net。
2、设计了四个分支的MBFA模块,对腹部的四个器官(肝、肾、脾、胰)进行分割,作为U-Net模型的编码模块。同时,在U-Net中采用了带有两个分支的FAA模块作为解码模块。这两个模块具有多个不同内核大小的分支,可以根据目标器官的多尺度来获取不同尺度的特征信息。
3、提出的3D SOA-Net框架的有效性和效率在具有挑战性的腹部多器官CT数据集中得到了证明,在该数据集中,我们以相对较低的时间成本、较少的参数和浮点数实现了最先进的方法。
实施例2
图6为本发明实施例2提供的一种电子设备的结构示意图,如图6所示,该电子设备包括处理器21、存储器22、输入装置23和输出装置24;计算机设备中处理器21的数量可以是一个或多个,图6中以一个处理器21为例;电子设备中的处理器21、存储器22、输入装置23和输出装置24可以通过总线或其他方式连接,图6中以通过总线连接为例。
存储器22作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块。处理器21通过运行存储在存储器22中的软件程序、指令以及模块,从而执行电子设备的各种功能应用以及数据处理,即实现实施例1的一种腹部三维CT图像自动分割方法。
存储器22可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。
在一些可选实施例中,存储器22可进一步包括相对于处理器21远程设置的存储器,这些远程存储器可以通过网络连接至电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置23可用于接收用户输入的id和密码等。输出装置24用于输出配网页面。
实施例3
本发明实施例3还提供一种计算机可读存储介质,所述计算机可执行指令在由计算机处理器执行时用于实现如实施例1所提供的一种腹部三维CT图像自动分割方法。
本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于实施例1所提供的方法操作,还可以执行本发明任意实施例所提供的一种腹部三维CT图像自动分割方法中的相关操作。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种腹部三维CT图像自动分割方法,其特征在于,包括如下步骤:
S1、获取腹部CT图像数据集并对其进行预处理,得到腹部3D扫描图像;
S2、使用改进U-Net网络模型对3D扫描图像进行粗分割,得到各腹部器官的大致位置信息;
S3、依据各腹部器官的大致位置信息分成四个区域,使用SOA-Net网络模型对四个区域进行细分割,得到精细器官图像;
S4、将所述精细器官图像按元素替换至所述腹部3D扫描图像中,得到腹部分割图像。
2.根据权利要求1所述的一种腹部三维CT图像自动分割方法,其特征在于,使用SOA-Net网络模型对四个区域进行细分割的方法如下:
SOA-Net网络模型的编码器引入MBFA模块,所述MBFA模块包括四个编码分支,每一个编码分支对应处理一个区域中的腹部器官图像,得到腹部图像特征;
SOA-Net网络模型的解码器引入FAA模块,所述FAA模块包括两个解码分支,通过两个解码分支对腹部图像特征进行解码,得到精细器官图像。
3.根据权利要求2所述的一种腹部三维CT图像自动分割方法,其特征在于,每一个编码分支对应处理一个区域中的腹部器官图像的方法包括:
根据一个腹部器官的图像特征,采用多个深度卷积和多个点卷积构建一个编码分支;
通过所述一个编码分支对所述一个腹部器官的图像进行特征提取,得到对应的腹部图像特征。
4.根据权利要求3所述的一种腹部三维CT图像自动分割方法,其特征在于,每一个编码分支对应处理一个区域中的腹部器官的图像,得到腹部图像特征之后还包括:
在所述MBFA模块的输出端引入编码调节注意力模块,所述编码调节注意力模块接收四个编码分支输出的腹部图像特征;
所述编码调节注意力模块根据腹部图像特征的多尺度自适应调整接收野的大小并对接收野范围内不同尺度的目标器官进行分割,得到最终的腹部图像特征图。
5.根据权利要求4所述的一种腹部三维CT图像自动分割方法,其特征在于,所述编码调节注意力模块对接收野范围内不同尺度的目标器官进行分割的方法如下:
U=U1+U2+U3+U4
S=FFC=δ(B(WZ))
V=U1a+U2b+U3c+U4d
其中,U1,U2,U3,U4表示这四个编码分支的输出;FGB代表全局平均池化;Z∈RC,ZC表示Z的第C个元素;δ是reLU激活函数;B代表批正规化;W∈Rd×C并且S∈Rd;A,B,C,D∈RC×d;AC表示A的第C行;a,b,c,d分别表示四个输出的软注意力,并且aC+bC+cC+dC=1;aC表示a的第C个元素;V表示逐个元素相加得到最终的腹部图像特征图。
6.根据权利要求5所述的一种腹部三维CT图像自动分割方法,其特征在于,通过两个解码分支对腹部图像特征进行解码之后还包括如下步骤:
在所述FAA模块的输出端引入解码调节注意力模块,所述解码调节注意力模块接收两个解码分支输出的特征信息;
所述解码调节注意力模块将来自两个解码分支的特征信息进行整合,得到精细器官图像的特征图。
8.根据权利要求1所述的一种腹部三维CT图像自动分割方法,其特征在于,使用SOA-Net网络模型对四个区域进行细分割之前还包括:
SOA-Net网络模型引入用于加深网络层次的残差结构;
采用特征金字塔结构对SOA-Net网络模型进行增强。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至8任一项所述的一种腹部三维CT图像自动分割方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至8任一项所述的一种腹部三维CT图像自动分割方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211383592.0A CN115661170A (zh) | 2022-11-07 | 2022-11-07 | 一种腹部三维ct图像自动分割方法、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211383592.0A CN115661170A (zh) | 2022-11-07 | 2022-11-07 | 一种腹部三维ct图像自动分割方法、设备及介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115661170A true CN115661170A (zh) | 2023-01-31 |
Family
ID=85015935
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211383592.0A Pending CN115661170A (zh) | 2022-11-07 | 2022-11-07 | 一种腹部三维ct图像自动分割方法、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115661170A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116452614A (zh) * | 2023-06-15 | 2023-07-18 | 北京大学 | 基于深度学习的超声图像分割方法和系统 |
-
2022
- 2022-11-07 CN CN202211383592.0A patent/CN115661170A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116452614A (zh) * | 2023-06-15 | 2023-07-18 | 北京大学 | 基于深度学习的超声图像分割方法和系统 |
CN116452614B (zh) * | 2023-06-15 | 2023-09-01 | 北京大学 | 基于深度学习的超声图像分割方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110232383B (zh) | 一种基于深度学习模型的病灶图像识别方法及病灶图像识别系统 | |
Wang et al. | An improved dice loss for pneumothorax segmentation by mining the information of negative areas | |
Zhang et al. | Automatic skin lesion segmentation by coupling deep fully convolutional networks and shallow network with textons | |
CN110120040A (zh) | 切片图像处理方法、装置、计算机设备和存储介质 | |
CN111612008A (zh) | 基于卷积网络的图像分割方法 | |
CN115457021A (zh) | 基于联合注意卷积神经网络的皮肤病图像分割方法及系统 | |
CN113436173B (zh) | 基于边缘感知的腹部多器官分割建模、分割方法及系统 | |
Sheng et al. | Second-order ResU-Net for automatic MRI brain tumor segmentation | |
CN115375711A (zh) | 基于多尺度融合的全局上下文关注网络的图像分割方法 | |
CN114004811A (zh) | 一种基于多尺度残差编解码网络的图像分割方法及系统 | |
CN106023205A (zh) | 基于简化粒子群优化二维最大熵阈值的医学影像分割方法 | |
CN111951281A (zh) | 图像分割方法、装置、设备及存储介质 | |
Shan et al. | SCA-Net: A spatial and channel attention network for medical image segmentation | |
CN111091575A (zh) | 一种基于强化学习方法的医学图像分割方法 | |
CN116452618A (zh) | 一种三输入脊柱ct图像分割方法 | |
CN115661170A (zh) | 一种腹部三维ct图像自动分割方法、设备及介质 | |
CN114708212A (zh) | 一种基于SEA-Unet的心脏图像分割方法 | |
CN112634308B (zh) | 基于不同感受野的鼻咽癌靶区和危及器官的勾画方法 | |
Wang et al. | RFPNet: Reorganizing feature pyramid networks for medical image segmentation | |
Zhou et al. | Semantic instance segmentation with discriminative deep supervision for medical images | |
CN113538363A (zh) | 一种基于改进U-Net的肺部医学影像分割方法及装置 | |
CN116883341A (zh) | 一种基于深度学习的肝脏肿瘤ct图像自动分割方法 | |
Yuan et al. | FM-Unet: Biomedical image segmentation based on feedback mechanism Unet | |
CN115760875A (zh) | 一种基于自监督学习的全视野医学图片区域分割方法 | |
CN115689993A (zh) | 基于注意力与多特征融合的皮肤癌图像分割方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |