CN115861346A - 一种基于场景感知融合网络的脊柱核磁共振图像分割方法 - Google Patents

一种基于场景感知融合网络的脊柱核磁共振图像分割方法 Download PDF

Info

Publication number
CN115861346A
CN115861346A CN202310120778.5A CN202310120778A CN115861346A CN 115861346 A CN115861346 A CN 115861346A CN 202310120778 A CN202310120778 A CN 202310120778A CN 115861346 A CN115861346 A CN 115861346A
Authority
CN
China
Prior art keywords
level features
layer
features
spine
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310120778.5A
Other languages
English (en)
Other versions
CN115861346B (zh
Inventor
冯世庆
伊力扎提·伊力哈木
迪力扎提·伊力哈木
荣飞豪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bangshi Technology Nanjing Co ltd
Jiangsu Shiyu Intelligent Medical Technology Co ltd
Shandong Shiyu Intelligent Medical Technology Co ltd
Original Assignee
Bangshi Technology Nanjing Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bangshi Technology Nanjing Co ltd filed Critical Bangshi Technology Nanjing Co ltd
Priority to CN202310120778.5A priority Critical patent/CN115861346B/zh
Publication of CN115861346A publication Critical patent/CN115861346A/zh
Application granted granted Critical
Publication of CN115861346B publication Critical patent/CN115861346B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明公开了一种基于场景感知融合网络的脊柱核磁共振图像分割方法,涉及医疗图像识别领域,包括如下步骤:输入脊柱的核磁共振图像,提取图像的低层特征、中层特征和高层特征;使用ASPP对高层特征进行处理;通过多尺度特征融合的方法,增大低层特征和中层特征的场景感知能力;对高层特征使用全局自适应池化和Sigmoid函数进行进一步处理,得到新的高层特征;并将处理后的高层特征依次与中低层特征点乘得到新的高层特征;将新的高层特征、低层特征、中层特征均采样到相同尺寸,并进行通道维度拼接,输出最终结果。本发明提高了脊柱分割的识别效果,且减少了计算量。

Description

一种基于场景感知融合网络的脊柱核磁共振图像分割方法
技术领域
本发明涉及医疗图像识别领域,更具体地说,涉及一种基于场景感知融合网络的脊柱核磁共振图像分割方法。
背景技术
在医学领域,利用核磁共振(MR)图像对患者进行诊断和治疗是极其重要的环节。随着深度学习在图像领域取得诸多突破性的进展,使用深度学习方法来对核磁共振图像(MR)上进行病理解译已经成为医学图像视觉领域的一大热门方向。体积磁共振(MR)图像的脊柱解析(即椎骨和椎间盘(IVD)的多类 分割)在脊柱疾病的各种诊断和治疗中起着重要作用,包括评估、诊断、手术计划和影像引导介入程序。
形状和外观相似性出现在相邻的椎骨和不同类别的椎骨(椎间盘)第一个或最后一个矢状切片,我们很难将其区分;而由于存在一定的视觉差异(光照、对比度),使得相同类别的椎骨也会存在不同。此外,由于MR图像是3D图像,不同于2D图像只有宽高维度,3D图像还会有深度(Depth)维度,这会增大模型的计算开销。
发明内容
本发明要解决的技术问题是提供一种基于场景感知融合网络的脊柱核磁共振图像分割方法,采取场景感知融合网络解决脊柱MR图像中类间差异小、类内差异大,且高维度3D图像带来的较大计算开销问题。
为了达到上述目的,本发明采取以下技术方案:
一种基于场景感知融合网络的脊柱核磁共振图像分割方法,包括如下步骤:
S1:输入脊柱的核磁共振图像,提取图像的低层特征,中层特征和高层特征;
S2:使用ASPP对高层特征进行处理,增大其感受野以及获得多尺度信息; ASPP(Atrous Spatial Pyramid Pooling),是空洞空间卷积池化金字塔,是一种处理算法。
S3:通过多尺度特征融合的方法,增大低层特征和中层特征的场景感知能力;
S4: 对经过S2处理后的高层特征,使用全局自适应池化进行进一步处理,得到新的高层特征:
Figure SMS_1
其中,R 表示新的高层特征,GAP 表示全局自适应池化,Fh表示S2中处理过的高层特征,B 表示批处理大小,C表示通道数,两个1表示特征图的高度和宽度都为1;
S5: 采用 Sigmoid 函数对 R 进一步处理为
Figure SMS_2
S6:使用注意力机制模块对S5中处理得到的R进行处理,并将经注意力机制模块处理后的R依次与Fl 以及FM点乘得到新的高层特征;
其中Fl 表示经过S3处理过的低层特征,FM表示经过S3处理过的中层特征;
S7:将S6得到的新的高层特征,经过S3处理过的低层特征,经过S3处理过的中层特征均采样到相同尺寸,并进行通道维度拼接,输出最终结果。这个最终结果会通过像素点体现出脊柱的分割。
优选的,S1 中,特征提取过程具体包括:
S11:在特征提取前,对输入图像进行CBR处理,其中CBR处理是指:对输入图像首先进行卷积核为3×3×3的3D卷积处理,然后进行正则化和Relu激活函数增强特征图的非线性。
优选的,低层特征获取过程如下:
S12: 对经S11处理的图像进行卷积核为 3×3×3 的 CBR处理过程;对得到 的图像采用两个分支进行处理,一个分支为卷积核为3×3×3 的CBR 处理,另一个分支为卷积核为1×1×1 的CBR处理,然后将两个分支的结果进行逐元素相加,得到低层特征。
优选的,中层特征、高层特征的提取过程为:
S13:将低层特征图像作为输入图像重复一次S12的处理过程,获得中层特征;
S14:将中层特征图像作为输入图像重复两次S12的处理过程,将输出图像经过三个带有空洞率的卷积核为 3×3×3 的CBR处理后,得到高层特征。
优选的,S12 在得到低层特征的第一次执行时选取的所有卷积步长为1×2×2,而在S13与S14执行时选取的所有卷积步长为1×1×1;注意到S12第一次执行时得到了低层特征,S12在S13的重复执行中得到了中层特征,在S14中重复两次执行得到了高层特征,因此上述所说的执行的含义得到明确。
优选的,步骤S2具体包括:
S21:采用一个五分支结构对高层特征进行并行处理,然后将这五分支的输出进行通道维度拼接,并用1×1卷积层降维至给定通道数,得到最终输出;
S22:通过自注意力机制,依次从空间维度、通道维度上对高层特征进行处理。
优选的,S21中的五分支结构为:
分支1:用一个 1×1 的卷积对高层特征进行降维;
分支2:用一个填充为6,扩张率为6,核大小为3×3的卷积层对高层特征进行卷积;
分支3:用一个填充为12,扩张率为12,核大小为3×3的卷积层对高层特征进行卷积;
分支4:用一个填充为18,扩张率为18,核大小为3×3的卷积层对高层特征进行卷积;
分支5:用一个尺寸为高层特征大小的池化层将高层特征池化为1×1,再用一个1×1的卷积进行降维,最后,上采样回原始输入大小。上采样 (upsampling):又名放大图像、图像插值;主要目的是放大原图像,从而可以显示在更高分辨率的显示设备上。
优选的,S22中所述自注意力机制过程包括位置注意力机制和通道注意力机制。
优选的,步骤S3具体包括:使用四个并行分支对输入的低层特征或中层特征进行并行处理,然后将每个分支进行逐元素相加,再将四个分支的结构进行通道维度拼接, 由此增大低层特征或中层特征的场景感知能力。
本发明相对于现有技术的优点在于,本发明提取出了三个不同大小的特征,由浅入深,语义信息逐渐丰富,但细节信息也随着分辨率的减小而减小 。本发明还使用ASPP对高层特征进行处理,增大其感受野以及获得多尺度信息。本发明既可得到更优秀的脊柱分割识别结果,且计算量更小。
附图说明
图1是本发明本发明特征提取网络结构图;
图2是本发明位置注意力机制示意图;
图3是本发明通道注意力机制示意图。
实施方式
下面结合附图对本发明的具体实施方式作描述。
首先介绍特征提取网络,如图2所示,包括如下步骤:
S11:将输入图像 (脊柱的核磁共振图像) 首先进行卷积核为3×3×3的3D卷积处理,然后进行正则化和Relu激活函数增强特征图的非线性,并称此卷积、正则化、Relu 激活函数增强非线性的处理过程为CBR过程。
S12:对S11提取的特征图进行卷积核为3×3×3的CBR处理过程;对得到的图像采用两个分支进行处理,一个分支为卷积核为3×3×3的CBR处理,另一个分支为卷积核为1×1×1的CBR处理,然后将两个分支的结果进行逐元素相加,得到低层特征;
S13:将低层特征图像作为输入图像重复一次S12的处理过程,获得中层特 征;
S14:将中层特征图像作为输入图像重复两次S12的处理过程,将输出图像经过三个带有空洞率的卷积核为3×3×3的CBR处理后,得到高层特征。
上述过程中,S12 在得到低层特征的第一次执行时选取的所有卷积步长为1×2×2,而在S13与S14执行时选取的所有卷积步长为1×1×1。
本发明提取出了三个不同大小的特征,分别是底层特征 low(128×18×64×32),中层特征 middle(128×18×32×16),高层特征 high(128×18×16×8),括号横纵的数字表示B×C×H×W,B表示batch size(批处理大小),C表示 channel (通道数),H表示特征图的高度,W表示特征图的宽度。
这三层特征,由浅入深,语义信息逐渐丰富,但细节信息也随着分辨率的减小而减小。而如何将语义信息和细节信息进行融合处理,并解码得到最后的脊柱分割结果,则是SAFNet的重点。
首先本发明使用ASPP对高层特征进行处理,增大其感受野以及获得多尺度信息。具体来说,采用一个五分支结构进行并行处理:
分支1:用一个1×1的卷积对input 进行降维
分支2:用一个padding为6,dilation为 6,核大小为3×3 的卷积层进行卷积
分支3:用一个padding为12,dilation为12,核大小为3×3的卷积层进行卷积
分支4:用一个padding为18,dilation 为18,核大小为3×3的卷积层进行卷积
分支5:用一个尺寸为input大小的池化层将input池化为1×1,再用一个1×1的卷积进行降维,最后,上采样回原始输入大小。
最后将这五层的输出进行通道维度拼接,并用1×1卷积层降维至给定通道数,得到最终输出。
而后从空间角度和通道角度,通过自注意力机制,依次从空间维度、通道维度上对高层特征进行处理。
自注意力机制包括Position Attention Module(位置注意力机制)和ChannelAttention Module (通道注意力机制) 。
如图2所示表示Position Attention Module,对于输入特征
Figure SMS_3
[其中 B表示batch size (批处理大小),C表示channel (通道数),D表示特征图的深度,H表示特征图的高度,W表示特征图的宽度],用卷积核为(1,1,1)的3D卷积(降维),然后将其空间维度展开,变化为/>
Figure SMS_4
,其中 (N=D×H×W),然后对另一个并行分支也做相同的处理,然后做矩阵乘法,即可得到N×N的矩阵,然后Softmax操作,得到空间位置上的权重概率,再与第三个分支点乘,然后用残差结构与输入特征进行链接。如图3所示,Channel AttentionModule同理。
此外,对于low和middle特征,我们使用了四个并行分支,即每个分支进行特征降维(1/4),这时每个分支均有两个不同的空洞率,分别为: (1,2),(1,4),(1,8),(1,16);然后每个分支的进行逐元素相加,再将四个分支的结构通道维度拼接在一起,这样能增大两层特征的场景感知能力。
对经过处理后的高层特征,使用全局自适应池化进行进一步处理,得到新的高层特征:
Figure SMS_5
其中,R 表示新的高层特征,GAP表示全局自适应池化,Fh表示S2中处理过的高层特征,B 表示批处理大小,C 表示通道数,两个1表示特征图的高度和宽度都为1;
接下来采用Sigmoid函数对R进一 步处理为
Figure SMS_6
使用注意力机制模块继续对R进行处理,并将经注意力机制模块处理后的R依次与Fl以及FM点乘得到新的高层特征;
其中Fl表示经过S3处理过的低层特征,FM 表示经过S3处理过的中层特征;
将最后得到的高层特征、低层特征、中层特征均采样到相同尺寸,并进行 通道维度拼接,输出最终结果。
一个实验实施例如下,这个实验实例中采用了本发明方案以及其他现有方向进行训练对比,并且使用的数据集就是脊柱分割的数据集:
数据准备:
本次实验数据集为脊柱分割挑战赛开源数据集(比赛已经结束,只能下载得到训练集和验证集),因此我们将训练集和验证集混合在一起,共计172个样本,然后使用五折交叉验证的方式,选择138个样本作为训练集,4个样本作为验证集,剩下30个样本作为测试集。由于交叉验证采用随机打乱组合的方法,因此对模型性能的评估更具说服力。
数据预处理:
对于所有的输入图像都进行了裁剪,重采样,填充,正则化操作。在裁剪阶段,对于一张
Figure SMS_7
的MR图像,我们使用一个大小为/>
Figure SMS_8
的边界框来根据图像中心裁剪图像以去除不包含脊柱的部分,然后我们将裁剪后的MR图像进行重采样和填充,使其大小全部归一化为18×256×128。最后我们使用MR图像减去平均值,并除以标准差,完成最后的归一化(Normalization)操作。
对比方法:为了对我们的方法的优越性进行评定,我们选择了多个方法进行对比,分别是UNet3D,ResUNet3D, Deeplabv3+3D, SpineParseNet。
实验环境:
本次实验基于Pytorch1.8.1和cuda11.1的框架进行,共使用了四张显存为24GB的GeForceRTX3090开展实验。实验过程采用Adam优化器,初始学习率为
Figure SMS_9
,训练批次为50个epoch,模型保存策略为,每个epoch训练结束后,均在验证集上开展验证,整个训练过程中保留验证集上精度最高的模型。
评价指标:本次实验采用的评价指标为Dice,即计算测试集上所有测试样本的Dice,并取均值,得到mDice;其中Dice是语义分割的评价指标的一种,用来衡量分割结果的准确率。
训练时使用了五折交叉验证,五折交叉验证的步骤如下:
步骤1:将数据分为5堆;
步骤2:选取一堆为测试集,另外四堆为训练集;
步骤3:重复步骤2五次,每次选取的训练集不同;
下表中 Fold_1对应于第一次进行步骤2,Fold_2对应于第二次进行步骤2,以此类推。实验结果如下表:
Baseline _Fold 1 _Fold 2 _Fold 3 _Fold 4 _Fold 5
UNet3D 80.62 78.65 83.88 81.42 84.55
ResUNet3D 85. 15 83.22 85.51 85.66 86.33
DeeplabV3+ 3D 84.57 82.47 85.24 84.45 86.27
SpineParseNet 85.39 84.82 86.97 85.79 87.03
Ours 85.66 85.02 87.52 86.20 87.65
表格中的数字表示每个Fold的mDice得分;mDice是所有测试样本的Dice取均值得到,Dice是计算的模型分割的区域与人工标记的区域的相似度,Dice 越大,证明分割的效果越好。
表格中最后一行对应本发明方法,它对应的mDice得分最高,可见分割效果最好。可见通过采用公开数据集,跟主流公开方法进行对比以后,实验结果表明本发明方法优于现在的主流公开方法。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明披露的技术范围内,根据本发明的技术方案及其发明构思加以等同替换或改变,都应涵盖在本发明的保护范围之内。

Claims (9)

1.一种基于场景感知融合网络的脊柱核磁共振图像分割方法,其特征在于,包括如下步骤:
S1: 输入脊柱的核磁共振图像,提取图像的低层特征,中层特征和高层特征;
S2:使用ASPP对高层特征进行处理,增大其感受野以及获得多尺度信息;
S3:通过多尺度特征融合的方法,增大低层特征和中层特征的场景感知能力;
S4:对经过S2处理后的高层特征,使用全局自适应池化进行进一 步处理,得到新的高层特征:
Figure QLYQS_1
其中,R 表示新的高层特征,GAP表示全局自适应池化,Fh 表示 S2 中处理 过的高层特征,B表示批处理大小,C表示通道数 ,两个1表示特征图的高度和宽度都为1;
S5:采用Sigmoid函数对R进一步处理为
Figure QLYQS_2
S6:使用注意力机制模块对S5中处理得到的R进行处理,并将经注意力机制模块处理后的R依次与Fl以及FM点乘得到新的高层特征;
其中Fl表示经过S3处理过的低层特征,FM 表示经过S3处理过的中层特征;
S7:将S6得到的新的高层特征、经过S3处理过的低层特征、经过S3处理过的中层特征均采样到相同尺寸,并进行通道维度拼接,输出最终结果。
2.根据权利要求1所述基于场景感知融合网络的脊柱核磁共振图像分割方法,其特征在于S1中,特征提取过程具体包括:
S11:在特征提取前,对输入图像进行CBR处理,其中CBR处理是指:对输入图像首先进行卷积核为3×3×3的3D卷积处理, 然后进行正则化和 Relu 激活函数增强特征图的非线性。
3.根据权利要求2所述基于场景感知融合网络的脊柱核磁共振图像分割方法,其特征在于,低层特征获取过程如下:
S12: 对经S11处理的图像进行卷积核为3×3×3的CBR处理过程;对得到的图像采用两个分支进行处理,一个分支为卷积核为3×3×3 的CBR 处理,另一个分支为卷积核为1×1×1的CBR 处理,然后将两个分支的结果进行逐元素相加,得到低层特征。
4.根据权利要求3所述基于场景感知融合网络的脊柱核磁共振图像分割方法,其特征在于,中层特征、高层特征的提取过程为:
S13:将低层特征图像作为输入图像重复一次S12的处理过程,获得中层特征;
S14:将中层特征图像作为输入图像重复两次S12的处理过程,将输出图像经过三个带有空洞率的卷积核为3×3×3的CBR 处理后,得到高层特征。
5.根据权利要求4所述基于场景感知融合网络的脊柱核磁共振图像分割方法,其特征在于,S12在得到低层特征的第一次执行时选取的所有卷积步长为1×2×2,而在S13与S14执行时选取的所有卷积步长为 1×1×1。
6.根据权利要求1所述基于场景感知融合网络的脊柱核磁共振图像分割方法,其特征在于,步骤S2具体包括:
S21:采用一个五分支结构对高层特征进行并行处理,然后将这五分支的输出进行通道维度拼接,并用1×1卷积层降维至给定通道数,得到最终输出;
S22:通过自注意力机制,依次从空间维度、通道维度上对高层特征进行处理。
7.根据权利要求6所述基于场景感知融合网络的脊柱核磁共振图像分割方法,其特征在于,S21中的五分支结构为:
分支1:用一个1×1的卷积对高层特征进行降维;
分支2:用一个填充为6,扩张率为6,核大小为3×3的卷积层对高层特征进行卷积;
分支3:用一个填充为12,扩张率为12,核大小为3×3的卷积层对高层特征进行卷积;
分支4:用一个填充为18,扩张率为18,核大小为3×3的卷积层对高层特征进行卷积;
分支5:用一个尺寸为高层特征大小的池化层将高层特征池化为1×1,再用一个1×1的卷积进行降维,最后,上采样回原始输入大小。
8.根据权利要求6所述基于场景感知融合网络的脊柱核磁共振图像分割方法,其特征在于,S22中所述自注意力机制过程包括位置注意力机制和通道注意力机制。
9.根据权利要求1所述基于场景感知融合网络的脊柱核磁共振图像分割方法,其特征在于,步骤S3具体包括:使用四个并行分支对输入的低层特征或中层特征进行并行处理,然后将每个分支进行逐元素相加,再将四个分支的结构进行通道维度拼接,由此增大低层特征或中层特征的场景感知能力。
CN202310120778.5A 2023-02-16 2023-02-16 一种基于场景感知融合网络的脊柱核磁共振图像分割方法 Active CN115861346B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310120778.5A CN115861346B (zh) 2023-02-16 2023-02-16 一种基于场景感知融合网络的脊柱核磁共振图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310120778.5A CN115861346B (zh) 2023-02-16 2023-02-16 一种基于场景感知融合网络的脊柱核磁共振图像分割方法

Publications (2)

Publication Number Publication Date
CN115861346A true CN115861346A (zh) 2023-03-28
CN115861346B CN115861346B (zh) 2023-05-16

Family

ID=85658167

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310120778.5A Active CN115861346B (zh) 2023-02-16 2023-02-16 一种基于场景感知融合网络的脊柱核磁共振图像分割方法

Country Status (1)

Country Link
CN (1) CN115861346B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116542996A (zh) * 2023-06-29 2023-08-04 邦世科技(南京)有限公司 一种基于特征融合和差分的脊柱ct图像分割方法
CN116563285A (zh) * 2023-07-10 2023-08-08 邦世科技(南京)有限公司 一种基于全神经网络的病灶特征识别与分割方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903269A (zh) * 2019-01-24 2019-06-18 刘星宇 确定脊柱横断面图像的异常类型的方法及计算设备
CN114612479A (zh) * 2022-02-09 2022-06-10 苏州大学 一种基于全局与局部特征重建网络的医学图像分割方法
CN114663445A (zh) * 2022-03-07 2022-06-24 重庆邮电大学 一种基于多尺度边缘感知的三维心脏图像分割方法
US20220309674A1 (en) * 2021-03-26 2022-09-29 Nanjing University Of Posts And Telecommunications Medical image segmentation method based on u-net
CN115272957A (zh) * 2022-07-08 2022-11-01 燕山大学 一种基于特征交互的人群计数方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109903269A (zh) * 2019-01-24 2019-06-18 刘星宇 确定脊柱横断面图像的异常类型的方法及计算设备
US20220309674A1 (en) * 2021-03-26 2022-09-29 Nanjing University Of Posts And Telecommunications Medical image segmentation method based on u-net
CN114612479A (zh) * 2022-02-09 2022-06-10 苏州大学 一种基于全局与局部特征重建网络的医学图像分割方法
CN114663445A (zh) * 2022-03-07 2022-06-24 重庆邮电大学 一种基于多尺度边缘感知的三维心脏图像分割方法
CN115272957A (zh) * 2022-07-08 2022-11-01 燕山大学 一种基于特征交互的人群计数方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SI-YUAN LU 等: "SAFNet: A deep spatial attention network with classifier fusion for breast cancer detection", 《COMPUTERS INBIOLOGYANDMEDICINE》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116542996A (zh) * 2023-06-29 2023-08-04 邦世科技(南京)有限公司 一种基于特征融合和差分的脊柱ct图像分割方法
CN116542996B (zh) * 2023-06-29 2024-01-30 邦世科技(南京)有限公司 一种基于特征融合和差分的脊柱ct图像分割方法
CN116563285A (zh) * 2023-07-10 2023-08-08 邦世科技(南京)有限公司 一种基于全神经网络的病灶特征识别与分割方法及系统
CN116563285B (zh) * 2023-07-10 2023-09-19 邦世科技(南京)有限公司 一种基于全神经网络的病灶特征识别与分割方法及系统

Also Published As

Publication number Publication date
CN115861346B (zh) 2023-05-16

Similar Documents

Publication Publication Date Title
CN110443867B (zh) 基于生成对抗网络的ct图像超分辨率重构方法
CN115861346A (zh) 一种基于场景感知融合网络的脊柱核磁共振图像分割方法
EP3869387A1 (en) Method and device for three-dimensional image semantic segmentation, terminal and storage medium
CN111369440B (zh) 模型训练、图像超分辨处理方法、装置、终端及存储介质
CN109949309A (zh) 一种基于深度学习的肝脏ct图像分割方法
CN111696126B (zh) 一种基于多视角的多任务肝脏肿瘤图像分割方法
WO2023040108A1 (zh) 一种图像超分辨率放大模型及其方法
CN117036162B (zh) 轻量级胸部ct图像超分辨率的残差特征注意力融合方法
CN114742802B (zh) 基于3Dtransformer混合卷积神经网络的胰腺CT图像分割方法
CN117292232B (zh) T1加权成像的多维空间特征获取方法、系统和设备
CN117422880B (zh) 改进的注意力机制与cv模型相结合的分割方法及其系统
CN113538444A (zh) 一种基于空洞卷积的并行空间金字塔模型图像分割方法
CN110827283B (zh) 基于卷积神经网络的头颈血管分割方法及装置
CN113850816B (zh) 一种宫颈癌mri图像的分割装置及方法
CN114066798B (zh) 一种基于深度学习的脑肿瘤核磁共振影像数据合成方法
CN113139627B (zh) 纵隔肿物识别方法、系统及装置
CN115690409A (zh) 一种基于SEResU-Net模型的MRI脑肿瘤图像分割方法及系统
CN113177938A (zh) 基于圆形卷积核的脑胶质瘤的分割方法、装置及相关组件
CN112529911A (zh) 一种胰腺图像分割模型的训练方法、图像分割方法和装置
CN112529949A (zh) 一种基于t2图像生成dwi图像的方法及系统
CN111932486A (zh) 一种基于3d卷积神经网络的脑胶质瘤分割方法
CN117953027B (zh) 一种dwi-flair不匹配评估方法、装置、介质及产品
CN115375626B (zh) 基于物理分辨率的医学图像分割方法、系统、介质及设备
CN117876241B (zh) 一种ct图像合成flair图像的方法、系统和设备
CN117541596A (zh) 一种基于WNet模型的脑肿瘤分割方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230602

Address after: Floor 3A, Building A1, Jiulonghu International Enterprise Headquarters Park, No. 19 Suyuan Avenue, Jiangning District, Nanjing City, Jiangsu Province, 211102 (Jiangning Development Zone)

Patentee after: Bangshi Technology (Nanjing) Co.,Ltd.

Patentee after: Jiangsu Shiyu Intelligent Medical Technology Co.,Ltd.

Patentee after: Shandong Shiyu Intelligent Medical Technology Co.,Ltd.

Address before: Floor 3A, Building A1, Jiulonghu International Enterprise Headquarters Park, No. 19, Suyuan Avenue, Jiangning District, Nanjing City, Jiangsu Province, 210000 (Jiangning Development Zone)

Patentee before: Bangshi Technology (Nanjing) Co.,Ltd.