CN111445481A - 一种基于尺度融合的腹部ct多器官的分割方法 - Google Patents

一种基于尺度融合的腹部ct多器官的分割方法 Download PDF

Info

Publication number
CN111445481A
CN111445481A CN202010208491.4A CN202010208491A CN111445481A CN 111445481 A CN111445481 A CN 111445481A CN 202010208491 A CN202010208491 A CN 202010208491A CN 111445481 A CN111445481 A CN 111445481A
Authority
CN
China
Prior art keywords
model
network
segmentation
data
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010208491.4A
Other languages
English (en)
Inventor
肖志勇
刘一鸣
杜年茂
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangnan University
Original Assignee
Jiangnan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangnan University filed Critical Jiangnan University
Priority to CN202010208491.4A priority Critical patent/CN111445481A/zh
Publication of CN111445481A publication Critical patent/CN111445481A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明属于医学图像处理和其应用,涉及一种基于尺度融合的腹部CT多器官的分割方法,步骤如下:第一步:将已有数据集进行数据预处理,然后分为训练集、验证集和测试集进行训练和评估模型性能。第二步:在原有的U‑Net上加入了深度监督来避免由于器官大小在不同切片的多变造成的影响。第三步:将已经预处理好的数据输入到第二步中搭建的模型中训练,增加网络的对称性同时加快网络收敛速度。第四步:选择第三步中训练的最好模型用于验证集的CT图像分割进行模型验证。第五步:利用训练好的分割模型对测试集分割。本发明可以实现对于腹部区域CT图像的自动分割,且与现有的主流方法对比能取得较高的精度。

Description

一种基于尺度融合的腹部CT多器官的分割方法
技术领域:
本发明属于医学图像处理和其应用,涉及一种基于尺度融合的腹部CT多器官的分割方法。
背景技术:
随着现今社会的发展,越来越多的跨领域学科正在相结合以便更有效的解决面临的问题。其中利用深度学习方法的医学影像技术在医学诊断中有着不可或缺的作用,它能够利用已有的图像进行医学影像分析,帮助医生更好理解病情以进一步的进行诊断和给出治疗方案。而医学分割作为医学影像处理的第一阶段,对后续的影像分析都有重要意义!对腹部器官的分割能够精确定位到各个脏器,从而对手术的引导和医学影像的配准有着重要意义。
人体内部器官分布复杂,没有清晰的边界来区分各个器官。但是利用电子计算机断层扫描(Computed Tomography),它通过单一轴面的X射线旋转照射人体,由于不同的组织对X射线的吸收能力不同,于是就有不同组织的灰度图,这就得到了高分辨率的解剖图像。但是由于超声图像的一些局限,有时可能会产生阴影、斑点噪声和重叠的影响,再加上同一器官在不同切面的差异比较大、腹部CT图像的器官边界模糊,这也对一个临床经验不足的医生产生分割的困难。
目前传统的分割方法是影像科医生人工读片,手工标记器官和病灶的位置,这样的分割不仅受到医生主观的经验和情绪影响,而且耗时耗力。于是本发明提出了一种基于尺度融合的腹部CT图像多器官的分割方法,利用改进的U-Net 神经网络模型和注意力机制相融合对腹部器官进行分割。实现了无医生参与的器官分割,避免了由医生主观经验产生的分割错误,同时减少了专业人士的投入,从而实现了真正意义上的智能诊断。
发明内容:
本发明的目的在于提供一种基于尺度融合的腹部CT图像多器官分割方法,以此克服现有的传统分割方法的时效性和通用型差以及解决受医生主观意向对分割所产生的影响。
本发明的技术方案如下:
一种基于尺度融合的腹部CT多器官的分割方法,步骤如下:
第一步:将已有数据集进行数据预处理,然后分为训练集、验证集和测试集进行训练和评估模型性能。在医生标好的图像对应的标签,给标签像素标记为0-6来代表CT图像背景、肝脏、脾脏、肾脏、肝、胃和胰腺。
第二步:在原有的U-Net上加入了深度监督来避免由于器官大小在不同切片的多变造成的影响,同时引入了空间(spatial attention)和通道注意力(channel attention)机制让网络模型在通道和空间上都有关注的重点,从而更加准确的分割器官。
第三步:将已经预处理好的数据输入到第二步中搭建的模型中训练,此过程加入了Batch Normalization算法来增加网络的对称性同时加快网络收敛速度。在这个改进的U-Net用训练集进行训练,得到分割模型。
第四步:选择第三步中训练的最好模型用于验证集的CT图像分割进行模型验证。
第五步:利用训练好的分割模型对测试集分割。
所述第一步中的预处理如下:
1.1本发明使用的原始图像集包含若干组NII格式的腹部CT影像文件。这些图像为三维图像,而且不同病人间的切片厚度不一样,所以先将轴向面(Axial plane)统一为3mm使得网络更好训练。
1.2由于所采集的CT图像都是512*512*Z大小的图像,直接输进网络的话显卡没有足够的显存对其进行计算,因此我们对原图像进行cubic interpolation 使得冠状面和矢状面大小减少一半变成256*256*z来减少显存的消耗同时加快训练速度。
1.3然后进行有效区域的截取。在原始图像中存在了很大一块区域的无效区域。为了简化后面的训练模型,加快训练速度,对与标签值为0的区域截除后在进行模型的训练。
1.4处理完上述步骤后就对处理后的CT图像进行数据增强。这是由于原始图像集中的图像数量有限,故而采取数据增强的方式增加数据的丰富性,从而提高训练模型的精确度。
数据增强主要包括旋转、镜像、弹性扭曲、膨胀。这种方法可以使图像集中包括同一张图像在不同角度、不同尺度的各种数据,增加了图像集中图像的个数。通过扩充图像集,可以防止图像样本过少导致的过拟合问题。
1.5对数据进行归一化处理。由于我们得到的CT图像的HU值的分布范围跨度大,不利于模型的训练。在分析数据的HU值分布后,我们首先对数据进行阈值截取,将灰度值在阈值外的截断掉,本发明采取的阈值为[-300,300],即 HU>300的话我们设为300;反之,若HU<-300,那阈值设为-300。然后对阈值截取后的数据Z-score标准化进行规范化处理。
所述第二步的模型搭建具体步骤如下:
2.1为了精确高效地分割腹部CT图像,必须合理的利用人工智能算法对大量数据进行训练,和FCN相比,由于医学数据的缺乏,U-Net网络适合用于医学图像的分割。为了更好的实现三维分割,本发明的网络模型选择基于U-Net 网络和卷积神经网络CNN来进行搭建。
2.2在进行了一系列的实验后发现加入了通道注意力和空间注意力相结合取得了最好的模型。主要包含了SE_Block、SP_Block两个注意力模块,同时还有 conv_block、up_conv进行特征提取和上采样。其中conv_block是网络模型的特征提取模块,它包含了3个卷积层(3个都为三维卷积,卷积核大小都为3,填充 (padding)为1),然后接着归一化层和采用2×2的卷积层,步长为2的池化层,每个卷积层后都带有PRelu激活函数。up_conv是对已经经过下采样的图像上采样回上一步大小来恢复分辨率,它包括了一个三维转置矩阵(ConvTranspose3d) 和PRelu激活函数。
2.3其中SE_Block模块是用于通道注意力,就是在原有的U-Net基础上对已有卷积通道数上加入注意力,它通过给每个通道上的信号都增加一个权重,来代表该通道与关键信息的相关度的话,这个权重越大,则表示相关度越高,也就是我们越需要去注意的通道了。结构如图1所示,它包括了卷积层、全局平均池化层(global average pooling)、Relu激活函数以及Sigmoid激活函数。而 SP_Block模块是用于空间注意力的,它使网络模型的关注点聚焦在权重大的区域而避免不必要的干扰。如图2所示,它通过在Decoder部分使用Attention Gate 得到一个权重图后与原图相乘得到重点关注的区域。它包括了卷积,归一化层), Relu激活函数以及Sigmoid激活函数。
2.4同时考虑到CT图像在不同帧间的大小变化,我们还加入了深度监督 (DeepSupervision),在进行了一次下采样得到的结果再上采样回原来大小计算 loss,然后再把每次的loss分配相应权重加起来。这样有一点程度的避免了由于再CT图像帧间的大小差异变化。
所述第三步的模型训练过程如下:
3.1本发明用的是主流的训练方法,先将数据输入构建的网络中。
3.2通过前向传播对网络进行训练,最后通过softmax分类器,输出预测的概率图。
3.3得到了代价函数值后采用cross-entropy作为损失函数,该损失函数对应于多分类问题,与softmax相对应,cross-entropy公式如下:
Figure RE-GDA0002484252590000051
其中p为预测,t为目标,i表示数据点,j表示类别。
3.4基于步骤3.3中得到的计算误差,利用Adam算法进行反向传播,更新网络中参数的值。一直重复上述过程直到损失函数值收敛到一个范围。
3.5完成上述步骤后得到多器官分割模型
所述第四步的模型验证流程如下:
为对第三步中得到的分割模型进行效果测试,定量评估模型的性能,我们采用了发明选用相似性系数(dice similarity coefficient),DSC作为评估标准。
所述第五步对测试集分割如下:
采用已经得到的网路模型对将测试集进行分割,得到最后的分割结果。
与现有分割技术相比,本发明的优点在于:
1.针对传统手工或半自动方法工作量大、标注质量不高或差异较大等问题,本发明可以实现对于腹部区域CT图像的自动分割,且与现有的主流方法对比能取得较高的精度。
2.本发明提出的网络模型,采用了通道注意力(SE_Block模块)和空间注意力(SP_Block模块)相结合进行特征的融合,对原始CT图像有了通道间关键信息的联系和空间位置上的关注点的重点学习,使得网络分割的更加精确。同时加入了深度监督(DeepSupervision)来加强网络对器官在CT图像不同帧间的大小变化的理解能力,从而减少了失误的分割。卷积块上也加入了三维空洞卷积(3D dilated convolution),这可以在不改变参数个数的情况下,扩大了卷积层的感受野,获取了多尺度信息,能够更好的捕捉CT图像的浅层特征,从而提高了分割精度。
3.本发明能够很好的将腹部CT图像区域的器官分割出来,与现有大多是针对单器官分割的方法来说更加有效率,同时网络模型也有一定的泛化能力分割其他组织器官。
附图说明
图1是本发明的具体流程图;
图2是SP_Block模块的具体结构图;
图3是SE_Block模块的具体结构图;
图4是整体的网络结构图。
具体实施方法:
本发明实现的是一种基于深度学习方法的特征融合进行的腹部CT图像多器官分割,主要包括数据预处理、搭建模型、训练模型、模型验证四个部分。
为更好理解实验的进行,下面结合附图及实施例对本发明做进一步的详细说明。图1是本发明的工作流程框架示意图。主要包括
步骤1数据集进行数据预处理
1.1首先对收集到的CT图像分为训练集、验证集和测试集。
1.2然后对它们进行预处理后再送进网络,先对CT图像的轴向面(Axial plane)统一为3mm,是的网络更好学习。
1.3由于所采集的CT图像都是512*512*Z大小的图像,直接输进网络的话显卡没有足够的显存对其进行计算,因此我们对原图像进行cubic interpolation 使得冠状面和矢状面大小减少一半变成256*256*z来减少显存的消耗同时加快训练速度。
1.4然后进行有效区域的截取。由于CT原始图像存在了很多混杂的背景信息,为了简化后面的训练模型,加快训练速度,根据训练集的标签值对标签值为0的区域截除后保存为处理后的图像进行模型的训练。
1.5处理完上述步骤后就对处理后的CT图像进行数据增强。数据增强主要包括旋转、镜像、弹性扭曲、膨胀。这种方法可以使图像集中包括同一张图像在不同角度、不同尺度的各种数据,增加了图像集中图像的个数。通过扩充图像集,可以防止图像样本过少导致的过拟合问题。
1.6对数据进行归一化处理。在分析数据的HU值分布后,我们首先对数据进行阈值截取,将灰度值在阈值外的截断掉,本发明采取的阈值为[-300,300],即 HU>300的话我们设为300;反之,若HU<-300,那阈值设为-300。然后对阈值截取后的数据Z-score标准化进行规范化处理。Z-score标准化公式如下:
其中x*为经过归一化的值,x表示个体的观测值,μ表示总体数据的均值,δ表示总体数据的标准差。
Figure RE-GDA0002484252590000071
所述步骤(2)中模型的搭建如下:
2.1以U-Net为原始网络框架,本发明加入了深度监督(Deep Supervision)和 SE_block、SP_Block进行特征融合来加强网络的学习能力。其中conv_block、 up_conv进行特征提取和上采样。其中conv_block是网络模型的特征提取模块,每个包含conv_block模块包含了3个卷积层(3个都为三维卷积,卷积核大小都为3,填充(padding)为1),然后接着归一化层,为了获取更多的图像信息,采用 2×2的卷积层,步长为2的池化层代替最大池化层,每个卷积层后都带有PRelu 激活函数。up_conv是对已经经过下采样的图像上采样回上一步大小来恢复分辨率,它包括了一个三维转置矩阵(ConvTranspose3d)和PRelu激活函数。
2.2其中SE_Block模块是用于通道注意力,就是在原有的U-Net基础上对已有卷积通道数上加入注意力,它通过给每个通道上的信号都增加一个权重,来代表该通道与关键信息的相关度的话,这个权重越大,则表示相关度越高,也就是我们越需要去注意的通道了。结构如图1所示,它包括了卷积层、全局平均池化层(global average pooling)、Relu激活函数以及Sigmoid激活函数。而 SP_Block模块是用于空间注意力的,它使网络模型的关注点聚焦在权重大的区域而避免不必要的干扰。如图2所示,它通过在Decoder部分使用Attention Gate 得到一个权重图后与原图相乘得到重点关注的区域。它包括了卷积,归一化层), Relu激活函数以及Sigmoid激活函数。
2.3考虑到了CT图像在不同帧之间器官的差异,本发明加入了深度监督来增强网络对器官不同帧之间尺度变化的泛化能力。
所述步骤(3)的模型训练过程如下:
3.1将训练集输入到搭建好的网络中。
3.2通过前向传播对网络进行训练,最后通过softmax分类器,输出预测的概率图。
3.3得到了代价函数值后采用cross-entropy作为损失函数,该损失函数对应于多分类问题,与softmax相对应,cross-entropy公式如下:
Figure RE-GDA0002484252590000081
其中p为预测,t为目标,i表示数据点,j表示类别。
3.4基于步骤3中得到的计算误差,利用Adam算法进行反向传播,更新网络中参数的值。一直重复上述过程直到损失函数值收敛到一个范围。
3.5完成上述步骤后得到多器官分割模型
所述步骤(4)的模型验证流程如下:
对训练模型的效果进行评估。在本发明中的评估尺度采用的是Dice Metric 指标,使用Dice指标来评估所提出的分割算法准确率。
通用的Dice Metric指标如下:
Figure RE-GDA0002484252590000091
其中A为分割图,B为ground-truth真实分割,|A|和|B|分别为A和B分割图的体素(三维像素)数量,|A∩B|为两图重合部分的体素数量。
所述步骤(5)对测试集分割如下:
采用已经得到的网路模型对将测试集进行分割,得到最后的分割结果。

Claims (5)

1.一种基于尺度融合的腹部CT多器官的分割方法,其特征在于,步骤如下:
第一步:将已有数据集进行数据预处理,然后分为训练集、验证集和测试集进行训练和评估模型性能;
第二步:在原有的U-Net上加入了深度监督来避免由于器官大小在不同切片的多变造成的影响,同时引入了空间(spatial attention)和通道注意力(channel attention)机制让网络模型在通道和空间上都有关注的重点,从而更加准确的分割器官;
所述第二步的模型搭建具体步骤如下:
2.1网络模型选择基于U-Net网络和卷积神经网络CNN来进行搭建;
2.2网络模型包含SE_Block、SP_Block两个注意力模块,同时还有conv_block、up_conv进行特征提取和上采样;其中conv_block是网络模型的特征提取模块,它包含了3个卷积层(3个都为三维卷积,卷积核大小都为3,填充(padding)为1),然后接着归一化层和采用2×2的卷积层,步长为2的池化层,每个卷积层后都带有PRelu激活函数;up_conv是对已经经过下采样的图像上采样回上一步大小来恢复分辨率,它包括了一个三维转置矩阵(ConvTranspose3d)和PRelu激活函数;
2.3其中SE_Block模块是用于通道注意力,包括卷积层、全局平均池化层、Relu激活函数以及Sigmoid激活函数;
SP_Block模块是用于空间注意力的,包括卷积层、归一化层、Relu激活函数以及Sigmoid激活函数;
2.4网络模型加入了深度监督,在进行了一次下采样得到的结果再上采样回原来大小计算loss,然后再把每次的loss分配相应权重加起来;
第三步:将已经预处理好的数据输入到第二步中搭建的模型中训练,此过程加入了Batch Normalization算法来增加网络的对称性同时加快网络收敛速度;在这个改进的U-Net用训练集进行训练,得到分割模型;
第四步:选择第三步中训练的最好模型用于验证集的CT图像分割进行模型验证;
第五步:利用训练好的分割模型。
2.如权利要求1所述的一种基于尺度融合的腹部CT多器官的分割方法,其特征在于,所述第三步的模型训练过程如下:
3.1先将数据输入构建的网络中;
3.2通过前向传播对网络进行训练,最后通过softmax分类器,输出预测的概率图;
3.3得到了代价函数值后采用cross-entropy作为损失函数,该损失函数对应于多分类问题,与softmax相对应,cross-entropy公式如下:
Figure FDA0002422004920000021
其中p为预测,t为目标,i表示数据点,j表示类别;
3.4基于步骤3.3中得到的计算误差,利用Adam算法进行反向传播,更新网络中参数的值;一直重复上述过程直到损失函数值收敛到一个范围;
3.5完成上述步骤后得到多器官分割模型。
3.如权利要求1或2所述的一种基于尺度融合的腹部CT多器官的分割方法,其特征在于,所述第一步中的预处理如下:
1.1原始图像集包含若干组NII格式的腹部CT影像文件,这些图像为三维图像,而且不同病人间的切片厚度不一样,所以先将轴向面(Axial plane)统一为3mm使得网络更好训练;
1.2由于所采集的CT图像都是512*512*Z大小的图像,直接输进网络的话显卡没有足够的显存对其进行计算,因此我们对原图像进行cubic interpolation使得冠状面和矢状面大小减少一半变成256*256*z来减少显存的消耗同时加快训练速度;
1.3然后进行有效区域的截取;
1.4处理完上述步骤后就对处理后的CT图像进行数据增强;
1.5对数据进行归一化处理;对数据进行阈值截取,将灰度值在阈值外的截断掉,采取的阈值为[-300,300]。
4.如权利要求1或2所述的一种基于尺度融合的腹部CT多器官的分割方法,其特征在于,所述第四步的模型验证流程如下:
为对第三步中得到的分割模型进行效果测试,定量评估模型的性能,采用了发明选用相似性系数作为评估标准。
5.如权利要求3所述的一种基于尺度融合的腹部CT多器官的分割方法,其特征在于,所述第四步的模型验证流程如下:
为对第三步中得到的分割模型进行效果测试,定量评估模型的性能,采用了发明选用相似性系数作为评估标准。
CN202010208491.4A 2020-03-23 2020-03-23 一种基于尺度融合的腹部ct多器官的分割方法 Pending CN111445481A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010208491.4A CN111445481A (zh) 2020-03-23 2020-03-23 一种基于尺度融合的腹部ct多器官的分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010208491.4A CN111445481A (zh) 2020-03-23 2020-03-23 一种基于尺度融合的腹部ct多器官的分割方法

Publications (1)

Publication Number Publication Date
CN111445481A true CN111445481A (zh) 2020-07-24

Family

ID=71653673

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010208491.4A Pending CN111445481A (zh) 2020-03-23 2020-03-23 一种基于尺度融合的腹部ct多器官的分割方法

Country Status (1)

Country Link
CN (1) CN111445481A (zh)

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968135A (zh) * 2020-08-15 2020-11-20 中南大学 一种基于全卷积网络的三维腹部ct图像多器官配准方法
CN112116989A (zh) * 2020-09-11 2020-12-22 海创时代(深圳)医疗科技有限公司 一种多器官勾画方法及装置
CN112164074A (zh) * 2020-09-22 2021-01-01 江南大学 一种基于深度学习的3d ct床快速分割方法
CN112258488A (zh) * 2020-10-29 2021-01-22 山西三友和智慧信息技术股份有限公司 一种医疗影像病灶分割方法
CN112258514A (zh) * 2020-11-20 2021-01-22 福州大学 一种ct影像肺血管的分割方法
CN112329647A (zh) * 2020-11-09 2021-02-05 西南交通大学 基于U-Net神经网络的土地利用类型识别方法
CN112330790A (zh) * 2020-11-20 2021-02-05 东北大学 基于对抗学习与自适应色度修正的ct图像自动着色方法
CN112348794A (zh) * 2020-11-05 2021-02-09 南京天智信科技有限公司 基于注意力增强u型网络的超声乳腺肿瘤自动分割方法
CN112348830A (zh) * 2020-11-05 2021-02-09 上海应用技术大学 基于改进3D U-Net的多器官分割方法
CN112419348A (zh) * 2020-11-18 2021-02-26 西安电子科技大学 基于多任务学习边缘校正网络的男性盆腔ct分割方法
CN112465827A (zh) * 2020-12-09 2021-03-09 北京航空航天大学 一种基于逐类卷积操作的轮廓感知多器官分割网络构建方法
CN112508827A (zh) * 2020-11-06 2021-03-16 中南大学湘雅医院 一种基于深度学习的融合多场景的危及器官的分割方法
CN112508958A (zh) * 2020-12-16 2021-03-16 桂林电子科技大学 一种轻量多尺度的生物医学图像分割方法
CN112686850A (zh) * 2020-12-24 2021-04-20 上海体素信息科技有限公司 基于空间位置和原型网络的ct图像的少样本分割方法和系统
CN112950651A (zh) * 2021-02-02 2021-06-11 广州柏视医疗科技有限公司 基于深度学习网络的纵隔淋巴引流区的自动勾画方法
CN113160253A (zh) * 2020-12-29 2021-07-23 南通大学 基于稀疏标记的三维医学图像分割方法及存储介质
CN113160232A (zh) * 2021-03-29 2021-07-23 吉林大学 基于MU-Net应用于CT影像的颅内出血病灶分割算法
CN113223704A (zh) * 2021-05-20 2021-08-06 吉林大学 基于深度学习的计算机断层扫描主动脉瘤的辅助诊断方法
CN113436173A (zh) * 2021-06-30 2021-09-24 陕西大智慧医疗科技股份有限公司 基于边缘感知的腹部多器官分割建模、分割方法及系统
CN113706475A (zh) * 2021-08-06 2021-11-26 福建自贸试验区厦门片区Manteia数据科技有限公司 基于图像分割的置信度分析方法及装置
CN114693698A (zh) * 2020-12-30 2022-07-01 四川大学华西医院 一种基于神经网络的计算机辅助肺气道分割方法
CN114708255A (zh) * 2022-04-29 2022-07-05 浙江大学 一种基于TransUNet模型的多中心儿童X线胸片图像肺部分割方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190205758A1 (en) * 2016-12-30 2019-07-04 Konica Minolta Laboratory U.S.A., Inc. Gland segmentation with deeply-supervised multi-level deconvolution networks
CN110675406A (zh) * 2019-09-16 2020-01-10 南京信息工程大学 基于残差双注意力深度网络的ct图像肾脏分割算法
CN110889852A (zh) * 2018-09-07 2020-03-17 天津大学 基于残差-注意力深度神经网络的肝脏分割方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190205758A1 (en) * 2016-12-30 2019-07-04 Konica Minolta Laboratory U.S.A., Inc. Gland segmentation with deeply-supervised multi-level deconvolution networks
CN110889852A (zh) * 2018-09-07 2020-03-17 天津大学 基于残差-注意力深度神经网络的肝脏分割方法
CN110675406A (zh) * 2019-09-16 2020-01-10 南京信息工程大学 基于残差双注意力深度网络的ct图像肾脏分割算法

Cited By (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111968135A (zh) * 2020-08-15 2020-11-20 中南大学 一种基于全卷积网络的三维腹部ct图像多器官配准方法
CN111968135B (zh) * 2020-08-15 2022-03-08 中南大学 一种基于全卷积网络的三维腹部ct图像多器官配准方法
CN112116989A (zh) * 2020-09-11 2020-12-22 海创时代(深圳)医疗科技有限公司 一种多器官勾画方法及装置
CN112164074A (zh) * 2020-09-22 2021-01-01 江南大学 一种基于深度学习的3d ct床快速分割方法
CN112258488A (zh) * 2020-10-29 2021-01-22 山西三友和智慧信息技术股份有限公司 一种医疗影像病灶分割方法
CN112348830A (zh) * 2020-11-05 2021-02-09 上海应用技术大学 基于改进3D U-Net的多器官分割方法
CN112348830B (zh) * 2020-11-05 2023-09-19 上海应用技术大学 基于改进3D U-Net的多器官分割方法
CN112348794A (zh) * 2020-11-05 2021-02-09 南京天智信科技有限公司 基于注意力增强u型网络的超声乳腺肿瘤自动分割方法
CN112508827B (zh) * 2020-11-06 2022-04-22 中南大学湘雅医院 一种基于深度学习的融合多场景的危及器官的分割方法
CN112508827A (zh) * 2020-11-06 2021-03-16 中南大学湘雅医院 一种基于深度学习的融合多场景的危及器官的分割方法
CN112329647A (zh) * 2020-11-09 2021-02-05 西南交通大学 基于U-Net神经网络的土地利用类型识别方法
CN112419348A (zh) * 2020-11-18 2021-02-26 西安电子科技大学 基于多任务学习边缘校正网络的男性盆腔ct分割方法
CN112419348B (zh) * 2020-11-18 2024-02-09 西安电子科技大学 基于多任务学习边缘校正网络的男性盆腔ct分割方法
CN112330790B (zh) * 2020-11-20 2024-02-02 东北大学 基于对抗学习与自适应色度修正的ct图像自动着色方法
CN112330790A (zh) * 2020-11-20 2021-02-05 东北大学 基于对抗学习与自适应色度修正的ct图像自动着色方法
CN112258514A (zh) * 2020-11-20 2021-01-22 福州大学 一种ct影像肺血管的分割方法
CN112465827B (zh) * 2020-12-09 2022-07-26 北京航空航天大学 一种基于逐类卷积操作的轮廓感知多器官分割网络构建方法
CN112465827A (zh) * 2020-12-09 2021-03-09 北京航空航天大学 一种基于逐类卷积操作的轮廓感知多器官分割网络构建方法
CN112508958B (zh) * 2020-12-16 2022-07-19 桂林电子科技大学 一种轻量多尺度的生物医学图像分割方法
CN112508958A (zh) * 2020-12-16 2021-03-16 桂林电子科技大学 一种轻量多尺度的生物医学图像分割方法
CN112686850A (zh) * 2020-12-24 2021-04-20 上海体素信息科技有限公司 基于空间位置和原型网络的ct图像的少样本分割方法和系统
CN112686850B (zh) * 2020-12-24 2021-11-02 上海体素信息科技有限公司 基于空间位置和原型网络的ct图像的少样本分割方法和系统
CN113160253A (zh) * 2020-12-29 2021-07-23 南通大学 基于稀疏标记的三维医学图像分割方法及存储介质
CN113160253B (zh) * 2020-12-29 2024-01-30 南通大学 基于稀疏标记的三维医学图像分割方法及存储介质
CN114693698B (zh) * 2020-12-30 2023-06-20 四川大学华西医院 一种基于神经网络的计算机辅助肺气道分割方法
CN114693698A (zh) * 2020-12-30 2022-07-01 四川大学华西医院 一种基于神经网络的计算机辅助肺气道分割方法
CN112950651A (zh) * 2021-02-02 2021-06-11 广州柏视医疗科技有限公司 基于深度学习网络的纵隔淋巴引流区的自动勾画方法
CN112950651B (zh) * 2021-02-02 2022-02-01 广州柏视医疗科技有限公司 基于深度学习网络的纵隔淋巴引流区的自动勾画方法
CN113160232A (zh) * 2021-03-29 2021-07-23 吉林大学 基于MU-Net应用于CT影像的颅内出血病灶分割算法
CN113223704B (zh) * 2021-05-20 2022-07-26 吉林大学 基于深度学习的计算机断层扫描主动脉瘤的辅助诊断方法
CN113223704A (zh) * 2021-05-20 2021-08-06 吉林大学 基于深度学习的计算机断层扫描主动脉瘤的辅助诊断方法
CN113436173B (zh) * 2021-06-30 2023-06-27 陕西大智慧医疗科技股份有限公司 基于边缘感知的腹部多器官分割建模、分割方法及系统
CN113436173A (zh) * 2021-06-30 2021-09-24 陕西大智慧医疗科技股份有限公司 基于边缘感知的腹部多器官分割建模、分割方法及系统
CN113706475B (zh) * 2021-08-06 2023-07-21 福建自贸试验区厦门片区Manteia数据科技有限公司 基于图像分割的置信度分析方法及装置
CN113706475A (zh) * 2021-08-06 2021-11-26 福建自贸试验区厦门片区Manteia数据科技有限公司 基于图像分割的置信度分析方法及装置
CN114708255A (zh) * 2022-04-29 2022-07-05 浙江大学 一种基于TransUNet模型的多中心儿童X线胸片图像肺部分割方法

Similar Documents

Publication Publication Date Title
CN111445481A (zh) 一种基于尺度融合的腹部ct多器官的分割方法
CN111539930B (zh) 基于深度学习的动态超声乳腺结节实时分割与识别的方法
CN114663431B (zh) 基于强化学习和注意力的胰腺肿瘤图像分割方法及系统
CN109978037B (zh) 图像处理方法、模型训练方法、装置、和存储介质
CN112101451B (zh) 一种基于生成对抗网络筛选图像块的乳腺癌组织病理类型分类方法
CN110675406A (zh) 基于残差双注意力深度网络的ct图像肾脏分割算法
CN111951344B (zh) 一种基于级联并行卷积网络的磁共振图像重建方法
CN111340827A (zh) 一种肺部ct影像数据处理分析方法及系统
JP2023544466A (ja) Pet/ctに基づく肺腺癌扁平上皮癌診断モデルの訓練方法及び装置
CN111681210A (zh) 基于深度学习的剪切波弹性图鉴别乳腺结节良恶性的方法
CN114565613B (zh) 基于有监督深度子空间学习的胰腺术后糖尿病预测系统
CN113159040B (zh) 医学图像分割模型的生成方法及装置、系统
CN117078692B (zh) 一种基于自适应特征融合的医疗超声图像分割方法及系统
CN112381846A (zh) 一种基于非对称网络的超声甲状腺结节分割方法
CN111127487B (zh) 一种实时多组织医学图像的分割方法
CN111091575B (zh) 一种基于强化学习方法的医学图像分割方法
CN116597950A (zh) 一种医学图像分层方法
CN113139627B (zh) 纵隔肿物识别方法、系统及装置
CN113011514B (zh) 基于双线性池化应用于ct影像的颅内出血亚类型分类算法
CN115312189A (zh) 一种乳腺癌新辅助化疗疗效预测模型的构建方法
CN113409447B (zh) 一种基于多切片组合的冠状动脉分割方法和装置
CN115439650A (zh) 基于ct图像跨模态迁移学习的肾脏超声图像分割方法
CN114972266A (zh) 基于自注意机制和稳定学习的淋巴瘤超声图像语义分割方法
CN114842020A (zh) 一种轻量化的肿瘤图像分割方法
CN112967295A (zh) 一种基于残差网络和注意力机制的图像处理方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination