CN115471470A - 一种食管癌ct图像分割方法 - Google Patents

一种食管癌ct图像分割方法 Download PDF

Info

Publication number
CN115471470A
CN115471470A CN202211113743.0A CN202211113743A CN115471470A CN 115471470 A CN115471470 A CN 115471470A CN 202211113743 A CN202211113743 A CN 202211113743A CN 115471470 A CN115471470 A CN 115471470A
Authority
CN
China
Prior art keywords
image
network
module
segmentation
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211113743.0A
Other languages
English (en)
Inventor
方逸仙
姜入文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN202211113743.0A priority Critical patent/CN115471470A/zh
Publication of CN115471470A publication Critical patent/CN115471470A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Abstract

本发明公开一种食管癌CT图像分割方法,包括步骤一、获取CT图片并对其进行格式转换,步骤二、对转换后的文件数据切片获得食管CT图和肿瘤靶区CT图,步骤三、将切片后的图片处理后输入至YOLOv5s定位网络中训练检测获得阳性样本,步骤四、将获取的阳性样本预处理后输入Mfswin‑unet分割网络中进行融合分割;本发明利用定位网络定位提取阳性样本后利用分割网络中的swin transformer块进行特征提取,大大增加了特征提取能力,多尺度融合模块将跨通道信息和空间信息混合在一起提取信息特征,能关注到更重要的特征,抑制不重要的特征,减少网络在下采样损失的细节信息,从而获得更好的分割效果。

Description

一种食管癌CT图像分割方法
技术领域
本发明涉及医学图像处理技术领域,尤其涉及一种食管癌CT图像分割方法。
背景技术
近年来,食道癌在所有癌症中的死亡率排名第六,这种癌症的主要治疗方法是放疗,放射计划中的一个重要步骤是为医生手动绘制食管结构及其肿瘤靶区,然而,这个过程非常耗时,食道由肌肉和粘膜组成,这是人体中一个相对较小的器官,其边缘难以与计算机断层扫描图像中的其他组织区分,对于食管及其肿瘤靶区分割难点在于分割目标过小,目标边界模糊,在CT图像上对比度低,与其他组织界限难以分辨,早期的食管分割方法主要是基于轮廓等传统图像分割算法,其中不乏一些半自动的方法。
随着深度学习深入图像分割领域,卷积神经网络U-Net因其有效的U型结构和跳跃连接,成为医学图像分割算法的基石,以U-Net为基础的分割算法层出不穷,虽然这些网络的分割精度不断增加,但是对于精度要求极高的医学领域,特别是对于食管和肿瘤区域的分割,是远远不够的,而卷积神经网络对于局部建模的能力比较强大,但其运算的局限性导致它对于对全局信息的提取非常有限,因此,本发明提出一种食管癌CT图像分割方法以解决现有技术中存在的问题。
发明内容
针对上述问题,本发明的目的在于提出一种食管癌CT图像分割方法,该食管癌CT图像分割方法利用定位网络定位提取阳性样本后利用分割网络中的swin transformer块进行特征提取,大大增加了特征提取能力,多尺度融合模块将跨通道信息和空间信息混合在一起提取信息特征,能关注到更重要的特征,抑制不重要的特征,减少网络在下采样损失的细节信息,从而获得更好的分割效果。
为实现本发明的目的,本发明通过以下技术方案实现:一种食管癌CT图像分割方法,包括以下步骤:
步骤一、先获取病人的CT图,然后将每个病人的食管及其肿瘤靶区的原始DICOM图像转换为NIFTI格式的文件;
步骤二、将转换后的文件数据进行切片,分别得到png格式的食管CT图和肿瘤靶区CT图,每张图生成一个对应的食管分割掩码和肿瘤靶区分割掩码;
步骤三、将切片后的图片数据处理为8位灰度图像,再将其处理成大小为256×256的图片输入至YOLOv5s定位网络中进行训练和检测,检测获得阳性样本;
步骤四、将获得的阳性样本进行预处理后输入包含编译器、瓶颈层、多尺度融合模块、解码器和跳跃连接的Mfswin-unet分割网络中,利用卷积神经网络模块对不同大小的特征图进行上采样后再利用多尺度融合模块将不同尺度的特征融合拼接,再在上采样特征上利用线性投影层输出像素级别分割预测,最后根据分割预测进行图像分割。
进一步改进在于:所述步骤三中YOLOv5s定位网络由输入端、主干模块、颈部模块和预测模块组成,所述输入端用于对数据进行增强、自适应锚帧计算和自适应图像缩放的预处理操作;所述主干模块用于提取通用特征图并通过上采样和下采样进行传输和融合;所述颈部模块用于执行特征融合操作;所述预测模块用于获取预测的特征图。
进一步改进在于:所述步骤三中YOLOv5s定位网络包含24个卷积层,后两个是全连接层,在利用YOLOv5s定位网络训练前先使用ImageNet的1000类数据对网络的前20个卷积层、1个平均池化层和1个全连接层进行预训练,并用得到的前20个卷积层网络参数初始化YOLOv5s定位网络模型的前20个卷积层的网络参数,然后用步骤二中获得的图片数据进行YOLOv5s定位网络模型训练。
进一步改进在于:所述步骤四中对获得的阳性样本预处理操作为将阳性样本边框四周分别扩大50个像素后截取检测目标图片,然后送入Mfswin-unet分割网络后统一调整到256×256大小的图片。
进一步改进在于:所述瓶颈层是由两个连续的swin transformer块组成,两个连续的swin transformer块分别采用了基于窗口的多头自注意模块和基于位移的多头自注意模块,所述多尺度融合模块由卷积层、卷积块注意力机制和池化层组成。
进一步改进在于:所述swin transformer块由层标准化、多头自注意模块、剩余连接和具有高斯误差线性单元激活函数的多层感知机组成。
进一步改进在于:所述步骤四中卷积神经网络模块由一个1×1的卷积块、批量规范化、带泄露修正线性单元和上采样组成,所述卷积神经网络模块将各阶段的特征图上采样后恢复到大小一致的特征图后进行融合操作。
本发明的有益效果为:本发明利用定位网络定位提取阳性样本后利用分割网络中的swin transformer块进行特征提取,大大增加了特征提取能力,多尺度融合模块将跨通道信息和空间信息混合在一起提取信息特征,能关注到更重要的特征,抑制不重要的特征,减少网络在下采样损失的细节信息,从而获得更好的分割效果;
通过定位网络和分割网络两阶段分割,由大到小,由粗到细,可获得更好的分割效果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明分割方法流程图。
图2为本发明图片处理网络整体示意图。
图3为本发明Mfswin-unet分割网络结构示意图。
图4为本发明多尺度融合模块内部具体示意图。
图5为本发明YOLOv5s定位网络的定位结果指标图。
图6为本发明定位网络的定位结果可视化示意图。
图7为本发明最终分割结果的可视化示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
根据图1-图7所示,本实施例提供了一种食管癌CT图像分割方法,包括以下步骤:
步骤一、先获取156个病人的CT图,然后将每个病人的食管及其肿瘤靶区的原始DICOM图像转换为NIFTI格式的文件。
步骤二、将转换后的文件数据进行切片,分别得到5400张png格式的食管CT图和肿瘤靶区CT图,每张图对应一个食管分割掩码和一个肿瘤靶区分割掩码;
由于食管肿瘤靶区的CT图包括食管的范围,且最终输入分割网络的图片要进行检测边框扩大处理,防止边框掩盖目标,仅需定位检测到食管肿瘤靶区即可,这样能增加背景的丰富度,用于定位网络的训练和测试图片只用标注到食管肿瘤靶区,即为单分类。
步骤三、将切片后的图片数据处理为8位灰度图像,再将其处理成大小为256×256的图片输入至YOLOv5s定位网络中进行训练和检测,检测获得阳性样本,定位网络的定位结果指标图如说明书附图5所示,指标分别为Precision(精确度),Recall(召回率),平均精度:mAP@0.5和mAP@0.5:0.95,这些指标的值越大说明定位效果越好;定位网络的定位结果可视化示意图如说明书附图6所示,图中,病人A展示的是75和76CT图层的食管肿瘤靶区的定位结果,病人B展示的是15和16CT图层的食管肿瘤靶区的定位结果;
其中YOLOv5s定位网络由输入端、主干模块、颈部模块和预测模块组成,所述输入端用于对数据进行增强、自适应锚帧计算和自适应图像缩放的预处理操作;所述主干模块是某些性能优异的分类器的网络,该模块提取了某些通用特征表示,用于提取通用特征图并通过上采样和下采样进行传输和融合,传递了强烈的语义和定位特征;所述颈部模块用于执行特征融合操作;所述预测模块用于获取预测的特征图;
YOLOv5s网络是一个端到端的网络,训练和检测均是在一个单独网络中进行;YOLOv5s定位网络包含24个卷积层,后两个是全连接层,在利用YOLOv5s定位网络训练前先使用ImageNet的1000类数据对网络的前20个卷积层、1个平均池化层(average池化层)和1个全连接层进行预训练,并用得到的前20个卷积层网络参数初始化YOLOv5s定位网络模型的前20个卷积层的网络参数,然后用步骤二中的图片数据进行YOLOv5s定位网络模型训练,其中ImageNet表示一个计算机视觉数据集。
步骤四、将获得的阳性样本边框四周分别扩大50个像素后截取检测目标图片后输入包含编译器、瓶颈层(bottleneck)、多尺度融合模块、解码器和跳跃连接的Mfswin-unet分割网络中统一调整到256×256大小的图片;利用卷积神经网络模块对不同大小的特征图进行上采样后再利用多尺度融合模块将不同尺度的特征融合拼接,再在上采样特征上利用线性投影层输出像素级别分割预测,最后根据分割预测进行图像分割;
在编码阶段,补丁分区(Patch Partition)是将输入图片转换为序列嵌入,将CT图片分割成大小为4×4的非重叠块,线性嵌入层(Linear Embedding Layer)是将原始特征投影到任意维度,斯温变压器(Swin Transformer)块负责特征学习,每一层由两个swintransformer块组成,输出特征维度和分辨率保持不变。
卷积神经网络模块(CNN Block)由一个1×1的卷积块、批量规范化、带泄露修正线性单元和上采样组成,尺度参数(scale_factor)分别为1/8、1/4、1/2、16、8、4,卷积神经网络模块实现跨通道的信息交互和整合,增加非线性特性;所述卷积神经网络模块将各阶段的特征图上采样后恢复到大小一致的特征图,并利用concatnate函数拼接特征融合的方式进行融合操作。
多尺度融合模块(Multi-scale Fusion Model,即MFM)将编码阶段不同尺度的特征融合起来,从而保证信息的最大利用且减少信息的丢失,它由卷积层,卷积块注意力机制(即CBAM注意力机制)和池化层组成;
在编码阶段,由于特征维度越来越高,所提取的语义信息就越深,瓶颈层语义最丰富,且提取的信息最本质,如果直接将编码阶段的特征直接与瓶颈层相结合,会因为数据集中的目标区域与周围组织对比度低,引入不必要的噪声,影响后面的分割性能,所以采用MFM将高低维语义结合,具体来说,卷积神经网络模块(CNN Block)融合后的特征经过一个1×1的卷积后得到特征X1,瓶颈层得到的特征经过一个1×1的卷积后的特征为X2,X1与X2相乘得到特征X3,X3经过全局平均化和1×1的卷积后得到X4,X1经过卷积块注意力模块,全局平均化和一个1×1的卷积后得到的特征为X5,将X4与X5相加后卷积得到的特征张量与X1进行逐元素相乘得到X6,最后将X6与X2相加得到多尺度融合后的特征X7。
所述瓶颈层是由两个连续的swin transformer块组成,一是为了进行特征的深度学习,二是为了防止网络太深无法收敛,在解码阶段,将瓶颈层得到的特征图和多尺度融合模块得到的特征图相加后一起进行解码,跳跃连接(Skip Connection)将信息和深层信息结合起来,补丁扩展层(Patch Expanding)为了恢复编码阶段缩小的特征图,将预测图1(Predication1)与预测图2(Predication2)进行一致性损失,指导解码阶段生成更好的预测图,最后在上采样特征上应用线性投影层输出像素级分割预测;
其中预测图1是由解码阶段生成的三个特征图经过卷积神经网络模块(CNNBlock)特征融合得到的,预测图2是经过解码后通过补丁扩展层(Patch Expanding)和线性投影层(Linear Projection)得到的。
两个连续的swin transformer块分别采用了基于窗口的多头自注意(W-MSA)模块和基于位移的多头自注意(SW-MSA)模块;所述多尺度融合模块由卷积层、卷积块注意力机制和池化层组成;
每个swin transformer块由层标准化(LayerNorm)、多头自注意模块、剩余连接和具有高斯误差线性单元(GELU)激活函数的多层感知机组成。
所有的训练集和测试集按照7:3划分,最终分割结果的评价指标为DiceSimilarity Coefficient(DSC)和Hausdorffdistance(HD),DSC对掩模的内部填充更敏感,而HD对分割边界更敏感;下表1为不同模型在食管CT上的分割结果,下表2为不同模型在食管肿瘤靶区的CT图上的分割结果,表中的LN都表示YOLOv5s定位网络。
表1不同模型在食管CT上的分割结果
Figure BDA0003844640800000091
表2不同模型在食管肿瘤靶区的CT图上的分割结果
Figure BDA0003844640800000092
以上显示和描述了本发明的基本原理、主要特征和优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。

Claims (7)

1.一种食管癌CT图像分割方法,其特征在于,包括以下步骤:
步骤一、先获取病人的CT图,然后将每个病人的食管及其肿瘤靶区的原始DICOM图像转换为NIFTI格式的文件;
步骤二、将转换后的文件数据进行切片,分别得到png格式的食管CT图和肿瘤靶区CT图,每张图生成一个对应的食管分割掩码和肿瘤靶区分割掩码;
步骤三、将切片后的图片数据处理为8位灰度图像,再将其处理成大小为256×256的图片输入至YOLOv5s定位网络中进行训练和检测,检测获得阳性样本;
步骤四、将获得的阳性样本进行预处理后输入包含编译器、瓶颈层、多尺度融合模块、解码器和跳跃连接的Mfswin-unet分割网络中,利用卷积神经网络模块对不同大小的特征图进行上采样后再利用多尺度融合模块将不同尺度的特征融合拼接,再在上采样特征上利用线性投影层输出像素级别分割预测,最后根据分割预测进行图像分割。
2.根据权利要求1所述的一种食管癌CT图像分割方法,其特征在于:所述步骤三中YOLOv5s定位网络由输入端、主干模块、颈部模块和预测模块组成,所述输入端用于对数据进行增强、自适应锚帧计算和自适应图像缩放的预处理操作;所述主干模块用于提取通用特征图并通过上采样和下采样进行传输和融合;所述颈部模块用于执行特征融合操作;所述预测模块用于获取预测的特征图。
3.根据权利要求1所述的一种食管癌CT图像分割方法,其特征在于:所述步骤三中YOLOv5s定位网络包含24个卷积层,后两个是全连接层,在利用YOLOv5s定位网络训练前先使用ImageNet的1000类数据对网络的前20个卷积层、1个平均池化层和1个全连接层进行预训练,并用得到的前20个卷积层网络参数初始化YOLOv5s定位网络模型的前20个卷积层的网络参数,然后用步骤二中获得的图片数据进行YOLOv5s定位网络模型训练。
4.根据权利要求1所述的一种食管癌CT图像分割方法,其特征在于:所述步骤四中对获得的阳性样本预处理操作为将阳性样本边框四周分别扩大50个像素后截取检测目标图片,然后送入Mfswin-unet分割网络后统一调整到256×256大小的图片。
5.根据权利要求1所述的一种食管癌CT图像分割方法,其特征在于:所述步骤四中瓶颈层是由两个连续的swin transformer块组成,两个连续的swin transformer块分别采用了基于窗口的多头自注意模块和基于位移的多头自注意模块,所述多尺度融合模块由卷积层、卷积块注意力机制和池化层组成。
6.根据权利要求5所述的一种食管癌CT图像分割方法,其特征在于:所述swintransformer块由层标准化、多头自注意模块、剩余连接和具有高斯误差线性单元激活函数的多层感知机组成。
7.根据权利要求1所述的一种食管癌CT图像分割方法,其特征在于:所述步骤四中卷积神经网络模块由一个1×1的卷积块、批量规范化、带泄露修正线性单元和上采样组成,所述卷积神经网络模块将各阶段的特征图上采样后恢复到大小一致的特征图后进行融合操作。
CN202211113743.0A 2022-09-14 2022-09-14 一种食管癌ct图像分割方法 Pending CN115471470A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211113743.0A CN115471470A (zh) 2022-09-14 2022-09-14 一种食管癌ct图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211113743.0A CN115471470A (zh) 2022-09-14 2022-09-14 一种食管癌ct图像分割方法

Publications (1)

Publication Number Publication Date
CN115471470A true CN115471470A (zh) 2022-12-13

Family

ID=84333169

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211113743.0A Pending CN115471470A (zh) 2022-09-14 2022-09-14 一种食管癌ct图像分割方法

Country Status (1)

Country Link
CN (1) CN115471470A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116206114A (zh) * 2023-04-28 2023-06-02 成都云栈科技有限公司 一种复杂背景下人像提取方法及装置
CN116309558A (zh) * 2023-05-16 2023-06-23 四川大学华西医院 一种食管黏膜IPCLs血管区域分割方法、设备及存储介质
CN116519106A (zh) * 2023-06-30 2023-08-01 中国农业大学 一种用于测定生猪体重的方法、装置、存储介质和设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116206114A (zh) * 2023-04-28 2023-06-02 成都云栈科技有限公司 一种复杂背景下人像提取方法及装置
CN116309558A (zh) * 2023-05-16 2023-06-23 四川大学华西医院 一种食管黏膜IPCLs血管区域分割方法、设备及存储介质
CN116519106A (zh) * 2023-06-30 2023-08-01 中国农业大学 一种用于测定生猪体重的方法、装置、存储介质和设备
CN116519106B (zh) * 2023-06-30 2023-09-15 中国农业大学 一种用于测定生猪体重的方法、装置、存储介质和设备

Similar Documents

Publication Publication Date Title
CN109978037B (zh) 图像处理方法、模型训练方法、装置、和存储介质
CN113706526B (zh) 内窥镜图像特征学习模型、分类模型的训练方法和装置
CN115471470A (zh) 一种食管癌ct图像分割方法
CN113012172B (zh) 一种基于AS-UNet的医学图像分割方法及系统
CN113674253B (zh) 基于U-Transformer的直肠癌CT影像自动分割方法
CN112258488A (zh) 一种医疗影像病灶分割方法
CN111784671A (zh) 基于多尺度深度学习的病理图像病灶区域检测方法
CN110930416A (zh) 一种基于u型网络的mri图像前列腺分割方法
CN110751636B (zh) 一种基于改进型编解码网络的眼底图像视网膜动脉硬化检测方法
CN115496771A (zh) 一种基于脑部三维mri图像设计的脑肿瘤分割方法
JP2023540910A (ja) 病変検出のための共同訓練を伴う接続機械学習モデル
CN111369574B (zh) 一种胸腔器官的分割方法及装置
CN114494296A (zh) 一种基于Unet和Transformer相融合的脑部胶质瘤分割方法与系统
CN112396605B (zh) 网络训练方法及装置、图像识别方法和电子设备
CN113393469A (zh) 基于循环残差卷积神经网络的医学图像分割方法和装置
CN113888466A (zh) 一种基于ct图像的肺结节图像检测方法及系统
CN117132774B (zh) 一种基于pvt的多尺度息肉分割方法及系统
CN113436173A (zh) 基于边缘感知的腹部多器官分割建模、分割方法及系统
Shan et al. SCA-Net: A spatial and channel attention network for medical image segmentation
CN116563533A (zh) 基于目标位置先验信息的医学图像分割方法及系统
CN114022491B (zh) 基于改进空间金字塔模型的小数据集食管癌肿瘤靶区影像自动勾画方法
CN116433654A (zh) 一种改进的U-Net网络实现脊柱整体分割方法
CN116228785A (zh) 一种基于改进的Unet网络的肺炎CT影像分割方法
CN116091458A (zh) 一种基于互补注意力的胰腺图像分割方法
CN113379770B (zh) 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination