CN113516659B - 一种基于深度学习的医学影像自动分割方法 - Google Patents

一种基于深度学习的医学影像自动分割方法 Download PDF

Info

Publication number
CN113516659B
CN113516659B CN202111077298.2A CN202111077298A CN113516659B CN 113516659 B CN113516659 B CN 113516659B CN 202111077298 A CN202111077298 A CN 202111077298A CN 113516659 B CN113516659 B CN 113516659B
Authority
CN
China
Prior art keywords
segmentation
boundary
mask
loss
features
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111077298.2A
Other languages
English (en)
Other versions
CN113516659A (zh
Inventor
孙继红
孟平
周龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University ZJU
Original Assignee
Zhejiang University ZJU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University ZJU filed Critical Zhejiang University ZJU
Priority to CN202111077298.2A priority Critical patent/CN113516659B/zh
Publication of CN113516659A publication Critical patent/CN113516659A/zh
Application granted granted Critical
Publication of CN113516659B publication Critical patent/CN113516659B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10104Positron emission tomography [PET]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)

Abstract

本发明涉及一种基于深度学习的医学影像自动分割方法,针对肿瘤或器官分割任务中成像背景复杂、肿瘤区域缺乏形状特征、强度特异性和位置先验等挑战提出的解决方案,实现了肿瘤或器官的自动定位与分割。具体而言,设计了一种基于感兴趣区域的分割策略,使用一个稀疏目标检测模块自动定位及分类肿瘤或器官,并使用掩模分支对感兴趣区域进行精细分割。此外,将边界分割融合到掩模分割中以获得更精细的分割结果。本发明旨在解决常规的语义分割方法在肿瘤或器官分割任务中的局限性,通过实现全自动分割肿瘤或器官,一定程度上解决放射科医生的工作效率问题并减少由于个人偏差和临床经验带来的人工错误分割。

Description

一种基于深度学习的医学影像自动分割方法
技术领域
本发明涉及计算机视觉领域和医学图像分析领域,特别是涉及一种基于医学影像的自动分割算法。
背景技术
肿瘤或器官分割是医学影像定量分析中重要的基础,诸多后续任务,包括肿瘤或器官的定量评估,肿瘤分期,辅助诊断,放疗等都需要精确的分割结果。然而,人工分割肿瘤或器官需要结合图像,临床信息和背景知识才能准确地定位肿瘤或器官。全自动分割在一定程度上极大地减少放射科医师的工作量,并且减少由于个体偏差和临床经验引起的分割中的人为错误。
基于深度学习的自动分割技术的应用可以极大地促进肿瘤或器官的研究。由于医学影像包含诸多模态,成像参数以及肿瘤或器官大小不一等,给肿瘤或器官自动分割带来以下挑战:成像背景复杂且目标缺乏位置先验;目标缺乏形状特征,模型很难适应其比例和形状的高变化;目标缺乏强度特异性。针对上述问题,本发明提出了一种基于深度学习的医学影像自动分割技术。
发明内容
本发明的目的是为了提供一种基于深度学习的医学影像自动分割技术,可以在常见医学影像上开展肿瘤或器官的全自动检测及分割。为此,本发明采用以下技术方案:
一种基于深度学习的医学影像自动分割方法,其特征在于所述医学影像自动分割方法的网络结构主要由调制可变形主干网络和用于分类、框回归和掩模生成的多任务动态模块组成;自动分割步骤如下:
1)读取临床影像数据;
2)图像预处理及数据增强;
3)调制可变形主干网络提取特征;对经步骤2)输出的数据进行特征提取,然后使用特征金字塔网络来处理分割任务中的多尺度变化,最终输出具有高级语义信息的不同尺寸的特征图并由步骤4)中的多任务动态模块的分类、回归和掩模生成共享;
4)多任务动态模块分类、回归及基于感兴趣区域的掩模生成,输出对医学影像的分割结果;其中,多任务动态模块包括检测模块、掩模分割模块和边界分割模块三部分组成。
在步骤1)中,将数据集划分为训练集、验证集和测试集,应保证样本的随机性及相互独立性。所述数据为肿瘤或器官临床影像数据,包括常见的核磁共振影像MRI、计算机断层影像CT以及正电子发射断层影像PET等影像数据及对肿瘤或器官人工标注结果。
在步骤2)中,图像预处理包括重采样到同构分辨率以消除扫描分辨率的差异。如果数据为计算机断层影像CT,可以对CT影像数据根据所需分割部位的HU值选取分布范围,并对数据归一化处理。应用的数据增强方法包括随机水平翻转和随机垂直翻转等适用于医学影像的数据增强方法。
进一步地,在步骤3)中,具体步骤如下:在调制可变形主干网络中的卷积层,将调制可变形卷积作为单个层应用,在卷积之前使用学习的偏移量来重新计算特征图的像素位置,以实现卷积核的扩展。生成的偏移量采用双线性插值得到相应的像素,并对偏移量校正后的位置赋予不同的权重,以达到更准确的特征提取;其中所用到的预训练模型包括但不限于ResNet,DenseNet,EfficientNet等常见预训练模型;提取后的特征输入到特征金字塔网络以处理分割任务中的多尺度变化,最终输出具有高级语义信息的不同尺寸的特征图并由步骤4)中多任务动态模块的分类、回归和掩模生成三个分支共享。
所述多任务动态模块是一个迭代递归多任务学习结构,迭代学习初始化的候选框和候选框特征;进一步地,可参见图2,步骤4)中包括:
4.1)初始化N个候选框的中心点坐标、宽和高,并初始化N×D维的候选框特征,与由步骤3)得到的多尺度特征图一起输入到多任务动态模块中,将每次迭代后预测的候选框和候选框特征作为下一次迭代的输入。
4.2)候选框、前景候选框映射到由步骤3)输出的多尺度特征图并插值分别得到固定尺寸的感兴趣区域特征和掩模特征;将初始化的候选框映射到多尺度特征图中最大尺寸特征层并插值得到用于边界分割的固定尺寸边界特征。
4.3)将步骤4.2)输出的感兴趣区域特征输入到检测模块与候选框特征执行动态实例交互,为每个实例提取特征,然后预测并输出每个框的所属类别和坐标偏移,以此作为多任务动态模块下一次迭代的输入,根据框回归结果更新初始化的候选框;
4.4)将步骤4.2)输出的掩模特征输入到掩模分割模块,边界特征输入到边界分割模块,最后由掩模分割模块生成二值掩模分割图,并由边界分割模块预测目标的结构边界,获取目标的形状信息和位置信息进而约束二值掩模分割图以得到更精细的分割边界;其中边界真值由二值掩码真值利用拉普拉斯算子生成。
更进一步地,由于边界像素相对于掩膜像素极少,所以在边界特征提取过程中加入了感兴趣区域的掩膜特征,掩模特征提取过程和边界提取特征过程相互融合学习。可参见图3,在步骤4.4)中,首先,将获得的掩模特征输入到两个连续的卷积层,由此得到的输出特征再经过一个卷积层后融合到边界头,即与边界特征执行加和操作;输出边界特征随后被输入到两个连续的卷积层,从而获得边界分割图;掩模特征被下采样两次;每次下采样后,与经下采样获得的相同尺寸的边界特征执行加和运算;最后,相同尺寸的掩模特征执行跳跃连接以将语义信息丰富的高层卷积特征和低层卷积特征融合起来。
最后,在医学图像分割任务中,感兴趣的解剖结构通常只占据很小的扫描区域,往往导致学习过程陷入损失函数的局部最小值,导致网络对背景具有很强的预测偏差,前景区域通常丢失或仅部分检测到,本发明方法中定义一个多任务损失函数解决此问题。掩模分割过程中,基于感兴趣区域分割策略使前景占主导,平衡训练的稳定性以平均二元交叉熵损失定义掩模分割损失;边界分割过程中,由于感兴趣区域像素较少,导致类不平衡问题。在一般的边界分割研究中,通常的做法是为不同的类分配权重,以缓解边界预测中的类不平衡问题。虽然对某些不平衡问题有效,但对于高度不平衡的数据集难以解决,分配较大的权重意味着它还可能放大噪声并导致不稳定。在本发明方法中,通过将二元交叉熵损失和骰子损失相结合作为组合损失以优化边界学习。
具体步骤如下:训练过程中使用了如下的多任务损失函数,定义了每个采样感兴趣区域的多任务损失,允许网络为每个类生成掩码,而无需类之间的竞争:
Figure GDA0003354412660000041
其中,
Figure GDA0003354412660000042
是真值类别标签和预测分类的Focal损失,λcls是分类损失的系数,
Figure GDA0003354412660000043
为平均二值交叉熵损失;对于类别k真值对应的感兴趣区域,只对第k个掩模定义
Figure GDA0003354412660000044
Figure GDA0003354412660000045
分别为定位回归损失和边界损失,定义为:
Figure GDA0003354412660000046
其中,
Figure GDA0003354412660000047
Figure GDA0003354412660000048
分别为
Figure GDA0003354412660000049
损失和IoU损失,λL1和λgiou分别为L1损失和IoU损失的系数;
Figure GDA00033544126600000410
Figure GDA00033544126600000411
是二值交叉熵损失,
Figure GDA00033544126600000412
是对分割任务中类别不平衡问题影响较大的Dice系数损失,Dice系数是用来测量预测和真值之间的重叠程度,边界真值是由二值掩码真值利用拉普拉斯算子生成,使用阈值0将生成的边界转换为二值图作为最终的边界真值;
其中Dice损失为:
Figure GDA0003354412660000051
i表示第i个像素,∈是用于避免被零除的平滑项(∈设为1e-8)。H和W分别表示预测边界图的高度和宽度,
Figure GDA0003354412660000052
表示预测的边界,而
Figure GDA0003354412660000053
表示对应的真值边界特征。
根据本发明目的的第二个方面,本发明提供了一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现上述医学影像自动分割方法的步骤。
根据本发明目的的第二个方面,本发明一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述医学影像自动分割方法的步骤。
本发明的有益效果在于:发明了一种新型的医学图像分割多任务学习网络,它结合了分类,检测和分割,其中融合的边界分割作为掩码分割的辅助信息,通过多分支联合训练有效地提高了分割性能。在内部数据和多个公开数据集上进行了广泛的实验,所发明的全自动分割网络被证明在肿瘤或器官的多类别分割任务中优于许多先进的医学图像分割网络,克服了传统的端到端语义分割网络在执行肿瘤或器官分割时的局限性。所发明的模型在医学图像分割有显著的潜力,它也可以很容易地扩展到其他检测或分割任务。
附图说明
图1为本发明方法的总体框架图;
图2为本发明方法中多任务动态模块结构图;
图3为本发明方法中掩模生成结构图;
图4为本发明方法在直肠癌MRI数据集、皮肤病变分割、息肉分割和肺部分割数据集上的分割结果示例。
图5为本发明方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的一种基于深度学习的医学影像自动分割方法,其网络结构主要由调制可变形主干网络和用于分类、框回归和掩模生成的多任务动态模块组成;可参见图1,是一个简单而通用的多任务分割网络。
如图5所示为本发明实施提供的一种医学影像中自动分割肿瘤或器官的方法流程图。以下结合图4所示的实例,对本发明做详细说明:
步骤S1:读取临床影像数据;
病人影像包括:CT(Computed Tomography)、MR(magnetic resonance)、PET(Positron Emission Tomography)、结肠镜(colonoscopy)以及超声(Ultrasound)等常见的医学影像。如图4所示为实施例中测试时的代表示例,第三行为输入的数据示例,分别为直肠癌MRI影像(左起第1、2个图像)、皮肤病变图像(左起第3、4个图像)、息肉结肠镜影像(左起第5、6个图像)和肺部CT影像(左起第7、8个图像),分别以两张切片为示例。
步骤S2:图像预处理及数据增强。当数据用于训练时,按8:2的比例将所有数据划分为训练集和测试集,其中训练集包含由经验丰富的医生勾画好的肿瘤或器官区域的人工标注结果,测试时如需对模型性能评估,也应输入对应的人工标注结果。如图4中,第二行为测试时实施例中对应待预测代表示例的人工标注结果。若只需对输入实现自动定位及分割,则只需输入原始影像数据即可。对输入影像数据的预处理包括图像灰度归一化处理和图像尺寸缩放到固定尺寸,保证原始影像纵横比设定最短边为256像素,最长边最小值为256像素,最大值为512像素,且特别地对肺部CT影像将原始肺部CT图像的HU值截断至[-125,275]。
步骤S3:ImageNet的预训练权重对调制可变形主干网络初始化,如图1所示,将预处理之后的待分割图像输入到调制可变形主干网络进行特征提取;修改ResNet50中最后13个3×3卷积层,其修改方式如下:将调制可变形卷积作为单个层应用,在卷积之前使用学习的偏移量来重新计算特征图的像素位置,以实现卷积核的扩展。生成的偏移量采用双线性插值得到相应的像素,并对偏移量校正后的位置赋予不同的权重。随后将提取特征输入到特征金字塔网络并输出具有高级语义信息的不同大小的特征图P2~P5。
步骤S4:步骤S3中提取的特征图P2~P5作为输入,自动检测肿瘤或器官,并输出掩模分割和边界分割。
如图2所示,步骤S4具体包含以下几个步骤:
S41:初始化300个候选框,并将候选框的中心点坐标、宽和高(x,y,h,w)均初始化为零。同时,按照正态分布初始化300×256维的候选框特征。
S42:将候选框映射到由特征步骤S3中输出的多尺度P2~P5特征图并双线性插值得到固定尺寸的特征,作为感兴趣区域特征和掩模特征,并将候选框映射到特征P2且插值得到用于边界分割的固定尺寸,即为边界特征。其中感兴趣区域特征插值分辨率为7×7,掩模特征和边界特征插值分辨率为28×28。
S43:步骤S42中输出的感兴趣区域特征输入到检测模块中,感兴趣区域特征与候选框特征执行动态实例交互,为每个实例提取特征,最后输出肿瘤或器官的分类预测和位置预测结果。训练时根据损失函数计算预测与真值之间的分类损失和回归损失。
S44:如图3所示,首先,将步骤S42)获得的掩模特征输入到两个连续的3×3卷积层,由此得到的输出特征再经过一个1×1卷积层后融合到边界分割,即与边界特征执行加和操作;输出边界特征随后被输入到两个连续的3×3卷积层,从而获得边界分割图;掩模特征被下采样两次;每次下采样后,与经下采样获得的相同尺寸的边界特征执行加和运算;最后,相同尺寸的掩模特征执行跳跃连接以将语义信息丰富的高层卷积特征和低层卷积特征融合起来。最后,输出肿瘤或器官的二值掩模分割预测结果及边界分割预测结果,训练时根据掩模边界分割模块中定义的损失函数计算掩模损失及边界损失;
以上步骤S42、S43和S44为单次迭代过程,肿瘤或器官分类回归分支及掩模分割分支将执行六次循环,每次循环更新肿瘤或器官的候选框和候选框特征并且均作为下一次循环的输入。
如图5所示:当模型处于训练模式,模型输出结果将与真值计算损失。损失计算方式如下:
Figure GDA0003354412660000081
其中,
Figure GDA0003354412660000082
是真值类别标签和预测分类的Focal损失,λcls是分类损失的系数设为2,
Figure GDA0003354412660000083
为平均二值交叉熵损失;对于类别k真值对应的感兴趣区域,只对第k个掩模定义
Figure GDA0003354412660000084
Figure GDA0003354412660000085
分别为定位回归损失和边界损失,定义为:
Figure GDA0003354412660000086
其中,
Figure GDA0003354412660000087
Figure GDA0003354412660000088
分别为
Figure GDA0003354412660000089
损失和IoU损失,λL1和λgiou分别为L1损失和IoU损失的系数,分别设置为5和2;
Figure GDA00033544126600000810
Figure GDA00033544126600000811
是二值交叉熵损失,
Figure GDA00033544126600000812
为Dice损失,其计算方式如下:
Figure GDA00033544126600000813
i表示第i个像素,∈是用于避免被零除的平滑项(∈设为1e-8)。H和W分别表示预测边界图的高度和宽度,
Figure GDA00033544126600000814
表示预测的边界,而
Figure GDA00033544126600000815
表示对应的真值边界特征。
当损失值收敛或验证集分割精度保持稳定则训练结束。若损失值仍在下降或验证集分割精度尚未稳定时,将损失值通过反向传播来更新网络参数,直到收敛为止,并保存网络的权重;当模型处于测试模式,模型将直接输出肿瘤或器官的掩模分割结果。如图4所示第一行为网络训练完成后测试阶段实施例中对应代表示例的输出分割图。
在此实施例中,训练模式模型相关参数设置及训练条件如下:采用权重衰减为0.0001的AdamW作为优化器,批次大小设置为8,模型在RTX5000GPU上训练。调制可变形主干网络用ImageNet上的预训练权重进行初始化,学习率初始化为2.5×10-5,并且在训练过程中采用了预热学习率优化方法。最大迭代次数设置为270,000,学习率在210,000和250,000次迭代后分别降低0.1倍和0.01倍。
测试模型效能:在此实施例中,采用DSC、灵敏度及特异度作为评价指标,直肠癌MRI数据集测试结果如下:DSC达到0.801,灵敏度0.811,特异度0.998;皮肤病变分割数据集测试结果如下:DSC达到0.850,灵敏度0.978,特异度0.987;息肉结肠镜数据集测试结果如下:DSC达到0.886,灵敏度0.892,特异度0.985;肺部CT数据集测试结果如下:DSC达到0.976,灵敏度0.974,特异度0.993。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到本发明的设施可借助软件加必需的通用硬件平台的方式来实现。本发明的实施例可以使用现有的处理器来实现,或者由被用于此目的或其他目的用于适当系统的专用处理器来实现,或者由硬接线系统来实现。本发明的实施例还包括非暂态计算机可读存储介质,其包括用于承载或具有存储在其上的机器可执行指令或数据结构的机器可读介质;这种机器可读介质可以是可由通用或专用计算机或具有处理器的其他机器访问的任何可用介质。举例来说,这种机器可读介质可以包括RAM、ROM、EPROM、EEPROM、CD-ROM或其他光盘存储器、磁盘存储器或其他磁存储设备,或任何其他可用于以机器可执行指令或数据结构的形式携带或存储所需的程序代码,并可被由通用或专用计算机或其它带有处理器的机器访问的介质。当信息通过网络或其他通信连接(硬接线、无线或硬接线或无线的组合)传输或提供给机器时,该连接也被视为机器可读介质。
至此,已经结合附图所示的优选实施方式描述了本发明的技术方案,但是,本领域技术人员容易理解的是,本发明的保护范围显然不局限于这些具体实施方式。在不偏离本发明的原理的前提下,本领域技术人员可以对相关技术特征作出等同的更改或替换,这些更改或替换之后的技术方案都将落入本发明的保护范围之内。

Claims (6)

1.一种基于深度学习的医学影像自动分割方法,其特征在于所述医学影像自动分割方法的网络结构包括调制可变形主干网络和用于分类、框回归和掩模生成的多任务动态模块;自动分割步骤如下:
1)读取临床影像数据;
2)图像预处理及数据增强;
3)调制可变形主干网络提取特征;对经步骤2)输出的数据进行特征提取,然后使用特征金字塔网络来处理分割任务中的多尺度变化,最终输出具有高级语义信息的不同尺寸的特征图并由步骤4)中的多任务动态模块的分类、回归和掩模生成共享;
4)多任务动态模块分类、回归及基于感兴趣区域的掩模生成,输出对医学影像的分割结果;其中,多任务动态模块包括检测模块、掩模分割模块和边界分割模块三部分组成;
在步骤3)中,具体步骤如下:在调制可变形主干网络中的卷积层,将调制可变形卷积作为单个层应用,在卷积之前使用学习的偏移量来重新计算特征图的像素位置,生成的偏移量采用双线性插值得到相应的像素,并对偏移量校正后的位置赋予不同的权重,以达到更准确的特征提取;提取后的特征输入到特征金字塔网络,最后输出多尺度特征图;
所述多任务动态模块是一个迭代递归多任务学习结构,迭代学习初始化的候选框和候选框特征;具体步骤如下:首先初始化N个候选框的中心点坐标、宽和高,并初始化N×D维的候选框特征,与由步骤3)得到的多尺度特征图一起输入到多任务动态模块中,将每次迭代后预测的候选框和候选框特征作为下一次迭代的输入;
步骤4)中包括:
4.1)初始化N个候选框的中心点坐标、宽和高,并初始化N×D维的候选框特征,与由步骤3)得到的多尺度特征图一起输入到多任务动态模块中,将每次迭代后预测的候选框和候选框特征作为下一次迭代的输入;
4.2)候选框、前景候选框映射到由步骤3)输出的多尺度特征图并插值分别得到固定尺寸的感兴趣区域特征和掩模特征;将初始化的候选框映射到多尺度特征图中最大尺寸特征层并插值得到用于边界分割的固定尺寸边界特征;
4.3)将步骤4.2)输出的感兴趣区域特征输入到检测模块与候选框特征执行动态实例交互,为每个实例提取特征,然后预测并输出每个框的所属类别和坐标偏移,以此作为多任务动态模块下一次迭代的输入,根据框回归结果更新初始化的候选框;
4.4)将步骤4.2)输出的掩模特征输入到掩模分割模块,边界特征输入到边界分割模块,最后由掩模分割模块生成二值掩模分割图,并由边界分割模块预测目标的结构边界,获取目标的形状信息和位置信息进而约束二值掩模分割图以得到更精细的分割边界;其中边界真值由二值掩码真值利用拉普拉斯算子生成。
2.如权利要求1所述的一种基于深度学习的医学影像自动分割方法,其特征在于在步骤1)中,所述数据为肿瘤或器官的影像数据,所述影像数据包括核磁共振影像MRI数据、计算机断层影像CT以及正电子发射断层影像PET;所述影像数据被划分为训练集和测试集;所述影像数据包含脱敏的肿瘤或器官原始影像及对肿瘤或器官的人工标注结果。
3.如权利要求1所述的一种基于深度学习的医学影像自动分割方法,其特征在于在步骤4.4)中,首先,将获得的掩模特征输入到两个连续的卷积层,由此得到的输出特征再经过一个卷积层后融合到边界分割,即与边界特征执行加和操作;输出边界特征随后被输入到两个连续的卷积层,从而获得边界分割图;掩模特征被下采样两次;每次下采样后,与经下采样获得的相同尺寸的边界特征执行加和运算;最后,相同尺寸的掩模特征执行跳跃连接以将语义信息丰富的高层卷积特征和低层卷积特征融合起来。
4.如权利要求1所述的一种基于深度学习的医学影像自动分割方法,其特征在于训练过程中使用了如下的多任务损失函数,定义了每个采样感兴趣区域的多任务损失,允许网络为每个类生成掩码,而无需类之间的竞争:
Figure FDA0003344749300000031
其中,
Figure FDA0003344749300000032
是真值类别标签和预测分类的Focal损失,λcls是分类损失的系数,
Figure FDA0003344749300000033
为平均二值交叉熵损失;对于类别k真值对应的感兴趣区域,只对第k个掩模定义
Figure FDA0003344749300000034
Figure FDA0003344749300000035
Figure FDA0003344749300000036
分别为定位回归损失和边界损失,定义为:
Figure FDA0003344749300000037
其中,
Figure FDA0003344749300000038
Figure FDA0003344749300000039
分别为L1损失和GIoU损失,λL1和λgiou分别为L1损失和GIoU损失的系数;
Figure FDA00033447493000000310
Figure FDA00033447493000000311
是二值交叉熵损失,
Figure FDA00033447493000000312
是对分割任务中类别不平衡问题影响较大的Dice系数损失,Dice系数是用来测量预测和真值之间的重叠程度,边界真值是由二值掩码真值利用拉普拉斯算子生成,使用阈值0将生成的边界转换为二值图作为最终的边界真值;
其中Dice损失为:
Figure FDA00033447493000000313
i表示第i个像素,∈是用于避免被零除的平滑项, ∈设为0.00000001;H和W分别表示预测边界图的高度和宽度,
Figure FDA00033447493000000314
表示预测的边界,而
Figure FDA00033447493000000315
表示对应的真值边界特征。
5.一种非暂态计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现如权利要求1至4任一项所述的医学影像自动分割方法的步骤。
6.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1至4任一项所述的医学影像自动分割方法的步骤。
CN202111077298.2A 2021-09-15 2021-09-15 一种基于深度学习的医学影像自动分割方法 Active CN113516659B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111077298.2A CN113516659B (zh) 2021-09-15 2021-09-15 一种基于深度学习的医学影像自动分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111077298.2A CN113516659B (zh) 2021-09-15 2021-09-15 一种基于深度学习的医学影像自动分割方法

Publications (2)

Publication Number Publication Date
CN113516659A CN113516659A (zh) 2021-10-19
CN113516659B true CN113516659B (zh) 2021-12-28

Family

ID=78063433

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111077298.2A Active CN113516659B (zh) 2021-09-15 2021-09-15 一种基于深度学习的医学影像自动分割方法

Country Status (1)

Country Link
CN (1) CN113516659B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114119511A (zh) * 2021-11-12 2022-03-01 福州大学 基于EfficientNet结构的结肠镜图像评价方法及系统
CN114359310B (zh) * 2022-01-13 2024-06-04 浙江大学 一种基于深度学习的3d心室核磁共振视频分割优化系统
CN114582449A (zh) * 2022-01-17 2022-06-03 内蒙古大学 基于XLNet-BiGRU-CRF模型的电子病历命名实体标准化方法和系统
CN114419020B (zh) * 2022-01-26 2022-10-18 深圳大学 医学图像分割方法、装置、计算机设备及存储介质
CN114445689A (zh) * 2022-01-29 2022-05-06 福州大学 目标先验信息指导的多尺度加权融合目标检测方法及系统
WO2023143625A1 (en) * 2022-01-31 2023-08-03 Conova Medical Technology Limited Process and system for three-dimensional modelling of tissue of a subject, and surgical planning process and system
CN114299072B (zh) * 2022-03-11 2022-06-07 四川大学华西医院 一种基于人工智能的解剖变异识别提示方法及系统
CN114817991B (zh) * 2022-05-10 2024-02-02 上海计算机软件技术开发中心 一种车联网图像脱敏方法和系统
CN116258671B (zh) * 2022-12-26 2023-08-29 中山大学肿瘤防治中心(中山大学附属肿瘤医院、中山大学肿瘤研究所) 一种基于mr图像智能勾画方法、系统、设备及存储介质
CN117218419B (zh) * 2023-09-12 2024-04-12 河北大学 一种胰胆肿瘤分型分级分期的评估系统和评估方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889449A (zh) * 2019-11-27 2020-03-17 中国人民解放军国防科技大学 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法
CN111008984A (zh) * 2019-12-10 2020-04-14 广州柏视医疗科技有限公司 医学影像中正常器官的轮廓线自动勾画方法及系统

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110211139A (zh) * 2019-06-12 2019-09-06 安徽大学 自动分割食管癌放疗靶区和危及器官的方法及系统
CN112365496B (zh) * 2020-12-02 2022-03-29 中北大学 基于深度学习和多引导的多模态mr影像脑肿瘤分割方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110889449A (zh) * 2019-11-27 2020-03-17 中国人民解放军国防科技大学 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法
CN111008984A (zh) * 2019-12-10 2020-04-14 广州柏视医疗科技有限公司 医学影像中正常器官的轮廓线自动勾画方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
"COVID-19 lung infection segmentation with a novel two-stage cross-domain transfer learning framework";Jiannan Liu等;《ELSEVIER》;20210806;第1-10页 *
"Mask R-CNN";Kaiming He;《arXiv》;20180124;第1-12页 *
"Sparse R-CNN: End-to-End Object Detection with Learnable Proposals";Peize Sun等;《arXiv》;20210426;第14454-14463页 *

Also Published As

Publication number Publication date
CN113516659A (zh) 2021-10-19

Similar Documents

Publication Publication Date Title
CN113516659B (zh) 一种基于深度学习的医学影像自动分割方法
CN113077471B (zh) 一种基于u型网络的医学图像分割方法
Xue et al. Segan: Adversarial network with multi-scale l 1 loss for medical image segmentation
US9968257B1 (en) Volumetric quantification of cardiovascular structures from medical imaging
JP6884853B2 (ja) ニューラルネットワーク法を用いた画像セグメンテーション
CN109242844B (zh) 基于深度学习的胰腺癌肿瘤自动识别系统、计算机设备、存储介质
CN111105424A (zh) 淋巴结自动勾画方法及装置
CN109003267B (zh) 从3d图像自动检测目标对象的计算机实现方法和系统
CN104424629B (zh) 一种x光胸片肺部分割方法和装置
CN106462963B (zh) 用于自适应放射治疗中自动勾画轮廓的系统和方法
CN111902825A (zh) 多边形对象标注系统和方法以及训练对象标注系统的方法
WO2021136368A1 (zh) 钼靶图像中胸大肌区域自动检测方法及装置
CN110570394B (zh) 医学图像分割方法、装置、设备及存储介质
EP4030385A1 (en) Devices and process for synthesizing images from a source nature to a target nature
Shu et al. LVC-Net: Medical image segmentation with noisy label based on local visual cues
Zografos et al. Hierarchical multi-organ segmentation without registration in 3D abdominal CT images
Dangi et al. Cine cardiac MRI slice misalignment correction towards full 3D left ventricle segmentation
CN114359642A (zh) 基于一对一目标查询Transformer的多模态医学图像多器官定位方法
CN114693671B (zh) 基于深度学习的肺结节半自动分割方法、装置、设备及介质
Ali et al. Multi-level Kronecker Convolutional Neural Network (ML-KCNN) for glioma segmentation from multi-modal MRI volumetric data
Wang et al. Coronary artery segmentation and skeletonization based on competing fuzzy connectedness tree
CN113724185A (zh) 用于图像分类的模型处理方法、装置及存储介质
CN117437423A (zh) 基于sam协同学习和跨层特征聚合增强的弱监督医学图像分割方法及装置
CN113379770B (zh) 鼻咽癌mr图像分割网络的构建方法、图像分割方法及装置
JP2022546303A (ja) 管状フィーチャのセグメント化

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant