CN109215041B - 一种全自动骨盆肿瘤分割方法及系统、存储介质及终端 - Google Patents

一种全自动骨盆肿瘤分割方法及系统、存储介质及终端 Download PDF

Info

Publication number
CN109215041B
CN109215041B CN201810941726.3A CN201810941726A CN109215041B CN 109215041 B CN109215041 B CN 109215041B CN 201810941726 A CN201810941726 A CN 201810941726A CN 109215041 B CN109215041 B CN 109215041B
Authority
CN
China
Prior art keywords
neural network
convolution neural
full convolution
training
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810941726.3A
Other languages
English (en)
Other versions
CN109215041A (zh
Inventor
艾松涛
王燎
曲扬
李小敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ninth Peoples Hospital Shanghai Jiaotong University School of Medicine
Original Assignee
Ninth Peoples Hospital Shanghai Jiaotong University School of Medicine
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ninth Peoples Hospital Shanghai Jiaotong University School of Medicine filed Critical Ninth Peoples Hospital Shanghai Jiaotong University School of Medicine
Priority to CN201810941726.3A priority Critical patent/CN109215041B/zh
Publication of CN109215041A publication Critical patent/CN109215041A/zh
Application granted granted Critical
Publication of CN109215041B publication Critical patent/CN109215041B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30016Brain
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明提供一种全自动骨盆肿瘤分割方法及系统、存储介质及终端,包括以下步骤:对脑膜瘤图像集中的图像进行预处理和数据扩增,得到脑膜瘤训练数据;基于所述脑膜瘤训练数据训练U‑net全卷积神经网络;对骨盆肿瘤图像集中的绘制有肿瘤边界金标准的骨盆肿瘤图像进行预处理和数据扩增,得到骨盆肿瘤训练数据;基于所述骨盆肿瘤训练数据对训练得到的U‑net全卷积神经网络进行微调,得到最优U‑net全卷积神经网络;将采集到的骨盆肿瘤图像输入所述最优U‑net全卷积神经网络,获取骨盆肿瘤分割结果。本发明的全自动骨盆肿瘤分割方法及系统、存储介质及终端通过迁移学习的U‑net全卷积神经网络来实现全自动的骨盆肿瘤分割,从而大幅提高医工交互效率和骨盆肿瘤分割的精确度。

Description

一种全自动骨盆肿瘤分割方法及系统、存储介质及终端
技术领域
本发明涉及医学图像处理的技术领域,特别是涉及一种全自动骨盆肿瘤分割方法及系统、存储介质及终端。
背景技术
骨肌系统的肿瘤中,无论原发还是继发的骨肿瘤,通常存在显著的异质性。尤其是复杂骨盆肿瘤,病变累及多分骨盆分区,手术切除范围大,使得骨盆肿瘤的自动分割始终存在较大挑战。
目前,肿瘤边界影像判定是医工交互工程中效率最低、最影响手术结果的环节。现有的骨盆肿瘤分割方法通常是由有经验的医师手工进行标注分割,具有以下缺陷:
(1)费时费力,很难快速地获取大量的分割结果;
(2)分割结果受到医师主观和经验的影响,可重复性低。
现有技术中,深度学习被广泛地应用到医学图像分析的问题上。其中,全卷积神经网络也被逐渐地应用于医学图像分割,如U-net被广泛应用于细胞分割、脑膜瘤分割等。因此,如何基于深度学习实现骨盆肿瘤的分割成为当前亟待解决的热点课题。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供一种全自动骨盆肿瘤分割方法及系统、存储介质及终端,通过迁移学习的U-net全卷积神经网络来实现全自动的骨盆肿瘤分割,从而大幅缩短医工交互时间、大幅提高医工交互效率和骨盆肿瘤分割的精确度。
为实现上述目的及其他相关目的,本发明提供一种全自动骨盆肿瘤分割方法,包括以下步骤:对脑膜瘤图像集中的图像进行预处理和数据扩增,得到脑膜瘤训练数据;基于所述脑膜瘤训练数据训练U-net全卷积神经网络;对骨盆肿瘤图像集中的绘制有肿瘤边界金标准的骨盆肿瘤图像进行预处理和数据扩增,得到骨盆肿瘤训练数据;基于所述骨盆肿瘤训练数据对训练得到的U-net全卷积神经网络进行微调,得到最优U-net全卷积神经网络;将采集到的骨盆肿瘤图像输入所述最优U-net全卷积神经网络,获取骨盆肿瘤分割结果。
于本发明一实施例中,所述预处理包括以下步骤:
对图像进行模态间配准;
对配准后的图像进行N4偏置场校正;
对校正后的图像进行灰度直方图匹配;
对匹配后的图像进行标准化处理,使得图像的灰度均值为0、方差为1。
于本发明一实施例中,采用弹性变换算法对预处理后的图像进行数据扩增。
于本发明一实施例中,所述脑膜瘤训练数据包括训练集、验证集和测试集;基于所述脑膜瘤训练数据训练U-net全卷积神经网络时,基于所述训练集和所述验证集在所述U-net全卷积神经网络上的准确率,调整网络超参数以获取训练得到的U-net全卷积神经网络;基于所述测试集获取所述训练得到的U-net全卷积神经网络的准确率。
于本发明一实施例中,所述骨盆肿瘤训练数据包括训练集、验证集和测试集;基于所述骨盆肿瘤训练数据对训练得到的U-net全卷积神经网络进行微调时,基于所述训练集和所述验证集在所述训练得到的U-net全卷积神经网络上的准确率,调整网络超参数以获取最优U-net全卷积神经网络;基于所述测试集获取所述最优U-net全卷积神经网络的准确率。
于本发明一实施例中,根据
Figure BDA0001769232300000021
计算所述准确率,其中S1表示基于U-net全卷积神经网络得到的分割结果,S2表示分割金标准;|S1∩S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;|S1|+|S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的区域综合;TP表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;FP表示仅出现在分割金标准中的区域,FN表示仅出现在基于U-net全卷积神经网络得到的分割结果中的区域。
于本发明一实施例中,所述训练集、所述验证集和所述测试集的占比分别为70%、20%和10%。
对应地,本发明提供一种全自动骨盆肿瘤分割系统,包括第一训练数据生成模块、第一训练模块、第二训练数据生成模块、第二训练模块和分割模块;
所述第一训练数据生成模块用于对脑膜瘤图像集中的图像进行预处理和数据扩增,得到脑膜瘤训练数据;
所述第一训练模块用于基于所述脑膜瘤训练数据训练U-net全卷积神经网络;
所述第二训练数据生成模块用于所述对骨盆肿瘤图像集中的绘制有肿瘤边界金标准的骨盆肿瘤图像进行预处理和数据扩增,得到骨盆肿瘤训练数据;
所述第二训练模块用于基于所述骨盆肿瘤训练数据对训练得到的U-net全卷积神经网络进行微调,得到最优U-net全卷积神经网络;
所述分割模块用于将采集到的骨盆肿瘤图像输入所述最优U-net全卷积神经网络,获取骨盆肿瘤分割结果。
本发明提供一种存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述的全自动骨盆肿瘤分割方法。
最后,本发明提供一种终端,包括:处理器及存储器;
所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行上述的全自动骨盆肿瘤分割方法。
如上所述,本发明所述的全自动骨盆肿瘤分割方法及系统、存储介质及终端,具有以下有益效果:
(1)通过迁移学习的U-net全卷积神经网络来实现全自动的骨盆肿瘤分割,从而大幅缩短医工交互时间、大幅提高医工交互效率和骨盆肿瘤分割的精确度;
(2)无需医生手动操作,不仅能够减少医生的工作量,而且肿瘤分割的结果不依赖于操作人员的业务水平和主观影响,分割的准确率高。
附图说明
图1显示为本发明的全自动骨盆肿瘤分割方法于一实施例中的流程图;
图2显示为本发明的全自动骨盆肿瘤分割系统于一实施例中的结构示意图;
图3显示为本发明的终端于一实施例中的结构示意图。
元件标号说明
21 第一训练数据生成模块
22 第一训练模块
23 第二训练数据生成模块
24 第二训练模块
25 分割模块
31 处理器
32 存储器
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图示中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
本发明的全自动骨盆肿瘤分割方法及系统、存储介质及终端通过迁移学习的U-net全卷积神经网络来实现全自动的骨盆肿瘤分割,无需专业人士手动分割,大幅缩短医工交互时间、大幅提高医工交互效率和骨盆肿瘤分割的精确度。为了提高深度学习架构的一般化,采用一个表现好的深度学习网络在一个大的数据集上训练,然后在一个小数据集上针对一个特定问题进行微调,这种方法被称为迁移学习。迁移学习可以在一定程度上解决训练样本数据量太少的问题,从而在实践中被广泛应用。
如图1所示,于一实施例中,本发明的全自动骨盆肿瘤分割方法包括以下步骤:
步骤S1、对脑膜瘤图像集中的图像进行预处理和数据扩增,得到脑膜瘤训练数据。
具体地,获取脑膜瘤患者的MRI图像作为脑膜瘤图像集,对所述脑膜瘤图像集进行预处理,以得到统一标准下的脑膜瘤图像,并将其作为脑膜瘤训练数据。
于本发明一实施例中,所述预处理包括以下步骤:
11)对图像进行模态间配准。
具体地,对于同一病人的不同模态下的MRI图像进行配准。优选地,采用B样条线性插值算法进行配准。
12)对配准后的图像进行N4偏置场校正。
具体地,对于配准后的MRI图像进行N4偏置场校正,以将MRI图像处理为均匀磁场(亮度)分布。
13)对校正后的图像进行灰度直方图匹配。
具体地,对于校正后的MRI图像进行灰度直方图匹配,以将MRI图像灰度值匹配到统一尺度,如从0到255。
14)对匹配后的图像进行标准化处理,使得图像的灰度均值为0、方差为1。
为了保持模型的一致性和增加训练数据量,使基于脑膜瘤数据训练的U-net网络结构分割效果更准确,还需要对预处理后的脑膜瘤图像进行数据扩增。于本发明一实施例中,采用弹性变换算法对预处理后的图像进行数据扩增。
步骤S2、基于所述脑膜瘤训练数据训练U-net全卷积神经网络。
具体地,将所述脑膜瘤训练数据分为训练集、验证集和测试集。将所述训练集输入U-net全卷积神经网络中进行训练,并在所述验证集上进行验证;根据所述训练集和所述验证集在所述U-net全卷积神经网络上的准确率,调整网络超参数,使所述U-net全卷积神经网络在训练集和验证集上的准确率得以提升和优化,获取最优的U-net全卷积神经网络参数,即得到训练得到的U-net全卷积神经网络;最后,计算所述测试集在所述训练得到的U-net全卷积神经网络上的准确率。
其中,所述超参数是用来确定网络模型的一些参数,都是训练前预先根据经验确定的变量,是不能在训练过程中自动学习出的变量。在深度学习中,超参数包括学习速率(learning rate)、迭代次数(epoch)、网络层数、每层网络神经元的个数等等。参数是指模型可以根据数据在训练过程中自动学习出的变量,比如每一层神经网络中的神经元的权重(weights)和偏差(biases)。网络训练完成后最终保存的模型也就是这些在训练过程中最优化的参数(神经元的权重和偏差)。通过调整最适宜的超参数,来获得更好的训练模型,即获得表现更优的网络参数。
于本发明一实施例中,采用骰子相似系数(Dice Similarity Coefficient,DSC)来判断准确率。具体地,
Figure BDA0001769232300000051
其中S1表示基于U-net全卷积神经网络得到的分割结果,S2表示分割金标准;|S1∩S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;|S1|+|S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的区域综合;TP表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;FP表示仅出现在分割金标准中的区域,FN表示仅出现在基于U-net全卷积神经网络得到的分割结果中的区域。
其中,所述分割金标准是由放射科专家在MRI图像上手动绘制,用于确定肿瘤范围。其中,绘制金标准所使用的软件包括Medraw Print三维重建设计软件、ITK-snap。所述放射科专家需为主治医师,临床经验五年以上。
于本发明一实施例中,所述训练集、所述验证集和所述测试集的占比分别为70%、20%和10%。
步骤S3、对骨盆肿瘤图像集中绘制有肿瘤边界金标准的骨盆肿瘤图像进行预处理和数据扩增,得到骨盆肿瘤训练数据。
具体地,获取骨盆肿瘤患者的MRI图像,并请放射科专家手工绘制肿瘤边界金标准。由绘制有肿瘤边界金标准的骨盆肿瘤图像组成骨盆肿瘤图像集,并基于上述相同的预处理算法对所述骨盆肿瘤图像进行预处理。这是因为骨盆肿瘤数据集是在各大医院收集的DICOM数据,所以画有骨盆边界金标准的骨盆肿瘤图像才是完整骨盆肿瘤图像。脑膜瘤图像不需要进行专家的人工标注,是因为脑膜瘤的数据是公开的数据集是由国外的放射科专家已经标注好金标准的数据集。因此下载下来脑膜瘤图像集后,可以直接进行预处理和数据扩增,以用于网络训练。正是因为医学标记需要专业人员来做,代价很高,因此本发明进行迁移学习,从而可以解决在有限(较小)数据集上的训练效果提升的问题。
其中,所述分割金标准是由放射科专家在MRI图像上手动绘制,用于确定肿瘤范围。其中,绘制金标准所使用的软件包括Medraw Print三维重建设计软件、ITK-snap。所述放射科专家需为主治医师,临床经验五年以上。
需要说明的是,骨盆肿瘤图像的预处理和数据扩增方式与脑膜瘤图像的预处理和数据扩增方式一致,故在此不再赘述。
步骤S4、基于所述骨盆肿瘤训练数据对训练得到的U-net全卷积神经网络进行微调,得到最优U-net全卷积神经网络。
具体地,将所述骨盆肿瘤训练数据分为训练集、验证集和测试集。将所述训练集输入训练得到的U-net全卷积神经网络中进行微调,并在所述验证集上进行验证;根据所述训练集和所述验证集在所述训练得到的U-net全卷积神经网络上的准确率,调整网络超参数,使所述U-net全卷积神经网络在训练集和验证集上的准确率得以提升和优化,获取最优的U-net全卷积神经网络参数,即得到最优U-net全卷积神经网络;最后,计算所述测试集在所述最优U-net全卷积神经网络上的准确率。
于本发明一实施例中,采用骰子相似系数(Dice Similarity Coefficient,DSC)来判断准确率。具体地,
Figure BDA0001769232300000061
其中S1表示基于U-net全卷积神经网络得到的分割结果,S2表示分割金标准;|S1∩S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;|S1|+|S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的区域综合;TP表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;FP表示仅出现在分割金标准中的区域,FN表示仅出现在基于U-net全卷积神经网络得到的分割结果中的区域。
于本发明一实施例中,所述训练集、所述验证集和所述测试集的占比分别为70%、20%和10%。
步骤S5、将采集到的骨盆肿瘤图像输入所述最优U-net全卷积神经网络,获取骨盆肿瘤分割结果。
具体地,将新获得的骨盆肿瘤数据单个或批量输入所述最优U-net全卷积神经网络进行测试,获取骨盆肿瘤的自动化分割结果。优选地,所述分割结果采用nifti格式文件。
下面通过具体实施例来进一步阐释本发明的全自动骨盆肿瘤分割方法。
在该实施例中,迁移学习所采用的脑膜瘤图像集来自BRATS 2017数据库(http://www.med.upenn.edu/sbia/brats2017.html)。其中,所述数据库中的脑膜瘤MRI图像分为四个模态,分别是T1、T1c、T2和Flair,本实施例用T1c和T2模态进行训练以获取迁移学习的训练参数。经过验证,基于脑膜瘤训练数据得到的U-net全卷积神经网络训练在脑膜瘤数据训练集上的准确率为95.20%,验证集上的准确率为89.63%,测试集上的准确率为84.39%。
将50例绘制有肿瘤边界金标准的骨盆肿瘤病例的MRI数据输入迁移学习的U-net全卷积神经网络训练,通过对超参数的调整,使准确率在骨盆肿瘤训练数据的训练集和验证集上得以提升,最后保存最优网络参数,以获得最优U-net全卷积神经网络。经过验证,骨盆肿瘤的测试集在最优U-net全卷积神经网络上的准确率为80.14%。若不采用脑膜瘤训练数据进行迁移学习,直接采用骨盆肿瘤训练数据训练U-net全卷积神经网络,则在骨盆肿瘤的测试集上的准确率为73.61%。因此,使用迁移学习的U-net网络准确率更高。
如图2所示,于一实施例中,本发明的全自动骨盆肿瘤分割系统包括第一训练数据生成模块21、第一训练模块22、第二训练数据生成模块23、第二训练模块24和分割模块25。
所述第一训练数据生成模块21用于对脑膜瘤图像集中的图像进行预处理和数据扩增,得到脑膜瘤训练数据;
所述第一训练模块22与所述第一训练数据生成模块21相连,用于基于所述脑膜瘤训练数据训练U-net全卷积神经网络;
所述第二训练数据生成模块23用于所述对骨盆肿瘤图像集中的绘制有肿瘤边界金标准的骨盆肿瘤图像进行预处理和数据扩增,得到骨盆肿瘤训练数据;
所述第二训练模块24与所述第一训练模块22和所述第二训练数据生成模块23相连,用于基于所述骨盆肿瘤训练数据对训练得到的U-net全卷积神经网络进行微调,得到最优U-net全卷积神经网络;
所述分割模块25与所述第二训练模块24相连,用于将采集到的骨盆肿瘤图像输入所述最优U-net全卷积神经网络,获取骨盆肿瘤分割结果。
需要说明的是,第一训练数据生成模块21、第一训练模块22、第二训练数据生成模块23、第二训练模块24和分割模块25的结构和原理与所述全自动骨盆肿瘤分割方法中的步骤一一对应,故在此不再赘述。
需要说明的是,应理解以上装置的各个模块的划分仅仅是一种逻辑功能的划分,实际实现时可以全部或部分集成到一个物理实体上,也可以物理上分开。且这些模块可以全部以软件通过处理元件调用的形式实现,也可以全部以硬件的形式实现,还可以部分模块通过处理元件调用软件的形式实现,部分模块通过硬件的形式实现。例如:x模块可以为单独设立的处理元件,也可以集成在上述装置的某一个芯片中实现。此外,x模块也可以以程序代码的形式存储于上述装置的存储器中,由上述装置的某一个处理元件调用并执行以上x模块的功能。其它模块的实现与之类似。这些模块全部或部分可以集成在一起,也可以独立实现。这里所述的处理元件可以是一种集成电路,具有信号的处理能力。在实现过程中,上述方法的各步骤或以上各个模块可以通过处理器元件中的硬件的集成逻辑电路或者软件形式的指令完成。以上这些模块可以是被配置成实施以上方法的一个或多个集成电路,例如:一个或多个特定集成电路(Application Specific Integrated Circuit,简称ASIC),一个或多个微处理器(Digital Singnal Processor,简称DSP),一个或者多个现场可编程门阵列(Field Programmable Gate Array,简称FPGA)等。当以上某个模块通过处理元件调度程序代码的形式实现时,该处理元件可以是通用处理器,如中央处理器(CentralProcessing Unit,简称CPU)或其它可以调用程序代码的处理器。这些模块可以集成在一起,以片上系统(System-on-a-chip,简称SOC)的形式实现。
本发明的存储介质其上存储有计算机程序,该程序被处理器执行时实现上述的全自动骨盆肿瘤分割方法。所述存储介质包括:ROM、RAM、磁碟、U盘、存储卡或者光盘等各种可以存储程序代码的介质。
如图3所示,于一实施例中,本发明的车载终端包括:处理器31及存储器32。
所述存储器32用于存储计算机程序。
所述存储器32包括:ROM、RAM、磁碟、U盘、存储卡或者光盘等各种可以存储程序代码的介质。
所述处理器31与所述存储器32相连,用于执行所述存储器32存储的计算机程序,以使所述车载终端执行上述的全自动骨盆肿瘤分割方法。
优选地,所述处理器31可以是通用处理器,包括中央处理器(Central ProcessingUnit,简称CPU)、网络处理器(Network Processor,简称NP)等;还可以是数字信号处理器(Digital Signal Processor,简称DSP)、专用集成电路(Application SpecificIntegrated Circuit,简称ASIC)、现场可编程门阵列(Field Programmable Gate Array,简称FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。
综上所述,本发明的全自动骨盆肿瘤分割方法及系统、存储介质及终端通过迁移学习的U-net全卷积神经网络来实现全自动的骨盆肿瘤分割,从而大幅缩短医工交互时间、大幅提高医工交互效率和骨盆肿瘤分割的精确度;无需医生手动操作,不仅能够减少医生的工作量,而且肿瘤分割的结果不依赖于操作人员的业务水平和主观影响,分割的准确率高。因此,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。

Claims (6)

1.一种全自动骨盆肿瘤分割方法,其特征在于,包括以下步骤:
对脑膜瘤图像集中的图像进行预处理和数据扩增,得到脑膜瘤训练数据;
基于所述脑膜瘤训练数据训练U-net全卷积神经网络;
对骨盆肿瘤图像集中的绘制有肿瘤边界金标准的骨盆肿瘤图像进行预处理和数据扩增,得到骨盆肿瘤训练数据;
基于所述骨盆肿瘤训练数据对训练得到的U-net全卷积神经网络进行微调,得到最优U-net全卷积神经网络;
将采集到的骨盆肿瘤图像输入所述最优U-net全卷积神经网络,获取骨盆肿瘤分割结果;
所述预处理包括以下步骤:
对图像进行模态间配准;
对配准后的图像进行N4偏置场校正;
对校正后的图像进行灰度直方图匹配;
对匹配后的图像进行标准化处理,使得图像的灰度均值为0、方差为1;
所述脑膜瘤训练数据包括训练集、验证集和测试集;基于所述脑膜瘤训练数据训练U-net全卷积神经网络时,基于所述训练集和所述验证集在所述U-net全卷积神经网络上的准确率,调整网络超参数以获取训练得到的U-net全卷积神经网络;基于所述测试集获取所述训练得到的U-net全卷积神经网络的准确率;
所述骨盆肿瘤训练数据包括训练集、验证集和测试集;基于所述骨盆肿瘤训练数据对训练得到的U-net全卷积神经网络进行微调时,基于所述训练集和所述验证集在所述训练得到的U-net全卷积神经网络上的准确率,调整网络超参数以获取最优U-net全卷积神经网络;基于所述测试集获取所述最优U-net全卷积神经网络的准确率;
根据
Figure FDA0003457975380000011
计算所述准确率,其中S1表示基于U-net全卷积神经网络得到的分割结果,S2表示分割金标准;|S1∩S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;|S1|+|S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的区域综合;TP表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;FP表示仅出现在分割金标准中的区域,FN表示仅出现在基于U-net全卷积神经网络得到的分割结果中的区域。
2.根据权利要求1所述的全自动骨盆肿瘤分割方法,其特征在于,采用弹性变换算法对预处理后的图像进行数据扩增。
3.根据权利要1所述的全自动骨盆肿瘤分割方法,其特征在于,所述训练集、所述验证集和所述测试集的占比分别为70%、20%和10%。
4.一种全自动骨盆肿瘤分割系统,其特征在于,包括第一训练数据生成模块、第一训练模块、第二训练数据生成模块、第二训练模块和分割模块;
所述第一训练数据生成模块用于对脑膜瘤图像集中的图像进行预处理和数据扩增,得到脑膜瘤训练数据;
所述第一训练模块用于基于所述脑膜瘤训练数据训练U-net全卷积神经网络;
所述第二训练数据生成模块用于对骨盆肿瘤图像集中的绘制有肿瘤边界金标准的骨盆肿瘤图像进行预处理和数据扩增,得到骨盆肿瘤训练数据;
所述第二训练模块用于基于所述骨盆肿瘤训练数据对训练得到的U-net全卷积神经网络进行微调,得到最优U-net全卷积神经网络;
所述分割模块用于将采集到的骨盆肿瘤图像输入所述最优U-net全卷积神经网络,获取骨盆肿瘤分割结果;
所述预处理包括以下步骤:
对图像进行模态间配准;
对配准后的图像进行N4偏置场校正;
对校正后的图像进行灰度直方图匹配;
对匹配后的图像进行标准化处理,使得图像的灰度均值为0、方差为1;
所述脑膜瘤训练数据包括训练集、验证集和测试集;基于所述脑膜瘤训练数据训练U-net全卷积神经网络时,基于所述训练集和所述验证集在所述U-net全卷积神经网络上的准确率,调整网络超参数以获取训练得到的U-net全卷积神经网络;基于所述测试集获取所述训练得到的U-net全卷积神经网络的准确率;
所述骨盆肿瘤训练数据包括训练集、验证集和测试集;基于所述骨盆肿瘤训练数据对训练得到的U-net全卷积神经网络进行微调时,基于所述训练集和所述验证集在所述训练得到的U-net全卷积神经网络上的准确率,调整网络超参数以获取最优U-net全卷积神经网络;基于所述测试集获取所述最优U-net全卷积神经网络的准确率;
根据
Figure FDA0003457975380000031
计算所述准确率,其中S1表示基于U-net全卷积神经网络得到的分割结果,S2表示分割金标准;|S1∩S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;|S1|+|S2|表示基于U-net全卷积神经网络得到的分割结果与分割金标准的区域综合;TP表示基于U-net全卷积神经网络得到的分割结果与分割金标准的重叠区域;FP表示仅出现在分割金标准中的区域,FN表示仅出现在基于U-net全卷积神经网络得到的分割结果中的区域。
5.一种存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至3中任一项所述的全自动骨盆肿瘤分割方法。
6.一种终端,其特征在于,包括:处理器及存储器;
所述存储器用于存储计算机程序,所述处理器用于执行所述存储器存储的计算机程序,以使所述终端执行权利要求1至3中任一项所述的全自动骨盆肿瘤分割方法。
CN201810941726.3A 2018-08-17 2018-08-17 一种全自动骨盆肿瘤分割方法及系统、存储介质及终端 Active CN109215041B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810941726.3A CN109215041B (zh) 2018-08-17 2018-08-17 一种全自动骨盆肿瘤分割方法及系统、存储介质及终端

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810941726.3A CN109215041B (zh) 2018-08-17 2018-08-17 一种全自动骨盆肿瘤分割方法及系统、存储介质及终端

Publications (2)

Publication Number Publication Date
CN109215041A CN109215041A (zh) 2019-01-15
CN109215041B true CN109215041B (zh) 2022-06-17

Family

ID=64989206

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810941726.3A Active CN109215041B (zh) 2018-08-17 2018-08-17 一种全自动骨盆肿瘤分割方法及系统、存储介质及终端

Country Status (1)

Country Link
CN (1) CN109215041B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110148195B (zh) * 2019-05-22 2023-05-05 山东颐邦齐鲁医生集团管理有限公司 一种磁共振图像生成方法、系统、终端及存储介质
CN110415244A (zh) * 2019-08-02 2019-11-05 陈晋音 判断骨骼状态的方法及其模型训练方法、装置
CN113139964A (zh) * 2020-01-20 2021-07-20 上海微创医疗器械(集团)有限公司 多模态图像分割方法、装置、电子设备和存储介质
CN113139970A (zh) * 2020-01-20 2021-07-20 上海微创医疗器械(集团)有限公司 多模态图像分割方法、装置、电子设备和存储介质
CN112489047B (zh) * 2021-02-05 2021-06-01 四川大学 一种基于深度学习的盆骨及其动脉血管的多层级分割方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016681A (zh) * 2017-03-29 2017-08-04 浙江师范大学 基于全卷积网络的脑部mri肿瘤分割方法
CN107220980A (zh) * 2017-05-25 2017-09-29 重庆理工大学 一种基于全卷积网络的mri图像脑肿瘤自动分割方法
CN107657602A (zh) * 2017-08-09 2018-02-02 武汉科技大学 基于两次迁移卷积神经网络的乳腺结构紊乱识别方法
CN107909621A (zh) * 2017-11-16 2018-04-13 深圳市唯特视科技有限公司 一种基于双生成对抗网络的医学图像合成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107016681A (zh) * 2017-03-29 2017-08-04 浙江师范大学 基于全卷积网络的脑部mri肿瘤分割方法
CN107220980A (zh) * 2017-05-25 2017-09-29 重庆理工大学 一种基于全卷积网络的mri图像脑肿瘤自动分割方法
CN107657602A (zh) * 2017-08-09 2018-02-02 武汉科技大学 基于两次迁移卷积神经网络的乳腺结构紊乱识别方法
CN107909621A (zh) * 2017-11-16 2018-04-13 深圳市唯特视科技有限公司 一种基于双生成对抗网络的医学图像合成方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
""U-Net: Convolutional Networks for Biomedical Image Segmentation"";Olaf Ronneb erger .etc.;《arXiv:1505.04597v1 [cs.CV]》;20150518;论文全文 *

Also Published As

Publication number Publication date
CN109215041A (zh) 2019-01-15

Similar Documents

Publication Publication Date Title
CN109215041B (zh) 一种全自动骨盆肿瘤分割方法及系统、存储介质及终端
US11944463B2 (en) Pseudo-CT generation from MR data using a feature regression model
US10664723B2 (en) Pseudo-CT generation from MR data using tissue parameter estimation
CN111488914B (zh) 一种基于多任务学习的阿尔茨海默症分类及预测系统
CN111291825B (zh) 病灶分类模型训练方法、装置、计算机设备和存储介质
AU2015221826B2 (en) System and method for auto-contouring in adaptive radiotherapy
CN110246580B (zh) 基于神经网络和随机森林的颅侧面影像分析方法和系统
CN112348785B (zh) 一种癫痫病灶定位方法及系统
CN111080658A (zh) 基于可形变配准和dcnn的宫颈mri图像分割方法
CN111105421A (zh) 一种脑白质高信号分割方法、装置、设备及存储介质
CN112750137A (zh) 基于深度学习的肝脏肿瘤分割方法及系统
CN116468655A (zh) 基于胎儿磁共振成像的脑发育图谱与影像处理系统
CN110458869B (zh) 一种新生儿磁共振结构脑影像的配准方法及其系统
CN108596900B (zh) 甲状腺相关性眼病医学影像数据处理装置、方法、计算机可读存储介质及终端设备
CN116168097A (zh) 构建cbct勾画模型和勾画cbct图像的方法、装置、设备及介质
US20220139003A1 (en) Methods and apparatus for mri reconstruction and data acquisition
CN111126424A (zh) 一种基于卷积神经网络的超声图像分类方法
CN112070742A (zh) 基于自适应感受野3d空间注意力的脑影像分类装置
Zhu et al. Label fusion for segmentation via patch based on local weighted voting
CN115984297A (zh) 构建mri勾画模型和mri图像勾画处理的方法及装置
Vasamsetti et al. Feature extraction through Wavelet decomposition for automatic detection of landmarks on Cephalogram Images
CN116309484A (zh) 一种智慧医疗医学影像识别方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant