CN114926487A - 多模态影像脑胶质瘤靶区分割方法、系统及设备 - Google Patents

多模态影像脑胶质瘤靶区分割方法、系统及设备 Download PDF

Info

Publication number
CN114926487A
CN114926487A CN202210550215.5A CN202210550215A CN114926487A CN 114926487 A CN114926487 A CN 114926487A CN 202210550215 A CN202210550215 A CN 202210550215A CN 114926487 A CN114926487 A CN 114926487A
Authority
CN
China
Prior art keywords
image
enhanced
mri
segmentation
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210550215.5A
Other languages
English (en)
Inventor
田素青
刘应龙
贺树萌
赵紫婷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Lianying Intelligent Imaging Technology Research Institute
Peking University Third Hospital Peking University Third Clinical Medical College
Shenzhen United Imaging Research Institute of Innovative Medical Equipment
Original Assignee
Beijing Lianying Intelligent Imaging Technology Research Institute
Peking University Third Hospital Peking University Third Clinical Medical College
Shenzhen United Imaging Research Institute of Innovative Medical Equipment
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Lianying Intelligent Imaging Technology Research Institute, Peking University Third Hospital Peking University Third Clinical Medical College, Shenzhen United Imaging Research Institute of Innovative Medical Equipment filed Critical Beijing Lianying Intelligent Imaging Technology Research Institute
Priority to CN202210550215.5A priority Critical patent/CN114926487A/zh
Publication of CN114926487A publication Critical patent/CN114926487A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Urology & Nephrology (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明涉及一种分割方法、系统和设备,其中,分割方法包括以下步骤:获取经组织学证实为高级胶质母细胞瘤的病例,每个病例包含一例非增强CT图像和MRI图像;将所有病例的所述MRI图像与所述非增强CT图像进行刚性配准,得到非增强CT图像‑MRI图像数据对;对所述非增强CT图像‑MRI图像数据对进行去颅骨操作,获得去颅骨图像;根据预设公式对所述去颅骨图像进行预处理,得到训练样本数据;根据所述训练样本数据构建网络分割模型。通过本发明的技术方案,能够不需要人工提取特征或设定参数就可自动输出靶区以及危及器官的分割结果。

Description

多模态影像脑胶质瘤靶区分割方法、系统及设备
技术领域
本发明涉及图像处理技术领域,尤其涉及一种多模态影像脑胶质瘤靶区分割方法和系统及设备。
背景技术
肿瘤放射治疗是目前三大肿瘤治疗技术之一。恶性肿瘤精确放疗依赖于计算机断层扫描成像(CT)、核磁共振成像(MRI)、正电子发射断层扫描成像(PET)、锥形束计算机断层扫描成像(CBCT)技术和相应的医学图像信息智能处理技术。肿瘤放疗靶区、或大体肿瘤区(GTV)的高精度勾画是成功实施精确放疗的前提和关键技术。目前基于肿瘤CT、MRI、PET和CBCT影像信息的放疗靶区自动勾画技术还不能满足临床放疗要求。临床上主要依靠临床放疗医生手工勾画肿瘤GTV,不仅效率低,而且主观性强,导致勾画结果不精确,影响放射治疗计划的精确性和治疗的疗效。
发明内容
本发明旨在至少解决现有技术或相关技术中存在的技术问题之一。
为此,本发明的目的在于提供一种多模态影像脑胶质瘤靶区分割方法、系统和设备,其能够不需要人工提取特征或设定参数就可自动输出靶区以及危及器官的分割结果。
为实现上述目的,本发明第一方面的技术方案提供了一种多模态影像脑胶质瘤靶区分割方法,包括以下步骤:
获取经组织学证实为高级胶质母细胞瘤的病例,每个病例包含一例非增强CT图像和MRI图像;每个非增强CT图像包括原发肿瘤靶区以及由原发肿瘤靶区外扩形成的临床靶区,每个MRI图像包括T1C图像和T2-FLAIR图像;
将所有病例的MRI图像与非增强CT图像进行刚性配准,得到非增强CT图像-MRI图像数据对;
对非增强CT图像-MRI图像数据对进行去颅骨操作,获得去颅骨图像;
根据预设公式对去颅骨图像进行预处理,得到训练样本数据,训练样本数据分为三组数据对分别作为训练集、验证集和测试集;
根据训练样本数据构建网络分割模型,其中,训练集用于构建网络分割模型,验证集用于优化网络分割模型的超参数,测试集用于测试优化后的网络分割模型的性能。
在上述技术方案中,优选地,还包括以下步骤:
根据非增强CT图像-MRI图像数据对中MRI图像上靶区形态与特征在非增强CT图像上进行手动勾画,得到手动勾画图像;
根据预设评估公式评估网络分割模型输出的分割图像与手动勾画图像的一致性;
其中,预设评估公式为:
临床靶区与人工勾画的临床靶区之间的Dice相似系数DSC,表达式为:DSC=2|P∩G|/(|P|+|G|),P是自动分割的各个临床靶区轮廓,G是人工勾画的各个临床靶区轮廓;
95%Hausdorff距离,即95HD,95HD被定义为:
Figure BDA0003654727000000031
P:自动分割的各个靶区轮廓;G:人工勾画的各个靶区轮廓;p:P中的任意一个体素;g:G中的任意一个体素;d(p,g):p和g两点的欧氏距离;dPG:点集P到点集G的单向豪斯多夫距离;dGP:点集G到点集P的单向豪斯多夫距离。
在上述技术方案中,优选地,根据预设公式对去颅骨图像进行预处理,包括以下步骤:
根据阈值为(0.5%,99.5%)对将所有病例的T1C图像和T2-FLAIR图像均与非增强CT图像进行裁剪,得到裁剪图像;
根据三阶样条插值算法和最邻近插值算法对裁剪图像中的体素间距插值到中间体素间距,得到插值图像;
根据插值图像进行Z-score归一化处理。
在上述技术方案中,优选地,三阶样条插值算法的表达式为:
Figure BDA0003654727000000032
S(xi)=yi i=0,1,…,n;
共n个区间S0~Sn-1,n+1个节点,a、b、c、d四个系数、每个系数都有n组,所以方程组共有4n个系数;所述最邻近插值算法的表达式为:I'(x,y)=I([x/a],[y/a])
I’为插值后图像,I为插值前图像,(x,y)为像素坐标,a为放大率,方括号为取整操作;
所述Z-score归一化的表达式为:
Figure BDA0003654727000000041
x表示原始数据,μ表示原始数据的平均值,σ表示原始数据的标准差,xnormalization表示归一化后的数据。
在上述技术方案中,优选地,网络分割模型的表达式为:
损失函数L=α1Ldice1LCE
Figure BDA0003654727000000042
Figure BDA0003654727000000043
其中,LCE表示为交叉熵损失,Ldice表示为Dice loss L_dice,C是被分割的目标类别数量,N是训练时每个patch中的体素数量,
Figure BDA0003654727000000044
Figure BDA0003654727000000045
分别是人工勾画和模型预测勾画中第k个类别的第i个体素。
在上述技术方案中,优选地,根据训练样本数据构建网络分割模型是基于深度3DCNN网络构建而成,深度3D CNN网络为基于一个5层编码器-解码器的3D U-Net,具体包括以下步骤:
每层编码器采用两组卷积核为3×3×3的卷积层来提取非增强CT图像-MRI图像数据对的配准图像特征;
每个卷积层采用dropout为0.5的实例归一化函数和负斜率为1e-2的激活函数处理配准图像特征;
使用2×2×2最大池对每个编码器中的配准图像特征进行下采样;
采用2×2×2反卷积核对每个解码器中的配准图像特征进行上采样;
整个模型中的每个编码器的输出特征图通过跳跃连接与相应解码器的输入特征图连接。
在上述技术方案中,优选地,
实例归一化函数的表达式为:
Figure BDA0003654727000000051
xi为输入的配准图像特征,y为输出参数;γ为比例因子,μ为均值,σ为标准差,β为修正因子;
激活函数的表达式为:f(x)=max(ax,x),x:激活函数对应的卷积层输入,α为预设的参数。
本发明第二方面的技术方案提供了一种多模态影像脑胶质瘤靶区分割系统,包括:获取模块,被设置为用于获取经组织学证实为高级胶质母细胞瘤的病例,每个病例包含一例非增强CT图像和MRI图像;每个非增强CT图像包括原发肿瘤靶区以及由原发肿瘤靶区外扩形成的临床靶区,每个MRI图像包括T1C图像和T2-FLAIR图像;配准模块,被设置为用于将所有病例的MRI图像与非增强CT图像进行刚性配准,得到非增强CT图像-MRI图像数据对;去颅骨处理模块,被设置为用于根据基于深度学习的用于全脑组织的自动分割模型对非增强CT图像-MRI图像数据对进行去颅骨操作,获得去颅骨图像;网络分割模型构建模块,被设置为用于根据预设公式对去颅骨图像进行预处理,得到训练样本数据,训练样本数据分为三组数据对分别作为训练集、验证集和测试集;根据训练样本数据构建网络分割模型,其中,训练集用于构建网络分割模型,验证集用于优化网络分割模型的超参数,测试集用于测试优化后的网络分割模型的性能;手动勾画模块,被设置为用于通过输入设备在非增强CT图像-MRI图像数据对中MRI图像上靶区形态与特征在非增强CT图像上进行手动勾画,得到手动勾画图像;质量评估模块,被设置为用于根据预设评估公式评估网络分割模型输出的分割图像与手动勾画图像的一致性。
本发明第三方面的技术方案提供了一种计算机设备,包括存储介质和处理器;存储介质,用于存储计算机程序;处理器,用于执行计算机程序以实现上述第一方面的技术方案提供的多模态影像脑胶质瘤靶区分割方法的步骤。
本发明提供的多模态影像脑胶质瘤靶区分割方法、系统和设备与现有技术相比的优点在于:通过改进现有的3D U-Net,并且使用多模态图像自动分割脑胶质瘤的GTV、CTV1和CTV2。我们的结果表明,使用多模态图像对脑胶质瘤的分割性能明显优于仅使用单模态图像CT(DSC:GTV 0.94±0.01&0.79±0.04,CTV1 0.91±0.04&0.73±0.07,CTV2 0.90±0.04&0.67±0.84);并且自动勾画的GTV(1.16%),CTV1(5.61%)和CTV2(5.35%)的平均绝对体积误差均低于10%。我们的结果也表明,基于深度学习方法在多模态医学图像上自动分割脑胶质瘤肿瘤靶区对放射治疗工作流程中缩短肿瘤勾画时间非常有潜力。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1示出了本发明一个实施例所涉及方法的流程框图;
图2示出了本发明另一个实施例所涉及方法的流程框图;
图3示出了本发明实施例所涉及步骤S3的流程框图;
图4示出了本发明实施例所涉及网络分割模型的网络结构框图;
图5示出了本发明实施例所涉及系统的结构框图;
图6示出了本发明实施例所涉及GTV的体积绝对误差率统计图;
图7示出了本发明实施例所涉及CTV1的体积绝对误差率统计图;
图8示出了本发明实施例所涉及CTV2的体积绝对误差率统计图;
图9示出了本发明实施例所涉及自动勾画结果与人工勾画对比图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不限于下面公开的具体实施例的限制。
如图1至图4、图6至图9所示,按照本发明一个实施例的多模态影像脑胶质瘤靶区分割方法,包括以下步骤:
S1,获取经组织学证实为高级胶质母细胞瘤(HGG)的病例,每个病例包含一例非增强CT图像和MRI图像;每个非增强CT图像包括原发肿瘤靶区以及由原发肿瘤靶区外扩形成的临床靶区,每个MRI图像包括T1C图像和T2-FLAIR图像;
在该步骤中,每例非增强CT图像包含HGG的原发肿瘤靶区(GTV)及其相应的临床靶区(由GTV外扩0.5mm所得CTV1,由GTV外扩2cm所得CTV2)的标注(Label)。所有病例的影像数据的属性见表1。
表1数据集属性
Figure BDA0003654727000000081
其中,T1C为“CE-TWI”,即对比增强T1加权图像(contrast-enhanced T1 WeightedImaging,CE-T1WI);T2-FLAIR为“T1WI-FLAIR”,T2加权液体衰减反转恢复序列(T2-weighted-Fluid-Attenuated Inversion Recovery,T2WI-FLAIR)。
主要对比度决定于组织间或组织状态间T1差别的磁共振图像。采用短TR(<500ms)和短TE(<25ms)的扫描序列来取得。取短TR进行扫描时,脂肪等短T1组织尚可充分弛豫,而脑脊液等长T1组织在给定TR时间内的弛豫量相对较少。因此,它们在下个RF脉冲出现时对能量的吸收程度也就不同:短T1组织因吸收能量多而显示强信号,长T1组织则因饱和而不能吸收太多的能量,进而表现出低信号。组织间信号强度的这种变化必然使图像的T1对比度得到增强。
MRI图像若主要反映的是组织间T1值差别,为T1加权像(T1weighted image,T1WI)。
MRI图像具有多个成像参数与CT检查的单一密度参数成像不同,MRI检查有多个成像参数的特点,即有反映T1弛豫时间的T1值、反映T2弛豫时间的T2值和反映质子密度的弛豫时间值等。MRI图像若主要反映的是组织间T1值差别,为T1加权像(T1weighted image,T1WI);如主要反映的是组织间T2值差别,为T2加权像(T2weighted image,T2WI);如主要反映的是组织问质子密度弛豫时间差别,为质子密度加权像(proton density weightedimage,PdWI)。人体不同组织及其病变具有不同的T1、T2值和质子密度弛豫时间,因此,在T1WI、T2WI和PdWI像上产生不同的信号强度,具体表现为不同的灰度。MRI检查就是根据这些灰度变化进行疾病诊断的。因此,组织间以及组织与病变间弛豫时间的差别,是磁共振成像诊断的基础。一般而言,组织信号越强,图像上相应部分就越亮;组织信号越弱,图像上相应部分就越暗。但应注意,在T1wI和T2wl图像上,弛豫时间T1值和T2值的长短与信号强度的高低之间的关系有所不同:短的T1值(简称为短T1)呈高信号,例如脂肪组织;长的T1值(简称长T1)为低信号,例如脑脊液;短的T2值(简称短T2)为低信号,例如骨皮质;长的T2值(简称长T2)为高信号,例如脑脊液。
S2,将所有病例的MRI图像与非增强CT图像进行刚性配准,得到非增强CT图像-MRI图像数据对;
在该步骤中,刚性配准是多模态图像配准,例如同一部位扫描的CT和MRI的配准;或单模态多时相配准,例如不同时相的CT图像增强的配准。
S3,根据基于深度学习的用于全脑组织的自动分割模型对非增强CT图像-MRI图像数据对进行去颅骨操作,获得去颅骨图像;
这里的自动分割颅骨的模型是我们自己基于深度学习训练的,和自动分割胶质瘤肿瘤的模型一样。自动分割模型是一个经典的编码-解码(encoder-decoder)结构:该分割模型包含若干个(比喻5个)编码器和相同个数的解码器,每个编码器和对应的解码器通过跳跃连接(Skip-connection)实现特征他融合。
每个编码器包含3个模块(block),第一个模块依次是3X3X3的卷积层(Convolutional layer),dropout为0.5的实力归一化层(Instance normalization)和LeakyReLU(负斜率)激活函数;第二个block和第一个block一样;第三个block为2X2X2的最大池化层(Max-pooling)。
每个解码器也包含3各模块,前两个模块和对应的编码器一样,第三个模块是2X2X2的反卷积层((Deconvolutional layer)。
S4,根据预设公式对去颅骨图像进行预处理,得到训练样本数据,训练样本数据分为三组数据对分别作为训练集、验证集和测试集;
S5,根据训练样本数据构建网络分割模型,其中,训练集用于构建网络分割模型,验证集用于优化网络分割模型的超参数,测试集用于测试优化后的网络分割模型的性能。
在该实施例中,通过改进现有的3D U-Net,并且使用多模态图像自动分割脑胶质瘤的GTV、CTV1和CTV2。我们的结果表明,使用多模态图像对脑胶质瘤的分割性能明显优于仅使用单模态图像CT(DSC:GTV0.94±0.01&0.79±0.04,CTV1 0.91±0.04&0.73±0.07,CTV2 0.90±0.04&0.67±0.84);并且自动勾画的GTV(1.16%),CTV1(5.61%)和CTV2(5.35%)的平均绝对体积误差均低于10%。我们的结果也表明,基于深度学习方法在多模态医学图像上自动分割脑胶质瘤肿瘤靶区对放射治疗工作流程中缩短肿瘤勾画时间非常有潜力。
在上述实施例中,优选地,如图2所示,还包括以下步骤:
S6,根据非增强CT图像-MRI图像数据对中MRI图像上靶区形态与特征在非增强CT图像上进行手动勾画,得到手动勾画图像;
在该步骤中,所有的HGG病例的标注(GTV、CVT1和CVT2)是通过将MRI与对应的非增强CT图像刚性配准后,由两位经验丰富的医生根据RTOG共识:简单来说,CTV1由GTV外扩0.5mm所得,CTV2由GTV外扩2cm所得,当然所有的外扩须综合考虑肿瘤与其周围危及器官的情况。然后参考MRI图像上靶区形态与特征在非增强CT图像上手动勾画完成,然后两位医生交叉修改对方手动勾画,最后由主任医师完成手动勾画的评估。
S7,根据预设评估公式评估网络分割模型输出的分割图像与手动勾画图像的一致性;
该方法分别计算了模型自动分割的临床靶区(CTV1和CTV2)与人工勾画的临床靶区之间的Dice相似系数(Dice similar coefficient,DSC)、95%Hausdorff距离(Hausdorff distance,HD95)和平均表面距离(Average surface distance,ASD),这些指标作为定量评估模型分割的准确性。DSC是测量自动分割的轮廓和人工勾画的轮廓之间的空间重叠,衡量他们一致性的相似度,其被定义为:
其中,预设评估公式为:
临床靶区与人工勾画的临床靶区之间的Dice相似系数DSC,表达式为:DSC=2|P∩G|/(|P|+|G|),P是自动分割的各个临床靶区轮廓,G是人工勾画的各个临床靶区轮廓;
DSC对分割轮廓的内部填充更敏感,而Hausdorff距离(HD)对分割轮廓的边界更敏感。虽然95HD与最大HD相似,但是它是基于P和G中边界点之间距离的第95个百分位数的计算,使用此指标的目的是消除极小部分异常值的影响。
95%Hausdorff距离(95HD)被定义为:
Figure BDA0003654727000000121
P:自动分割的各个靶区轮廓;G:人工勾画的各个靶区轮廓;p:P中的任意一个体素;g:G中的任意一个体素;d(p,g):p和g两点的欧氏距离;dPG:点集P到点集G的单向豪斯多夫距离;dGP:点集G到点集P的单向豪斯多夫距离。
在该实施例中,从原始数据(所有病例的非增强CT图像和MRI图像)对中裁剪出32×256×256的图像块作为我们修改后的3D U-Net的输入图像,网络输入的batch size为2,优化器为RMSprop,初始学习率为0.001,梯度下降策略为随机梯度下降(SGD,动量为0.9),最大训练轮次(epochs)为150。我们对每个patch中每个类的分割结果进行高斯融合,得到全分辨率分割结果,并通过最大连通分域对每个类的全分辨率分割结果进行后处理。
在上述任一实施例中,优选地,如图3所示,S3,根据预设公式对去颅骨图像进行预处理,包括以下步骤:
S31,根据阈值为(0.5%,99.5%)对将所有病例的T1C图像和T2-FLAIR图像均与非增强CT图像进行裁剪,得到裁剪图像;
在该步骤中,为了减小模型输入数据的尺寸,进而减少模型的计算负载,我们对原始非增强CT图像和MRI图像的背景进行裁剪;
为了使分割网络能够更好地学习空间语义信息,采用步骤S32,即根据三阶样条插值算法和邻近插值算法对裁剪图像中的体素间距插值到中间体素间距,得到插值图像;
S33,根据插值图像进行Z-score归一化处理。
在该实施例中,为了克服小样本数据训练一个深度学习模型而导致的过拟合问题,本方法还可采用一些实时的数据增强技术,如随机翻转,随机缩放,随机弹性形变,Gamma调节和镜像等,来增加数据的多样性。
在上述任一实施例中,优选地,三阶样条插值算法的表达式为:
Figure BDA0003654727000000141
S(xi)=yi i=0,1,…,n;
共n个区间S0~Sn-1,n+1个节点,a、b、c、d四个系数、每个系数都有n组,所以方程组共有4n个系数;最邻近插值算法的表达式为:I'(x,y)=I([x/a],[y/a])
I’为插值后图像,I为插值前图像,(x,y)为像素坐标,a为放大率,方括号为取整操作;
Z-Score方法基于原始数据的均值(mean)和标准差(standard deviation)来进行数据的标准化,处理后的数据均值为0,方差为1,符合标准正态分布,且无量纲。其主要目的是将不同量级的数据统一化为同一个量级,统一用计算出的Z-Score值衡量,保证了数据间具有可比性。所述Z-score归一化的表达式为:
Figure BDA0003654727000000142
x表示原始数据,μ表示原始数据的平均值,σ表示原始数据的标准差,xnormalization表示归一化后的数据。
在上述技术方案中,优选地,网络分割模型的表达式为:
损失函数L=α1Ldice1LCE
Figure BDA0003654727000000143
Figure BDA0003654727000000144
其中,LCE表示为交叉熵损失,Ldice表示为Dice loss L_dice,C是被分割的目标类别数量,N是训练时每个patch中的体素数量,
Figure BDA0003654727000000151
Figure BDA0003654727000000152
分别是人工勾画和模型预测勾画中第k个类别的第i个体素。
在上述任一实施例中,优选地,如图4所示,根据训练样本数据构建网络分割模型是基于深度3D CNN网络构建而成,深度3D CNN网络为基于一个5层编码器-解码器的3D U-Net,具体包括以下步骤:
每层编码器采用两组卷积核为3×3×3的卷积层来提取非增强CT图像-MRI图像数据对的配准图像特征;
每个卷积层采用dropout为0.5的实例归一化函数和负斜率为1e-2的激活函数处理配准图像特征;
使用2×2×2最大池对每个编码器中的配准图像特征进行下采样;
采用2×2×2反卷积核对每个解码器中的配准图像特征进行上采样;
整个模型中的每个编码器的输出特征图通过跳跃连接与相应解码器的输入特征图连接。
在该实施例中,U-Net是一种流行的编码器-解码器(Encoder-Decoder)网络,已广泛应用于图像分割领域。它的编码器部分的工作方式类似于传统的卷积神经网络(Convolutional Neural Network,CNN),以空间信息为代价连续聚合语义信息。它的解码器从编码器的底层接收语义信息,将这些语义信息恢复为更高分辨率的特征图(Featuremaps),并且将这些特征图通过跳跃连接(Skip-connection)直接与对应的编码器重新组合,以恢复编码器中丢失的空间信息。
由于3D CNN在聚合3D医学图像中上下文的有价值信息方面表现出很高的有效性,因此我们采用深度3D CNN网络来构建我们的分割模型。在该模型中,采用dropout为0.5的实例归一化函数和负斜率为1e-2的激活函数处理配准图像特征,分别取代了目前深度学习模型中更常见的ReLU激活函数和Batch归一化(Batch normalization)。
与ReLU相比,Leaky ReLU主要是为了避免梯度消失,当神经元处于非激活状态时,允许一个非0的梯度存在,这样不会出现梯度消失,收敛速度快。
2)批归一化(Batch normalization,BN)和实例归一化(InstanceNormalization,IN)其实本质上是同一个东西,只是IN是作用于单张图片(对单个图片的所有像素求均值和标准差),但是BN作用于一个batch(对一个batch里所有的图片的所有像素求均值和标准差)。实验结果表明,当替换批次归一化时,实例归一化在样式迁移方面表现良好。最近实例归一化也已被用来代替GAN中的批次归一化。这里采用实例归一化,考虑到每个医学图像的特异性,保留每个图像的数据属性。
在上述任一实施例中,优选地,
实例归一化函数的表达式为:
Figure BDA0003654727000000161
xi为输入的配准图像特征,y为输出参数;γ为比例因子,μ为均值,σ为标准差,β为修正因子;
激活函数的表达式为:f(x)=max(ax,x),x:激活函数对应的卷积层输入,α为预设的参数。
如图1至图9所示,按照本发明另一个实施例的多模态影像脑胶质瘤靶区分割系统100,包括:
获取模块10,被设置为用于获取经组织学证实为高级胶质母细胞瘤的病例,每个病例包含一例非增强CT图像和MRI图像;每个非增强CT图像包括原发肿瘤靶区以及由原发肿瘤靶区外扩形成的临床靶区,每个MRI图像包括T1C图像和T2-FLAIR图像;
配准模块20,被设置为用于将所有病例的MRI图像与非增强CT图像进行刚性配准,得到非增强CT图像-MRI图像数据对;
去颅骨处理模块30,被设置为用于根据基于深度学习的用于全脑组织的自动分割模型对非增强CT图像-MRI图像数据对进行去颅骨操作,获得去颅骨图像;
网络分割模型构建模块40,被设置为用于根据预设公式对去颅骨图像进行预处理,得到训练样本数据,训练样本数据分为三组数据对分别作为训练集、验证集和测试集;根据训练样本数据构建网络分割模型,其中,训练集用于构建网络分割模型,验证集用于优化网络分割模型的超参数,测试集用于测试优化后的网络分割模型的性能;
手动勾画模块50,被设置为用于通过输入设备在非增强CT图像-MRI图像数据对中MRI图像上靶区形态与特征在非增强CT图像上进行手动勾画,得到手动勾画图像;
质量评估模块60,被设置为用于根据预设评估公式评估网络分割模型输出的分割图像与手动勾画图像的一致性。
统计分析
计算测试集上测试样本的DSC,95HD的均值±标准误差,用于评估自动勾画轮廓与手动勾画轮廓之间的一致性。为了评估不同多模态图的分割性能与仅CT模态下分割性能的相关性,使用配对t检验分别统计分析两者在测试集上DSC和HD95的相关性,P<0.05表示两者间有统计学上显著性差异水平。另外,统计分析测试集上GTV,CTV1和CTV2的自动分割体积与手动分割体积的绝对误差率,用于比较不同数据集上自动分割方法之间的性能。所有分析均使用统计产品和服务解决方案(IBM SPSS,21.0版)完成。
实验结果
为了探究本文提出多模态分割方法对GTV,CVT1和CVT2自动分割的有效性,本文设计了4组不同的方法用于训练和测试同一分割网络:
1、CT,仅用单模态图像CT训练和测试本文中的分割网络;
2、CT-T1C,使用双模态图像(CT和T1C)训练和测试本文中的分割网络;
3、CT-T2-FLAIR,使用双模态图像(CT和T2-FLAIR)训练和测试本文中的分割网络;
4、CT-MRIs,使用三种模态图像(CT,T1C和T2-FLAI)训练和测试本文中的分割网络;
自动勾画性能评估
表2为GTV,CTV1和CTV2在4组数据集中相同测试集上的测试结果(DSC,HD95)的统计分析:均值±标准误差,P值(数据集CT分别与数据集CT-T1C,CT-T2-FLAIR和CT-MRIs的相关性分析)。
表2不同数据集上GTV,CTV1和CTV2的测试结果
Figure BDA0003654727000000191
根据表2可以看出,1)对于GTV的自动勾画,相较于方法CT上的DSC(0.79±0.04)和HD95(12.33±5.32),模型在方法CT-T2-FLAIR上的DSC(0.85±0.03)和HD95(7.46±1.35)的提升并不明显,在统计学上均无显著性差异(P>0.05);模型在方法CT-T1C上的DSC(0.93±0.01)和HD95(2.16±0.35)有非常显著的提升,在统计学上均表现出显著性差异(P<0.05);模型在方法CT-MRIs上的DSC(0.94±0.01)和HD95(2.09±0.26)在四种方法中取得最好的分割结果,在统计学上均表现出显著性差异(P<0.05)。2)对于CTV1的自动勾画,相较于方法CT上的DSC(0.73±0.07)和HD95(17.67±7.80),模型在方法CT-T1C上的DSC(0.76±0.08)和HD95(14.03±6.51)的提升并不明显,在统计学上均无显著性差异(P>0.05);模型在方法CT-T2-FLAIR上的DSC(0.90±0.04)和HD95(3.70±1.10)有非常显著的提升,其中DSC在统计学上表现出显著性差异(P<0.05);模型在方法CT-MRIs上的DSC(0.91±0.04)和HD95(2.40±1.16)在四种方法中取得最好的分割结果,但是在统计学上均无显著性差异(P>0.05)。3)对于CTV2的自动勾画,相较于方法CT上的DSC(0.67±0.84)和HD95(22.80±9.66),模型在方法CT-T1C上的DSC(0.73±0.07)和HD95(21.24±10.58)的提升并不明显,在统计学上均无显著性差异(P>0.05);模型在方法CT-T2-FLAIR上的DSC(0.90±0.04)和HD95(2.88±1.13)有非常显著的提升,其中DSC在统计学上表现出显著性差异(P<0.05),并且在四种方法中取得最好的分割结果;模型在方法CT-MRIs上的DSC(0.90±0.03)和HD95(3.78±1.05)有明显的提升,其中DSC在统计学上表现出显著性差异(P<0.05)。
自动勾画靶区体积的评估
为了进一步评估我们的自动分割方法,我们计算相同测试集上四种方法分割出的GTV,CTV1和CTV2的体积与人工勾画的靶区体积绝对误差率,结果统计如图6至图8所示。对于GTV,方法CT-MRIs取得最小的平均绝对误差率(1.16%);对于CTV1,方法CT-T2-FLAIR取得最小的平均绝对误差率(3.25%),略优于方法CT-T2-FLAIR(3.61%);对于CTV2,方法CT-T2-FLAIR取得最小的平均绝对误差率(5.18%),略优于方法CT-T2-FLAIR(5.35%).
基于多模态图像的自动勾画结果可视化
图9对比了方法CT-MRIs自动分割勾画的结果(GTV,CTV1和CTV2)与人工勾画。对比两者的GTV,自动勾画主要在上下界(图9b,图9g)会分别多勾画一层;对比两者的CTV1,自动勾画与人工勾画一致性非常好;对比CTV2,自动勾画部分层没有有效的“避开”脑干(图9a,图9b)和眼球(图9e)等器官。
一方面,虽然我们当前实验中的测试样本仅有5组,对于小测试样本中取得较好的自动分割结果仍需进一步验证,但是我们有理由相信将来提高训练和测试样本量,这种基于深度学习的多模态图像自动分割方法仍然又进一步提高分割结果的可能。数据集的大小是决定深度学习水平的重要参数之一。如果数据集很小,网络的参数数量很大,可能会导致过拟合。在我们将来的实验中,当训练和测试样本的数量增加时,自动分割结果可能会变得更加可靠。另一方面,脑内有些脑组织的形态特征,如脑干区域,与T2-FLAIR序列中脑胶质瘤的临床靶区(CTV2)非常相似,这可能导致少数脑组织通常被我们的网络分割为临床靶区(CTV2),这对于脑胶质瘤的自动分割来说是一项具有挑战性的任务。因此,我们计划通过增加样本量来克服这些问题,并在未来的工作中开发一个能提高脑胶质瘤放疗质量和效率的自动勾画工具。
基于上述如图1所示方法,相应的,本申请实施例还提供了一种可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一实施例的多模态影像脑胶质瘤靶区分割方法的步骤。
基于这样的理解,本申请的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施场景的方法。
基于上述如图1所示的方法,以及图2所示的虚拟装置实施例,为了实现上述目的,本申请实施例还提供了一种计算机设备,包括存储介质和处理器;存储介质,用于存储计算机程序;处理器,用于执行计算机程序以实现上述任一实施例的多模态影像脑胶质瘤靶区分割方法的步骤。
可选地,该计算机设备还可以包括用户接口、网络接口、摄像头、射频(RadioFrequency,RF)电路,传感器、音频电路、WI-FI模块等等。用户接口可以包括显示屏(Display)、输入单元比如键盘(Keyboard)等,可选用户接口还可以包括USB接口、读卡器接口等。网络接口可选的可以包括标准的有线接口、无线接口(如蓝牙接口、WI-FI接口)等。
本领域技术人员可以理解,本实施例提供的一种计算机设备结构并不构成对该计算机设备的限定,可以包括更多或更少的部件,或者组合某些部件,或者不同的部件布置。
存储介质中还可以包括操作系统、网络通信模块。操作系统是管理和保存计算机设备硬件和软件资源的程序,支持信息处理程序以及其它软件和/或程序的运行。网络通信模块用于实现存储介质内部各组件之间的通信,以及与该实体设备中其它硬件和软件之间通信。
在本发明中,术语“第一”、“第二”、“第三”仅用于描述的目的,而不能理解为指示或暗示相对重要性;术语“多个”则指两个或两个以上,除非另有明确的限定。术语“安装”、“相连”、“连接”、“固定”等术语均应做广义理解,例如,“连接”可以是固定连接,也可以是可拆卸连接,或一体地连接;“相连”可以是直接相连,也可以通过中间媒介间接相连。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
本发明的描述中,需要理解的是,术语“上”、“下”、“左”、“右”、“前”、“后”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或单元必须具有特定的方向、以特定的方位构造和操作,因此,不能理解为对本发明的限制。
在本说明书的描述中,术语“一个实施例”、“一些实施例”、“具体实施例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或实例。而且,描述的具体特征、结构、材料或特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种多模态影像脑胶质瘤靶区分割方法,其特征在于,包括以下步骤:
获取经组织学证实为高级胶质母细胞瘤的病例,每个病例包含一例非增强CT图像和MRI图像;每个所述非增强CT图像包括原发肿瘤靶区以及由所述原发肿瘤靶区外扩形成的临床靶区,每个所述MRI图像包括T1C图像和T2-FLAIR图像;
将所有病例的所述MRI图像与所述非增强CT图像进行刚性配准,得到非增强CT图像-MRI图像数据对;
对所述非增强CT图像-MRI图像数据对进行去颅骨操作,获得去颅骨图像;
根据预设公式对所述去颅骨图像进行预处理,得到训练样本数据,所述训练样本数据分为三组数据对分别作为训练集、验证集和测试集;
根据所述训练样本数据构建网络分割模型,其中,所述训练集用于构建所述网络分割模型,验证集用于优化所述网络分割模型的超参数,测试集用于测试优化后的所述网络分割模型的性能。
2.根据权利要求1所述的多模态影像脑胶质瘤靶区分割方法,其特征在于,还包括以下步骤:
根据所述非增强CT图像-MRI图像数据对中所述MRI图像上靶区形态与特征在所述非增强CT图像上进行手动勾画,得到手动勾画图像;
根据预设评估公式评估所述网络分割模型输出的分割图像与所述手动勾画图像的一致性;
其中,预设评估公式为:
临床靶区与人工勾画的临床靶区之间的Dice相似系数DSC,表达式为:DSC=2|P∩G|/(|P|+|G|),P是自动分割的各个临床靶区轮廓,G是人工勾画的各个临床靶区轮廓;
95%Hausdorff距离,即95HD,95HD被定义为:
Figure FDA0003654726990000021
P:自动分割的各个靶区轮廓;G:人工勾画的各个靶区轮廓;p:P中的任意一个体素;g:G中的任意一个体素;d(p,g):p和g两点的欧氏距离;dPG:点集P到点集G的单向豪斯多夫距离;dGP:点集G到点集P的单向豪斯多夫距离。
3.根据权利要求1或2所述的多模态影像脑胶质瘤靶区分割方法,其特征在于,根据预设公式对所述去颅骨图像进行预处理,包括以下步骤:
根据阈值为(0.5%,99.5%)对将所有病例的所述T1C图像和所述T2-FLAIR图像均与所述非增强CT图像进行裁剪,得到裁剪图像;
根据三阶样条插值算法和最邻近插值算法对所述裁剪图像中的体素间距插值到中间体素间距,得到插值图像;
根据所述插值图像进行Z-score归一化处理。
4.根据权利要求3所述的多模态影像脑胶质瘤靶区分割方法,其特征在于:
所述三阶样条插值算法的表达式为:
Figure FDA0003654726990000022
S(xi)=yi i=0,1,…,n;
共n个区间S0~Sn-1,n+1个节点,a、b、c、d四个系数、每个系数都有n组,所以方程组共有4n个系数;所述最邻近插值算法的表达式为:I'(x,y)=I([x/a],[y/a])
I’为插值后图像,I为插值前图像,(x,y)为像素坐标,a为放大率,方括号为取整操作;
所述Z-score归一化的表达式为:
Figure FDA0003654726990000031
x表示原始数据,μ表示原始数据的平均值,σ表示原始数据的标准差,xnormalization表示归一化后的数据。
5.根据权利要求1或2所述的多模态影像脑胶质瘤靶区分割方法,其特征在于,所述网络分割模型的表达式为:
损失函数L=α1Ldice1LCE
Figure FDA0003654726990000032
Figure FDA0003654726990000033
其中,LCE表示为交叉熵损失,Ldice表示为损失函数Dice loss L_dice,C是被分割的目标类别数量,N是训练时每个patch中的体素数量,
Figure FDA0003654726990000034
和Pi k分别是人工勾画和模型预测勾画中第k个类别的第i个体素。
6.根据权利要求1或2所述的多模态影像脑胶质瘤靶区分割方法,其特征在于,根据所述训练样本数据构建网络分割模型是基于深度3D CNN网络构建而成,深度3D CNN网络为基于一个5层编码器-解码器的3D U-Net,具体包括以下步骤:
每层所述编码器采用两组卷积核为3×3×3的卷积层来提取所述非增强CT图像-MRI图像数据对的配准图像特征;
每个卷积层采用dropout为0.5的实例归一化函数和负斜率为1e-2的激活函数处理所述配准图像特征;
使用2×2×2最大池对每个编码器中的所述配准图像特征进行下采样;
采用2×2×2反卷积核对每个解码器中的所述配准图像特征进行上采样;
整个模型中的每个编码器的输出特征图通过跳跃连接与相应解码器的输入特征图连接。
7.根据权利要求6所述的多模态影像脑胶质瘤靶区分割方法,其特征在于,
所述实例归一化函数的表达式为:
Figure FDA0003654726990000041
xi为输入的配准图像特征,y为输出参数;γ为比例因子,μ为均值,σ为标准差,β为修正因子;
所述激活函数的表达式为:f(x)=max(ax,x),x:激活函数对应的所述卷积层输入,α为预设的参数。
8.一种多模态影像脑胶质瘤靶区分割系统,其特征在于,包括:
获取模块,被设置为用于获取经组织学证实为高级胶质母细胞瘤的病例,每个病例包含一例非增强CT图像和MRI图像;每个所述非增强CT图像包括原发肿瘤靶区以及由所述原发肿瘤靶区外扩形成的临床靶区,每个所述MRI图像包括T1C图像和T2-FLAIR图像;
配准模块,被设置为用于将所有病例的所述MRI图像与所述非增强CT图像进行刚性配准,得到非增强CT图像-MRI图像数据对;
去颅骨处理模块,被设置为用于对所述非增强CT图像-MRI图像数据对进行去颅骨操作,获得去颅骨图像;
网络分割模型构建模块,被设置为用于根据预设公式对所述去颅骨图像进行预处理,得到训练样本数据,所述训练样本数据分为三组数据对分别作为训练集、验证集和测试集;
根据所述训练样本数据构建网络分割模型,其中,所述训练集用于构建所述网络分割模型,验证集用于优化所述网络分割模型的超参数,测试集用于测试优化后的所述网络分割模型的性能;
手动勾画模块,被设置为用于通过输入设备在所述非增强CT图像-MRI图像数据对中所述MRI图像上靶区形态与特征在所述非增强CT图像上进行手动勾画,得到手动勾画图像;
质量评估模块,被设置为用于根据预设评估公式评估所述网络分割模型输出的分割图像与所述手动勾画图像的一致性。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至7中任意一项所述的多模态影像脑胶质瘤靶区分割方法的步骤。
CN202210550215.5A 2022-05-20 2022-05-20 多模态影像脑胶质瘤靶区分割方法、系统及设备 Pending CN114926487A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210550215.5A CN114926487A (zh) 2022-05-20 2022-05-20 多模态影像脑胶质瘤靶区分割方法、系统及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210550215.5A CN114926487A (zh) 2022-05-20 2022-05-20 多模态影像脑胶质瘤靶区分割方法、系统及设备

Publications (1)

Publication Number Publication Date
CN114926487A true CN114926487A (zh) 2022-08-19

Family

ID=82809489

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210550215.5A Pending CN114926487A (zh) 2022-05-20 2022-05-20 多模态影像脑胶质瘤靶区分割方法、系统及设备

Country Status (1)

Country Link
CN (1) CN114926487A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117711579A (zh) * 2024-02-02 2024-03-15 首都医科大学宣武医院 基于多模态影像的脑胶质瘤病理可视化方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117711579A (zh) * 2024-02-02 2024-03-15 首都医科大学宣武医院 基于多模态影像的脑胶质瘤病理可视化方法及装置

Similar Documents

Publication Publication Date Title
US11967072B2 (en) Three-dimensional object segmentation of medical images localized with object detection
US9968257B1 (en) Volumetric quantification of cardiovascular structures from medical imaging
Roy et al. Robust skull stripping using multiple MR image contrasts insensitive to pathology
US20080292194A1 (en) Method and System for Automatic Detection and Segmentation of Tumors and Associated Edema (Swelling) in Magnetic Resonance (Mri) Images
US20150003706A1 (en) Probability mapping for visualisation and analysis of biomedical images
Kuang et al. EIS-Net: segmenting early infarct and scoring ASPECTS simultaneously on non-contrast CT of patients with acute ischemic stroke
JP2023540910A (ja) 病変検出のための共同訓練を伴う接続機械学習モデル
US11241190B2 (en) Predicting response to therapy for adult and pediatric crohn&#39;s disease using radiomic features of mesenteric fat regions on baseline magnetic resonance enterography
WO2019182520A1 (en) Method and system of segmenting image of abdomen of human into image segments corresponding to fat compartments
US20230417851A1 (en) Automated segmentation of tissue in magnetic resonance imaging
Al Khalil et al. On the usability of synthetic data for improving the robustness of deep learning-based segmentation of cardiac magnetic resonance images
Sun et al. Intracranial hemorrhage detection by 3D voxel segmentation on brain CT images
Hsiao et al. A deep learning-based precision and automatic kidney segmentation system using efficient feature pyramid networks in computed tomography images
Egger et al. Vertebral body segmentation with GrowCut: Initial experience, workflow and practical application
Li et al. Automatic quantification of epicardial adipose tissue volume
Jafari et al. LMISA: A lightweight multi-modality image segmentation network via domain adaptation using gradient magnitude and shape constraint
Li et al. RSU-Net: U-net based on residual and self-attention mechanism in the segmentation of cardiac magnetic resonance images
CN114926487A (zh) 多模态影像脑胶质瘤靶区分割方法、系统及设备
Jalab et al. Fractional Renyi entropy image enhancement for deep segmentation of kidney MRI
Verburg et al. Knowledge‐based and deep learning‐based automated chest wall segmentation in magnetic resonance images of extremely dense breasts
Al-Qazzaz Deep learning-based brain tumour image segmentation and its extension to stroke lesion segmentation
Garcia et al. Multimodal breast parenchymal patterns correlation using a patient-specific biomechanical model
Zhou et al. Carotid vessel-wall-volume ultrasound measurement via a UNet++ ensemble algorithm trained on small data sets
Hachama et al. A classifying registration technique for the estimation of enhancement curves of DCE-CT scan sequences
CN108010093A (zh) 一种pet图像重建方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination