CN116051829A - 一种喉癌和下咽癌的三维ct图像分割方法 - Google Patents

一种喉癌和下咽癌的三维ct图像分割方法 Download PDF

Info

Publication number
CN116051829A
CN116051829A CN202211619244.9A CN202211619244A CN116051829A CN 116051829 A CN116051829 A CN 116051829A CN 202211619244 A CN202211619244 A CN 202211619244A CN 116051829 A CN116051829 A CN 116051829A
Authority
CN
China
Prior art keywords
image
dimensional
neural network
laryngeal
dimensional medical
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211619244.9A
Other languages
English (en)
Inventor
岳伟挺
陈少杰
钱卓涛
张新勇
曹月花
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
School of Information Engineering of Hangzhou Dianzi University
Original Assignee
School of Information Engineering of Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by School of Information Engineering of Hangzhou Dianzi University filed Critical School of Information Engineering of Hangzhou Dianzi University
Priority to CN202211619244.9A priority Critical patent/CN116051829A/zh
Publication of CN116051829A publication Critical patent/CN116051829A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/52Scale-space analysis, e.g. wavelet analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/032Recognition of patterns in medical or anatomical images of protuberances, polyps nodules, etc.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

本发明公开了一种喉癌和下咽癌的三维CT图像分割方法,所述喉癌和下咽癌的三维CT图像分割方法包括:S1:获取喉癌和下咽癌的原始三维医学CT图像;S2:将所述原始三维医学CT图像转化为二维医学CT图片,得到原始图像数据集;S3:将所述原始图像数据集中含有标签的有效图片作为训练集;S4:对所述训练集进行增强处理,得到增强后的训练集;S5:利用所述增强后的训练集对改进的Unet神经网络进行训练,得到训练好的神经网络;S6:利用所述训练好的神经网络对目标喉癌和下咽癌的三维医学CT图像进行分割,得到三维CT图像分割结果。本发明能够提高喉癌和下咽癌的三维CT图像分割的准确率和运算速度。

Description

一种喉癌和下咽癌的三维CT图像分割方法
技术领域
本发明涉及医疗图像处理技术领域,具体涉及一种喉癌和下咽癌的三维CT图像分割方法。
背景技术
喉癌和下咽癌是常见的头颈部恶性肿瘤,不仅会导致患者的发音、呼吸和吞咽功能失常,还会严重威胁患者生命。喉癌和下咽癌的治疗包括手术、放化疗和免疫治疗等。
图像分割技术在医学影像学中的应用,往往被很多外行人忽略。但是实际上在过去的十年中,智能图像分割技术几乎遍布医学影像学的各项检查中。不仅是因为医学图像分割能够准确检测人类不同部位的疾病的类型,例如癌症,肿瘤等,更重要的是它能够有助于从背景医学影像(例如CT或MRI图像)中识别出器官病变的像素,这是医学影像分析中最具挑战性的任务之一。
现有的图像分割技术中,通常是直接对二维数据或三维数据直接进行计算,这样会导致计算量大,运算速度过慢的问题,且现有的部分模型分割效果不太理想。
发明内容
本发明的目的在于提供一种喉癌和下咽癌的三维CT图像分割方法,以提高喉癌和下咽癌的三维CT图像分割的准确率和运算速度。
本发明解决上述技术问题的技术方案如下:
本发明提供一种喉癌和下咽癌的三维CT图像分割方法,所述喉癌和下咽癌的三维CT图像分割方法包括:
S1:获取喉癌和下咽癌的原始三维医学CT图像;
S2:将所述原始三维医学CT图像转化为二维医学CT图片,得到原始图像数据集;
S3:将所述原始图像数据集中含有标签的有效图片作为训练集;
S4:对所述训练集进行增强处理,得到增强后的训练集;
S5:利用所述增强后的训练集对改进的Unet神经网络进行训练,得到训练好的神经网络;
S6:利用所述训练好的神经网络对目标喉癌和下咽癌的三维医学CT图像进行分割,得到三维CT图像分割结果。
可选择地,所述步骤S2包括:
将所述原始三维医学CT图像的窗宽设置为230,窗位设置为-70,得到设置好的三维医学CT图像;
对所述设置好的三维医学CT图像进行重采样至512*512*128大小,得到重采样后的三维医学CT图像;
读取所述重采样后的三维医学CT图像各个维度的信息,并进行切片保存,得到多个二维医学CT图片;
将多个所述二维医学CT图片作为原始图像数据集输出。
可选择地,所述步骤S4中,增强处理包括:对训练集中的图片进行平移、旋转、翻转操作,以扩充所述训练集,得到增强后的训练集。
可选择地,所述步骤S5中,所述改进的Unet神经网络通过以下方式得到:
利用余弦退火函数对Unet神经网络结构中的学习率进行优化;
使用CrossEntropyLoss()和DiceLoss()混合交替损失函数对所述Unet神经网络进行模型训练;
在所述Unet神经网络总输出时定义一个γ函数以对不同层次的输出进行加权总和。
可选择地,所述余弦退火函数为:
Figure BDA0003999310500000031
其中,ηt表示当前迭代的学习率,
Figure BDA0003999310500000032
表示学习率的最大值,
Figure BDA0003999310500000033
表示学习率的最小值,Tcur表示当前迭代已学习样本数,Ti表示当前迭代的总样本数,π表示圆周率,cos()表示余弦函数。
可选择地,所述CrossEntropyLoss()和DiceLoss()混合交替损失函数为:
Figure BDA0003999310500000034
其中,ε()表示交叉熵损失函数CrossEntropyLoss()和DiceLoss()的混合定义,pn,c和yn,c分别为批处理中第c类和第n个像素的目标标签和预测概率,Y和P分别是视网膜图像真值和预测结果,C和N分别表示批处理中数据集类数和像素数。
可选择地,所述γ函数为:
Figure BDA0003999310500000035
其中,d为输出深度,μi为分配给每层输出的权重且
Figure BDA0003999310500000036
ε()表示,CrossEntropyLoss()和DiceLoss()混合交替损失函数,Y是视网膜图像真值,P是第i层的预测结果,i表示Unet神经网络的第i层。
本发明具有以下有益效果:
(1)本发明通过将三维医学CT影像转化为二维医学CT图片,能够大大提高了运算速度;
(2)本发明通过对二维医学CT图片的数据增强,能够提高网络的训练精度;
(3)在训练过程中,本发明对现有的Unet神经网络进行了优化:首先,采用了CrossEntropyLoss()和DiceLoss()两种损失函数混合使用的方法;其次,采用余弦退火函数CosineAnnealingDecay()优化学习率,而非常规的固定值学习率,以提升神经网络的分割效果。
附图说明
图1为本发明喉癌和下咽癌的三维CT图像分割方法的流程图;
图2为Unet神经网络的结构示意图。
具体实施方式
以下结合附图对本发明的原理和特征进行描述,所举实例只用于解释本发明,并非用于限定本发明的范围。
本发明提供一种喉癌和下咽癌的三维CT图像分割方法,参考图1所示,所述喉癌和下咽癌的三维CT图像分割方法包括:
S1:获取喉癌和下咽癌的原始三维医学CT图像;
S2:将所述原始三维医学CT图像转化为二维医学CT图片,得到原始图像数据集;
由于直接对三维CT图像进行3D分割会导致计算量太大,普通的硬件资源难以支撑,运算速度过慢。因此本发明将三维医学CT图像先转化为二维医学CT图片,以提升运算速度。
具体包括:
将所述原始三维医学CT图像的窗宽设置为230,窗位设置为-70,得到设置好的三维医学CT图像;
对所述设置好的三维医学CT图像进行重采样至512*512*128大小,得到重采样后的三维医学CT图像;
读取所述重采样后的三维医学CT图像各个维度的信息,并进行切片保存,得到多个二维医学CT图片;
将多个所述二维医学CT图片作为原始图像数据集输出。
这里,主要利用利用SimpleITK和Python中nibabel库,将.nii格式的三维医学CT图像,转化为二维医学CT图片,这一过程中主要用到的函数包括:
img=sitk.ReadImage(path);
data=sitk.GetArrayFromImage(img)。
SimpleITK是专门处理医学影像的软件。在SimpleITK中,图像的概念与计算机视觉中常用的RGB图像差异很大。RGB只是一个多维矩阵,是一个数学上的概念。而在SimpleITK中,图像是一种物理实体,图像中的每一个像素都是物理空间中的一个点,不仅有像素值,还有坐标,间距,方向等概念。
S3:将所述原始图像数据集中含有标签的有效图片作为训练集;
作为一种具体实施方式,本发明将60例患者的三维影像,切分为二维影像,共5161张。筛选出有标签的398张有效图片,作为数据集用来训练与预测。淘汰没有标签的无效图片,以提高模型的运算效率。
S4:对所述训练集进行增强处理,得到增强后的训练集;
这里,增强处理包括:对训练集中的图片进行平移、旋转、翻转操作,以扩充所述训练集,得到增强后的训练集。
这一操作的目的是为了能够提高网络的训练精度。
S5:利用所述增强后的训练集对改进的Unet神经网络进行训练,得到训练好的神经网络;
需要说明的是,UNet最早发表在2015的MICCAI上,短短3年,引用量目前已经达到了4070,足以见得其影响力。而后成为大多做医疗影像语义分割任务的baseline,也启发了大量研究者去思考U型语义分割网络。而如今在自然影像理解方面,也有越来越多的语义分割和目标检测SOTA模型开始关注和使用U型结构。U-net的结构为U型结构,其结构如图2所示。
UNet的encoder下采样4次,一共下采样16倍。对称地,其decoder也相应上采样4次,将encoder得到的高级语义特征图恢复到原图片的分辨率。
相比于FCN和Deeplab等,UNet共进行了4次上采样,并在同一个stage(阶段)使用了skip connection(跳跃连接),而不是直接在高级语义特征上进行监督和loss反传。这样就保证了最后恢复出来的特征图融合了更多的low-level(低水平)的feature(特征),也使得不同scale的feature得到了的融合,从而可以进行多尺度预测和DeepSupervision(深监督)。4次上采样也使得分割图恢复边缘等信息更加精细。
本发明选择U-net模型算法,主要考虑了以下主要因素:
(1)医学图像边界模糊、梯度复杂,需要较多的高分辨率信息,高分辨率用于精准分割;
(2)人体内部结构相对固定,分割目标在人体图像中的分布很具有规律,语义简单明确,低分辨率信息能够提供这一信息,用于目标物体的识别;
(3)Unet结合了低分辨率信息(提供物体类别识别依据)和高分辨率信息(提供精准分割定位依据)的优势,完美适用于医学图像分割场景。
本发明还对常规的Unet网络进行了优化:
利用余弦退火函数对Unet神经网络结构中的学习率进行优化;
当使用梯度下降算法优化目标函数时,当越来越接近Loss值的全局最小值时,学习率应该变得更小来使得模型尽可能接近这一点,而余弦退火(Cosine annealing)可以通过余弦函数来降低学习率。余弦函数中随着x的增加余弦值首先缓慢下降,然后加速下降,再次缓慢下降。这种下降模式能和学习率配合,以一种十分有效的计算方式来产生很好的效果。
这里,余弦退火函数为:
Figure BDA0003999310500000061
其中,ηt表示当前迭代的学习率,
Figure BDA0003999310500000062
表示学习率的最大值,
Figure BDA0003999310500000063
表示学习率的最小值,Tcur表示当前迭代已学习样本数,Ti表示当前迭代的总样本数,π表示圆周率,cos()表示余弦函数。
使用CrossEntropyLoss()和DiceLoss()混合交替损失函数对所述Unet神经网络进行模型训练;
由于喉部的CT图像中的背景占比大,肿瘤占比小,为了解决类别占比不平衡和平滑梯度的问题,本发明在训练的时候损失函数混合使用交叉熵损失函数CrossEntropyLoss()和Dice Loss()损失函数,混合交替损失函数为:
Figure BDA0003999310500000071
其中,ε()表示交叉熵损失函数CrossEntropyLoss()和DiceLoss()的混合定义,pn,c和yn,c分别为批处理中第c类和第n个像素的目标标签和预测概率,Y和P分别是视网膜图像真值和预测结果,C和N分别表示批处理中数据集类数和像素数。
神经网络训练过程中,使用损失函数计算每次迭代的结果与真实值之间的差距,从而指导下一步训练向正确的方向进行。损失函数改进主要解决的是类不平衡的问题,本发明主要是从两个损失函数相结合的这个方面进行改进。采用了交叉熵和Dice loss损失组合新的损失函数。混合交替损失函数结合了交叉熵的稳定性和类不平衡不影响Diceloss的特性,因此它有比Dice loss更好的稳定性,比交叉熵更好地解决类不平衡的问题。
在所述Unet神经网络总输出时定义一个γ函数以对不同层次的输出进行加权总和。
可选择地,所述γ函数为:
Figure BDA0003999310500000072
其中,d为输出深度,μi为分配给每层输出的权重且
Figure BDA0003999310500000073
ε()表示CrossEntropyLoss()和DiceLoss()混合交替损失函数,Y是视网膜图像真值,P是第i层的预测结果,i表示Unet神经网络的第i层。
S6:利用所述训练好的神经网络对目标喉癌和下咽癌的三维医学CT图像进行分割,得到三维CT图像分割结果。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种喉癌和下咽癌的三维CT图像分割方法,其特征在于,所述喉癌和下咽癌的三维CT图像分割方法包括:
S1:获取喉癌和下咽癌的原始三维医学CT图像;
S2:将所述原始三维医学CT图像转化为二维医学CT图片,得到原始图像数据集;
S3:将所述原始图像数据集中含有标签的有效图片作为训练集;
S4:对所述训练集进行增强处理,得到增强后的训练集;
S5:利用所述增强后的训练集对改进的Unet神经网络进行训练,得到训练好的神经网络;
S6:利用所述训练好的神经网络对目标喉癌和下咽癌的三维医学CT图像进行分割,得到三维CT图像分割结果。
2.根据权利要求1所述的喉癌和下咽癌的三维CT图像分割方法,其特征在于,所述步骤S2包括:
将所述原始三维医学CT图像的窗宽设置为230,窗位设置为-70,得到设置好的三维医学CT图像;
对所述设置好的三维医学CT图像进行重采样至512*512*128大小,得到重采样后的三维医学CT图像;
读取所述重采样后的三维医学CT图像各个维度的信息,并进行切片保存,得到多个二维医学CT图片;
将多个所述二维医学CT图片作为原始图像数据集输出。
3.根据权利要求1所述的喉癌和下咽癌的三维CT图像分割方法,其特征在于,所述步骤S4中,增强处理包括:对训练集中的图片进行平移、旋转、翻转操作,以扩充所述训练集,得到增强后的训练集。
4.根据权利要求1-3中任意一项所述的喉癌和下咽癌的三维CT图像分割方法,其特征在于,所述步骤S5中,所述改进的Unet神经网络通过以下方式得到:
利用余弦退火函数对Unet神经网络结构中的学习率进行优化;
使用CrossEntropyLoss()和DiceLoss()混合交替损失函数对所述Unet神经网络进行模型训练;
在所述Unet神经网络总输出时定义一个γ函数以对不同层次的输出进行加权总和。
5.根据权利要求4所述的喉癌和下咽癌的三维CT图像分割方法,其特征在于,所述余弦退火函数为:
Figure FDA0003999310490000021
其中,ηt表示当前迭代的学习率,
Figure FDA0003999310490000022
表示学习率的最大值,
Figure FDA0003999310490000023
表示学习率的最小值,Tcur表示当前迭代已学习样本数,Ti表示当前迭代的总样本数,π表示圆周率,cos()表示余弦函数。
6.根据权利要求4所述的喉癌和下咽癌的三维CT图像分割方法,其特征在于,所述CrossEntropyLoss()和DiceLoss()混合交替损失函数为:
Figure FDA0003999310490000024
其中,ε()表示交叉熵损失函数CrossEntropyLoss()和DiceLoss()的混合定义,pn,c和yn,c分别为批处理中第c类和第n个像素的目标标签和预测概率,Y和P分别是视网膜图像真值和预测结果,C和N分别表示批处理中数据集类数和像素数。
7.根据权利要求4所述的喉癌和下咽癌的三维CT图像分割方法,其特征在于,所述γ函数为:
Figure FDA0003999310490000025
其中,d为输出深度,μi为分配给每层输出的权重且
Figure FDA0003999310490000031
ε()表示CrossEntropyLoss()和DiceLoss()混合交替损失函数,Y是视网膜图像真值,P是第i层的预测结果,i表示Unet神经网络的第i层。
CN202211619244.9A 2022-12-14 2022-12-14 一种喉癌和下咽癌的三维ct图像分割方法 Pending CN116051829A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211619244.9A CN116051829A (zh) 2022-12-14 2022-12-14 一种喉癌和下咽癌的三维ct图像分割方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211619244.9A CN116051829A (zh) 2022-12-14 2022-12-14 一种喉癌和下咽癌的三维ct图像分割方法

Publications (1)

Publication Number Publication Date
CN116051829A true CN116051829A (zh) 2023-05-02

Family

ID=86120865

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211619244.9A Pending CN116051829A (zh) 2022-12-14 2022-12-14 一种喉癌和下咽癌的三维ct图像分割方法

Country Status (1)

Country Link
CN (1) CN116051829A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111260671A (zh) * 2020-05-07 2020-06-09 北京精诊医疗科技有限公司 一种ct影像肺部分叶方法及系统
CN111354002A (zh) * 2020-02-07 2020-06-30 天津大学 一种基于深度神经网络的肾脏及肾脏肿瘤分割方法
CN112927255A (zh) * 2021-02-22 2021-06-08 武汉科技大学 一种基于上下文注意力策略的三维肝脏影像语义分割方法
CN113470035A (zh) * 2021-06-15 2021-10-01 桂林电子科技大学 一种基于序列图像误差网络校正的图像分割方法
CN114782384A (zh) * 2022-04-28 2022-07-22 东南大学 一种基于半监督方法的心脏腔室图像分割方法及装置
CN114998296A (zh) * 2022-06-24 2022-09-02 常州大学 一种基于改进Unet网络的甲状腺结节分割方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111354002A (zh) * 2020-02-07 2020-06-30 天津大学 一种基于深度神经网络的肾脏及肾脏肿瘤分割方法
CN111260671A (zh) * 2020-05-07 2020-06-09 北京精诊医疗科技有限公司 一种ct影像肺部分叶方法及系统
CN112927255A (zh) * 2021-02-22 2021-06-08 武汉科技大学 一种基于上下文注意力策略的三维肝脏影像语义分割方法
CN113470035A (zh) * 2021-06-15 2021-10-01 桂林电子科技大学 一种基于序列图像误差网络校正的图像分割方法
CN114782384A (zh) * 2022-04-28 2022-07-22 东南大学 一种基于半监督方法的心脏腔室图像分割方法及装置
CN114998296A (zh) * 2022-06-24 2022-09-02 常州大学 一种基于改进Unet网络的甲状腺结节分割方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
天涯尽头黄鹤: "混合使用CrossEntropyLoss()和Dice Loss()两个损失函数的公式定义", pages 1, Retrieved from the Internet <URL:https://blog.csdn.net/pidzhengding/article/details/116938799> *
我就是超级帅: "学习率衰减之余弦退火(CosineAnnealing)", pages 1, Retrieved from the Internet <URL:https://blog.csdn.net/weixin_35848967/article/details/108493217> *
曹月花 等: "复杂环境下道路车道线识别算法的研究", 《现代电子技术》, vol. 40, no. 14, pages 109 - 113 *
王莹 等: "融合深度残差结构的Dense-UNet脑肿瘤分割", 《无线电工程》, pages 1566 - 1563 *
邓鸿 等: "基于生成对抗网络的肝脏CT图像分割", 《北京生物医学工程》, pages 367 - 376 *

Similar Documents

Publication Publication Date Title
CN109389587B (zh) 一种医学图像分析系统、装置及存储介质
Zlocha et al. Improving RetinaNet for CT lesion detection with dense masks from weak RECIST labels
US10482603B1 (en) Medical image segmentation using an integrated edge guidance module and object segmentation network
Cheng et al. Domain transfer learning for MCI conversion prediction
CN111328397B (zh) 使用深度学习方法对3d牙齿数据进行自动分类和归类
CN110930416B (zh) 一种基于u型网络的mri图像前列腺分割方法
Zhao et al. SCOAT-Net: A novel network for segmenting COVID-19 lung opacification from CT images
Li et al. DenseX-net: an end-to-end model for lymphoma segmentation in whole-body PET/CT images
CN110998602A (zh) 使用深度学习方法对3d牙颌面结构的分类和3d建模
CN110223300A (zh) Ct图像腹部多器官分割方法及装置
Cao et al. Gastric cancer diagnosis with mask R-CNN
Popescu et al. Retinal blood vessel segmentation using pix2pix gan
CN115131280A (zh) 一种融合注意力机制的改进YOLO v4肺结节检测方法
CN111568451A (zh) 一种曝光剂量调节方法和系统
Watanabe et al. Generative image transformer (GIT): unsupervised continuous image generative and transformable model for [123 I] FP-CIT SPECT images
Pal et al. A fully connected reproducible SE-UResNet for multiorgan chest radiographs segmentation
CN116051829A (zh) 一种喉癌和下咽癌的三维ct图像分割方法
CN116091412A (zh) 一种从pet/ct图像中分割肿瘤的方法
Dabass et al. Lung segmentation in CT scans with residual convolutional and attention learning-based U-Net
Gu et al. Image generation technology for functional occlusal pits and fissures based on a conditional generative adversarial network
Zhang et al. Atlas-based semantic segmentation of prostate zones
Bajaj et al. Diabetic retinopathy stage classification
Yue et al. KFS-Net: Key Features Sampling Network for Lung Nodule Segmentation
Prasanna et al. Deep learning models for predicting the position of the head on an X-ray image for Cephalometric analysis
US12039735B2 (en) Systems and methods for automatic segmentation of organs from head and neck tomographic images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination