CN114170193A - 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 - Google Patents

一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 Download PDF

Info

Publication number
CN114170193A
CN114170193A CN202111505604.8A CN202111505604A CN114170193A CN 114170193 A CN114170193 A CN 114170193A CN 202111505604 A CN202111505604 A CN 202111505604A CN 114170193 A CN114170193 A CN 114170193A
Authority
CN
China
Prior art keywords
gan network
target area
nasopharyngeal carcinoma
training
generator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111505604.8A
Other languages
English (en)
Inventor
王菲
钱立庭
任才俊
杨立山
陈欢欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Science and Technology of China USTC
Original Assignee
University of Science and Technology of China USTC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Science and Technology of China USTC filed Critical University of Science and Technology of China USTC
Priority to CN202111505604.8A priority Critical patent/CN114170193A/zh
Priority to CN202210222446.3A priority patent/CN114511554A/zh
Publication of CN114170193A publication Critical patent/CN114170193A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于深度学习的鼻咽癌靶区自动勾画方法及系统,其方法包括:步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将数据集划分为训练集、验证集和测试集;步骤S2:构建2D‑PE‑GAN网络模型,将训练集和验证集输入2D‑PE‑GAN网络进行训练和优化,直到得到训练好的2D‑PE‑GAN网络;其中,2D‑PE‑GAN网络模型包括:生成器和鉴别器,生成器包括2D‑PE‑Block模块;步骤S3:将测试集输入训练好的2D‑PE‑GAN网络,输出对应鼻咽癌靶区的勾画结果。本发明提供的方法,通过构建全新的2D‑PE‑Block对GAN网络的生成器进行改进,充分利用图像的语义信息,提升网络的学习能力,提高鼻咽癌靶区自动勾画的准确度。

Description

一种基于深度学习的鼻咽癌靶区自动勾画方法及系统
技术领域
本发明涉及靶区自动勾画技术领域,具体涉及一种基于深度学习的鼻咽癌靶区自动勾画方法及系统。
背景技术
鼻咽癌(nasopharyngeal carcinoma,NPC)是指发生在鼻咽腔的恶性肿瘤,是我国高发恶性肿瘤之一。对于早期鼻咽癌患者的治疗,首要选择就是放射治疗。对于放疗来说,合理准确地勾画靶区是治疗的关键因素,其中,靶区主要包括有大体肿瘤靶区(grosstumor volume,GTV),临床靶区(clinical tumor volume,CTV)以及计划靶区(planningtumor volume,PTV)。
由于鼻咽部本身的位置特点,导致在放射治疗过程中会造成危及器官受到射线的影响,所以在实际的临床治疗中,靶区勾画的精准度对于治疗效果起着很大的作用,放疗前的计划制定和结果评估是很重要的。当前,鼻咽癌的靶区是由专业的医师手工勾画,但是会存在一些不可避免的问题:医师手动勾画会浪费大量的时间和人力;靶区勾画的结果受医师的经验影响,不同医师勾画的结果存在一定的差距。所以,需要找到一种合适的方法来使靶区勾画更高效和准确。
近年来,深度学习方法在医学图像处理上取得很大的成功,将深度学习引入图像分割领域后,使得分割区域具有更丰富的语义信息,图像分割的问题也取得了突破性的进展。
在医学图像分割领域中,卷积神经网络(Convolutional Neural Networks,CNN)成为了深度学习的代表网络之一,CNN能很好地表示出图像的层次特征,并利用图像中的语义信息,实现语义分割。医学图像的语义分割主要是针对于图像的像素进行处理,将像素进行分类考虑,也有研究者在卷积神经网络基础上,提出了全卷积神经网络(fullyconvolutional networks,FCN),Unet等一系列网络来不断提高图像分割的效果。
但是使用卷积神经网络类似于FCN,UNet等进行分割仍然具有局限性:卷积神经网络在训练时不能很好地学习到目标图像的特点,它一般会将图像中的每个像素点单独考虑,就会使得网络在像素层面分割准确性较好,但是会缺失图像的上下文信息,导致最后的分割结果不够准确。
发明内容
为了解决上述技术问题,本发明提供一种基于深度学习的鼻咽癌靶区自动勾画方法及系统。
本发明技术解决方案为:一种基于深度学习的鼻咽癌靶区自动勾画方法,包括:
步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将所述数据集划分为训练集、验证集和测试集;
步骤S2:构建2D-PE-GAN网络模型,将所述训练集和验证集输入所述2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,所述2D-PE-GAN网络模型包括:生成器和鉴别器,所述生成器包括2D-PE-Block模块;
步骤S3:将所述测试集输入所述训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果。
本发明与现有技术相比,具有以下优点:
本发明公开了一种基于深度学习的鼻咽癌靶区自动勾画方法,通过构建全新的2D-PE-Block对GAN网络的生成器进行改进,解决了传统卷积神经网络由于损失函数的影响,在图像分割中缺少图像像素点的上下文信息的问题;充分利用图像的语义信息,提升网络的学习能力,提高鼻咽癌靶区自动勾画的准确度。同时,相比较于全卷积神经网络Unet、GAN,以及加入注意力机制的GAN来说,在尽可能减少网络计算资源占有的前提下,能提高网络对鼻咽癌靶区自动勾画的精确度。
附图说明
图1为本发明实施例中一种基于深度学习的鼻咽癌靶区自动勾画方法的流程图;
图2为本发明实施例中2D-PE-GAN网络结构示意图;
图3为本发明实施例中一种基于深度学习的鼻咽癌靶区自动勾画系统的结构框图。
具体实施方式
本发明提供了一种基于深度学习的鼻咽癌靶区自动勾画方法,通过构建全新的2D-PE-Block对GAN网络的生成器进行改进,充分利用图像的语义信息,提升网络的学习能力,提高鼻咽癌靶区自动勾画的准确度。
为了使本发明的目的、技术方案及优点更加清楚,以下通过具体实施,并结合附图,对本发明进一步详细说明。
实施例一
如图1所示,本发明实施例提供的一种基于深度学习的鼻咽癌靶区自动勾画方法,包括下述步骤:
步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将数据集划分为训练集、验证集和测试集;
步骤S2:构建2D-PE-GAN网络模型,将训练集和验证集输入2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,2D-PE-GAN网络模型包括:生成器和鉴别器,生成器包括2D-PE-Block模块;
步骤S3:将测试集输入训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果。
在一个实施例中,上述步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将数据集划分为训练集、验证集和测试集,具体包括:
步骤S11:收集鼻咽癌病人的医学图像,由专业放疗医师勾画其靶区标签,并对标有鼻咽癌靶区标签的医学图像进行图像处理,提取出对应的靶区勾画标签;
本发明实施例主要针对鼻咽癌CTV靶区进行自动勾画,收集了130例鼻咽癌病人的CT图像,由专业放疗医师勾画其靶区标签,并且为了保证数据的一致性,上述130例CT图像由2个相同放疗师所勾画;对标有鼻咽癌靶区标签的DICOM医学图进行查看和读取,使用Sante DICOM View可以查看和编辑DICOM格式文件,使用python中的pydicom、numpy等包来对医学图像进行读取,得到具有鼻咽癌靶区标签的医学图像。
步骤S12:对具有鼻咽癌靶区标签的医学图像进行归一化处理,得到归一化后的医学图像;
由于CT图像的采集会受到设备设置的影响,导致图像灰度信息上存在差异,因此将CT图像的灰度值归一化到[0,1]区间。
步骤S13:对归一化后的医学图像进行裁剪,使其包括肿瘤靶区,得到裁剪后的医学图像;
收集到的CT图像是512×512大小,其中包括有背景区域以及医疗设备的区域,导致后续网络训练时会浪费较多的资源,因此需要通过图像裁剪,将图像大小缩小为256×256,使其包括目标靶区,同时又能提高计算效率。
步骤S14:对裁剪后的医学图像进行随机翻转和旋转,得到最终的数据集,并将数据集划分为训练集、验证集和测试集。
本发明实施例中为了防止网络模型出现过拟合现象,在网络训练前对输入图像使用随机翻转和旋转的方式来增强数据,其中,图像旋转主要是将图像进行±30°以内随机角度。
经过上述操作后,得到最终的数据集。随机选取其中90张图像作为训练集,19张用于验证集,剩下的21张图像作为测试集。
在一个实施例中,上述步骤S2:构建2D-PE-GAN网络模型,将训练集和验证集输入2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,2D-PE-GAN网络模型包括:生成器和鉴别器,生成器包括2D-PE-Block模块,具体包括:
步骤S21:构建2D-PE-GAN网络模型中的生成器,生成器包括:卷积操作、批归一化、ReLU激活函数、反卷积操作以及最大池化操作;
本发明实施例使用Unet作为2D-PE-GAN网络模的生成器,其中生成器包括编码器和解码器,分别具有6层卷积层和反卷积层,分别采用7×7、5×5、5×5、5×5、5×5和4×4的卷积核大小,步长分别为3、2、2、2、2和1,每一层卷积操作后面有批归一化和ReLu激活函数以及最大池化操作;生成器用来生成鼻咽癌靶区勾画图片;
如图2所示为本发明2D-PE-GAN网络结构示意图。
步骤S22:将2D-PE-Block模块加入到生成器的每一层卷积操作的最后,2D-PE-Block类似通道注意力机制,包括投影操作和激发操作;
其中,投影操作(projection)使得通道在2D上进行计算得到对应的投影向量,通过池化操作利用到更多的空间信息,具体包括:
投影操作沿着W和H两个维度进行平均池化,表示为公式(1)~(2);
Figure BDA0003403071660000041
Figure BDA0003403071660000042
其中,S代表的输入图像,c是通道数;SC表示输入图像S的第c个通道;Opr(SC)代表SC在不同维度的投影;
Figure BDA0003403071660000043
Figure BDA0003403071660000044
代表输入图像在不同维度平均池化之后的输出结果;
激发操作(excitation)包括:卷积操作、ReLU和sigmoid函数,经过激发操作可得到每个通道的权重系数,并学习投影向量在不同通道上的相关性,具体包括:
将上述投影操作得到的结果Zc再展开到原始形状H×W×C,之后相加得到Z作为激发操作Oex的输入,输出的
Figure BDA0003403071660000051
Figure BDA0003403071660000052
和S的点乘,激发操作Oex函数具体如公式(3)所示:
Figure BDA0003403071660000053
其中,б和δ分别是sigmoid函数和ReLU激活函数;A1和A2表示两个卷积层;*和⊙分别表示卷积和点乘运算;
经过生成器,生成预测的鼻咽癌靶区的勾画图片,将其输入下述鉴别器判别真假;
步骤S23:构建2D-PE-GAN网络模型中的鉴别器,鉴别器包括:由卷积层,批归一化和ReLU激活函数;
本发明实施例中的2D-PE-GAN网络模型的鉴别器和端到端的编解码卷积神经网络中的编码器结构类似;该鉴别器用于在网络训练时判断图片是“真实的”还是“虚假的”鼻咽癌靶区的勾画图片。
步骤S24:将训练集输入2D-PE-GAN网络进行训练,并利用验证集优化生成器和鉴别器的参数,当训练结果中Dice系数连续n次没有提高时,得到训练好的2D-PE-GAN网络。
在本发明实施例中,生成器和鉴别器互相博弈,利用训练集数据进行网络训练,并利用验证集数据优化生成器和鉴别器的参数,最终以Dice系数作为网络训练结束的标准,当网络训练的结果中Dice系数连续五次没有提高的时候,停止训练网络模型,此时得到训练好的2D-PE-GAN网络。
在一个实施例中,上述步骤S3:将测试集输入训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,具体包括:
使用测试集,对训练好的2D-PE-GAN网络进行测试,使用Dice系数作为最终的评价指标,使用豪斯多夫距离(Hausdorff distance,HD)评估鼻咽癌靶区的勾画结果的精确度评估结果,如表1展示了本发明提供的方法同其他神经网络进行靶区勾画结果的评估对比,表2展示了本发明的2D-PE-GAN网络和加入注意力机制的GAN网络的参数以及训练时间对比结果。
表1不同网络对21个鼻咽癌患者靶区勾画结果的评估参数结果(Mean+SD)
Figure BDA0003403071660000054
Figure BDA0003403071660000061
表2 2D-PE-GAN和加入注意力机制的GAN网络的参数以及训练时间
GAN+Attention 本发明2D-PE-GAN
时间(s) 67 55
参数个数 11080680 11062072
由表1和表2可知,使用本发明提供的2D-PE-GAN网络能有效提高网络分割效率,其中,Dice系数越大,HD越小,表示样本之间的差异越小。2D-PE-GAN网络的平均Dice系数比Unet提高了19%,比GAN网络提高了14%,比加入注意力机制的GAN提高了2%,由表1可知,2D-PE-Block的分割精确度和加入注意力机制差不多,但是由表2可知,2D-PE-GAN网络的训练时间和网络参数都比GAN+Attention的要少,可知,2D-PE-GAN网络在一定程度上,既能提高网络分割性能,也能减少计算资源的使用和训练时间。
本发明公开了一种基于深度学习的鼻咽癌靶区自动勾画方法,通过构建全新的2D-PE-Block对GAN网络的生成器进行改进,解决了传统卷积神经网络由于损失函数的影响,在图像分割中缺少图像像素点的上下文信息的问题;充分利用图像的语义信息,提升网络的学习能力。同时,相比较于全卷积神经网络Unet和GAN,以及加入注意力机制的GAN来说,在尽可能减少网络计算资源占有的前提下,能提高网络对鼻咽癌靶区自动勾画的精确度。
实施例二
如图3所示,本发明实施例提供了一种基于深度学习的鼻咽癌靶区自动勾画系统,包括下述模块:
构建数据集模块,用于收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将数据集划分为训练集、验证集和测试集;
训练网络模型模块,用于构建2D-PE-GAN网络模型,将训练集和验证集输入2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,2D-PE-GAN网络模型包括:生成器和鉴别器,生成器包括2D-PE-Block模块;
评估模块,用于将测试集输入训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,并对该结果的精度进行评估。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。

Claims (5)

1.一种基于深度学习的鼻咽癌靶区自动勾画方法,其特征在于,包括:
步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将所述数据集划分为训练集、验证集和测试集;
步骤S2:构建2D-PE-GAN网络模型,将所述训练集和验证集输入所述2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,所述2D-PE-GAN网络模型包括:生成器和鉴别器,所述生成器包括2D-PE-Block模块;
步骤S3:将所述测试集输入所述训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,并对该结果的精度进行评估。
2.根据权利要求1所述的基于深度学习的鼻咽癌靶区自动勾画方法,其特征在于,所述步骤S1:收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将所述数据集划分为训练集、验证集和测试集,具体包括:
步骤S11:收集鼻咽癌病人的医学图像,由专业放疗医师勾画其靶区标签,并对其进行图像处理,提取出对应的靶区勾画标签,得到具有鼻咽癌靶区标签的医学图像;
步骤S12:对所述具有鼻咽癌靶区标签的医学图像进行归一化处理,得到归一化后的医学图像;
步骤S13:对所述归一化后的医学图像进行裁剪,使其包括肿瘤靶区,得到裁剪后的医学图像;
步骤S14:对所述裁剪后的医学图像进行随机翻转和旋转,得到最终的数据集,并将所述数据集划分为训练集、验证集和测试集。
3.根据权利要求1所述的基于深度学习的鼻咽癌靶区自动勾画方法,其特征在于,所述步骤S2:构建2D-PE-GAN网络模型,将所述训练集和验证集输入所述2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,所述2D-PE-GAN网络模型包括:生成器和鉴别器,所述生成器包括2D-PE-Block模块,具体包括:
步骤S21:构建2D-PE-GAN网络模型中的生成器,所述生成器包括:卷积操作、批归一化、ReLU激活函数、反卷积操作以及最大池化操作;
步骤S22:将2D-PE-Block模块加入到所述生成器的每一层卷积操作的最后,2D-PE-Block包括:投影操作和激发操作;
其中,所述投影操作使得通道在2D上进行计算得到对应的投影向量,通过池化操作利用到更多的空间信息;具体包括:
所述投影操作沿着W和H两个维度进行平均池化,表示为公式(1)~(2);
Figure FDA0003403071650000021
Figure FDA0003403071650000022
其中,S代表的输入图像,c是通道数;SC表示输入图像S的第c个通道;Opr(SC)代表SC在不同维度的投影;
Figure FDA0003403071650000023
Figure FDA0003403071650000024
代表输入图像在不同维度平均池化之后的输出结果;
所述激发操作包括:卷积操作、ReLU和sigmoid函数,经过所述激发操作可得到每个通道的权重系数,并学习所述投影向量在不同通道上的相关性,具体包括:
将所述投影操作得到的结果Zc再展开到原始形状H×W×C,之后相加得到Z作为激发操作Oex的输入,输出的
Figure FDA0003403071650000025
Figure FDA0003403071650000026
和S的点乘,所述激发操作Oex函数具体如公式(3)所示:
Figure FDA0003403071650000027
其中,
Figure FDA0003403071650000028
和δ分别是sigmoid函数和ReLU激活函数;A1和A2表示两个卷积层;*和⊙分别表示卷积和点乘运算;
经过生成器,生成预测的鼻咽癌靶区的勾画结果,将其输入下述鉴别器判别真假;
步骤S23:构建2D-PE-GAN网络模型中的鉴别器,所述鉴别器包括:由卷积层,批归一化和ReLU激活函数;
步骤S24:将所述训练集输入所述2D-PE-GAN网络进行训练,并利用所述验证集优化所述生成器和鉴别器的参数,当训练结果中Dice系数连续n次没有提高时,得到训练好的2D-PE-GAN网络。
4.根据权利要求1所述的基于深度学习的鼻咽癌靶区自动勾画方法,其特征在于,所述步骤S3:将所述测试集输入所述训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,并对该结果的精度进行评估,具体包括:
使用所述测试集,对所述训练好的2D-PE-GAN网络进行测试,使用Dice系数作为最终的评价指标,使用豪斯多夫距离评估所述鼻咽癌靶区的勾画结果的精确度。
5.一种基于深度学习的鼻咽癌靶区自动勾画系统,其特征在于,包括下述模块:
构建数据集模块,用于收集鼻咽癌病人的医学图像并进行预处理,构建数据集,并将所述数据集划分为训练集、验证集和测试集;
训练网络模型模块,用于构建2D-PE-GAN网络模型,将所述训练集和验证集输入所述2D-PE-GAN网络进行训练和优化,直到得到训练好的2D-PE-GAN网络;其中,所述2D-PE-GAN网络模型包括:生成器和鉴别器,所述生成器包括2D-PE-Block模块;
评估模块,用于将所述测试集输入所述训练好的2D-PE-GAN网络,输出对应鼻咽癌靶区的勾画结果,并对该结果的精度进行评估。
CN202111505604.8A 2021-12-10 2021-12-10 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统 Pending CN114170193A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111505604.8A CN114170193A (zh) 2021-12-10 2021-12-10 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统
CN202210222446.3A CN114511554A (zh) 2021-12-10 2022-03-07 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111505604.8A CN114170193A (zh) 2021-12-10 2021-12-10 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统

Publications (1)

Publication Number Publication Date
CN114170193A true CN114170193A (zh) 2022-03-11

Family

ID=80485300

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202111505604.8A Pending CN114170193A (zh) 2021-12-10 2021-12-10 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统
CN202210222446.3A Pending CN114511554A (zh) 2021-12-10 2022-03-07 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202210222446.3A Pending CN114511554A (zh) 2021-12-10 2022-03-07 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统

Country Status (1)

Country Link
CN (2) CN114170193A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114612478A (zh) * 2022-03-21 2022-06-10 华南理工大学 一种基于深度学习的女性盆腔mri自动勾画系统
CN117576127A (zh) * 2024-01-17 2024-02-20 神州医疗科技股份有限公司 一种基于病理图像的肝癌区域自动勾画方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115359881B (zh) * 2022-10-19 2023-04-07 成都理工大学 一种基于深度学习的鼻咽癌肿瘤自动勾画方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114612478A (zh) * 2022-03-21 2022-06-10 华南理工大学 一种基于深度学习的女性盆腔mri自动勾画系统
CN114612478B (zh) * 2022-03-21 2024-05-10 华南理工大学 一种基于深度学习的女性盆腔mri自动勾画系统
CN117576127A (zh) * 2024-01-17 2024-02-20 神州医疗科技股份有限公司 一种基于病理图像的肝癌区域自动勾画方法
CN117576127B (zh) * 2024-01-17 2024-04-19 神州医疗科技股份有限公司 一种基于病理图像的肝癌区域自动勾画方法

Also Published As

Publication number Publication date
CN114511554A (zh) 2022-05-17

Similar Documents

Publication Publication Date Title
US20220309674A1 (en) Medical image segmentation method based on u-net
US11170502B2 (en) Method based on deep neural network to extract appearance and geometry features for pulmonary textures classification
CN114170193A (zh) 一种基于深度学习的鼻咽癌靶区自动勾画方法及系统
CN111340828A (zh) 基于级联卷积神经网络的脑部胶质瘤分割
CN108053417A (zh) 一种基于混合粗分割特征的3DU-Net网络的肺分割装置
US20240257356A1 (en) Three-dimensional medical image segmentation method and system based on short-term and long-term memory self-attention model
CN110992351B (zh) 基于多输入卷积神经网络的sMRI图像分类方法和装置
CN112580515B (zh) 一种基于高斯热图回归的轻量级人脸关键点检测方法
CN112734764A (zh) 一种基于对抗网络的无监督医学图像分割方法
CN113706486B (zh) 基于密集连接网络迁移学习的胰腺肿瘤图像分割方法
CN112381846A (zh) 一种基于非对称网络的超声甲状腺结节分割方法
CN110349170A (zh) 一种全连接crf级联fcn和k均值脑肿瘤分割算法
CN117333497A (zh) 一种基于掩码监督策略的高效建模的三维医学影像分割方法
CN114821052A (zh) 基于自调节策略的三维脑肿瘤核磁共振图像分割方法
CN112862783A (zh) 一种基于神经网络的甲状腺ct图像结节自动诊断系统
CN114581474A (zh) 一种基于宫颈癌ct影像的临床靶区自动勾画方法
Wang et al. Multi-view fusion segmentation for brain glioma on CT images
CN114093507A (zh) 边缘计算网络中基于对比学习的皮肤病智能分类方法
CN109934796A (zh) 一种基于深度集成学习的器官自动勾画方法
CN111798463B (zh) 一种头颈部ct图像中多器官自动分割方法
CN117474933A (zh) 一种基于空洞卷积注意力机制的医学图像分割方法
CN116681883A (zh) 基于Swin Transformer改进的乳腺影像病灶检测方法
CN114612478B (zh) 一种基于深度学习的女性盆腔mri自动勾画系统
CN111888665A (zh) 一种基于自适应修正对抗网络的三维剂量分布预测方法
CN112419348B (zh) 基于多任务学习边缘校正网络的男性盆腔ct分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20220311